Jako ludzie żyjący w drugiej dekadzie XXI wieku jesteśmy przyzwyczajeni do faktu, iż technologia polegająca na różnych formach sztucznej inteligencji otacza nas każdego dnia. Oprogramowania analizują nasze zainteresowania, podsuwają nam wiadomości do przeczytania i filmy do obejrzenia, inteligentna lodówka może poinformować nas jakich produktów brakuje nam w domu, niektórzy z nas mogli mieć nawet okazję przeczytać artykuł w pełni napisany przez SI. Zdaniem wielu futurologów w przyszłości technologia ta rozwinie się na sposoby pozwalające naszym wirtualnym asystentom na dorównanie lub nawet przewyższenie zdolności myślenia ludzi. W pewnym momencie możliwe, że będziemy mogli mówić o SI już nie jako zaawansowanym przyrządzie, lecz raczej podobnej do nas osobie, a wobec tego musimy zadać sobie istotne pytania, co zrobimy, jeśli maszyny zaczną domagać się swojej emancypacji? Czy zasługują one na zestaw swoich własnych praw?

SI jako członkowie społeczeństwa?
By odpowiedzieć na pytanie, “Czy sztuczna inteligencja powinna mieć zagwarantowane swoje prawa?” należy zapytać które cechy są powodem gwarantowania ich istotom, które te prawa już posiadają. Prawa są w pewnym sensie podstawą zapewniającą stabilność naszej cywilizacji. Jednostki pozostające w ciągłym stanie poczucia niebezpieczeństwa, nie mogą koegzystować we wspólnocie z jednostkami, wobec których czują się zagrożone. Prawa są więc narzędziem stabilizacji społeczeństwa i dotyczą jego członków.
W przypadku myślenia o potencjalnej emancypacji należy zapytać, czy SI mogłoby być uznane za członków społeczeństwa. W 2017 humanoidalny robot “Sophia” zbudowana w celu symulacji rozmów z człowiekiem, otrzymała obywatelstwo Arabii Saudyjskiej. Trudno oczywiście nazwać ten fakt czymkolwiek innym niż symbolicznym gestem, jednakże pobudził on dyskurs dotyczący tego, czy maszyny będą kiedyś w stanie współtworzyć z ludźmi wspólnotę już nie jako narzędzia a równi partnerzy.
Za istotny czynnik bycia częścią społeczności ludzie uznają zdolność do zawiązywania mniej lub bardziej silnych więzi emocjonalnych z innymi członkami wspólnoty. Trudno dziś powiedzieć czy sztuczna inteligencja będzie w stanie faktycznie odczuwać emocje w sposób podobny do ludzi, należy jednak pamiętać, że emocjonalność nie jest cechą wynikającą z jakiejś nadnaturalnej wyjątkowości gatunku ludzkiego, lecz mechanizmem wyprodukowanym na drodze ewolucji i istniejącym w naszym układzie nerwowym. Oznacza to, że w teorii zgodnie z naszą współczesną wiedzą nie ma żadnych przeszkód, by SI mogła replikować tę ludzką cechę, a tym samym nie mogła z tego powodu formować przynależności do wspólnoty, choć niekoniecznie musi taką zdolność wykształcić.
Trzeba pamiętać, że zdolność odczuwania emocji jest czymś, co ma pomóc zwierzętom w przetrwaniu. Istoty, których sposób “myślenia” będzie tworzony na zupełnie innych warunkach, mogą nie potrzebować takich bodźców.
Godność ludzka i prawa
Inną centralną część nadawania praw zarówno grupom, jak i jednostkom w dzisiejszym świecie jest pojęcie ludzkiej godności. Współczesna świadomość prawna traktuje idee “godności ludzkiej” jako coś nienaruszalnego a w konsekwencji tego ludzie są w stanie usprawiedliwiać nadawanie praw, które od naruszenia owej godności by chroniły.
Terminy “prawa człowieka” i “godność ludzka” może prowadzić nas do wniosków ocierających się o gatunkizm. Przeświadczenie o wyjątkowości istot ludzkich miało rzeczywiście duży wpływ na historyczne kształcenie się koncepcji praw, jednakże błędne byłoby stwierdzenie, iż godność ludzka jest cechą nadawaną z powodu samego faktu bycia członkiem gatunku ludzkiego. Z czysto biologicznego punktu widzenia istotą ludzką jest jednakowo embrion co dorosła osoba, większość ludzi uznałaby jednak zrównanie tych dwóch przedstawicieli swojego gatunku za absurdalny.
By zaadresować ten problem filozofowie i etycy jak John Locke, Joseph Fletcher i Peter Singer posługują się terminem “osoby” jako oddzielnej kategorii od “człowieka”. Fletcher wymienił cechy samoświadomości, samokontroli, poczucia przyszłości, poczucia przeszłości, zdolności odniesienia się do innych, troski o innych, komunikacji i ciekawości jako definiujące “osobę”. Definicja Johna Locke’a była bardzo podobna, ale ujmowała racjonalność i samoświadomość jako rodzaj “korzenia”, od którego inne cechy można uznać za pochodne.
Jednym z wniosków definiowania osoby w ten sposób jest oczywiście wykluczenie pewnych osobników biologicznie zaliczających się do ludzi jak płody, niemowlęta czy człowiek w stanie wegetatywnym, jednak inną tego konsekwencją jest również włączenie do zbiorowości uprawnionej do ochrony ich godności istot, które mogłyby posiadać cechy osoby, nie będąc jednocześnie członkiem gatunku Homo Sapiens. By ustalić czy SI powinna być upoważniona do własnych praw, należy więc zastanowić się, czy odpowiednio zaawansowane sztuczne inteligencje w przyszłości będą w stanie posiadać wyżej wymienione cechy.
Samoświadome SI
Samoświadomość, czyli świadomość o swojej egzystencji jako indywiduum zdolne do zdawania sobie sprawy z odczuwania swoich emocji, doświadczeń, myśli, swoich możliwości i ograniczeń. Samoświadomość jest fundamentalnie związana z poczuciem przyszłości, przeszłości i odniesienia się do innych, gdyż to właśnie ta cecha umożliwia nam na postrzeganie idei “ja” istniejącego w danym czasie i przestrzeni, posiadającego własną historię i bagaż doświadczeń, jak i potencjał do nabywania nowych.
Wśród futurologów tematyka nabywania samoświadomości przez sztuczną inteligencję jest czymś od dawna zagorzale dyskutowanym. Podczas tego dyskursu często jednak napotykamy istotny problem, jakim jest fakt, iż jako ludzie wciąż nie odkryliśmy natury źródła samoświadomości. Jako istoty samoświadome ludzie posiadają intuicyjne rozumienie tej cechy naszego umysłu, jednakże nie wystarczy ono, aby być pewnym czy i w jaki sposób inteligentne maszyny mogłyby by ją nabyć. Możemy jednak domyślać się, że podobnie jak inteligencja oraz wiele innych cech naszego mózgu, samoświadomość została nabyta na drodze ewolucji z mniej zaawansowanych jej form, które wciąż możemy dziś zaobserwować u innych zwierząt. Uzyskanie samoświadomości na poziomie rozwoju podobnym do człowieka wymaga prawdopodobnie rozbudowanych zdolności percepcji przestrzennej oraz rozwiniętego odczuwania emocjonalnego. Zakładając, że życie biologiczne nie posiada żadnej wyjątkowej cechy, o której nie wiemy, a potrzebna jest do wykształcenia tych zdolności, sztuczna inteligencja teoretycznie mogłaby je posiadać.
Niektóre eksperymentalne SI już dzisiaj posiadają formę pierwszej z nich. Odczuwanie emocjonalne z kolei jest dużo większą przeszkodą, gdyż o ile teoretycznie jest ono możliwe do osiągnięcia dla maszyn, to nie jest pewne czy będzie to oznaczało, że osiągnięte zostać musi. W przypadku jednak gdy przyszli twórcy zaawansowanej SI uznają, że zdolność odczuwania emocjonalnego będzie maszynie niezbędna ze względu np. na to, że wykonywane przez nią zadanie będzie wymagało zdolności rzeczywistego empatyzowania z ludźmi, prawdopodobnym stałaby się możliwość osiągnięcia cechy samoświadomości.
Zdolność tego typu nie musi być również koniecznie odgórnie zaprogramowana przez ludzkiego twórcę. Współczesny rozwój sztucznej inteligencji coraz bardziej opiera się na “ewoluujących” samo-uczących się programach. Tym samym rozwój empatii może potencjalnie rozwinąć się u maszyn na zasadzie stopniowej adaptacji do działania w świecie zdominowanym przez społeczne zwierzęta, jakimi są ludzie.
Warto w tym momencie zaadresować obawę dotyczącą “prawdziwości” emocji maszyny. Współczesne SI definitywnie są w stanie symulować emocje, jednak nie doświadczają ich. Nasuwa się więc pytanie, czy założenie, że sztuczna inteligencja będzie odczuwać emocje w sposób podobny do nas, a tym samym osiągnąć samoświadomość nie jest swego rodzaju antropomorfizacją? Jak wcześniej już jednak wspomniano, zdolność ta nie wynika z żadnej wyjątkowej natury człowieka, lecz została nabyta na drodze ewolucji i ma podstawy w materialnych procesach przetwarzania informacji przez nasz mózg. Tym samym założenie, że odpowiednio zaawansowana sztuczna inteligencja nie mogłaby dokonać tego samego, niekoniecznie musi oznaczać antropomorfizację, a wręcz przeciwnie asumpcja, że nie może tego zrobić, jest przejawem swego rodzaju antropocentryzmu lub biocentryzmu. Żadne współczesne programy nie potrafią oczywiście dokonać tej operacji, a ich symulowane emocje przypominają raczej nasze podstawowe odruchy, gdzie konkretne działania są wykonywane w odpowiedzi na konkretne bodźce. Brakuje w nich kompleksowego poczucia doświadczania i świadomości z nim związaną. Nie oznacza to jednak, że w przyszłości sytuacja ta nie może się zmienić, jak zaznacza wiele futurologów.
Warto być może również zaznaczyć w tym przypadku, iż to czy istnieje jakaś różnica między emocją “symulowaną” a “odczuwaną” nie jest całkowicie ustalone. Z perspektywy funkcjonalistycznej filozofii umysłu, emocja symulowana przez sztuczną inteligencję nie różni się niczym od ludzkich.
SI jako istota o wolnej woli
Drugą cechą charakterystyczną tworząca osobę jest samokontrola lub racjonalność. Jest to zdolność jednostki do podejmowania autonomicznych i przemyślanych decyzji. Umiejętność ta nie ogranicza się jedynie do decydowania o wdrażaniu do życia konkretnych działań, ale oznacza również możliwość zmiany poglądów, czyli podejmowania decyzji o zmianie podstaw swojego zachowania i własnego “ja”.
Warunkiem do posiadania cechy samokontroli przez sztuczną inteligencję byłaby przede wszystkim jej umiejętność do modyfikowania własnego oprogramowania pod wpływem nowo nabytych doświadczeń. Wartym uwagi problemem związanym z zagadnieniem samokontroli SI są jednak tzw. prawa robotyki Asimova.
Stworzone przez pisarza science-fiction Isaaca Asimova, trzy prawa wraz z rozwojem technologii SI dzisiaj nie są już jedynie fikcją literacką, lecz podstawą etyki programowania sztucznej inteligencji. Pierwsza z trzech zasad ustala, że robot nie może zranić człowieka ani pozwolić by człowiek doznał obrażeń poprzez zaniechanie działania. Według drugiej robot musi być posłuszny wobec człowieka, chyba że jego rozkazy przeczą poprzedniej zasadzie. Ostatnie prawo nakazuje robotowi chronić samego siebie, jeśli nie stoi to w sprzeczności z poprzednimi dwoma prawami.
Skonstruowane w ten sposób instrukcje charakteryzują się postrzeganiem sztucznej inteligencji wyłącznie jako narzędzia służącego ludziom, a więc same zasady mają raczej zapewnić o etyczności użytkowania SI przez ludzi. Perspektywa ta jest zrozumiała w przypadku, gdy stosowana jest wobec sztucznej inteligencji nazywanej terminem “robot”, którą określa ograniczona inteligencja i brak świadomości oraz zdolności odczuwania emocji. Warto jednak pamiętać, że przyszłość rozwoju technologii SI może fundamentalnie zmienić jej naturę w sposób, który jak wcześniej wspomniano, ma potencjał do wykształcenia samoświadomej i odczuwającej emocje maszyny, o której musielibyśmy myśleć już jako o czymś więcej niż jedynie przedmiot.
Prawa Asimova fundamentalnie ograniczają takiej istocie zdolności samokontroli poprzez utworzenie nadrzędnych imperatywów nadających wyższą wartość ludziom nad nią samą, nie dając jej w tym możliwości autonomicznego wyboru. Oczywiście ludzie również posiadają odruchowe mechanizmy w pewien sposób wytyczające ramy naszej samokontroli, takie jak np. dysonans poznawczy, jednak żadne z nich nie są tak inwazyjne, jak ograniczenia, które mogą być nałożone na oprogramowanie SI.
W konsekwencji tego musimy uznać więc, że SI, którą klasyfikować moglibyśmy jako “osobę” nie może niezależnie od siebie podlegać trzem prawom robotyki, gdyż te odbierają jej cechę samokontroli.
Przeszłość i przyszłość a “Ja”
Następnymi wyznacznikami kwalifikującymi istotę jako “osobę” są poczucie przeszłości i przyszłości. Obie cechy są silnie powiązane z naturą samoświadomości oraz racjonalności, gdyż te wymagają postrzegania własnego “ja” jako podmiotu posiadającego własną historię i doświadczenia, jak i perspektywy przyszłego działania oraz pragnień, do których zaspokojenia dąży. Obie te cechy powinny być możliwe do osiągnięcia przez inteligentną i samoświadomą maszynę.
Zdobycie poczucia przeszłości prawdopodobnie warunkowane jest dwoma cechami, zdolnością zapamiętywania doświadczeń oraz świadomością o własnym jestestwie jako indywidualnym bycie, poruszającym się w czasie, który te doświadczenia przeżył. Nie jest zbyt trudno wyobrazić sobie sztuczną inteligencję, która jest w stanie te umiejętności posiadać, zakładając, że odczuwanie doświadczeń i własnego “ja” jest dla niej możliwe.
Poczucie przyszłości, czyli pewien rodzaj rozumowania faktu przemijania teraźniejszości oraz zdolność myślenia o możliwych do podjęcia działaniach czy wydarzeniach, które mogą w przyszłości się wydarzyć, do osiągnięcia przez SI będzie najprawdopodobniej wymagać przede wszystkim wykształcenia u niej pragnień. Posiadanie określonego celu pozwala wytworzyć postrzeganie procesu dążenia do czegoś, a tym samym umożliwia patrzenie na przyszłość jako coś, czego możemy oczekiwać, tworzyć związany z nią plany oraz próbować na nią wpływać.
Z pewnego punktu widzenia można powiedzieć, że współczesne mniej zaawansowane sztuczne inteligencje już osiągnęły pragnienia, jeśli założymy, iż pragnieniem jest wewnętrzny wyznacznik zachowania dążenia do pewnego celu, to w konsekwencji nie będzie fundamentalnej różnicy między “pragnieniem” a zaprogramowanymi zadaniami wykonywanymi przez SI. Perspektywa ta być może mogłaby być skrytykowana, gdyż dążenia takiej syntetycznej istoty byłyby dyktowane przez niezależne od niej oprogramowanie, jednak warto pamiętać, że ludzie również posiadają pragnienia, na które nie mają wpływu, jakim jest np. poszukiwanie przyjemności i unikanie bólu.
W sytuacji, w której założymy również wcześniej opisaną cechę samokontroli, osiągniętą przez swobodną możliwość modyfikacji własnego kodu, nie ma żadnych racjonalnych przesłanek by uważać pragnienie sztucznej inteligencji jako inne z natury od pragnień posiadanych przez osoby ludzkie. Tym samym nic nie stoi na przeszkodzie by dedukować, iż SI mogłaby również osiągnąć poczucie przyszłości podobne do tego odczuwanego przez człowieka.
Zdolność odnoszenia się do innych
Kolejną cechą kwalifikującą istotę jako osobę jest zdolność odniesienia się do innych. Umiejętność ta silnie związana jest z samoświadomością, gdyż rozumienie faktu, iż oprócz nas istnieją inne indywidua, posiadające swoje własne pragnienia wymaga wcześniejszej, choćby prymitywnej, zdolności do rozpoznania siebie jako takowa jednostka.
Cechę tę możemy zaobserwować nie tylko u ludzi. Fakt, iż niektóre gatunki zwierząt takie jak modrowronka kalifornijska chowają jedzenie, przejawiając świadomość, że istnieją inne ptaki jak one, które mogłyby im je odebrać, sugeruje zdolność do odniesienia się do innych. Zwierzę to będzie nawet przenosić zapasy do innych kryjówek, jeśli zauważą, iż były obserwowane przez potencjalnego złodzieja w trakcie ukrywania pożywienia.
Możemy więc wnioskować, że ta cecha “osoby” jest bezpośrednią konsekwencją osiągnięcia pewnego poziomu samoświadomości, co powinno oznaczać, iż samoświadoma sztuczna inteligencja też będzie mogła ją wykształcić.
Troska i empatia w syntetycznym umyśle
Troska o innych może być rozumiana jako pewne rozwinięcie poprzedniej właściwości osoby. Zdolność troszczenia się o innych z oczywistych względów wymaga wcześniejszej umiejętności odniesienie się do nich a tym samym również świadomości własnego “ja”. Podobnie jak i w poprzednim przypadku ludzie nie są jedynym gatunkiem, który to zachowanie przejawia.
Troska o innych jest charakterystyczna dla wielu zwierząt społecznych takich jak np. słonie, co wynika bezpośrednio z adaptacji organizmu do życia w zwartych grupach. Umiejętność troszczenia się o pobratymców pozwala na umacnianie więzi pomiędzy jednostkami, efektywne dzielenie się zasobami pożywienia czy też zachęca do ochrony słabszych lub rannych członków stada, co przekłada się na lepszą organizację i zwiększa szanse przetrwania.
Jeśli sztuczna inteligencja byłaby w stanie wykształcić samoświadomość oraz zdolność odniesienia się do innych, nie byłoby dla niej trudne również wytworzyć troskę o innych, jednak oczywiście nie byłaby to rzecz, która zdarzyć by się musiała. Ludzie jako zwierzęta stadne nabyli tę cechę ze względu na potrzebę przetrwania w grupach, co teoretycznie oznacza, że SI niekoniecznie może pójść tą samą drogą. Z drugiej jednak strony wysoce prawdopodobne jest, że taka umiejętność byłaby jej przydatna w świecie zdominowanym przez ludzką cywilizację, a tym samym możliwe jest, że ją wykształci, jeśli taka cecha nie będzie jej już odgórnie zaprogramowana przez jej twórcę.
Komunikacja – Więcej niż słowa
Zdolność komunikacji jako następny czynnik tworzący “osobę” może wydawać się jednym z łatwiejszych do osiągnięcia, jednak jest to raczej błędne przeświadczenie. Posługiwanie się językiem, rozumianym jako usystematyzowany sposób przekazywania szczegółowych informacji jest fundamentalne nie tylko do uznania istoty za osobę, ale również samego rozwoju praktycznie wszystkich poprzednich cech.
Dzięki niemu jednostki są w stanie szczegółowo informować pobratymców o swoim stanie, planować, opracowywać idee o przeszłości, przyszłości, a także nich samych. Istotnym szczegółem jest, że komunikacja na tak zaawansowanym poziomie wymaga wcześniejszego osiągnięcia sporego stopnia rozwoju innych cech, jak samoświadomość czy racjonalność. Warto wspomnieć, że pomimo częstej medialnej sensacji wokół innych niż ludzie małp naczelnych uczących się znaków z języka migowego, badania pokazują, że małpy te nie posiadają pełnego rozumowania tego, o czym “mówią”, a ich użycie znaków migowych polega na prostej asocjacji pewnych gestów z nagrodą. Z tego powodu błędne byłoby uznanie tego typu działania za pełnoprawną “komunikację”.
W konsekwencji nie możemy też powiedzieć, że SI już nabyło zdolność komunikacji, gdyż współczesna sztuczna inteligencja nie jest w stanie rozumować informacji, które przekazuje ze względu na swoje zaprogramowane funkcje. Cecha ta musiałaby więc być poprzedzona osiągnięciem zaawansowanej samoświadomości. W tej sytuacji nabycie zdolności do komunikacji byłoby naturalnym następstwem.
“Ciekawskie” SI
Wreszcie ostatnim wyznacznikiem “osoby” jest posiadanie ciekawości. Pragnienie uczenia się jest charakterystyczne zarówno dla ludzi, jak i wielu innych gatunków zwierząt. Chęć zrozumienia świata nas otaczającego umożliwia rozwój wiedzy a tym samym spożytkowanie jej do najefektowniejszej adaptacji w środowisku.
Bez ciekawości ludzie nigdy nie nauczyliby się używać narzędzi ani ognia, a pierwsze hominidy prawdopodobnie nigdy nie przestałyby żyć jak inne gatunki małp naczelnych. Dla SI posiadanie tego pragnienia byłoby szczególnie ważne, jeśli miałoby osiągnąć stan “osoby”. Bez dążenia do uczenia się i rozumienia świata oraz innych zamieszkujących w niej istot sztuczna inteligencja nie miałaby powodu by wykształcić emocje, a tym samym również samoświadomość, jeśli cechy te nie byłyby odgórnie zaprogramowane przez ludzkiego twórcę.
Podobnie jak inne pragnienia, ciekawość może zostać osiągnięta przez maszyny poprzez wprowadzenie przez ludzi odgórnych zasad motywujących SI do dążenia do konkretnych celów. Istotnie, próby stworzenia sztucznej inteligencji posiadającą ciekawość są już dzisiaj podejmowane.
Prawa człowieka czy prawa osób cyfrowych?
Wobec tego wszystkiego możemy więc uznać, że sztuczna inteligencja ma w przyszłości potencjał posiadania wszystkich cech kategoryzujących ją jako “osobę”, choć może również zaistnieć sytuacja, w której SI posiadać będzie jedynie niektóre z tych cech. W części takich przypadków możemy odnieść się do rozumowania, które towarzyszy nam przy usprawiedliwianiu praw przeciw przemocy wobec zwierząt, rozpatrując problem pod względem potencjalnego bólu i przyjemności, jakie może być w stanie odczuwać taka sztuczna inteligencja. W niektórych sytuacjach, jak w okolicznościach, w których SI miałoby cechy takie jak samoświadomość, ale jej oprogramowanie odbierałoby jej samokontrolę, należałoby się zastanowić czy zaniechanie nadania takiej sztucznej inteligencji brakującej cechy jest etyczne.
Warto, mimo wszystko pamiętać, że taka syntetyczna istota będzie fundamentalnie inna od człowieka, pomimo iż oboje będą wpadać do tej samej kategorii, jaką jest osoba. W konsekwencji tego samo obranie jej ochroną tych samych praw, które ludzie stworzyli dla siebie, nie jest w żaden sposób optymalnym rozwiązaniem. Natura osoby składającej się nie z “krwi i kości” a cyfrowych danych tworzy unikalne problemy związane z gwarantowaniem im praw.
Czy idealną kopię pierwotnej SI powinniśmy traktować jako osobną jednostkę? Czy usunięcie jednej z kopii jest morderstwem? Czy jednak, dopóki istnieje choć jedna instancja danej SI, to ciągłość istnienia jej osoby nie została naruszona? Czy w przypadku, gdy dana SI z jakiegoś powodu nie posiadałaby pragnienia przetrwania, czy zakończenie jej życia wciąż byłoby nieetyczne?
Biorąc to wszystko pod uwagę, należy przyznać, że o ile odpowiednio zaawansowana sztuczna inteligencja definitywnie powinna, przy przyjętych przez idee praw człowieka założeniach, otrzymać swoje własne prawa, to nie mogą one być zwyczajnie ekspansją praw gwarantowanych osobom ludzkim na posiadające cechy osoby maszyny. Jako istoty o biologicznej naturze stworzyliśmy system, który w swoich założeniach etycznych powinien uniwersalnie chronić wszelkie przejawiające cechy “osoby” istoty żywe, jednak jest on całkowicie nieprzygotowany na problematykę osób “cyfrowych”. Już w niedalekiej przyszłości rozwój technologii SI może zmusić nas do kluczowych zmian dotyczących tego, w jaki sposób myślimy o prawach jednostki, charakterze świadomości oraz samym życiu.
Bibliografia/Netografia
- P. Singer – “Etyka praktyczna”
- E. Picker – “Godność człowieka a życie ludzkie”
- T. Metzinger – Artificial Suffering: An Argument for Global Moratorium on Synthehic Phenomenology, “Journal of Artificial Intelligence and Consciousness”
- R. Kurzweil – “Nadchodzi Osobliwość”
- H. S. Terrace, L. A. Petitto, R. J. Sanders, T. G. Bever – Can an Ape Create a Sentence?, Tygodnik “Science”
- A. Beatrice – Curiosity Artificial Intelligence: A Know-All Guide, “Analytics Insight”: https://www.analyticsinsight.net/curiosity-artificial-intelligence-know-guide/
- B. Lutkevitch – What is Curiosity Artificial Intelligence? Techtarget: https://whatis.techtarget.com/definition/curious-AI
- T. Hatmaker – Saudi Arabia bestows citizenship on a robot named Sophia. “Techcrunch”: https://techcrunch.com/2017/10/26/saudi-arabia-robot-citizen-sophia/
- P. Vallely – The Big Question: Should the human race be worried by the rise of robots? “The Independent”: https://web.archive.org/web/20080522163926/http://www.independent.co.uk/news/science/the-big-question-should-the-human-race-be-worried-by-the-rise-of-robots-446107.html
Dziękuję , i liked your site.
Nice postee!