Osobliwość technologiczna – Wikipedia, wolna encyklopedia
Osobliwość technologiczna (lub po prostu osobliwość, z ang. singularity) – hipotetyczny punkt w przyszłym rozwoju cywilizacji, w którym postęp techniczny stanie się tak szybki, że wszelkie ludzkie przewidywania staną się nieaktualne[1]. Głównym wydarzeniem, mającym do tego doprowadzić, byłoby stworzenie sztucznych inteligencji przewyższających intelektualnie ludzi. Takie sztuczne inteligencje mogłyby opracowywać jeszcze wydajniejsze sztuczne inteligencje, wywołując lawinową zmianę w technologii[2].
Nazwa, idea, rozpowszechnienie
[edytuj | edytuj kod]Nazwę osobliwość wprowadził i rozpowszechnił Vernor Vinge w latach 80. XX wieku, porównując niemożliwość przewidzenia skutków takiego wydarzenia do niemożliwości zastosowania znanych nam praw fizyki w osobliwości grawitacyjnej. Podobne idee były jednak omawiane już w latach 50. i 60., m.in. przez Irvinga Gooda , Janusza Zajdla i Johna von Neumanna. Obawy, że takie wydarzenie mogłoby stanowić zagrożenie dla istnienia ludzkiej cywilizacji, wyrazili m.in. Bill Joy[3], Nick Bostrom[4] i Hugo de Garis[5].
Ray Kurzweil przedstawił alternatywne podejście do osobliwości, twierdząc, że można przewidzieć jej nadejście na podstawie ekstrapolacji dotychczasowych trendów rozwoju techniki i uogólnienia prawa Moore’a na inne dziedziny technologii. Według Kurzweila, przełomy w rozwoju technologicznym zdarzają się w coraz mniejszych odstępach czasu, które zmaleją do minimalnych wartości około 2045 roku[potrzebny przypis].
Robin Hanson stwierdził, że wiele „osobliwości” miało już miejsce w historii ludzkości, znacznie wpływając na rozwój gospodarki. Najjaskrawszymi przykładami była rewolucja neolityczna i rewolucja przemysłowa. Według niego, powstanie sztucznych inteligencji, zastępujących całą ludzką pracę, wywołałoby 60–250-krotny wzrost gospodarczy[6].
Hipotezę o dążeniu ludzkości do osobliwości podważają m.in. Hubert Dreyfus[7], Steven Pinker[8], Andriej Korotajew[9][10] i Jürgen Schmidhuber[11].
Motyw osobliwości po raz pierwszy pojawił się w powieściach Vingego Marooned in Realtime i Ogień nad otchłanią. Obecnie jest często wykorzystywanym elementem fabuły w fantastyce naukowej.
Historia idei
[edytuj | edytuj kod]Stanisław Ulam jako pierwszy posłużył się terminem „osobliwość” w kontekście postępu technologicznego, przytaczając w 1958 roku rozmowę z Johnem von Neumannem[12]:
Rozmowa skupiła się na temacie nieprzerwanie przyspieszającego postępu technologicznego i zmian w ludzkim życiu, które to procesy zdają się dążyć do pewnego osobliwego punktu w historii naszej rasy, po którym styl życia, jaki obecnie znamy, nie będzie mógł trwać.
W latach 60. XX wieku Irving J. Good spekulował na temat konsekwencji powstania maszyn inteligentniejszych od ludzi[13]:
Zdefiniujmy maszynę ultrainteligentną jako maszynę, która przewyższa intelektualnie każdego człowieka. Skoro projektowanie maszyn jest jedną z prac umysłowych, maszyna ultrainteligentna mogłaby projektować jeszcze lepsze maszyny. Byłaby to bez wątpienia eksplozja inteligencji, która pozostawiłaby człowieka daleko w tyle. Maszyna ultrainteligentna będzie ostatnim wynalazkiem człowieka.
W latach 80. XX wieku Vernor Vinge spopularyzował teorię Gooda o eksplozji inteligencji i użył w jej kontekście nazwy „osobliwość”:
Wkrótce stworzymy inteligencje większe niż nasze własne. Gdy to się stanie, ludzka historia osiągnie pewną osobliwość, intelektualny punkt przejściowy tak nieprzenikniony jak zakrzywiona czasoprzestrzeń w środku czarnej dziury, i świat przestanie być dla nas zrozumiały.
W 1993 roku Vinge przewidywał, że nastąpi to między 2005 a 2030 rokiem[1].
W późniejszych latach powstało wiele teorii, jakie technologie mogłyby doprowadzić do powstania nadludzkich inteligencji. Większość można podzielić na dwie kategorie: wspomaganie ludzkiej inteligencji oraz stworzenie sztucznej inteligencji. Do wspomagania ludzkiej inteligencji może być wykorzystana bioinżynieria, inżynieria genetyczna, leki nootropowe i bezpośredni interfejs mózg–komputer. Sztuczna inteligencja może zostać stworzona przy użyciu komputerów, poprzez symulację pracy mózgu, bądź przy wykorzystaniu komputerów kwantowych. Rozwój technologii informatycznej sprawił, że obecnie bardziej oczekiwane jest pojawienie się sztucznych inteligencji[2]. Robin Hanson wyraził sceptycyzm w stosunku do wzmacniania ludzkiej inteligencji, twierdząc, że po wyczerpaniu łatwych metod jej zwiększania, kolejne ulepszenia staną się coraz trudniejsze do osiągnięcia[14].
Aktualnie nie wiadomo, czy kiedykolwiek powstaną sztuczne inteligencje dorównujące ludziom. Mózg człowieka zawiera 15 – 33 miliardów neuronów, z których każdy może mieć do 10 tysięcy połączeń synaptycznych[15]. Ilość informacji, potrzebnych do odtworzenia jego funkcjonalności w pamięci komputera, jest szacowana na 500 petabajtów[16], a wydajność potrzebna do symulacji jego działania w czasie rzeczywistym na kilkaset petaflops[17][18][19]. Współczesna technologia informatyczna nie umożliwia praktycznej realizacji tego zadania. Ponieważ wydajność komputerów rośnie około 1000 razy w ciągu 10 lat[20], ta sytuacja może się jednak zmienić w najbliższej przyszłości. Blue Brain Project, rozpoczęty w 2005 roku, miał w planach realizację tego zadania przy pomocy superkomputera około 2020 roku[21].
Eliezer Yudkowsky przedstawił następujące rozumowanie, pokazujące do czego doprowadzi stworzenie maszyn dorównujących ludziom[22]: Aktualnie, dzięki pracy inżynierów, szybkość dostępnych komputerów podwaja się w ciągu dwóch lat. Jeśli zastąpimy inżynierów maszynami, po dwóch latach powstaną ich nowe wersje, pracujące dwukrotnie szybciej. Będą więc potrafiły przyspieszyć pracę komputerów dwukrotnie w ciągu jednego roku. Po upływie tego roku, kolejna generacja będzie już potrafiła podwoić szybkość komputerów w ciągu 6 miesięcy, kolejna w ciągu 3 miesięcy itd. Sumarycznie, po upływie 4 lat prędkość komputerów doszłaby do nieskończoności.
Teoria przyspieszających zmian
[edytuj | edytuj kod]Ray Kurzweil, analizując historię ludzkości, doszedł do wniosku, że postęp techniczny następuje w sposób wykładniczy, ponieważ każdy wynalazek przyspiesza pojawienie się kolejnego. Uogólnił prawo Moore’a, opisujące geometryczny wzrost złożoności układów scalonych, odnosząc je również do innych technologii. Według jego przewidywań, kluczowe odkrycia naukowe będą następować w coraz krótszych odstępach czasu, aż nastąpi „rozerwanie tkaniny reprezentującej historię cywilizacji”[23]. Kurzweil wierzy, że osobliwość powstanie jeszcze przed końcem pierwszej połowy XXI wieku, najprawdopodobniej około roku 2045[24]. W odróżnieniu od Vingego, zakłada raczej stopniowe zbliżanie się do osobliwości niż gwałtownie rozwijającą się nadludzką inteligencję. Według niego, najpierw w 2029 r. pojawi się silna sztuczna inteligencja, która do 2045 roku wyewoluuje w osobliwość. Goertzel w swoim wykładzie z 2007 roku przewidywał, że osobliwość pojawi się w 2016 roku, jeśli ludzkość zintensyfikuje wysiłki w celu jej wprowadzenia[25].
Potencjalne niebezpieczeństwa
[edytuj | edytuj kod]Wielu futurologów przewiduje, że osobliwość technologiczna może stanowić zagrożenie dla istnienia ludzkości. Hugo de Garis zasugerował, że sztuczne superinteligencje mogą po prostu wyeliminować ludzi, gdyż ci nie będą w stanie ich przed tym powstrzymać[5]. Według Anthony’ego Berglasa, oparta na komputerach inteligencja nie będzie, w odróżnieniu od człowieka, powiązana z żadnym konkretnym ciałem, co spowoduje, że jej postrzeganie świata będzie zupełnie inne niż ludzkie[17]. Nick Bostrom przytacza przykładowy scenariusz, w którym superinteligencja, chcąc rozwiązać zadany jej problem matematyczny, angażuje surowce całego Układu Słonecznego do stworzenia urządzenia liczącego, zabijając między innymi osobę, która zadała pytanie[4]. Bill Hibbard zwraca uwagę, że powstanie superinteligencji może znacznie powiększyć nierówności społeczne, oraz sugeruje, że kluczem do uniknięcia problemów jest zaprojektowanie sztucznych inteligencji w ten sposób, aby odczuwały miłość do ludzi[26].
Hans Moravec stwierdził, że nawet jeśli nadludzka inteligencja może sprawić, że ludzie staną się zbędni jako nadrzędna forma życia, to wciąż będzie dla nich miejsce w ziemskim ekosystemie[27].
Eliezer Yudkowsky zaproponował, by rozpocząć badania mające na celu stworzenie przyjaznej sztucznej inteligencji z uwzględnieniem wszystkich niebezpieczeństw[28]. Zwrócił uwagę, że jeśli pierwsza sztuczna inteligencja będzie przyjazna człowiekowi, będzie miała lepszy start przed wrogimi SI. Organizacja Machine Intelligence Research Institute koncentruje się właśnie na stworzeniu takiej przyjaznej sztucznej inteligencji.
Trzy prawa robotyki sformułowane przez Isaaca Asimova są jednym z najwcześniejszych przykładów proponowanych zabezpieczeń dla maszyn myślących. W 2004 roku SIAI rozpoczął internetową kampanię pod hasłem 3 laws unsafe, by podnieść społeczną świadomość kwestii bezpieczeństwa i niedoskonałości praw robotyki Asimova[29].
Niektórzy anarchoprymitywiści i ekoanarchiści, jak John Zerzan i Derrick Jensen , postrzegają osobliwość jako kulminację kontroli maszyn i utratę możliwości swobodnej egzystencji poza cywilizacją. James John Bell[30] wyraża obawy natury ekologicznej w odniesieniu do osobliwości.
Krytyka
[edytuj | edytuj kod]Teoria o nadchodzącej osobliwości technologicznej stała się obiektem krytyki z kilku punktów widzenia. Niektórzy naukowcy, m.in. Hubert Dreyfus, Stuart Russell i Peter Norvig przewidują, że żadna maszyna nigdy nie osiągnie poziomu ludzkiej inteligencji[7][31]. Założenia teorii Kurzweila, dotyczącej przyspieszających zmian technologicznych, są również kwestionowane. Theodore Modis[32] i Jonathan Huebner[33] twierdzą nawet, że postęp techniczny zwalnia. Dowodem na to jest zwalnianie wzrostu częstotliwości procesorów, mimo że prędkość wzrostu złożoności układów scalonych nadal utrzymuje się na poziomie zakładanym przez prawo Moore’a. Podobnie porównanie liczby patentów przypadających na tysiąc osób pokazuje, że ludzka kreatywność nie przejawia gwałtownych wzrostów, a raczej stopniowy spadek. Największy wskaźnik liczby nowych patentów na tysiąc osób przypadał na okres 1850–1900 i od tej pory spada. Rosnąca złożoność z czasem staje się barierą i prowadzi do zapaści systemu – obecnie pojedynczy wybitny naukowiec nie może ogarnąć całości swoich badań, jak miało to miejsce jeszcze na przełomie XIX i XX wieku. John Smart podważa jednak analizę Huebnera[34].
Inni naukowcy utrzymują, że trend dążący do „osobliwości” można dostrzec w innych dziedzinach, jak na przykład populacja Ziemi czy PKB. Dla każdego z tych trendów istnieją jednak fundamentalne fizyczne ograniczenia i po okresie gwałtownego wzrostu następuje zawsze spowolnienie, albo nawet spadek. Na przykład Andriej Korotajew twierdzi, że w przeszłości hiperboliczny wzrost PKB wynikał ze sprzężenia zwrotnego, które przestało mieć wpływ na światowe trendy w latach siedemdziesiątych. Dlatego nie należy spodziewać się hiperbolicznego wzrostu w przyszłości[9][10][35].
Jürgen Schmidhuber zasugerował[11], że obserwowane przyspieszenie zmian odzwierciedla jedynie szczegółowość pamiętania niedawnych zdarzeń w stosunku do odległych. Według tej sugestii, analogiczne mechanizmy były przyczyną wszelkich apokaliptycznych przewidywań w przeszłości.
Odbiór w mediach
[edytuj | edytuj kod]Motyw osobliwości technologicznej był wykorzystywany przez wielu twórców science fiction. Pojawia się między innymi w powieściach Vernora Vingego, Isaaca Asimova, Jacka Dukaja, Charlesa Strossa i Grega Egana. Motyw stworzonej przez ludzi ultrainteligentnej maszyny, która niszczy ludzkość, został wykorzystany między innymi w serii filmów Terminator, opowiadaniu „Nie mam ust, a muszę krzyczeć” Harlana Ellisona i cyklu Hyperion Dana Simmonsa.
W filmie Ja, robot, luźno opartym na powieściach Asimova, pojawia się motyw sztucznej inteligencji przejmującej całkowitą kontrolę nad ludzkością w celu ochrony ludzkości przed samą sobą. Amerykański melodramat z 2013 pod tytułem Ona opowiada historię miłości mężczyzny do wirtualnej kobiety. W filmie Transcendencja aktor Johnny Depp wciela się w postać umierającego naukowca, który uczy program wzorców swoich zachowań. Po śmierci program ten uzyskuje świadomość i dzięki nieograniczonym zasobom postanawia oczyścić ekosystem Ziemi za pomocą nanotechnologii.
Przypisy
[edytuj | edytuj kod]- ↑ a b Vinge, Vernor. The Coming Technological Singularity: How to Survive in the Post-Human Era.
- ↑ a b What is the Singularity?. singinst.org. [zarchiwizowane z tego adresu (2012-06-16)]. Singularity Institute for Artificial Intelligence.
- ↑ Bill Joy. Why the future doesn’t need us. „Wired”, April 2000. Viking Adult. [dostęp 2007-08-07].
- ↑ a b Nick Bostrom. Existential Risks. „Journal of Evolution and Technology”. 9, 2002. [dostęp 2007-08-07].
- ↑ a b Hugo de Garis. “The Coming Artilect War”, Forbes, 22 czerwca 2009.
- ↑ Robin Hanson , Economics Of The Singularity [online] [dostęp 2008-09-11] [zarchiwizowane z adresu 2011-08-11] .
- ↑ a b Hubert Dreyfus, Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer, Oxford, UK: Blackwell, 1986 .
- ↑ Tech Luminaries Address Singularity – IEEE Spectrum [online], spectrum.ieee.org [dostęp 2017-11-27] (ang.).
- ↑ a b Korotayev A., Malkov A., Khaltourina D. Introduction to Social Macrodynamics: Compact Macromodels of the World System Growth. Moscow: URSS Publishers, 2006.
- ↑ a b Andriej Korotajew. A Compact Macromodel of World System Evolution. „Journal of World-Systems Research”. 11 (1), s. 79–93, 2005. DOI: 10.5195/jwsr.2005.401. [dostęp 2016-05-21]. (ang.).
- ↑ a b Jürgen Schmidhuber , New Millennium AI and the Convergence of History, „arXiv:Computer Science > Artificial Intelligence”, 29 czerwca 2006, arXiv:cs/0606081v3 [dostęp 2007-08-07] .
- ↑ Stanislaw Ulam. Tribute to John von Neumann. „Bulletin of the American Mathematical Society”. 64 (nr 3, part 2), s. 1–49, May 1958.
- ↑ Good, I. J., “Speculations Concerning the First Ultraintelligent Machine”, Franz L. Alt and Morris Rubinoff, ed., Advances in Computers (Academic Press) 6: 31–88, 1965.
- ↑ Robin Hanson , Some Skepticism, Robin Hanson, 1998 [dostęp 2009-06-19] .
- ↑ DP Pelvig i inni, Neocortical glial cell numbers in human brains, „Neurobiol Aging”, 29 (11), 2008, s. 1754–62, DOI: 10.1016/j.neurobiolaging.2007.04.013, PMID: 17544173 .
- ↑ Johan Lehrer Out of the Blue 3 marca 2008.
- ↑ a b Anthony Berglas, Artificial Intelligence Will Kill Our Grandchildren 22 lutego 2009.
- ↑ Blue Brain Project FAQ.
- ↑ Sally Adee, IBM Unveils a New Brain Simulator, listopad 2009.
- ↑ Performance Development. Top500 Supercomputer Site. [dostęp 2016-05-21]. (ang.).
- ↑ W laboratoriach powstaje sztuczny mózg. [w:] TVN24.pl [on-line]. 2009-07-23. [dostęp 2010-12-13]. [zarchiwizowane z tego adresu (2009-07-26)].
- ↑ Eliezer S. Yudkowsky Staring into the Singularity.
- ↑ Raymond Kurzweil , The Law of Accelerating Returns, Lifeboat Foundation, 2001 [dostęp 2007-08-07] .
- ↑ Raymond Kurzweil , The Singularity Is Near, New York: Viking, 2005 [dostęp 2007-08-07] .
- ↑ We could get to the singularity in ten years | KurzweilAI [online], www.kurzweilai.net [dostęp 2017-11-27] (ang.).
- ↑ Bill Hibbard , Super-intelligent machines, „Siggraph Comput. Graph”, 35 (1), 2001, DOI: 10.1145/377025.377033 .
- ↑ Hans Moravec. Pigs in Cyberspace. „On the Cosmology and Ecology of Cyberspace”, styczeń 1992. [dostęp 2007-11-21].
- ↑ The Singularity: Three Major Schools.
- ↑ Singularity Institute announces “3 laws unsafe”.
- ↑ James John Bell , Technotopia and the Death of Nature: Clones, Supercomputers, and Robots, Earth Island Journal, 2002 [dostęp 2007-08-07] .
- ↑ Stuart J. Russell , Artificial Intelligence: A Modern Approach, Prentice Hall, 2003 .
- ↑ Theodore Modis: Forecasting the Growth of Complexity and Change. Technological Forecasting & Social Change, 69, No 4, 2002. [dostęp 2012-01-05].
- ↑ Jonathan Huebner. A Possible Declining Trend for Worldwide Innovation. Technological Forecasting & Social Change, październik 2005, s. 980–986.
- ↑ John Smart. On Huebner Innovation, Acceleration Studies Foundation.
- ↑ A Compact Mathematical Model of the World System Economic and Demographic Growth, 1 CE – 1973 CE.
Linki zewnętrzne
[edytuj | edytuj kod]- KurzweilAI.net (ang.)
- Acceleration Studies Foundation (ang.)
- Acceleration Watch (ang.)
- Accelerating Future. acceleratingfuture.com. [zarchiwizowane z tego adresu (2013-10-11)]. (ang.).
- The SL4 Wiki. sl4.org. [zarchiwizowane z tego adresu (2005-03-25)]. (ang.).