Singolaritanismo

Il singolaritanismo o singolaritanesimo (singularitarianism in inglese) è una filosofia morale basata sul credo che la singolarità tecnologica sia possibile e i singolaritanisti sostengono un'azione deliberata ad influenzarne e assicurarne la realizzazione.

Mentre alcuni futurologi e transumanisti meditano sulla possibilità e sulla natura di questa supposta singolarità (spesso chiamata "la singolarità"), un singolaritiano crede che essa sia non solo possibile, ma che possa anche essere guidata, ed agisce nei modi che crede contribuiranno ad accelerarne la sicurezza e l'arrivo.

Nel suo saggio Singularitarian Principles, Eliezer Yudkowsky scrive che ci sono quattro qualità che definiscono un singolaritiano:

  1. Un singolaritiano crede che la singolarità sia possibile e desiderabile.
  2. Un singolaritiano "lavora" realmente per far avvenire la singolarità.
  3. Un singolaritiano vede la singolarità come un processo completamente secolare e non mistico — non come il culmine di ogni genere di profezia religiosa o di destino.
  4. Un singolaritiano crede che della singolarità dovrebbe beneficiare il mondo intero e che essa non dovrebbe andare a beneficio di un singolo gruppo o individuo.

Molti credono che una singolarità tecnologica sia possibile senza adottare il singolaritanismo come filosofia morale.

Sebbene il numero esatto sia difficile da valutare, il singolaritanismo attualmente è un piccolo movimento.

Nel 1993, il matematico, scienziato informatico e autore di fantascienza Vernor Vinge ipotizzò che il momento della singolarità potrebbe arrivare allorquando i computer eguaglieranno o supereranno l'intelligenza umana (intelligenza artificiale forte) e usò il termine "singolarità" per descrivere questo momento.[1] Egli suggerì che la singolarità può presentare un rischio per l'esistenza dell'umanità.[2] Alcuni scienziati informatici e giornalisti del settore successivamente sostennero la singolarità credendola possibile e iniziarono ad usare il termine nei loro saggi.

Il singolaritanesimo cominciò a divenire un'ideologia coerente nel 2000, quando il ricercatore nel campo dell'intelligenza artificiale Eliezer Yudkowsky scrisse The Singularitarian Principles,[3][4] in cui affermava che un "singolaritano" crede che la singolarità sia un evento non mistico, possibile e benefico per l'umanità che i singolaritani favoriscono.[3] Yudkowsky descrisse l'utopismo tecnologico nel cuore del singolaritanesimo come una promettente "apoteosi".[3]

Nel giugno del 2000 Yudkowsky, con il supporto degli imprenditori della Rete Brian Atkins e Sabine Atkins, fondò il Singularity Institute for Artificial Intelligence (SIAI) per lavorare alla creazione di un'intelligenza artificiale amichevole (friendly artificial intelligence) che potesse auto-migliorarsi. Secondo alcune pubblicazioni dell'Istituto un'intelligenza artificiale con la possibilità di migliorare la sua struttura (Seed AI) dovrebbe portare rapidamente alla superintelligenza. I singolaritani credono che raggiungere la singolarità in modo rapido e sicuro è il miglior modo possibile per ridurre al minimo il rischio esistenziale.

L'inventore e futurista Ray Kurzweil, che predice che la singolarità avverrà nel 2045, ha notevolmente contribuito a rendere popolare il singolaritanismo con il suo libro del 2005 La singolarità è vicina.[4]

«Cos'è, allora, è la singolarità? È un periodo futuro durante il quale il ritmo del cambiamento tecnologico sarà così rapido, e il suo impatto così profondo, che la vita umana sarà trasformata in modo irreversibile. Né utopica, né distopica, questa epoca trasformerà i concetti su sui ci basiamo per dare un senso alle nostre vite, dai nostri modelli di business al ciclo della vita umana, compresa la morte stessa. Capire la singolarità altererà la nostra prospettiva sul significato del nostro passato e le conseguenze per il nostro futuro. Comprenderla veramente nella sua interezza cambierà la visione della vita in generale e della propria vita. Considero chi ha veramente compreso la singolarità e che ha riflettuto sulle sue implicazioni per la sua vita come un "singolaritano".[4]»

Con il sostegno della NASA, di Google e di una vasta gamma di futurologi e tecnocapitalisti, la Singularity University aprì nel giugno del 2009 presso il NASA Research Park nella Silicon Valley con l'obiettivo di preparare la prossima generazione di leader ad affrontare le sfide del cambiamento accelerato.

Nel luglio del 2009, molti prominenti singolaritani parteciparono a una conferenza organizzata dalla Association for the Advancement of Artificial Intelligence (AAAI) per discutere del potenziale impatto dei robot e dei computer e dell'impatto dell'ipotetica possibilità che possano diventare autosufficienti e in grado di prendere le proprie decisioni. Discussero della possibilità e della misura in cui i computer e i robot potrebbero essere in grado di acquisire qualsiasi livello di autonomia, e in che misura potrebbero usare tali abilità per rappresentare un'eventuale minaccia o pericolo (rivolta cibernetica). Rilevarono che alcune macchine hanno già acquisito diverse forme di semi-autonomia, tra cui quella di essere in grado di trovare fonti di energia in proprio e di essere in grado di scegliere autonomamente obiettivi da attaccare con le armi. Gli esperti misero in guardia riguardo ad alcuni virus che possono eludere l'eliminazione e che hanno già raggiunto "l'intelligenza di uno scarafaggio". Affermarono che la consapevolezza di sé come illustrata nella fantascienza è forse improbabile, ma che ci sono altri potenziali pericoli e insidie.[1] Alcuni esperti e studiosi hanno messo in dubbio l'utilizzo di robot per il combattimento militare, soprattutto quando i robot hanno diverse funzioni autonome.[5] Il presidente della AAAI ha commissionato uno studio riguardo a questo problema.[6]

Alcuni critici sostengono che il singolaritanismo è uno dei tanti nuovi movimenti religiosi che promettono la salvezza in una futura utopia tecnologica.[7] Il giornalista scientifico John Horgan ha scritto:

«Ammettiamolo. La singolarità è una visione religiosa piuttosto che scientifica. Lo scrittore di fantascienza Ken MacLeod l'ha soprannominata "il rapimento per i nerd", un'allusione alla fine dei tempi, quando Gesù conduce i fedeli verso il cielo e lascia dietro i peccatori. Tale desiderio di trascendenza, spirituale o tecnologica, è fin troppo comprensibile. Sia come individui che come specie, ci troviamo di fronte gravi problemi mortali, compresi il terrorismo, proliferazione nucleare, la sovrappopolazione, la povertà, le carestie, il degrado ambientale, il cambiamento climatico, l'esaurimento delle risorse e l'AIDS. Ingegneri e scienziati dovrebbero prendere di petto i problemi del mondo e trovare soluzioni piuttosto che indulgere in evasive fantasie pseudoscientifiche come la singolarità.[8]»

Pur riconoscendo che ci sono alcune somiglianze tra la singolarità e il "rapimento" (cioè, il millenarismo, la trascendenza), i singolaritani controbattono che le differenze sono cruciali (ad esempio, il razionalismo, il naturalismo, nessuna ritorsione contro i non-credenti, il non antropomorfismo, il credo basato sulle evidenze).[9]

L'accademico STS David Correia sostiene che il movimento singolaritanista è incoraggiato e sponsorizzato da una rete di interessi militari e aziendali alla ricerca di tecnologie per il potenziamento umano che servono a rafforzare le disuguaglianze sociali perché la singolarità offre le condizioni di rapporti sociali capitalistici permanenti e la bioingegneria dei valori borghesi.[10] Correia conclude che il singolaritanismo e il più ampio movimento transumanista sono antiquate eugenetiche con una migliore tecnologia; anche in futuro questo concetto sarà a sua volta limitato e antiquato sembra un paradosso no[perché?] che si lasciano passare come pragmatici postmodernismi.[10]

  1. ^ a b Scientists Worry Machines May Outsmart Man By John Markoff, NY Times, July 26, 2009.
  2. ^ The Coming Technological Singularity: How to Survive in the Post-Human Era, by Vernor Vinge, Department of Mathematical Sciences, San Diego State University, (c) 1993 by Vernor Vinge.
  3. ^ a b c Singularitarian Principles Archiviato il 13 giugno 2007 in Internet Archive."
  4. ^ a b c Raymond Kurzweil, The Singularity Is Near: When Humans Transcend Biology, Viking Adult, 2005, ISBN 0-670-03384-7, OCLC 224517172.
  5. ^ Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  6. ^ AAAI Presidential Panel on Long-Term AI Futures 2008-2009 Study, Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
  7. ^ Geraci Geraci, The Cult of Kurzweil: Will Robots Save Our Souls?, 2011. URL consultato l'11 maggio 2011.
  8. ^ John Horgan, The Consciousness Conundrum, 2008. URL consultato il 17 dicembre 2008 (archiviato dall'url originale l'11 marzo 2016).
  9. ^ Rapture of the Nerds, Not Archiviato il 23 ottobre 2011 in Internet Archive."
  10. ^ a b David Correia, The Singularity Movement: If Only Glenn Beck Were a Cyborg, 2010. URL consultato il 15 dicembre 2010 (archiviato dall'url originale il 14 dicembre 2010).

Voci correlate

[modifica | modifica wikitesto]

Collegamenti esterni

[modifica | modifica wikitesto]