Eliezer Yudkowsky

Eliezer Shlomo Yudkowsky (Chicago, 11 settembre 1979) è uno scrittore, teorico dell'intelligenza artificiale e teorico delle decisioni statunitense, noto per aver divulgato l'idea dell'intelligenza artificiale amichevole,[1][2] rendendola popolare.
È co-fondatore[3] e ricercatore presso il Machine Intelligence Research Institute (MIRI), un'organizzazione di ricerca privata senza scopo di lucro con sede a Berkeley, in California.[4] Il suo lavoro sulla prospettiva di un'esplosione di intelligenza incontrollata ha avuto un'influenza su Superintelligence: Paths, Dangers, Strategies di Nick Bostrom.[5]
Lavoro sulla sicurezza dell'intelligenza artificiale
[modifica | modifica wikitesto]Apprendimento degli obiettivi e incentivi nei sistemi software
[modifica | modifica wikitesto]Il punto di vista di Yudkowsky sulle sfide alla sicurezza poste dalle future generazioni di sistemi di IA è discusso nel libro di testo universitario di Stuart Russell e Peter Norvig, Artificial Intelligence: A Modern Approach. Notando la difficoltà di specificare formalmente gli obiettivi generali a mano, Russell e Norvig citano la proposta di Yudkowsky che i sistemi autonomi e adattivi siano progettati per imparare un comportamento corretto nel tempo:
In risposta alla preoccupazione della convergenza strumentale, in cui i sistemi decisionali autonomi con obiettivi mal progettati avrebbero incentivi predefiniti a maltrattare gli esseri umani, Yudkowsky e altri ricercatori MIRI hanno raccomandato di lavorare per specificare gli agenti software che convergono su comportamenti predefiniti sicuri anche quando i loro obiettivi sono mal specificati.[2][6]»
Previsione delle capacità
[modifica | modifica wikitesto]Nello scenario di esplosione dell'intelligenza ipotizzato da I.J. Good, i sistemi di IA che si auto-migliorano ricorsivamente passano rapidamente da un'intelligenza generale subumana a una superintelligente. Il libro di Nick Bostrom del 2014, Superintelligence: Paths, Dangers, Strategies, delinea in dettaglio l'argomento di Good, mentre cita gli scritti di Yudkowsky sul rischio che l'antropomorfizzazione dei sistemi avanzati di IA porti le persone a fraintendere la natura di un'esplosione di intelligenza: ''IA potrebbe fare un salto apparentemente brusco nell'intelligenza puramente come risultato dell'antropomorfismo, la tendenza umana a pensare allo 'scemo del villaggio' e a 'Einstein' come gli estremi della scala dell'intelligenza, invece di punti quasi indistinguibili sulla scala delle menti in generale".[1][3][7]
In Artificial Intelligence: A Modern Approach, gli autori Stuart Russell e Peter Norvig sollevano l'obiezione che esistono limiti noti alla risoluzione intelligente dei problemi dalla teoria della complessità computazionale; se ci sono forti limiti all'efficienza con cui gli algoritmi possono risolvere vari compiti di informatica, allora l'esplosione dell'intelligenza potrebbe non essere possibile.[1]
Scrittura razionale
[modifica | modifica wikitesto]Tra il 2006 e il 2009, Yudkowsky e Robin Hanson sono stati i principali collaboratori di Overcoming Bias, un blog di scienze cognitive e sociali sponsorizzato dal Future of Humanity Institute dell'Università di Oxford. Nel febbraio 2009 Yudkowsky ha fondato LessWrong, un "blog comunitario dedicato a perfezionare l'arte della razionalità umana".[8][9] Overcoming Bias funziona da allora come blog personale di Hanson.
Oltre 300 articoli di blog di Yudkowsky sulla filosofia e la scienza (originariamente scritti su LessWrong e Overcoming Bias) sono stati pubblicati come un ebook intitolato Rationality: From AI to Zombies dal Machine Intelligence Research Institute (MIRI) nel 2015.[10] MIRI ha anche pubblicato Inadequate Equilibria, l'ebook di Yudkowsky del 2017 sul tema delle inefficienze sociali.[11]
Yudkowsky ha anche scritto diverse opere di narrativa. Il suo romanzo di fanfiction, Harry Potter e i metodi della razionalità, utilizza elementi della trama della serie Harry Potter di JK Rowling per illustrare argomenti scientifici.[8][12] The New Yorker ha descritto Harry Potter e i metodi della razionalità come una rivisitazione dell'originale di Rowling "nel tentativo di spiegare la magia di Harry attraverso il metodo scientifico".[13]
Pubblicazioni accademiche
[modifica | modifica wikitesto]- Eliezer Yudkowsky, Levels of Organization in General Intelligence (PDF), in Artificial General Intelligence, Berlin, Springer, 2007.
- Eliezer Yudkowsky, Cognitive Biases Potentially Affecting Judgement of Global Risks, in Nick Bostrom e Milan Ćirković (a cura di), Global Catastrophic Risks, Oxford University Press, 2008, ISBN 978-0199606504.
- Eliezer Yudkowsky, Artificial Intelligence as a Positive and Negative Factor in Global Risk, in Nick Bostrom e Milan Ćirković (a cura di), Global Catastrophic Risks, Oxford University Press, 2008, ISBN 978-0199606504.
- Eliezer Yudkowsky, Complex Value Systems in Friendly AI (PDF), in Artificial General Intelligence: 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3–6, 2011, Berlin, Springer, 2011.
- Eliezer Yudkowsky, Friendly Artificial Intelligence, in Ammon Eden, James Moor, John Søraker e Eric Steinhart (a cura di), Singularity Hypotheses: A Scientific and Philosophical Assessment, The Frontiers Collection, Berlino, Springer, 2012, pp. 181–195, DOI:10.1007/978-3-642-32560-1_10, ISBN 978-3-642-32559-5.
- Nick Bostrom e Eliezer Yudkowsky, The Ethics of Artificial Intelligence (PDF), in Keith Frankish e William Ramsey (a cura di), The Cambridge Handbook of Artificial Intelligence, New York, Cambridge University Press, 2014, ISBN 978-0-521-87142-6.
- Patrick LaVictoire, Benja Fallenstein, Eliezer Yudkowsky, Mihály Bárász, Paul Christiano e Marcello Herreshoff, Program Equilibrium in the Prisoner's Dilemma via Löb's Theorem, in Multiagent Interaction without Prior Coordination: Papers from the AAAI-14 Workshop, AAAI Publications, 2014. URL consultato il 14 ottobre 2021 (archiviato dall'url originale il 15 aprile 2021).
- Nate Soares, Benja Fallenstein e Eliezer Yudkowsky, Corrigibility (PDF), in AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015, AAAI Publications, 2015.
Note
[modifica | modifica wikitesto]- ^ a b c Stuart Russell e Peter Norvig, Artificial Intelligence: A Modern Approach, Prentice Hall, 2009, ISBN 978-0-13-604259-4.
- ^ a b Jonathan Leighton, The Battle for Compassion: Ethics in an Apathetic Universe, Algora, 2011, ISBN 978-0-87586-870-7.
- ^ a b (EN) Vanity Fair, https://www.vanityfair.com/news/2017/03/elon-musk-billion-dollar-crusade-to-stop-ai-space-x . URL consultato il 28 luglio 2018.
- ^ Kurzweil, Ray, The Singularity Is Near, New York City, Viking Penguin, 2005, ISBN 978-0-670-03384-3.
- ^ (EN) MIT Technology Review, https://www.technologyreview.com/s/534871/our-fear-of-artificial-intelligence/ . URL consultato il 9 aprile 2019.
- ^ Copia archiviata. URL consultato il 14 ottobre 2021 (archiviato dall'url originale il 15 gennaio 2016).
- ^ Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, 2014, ISBN 978-0199678112.
- ^ a b James Miller, Singularity Rising, BenBella Books, Inc., 2012, ISBN 978-1936661657.
- ^ Business Insider, http://www.businessinsider.com/ten-things-you-should-learn-from-lesswrongcom-2011-7 . URL consultato il 25 marzo 2014.
- ^ (EN) newramblerreview.com, http://newramblerreview.com/book-reviews/economics/rifts-in-rationality . URL consultato il 28 luglio 2018.
- ^ Machine Intelligence Research Institute, intelligence.org, https://intelligence.org/equilibriabook/ .
- ^ "'Harry Potter' and the Key to Immortality", Daniel Snyder, The Atlantic
- ^ No Death, No Taxes: The Libertarian Futurism of a Silicon Valley Billionaire, 2011.
Altri progetti
[modifica | modifica wikitesto]Wikimedia Commons contiene immagini o altri file su Eliezer Yudkowsky
Collegamenti esterni
[modifica | modifica wikitesto]- (EN) Sito ufficiale, su yudkowsky.net.
- (EN) Eliezer Yudkowsky, su TED, TED Conferences LLC.
- (EN) Opere di Eliezer Yudkowsky, su Open Library, Internet Archive.
- (EN) Eliezer Yudkowsky, su Goodreads.
Controllo di autorità | VIAF (EN) 1151594368605351858 · ISNI (EN) 0000 0004 8631 9046 · LCCN (EN) no2018026526 · J9U (EN, HE) 987007399550205171 |
---|