Eliezer Yudkowsky
Eliezer Shlomo Yudkowsky (Chicago, 11 settembre 1979) è uno scrittore, teorico dell'intelligenza artificiale e teorico delle decisioni statunitense, noto per aver divulgato l'idea dell'intelligenza artificiale amichevole,[1][2] rendendola popolare.
È co-fondatore[3] e ricercatore presso il Machine Intelligence Research Institute (MIRI), un'organizzazione di ricerca privata senza scopo di lucro con sede a Berkeley, in California.[4] Il suo lavoro sulla prospettiva di un'esplosione di intelligenza incontrollata ha avuto un'influenza su Superintelligence: Paths, Dangers, Strategies di Nick Bostrom.[5]
Lavoro sulla sicurezza dell'intelligenza artificiale
[modifica | modifica wikitesto]Apprendimento degli obiettivi e incentivi nei sistemi software
[modifica | modifica wikitesto]Il punto di vista di Yudkowsky sulle sfide alla sicurezza poste dalle future generazioni di sistemi di IA è discusso nel libro di testo universitario di Stuart Russell e Peter Norvig, Artificial Intelligence: A Modern Approach. Notando la difficoltà di specificare formalmente gli obiettivi generali a mano, Russell e Norvig citano la proposta di Yudkowsky che i sistemi autonomi e adattivi siano progettati per imparare un comportamento corretto nel tempo:
«Yudkowsky (2008) entra più in dettaglio su come progettare una IA amichevole. Egli afferma che la gentilezza (un desiderio di non nuocere agli umani) dovrebbe essere progettata fin dall'inizio, ma che i progettisti dovrebbero riconoscere sia che i loro progetti possono essere difettosi, sia che il robot imparerà ed evolverà nel tempo. Quindi la sfida è quella della progettazione dei meccanismi: progettare un meccanismo per l'evoluzione dell'IA sotto un sistema di controlli ed equilibri, e dare ai sistemi funzioni di utilità che rimarranno amichevoli di fronte a tali cambiamenti. In risposta alla preoccupazione della convergenza strumentale, in cui i sistemi decisionali autonomi con obiettivi mal progettati avrebbero incentivi predefiniti a maltrattare gli esseri umani, Yudkowsky e altri ricercatori MIRI hanno raccomandato di lavorare per specificare gli agenti software che convergono su comportamenti predefiniti sicuri anche quando i loro obiettivi sono mal specificati.[2][6]»
Previsione delle capacità
[modifica | modifica wikitesto]Nello scenario di esplosione dell'intelligenza ipotizzato da I.J. Good, i sistemi di IA che si auto-migliorano ricorsivamente passano rapidamente da un'intelligenza generale subumana a una superintelligente. Il libro di Nick Bostrom del 2014, Superintelligence: Paths, Dangers, Strategies, delinea in dettaglio l'argomento di Good, mentre cita gli scritti di Yudkowsky sul rischio che l'antropomorfizzazione dei sistemi avanzati di IA porti le persone a fraintendere la natura di un'esplosione di intelligenza: ''IA potrebbe fare un salto apparentemente brusco nell'intelligenza puramente come risultato dell'antropomorfismo, la tendenza umana a pensare allo 'scemo del villaggio' e a 'Einstein' come gli estremi della scala dell'intelligenza, invece di punti quasi indistinguibili sulla scala delle menti in generale".[1][3][7]
In Artificial Intelligence: A Modern Approach, gli autori Stuart Russell e Peter Norvig sollevano l'obiezione che esistono limiti noti alla risoluzione intelligente dei problemi dalla teoria della complessità computazionale; se ci sono forti limiti all'efficienza con cui gli algoritmi possono risolvere vari compiti di informatica, allora l'esplosione dell'intelligenza potrebbe non essere possibile.[1]
Scrittura razionale
[modifica | modifica wikitesto]Tra il 2006 e il 2009, Yudkowsky e Robin Hanson sono stati i principali collaboratori di Overcoming Bias, un blog di scienze cognitive e sociali sponsorizzato dal Future of Humanity Institute dell'Università di Oxford. Nel febbraio 2009 Yudkowsky ha fondato LessWrong, un "blog comunitario dedicato a perfezionare l'arte della razionalità umana".[8][9] Overcoming Bias funziona da allora come blog personale di Hanson.
Oltre 300 articoli di blog di Yudkowsky sulla filosofia e la scienza (originariamente scritti su LessWrong e Overcoming Bias) sono stati pubblicati come un ebook intitolato Rationality: From AI to Zombies dal Machine Intelligence Research Institute (MIRI) nel 2015.[10] MIRI ha anche pubblicato Inadequate Equilibria, l'ebook di Yudkowsky del 2017 sul tema delle inefficienze sociali.[11]
Yudkowsky ha anche scritto diverse opere di narrativa. Il suo romanzo di fanfiction, Harry Potter e i metodi della razionalità, utilizza elementi della trama della serie Harry Potter di JK Rowling per illustrare argomenti scientifici.[8][12] The New Yorker ha descritto Harry Potter e i metodi della razionalità come una rivisitazione dell'originale di Rowling "nel tentativo di spiegare la magia di Harry attraverso il metodo scientifico".[13]
Pubblicazioni accademiche
[modifica | modifica wikitesto]- Eliezer Yudkowsky, Levels of Organization in General Intelligence (PDF), in Artificial General Intelligence, Berlin, Springer, 2007.
- Eliezer Yudkowsky, Cognitive Biases Potentially Affecting Judgement of Global Risks, in Nick Bostrom e Milan Ćirković (a cura di), Global Catastrophic Risks, Oxford University Press, 2008, ISBN 978-0199606504.
- Eliezer Yudkowsky, Artificial Intelligence as a Positive and Negative Factor in Global Risk, in Nick Bostrom e Milan Ćirković (a cura di), Global Catastrophic Risks, Oxford University Press, 2008, ISBN 978-0199606504.
- Eliezer Yudkowsky, Complex Value Systems in Friendly AI (PDF), in Artificial General Intelligence: 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3–6, 2011, Berlin, Springer, 2011.
- Eliezer Yudkowsky, Friendly Artificial Intelligence, in Ammon Eden, James Moor, John Søraker e Eric Steinhart (a cura di), Singularity Hypotheses: A Scientific and Philosophical Assessment, The Frontiers Collection, Berlino, Springer, 2012, pp. 181–195, DOI:10.1007/978-3-642-32560-1_10, ISBN 978-3-642-32559-5.
- Nick Bostrom e Eliezer Yudkowsky, The Ethics of Artificial Intelligence (PDF), in Keith Frankish e William Ramsey (a cura di), The Cambridge Handbook of Artificial Intelligence, New York, Cambridge University Press, 2014, ISBN 978-0-521-87142-6.
- Patrick LaVictoire, Benja Fallenstein, Eliezer Yudkowsky, Mihály Bárász, Paul Christiano e Marcello Herreshoff, Program Equilibrium in the Prisoner's Dilemma via Löb's Theorem, in Multiagent Interaction without Prior Coordination: Papers from the AAAI-14 Workshop, AAAI Publications, 2014. URL consultato il 14 ottobre 2021 (archiviato dall'url originale il 15 aprile 2021).
- Nate Soares, Benja Fallenstein e Eliezer Yudkowsky, Corrigibility (PDF), in AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015, AAAI Publications, 2015.
Note
[modifica | modifica wikitesto]- ^ a b c Stuart Russell e Peter Norvig, Artificial Intelligence: A Modern Approach, Prentice Hall, 2009, ISBN 978-0-13-604259-4.
- ^ a b Jonathan Leighton, The Battle for Compassion: Ethics in an Apathetic Universe, Algora, 2011, ISBN 978-0-87586-870-7.
- ^ a b (EN) Vanity Fair, https://www.vanityfair.com/news/2017/03/elon-musk-billion-dollar-crusade-to-stop-ai-space-x . URL consultato il 28 luglio 2018.
- ^ Kurzweil, Ray, The Singularity Is Near, New York City, Viking Penguin, 2005, ISBN 978-0-670-03384-3.
- ^ (EN) MIT Technology Review, https://www.technologyreview.com/s/534871/our-fear-of-artificial-intelligence/ . URL consultato il 9 aprile 2019.
- ^ Copia archiviata. URL consultato il 14 ottobre 2021 (archiviato dall'url originale il 15 gennaio 2016).
- ^ Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, 2014, ISBN 978-0199678112.
- ^ a b James Miller, Singularity Rising, BenBella Books, Inc., 2012, ISBN 978-1936661657.
- ^ Business Insider, http://www.businessinsider.com/ten-things-you-should-learn-from-lesswrongcom-2011-7 . URL consultato il 25 marzo 2014.
- ^ (EN) newramblerreview.com, http://newramblerreview.com/book-reviews/economics/rifts-in-rationality . URL consultato il 28 luglio 2018.
- ^ Machine Intelligence Research Institute, intelligence.org, https://intelligence.org/equilibriabook/ .
- ^ "'Harry Potter' and the Key to Immortality", Daniel Snyder, The Atlantic
- ^ No Death, No Taxes: The Libertarian Futurism of a Silicon Valley Billionaire, 2011.
Altri progetti
[modifica | modifica wikitesto]- Wikimedia Commons contiene immagini o altri file su Eliezer Yudkowsky
Collegamenti esterni
[modifica | modifica wikitesto]- (EN) Sito ufficiale, su yudkowsky.net.
- (EN) Opere di Eliezer Yudkowsky, su Open Library, Internet Archive.
- (EN) Eliezer Yudkowsky, su Goodreads.
Controllo di autorità | VIAF (EN) 1151594368605351858 · ISNI (EN) 0000 0004 8631 9046 · LCCN (EN) no2018026526 · J9U (EN, HE) 987007399550205171 |
---|