Институт будущего человечества — Википедия
Институт будущего человечества (FHI) | |
---|---|
Международное название | Future of Humanity Institute |
Основан | 2005 |
Закрыт | 2024 |
Тип | междисциплионарный исследовательский центр |
Директор | Ник Бустрём |
Расположение | Англия, Оксфорд |
Юридический адрес | Оксфордский университет, Mill Street, Trajan House |
Сайт | fhi.ox.ac.uk |
Институт будущего человечества (англ. Future of Humanity Institute, FHI) — английский междисциплионарный исследовательский центр, функционировавший как часть факультета философии[англ.] и Школы Мартина[англ.] Оксфордского университета[1].
Основан в 2005 году, директором являлся философ Ник Бостром. В исследователький штат среди прочих входили футуролог Андерс Сандберг, инженер Эрик Дрекслер, экономист Робин Хэнсон[англ.], а также Тоби Орд[англ.], основавший благотворительное сообщество «Giving What We Can[англ.]»[2].
Задача института заключалась в изучении наиболее важных и первостепенных для человечества областей, таких как влияние технологий и возможности глобальной катастрофы в будущем. Для работы применялся междисциплинарный подход. Институт также всячески способствовал участию общественности в управлении государством, предприятиями, университетами и другими организациями, развитию двухстороннего диалога между ними.
История
[править | править код]Философ Ник Бостром основал институт в ноябре 2005 года как часть Школы Мартина Оксфордского университета, а затем школы Джеймса Мартина 21st Century School[3]. В период с 2008 по 2010 год FHI организовал конференцию по глобальным катастрофическим рискам, было написано 22 статьи в научных журналах и опубликовано 34 главы в научных сборниках. Исследователи FHI давали политические рекомендации на Всемирном экономическом форуме, частному и некоммерческому сектору (например, Фонду Макартуров и Всемирной организации здравоохранения), а также правительственным учреждениям Швеции, Сингапура, Бельгии, Соединённого Королевства Великобритании и Соединённых Штатов Америки.
Ник Бостром и специалист по биоэтике Джулиан Савулеску[англ.] также опубликовали книгу «Совершенствование человека (англ. Human Enhancement)» в марте 2009 года. Совсем недавно исследователи FHI сосредоточили внимание на опасностях, связанных с продвинутым искусственным интеллектом. В 2014 году они опубликовали несколько книг о рисках, связанных с ИИ, в том числе «Умнее нас» Стюарта Армстронга и «Искусственный интеллект. Этапы, Угрозы, Стратегии» Ника Бострома[4]. В 2018 году организация Open Philanthropy[англ.] рекомендовала выделить FHI грант в размере примерно 13,4 миллиона фунта стерлингов в течение трёх лет[5].
Основные направления исследования
[править | править код]Экзистенциальный риск
[править | править код]Крупнейшая тема, на изучение которой FHI потратила много времени, — это риск глобальных катастроф и, в частности, экзистенциальный риск. В статье 2002 года Ник Бостром определил «экзистенциальный риск» как такой, «при котором неблагоприятный исход либо уничтожит разумную жизнь земного происхождения, либо навсегда и радикально сократит её потенциал»[6]. Это включает в себя сценарии, в которых человечеству не причиняется прямого вреда, но оно не может колонизировать космос и использовать доступные ресурсы наблюдаемой Вселенной в проектах, имеющих ценность для человечества, как обсуждалось в статье 2003 года «Астрономические отходы: альтернативные издержки замедленного технологического развития (англ. Astronomical Waste: The Opportunity Cost of Delayed Technological Development)»[7].
В 2020 году старший научный сотрудник FHI Тоби Орд опубликовал книгу «Пропасть: экзистенциальный риск и будущее человечества (англ. The Precipice: Existential Risk and the Future of Humanity)», в которой он утверждает, что защита будущего человечества является одной из важнейших моральных проблем нашего времени[8][9].
Совершенствование человека и рациональность
[править | править код]С работой FHI по оценке рисков, астрономических потерь и опасностей, связанных с технологиями будущего, тесно связана работа над перспективами и рисками, связанными с улучшением человеческого потенциала. Изменения, о которых идёт речь, могут быть биологическими, цифровыми или социологическими, и акцент делается на наиболее радикальных предполагаемых изменениях, а не на наиболее вероятных краткосрочных инновациях. Исследования FHI в области биоэтики сосредоточены на потенциальных последствиях генотерапии, продлении жизни, мозговых имплантатах и нейрокомпьютерных интерфейсах, а также на загрузке сознания[10].
Основное внимание FHI уделяет методам оценки и повышения уровня человеческого интеллекта и рациональности как способу определения скорости и направления технологического и социального прогресса. Работа FHI по изучению человеческой иррациональности, на примере когнитивной эвристики[англ.] и искажениях, включает в себя постоянное сотрудничество с Amlin[англ.] по изучению системного риска, возникающего из-за предвзятости при моделировании[11][12].
Примечания
[править | править код]- ↑ About . fhi.ox.ac.uk. Архивировано 7 апреля 2013 года.
- ↑ Research Staff . fhi.ox.ac.uk. Архивировано 7 апреля 2013 года.
- ↑ Humanity's Future (англ.). Oxford Martin School. Архивировано из оригинала 17 марта 2014 года.
- ↑ "How are humans going to become extinct?". BBC News (англ.). 2013-04-23. Дата обращения: 12 декабря 2024.
- ↑ Future of Humanity Institute — Work on Global Catastrophic Risks (амер. англ.). Open Philanthropy. Дата обращения: 12 декабря 2024.
- ↑ Existential Risks . www.jetpress.org. Дата обращения: 13 декабря 2024.
- ↑ Nick Bostrom. Astronomical Waste: The Opportunity Cost of Delayed Technological Development (англ.) // Utilitas. — 2003-11. — Vol. 15, iss. 3. — P. 308–314. — ISSN 0953-8208. — doi:10.1017/S0953820800004076.
- ↑ The Precipice (амер. англ.). The Precipice. Дата обращения: 13 декабря 2024.
- ↑ Chivers, Tom How close is humanity to destroying itself? (брит. англ.). The Spectator (7 марта 2020). Дата обращения: 13 декабря 2024.
- ↑ Anders Sandberg and Nick Bostrom. Whole Brain Emulation: A Roadmap (англ.) (PDF). Future of Humanity Institute (31 марта 2014).
- ↑ Amlin and Oxford University launch major research project into the Systemic Risk of Modelling (англ.). Amlin (11 января 2014). Архивировано из оригинала 13 апреля 2014 года.
- ↑ Amlin and Oxford University to collaborate on modelling risk study (англ.). CIR Magazine (11 февраля 2014). Дата обращения: 13 декабря 2024.
Ссылки
[править | править код]- fhi.ox.ac.uk — официальный сайт института
В другом языковом разделе есть более полная статья Future of Humanity Institute (англ.). |