Институт будущего человечества — Википедия

Институт будущего человечества
(FHI)
Изображение логотипа
Задача: "research big-picture questions about humanity and its prospects"
Международное название Future of Humanity Institute
Основан 2005
Закрыт 2024
Тип междисциплионарный исследовательский центр
Директор Ник Бустрём
Расположение  Англия, Оксфорд
Юридический адрес Оксфордский университет, Mill Street, Trajan House
Сайт fhi.ox.ac.uk

Институт будущего человечества (англ. Future of Humanity Institute, FHI) — английский междисциплионарный исследовательский центр, функционировавший как часть факультета философии[англ.] и Школы Мартина[англ.] Оксфордского университета[1].

Основан в 2005 году, директором являлся философ Ник Бостром. В исследователький штат среди прочих входили футуролог Андерс Сандберг, инженер Эрик Дрекслер, экономист Робин Хэнсон[англ.], а также Тоби Орд[англ.], основавший благотворительное сообщество «Giving What We Can[англ.]»[2].

Задача института заключалась в изучении наиболее важных и первостепенных для человечества областей, таких как влияние технологий и возможности глобальной катастрофы в будущем. Для работы применялся междисциплинарный подход. Институт также всячески способствовал участию общественности в управлении государством, предприятиями, университетами и другими организациями, развитию двухстороннего диалога между ними.

Философ Ник Бостром основал институт в ноябре 2005 года как часть Школы Мартина Оксфордского университета, а затем школы Джеймса Мартина 21st Century School[3]. В период с 2008 по 2010 год FHI организовал конференцию по глобальным катастрофическим рискам, было написано 22 статьи в научных журналах и опубликовано 34 главы в научных сборниках. Исследователи FHI давали политические рекомендации на Всемирном экономическом форуме, частному и некоммерческому сектору (например, Фонду Макартуров и Всемирной организации здравоохранения), а также правительственным учреждениям Швеции, Сингапура, Бельгии, Соединённого Королевства Великобритании и Соединённых Штатов Америки.

Ник Бостром и специалист по биоэтике Джулиан Савулеску[англ.] также опубликовали книгу «Совершенствование человека (англ. Human Enhancement)» в марте 2009 года. Совсем недавно исследователи FHI сосредоточили внимание на опасностях, связанных с продвинутым искусственным интеллектом. В 2014 году они опубликовали несколько книг о рисках, связанных с ИИ, в том числе «Умнее нас» Стюарта Армстронга и «Искусственный интеллект. Этапы, Угрозы, Стратегии» Ника Бострома[4]. В 2018 году организация Open Philanthropy[англ.] рекомендовала выделить FHI грант в размере примерно 13,4 миллиона фунта стерлингов в течение трёх лет[5].

Основные направления исследования

[править | править код]

Экзистенциальный риск

[править | править код]

Крупнейшая тема, на изучение которой FHI потратила много времени, — это риск глобальных катастроф и, в частности, экзистенциальный риск. В статье 2002 года Ник Бостром определил «экзистенциальный риск» как такой, «при котором неблагоприятный исход либо уничтожит разумную жизнь земного происхождения, либо навсегда и радикально сократит её потенциал»[6]. Это включает в себя сценарии, в которых человечеству не причиняется прямого вреда, но оно не может колонизировать космос и использовать доступные ресурсы наблюдаемой Вселенной в проектах, имеющих ценность для человечества, как обсуждалось в статье 2003 года «Астрономические отходы: альтернативные издержки замедленного технологического развития (англ. Astronomical Waste: The Opportunity Cost of Delayed Technological Development[7].

В 2020 году старший научный сотрудник FHI Тоби Орд опубликовал книгу «Пропасть: экзистенциальный риск и будущее человечества (англ. The Precipice: Existential Risk and the Future of Humanity)», в которой он утверждает, что защита будущего человечества является одной из важнейших моральных проблем нашего времени[8][9].

Совершенствование человека и рациональность

[править | править код]

С работой FHI по оценке рисков, астрономических потерь и опасностей, связанных с технологиями будущего, тесно связана работа над перспективами и рисками, связанными с улучшением человеческого потенциала. Изменения, о которых идёт речь, могут быть биологическими, цифровыми или социологическими, и акцент делается на наиболее радикальных предполагаемых изменениях, а не на наиболее вероятных краткосрочных инновациях. Исследования FHI в области биоэтики сосредоточены на потенциальных последствиях генотерапии, продлении жизни, мозговых имплантатах и нейрокомпьютерных интерфейсах, а также на загрузке сознания[10].

Основное внимание FHI уделяет методам оценки и повышения уровня человеческого интеллекта и рациональности как способу определения скорости и направления технологического и социального прогресса. Работа FHI по изучению человеческой иррациональности, на примере когнитивной эвристики[англ.] и искажениях, включает в себя постоянное сотрудничество с Amlin[англ.] по изучению системного риска, возникающего из-за предвзятости при моделировании[11][12].

Примечания

[править | править код]
  1. About. fhi.ox.ac.uk. Архивировано 7 апреля 2013 года.
  2. Research Staff. fhi.ox.ac.uk. Архивировано 7 апреля 2013 года.
  3. Humanity's Future (англ.). Oxford Martin School. Архивировано из оригинала 17 марта 2014 года.
  4. "How are humans going to become extinct?". BBC News (англ.). 2013-04-23. Дата обращения: 12 декабря 2024.
  5. Future of Humanity Institute — Work on Global Catastrophic Risks (амер. англ.). Open Philanthropy. Дата обращения: 12 декабря 2024.
  6. Existential Risks. www.jetpress.org. Дата обращения: 13 декабря 2024.
  7. Nick Bostrom. Astronomical Waste: The Opportunity Cost of Delayed Technological Development (англ.) // Utilitas. — 2003-11. — Vol. 15, iss. 3. — P. 308–314. — ISSN 0953-8208. — doi:10.1017/S0953820800004076.
  8. The Precipice (амер. англ.). The Precipice. Дата обращения: 13 декабря 2024.
  9. Chivers, Tom How close is humanity to destroying itself? (брит. англ.). The Spectator (7 марта 2020). Дата обращения: 13 декабря 2024.
  10. Anders Sandberg and Nick Bostrom. Whole Brain Emulation: A Roadmap (англ.) (PDF). Future of Humanity Institute (31 марта 2014).
  11. Amlin and Oxford University launch major research project into the Systemic Risk of Modelling (англ.). Amlin (11 января 2014). Архивировано из оригинала 13 апреля 2014 года.
  12. Amlin and Oxford University to collaborate on modelling risk study (англ.). CIR Magazine (11 февраля 2014). Дата обращения: 13 декабря 2024.
  • fhi.ox.ac.uk — официальный сайт института