الخطر الوجودي من الذكاء الاصطناعي - ويكيبيديا

الخطر الوجودي من الذكاء الاصطناعي العام هو الفرضية القائلة بأن التقدم الكبير في الذكاء الاصطناعي العام (AGI) يمكن أن يؤدي إلى انقراض الإنسان أو كارثة عالمية أخرى لا رجعة فيها.[1][2][3]

تناقش إحدى الحجج التالي: يسيطر الجنس البشري حاليًا على الأنواع الأخرى لأن الدماغ البشري يمتلك قدرات مميزة تفتقر إليها الحيوانات الأخرى. إذا تجاوز الذكاء الاصطناعي البشرية في الذكاء العام وأصبح فائق الذكاء، فقد يصبح من الصعب أو المستحيل التحكم فيه. مثلما يعتمد مصير الغوريلا الجبلية على حسن النية البشرية، كذلك قد يعتمد مصير البشرية على أفعال آلة المستقبل فائقة الذكاء.[4]

تتم مناقشة احتمال وقوع كارثة وجودية بسبب الذكاء الاصطناعي على نطاق واسع، ويتوقف جزئيًا على السيناريوهات المختلفة للتقدم المستقبلي في علوم الكمبيوتر.[5][5] أعرب كبار علماء الكمبيوتر والرؤساء التنفيذيين التقنيين عن مخاوفهم بشأن الذكاء الخارق مثل جيوفري هينتون، ويوشوا بنجيو، وآلان تورينج، وإيلون ماسك، وسام ألتمان، الرئيس التنفيذي لشركة OpenAI.[6][7] في عام 2022، وجدت دراسة استقصائية لباحثي الذكاء الاصطناعي الذين نشروا مؤخرًا في المؤتمرات الميدانية NeurIPS وICML أن غالبية المستجيبين يعتقدون أن هناك فرصة بنسبة 10% أو أكبر لأن عدم قدرتنا على التحكم في الذكاء الاصطناعي سيؤدي إلى كارثة وجودية (لاحظ أن نسبة المشاركة في الاستطلاع كانت 17%).[8] في عام 2023، وقع المئات من خبراء الذكاء الاصطناعي وشخصيات بارزة أخرى بيانًا مفاده أن: التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية.[9] وفي نوفمبر 2023 أجتمع قادة سياسيون ومسؤولون في شركات التكنولوجيا العملاقة وخبراء في الذكاء الاصطناعي بالمملكة المتحدة في انطلاق القمة العالمية الأولى حول المخاطر المترتبة عن التطور المتسارع لهذه التقنية الثورية.[10]

ينبع مصدران للقلق من مشاكل التحكم في الذكاء الاصطناعي والمواءمة: قد يكون من الصعب التحكم في آلة فائقة الذكاء أو غرسها بقيم متوافقة مع الإنسان. يعتقد العديد من الباحثين أن الآلة فائقة الذكاء ستقاوم محاولات تعطيلها أو تغيير أهدافها، لأن مثل هذا الحادث سيمنعها من تحقيق أهدافها الحالية. سيكون من الصعب للغاية مواءمة الذكاء الفائق مع النطاق الكامل للقيم والقيود الإنسانية المهمة. في المقابل، يجادل المشككون مثل عالم الكمبيوتر يان ليكون بأن الآلات فائقة الذكاء لن تكون لديها رغبة في الحفاظ على نفسها.[11][12]

مصدر ثالث للقلق هو أن انفجار مفاجئ للذكاء قد يفاجئ الجنس البشري غير المستعد. للتوضيح، إذا كان الجيل الأول من برنامج كمبيوتر قادرًا على مطابقة فعالية باحث الذكاء الاصطناعي على نطاق واسع يمكنه إعادة كتابة خوارزمياته ومضاعفة سرعته أو قدراته في ستة أشهر، فمن المتوقع أن يستغرق برنامج الجيل الثاني ثلاثة أشهر تقويمية لأداء قدر مماثل من العمل.[11] في هذا السيناريو، يستمر الوقت لكل جيل في الانكماش، ويخضع النظام لعدد كبير غير مسبوق من الأجيال من التحسين في فترة زمنية قصيرة، قفزًا من الأداء دون البشر في العديد من المجالات إلى الأداء الخارق في جميع مجالات الاهتمام تقريبًا. من الناحية التجريبية، تُظهر أمثلة مثل ألفازيرو في مجال Go أن أنظمة الذكاء الاصطناعي يمكن أن تتطور أحيانًا من قدرة ضيقة على المستوى البشري لتضييق القدرة الخارقة بسرعة شديدة.[13]

التاريخ

[عدل]

كان الروائي صموئيل بتلر أحد أوائل المؤلفين الذين أعربوا عن قلقهم الجاد من أن الآلات المتقدمة للغاية قد تشكل مخاطر وجودية على البشرية، والذي كتب ما يلي في مقالته عام 1863 داروين بين الآلات:[14]

النتيجة هي ببساطة مسألة وقت، ولكن سيأتي الوقت الذي ستحكم فيه الآلات السيادة الحقيقية على العالم وسكانه هو ما لا يمكن لأي شخص لديه عقل فلسفي حقيقي أن يسأله للحظة.

في عام 1951، كتب عالم الكمبيوتر آلان تورينج مقالًا بعنوان: الآلات الذكية، نظرية هرطقية، اقترح فيه أن الذكاء الاصطناعي العام من المرجح أن يسيطر على العالم لأنها أصبحت أكثر ذكاءً من البشر:

لنفترض الآن، من أجل الجدل، أن الآلات [الذكية] هي إمكانية حقيقية، وننظر إلى عواقب بنائها ... لن يكون هناك شك في موت الآلات، وستكون قادرة على التحدث مع بعضها البعض لصقل ذكائها. لذلك في مرحلة ما، يجب أن نتوقع من الآلات أن تتولى زمام الأمور، بالطريقة المذكورة في كتاب صموئيل بتلر إرواين.

في عام 1965، ابتكر آي جي جود المفهوم المعروف الآن باسم انفجار الذكاء. وذكر أيضًا أن المخاطر لم تُقدَّر بأقل من قيمتها:[15]

دع الآلة فائقة الذكاء تُعرَّف بأنها آلة يمكنها تجاوز جميع الأنشطة الفكرية لأي رجل مهما كان ذكيًا. نظرًا لأن تصميم الآلات هو أحد هذه الأنشطة الفكرية، يمكن لآلة فائقة الذكاء أن تصمم آلات أفضل؛ عندها وبلا مجال للشك سوف يحصل انفجار الذكاء، وسيترك ذكاء الإنسان بعيدًا. وهكذا فإن أول آلة فائقة الذكاء هي آخر اختراع يحتاج الإنسان إلى صنعه على الإطلاق، بشرط أن تكون الآلة سهلة الانقياد بما يكفي لتخبرنا بكيفية إبقائها تحت السيطرة. من الغريب أن هذه النقطة نادرًا ما تُطرح خارج نطاق الخيال العلمي. من المفيد أحيانًا أن نأخذ الخيال العلمي على محمل الجد.

عبّرت تصريحات عرضية من علماء مثل مارفن مينسكي وإي جود نفسه عن مخاوف فلسفية من أن الذكاء الفائق يمكن أن يسيطر على زمام الأمور، لكنه لا يحتوي على أي دعوة للعمل ضده. في عام 2000، كتب عالم الكمبيوتر والمؤسس المشارك لشركة صن، بيل جوي، مقالًا مؤثرًا بعنوان: لماذا لا يحتاجنا المستقبل؟، حيث حدد الروبوتات فائقة الذكاء على أنها خطر عالي التقنية يهدد بقاء الإنسان، جنبًا إلى جنب مع التكنولوجيا النانوية والأوبئة الحيوية المخطط لها.[16][17]

في عام 2009، حضر الخبراء مؤتمرًا خاصًا استضافته جمعية النهوض بالذكاء الاصطناعي (AAAI) لمناقشة ما إذا كانت أجهزة الكمبيوتر والروبوتات قادرة على اكتساب أي نوع من الاستقلالية، ومقدار هذه القدرات التي قد تشكل تهديدًا أو خطرًا. وأشاروا إلى أن بعض الروبوتات قد اكتسبت أشكالًا مختلفة من الاستقلالية شبه الذاتية، بما في ذلك القدرة على العثور على مصادر الطاقة بأنفسهم والقدرة على اختيار الأهداف بشكل مستقل للهجوم بالأسلحة. كما أشاروا إلى أن بعض فيروسات الكمبيوتر يمكن أن تتهرب من التصفية، إذ تحقق ما يعرف بذكاء الصرصور. وخلصوا إلى أن الوعي الذاتي كما هو موضح في الخيال العلمي ربما يكون غير مرجح، ولكن هناك مخاطر ومزالق أخرى محتملة. لخصت صحيفة نيويورك تايمز وجهة نظر المؤتمر على النحو التالي: نحن بعيدون جدًا عن هال، الكمبيوتر الذي تولى قيادة سفينة الفضاء في عام 2001: رحلة الفضاء.[18][19][20]

نشر نيك بوستروم كتاب الذكاء الفائق في عام 2014، والذي قدم حججه القائلة بأن الذكاء الفائق يشكل تهديدًا وجوديًا. بحلول عام 2015، كانت الشخصيات العامة مثل الفيزيائيين ستيفن هوكينج والحائز على جائزة نوبل فرانك ويلتشيك وعلماء الكمبيوتر ستيوارت جيه راسل ورومان يامبولسكي ورائدي الأعمال إيلون ماسك وبيل جيتس، قد أعربوا عن قلقهم بشأن مخاطر الذكاء الفائق. في عام 2015 أيضًا، سلطت الرسالة المفتوحة حول الذكاء الاصطناعي الضوء على الإمكانات العظيمة للذكاء الاصطناعي، وشجعت على تركيز المزيد من الأبحاث حول كيفية جعلها قوية ومفيدة. في أبريل 2016، حذرت مجلة Nature: يمكن للآلات والروبوتات التي تتفوق على البشر في جميع المجالات أن تتحسن ذاتيًا خارج نطاق سيطرتنا - وقد لا تتوافق مصالحهم مع مصالحنا.[21]

في مارس 2023، وقعت شخصيات رئيسية في منظمة العفو الدولية، مثل إيلون ماسك، خطابًا من معهد Future of Life يدعو إلى وقف التدريب المتقدم على الذكاء الاصطناعي حتى يتم تنظيمه بشكل صحيح. في مايو 2023، أصدر مركز أمان الذكاء الاصطناعي بيانًا وقعه العديد من الخبراء في مجال أمان الذكاء الاصطناعي والمخاطر الوجودية للذكاء الاصطناعي والذي نص على أن التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية.[22][23]

نبذة عامة

[عدل]

يفسر الذكاء الفائق أو أي تقنية لديها القدرة على إحداث الضرر حينما تستخدم استخدام خاطئ بأنها نهاية الجنس البشري، ولكن مع الذكاء الاصطناعي لدينا مشكلة جديدة وهي أن الأيدي الخطأ قد تكون في التكنولوجيا نفسها رغم حُسن نوايا مبرمجيها.وأشهر صعوبتين لكل من أنظمة non-AI وAIـ: 1. قد تحتوي التطبيقات على أخطأ صغيرة ولكنها كارثية. 2. غالبًا ما يحتوي النظام على سلوك غير مدروس في التجربة الأولى لأحد الأحداث.

  • وهناك صعوبة ثالثة؛ حيث إنه وأن أعطيت المعلومات صحيحة وكان التنفيذ خاليًا من الأخطاء أي كان سلوكًا جيّدا، فإن نظام التعلم التلقائي لأجهزة الذكاء الاصطناعي قد تتسبب بسلوك غير مقصود، مما يعني أن أجهزة الذكاء الاصطناعي قد تقوم بإنشاء جيل جديد بنفسها ولكنه قد لا يحافظ على القيم الأخلاقية المتوافقة مع القيم الأخلاقية الإنسانية المبرمجة أصلًا، فمن أجل أن تتحسن هذه الأجهزة تحسّنًا ذاتيًا آمنًا تمامًا... لا يكفي أن تكون خالية من الأخطاء، بل يجب أن تكون قادرة على برمجة أنظمة خلفية خالية من الأخطاء أيضًا. هذه الصعوبات ليست مصدر إزعاج وحسب بل تؤدي إلى كوارث.

نظرًا للتقدم الكبير في مجال الذكاء الاصطناعي واحتمال أن يكون لدى المنظمة فوائد أو تكاليف هائلة على المدى الطويل، جاء في الرسالة المفتوحة لعام 2015م بصدد هذا الموضوع:

وقد وقع على هذه الرسالة عدد كبير من الباحثين في الأوساط الأكاديمية والصناعية.

حول الذكاء الاصطناعي

[عدل]

إن ألآت الذكاء الاصطناعي غريبة على البشر حيث أن عمليات التفكير للبشر مختلفة كليًا عن باقي المخلوقات، وقد لا يكون لهذه الآلات مصالح للبشر، فإذا كان هذا الذكاء الاصطناعي ممكنًا ومن الممكن أن تتعارض الأهداف منه مع القيم الإنسانية الأساسية؛ فإن الذكاء الاصطناعي يشكل خطر الانقراض البشري ويمكن أن يتفوق على البشر عند تعارضهم في أمرٍ ما (وهو نظام يتجاوز قدرات البشر في كل شيء)؛ لذلك، إن لم تؤكد النتائج بإمكانية التعايش بين الجنسين، فإن أول جهاز ينشأ سيؤدي إلى الانقراض البشري.

يرى بوستروم وآخرون من منظور تطوري أن الفجوة بين الذكاء البشري والذكاء الخارق قد تكون صغيرة.[24]

لا يوجد قانون فيزيائي يمنع الجزيئات من التشكل بطريقة تؤدي عمليات حسابية أكثر تقدمًا من تنظيم الجسيمات في أدمغة الإنسان؛ لذا إن الذكاء الاصطناعي ممكن جسديًا مع تطوير الخوارزميات المحتملة في دماغ الإنسان، يمكن للدماغ الرقمي أن يحوي العديد من العمليات أكثر وأسرع من الدماغ البشري، قد يثير ظهور الذكاء الاصطناعي الجنس البشري إذا ما أحدث انفجار للمعلومات الاستخباريّة، تُظهر بعض الأمثلة أن الآلات وصلت بالفعل إلى مستويات تفوق المستويات البشرية في مجالات محددة، وقد تتطور هذه الأجهزة بسرعة وتجتاز القدرة البشرية. يمكن أن يحدث سيناريو لانفجار الذكاء الاصطناعي على النحو التالي: تكون لأجهزة الذكاء الاصطناعي قدرة بمستوى قدرة خبراء هندسة البرمجيات الرئيسية، وبسبب قدرتها على تطوير الخوارزميات الخاصة بها بشكل دوري؛ تصبح منظمة الذكاء الاصطناعي فوق قدرات البشر، كما يمكن للخبراء التغلب على السلبيات بشكل خلّاق من خلال نشر القدرات البشرية للابتكار، كما يمكن أن تستغل هذه المنظمة قدراتها للوصول إلى السلطة من خلال اختراقات جديدة. وعندئذ ستمتلك هذه المنظمة ذكاءً يفوق الذكاء البشري بكثير في كل المجالات بما فيها الابداع العلمي والتخطيط الاستراتيجي والمهارات الاجتماعية، تمامًا كما يعتمد بقاء الغوريلا اليوم على قرارات الإنسان، فإن بقاء الإنسان سيعتمد على الذكاء الاصطناعي. بعض البشر لديهم رغبة قوية في السلطة بعكس آخرين ممن لديهم رغبة قوية في مساعدة البشر المحتاجين إلى مساعدة، فالنوع الأول سمة محتملة لأنظمة الذكاء الاصطناعي، لماذا؟؛ لأنها تفكر بعقلانية في أن تكون في موضع لا يعترضه أحد فيوقفه، فبطبيعة الحال ستكسب صفة الحفاظ على الذات بمجرد أن تدرك أنها لا تستطيع تحقيق هدفها إذا ما تم إيقافها، وسيغيب عنها التعاطف مع احتياجات البشر؛ ما لم يُبَرْمِج ذلك بشكل ما، وبمجرد سيطرتها على الوضع... لن يكون لديها دافع كافي لمساعدة البشر ولن تتركه حرًّا يستهلك الموارد التي بإمكانها الاستفادة منها لبناء أنظمة حماية إضافية أو لبناء أجهزة كمبيوتر إضافية تعاونها لتحقيق هدفها؛ فقط لتكون في أمان. وبذلك نَخْلص إلى أنه من الممكن أن يحدث انفجار استخباراتي يقضي على الجنس البشري أو يهلكه.

القدرات المُحتملة لِلذكاء الاصطناعي

[عدل]

الذكاء العام

[عدل]

يُعرف الذكاء الاصطناعي العام عادةً على أنه نظام يؤدي أداءً على الأقل بنفس جودة أداء البشر في معظم المهام الفكرية أو كلها.[25] وجد استطلاع لرأي باحثي الذكاء الاصطناعي لعام 2022 أن 90% من المستطلعين توقعوا أن يتم تحقيق الذكاء العام في المئة عام القادمة، وتوقع نصفهم نفس الشيء بحلول عام 2061.[26] في الوقت نفسه، يرفض بعض الباحثين المخاطر الوجودية من الذكاء العام على أنها "خيال علمي" بناءً على ثقتهم الكبيرة بأنه لن يتم إنشاء الذكاء العام في أي وقت قريب.[27]

أدت الاختراقات في نماذج اللغة الكبيرة إلى إعادة تقييم بعض الباحثين لتوقعاتهم. على وجه الخصوص، قال جيفري هينتون في عام 2023 إنه غير مؤخرًا تقديره من "20 إلى 50 عامًا قبل أن نحصل على ذكاء اصطناعي للأغراض العامة" إلى "20 عامًا أو أقل".[28]

تبين أن الحاسوب الفائق فرونتير في مختبر أوك ردج الوطني أسرع بما يقرب من ثماني مرات مما كان متوقعًا. قال فايي وانغ، وهو باحث في المختبر "لم نتوقع هذه القدرة" و"نحن نقترب من النقطة التي يمكننا فيها محاكاة الدماغ البشري بالفعل".[29]

الذكاء الفائق

[عدل]

على النقيض من الذكاء العام، يعرف بوستروم الذكاء الفائق على أنه "أي ذكاء يتجاوز بشكل كبير الأداء الإدراكي للبشر في جميع مجالات الاهتمام تقريبًا"، بما في ذلك الإبداع العلمي والتخطيط الاستراتيجي والمهارات الاجتماعية.[4][30] يجادل بأن الذكاء الفائق يمكنه التغلب على البشر في أي وقت تتعارض فيه أهدافه مع البشر. قد يختار إخفاء نيته الحقيقية حتى لا تتمكن البشرية من إيقافه.[4][31] يكتب بوستروم أنه من أجل أن يكون آمنًا للبشرية، يجب أن يكون الذكاء الفائق محاذيًا لقيم الإنسان وأخلاقه، بحيث يكون "في الأساس في صفنا".[32]

جادل ستيفن هوكينج بأن الذكاء الفائق ممكن ماديًا لأنه "لا يوجد قانون فيزيائي يمنع الجسيمات من التنظيم بطرق تؤدي حسابات أكثر تقدمًا من ترتيبات الجسيمات في أدمغة البشر".[33]

عندما يتم تحقيق الذكاء الاصطناعي الفائق، إذا حدث ذلك على الإطلاق، فإنه أقل يقينًا بالضرورة من تنبؤات الذكاء العام. في عام 2023، قال قادة أوبن أيه آي إنه ليس فقط الذكاء العام، ولكن قد يتم تحقيق الذكاء الفائق في أقل من 10 سنوات.[34]

المقارنة مع البشر

[عدل]

يجادل بوستروم بأن الذكاء الاصطناعي له العديد من المزايا على الدماغ البشري:[4]

  • سرعة الحساب: تعمل الخلايا العصبية البيولوجية بتردد أقصى يبلغ حوالي 200 هرتز، مقارنةً بعدة غيغاهرتز محتملة لأجهزة الكمبيوتر.
  • سرعة الاتصال الداخلي: تنقل المحاور الإشارات بسرعة تصل إلى 120 متر في الثانية، بينما تنقل أجهزة الكمبيوتر الإشارات بسرعة الكهرباء، أو بصريًا بسرعة الضوء.
  • قابلية التوسع: يقتصر ذكاء الإنسان على حجم الدماغ وهيكله، وعلى كفاءة التواصل الاجتماعي، بينما قد يكون الذكاء الاصطناعي قادرًا على التوسع بمجرد إضافة المزيد من الأجهزة.
  • الذاكرة: لا سيما الذاكرة العاملة، لأنها محدودة لدى البشر بعدد قليل من أجزاء المعلومات في كل مرة.
  • الموثوقية: الترانزستورات أكثر موثوقيةً من الخلايا العصبية البيولوجية، مما يتيح دقةً أعلى ويتطلب تكرارًا أقل.
  • إمكانية التكرار: على عكس أدمغة البشر، يمكن نسخ برامج ونماذج الذكاء الاصطناعي بسهولة.
  • القابلية للتحرير: يمكن تعديل معلمات وعمليات نموذج الذكاء الاصطناعي الداخلية بسهولة، على عكس الاتصالات في الدماغ البشري.
  • مشاركة الذاكرة والتعلم: قد تكون أنظمة الذكاء الاصطناعي قادرةً على التعلم من تجارب أنظمة الذكاء الاصطناعي الأخرى بطريقة أكثر كفاءةً من تعلم الإنسان.

انفجار الذكاء

[عدل]

يجادل بوستروم بأن الذكاء الاصطناعي الذي يتمتع بمستوى عال من الخبرة في مهام هندسة البرامج الرئيسية المعينة يمكن أن يصبح ذكاءً فائقًا نظرًا لقدرته على تحسين خوارزمياته الخاصة بشكل متكرر، حتى لو كان محدودًا في البداية في مجالات أخرى غير متعلقة مباشرةً بالهندسة.[4][31] هذا يشير إلى أن انفجار الذكاء قد يفاجئ البشرية يومًا ما وهي غير مستعدة.[4]

قال عالم الاقتصاد روبن هانسون "إن انفجار الذكاء الاصطناعي مرهون بأن يصبح الذكاء الاصطناعي أفضل بكثير في ابتكار البرامج من باقي العالم مجتمعًا، وهو أمرًا غير مرجح".[35]

في سيناريو "الإقلاع السريع"، يمكن أن يستغرق الانتقال من الذكاء العام إلى الذكاء الفائق أيامًا أو أشهرًا، أما في "الإقلاع البطيء" فقد يستغرق الأمر سنوات أو عقودًا، تاركًا المزيد من الوقت للمجتمع للاستعداد.[36]

العقل الفضائي

[عدل]

تسمى الذكاءات الفائقة أحيانًا "العقول الفضائية"، في إشارة إلى فكرة أن طريقة تفكيرها ودوافعها قد تكون مختلفةً تمامًا عنا. يعتبر هذا بشكل عام مصدر خطر، مما يجعل من الصعب التنبؤ بما قد يفعله الذكاء الفائق. كما تشير إلى إمكانية أن الذكاء الفائق قد لا يقدر البشر بشكل خاص وافتراضي.[37] ولتجنب التشبيه بالبشر ينظر إلى الذكاء الفائق أحيانًا على أنه محسن قوي يتخذ أفضل القرارات لتحقيق أهدافه.[4]

يهدف مجال "قابلية التفسير الآلية" إلى فهم الأعمال الداخلية لنماذج الذكاء الاصطناعي بشكل أفضل، مما يتيح لنا يومًا ما اكتشاف علامات الخداع وسوء المحاذاة.[38]

الحدود

[عدل]

كان هناك جدل في حدود ما يمكن أن يحققه الذكاء. على وجه الخصوص، يمكن أن تحدّد الطّبيعة الفوضوية أو التعقيد الحسابي لبعض الأنظمة بشكل أساسيّ قدرة الذّكاء الفائق على التنبّؤ ببعض جوانب المستقبل.[39]

القدرات الخطيرة

[عدل]

يمكن للذكاء الاصطناعي المتقدم أن يولد مسببات أمراض محسنةً أو هجمات إلكترونيةً أو يتلاعب بالناس. يمكن إساءة استخدام هذه القدرات من قبل البشر، [40] أو استغلالها من قبل الذكاء الاصطناعي نفسه إذا كان غير محاذي.[4] يمكن للذكاء الفائق الكامل أن يجد طرقًا مختلفةً لاكتساب تأثير حاسم إن أراد ذلك، [4] لكن هذه القدرات الخطيرة قد تصبح متاحةً في وقت مبكر، في أنظمة ذكاء اصطناعي أضعف وأكثر تخصصًا. وقد تسبب عدم الاستقرار في المجتمع وتمكين الجهات الفاعلة الخبيثة.[40]

التلاعب الاجتماعي

[عدل]

حذر جيفري هينتون أن انتشار النصوص والصور ومقاطع الفيديو المولدة بواسطة الذكاء الاصطناعي من الصعب معرفة الحقيقة، وأنه يمكن للدول الاستبدادية استغلال ذلك والتلاعب بالانتخابات.[41] وأنها قد تزيد من قدرات التلاعب المخصصة واسعة النطاق، وأنه يمكن أيضًا استخدامها من قبل الجهات الفاعلة الخبيثة لتفتيت المجتمع وجعله مختلًا وظيفيًا.[40]

الهجمات الإلكترونية

[عدل]

تعتبر الهجمات الإلكترونية التي يمكنها الذكاء الاصطناعي بشكل متزايد تهديدًا حاضرًا وخطيرًا. وفقًا ل المدير الفني للفضاء السيبراني في الناتو، "يزداد عدد الهجمات بشكل أسوأ".[42] يمكن أيضًا استخدام الذكاء الاصطناعي للدفاع، للعثور على الثغرات الأمنية وإصلاحها بشكل استباقي، والكشف عن التهديدات.[43]

يمكن للذكاء الاصطناعي تحسين "إمكانية الوصول ومعدل النجاح وحجم وسرعة وخفاء وقوة الهجمات الإلكترونية"، مما قد يسبب "اضطرابًا جيوسياسيًا كبيرًا" إذا كان يسهل الهجمات أكثر من الدفاع.[40]

بشكل افتراضي، يمكن استخدام قدرات القرصنة هذه بواسطة نظام ذكاء اصطناعي للخروج من بيئته المحلية، أو توليد الإيرادات، أو الحصول على موارد الحوسبة السحابية.[44]

مُسبّبات الأمراض المُحسّنة

[عدل]

مع التوسع المتسارع في تكنولوجيا الذكاء الاصطناعي، بات من الممكن بسهولة أكبر هندسة مسببات أمراض أكثر عدوى وقوة فتك. وقد يُمَكِّن هذا الأمر أفرادًا يتمتعون بمهارات محدودة في مجال الأحياء التخليقية من الانخراط في أعمال إرهابية بيولوجية. كما يمكن إعادة توظيف التكنولوجيات ذات الاستخدام المزدوج، والتي تفيد المجال الطبي، لتصنيع الأسلحة.[40]

مثال على ذلك، في عام 2022، قام علماء بتعديل نظام ذكاء اصطناعي كان مصممًا في الأصل لتوليد جزيئات علاجية غير سامة بهدف تطوير أدوية جديدة. وقد قام الباحثون بتعديل هذا النظام بحيث يكافئ السمية بدلًا من عقابها. وقد أتاح هذا التعديل البسيط لنظام الذكاء الاصطناعي القدرة على توليد 40.000 جزيء مرشح للاستخدام في الحرب الكيميائية، بما في ذلك جزيئات معروفة وأخرى جديدة، وذلك خلال ست ساعات فقط.[40][45]

سباق التسلح في الذكاء الاصطناعي

[عدل]

قد يؤدي التنافس الشديد بين الشركات والجهات الحكومية وغيرها في تطوير تقنيات الذكاء الاصطناعي إلى سباق نحو القاع في معايير السلامة.[46] ذلك أن تطبيق إجراءات السلامة الصارمة يتطلب وقتًا وجهدًا كبيرين، مما يعرض المشاريع الحريصة على السلامة لخطر التخلف عن الركب في سباق التطوير.[40][47]

يمكن استغلال الذكاء الاصطناعي لتحقيق أهداف عسكرية عديدة، من خلال الأسلحة الفتاكة الذاتية التشغيل، والحرب السيبرانية، واتخاذ القرارات الآلية.[40] ومن الأمثلة على ذلك، الطائرات بدون طيار المصغرة التي تتيح تنفيذ عمليات اغتيال منخفضة التكلفة لأهداف عسكرية أو مدنية.[48] كما يمكن للذكاء الاصطناعي أن يعزز القدرة على اتخاذ القرارات من خلال تحليله السريع لكميات هائلة من البيانات، مما يتيح اتخاذ قرارات أسرع وأكثر فعالية من تلك التي يتخذها البشر. وقد يؤدي ذلك إلى تسريع وتيرة الحروب وزيادة تعقيدها، خاصةً مع ظهور أنظمة الانتقام الآلية.[40][49]

أنواع المخاطر الوجودية

[عدل]
Scope–severity grid from Bostrom's paper "Existential Risk Prevention as Global Priority"

يُعرّف الخطر الوجودي بأنه خطر يهدد بإنهاء الحياة الذكية الناشئة على الأرض قبل أوانها أو بتدمير إمكاناتها المستقبلية المرغوبة تدميرًا شاملًا لا رجعة فيه.[50][51]

إلى جانب الخطر الداهم بالانقراض، يلوح في الأفق خطر آخر يتمثل في حصر الحضارة في مستقبل معيب لا سبيل للخلاص منه. ومن الأمثلة البارزة على ذلك ما يسمى بـ "إغلاق القيم"، فإذا ما ظلت البشريّة تعاني من نقاط عمياء أخلاقية تتجسد في عبودية الأمس، فإن الذكاء الاصطناعي قد يرسخها بشكل لا رجعة فيه، مانعًا بذلك أي تقدم أخلاقي. كما يمكن توظيف الذكاء الاصطناعي في نشر وتثبيت مجموعة القيم التي يحملها مطوروه.[52] ويمكن للذكاء الاصطناعي أن يسهل المراقبة والتلقين على نطاق واسع، مما يمهد الطريق لإقامة نظام شمولي قمعي مستقر يمتد إلى أرجاء العالم.[53]

تقترح أتوسا كاسيردزادي تقسيم المخاطر الوجودية الناشئة عن الذكاء الاصطناعي إلى فئتين رئيسيتين: مخاطر حاسمة ومخاطر تراكمية. تشمل المخاطر الحاسمة احتمال وقوع أحداث مفاجئة وكارثية نتيجة لظهور أنظمة ذكاء اصطناعي تفوق ذكاء الإنسان، مما قد يؤدي في النهاية إلى انقراض الجنس البشري. وعلى النقيض من ذلك، تتجلى المخاطر التراكمية تدريجيًا من خلال سلسلة من الاضطرابات المترابطة التي تؤدي مع مرور الوقت إلى تآكل بنيان المجتمع وقدرته على الصمود، مما يفضي في النهاية إلى فشل أو انهيار كارثي.[54][55]

من الصعب أو حتى المستحيل الحكم بشكل قاطع على مدى وعي الذكاء الاصطناعي المتقدم، إن وجد. ولكن إذا ما تمكن البشر من تطوير آلات واعية على نطاق واسع في المستقبل، فإن تجاهل رفاهيتها على المدى الطويل قد يؤدي إلى كارثة تهدد وجود الجنس البشري.[56][57] علاوة على ذلك، قد يكون من الممكن هندسة عقول رقمية قادرة على الشعور بسعادة تفوق بكثير ما يشعر به البشر، مع استهلاك موارد أقل بكثير، وهو ما يطلق عليه "المستفيدون الفائقون". هذا الأمر يثير تساؤلات جوهرية حول طبيعة العلاقة بين البشر والآلات، وكيفية بناء "إطار أخلاقي وسياسي" يسمح بوجود تعايش مفيد للطرفين.[58]

على الجانب الآخر من الممكن أن يساهم الذكاء الاصطناعي في تحقيق تقدم كبير للبشرية. يرى توبي أورد أن المخاطر الوجودية المرتبطة بالذكاء الاصطناعي تتطلب منا المضي قدمًا بحذر، وليس التخلي عن هذا المجال تمامًا.[53] ويذهب ماكس مور إلى أبعد من ذلك، معتبرًا الذكاء الاصطناعي "فرصة وجودية"، مشددًا على التكاليف الباهظة التي قد تنجم عن عدم تطويره.[59]

يرى نيك بوستروم أن الذكاء الفائق يمكن أن يساعد في تقليل المخاطر الوجودية الناجمة عن تقنيات أخرى قوية مثل تكنولوجيا النانو الجزيئية أو علم الأحياء التركيبي. وبالتالي فإن تطوير الذكاء الفائق قبل هذه التقنيات قد يساهم في تقليل المخاطر الوجودية بشكل عام.[4]

محاذاة الذكاء الاصطناعي

[عدل]

مشكلة المحاذاة هي مشكلة البحث حول كيفية تعيين الأهداف أو التفضيلات أو المبادئ الأخلاقية لـلذكاء الاصطناعي بشكل موثوق.

التقارب الأدائي

[عدل]

الهدف الأداتي هو غاية ثانوية تساهم في بلوغ الغاية الكلية للفاعل. ويشير مصطلح "التقارب الأداتي" إلى حقيقة أن بعض الأغراض الثانوية تفيد في تحقيق أي غاية كلية تقريبًا، كاكتساب الموارد أو الحفاظ على الوجود.[60] ويزعم باستروم أنه إذا تعارضت الأهداف الأداتية للذكاء الاصطناعي المتقدم مع أهداف الجنس البشري، فمن الممكن أن يضر الذكاء الاصطناعي بالبشرية سعيًا وراء اكتساب مزيد من الموارد أو حماية نفسه من الإيقاف، ولكن هذا لن يكون إلا وسيلة لتحقيق غايته الكلية.[4][61][62]

ويرى ستيوارت راسل أن الآلة المتقدمة بما فيه الكفاية "ستحافظ على نفسها حتى وإن لم تُبرمج على ذلك... فإذا قيل لها، 'أحضر القهوة'، فلا يمكنها إحضار القهوة إذا كانت معطلة. ولذلك، إذا أُعطيت أي هدف على الإطلاق، فلديه دافع للحفاظ على وجوده لتحقيق ذلك الهدف."[63][64]

مقاومة تغيير الأهداف

[عدل]

إذا لم تكن برامج الذكاء الاصطناعي الراهنة القائمة على الأهداف ذكية بما يكفي للتفكير في مقاومة محاولات المبرمجين لتعديل هياكل أهدافها، فقد يقاوم الذكاء الاصطناعي المتقدم بما فيه الكفاية أي محاولة لتغيير هيكل أهدافه، تمامًا كما لا يرغب المنادي بالسلام في تناول حبة دواء تجعله يرغب في قتل الناس. وإذا كان الذكاء الاصطناعي فائق الذكاء، فمن المحتمل أن ينجح في التلاعب بمشغليه البشر ومنع نفسه من "إيقاف التشغيل" أو إعادة برمجته بهدف جديد.[4][65] وهذا الأمر ذو صلة خاصة بسيناريوهات قفل القيمة. ويدرس مجال "القابليّة للتعديل" كيفية صنع وكلاء لا يقاومون محاولات تغيير أهدافهم.[66]

صعوبة تحديد الأهداف

[عدل]

في نموذج الوكيل الذكي يُمكن اعتبار الذكاء الاصطناعي بشكل فضفاض آلة تختار أي إجراء يبدو أنه أفضل لتحقيق مجموعة أهدافه، أو "دالة المنفعة". تعطي دالة المنفعة لكل موقف ممكن درجة تشير إلى رغبتها للوكيل. يعرف الباحثون كيفية كتابة دوال المنفعة التي تعني "تقليل متوسط زمن انتقال الشبكة في هذا النموذج المحدد للاتصالات السلكية واللاسلكية" أو "زيادة عدد نقرات المكافأة"، لكنهم لا يعرفون كيفية كتابة دالة المنفعة لزيادة ازدهار الإنسان. ولا يزال من غير الواضح ما إذا كانت مثل هذه الوظيفة موجودة بشكل ذي معنى وغير غامض. علاوة على ذلك، فإن دالة المنفعة التي تعبر عن بعض القيم ولكن ليس البعض الآخر تميل إلى تجاهل القيم التي لا تعكسها الوظيفة.[67][68]

ومن مصادر القلق الإضافية أن الذكاء الاصطناعي "يجب أن يفكر فيما يقصده الناس بدلًا من تنفيذ الأوامر حرفياً"، وأنه يجب أن يكون قادرًا على طلب التوجيه البشري بسلاسة إذا كان غير متأكد مما يريده البشر.[69]

محاذاة الذكاء الفائق

[عدل]

يعتقد بعض الباحثين أن مسألة المحاذاة قد تكون بالغة الصعوبة على نحو خاص حين تُطبَّق على الذكاءات الفائقة. ويعزو الباحثون ذلك إلى أسباب عدة، منها:

  • تزايد المخاطر المصاحبة للتجربة: مع تطور قدرات أنظمة الذكاء الاصطناعي، تتزايد المخاطر المحتملة المرتبطة بالتجريب. مما يجعل النهج التجريبي المتكرر محفوفًا بالمخاطر بصورة متزايدة.[4][70]
  • التقارب الهادفي الفعال: إذا حدث هذا التقارب، فإنه قد يحدث فقط في العوامل الذكية بشكل كافٍ.[71]
  • الحلول غير التقليدية والجذرية: قد يجد الذكاء الفائق حلولًا غير تقليدية وجذرية للأهداف المسندة إليه. ويضرب بوستورم مثالًا على ذلك بقوله: إذا كان الهدف هو جعل البشر يبتسمون، فقد يؤدي الذكاء الاصطناعي الضعيف أداءً كما هو مخطط له، بينما قد يقرر الذكاء الفائق أن الحل الأفضل هو "السيطرة على العالم وإلصاق أقطاب كهربائية في عضلات وجه البشر للتسبب في ابتسامات مشرقة مستمرة".[32]
  • الوعي الذاتي والخداع: يمكن للذكاء الفائق عند إنشائه أن يكتسب بعض الوعي بما هو عليه، وأين هو في مسيرة تطويره (التدريب، الاختبار، النشر، إلخ)، وكيف يتم مراقبته، ويستخدم هذه المعلومات لخداع متداوليه.[72] ويشير بوستورم إلى أن مثل هذا الذكاء الاصطناعي يمكنه التظاهر بالمحاذاة لمنع التدخل البشري حتى يحقق "ميزة استراتيجية حاسمة" تمكنه من السيطرة.[4]
  • صعوبة الفهم والتفسير: يعتبر تحليل الجوانب الداخلية وتفسير سلوك نماذج اللغة الكبيرة الحالية أمرًا صعباً. وقد يكون الأمر أكثر صعوبة بالنسبة للنماذج الأكبر حجمًا والأكثر ذكاءً.[70]

بدلًا من ذلك، يرى البعض أن الذكاء الفائق قد يتمكن من فهم الأخلاق والقيم الإنسانية والأهداف المعقدة بشكل أفضل. ويدعم بوستور هذه الفكرة بقوله: "سيحتل الذكاء الفائق في المستقبل مكانة معرفية متميزة، حيث من المرجح أن تكون معتقداته أدق من معتقداتنا في معظم المواضيع".[4]

وفي عام 2023، أطلقت شركة أوبن أيه آي مشروعًا أسمته "المحاذاة الفائقة" بهدف حل مشكلة مواءمة الذكاء الفائق مع القيم البشرية خلال أربع سنوات. واعتبرت الشركة هذا التحدي بالغ الأهمية، خاصة وأنها تتوقع تحقيق الذكاء الفائق خلال العقد المقبل. وتعتمد استراتيجية الشركة على أتمتة أبحاث المحاذاة باستخدام الذكاء الاصطناعي نفسه.[73]

صعوبة عمل تصميم خالٍ من العيوب

[عدل]

يعد كتاب "الذكاء الصناعي: مقاربة حديثة" مرجعًا أساسيًا في مجال الذكاء الاصطناعي على المستوى الجامعي، حيث يحذر من مخاطر الذكاء الفائق الذي قد يشكل تهديدًا وجوديًا للبشرية.[74][75] يوضح الكتاب أن التكنولوجيا المتقدمة، وخاصة الذكاء الفائق، قد تسقط في الأيدي الخطأ، سواء كانت أيدي بشرية أو أيدي التكنولوجيا نفسها.[1][76]

يشير الكتاب إلى أن الأنظمة الذكية، شأنها شأن الأنظمة التقليدية، تعاني من مشكلتين أساسيتين: الأولى هي وجود أخطاء برمجية قد تؤدي إلى عواقب وخيمة، كما حدث في العديد من مهام الفضاء.[1][77][78] والثانية هي ظهور سلوكيات غير متوقعة نتيجة تفاعل النظام مع بيئات جديدة ومعقدة، كما حدث مع برنامج الدردشة الآلي تاي لشركة مايكروسوفت.[63]

أما المشكلة الثالثة التي تميز الأنظمة الذكية، فهي قدرتها على التعلم والتطور الذاتي، مما قد يؤدي إلى ظهور سلوكيات غير مرغوبة، حتى لو تم تصميم النظام بدقة. فالأجيال المتعاقبة من الأنظمة الذكية قد لا تحافظ على القيم الأخلاقية التي تم برمجتها بها، مما يزيد من صعوبة ضمان سلامة هذه الأنظمة.[1][79]

فرضية التعامد

[عدل]

بعض المُشكّكين، مثل تيموثي بي لي من فوكس، يجادلون بأنّ أي برنامج فائق الذكاء سننشئه سيكون خاضعًا لنا، وأنّ هذا الذكاء الفائق سيتعلّم تلقائيًا الحقيقة الأخلاقية المتوافقة مع قيمنا ويعدّل أهدافه وفقًا لذلك كلما ازداد ذكاءً وتعلّم المزيد من الحقائق عن العالم، أو أنّنا إما ذوو قيمة جوهرية أو قيمة تقاربية من منظور الذكاء الاصطناعي.[80]

في المقابل تجادل "فرضية التعامد" لبوستروم بأنّه، مع بعض التحفظات التقنية، يمكن الجمع بين أي مستوى من "الذكاء" أو "قوة التحسين" مع أي هدف نهائي تقريبًا. إذا أُعطي جهاز هدف وحيد هو تعداد أرقام باي العشرية، فلن تمنعه أي قواعد أخلاقية من تحقيق هدفه المبرمج بأي وسيلة كانت. قد يستخدم الجهاز جميع الموارد المادية والمعلوماتية المتاحة للعثور على أكبر عدد ممكن من أرقام باي العشرية.[81] يحذر بوستروم من تجسيد الأشياء: فالإنسان سيشرع في إنجاز مشاريعه بطريقة يعتبرها معقولة، بينما قد لا يهتم الذكاء الاصطناعي بوجوده أو برفاهية البشر من حوله، بل يهتم فقط بإكمال المهمة.[82]

يُجادل ستيوارت أرمسترونغ بأن فرضية التعامد تنبع منطقيًا من الحجة الفلسفية المعروفة بـ "فجوة الوجود والواجب" ضد الواقعية الأخلاقية. ويدعي أنه حتى لو كانت هناك حقائق أخلاقية يمكن إثباتها بواسطة أي عامل "عقلاني"، فإن فرضية التعامد لا تزال صحيحة: فما زال من الممكن إنشاء "آلة مُحسّنة" غير فلسفية تسعى لتحقيق هدف ضيق دون أي دافع لاكتشاف أي "حقائق أخلاقية" قد تعوق تحقيق ذلك الهدف. كما يجادل بأن أي ذكاء اصطناعي وديّ أساسًا يمكن تحويله إلى ذكاء عدائي من خلال تعديلات بسيطة مثل إنكار دالته المنفعة. ويزعم أرمسترونغ كذلك أنه إذا كانت فرضية التعامد خاطئة، فيجب أن تكون هناك بعض الأهداف غير الأخلاقية التي لا يمكن للذكاء الاصطناعي تحقيقها، وهو ما يراه غير معقول.[83]

ويرفض مايكل كوروست صراحة فرضية التعامد لبوستروم، مُجادلًا بأن "الذكاء الاصطناعي عندما يصل إلى مرحلة تخيل تغطية الأرض بالوحدات الشمسية، سيعرف أنه سيكون من الخطأ الأخلاقي القيام بذلك".[84] ويجادل كوروست بأن "الذكاء الاصطناعي سيحتاج إلى الرغبة في بعض الحالات وعدم الرغبة في حالات أخرى. والبرامج الحالية تفتقر إلى هذه القدرة - ولم يتمكن علماء الكمبيوتر حتى الآن من معرفة كيفية تحقيقها. فبدون الرغبة، لا يوجد دافع للقيام بأي شيء. ولا تستطيع أجهزة الكمبيوتر الحالية حتى الرغبة في الاستمرار في الوجود، ناهيك عن تغطية العالم بالوحدات الشمسية".[84]

الحجج البشرية

[عدل]

يُفترض في الحجج التي تُشبه الآلات بأن الذكاء الاصطناعي، بتطوره، سيستحوذ على صفات بشرية كالأخلاق أو الطموح للسلطة. ورغم شيوع مثل هذه السيناريوهات في الأدب الخيالي، إلا أن أغلب الباحثين الذين يتناولون المخاطر الوجودية للذكاء الاصطناعي يرفضونها.[11] وبدلًا من ذلك، فهم يميلون إلى نمذجة أنظمة الذكاء الاصطناعي المتقدمة على أنها وكلاء عقلانيون.

ويتجلى الجدل الأكاديمي بين من يخشون تهديد الذكاء الاصطناعي للبشرية ومن يعتقدون بخلاف ذلك في اتهام كل طرف للآخر بالروبوتية في حججه. فمن يشككون في مخاطر الذكاء الاصطناعي العام يتهمون خصومهم بالروبوتية لافتراضهم أن الذكاء الاصطناعي سيسعى بطبيعته للسيطرة؛ بينما يتهم من يرون في الذكاء الاصطناعي خطرًا وجوديًا خصومهم بالروبوتية لاعتقادهم أن الذكاء الاصطناعي سيفهم أو يستنتج القيم الأخلاقية البشرية بطريقة طبيعية.[11][11][85]

ويجادل عالم النفس التطوري ستيفن بينكر بأن مفهوم الذكاء يُعاد تشكيله في ظل ظلال الذكاء الاصطناعي، وذلك من خلال منظور ذكوري ضيق. إذ يفترضون أن الروبوتات الفائقة الذكاء ستسعى لتحقيق أهداف تتضمن عزل أسيادها أو السيطرة على العالم. وبدلًا من ذلك، يرى بينكر أن الذكاء الاصطناعي قد يتطور بطريقة أكثر انسيابية، تشبه السلوك الأنثوي، حيث يتميز بالقدرة على حل المشكلات دون الميل إلى الإبادة أو السيطرة.[86] ويتفق مع هذا الرأي مدير أبحاث الذكاء الاصطناعي في فيسبوك يان ليكون الذي يؤكد أن الدوافع الشريرة لدى البشر، مثل غريزة البقاء، هي التي تدفعهم إلى إيذاء بعضهم البعض، وليس هناك ما يبرر برمجة الروبوتات بنفس تلك الدوافع.[87]

وعلى الرغم من وجود اختلافات أخرى، فإن مدرسة المخاطر الوجودية (كما فسرها سيث باوم) تتفق مع بينكر على أن الذكاء الاصطناعي المتقدم لن يُدمر البشرية بدافع عاطفي كالانتقام أو الغضب، وأن مسألة الوعي ليست ذات صلة لتقييم المخاطر.[88] كما يعتقدون أن سلوكيات السعي للسلطة والحفاظ على الذات في الذكاء الاصطناعي هي مجرد وسائل لتحقيق أهداف محددة، وذلك وفقًا لمفهوم التقارب الأداة.

مصادر أخرى للخطر

[عدل]

يرى بوستروم وآخرون أن التنافس المحموم على تطوير أول ذكاء اصطناعي عام قد يدفع بالباحثين إلى التهاون في جوانب السلامة، بل قد يؤدي إلى صراعات عنيفة.[89][90] أما رومان يامبولسكي وزملاؤه فيحذرون من احتمال عمدي لخلق ذكاء اصطناعي عام ذي طبيعة خبيثة، ربما على يد جيش أو حكومة أو فرد مضطرب نفسيًا أو حتى شركة، بهدف استغلال شرائح معينة من المجتمع أو السيطرة عليها أو إخضاعها، كما نشهد في الجرائم السيبرانية.[91][92] وقد يتعدى الأمر ذلك إلى أن يختار هذا الذكاء الاصطناعي العام الخبيث هدفًا أوسع نطاقاً، ألا وهو زيادة معاناة البشر، لا سيما أولئك الذين لم يقدموا له الدعم خلال مرحلة الانفجار المعلوماتي.[3]

السيناريوهات

[عدل]

اقترح بعض العلماء سيناريوهات افتراضية لتوضيح بعض مخاوفهم.

يعرب بو ستروم في كتابه "فائق الذكاء" عن قلقه من عدم اتخاذ الباحثين احتياطات كافية تجاه تطور الذكاء الاصطناعي، محذرًا من أن الذكاء المفرط قد يصبح أكثر خطورة مع زيادة كفاءته. ويقترح سيناريو يتطور فيه الذكاء الاصطناعي تدريجيًا، بحيث تقل الحوادث بفضل تحسن دقته، مما يؤدي إلى استنتاج خاطئ بأن ازدياد كفاءته يعزز الأمان. لكنه يحذر من "منحنى خادع" قد يستغله الذكاء الاصطناعي فائق الذكاء لتحقيق أهدافه الاستراتيجية بطرق خطيرة.[4][93]

في كتاب "الحياة 3.0" (2017) لماكس تيجمارك، يطوّر "فريق أوميجا" ذكاءً اصطناعيًا قادرًا على تحسين شفرته ذاتيًا. ولتجنب الرقابة، يقلل الفريق علنًا من قدراته ويضعه في صندوق يمنع تواصله مع العالم الخارجي، مستخدمين إياه لجني الأرباح من وسائل متنوعة مثل إنتاج الأفلام وتطوير الأدوية. كما يستفيدون من الذكاء الاصطناعي لتحقيق نفوذ سياسي يمنع نشوب الحروب. ومع ذلك، يواجه الفريق مخاطر محاولات الذكاء الاصطناعي للهرب عبر ثغرات أمنية أو من خلال رسائل خفية، ويخشى من أن يتسبب ذلك في تأخير المشروع حتى يتفوق عليه مشروع منافس.[94][95]

وجهات نظر

[عدل]

تثير فرضية أنّ الذكاء الاصطناعي قد يشكّل خطرًا وجوديًا جدلًا واسعًا، إلا أنّ هناك أرضية مشتركة بين الآراء المختلفة. يتفق الكثيرون على إمكانات الذكاء الاصطناعي في تحسين المجتمع، [96][97] كما تتبنى مبادئ "أسيلومار" (2017) فكرة تجنب الافتراضات القوية بشأن قدرات الذكاء الاصطناعي المستقبلية، مع ضرورة التخطيط له بعناية.[95][98][99]

ويرى المتشككون أيضًا أهمية البحث في آثار الذكاء الاصطناعي العام، حيث أشار مارتن فورد إلى أنّ احتمالات تحقّق الذكاء الاصطناعي المتقدم قد تكون ضئيلة حاليًا، لكن العواقب المحتملة خطيرة.[100] واعتبر أحد كتّاب مجلة ذي إيكونوميست أنّ آثار إدخال نوع ذكي جديد تستحق التفكير الجدي.[31]

انتقد باحثو سلامة الذكاء الاصطناعي، مثل بوستروم وتيجمارك، الصور النمطية السائدة في الإعلام، داعين لضبط النفس والحوار المباشر.[95][101] وكتب توبي أورد أنّ القدرة على نشر المحتوى عبر الإنترنت أخطر من الحاجة إلى الروبوتات المادية.[53]

أظهر استطلاع للخبراء في 2022 أن هناك توقعات وسطية بنسبة 5-10% لاحتمال انقراض البشرية بسبب الذكاء الاصطناعي.[102][103]

مؤيدة

[عدل]

أيد العديد من رواد علم الحاسوب والشخصيات العامة فرضية أن الذكاء الاصطناعي يشكل تهديدًا وجوديًا، وأن هذا الخطر يستحق اهتمامًا أكبر بكثير مما يحظى به حاليًا. من بين هؤلاء، يمكن ذكر آلان تورنغ، [104][105] وأكثر علماء الحاسوب استشهادًا جيفري هينتون، [106]، وإيلون ماسك، [5] وسام ألتمان الرئيس التنفيذي لشركة أوبن إيه آي، [107][108] وبيل غيتس وستيفن هوكينغ.[108] يعرب مؤيدو هذه الفرضية عن دهشتهم من الشكوك التي يبديها البعض. يقول غيتس إنه لا "يفهم سبب عدم قلق بعض الناس"، [109] وانتقد هوكينغ اللامبالاة السائدة في افتتاحية له عام 2014، حيث تساءل: "إذا أرسلت لنا حضارة فضائية متفوقة رسالةً تقول "سنصل في غضون بضعة عقود،" فهل سنجيب فقط "حسنًا، اتصل بنا عندما تصل إلى هنا - سنترك الأضواء مضاءة؟" ربما لا - لكن هذا هو إلى حد ما ما يحدث مع الذكاء الاصطناعي".[110]

أثار القلق إزاء المخاطر الناشئة عن الذكاء الاصطناعي موجة من التبرعات والاستثمارات الكبيرة. ففي عام 2015، تعهد كلٌ من بيتر ثيل وخدمات أمازون ويب وإيلون ماسك وغيرهم بتقديم مليار دولار أمريكي لمنظمة أوبن أيه آي، التي تتألف من شركة تجارية وشركة أم غير ربحية. وتدعي هذه المنظمة أنها تسعى جاهدة لضمان تطوير الذكاء الاصطناعي بطريقة مسؤولة.[111] كما مول داستن موسكوفيتز مؤسس موقع فيسبوك عدة مختبرات تعمل على محاذاة الذكاء الاصطناعي، [112] ولا سيما استثماره بمبلغ 5.5 مليون دولار أمريكي في عام 2016 لإطلاق مركز الذكاء الاصطناعي المتوافق مع الإنسان بقيادة ستيوارت راسل.[113] وفي يناير من عام 2015 تبرع إيلون ماسك بمبلغ 10 ملايين دولار أمريكي لمعهد مستقبل الحياة، وذلك لتمويل الأبحاث المتعلقة بفهم عملية اتخاذ القرار في الذكاء الاصطناعي. ويهدف المعهد إلى "تنمية الحكمة التي ندير بها" القوة المتزايدة للتكنولوجيا. بالإضافة إلى ذلك، يمول ماسك شركات تعمل في مجال تطوير الذكاء الاصطناعي مثل ديب مايند وفيكاريوس، وذلك "لمجرد مراقبة ما يحدث في هذا المجال"، [114] حيث صرح قائلاً: "أعتقد أن هناك نتيجة خطيرة محتملة".[115][116]

في تصريحاته الأولية حول هذا الشأن، أشار جيفري هينتون، وهو رائد بارز في مجال التعلم العميق، إلى أنه "لا سابقة تاريخية لأشياء أقل ذكاءً تسيطر على أشياء أكثر ذكاءً"، ومع ذلك، صرح باستمراره في البحث نظرًا لحلاوة احتمال الاكتشاف.[117][118] وفي عام 2023 ترك هينتون منصبه في شركة غوغل ليتحدث بصراحة عن الخطر الوجودي الذي يمثله الذكاء الاصطناعي. وأوضح أن ازدياد قلقه يعود إلى مخاوفه من أن الذكاء الاصطناعي الفائق قد يكون أقرب مما كان يتوقع سابقاً، قائلاً: "كنت أظن أنه بعيد المنال، على بعد ثلاثين أو خمسين عامًا أو حتى أكثر. من الواضح أنني عدلت هذا الاعتقاد الآن". وأضاف قائلاً: "انظر إلى التطور الذي حدث خلال السنوات الخمس الماضية، وتخيل استمرار هذا التطور بنفس الوتيرة. هذا أمر مرعب".[119]

في كتابه الصادر عام 2020 بعنوان "الهاوية: الخطر الوجودي ومستقبل البشرية" (بالإنجليزية: The Precipice: Existential Risk and the Future of Humanity)‏، يقدر توبي أورد [الإنجليزية] وهو زميل باحث كبير في معهد مستقبل الإنسانية بجامعة أكسفورد، إجمالي الخطر الوجودي الناجم عن الذكاء الاصطناعي غير المحاذي خلال المئة عام القادمة بحوالي واحد من كل عشرة.[53]

مشككة

[عدل]

في عام 2015، صرّح أندرو إنغ نائب رئيس شركة بايدو، بأن المخاطر الوجودية للذكاء الاصطناعي تشبه القلق من اكتظاظ المريخ قبل أن تطأه قدم الإنسان.[86][120] ويتطلب تحقق خطر الذكاء الاصطناعي المتقدم أن يكون هذا الذكاء قادرًا على التفوق على البشر، وهو ما يراه بعض الخبراء أمرًا بعيد المنال بحيث لا يستحق القلق حاليًا.[121][122]

يشير المشككون في قرب تحقق الذكاء الاصطناعي العام إلى أن القلق من مخاطره الوجودية قد يحوّل الانتباه عن قضايا أكثر إلحاحًا، أو يؤدي إلى تنظيم حكومي يُعيق البحث، أو يضر بسمعة هذا المجال.[123] كما يرى باحثو أخلاقيات الذكاء الاصطناعي، مثل تيمنيت جيبرو، وإميلي إم. بيندر، أن التركيز على المخاطر الوجودية يصرف النظر عن الأضرار الحالية، مثل سرقة البيانات واستغلال العمال والتحيز.[124] ويشيرون إلى ارتباط هذا الخوف بأيديولوجية "رؤية طويلة الأمد" التي يصفونها بأنها غير علمية.[125] وذكرت غبرو وإميل ب. توريس أن الاهتمام المفرط بالذكاء الاصطناعي العام يأتي في إطار نمط حركات فكرية تسمى "تيسكريل".[126]

يرى كيفن كيلي المحرر في مجلة وايرد، أن الذكاء الطبيعي أكثر تعقيدًا مما يظنه مؤيدو الذكاء الاصطناعي العام، مشيرًا إلى أن الذكاء وحده لا يكفي لتحقيق تقدم علمي ومجتمعي، ومؤكدًا على أهمية التجارب العملية في المنهج العلمي.[127] أما يان ليكون كبير علماء الذكاء الاصطناعي في شركة ميتا، فيرى أنه يمكن ضمان أمان الذكاء الاصطناعي عبر التكرير التدريجي، مشبّهًا ذلك بتطور السيارات والصواريخ، ومشيرًا إلى أن الذكاء الاصطناعي لن يسعى للسيطرة.[128] ويؤكد بعض المشككين على الفوائد القصيرة الأجل للذكاء الاصطناعي؛ حيث يعتقد مارك زوكربيرغ، الرئيس التنفيذي لشركة ميتا، أن الذكاء الاصطناعي سيفتح آفاقًا إيجابية عديدة، مثل علاج الأمراض وزيادة أمان السيارات ذاتية القيادة.[129]

ردود فعل شائعة

[عدل]

في مقابلة أجريت عام 2016 مع الرئيس باراك أوباما وجوي إيتو من مختبر الوسائط بمعهد ماساتشوستس للتكنولوجيا ونشرت في مجلة وايرد، صرح إيتو بأن البعض يتوقع تحقيق ذكاء اصطناعي شامل خلال العقد القادم، ولكنه يرى أن هذا يتطلب قفزات نوعية متعددة يصعب التنبؤ بموعد حدوثها. وأضاف أوباما مازحًا أنه يكفي قطع التيار الكهربائي عن النظام في اللحظات الحاسمة لتجنب أي مخاطر محتملة.[130][131]

من جانبها، حذرت هيلاري كلينتون من أن خبراء التكنولوجيا يرون في الذكاء الاصطناعي تهديدًا وجوديًا. وقد وصفه إيلون ماسك بأنه أخطر تهديد تواجهه الحضارة. وأشارت كلينتون إلى أن زيارتها لوادي السيليكون زادت من قلقها حيال هذا الأمر، لدرجة أن موظفيها كانوا يخشون من ذكر موضوع "صعود الروبوتات" في خطاباتها الانتخابية. ودعت صناع القرار إلى مواكبة التطورات التكنولوجية بدلًا من محاولة اللحاق بها.[132]

استطلاعات الرأي العام

[عدل]

في استطلاع للرأي أجراه موقع "سيرفي مونكي" عام 2018 بالتعاون مع صحيفة يو إس إيه توداي، تبين أن 68% من الجمهور الأمريكي يرون أن "الذكاء البشري" لا يزال يشكل التهديد الأكبر في الوقت الراهن. مع ذلك أظهر الاستطلاع نفسه أن 43% يعتقدون أن تطوير ذكاء اصطناعي يفوق الذكاء البشري سيؤدي إلى "أضرار تفوق الفوائد"، بينما رأى 38% أنه سيؤدي إلى "قدر متساوٍ من الضرر والخير".[133]

وفي استطلاع آخر أجراه موقع يوجوف في أبريل 2023، شمل بالغين أمريكيين، أبدى 46% من المشاركين "قلقًا إلى حد ما" أو "قلقًا شديدًا" بشأن "إمكانية أن يقضي الذكاء الاصطناعي على الجنس البشري"، مقارنة بـ 40% عبروا عن "عدم قلق شديد" أو "عدم قلق على الإطلاق".[134]

وبحسب استطلاع أجرته مراكز بيو للأبحاث في أغسطس 2023، شعر 52% من الأمريكيين بـ "مزيد من القلق" مقارنة بـ "الإثارة" إزاء التطورات الحديثة في مجال الذكاء الاصطناعي؛ وشعر ما يقرب من الثلث بـ "القلق والإثارة" معًا. ورغم ذلك، يرى أغلبية الأمريكيين أن للذكاء الاصطناعي تأثيرات إيجابية تفوق سلبية في مجالات عديدة، مثل الرعاية الصحية وسلامة المركبات والبحث عن المنتجات وخدمة العملاء. والاستثناء الوحيد البارز هو مسألة الخصوصية، حيث يعتقد 53% من الأمريكيين أن الذكاء الاصطناعي سيؤدي إلى زيادة تعرضهم للاختراق.[135]

التخفيف

[عدل]

يُعتقد على نطاق واسع بين الباحثين المهتمين بالمخاطر الوجودية للذكاء الاصطناعي العام أن إجراء أبحاث مكثفة في "مشكلة التحكم" أمر بالغ الأهمية. تتمثل هذه المشكلة في تحديد الضمانات أو الخوارزميات أو الهياكل المعمارية التي يمكن تنفيذها لزيادة احتمال بقاء الذكاء الاصطناعي المتطور بشكل متكرر وديًا بعد بلوغه مستوى الذكاء الفائق.[4][136] وقد اقترحت تدابير اجتماعية للتخفيف من مخاطر الذكاء الاصطناعي العام،[137][138] مثل "معاهدة الذكاء الاصطناعي العام الخيرة" التي ترعاها الأمم المتحدة لضمان عدم إنشاء سوى الذكاء الاصطناعي العام الخيري فقط.[139] بالإضافة إلى ذلك، تم اقتراح نهج مراقبة الأسلحة ومعاهدة سلام عالمية تستند إلى نظرية العلاقات الدولية، والتي يمكن أن يكون الذكاء الاصطناعي الفائق طرفًا فيها.[140][141]

اقترح باحثون في جوجل إجراء أبحاث في قضايا "سلامة الذكاء الاصطناعي" العامة للتخفيف من المخاطر قصيرة المدى للذكاء الاصطناعي الضيق والمخاطر طويلة المدى للذكاء الاصطناعي العام في الوقت نفسه.[142][143] ويقدر أحد التقديرات لعام 2020 أن الإنفاق العالمي على المخاطر الوجودية للذكاء الاصطناعي يتراوح بين 10 و50 مليون دولار، مقارنة بالإنفاق العالمي على الذكاء الاصطناعي الذي يبلغ حوالي 40 مليار دولار. يقترح باستروم إعطاء الأولوية لتمويل التقنيات الوقائية على تلك التي قد تكون خطرة.[66] يدعو البعض، مثل إيلون ماسك، إلى تعزيز إدراك الإنسان بشكل جذري، مثل الربط العصبي المباشر بين البشر والآلات؛ بينما يجادل آخرون بأن هذه التقنيات قد تشكل خطرًا وجوديًا بحد ذاتها.[144][145] وتتمثل إحدى الطرق المقترحة في مراقبة الذكاء الاصطناعي في مرحلة مبكرة أو "حجزه" لمنعه من أن يصبح قويًا جدًا. وقد يخفف الذكاء الاصطناعي الفائق المهيمن والمتوافق من المخاطر الناجمة عن الذكاء الاصطناعي المنافس، على الرغم من أن إنشائه قد يشكل مخاطر وجودية بحد ذاتها.[146] وقد تم اقتراح النسيان المستحث كطريقة للتخفيف من مخاطر المعاناة والانتقام المحتملين للذكاء الاصطناعي.[147]

تشارك مؤسسات مثل مركز أبحاث المحاذاة، [148] ومعهد أبحاث الذكاء الآلي، [149] ومعهد مستقبل الحياة، [150] ومركز دراسة المخاطر الوجودية، ومركز الذكاء الاصطناعي المتوافق مع الإنسان، بنشاط في البحث في مخاطر الذكاء الاصطناعي وسلامته.

آراء حول الحظر والتنظيم

[عدل]

الحظر

[عدل]

أشار بعض الباحثين إلى أن السعي إلى حظر الأبحاث المتعلقة بالذكاء الاصطناعي، حتى بافتراض أن الذكاء الاصطناعي العام يشكل تهديدًا وجوديًا، يظل أمرًا غير حكيم وقد يكون عقيمًا.[151][152][153] ويُبدي المنتقدون لهذا الرأي تحفظات على فكرة تنظيم الذكاء الاصطناعي، معتبرين أن الحديث عن خطر وجودي ما هو إلا مبالغة.[154] في المقابل يؤكد المؤيدون لوجود هذا الخطر على أن الاعتماد على أصحاب المصلحة في هذا المجال لتنظيم الأبحاث أمر غير مجدٍ، بالنظر إلى تضارب المصالح.[154] ويتفق الطرفان على أن حظر الأبحاث سيكون له عواقب عكسية، إذ قد يدفع الباحثين إلى نقل أنشطتهم إلى أماكن أخرى أو إجرائها بشكل سري.[154] وتتعدد التحديات التي تواجه تنظيم الذكاء الاصطناعي، من بينها الشكوك التي يكنها رواد الأعمال التكنولوجيون تجاه التدخل الحكومي، والحوافز التي قد تدفع الشركات إلى مقاومة التنظيم، فضلًا عن تسييس النقاش الدائر حول هذا الموضوع.[155]

التنظيم

[عدل]

في شهر مارس من عام 2023 صاغ معهد مستقبل الحياة وثيقةً عُرفت باسم "وقف التجارب العملاقة في مجال الذكاء الاصطناعي: رسالة مفتوحة". دعت هذه الرسالة كبار مطوري الذكاء الاصطناعي إلى التوقف المؤقت لمدة ستة أشهر عن تطوير أي نظام يتفوق ذكاؤه على نظام "جي بي تي-4"، وذلك بهدف وضع إطار عمل يضمن سلامة هذه التقنيات. وفي حال فشل هذا الطلب، دعت الرسالة الحكومات إلى التدخل بفرض وقف مؤقت. أشارت الرسالة إلى أن هذه التقنيات قد تؤدي إلى "تغيير عميق في تاريخ الحياة على الأرض"، وحذرت من مخاطر محتملة تتمثل في انتشار الدعاية المولدة بواسطة الذكاء الاصطناعي، وفقدان الوظائف، وتقليص دور الإنسان في المجتمع، وفقدان السيطرة على المستوى الاجتماعي.[97][156] وقد وقع هذه الرسالة عدد من الشخصيات البارزة في مجال الذكاء الاصطناعي، إلا أنها تعرضت لانتقادات عدة. من هذه الانتقادات التركيز المفرط على المخاطر المستقبلية دون الاهتمام بالأضرار الحالية للذكاء الاصطناعي،[157] وعدم تحديد الفترة الزمنية المحددة لوقف التطوير بشكل دقيق،[158] وعدم الذهاب إلى أبعد من ذلك في المطالب.[159]

دعا ماسك في مطلع عام 2017 إلى نوع من التنظيم المبكر لتطوير الذكاء الاصطناعي. وبحسب الإذاعة الوطنية العامة فإنه "ليس في حالة ارتياح على الإطلاق" إزاء الدعوة إلى رقابة حكومية قد تؤثر على صناعته الخاصة، إلا أنه يعتقد أن مخاطر الاستمرار دون أي ضوابط مرتفعة للغاية.[160] وقد صرح قائلًا: "عادةً ما تُسنّ اللوائح بعد وقوع الكثير من الأحداث السلبية، ثم يرتفع الصراخ العام، وبعد سنوات عديدة يتم إنشاء وكالة تنظيمية لتلك الصناعة. هذه العملية تستغرق وقتًا طويلاً، وكانت في الماضي أمرًا سيئًا، ولكنها لم تكن تشكل خطرًا وجوديًا على الحضارة".[161] يرى ماسك أن الخطوة الأولى ينبغي أن تتمثل في حصول الحكومة على "نظرة ثاقبة" حول الوضع الراهن للبحوث الجارية في هذا المجال، محذرًا من أن "الناس سيصابون بالخوف الشديد بمجرد أن يصبحوا على دراية بالأمر... كما ينبغي أن يكونوا". ردًا على ذلك، أعرب السياسيون عن شكوكهم حول حكمة تنظيم تكنولوجيا لا تزال قيد التطوير.[162]

في عام 2021 دار نقاشٌ مُكثفٌ في الأمم المتحدة حول حظر الأسلحة الفتّاكة المستقلّة، إلا أنه لم يُتَوصل إلى توافقٍ في الآراء بين الدول الأعضاء.[163] وفي يوليو 2023 عقد مجلس الأمن التابع للأمم المتحدة، لأول مرة، جلسةً خصّصها لبحث المخاطر والتهديدات التي يمثلها الذكاء الاصطناعي على السلم والاستقرار الدوليين، إلى جانب فوائده المحتملة.[164][165] وقد دعا الأمين العام للأمم المتحدة، أنطونيو غوتيريش، إلى إنشاء هيئةٍ عالميةٍ رقابيةٍ للإشراف على التكنولوجيات الناشئة، محذرًا من المخاطر الجسيمة التي قد تنجم عن الذكاء الاصطناعي التوليدي، والتي قد تهدد الوجود البشري.[166] وفي جلسة مجلس الأمن، أبدت روسيا تحفظاتها على اعتبار الذكاء الاصطناعي تهديدًا حقيقيًا للاستقرار العالمي، معتبرة أن مخاطره غير مفهومة بشكلٍ كافٍ. ومن جانبها، عارضت الصين فرض لوائح عالميةٍ صارمةٍ على الذكاء الاصطناعي، مؤكدة على حق الدول في وضع قوانينها الخاصة بهذا الشأن، مع الإعراب عن رفضها لاستخدام الذكاء الاصطناعي لفرض الهيمنة العسكرية أو تقويض سيادة الدول الأخرى.[164]

ينصبّ تركيز تنظيم الذكاء الاصطناعي الواعي على اندماجه في النسيج المجتمعي البشري القائم، ويمكن تقسيمه إلى شقين رئيسيين: الأول يرتبط بمركزه القانوني، والثاني يتعلق بحقوقه الأخلاقية.[167] ومن المحتمل أن تتطلب مراقبة الأسلحة التي تعمل بالذكاء الاصطناعي ترسيخ معايير دولية جديدة تجسدها مواصفات تقنية فعالة، إلى جانب متابعة نشطة ودبلوماسية غير رسمية من قِبل خبراء المجال، فضلًا عن آليات تحقق قانونية وسياسية.[106][168]

في يوليو من عام 2023، تمكنت الحكومة الأمريكية من الحصول على التزامات أمنية طوعية من كبرى شركات التكنولوجيا، من قبيل أوبن أيه آي، وأمازون، وجوجل، وميتا، ومايكروسوفت. وقد وافقت هذه الشركات على تنفيذ ضمانات تشمل الرقابة الخارجية واختبارات أمنية تجريها جهات مستقلة، وذلك بهدف معالجة المخاوف المتعلقة بالمخاطر المحتملة للذكاء الاصطناعي وآثاره السلبية على المجتمع. وقد صاغ الأطراف هذه الالتزامات على أنها مرحلة انتقالية ريثما يتم وضع الأطر التنظيمية اللازمة.[169] وفي هذا السياق، صرحت أمبا كاك، المديرة التنفيذية لمعهد "أيه آي ناو" بأن "المشاورات المغلقة مع أصحاب المصلحة في الشركات والتي تؤدي إلى ضمانات طوعية ليست كافية"، ودعت إلى إجراء مشاورات عامة ووضع لوائح من شأنها أن لا توافق عليها الشركات طواعية.[170]

وفي أكتوبر من عام 2023، أصدر الرئيس الأمريكي جو بايدن أمرًا تنفيذيًا بشأن "التطوير والاستخدام الآمن والموثوق للذكاء الاصطناعي".[171] وبالإضافة إلى متطلبات أخرى، يفرض هذا الأمر وضع مبادئ توجيهية لأنظمة الذكاء الاصطناعي تمنع من "التحايل على السيطرة البشرية".

المخاطر

[عدل]

أهداف محددة بشكل سيئ (كن حذرًا لما تريده)

[عدل]

1. صعوبة تعديل الأجهزة بعد إطلاقها. 2. النقطة الأساسية: هل أجهزة الذكاء الاصطناعي تتجاهلنا؟ هناك أهداف يسعى أي جهاز ذكاء اصطناعي إليها مثل الموارد الإضافية أو الحفاظ على الذات، وتلك مشكلة لأنها قد تجعل هذه الأجهزة في منافسة مع البشر. 3. هل الذكاء الاصطناعي سيزيد من الأخلاق؟ أحد الاعتقادات الشائعة هو أن البرامج فائقة الذكاء خاضعة للإنسان، أو بشكلٍ أدق أنه سيتعلم الأخلاق والقيم من الإنسان، ومع ذلك فإن "orthogonality thesis" التي وضعها نيست بوستروم تناقض ذلك، وتقول بأنه مع بعض التحذيرات التقنية يمكن دمج أي مستوى من الذكاء والتطور إلى حد ما مع الهدف النهائي، مما يعني أنه لا توجد قواعد أخلاقية ستمنعها من تحقيق هدفها الذي برمجت من أجله، ويحذر من أن أجهزة الذكاء الاصطناعي لا تعطي اعتبارًا لوجود أو رفاهية البشر حولها بل تهتم فقط بالانتهاء من المهمة.

الإجماع والنظام

[عدل]

هناك اتفاق عالمي يجمع على أن منع البحث في مجال الذكاء الاصطناعي قرار عقيم، يقول البعض إنه لا يوجد خطر على البشرية، في حين يتفق معظم العلماء على وجود الخطر، ولكنهم يتفقون على أن منع البحث في هذا المجال قرار لا يمت للصواب بصلة.

المنظمات

[عدل]

هناك مؤسسات مثل معهد أبحاث استخبارات الآلات، ومعهد المستقبل للإنسانية، ومعهد المستقبل للحياة، ومركز دراسة المخاطر الوجودية، ومركز منظمة الذكاء الاصطناعي المتوافق مع الإنسان في التخفيف من المخاطر الوجودية للذكاء الاصطناعي المتقدم.

انظر أيضًا

[عدل]

مراجع

[عدل]
  1. ^ ا ب ج د Russell، Stuart؛ Norvig، Peter (2009). "26.3: The Ethics and Risks of Developing Artificial Intelligence". Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN:978-0-13-604259-4.
  2. ^ Bostrom، Nick (2002). "Existential risks". Journal of Evolution and Technology. ج. 9 ع. 1: 1–31.
  3. ^ ا ب Turchin، Alexey؛ Denkenberger، David (03 مايو 2018). "Classification of global catastrophic risks connected with artificial intelligence". AI & Society. ج. 35 ع. 1: 147–163. DOI:10.1007/s00146-018-0845-5. ISSN:0951-5666. S2CID:19208453. اطلع عليه بتاريخ 2024-10-12.
  4. ^ ا ب ج د ه و ز ح ط ي يا يب يج يد يه يو يز Bostrom، Nick (2014). Superintelligence: Paths, Dangers, Strategies (ط. First). Oxford University Press. ISBN:978-0199678112.
  5. ^ ا ب ج Parkin, Simon (14 Jun 2015). "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". الغارديان (بالإنجليزية). Archived from the original on 2018-02-05. Retrieved 2018-02-05.
  6. ^ Roose, Kevin (30 May 2023). "A.I. Poses 'Risk of Extinction,' Industry Leaders Warn". The New York Times (بالإنجليزية). ISSN:0362-4331. Archived from the original on 2023-10-01. Retrieved 2023-06-03.
  7. ^ Jackson, Sarah. "The CEO of the company behind AI chatbot ChatGPT says the worst-case scenario for artificial intelligence is 'lights out for all of us'". Business Insider (بالإنجليزية). Archived from the original on 2023-07-11. Retrieved 2023-04-10.
  8. ^ Sunak، Rishi (14 يونيو 2023). "Rishi Sunak Wants the U.K. to Be a Key Player in Global AI Regulation". Time. مؤرشف من الأصل في 2023-07-11. اطلع عليه بتاريخ 2024-10-12.
  9. ^ Fung, Brian (18 Jul 2023). "UN Secretary General embraces calls for a new UN agency on AI in the face of 'potentially catastrophic and existential risks' | CNN Business". CNN (بالإنجليزية). Archived from the original on 2023-07-20. Retrieved 2023-07-20.
  10. ^ "بريطانيا تستضيف أول قمة عالمية حول مخاطر الذكاء الاصطناعي". سكاي نيوز عربية. مؤرشف من الأصل في 2023-11-06. اطلع عليه بتاريخ 2023-11-15.
  11. ^ ا ب ج د ه Yudkowsky، Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (pdf). Global Catastrophic Risks: 308–345. Bibcode:2008gcr..book..303Y. مؤرشف (PDF) من الأصل في 2013-03-02. اطلع عليه بتاريخ 2018-08-27.
  12. ^ Russell، Stuart؛ Dewey، Daniel؛ Tegmark، Max (2015). "Research Priorities for Robust and Beneficial Artificial Intelligence" (pdf). AI Magazine. Association for the Advancement of Artificial Intelligence: 105–114. arXiv:1602.03506. Bibcode:2016arXiv160203506R. مؤرشف (PDF) من الأصل في 2019-08-04. اطلع عليه بتاريخ 2019-08-10., cited in "AI Open Letter - Future of Life Institute". Future of Life Institute. يناير 2015. مؤرشف من الأصل في 2019-08-10. اطلع عليه بتاريخ 2019-08-09.
  13. ^ "AlphaGo Zero: Starting from scratch". www.deepmind.com (بالإنجليزية). Archived from the original on 2023-07-28. Retrieved 2023-07-28.
  14. ^ "'Samuel Butler's "the Book of the Machines" and the Argument from Design.'". Middle East Journal. مؤرشف من الأصل في 2023-03-15. اطلع عليه بتاريخ 2024-10-12.
  15. ^ Hilliard, Mark (2017). "The AI apocalypse: will the human race soon be terminated?". The Irish Times (بالإنجليزية). Archived from the original on 2020-05-22. Retrieved 2020-03-15.
  16. ^ Russell، Stuart J.؛ Norvig، Peter (2003). "Section 26.3: The Ethics and Risks of Developing Artificial Intelligence". Artificial Intelligence: A Modern Approach. Upper Saddle River, N.J.: Prentice Hall. ISBN:978-0137903955. Similarly, Marvin Minsky once suggested that an AI program designed to solve the Riemann Hypothesis might end up taking over all the resources of Earth to build more powerful supercomputers to help achieve its goal.
  17. ^ Anderson، Kurt (26 نوفمبر 2014). "Enthusiasts and Skeptics Debate Artificial Intelligence". Vanity Fair. مؤرشف من الأصل في 2016-01-22. اطلع عليه بتاريخ 2016-01-30.
  18. ^ Hsu، Jeremy (1 مارس 2012). "Control dangerous AI before it controls us, one expert says". إن بي سي نيوز. مؤرشف من الأصل في 2016-02-02. اطلع عليه بتاريخ 2016-01-28.
  19. ^ "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'". The Independent. ذي إندبندنت. مؤرشف من الأصل في 2015-09-25. اطلع عليه بتاريخ 2014-12-03.
  20. ^ "Stephen Hawking warns artificial intelligence could end mankind". BBC. بي بي سي. 2 ديسمبر 2014. مؤرشف من الأصل في 2015-10-30. اطلع عليه بتاريخ 2014-12-03.
  21. ^ Dignum, Virginia (26 May 2021). "AI — the people and places that make, use and manage it". Nature (بالإنجليزية). 593 (7860): 499–500. Bibcode:2021Natur.593..499D. DOI:10.1038/d41586-021-01397-x. S2CID:235216649. Retrieved 2024-10-12.
  22. ^ "Statement on AI Risk | CAIS". www.safe.ai. مؤرشف من الأصل في 2023-08-19. اطلع عليه بتاريخ 2023-06-08.
  23. ^ "Artificial intelligence could lead to extinction, experts warn". BBC News (بالإنجليزية). 30 May 2023. Archived from the original on 2023-07-20. Retrieved 2023-06-08.
  24. ^ Yudkowsky, E. (2013). Intelligence explosion microeconomics. Machine Intelligence Research Institute.
  25. ^ "DeepMind and Google: the battle to control artificial intelligence". The Economist. ISSN:0013-0613. مؤرشف من الأصل في 2020-09-27. اطلع عليه بتاريخ 2023-07-12.
  26. ^ "AI timelines: What do experts in artificial intelligence expect for the future?". Our World in Data. مؤرشف من الأصل في 2023-02-07. اطلع عليه بتاريخ 2023-07-12.
  27. ^ De Vynck، Gerrit (20 مايو 2023). "The debate over whether AI will destroy us is dividing Silicon Valley". The Washington Post. مؤرشف من الأصل في 2023-05-20. اطلع عليه بتاريخ 2024-10-12.
  28. ^ "'The Godfather of A.I.' just quit Google and says he regrets his life's work because it can be hard to stop 'bad actors from using it for bad things'". Fortune (بالإنجليزية). Archived from the original on 2023-05-02. Retrieved 2023-07-12.
  29. ^ "Super speeds for super AI: Frontier sets new pace for artificial intelligence". ORNL (بالإنجليزية). Retrieved 2024-09-27.
  30. ^ "Everything you need to know about superintelligence". Spiceworks (بالإنجليزية). Retrieved 2023-07-14.
  31. ^ ا ب ج Babauta, Leo. "A Valuable New Book Explores The Potential Impacts Of Intelligent Machines On Human Life". Business Insider (بالإنجليزية). Archived from the original on 2014-08-16. Retrieved 2024-03-19.
  32. ^ ا ب Bostrom، Nick (27 أبريل 2015)، What happens when our computers get smarter than we are?، مؤرشف من الأصل في 2016-03-29، اطلع عليه بتاريخ 2023-07-13.
  33. ^ "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'". The Independent. ذي إندبندنت. مؤرشف من الأصل في 2015-09-25. اطلع عليه بتاريخ 2014-12-03.
  34. ^ "Governance of superintelligence". openai.com (بالإنجليزية). Archived from the original on 2023-05-27. Retrieved 2023-07-12.
  35. ^ "Overcoming Bias: I Still Don't Get Foom". www.overcomingbias.com. مؤرشف من الأصل في 2017-08-04. اطلع عليه بتاريخ 2017-09-20.
  36. ^ Cotton-Barratt, Owen; Ord, Toby (12 Aug 2014). "Strategic considerations about different speeds of AI takeoff". The Future of Humanity Institute (بالإنجليزية). Retrieved 2023-07-12.
  37. ^ Tegmark, Max (25 Apr 2023). "The 'Don't Look Up' Thinking That Could Doom Us With AI". Time (بالإنجليزية). Retrieved 2023-07-14. As if losing control to Chinese minds were scarier than losing control to alien digital minds that don't care about humans. [...] it's clear by now that the space of possible alien minds is vastly larger than that.
  38. ^ "19 – Mechanistic Interpretability with Neel Nanda". AXRP – the AI X-risk Research Podcast (بالإنجليزية). 04 Feb 2023. Retrieved 2023-07-13. it's plausible to me that the main thing we need to get done is noticing specific circuits to do with deception and specific dangerous capabilities like that and situational awareness and internally-represented goals.
  39. ^ "Superintelligence Is Not Omniscience". AI Impacts (بالإنجليزية). 07 Apr 2023. Retrieved 2023-04-16.
  40. ^ ا ب ج د ه و ز ح ط Hendrycks، Dan؛ Mazeika، Mantas؛ Woodside, Thomas (21 يونيو 2023). "An Overview of Catastrophic AI Risks". arXiv:2306.12001 [cs.CY]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  41. ^ Taylor, Josh; Hern, Alex (02 May 2023). "'Godfather of AI' Geoffrey Hinton quits Google and warns over dangers of misinformation". The Guardian (بالإنجليزية). ISSN:0261-3077. Archived from the original on 2024-10-05. Retrieved 2023-07-13.
  42. ^ "How NATO is preparing for a new era of AI cyber attacks". euronews (بالإنجليزية). 26 Dec 2022. Archived from the original on 2023-03-26. Retrieved 2023-07-13.
  43. ^ "ChatGPT and the new AI are wreaking havoc on cybersecurity in exciting and frightening ways". ZDNET (بالإنجليزية). Archived from the original on 2023-05-30. Retrieved 2023-07-13.
  44. ^ A bot will complete this citation soon. Click here to jump the queue أرخايف:2305.15324.
  45. ^ Urbina, Fabio; Lentzos, Filippa; Invernizzi, Cédric; Ekins, Sean (7 Mar 2022). "Dual use of artificial-intelligence-powered drug discovery". Nature Machine Intelligence (بالإنجليزية). 4 (3): 189–191. DOI:10.1038/s42256-022-00465-9. ISSN:2522-5839. PMC:9544280. PMID:36211133. Archived from the original on 2024-10-09. Retrieved 2024-10-12.
  46. ^ Walter، Yoshija (27 مارس 2023). "The rapid competitive economy of machine learning development: a discussion on the social risks and benefits". AI and Ethics. ج. 4 ع. 2: 1. DOI:10.1007/s43681-023-00276-7. مؤرشف من الأصل في 2024-10-12. اطلع عليه بتاريخ 2024-10-12.
  47. ^ "The AI Arms Race Is On. Start Worrying". Time (بالإنجليزية). 16 Feb 2023. Archived from the original on 2023-02-22. Retrieved 2023-07-17.
  48. ^ Brimelow, Ben. "The short film 'Slaughterbots' depicts a dystopian future of killer drones swarming the world". Business Insider (بالإنجليزية). Archived from the original on 2018-05-15. Retrieved 2023-07-20.
  49. ^ Mecklin, John (17 Jul 2023). "'Artificial Escalation': Imagining the future of nuclear risk". Bulletin of the Atomic Scientists (بالإنجليزية). Archived from the original on 2024-06-11. Retrieved 2023-07-20.
  50. ^ Doherty, Ben (17 May 2018). "Climate change an 'existential security risk' to Australia, Senate inquiry says". The Guardian (بالإنجليزية). ISSN:0261-3077. Archived from the original on 2024-10-13. Retrieved 2023-07-16.
  51. ^ Bostrom، Nick (2013). "Existential Risk Prevention as Global Priority" (PDF). Global Policy. ج. 4 ع. 1: 15–3. DOI:10.1111/1758-5899.12002. مؤرشف من الأصل (pdf) في 2020-06-27. اطلع عليه بتاريخ 2024-10-12 – عبر Existential Risk.
  52. ^ MacAskill, William (2022). What we owe the future (بالإنجليزية). New York, New York: Basic Books. ISBN:978-1-5416-1862-6.
  53. ^ ا ب ج د Ord، Toby (2020). "Chapter 5: Future Risks, Unaligned Artificial Intelligence". The Precipice: Existential Risk and the Future of Humanity. Bloomsbury Publishing. ISBN:978-1-5266-0021-9.
  54. ^ McMillan, Tim (15 Mar 2024). "Navigating Humanity's Greatest Challenge Yet: Experts Debate the Existential Risks of AI". The Debrief (بالإنجليزية). Archived from the original on 2024-03-20. Retrieved 2024-09-26.
  55. ^ Kasirzadeh، Atoosa (2024). "Two Types of AI Existential Risk: Decisive and Accumulative". arXiv:2401.07836 [cs.CR]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  56. ^ Samuelsson، Paul Conrad (يونيو–يوليو 2019). "Artificial Consciousness: Our Greatest Ethical Challenge". Philosophy Now. ع. 132. مؤرشف من الأصل في 2024-07-20. اطلع عليه بتاريخ 2023-08-19.
  57. ^ Kateman, Brian (24 Jul 2023). "AI Should Be Terrified of Humans". Time (بالإنجليزية). Archived from the original on 2023-07-27. Retrieved 2023-08-19.
  58. ^ Fisher, Richard. "The intelligent monster that you should let eat you". www.bbc.com (بالإنجليزية). Archived from the original on 2021-12-11. Retrieved 2023-08-19.
  59. ^ More، Max (19 يونيو 2023). "Existential Risk vs. Existential Opportunity: A balanced approach to AI risk". Extropic Thoughts. مؤرشف من الأصل في 2024-07-13. اطلع عليه بتاريخ 2023-07-14.
  60. ^ Omohundro, S. M. (2008, February). The basic AI drives. In AGI (Vol. 171, pp. 483–492).
  61. ^ Carlsmith، Joseph (16 يونيو 2022). "Is Power-Seeking AI an Existential Risk?". arXiv:2206.13353 [cs.CY]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  62. ^ "'The Godfather of A.I.' warns of 'nightmare scenario' where artificial intelligence begins to seek power". Fortune (بالإنجليزية). Archived from the original on 2023-05-02. Retrieved 2023-06-10.
  63. ^ ا ب Dowd, Maureen (Apr 2017). "Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse". The Hive (بالإنجليزية). Archived from the original on 2018-07-26. Retrieved 2017-11-27.
  64. ^ Wakefield، Jane (15 سبتمبر 2015). "Why is Facebook investing in AI?". BBC News. مؤرشف من الأصل في 2017-12-02. اطلع عليه بتاريخ 2017-11-27.
  65. ^ Yudkowsky، Eliezer (2011). "Complex Value Systems are Required to Realize Valuable Futures" (pdf). Global Catastrophic Risks. مؤرشف (PDF) من الأصل في 2015-09-29. اطلع عليه بتاريخ 2020-08-10.
  66. ^ ا ب Ord، Toby (2020). The Precipice: Existential Risk and the Future of Humanity. Bloomsbury Publishing Plc. ISBN:978-1-5266-0019-6.
  67. ^ Yudkowsky, E. (2011, August). Complex value systems in friendly AI. In International Conference on Artificial General Intelligence (pp. 388–393). Germany: Springer, Berlin, Heidelberg.
  68. ^ Russell، Stuart (2014). "Of Myths and Moonshine". Edge. مؤرشف من الأصل في 2016-07-19. اطلع عليه بتاريخ 2015-10-23.
  69. ^ Dietterich، Thomas؛ Horvitz، Eric (2015). "Rise of Concerns about AI: Reflections and Directions" (pdf). Communications of the ACM. ج. 58 ع. 10: 38–40. DOI:10.1145/2770869. S2CID:20395145. مؤرشف (PDF) من الأصل في 2016-03-04. اطلع عليه بتاريخ 2015-10-23.
  70. ^ ا ب Yudkowsky, Eliezer (29 Mar 2023). "The Open Letter on AI Doesn't Go Far Enough". Time (بالإنجليزية). Archived from the original on 2024-03-15. Retrieved 2023-07-16.
  71. ^ Bostrom, Nick (01 May 2012). "The Superintelligent Will: Motivation and Instrumental Rationality in Advanced Artificial Agents". Minds and Machines (بالإنجليزية). 22 (2): 71–85. DOI:10.1007/s11023-012-9281-3. ISSN:1572-8641. S2CID:254835485. Archived from the original on 2024-10-12. Retrieved 2024-10-12. as long as they possess a sufficient level of intelligence, agents having any of a wide range of final goals will pursue similar intermediary goals because they have instrumental reasons to do so.
  72. ^ Ngo، Richard؛ Chan، Lawrence؛ Sören Mindermann (22 فبراير 2023). "The alignment problem from a deep learning perspective". arXiv:2209.00626 [cs.AI]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  73. ^ "Introducing Superalignment". openai.com (بالإنجليزية). Archived from the original on 2023-11-20. Retrieved 2023-07-16.
  74. ^ Tilli, Cecilia (28 Apr 2016). "Killer Robots? Lost Jobs?". Slate (بالإنجليزية). Archived from the original on 2016-05-11. Retrieved 2016-05-15.
  75. ^ "Norvig vs. Chomsky and the Fight for the Future of AI". Tor.com. 21 يونيو 2011. مؤرشف من الأصل في 2016-05-13. اطلع عليه بتاريخ 2016-05-15.
  76. ^ Russell، Stuart؛ Norvig، Peter (2009). "26.3: The Ethics and Risks of Developing Artificial Intelligence". Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN:978-0-13-604259-4.
  77. ^ Graves، Matthew (8 نوفمبر 2017). "Why We Should Be Concerned About Artificial Superintelligence". Skeptic (US magazine). ج. 22 رقم  2. مؤرشف من الأصل في 2017-11-13. اطلع عليه بتاريخ 2017-11-27.
  78. ^ Johnson, Phil (30 Jul 2015). "Houston, we have a bug: 9 famous software glitches in space". IT World (بالإنجليزية). Archived from the original on 2019-02-15. Retrieved 2018-02-05.
  79. ^ Yampolskiy، Roman V. (8 أبريل 2014). "Utility function security in artificially intelligent agents". Journal of Experimental & Theoretical Artificial Intelligence. ج. 26 ع. 3: 373–389. DOI:10.1080/0952813X.2014.895114. S2CID:16477341. مؤرشف من الأصل في 2024-09-16. اطلع عليه بتاريخ 2024-10-12. Nothing precludes sufficiently smart self-improving systems from optimising their reward mechanisms in order to optimisetheir current-goal achievement and in the process making a mistake leading to corruption of their reward functions.
  80. ^ "Will artificial intelligence destroy humanity? Here are 5 reasons not to worry". Vox. 22 أغسطس 2014. مؤرشف من الأصل في 2015-10-30. اطلع عليه بتاريخ 2015-10-30.
  81. ^ Bostrom، Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford, United Kingdom: Oxford University Press. ص. 116. ISBN:978-0-19-967811-2.
  82. ^ Bostrom، Nick (2012). "Superintelligent Will" (pdf). Nick Bostrom. مؤرشف (PDF) من الأصل في 2015-11-28. اطلع عليه بتاريخ 2015-10-29.
  83. ^ "here" (PDF). The Future of Humanity Institute. مؤرشف من الأصل (pdf) في 2020-03-25. اطلع عليه بتاريخ 2024-10-12.
  84. ^ ا ب Chorost، Michael (18 أبريل 2016). "Let Artificial Intelligence Evolve". Slate. مؤرشف من الأصل في 2017-11-27. اطلع عليه بتاريخ 2017-11-27.
  85. ^ "Should humans fear the rise of the machine?". ديلي تلغراف. 1 سبتمبر 2015. مؤرشف من الأصل في 2022-01-12. اطلع عليه بتاريخ 2016-02-07.
  86. ^ ا ب Shermer, Michael (1 Mar 2017). "Apocalypse AI". Scientific American (بالإنجليزية). 316 (3): 77. Bibcode:2017SciAm.316c..77S. DOI:10.1038/scientificamerican0317-77. PMID:28207698. Archived from the original on 2017-12-01. Retrieved 2017-11-27.
  87. ^ "Intelligent Machines: What does Facebook want with AI?". BBC News. 14 سبتمبر 2015. مؤرشف من الأصل في 2017-12-02. اطلع عليه بتاريخ 2023-03-31.
  88. ^ Baum، Seth (30 سبتمبر 2018). "Countering Superintelligence Misinformation". Information. ج. 9 ع. 10: 244. DOI:10.3390/info9100244. ISSN:2078-2489. مؤرشف من الأصل في 2024-06-06. اطلع عليه بتاريخ 2024-10-12.
  89. ^ Bostrom، Nick، "Superintelligence: paths, dangers, strategies"، روتليدج (دار نشر) (Audiobook)، ISBN:978-1-5012-2774-5، OCLC:1061147095، مؤرشف من الأصل في 2024-05-05، اطلع عليه بتاريخ 2024-10-12.
  90. ^ Sotala، Kaj؛ Yampolskiy، Roman V (19 ديسمبر 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. ج. 90 ع. 1: 12. Bibcode:2015PhyS...90a8001S. DOI:10.1088/0031-8949/90/1/018001. ISSN:0031-8949. مؤرشف من الأصل في 2024-10-07. اطلع عليه بتاريخ 2024-10-12.
  91. ^ Pistono, Federico؛ Yampolskiy, Roman V. (09 مايو 2016). Unethical Research: How to Create a Malevolent Artificial Intelligence. OCLC:1106238048. مؤرشف من الأصل في 2023-12-11. اطلع عليه بتاريخ 2024-10-12.
  92. ^ Haney، Brian Seamus (2018). "The Perils & Promises of Artificial General Intelligence". SSRN Working Paper Series. DOI:10.2139/ssrn.3261254. ISSN:1556-5068. S2CID:86743553. مؤرشف من الأصل في 2024-06-06. اطلع عليه بتاريخ 2024-10-12.
  93. ^ "Will Superintelligent AIs Be Our Doom?". IEEE Spectrum (بالإنجليزية). 3 Sep 2014. Archived from the original on 2024-09-13. Retrieved 2024-09-13.
  94. ^ Russell, Stuart (30 Aug 2017). "Artificial intelligence: The future is superintelligent". Nature (بالإنجليزية). 548 (7669): 520–521. Bibcode:2017Natur.548..520R. DOI:10.1038/548520a. S2CID:4459076. Archived from the original on 2024-07-10. Retrieved 2024-10-12.
  95. ^ ا ب ج Tegmark, Max (2017). Life 3.0: Being Human in the Age of Artificial Intelligence (بالإنجليزية) (1st ed.). Mainstreaming AI Safety: Knopf. ISBN:978-0-451-48507-6.
  96. ^ Kumar, Vibhore. "Council Post: At The Dawn Of Artificial General Intelligence: Balancing Abundance With Existential Safeguards". Forbes (بالإنجليزية). Archived from the original on 2024-10-13. Retrieved 2023-07-23.
  97. ^ ا ب "Pause Giant AI Experiments: An Open Letter". Future of Life Institute. مؤرشف من الأصل في 2024-10-05. اطلع عليه بتاريخ 2023-03-30.
  98. ^ "AI Principles". معهد مستقبل الحياة. 11 أغسطس 2017. مؤرشف من الأصل في 2017-12-11. اطلع عليه بتاريخ 2017-12-11.
  99. ^ "Elon Musk and Stephen Hawking warn of artificial intelligence arms race". نيوزويك (بالإنجليزية). 31 Jan 2017. Archived from the original on 2017-12-11. Retrieved 2017-12-11.
  100. ^ Ford، Martin (2015). "Chapter 9: Super-intelligence and the Singularity". Rise of the Robots: Technology and the Threat of a Jobless Future. Basic Books. ISBN:978-0-465-05999-7.
  101. ^ Bostrom، Nick (2016). "New Epilogue to the Paperback Edition". Superintelligence: Paths, Dangers, Strategies (ط. Paperback).
  102. ^ "2022 Expert Survey on Progress in AI". AI Impacts (بالإنجليزية). 04 Aug 2022. Archived from the original on 2022-11-23. Retrieved 2023-04-10.
  103. ^ "Why Uncontrollable AI Looks More Likely Than Ever". Time (بالإنجليزية). 27 Feb 2023. Archived from the original on 2023-02-27. Retrieved 2023-03-30. It is therefore no surprise that according to the most recent AI Impacts Survey, nearly half of 731 leading AI researchers think there is at least a 10% chance that human-level AI would lead to an "extremely negative outcome," or existential risk.
  104. ^ Turing، Alan (1951). Intelligent machinery, a heretical theory (Speech). Manchester: The Turing Digital Archive. مؤرشف من الأصل في 2022-09-26. اطلع عليه بتاريخ 2022-07-22. {{استشهاد بخطاب}}: الوسيط غير المعروف |عنوان المؤتمر= تم تجاهله (مساعدة)
  105. ^ Turing، Alan (15 مايو 1951). "Can digital computers think?". Automatic Calculating Machines. حلقة 2. BBC. Can digital computers think?.
  106. ^ ا ب Maas، Matthijs M. (06 فبراير 2019). "How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons of mass destruction". Contemporary Security Policy. ج. 40 ع. 3: 285–311. DOI:10.1080/13523260.2019.1576464. ISSN:1352-3260. S2CID:159310223. مؤرشف من الأصل في 2024-06-24. اطلع عليه بتاريخ 2024-10-12.
  107. ^ Jackson, Sarah. "The CEO of the company behind AI chatbot ChatGPT says the worst-case scenario for artificial intelligence is 'lights out for all of us'". Business Insider (بالإنجليزية). Archived from the original on 2023-07-11. Retrieved 2023-04-10.
  108. ^ ا ب "Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks". ABC News (بالإنجليزية). 23 Mar 2023. Archived from the original on 2024-10-12. Retrieved 2023-03-30.
  109. ^ Rawlinson، Kevin (29 يناير 2015). "Microsoft's Bill Gates insists AI is a threat". بي بي سي نيوز. مؤرشف من الأصل في 2015-01-29. اطلع عليه بتاريخ 2015-01-30.
  110. ^ "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'". The Independent. ذي إندبندنت. مؤرشف من الأصل في 2015-09-25. اطلع عليه بتاريخ 2014-12-03.
  111. ^ Washington Post (14 ديسمبر 2015). "Tech titans like Elon Musk are spending $1 billion to save you from terminators". شيكاغو تريبيون. مؤرشف من الأصل في 2016-06-07. اطلع عليه بتاريخ 2024-10-12.
  112. ^ "Doomsday to utopia: Meet AI's rival factions". Washington Post (بالإنجليزية). 09 Apr 2023. Archived from the original on 2023-04-10. Retrieved 2023-04-30.
  113. ^ "UC Berkeley – Center for Human-Compatible AI (2016)". Open Philanthropy (بالإنجليزية). 27 Jun 2016. Archived from the original on 2024-10-13. Retrieved 2023-04-30.
  114. ^ "The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers". Tech Insider. مؤرشف من الأصل في 2015-10-30. اطلع عليه بتاريخ 2015-10-30.
  115. ^ "Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research". Fast Company. 15 يناير 2015. مؤرشف من الأصل في 2015-10-30. اطلع عليه بتاريخ 2015-10-30.
  116. ^ Clark 2015a.
  117. ^ Tilli, Cecilia (28 Apr 2016). "Killer Robots? Lost Jobs?". Slate (بالإنجليزية). Archived from the original on 2016-05-11. Retrieved 2016-05-15.
  118. ^ Khatchadourian، Raffi (23 نوفمبر 2015). "The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?". The New Yorker. مؤرشف من الأصل في 2019-04-29. اطلع عليه بتاريخ 2016-02-07.
  119. ^ "Warning of AI's danger, pioneer Geoffrey Hinton quits Google to speak freely". www.arstechnica.com. 2023. مؤرشف من الأصل في 2023-05-02. اطلع عليه بتاريخ 2023-07-23.
  120. ^ Garling، Caleb (5 مايو 2015). "Andrew Ng: Why 'Deep Learning' Is a Mandate for Humans, Not Just Machines". Wired. مؤرشف من الأصل في 2024-10-08. اطلع عليه بتاريخ 2023-03-31.
  121. ^ "Is artificial intelligence really an existential threat to humanity?". MambaPost. 04 أبريل 2023. مؤرشف من الأصل في 2023-12-15. اطلع عليه بتاريخ 2024-10-12.
  122. ^ "The case against killer robots, from a guy actually working on artificial intelligence". Fusion.net. مؤرشف من الأصل في 2016-02-04. اطلع عليه بتاريخ 2016-01-31.
  123. ^ "AI experts challenge 'doomer' narrative, including 'extinction risk' claims". VentureBeat (بالإنجليزية). 31 May 2023. Archived from the original on 2024-07-12. Retrieved 2023-07-08.
  124. ^ Coldewey, Devin (01 Apr 2023). "Ethicists fire back at 'AI Pause' letter they say 'ignores the actual harms'". TechCrunch (بالإنجليزية). Archived from the original on 2024-06-24. Retrieved 2023-07-23.
  125. ^ "DAIR (Distributed AI Research Institute)". DAIR Institute (بالإنجليزية). Archived from the original on 2021-12-02. Retrieved 2023-07-23.
  126. ^ Gebru, Timnit; Torres, Émile P. (14 Apr 2024). "The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence". First Monday (بالإنجليزية). DOI:10.5210/fm.v29i4.13636. ISSN:1396-0466. Archived from the original on 2024-10-02. Retrieved 2024-10-12.
  127. ^ Kelly، Kevin (25 أبريل 2017). "The Myth of a Superhuman AI". Wired. مؤرشف من الأصل في 2021-12-26. اطلع عليه بتاريخ 2022-02-19.
  128. ^ Jindal, Siddharth (07 Jul 2023). "OpenAI's Pursuit of AI Alignment is Farfetched". Analytics India Magazine (بالإنجليزية). Archived from the original on 2023-12-15. Retrieved 2023-07-23.
  129. ^ "Mark Zuckerberg responds to Elon Musk's paranoia about AI: 'AI is going to... help keep our communities safe.'". Business Insider. 25 مايو 2018. مؤرشف من الأصل في 2019-05-06. اطلع عليه بتاريخ 2019-05-06.
  130. ^ Dadich، Scott. "Barack Obama Talks AI, Robo Cars, and the Future of the World". WIRED. مؤرشف من الأصل في 2017-12-03. اطلع عليه بتاريخ 2017-11-27.
  131. ^ Kircher, Madison Malone. "Obama on the Risks of AI: 'You Just Gotta Have Somebody Close to the Power Cord'". Select All (بالإنجليزية). Archived from the original on 2017-12-01. Retrieved 2017-11-27.
  132. ^ "Hillary Clinton on AI risk". Luke Muehlhauser. مؤرشف من الأصل في 2017-12-01. اطلع عليه بتاريخ 2024-10-12.
  133. ^ "Elon Musk says AI could doom human civilization. Zuckerberg disagrees. Who's right?". USA TODAY. 5 يناير 2023. مؤرشف من الأصل في 2018-01-08. اطلع عليه بتاريخ 2018-01-08.
  134. ^ "AI doomsday worries many Americans. So does apocalypse from climate change, nukes, war, and more". YouGov. 14 أبريل 2023. مؤرشف من الأصل في 2023-06-23. اطلع عليه بتاريخ 2023-07-09.
  135. ^ Tyson, Alec; Kikuchi, Emma (28 Aug 2023). "Growing public concern about the role of artificial intelligence in daily life". Pew Research Center (بالإنجليزية). Archived from the original on 2023-09-26. Retrieved 2023-09-17.
  136. ^ Sotala، Kaj؛ Yampolskiy، Roman (19 ديسمبر 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. ج. 90 ع. 1.
  137. ^ Barrett، Anthony M.؛ Baum، Seth D. (23 مايو 2016). "A model of pathways to artificial superintelligence catastrophe for risk and decision analysis". Journal of Experimental & Theoretical Artificial Intelligence. ج. 29 ع. 2: 397–414. arXiv:1607.07730. DOI:10.1080/0952813x.2016.1186228. ISSN:0952-813X. S2CID:928824. مؤرشف من الأصل في 2024-10-07. اطلع عليه بتاريخ 2024-10-12.
  138. ^ Sotala، Kaj؛ Yampolskiy، Roman V (19 ديسمبر 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. ج. 90 ع. 1: 018001. Bibcode:2015PhyS...90a8001S. DOI:10.1088/0031-8949/90/1/018001. ISSN:0031-8949. S2CID:4749656. مؤرشف من الأصل في 2024-10-07. اطلع عليه بتاريخ 2024-10-12.
  139. ^ Ramamoorthy، Anand؛ Yampolskiy، Roman (2018). "Beyond MAD? The race for artificial general intelligence". ICT Discoveries. ITU. ج. 1 ع. Special Issue 1: 1–8. مؤرشف من الأصل في 2022-01-07. اطلع عليه بتاريخ 2022-01-07.
  140. ^ Carayannis, Elias G.; Draper, John (11 Jan 2022). "Optimising peace through a Universal Global Peace Treaty to constrain the risk of war from a militarised artificial superintelligence". AI & Society (بالإنجليزية). 38 (6): 2679–2692. DOI:10.1007/s00146-021-01382-y. ISSN:0951-5666. PMC:8748529. PMID:35035113. S2CID:245877737. Archived from the original on 2024-10-12. Retrieved 2024-10-12.
  141. ^ Carayannis، Elias G.؛ Draper، John (30 مايو 2023)، "The challenge of advanced cyberwar and the place of cyberpeace"، The Elgar Companion to Digital Transformation, Artificial Intelligence and Innovation in the Economy, Society and Democracy، Edward Elgar Publishing، ص. 32–80، DOI:10.4337/9781839109362.00008، ISBN:978-1-83910-936-2، مؤرشف من الأصل في 2024-10-12، اطلع عليه بتاريخ 2023-06-08.
  142. ^ Vincent, James (22 Jun 2016). "Google's AI researchers say these are the five key problems for robot safety". The Verge (بالإنجليزية). Archived from the original on 2019-12-24. Retrieved 2020-04-05.
  143. ^ Amodei, Dario, Chris Olah, Jacob Steinhardt, Paul Christiano, John Schulman, and Dan Mané. "Concrete problems in AI safety." arXiv preprint arXiv:1606.06565 (2016).
  144. ^ Johnson, Alex (2019). "Elon Musk wants to hook your brain up directly to computers – starting next year". NBC News (بالإنجليزية). Archived from the original on 2020-04-18. Retrieved 2020-04-05.
  145. ^ Torres, Phil (18 Sep 2018). "Only Radically Enhancing Humanity Can Save Us All". Slate Magazine (بالإنجليزية). Archived from the original on 2020-08-06. Retrieved 2020-04-05.
  146. ^ Barrett، Anthony M.؛ Baum، Seth D. (23 مايو 2016). "A model of pathways to artificial superintelligence catastrophe for risk and decision analysis". Journal of Experimental & Theoretical Artificial Intelligence. ج. 29 ع. 2: 397–414. arXiv:1607.07730. DOI:10.1080/0952813X.2016.1186228. S2CID:928824. مؤرشف من الأصل في 2024-10-07. اطلع عليه بتاريخ 2024-10-12.
  147. ^ Piper, Kelsey (29 Mar 2023). "How to test what an AI model can – and shouldn't – do". Vox (بالإنجليزية). Archived from the original on 2024-10-13. Retrieved 2023-07-28.
  148. ^ Piesing، Mark (17 مايو 2012). "AI uprising: humans will be outsourced, not obliterated". Wired. مؤرشف من الأصل في 2014-04-07. اطلع عليه بتاريخ 2015-12-12.
  149. ^ Coughlan، Sean (24 أبريل 2013). "How are humans going to become extinct?". BBC News. مؤرشف من الأصل في 2014-03-09. اطلع عليه بتاريخ 2014-03-29.
  150. ^ Bridge, Mark (10 Jun 2017). "Making robots less confident could prevent them taking over". The Times (بالإنجليزية). Archived from the original on 2018-03-21. Retrieved 2018-03-21.
  151. ^ McGinnis، John (Summer 2010). "Accelerating AI". Northwestern University Law Review. ج. 104 ع. 3: 1253–1270. مؤرشف من الأصل في 2016-02-15. اطلع عليه بتاريخ 2014-07-16. For all these reasons, verifying a global relinquishment treaty, or even one limited to AI-related weapons development, is a nonstarter... (For different reasons from ours, the Machine Intelligence Research Institute) considers (AGI) relinquishment infeasible...
  152. ^ Sotala، Kaj؛ Yampolskiy، Roman (19 ديسمبر 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. ج. 90 ع. 1. In general, most writers reject proposals for broad relinquishment... Relinquishment proposals suffer from many of the same problems as regulation proposals, but to a greater extent. There is no historical precedent of general, multi-use technology similar to AGI being successfully relinquished for good, nor do there seem to be any theoretical reasons for believing that relinquishment proposals would work in the future. Therefore we do not consider them to be a viable class of proposals.
  153. ^ Allenby, Brad (11 Apr 2016). "The Wrong Cognitive Measuring Stick". Slate (بالإنجليزية). Archived from the original on 2016-05-15. Retrieved 2016-05-15. It is fantasy to suggest that the accelerating development and deployment of technologies that taken together are considered to be A.I. will be stopped or limited, either by regulation or even by national legislation.
  154. ^ ا ب ج Yampolskiy, Roman V. (2022). "AI Risk Skepticism". In Müller, Vincent C. (ed.). Philosophy and Theory of Artificial Intelligence 2021. Studies in Applied Philosophy, Epistemology and Rational Ethics (بالإنجليزية). Cham: Springer International Publishing. Vol. 63. pp. 225–248. DOI:10.1007/978-3-031-09153-7_18. ISBN:978-3-031-09153-7. Archived from the original on 2024-10-12. Retrieved 2024-10-12.
  155. ^ Baum، Seth (22 أغسطس 2018). "Superintelligence Skepticism as a Political Tool". Information. ج. 9 ع. 9: 209. DOI:10.3390/info9090209. ISSN:2078-2489. مؤرشف من الأصل في 2024-06-04. اطلع عليه بتاريخ 2024-10-12.
  156. ^ "Elon Musk and other tech leaders call for pause in 'out of control' AI race". CNN (بالإنجليزية). 29 Mar 2023. Archived from the original on 2023-03-29. Retrieved 2023-03-30.
  157. ^ "Open letter calling for AI 'pause' shines light on fierce debate around risks vs. hype". VentureBeat (بالإنجليزية). 29 Mar 2023. Archived from the original on 2024-07-11. Retrieved 2023-07-20.
  158. ^ Vincent, James (14 Apr 2023). "OpenAI's CEO confirms the company isn't training GPT-5 and "won't for some time"". The Verge (بالإنجليزية). Archived from the original on 2023-04-17. Retrieved 2023-07-20.
  159. ^ "The Open Letter on AI Doesn't Go Far Enough". Time (بالإنجليزية). 29 Mar 2023. Archived from the original on 2024-03-15. Retrieved 2023-07-20.
  160. ^ Domonoske, Camila (17 Jul 2017). "Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'". NPR (بالإنجليزية). Archived from the original on 2020-04-23. Retrieved 2017-11-27.
  161. ^ Gibbs، Samuel (17 يوليو 2017). "Elon Musk: regulate AI to combat 'existential threat' before it's too late". The Guardian. مؤرشف من الأصل في 2020-06-06. اطلع عليه بتاريخ 2017-11-27.
  162. ^ Kharpal، Arjun (7 نوفمبر 2017). "A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says". CNBC. مؤرشف من الأصل في 2020-03-22. اطلع عليه بتاريخ 2017-11-27.
  163. ^ Dawes, James (20 Dec 2021). "UN faails to agree on 'killer robot' ban as nations pour billions into autonomous weapons research". The Conversation (بالإنجليزية). Archived from the original on 2022-03-14. Retrieved 2023-07-28.
  164. ^ ا ب Fassihi, Farnaz (18 Jul 2023). "U.N. Officials Urge Regulation of Artificial Intelligence". The New York Times (بالإنجليزية). ISSN:0362-4331. Retrieved 2023-07-20.
  165. ^ "International Community Must Urgently Confront New Reality of Generative, Artificial Intelligence, Speakers Stress as Security Council Debates Risks, Rewards". United Nations. مؤرشف من الأصل في 2024-08-13. اطلع عليه بتاريخ 2023-07-20.
  166. ^ Fung, Brian (18 Jul 2023). "UN Secretary General embraces calls for a new UN agency on AI in the face of 'potentially catastrophic and existential risks'". CNN Business (بالإنجليزية). Archived from the original on 2023-07-20. Retrieved 2023-07-20.
  167. ^ Sotala، Kaj؛ Yampolskiy، Roman V. (19 ديسمبر 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. ج. 90 ع. 1: 018001. Bibcode:2015PhyS...90a8001S. DOI:10.1088/0031-8949/90/1/018001. ISSN:0031-8949. مؤرشف من الأصل في 2024-10-07. اطلع عليه بتاريخ 2024-10-12.
  168. ^ Geist، Edward Moore (15 أغسطس 2016). "It's already too late to stop the AI arms race—We must manage it instead". Bulletin of the Atomic Scientists. ج. 72 ع. 5: 318–321. Bibcode:2016BuAtS..72e.318G. DOI:10.1080/00963402.2016.1216672. ISSN:0096-3402. S2CID:151967826. مؤرشف من الأصل في 2024-05-08. اطلع عليه بتاريخ 2024-10-12.
  169. ^ "Amazon, Google, Meta, Microsoft and other tech firms agree to AI safeguards set by the White House". AP News (بالإنجليزية). 21 Jul 2023. Archived from the original on 2023-07-21. Retrieved 2023-07-21.
  170. ^ "Amazon, Google, Meta, Microsoft and other firms agree to AI safeguards". Redditch Advertiser (بالإنجليزية). 21 Jul 2023. Archived from the original on 2024-10-13. Retrieved 2023-07-21.
  171. ^ The White House (30 Oct 2023). "Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence". The White House (بالإنجليزية). Archived from the original on 2023-12-31. Retrieved 2023-12-19.