يقول ستيفن هوكينغ أن معظم تاريخنا هو “تاريخ الغباء” ونحن على وشك أن نقوم بخطأ كبير آخر

في محاضرة في جامعة كامبردج هذا الأسبوع، صرح ستيفن هوكينج بتصريح جريء اذ ذهب إلى ان صنع الذكاء الإصطناعي سوف يكون “إما أفضل أو أسوأ شيء حصل يومًا للبشرية”.
اذ انه ذكر في احتفالية إفتتاح مركز ليفرهولم الجديد لمستقبل الذكاء الإصطناعي أن بعض أفضل العقول في العلوم سيحاولون الاجابة على جميع التسؤلات حول مستقبل الرجال الآليين والذكاء الإصطناعي، وهو شيء قال عنه هوكينج أننا نحتاج أن نفعل أكثر منه بكثير .
“نحن نمضي وقتًا طويلا جدا ندرس التاريخ” قال هوكينغ في محاضرته، والذي -لنواجه الأمر- هو في الغالب تاريخ الغباء”.
ولكن بالرغم من كل الوقت الذي نمضيه في النظر لأخطاء الماضي، يبدو أننا نقوم بنفس الأخطاء مرة تلو الأخرى.
“لذلك فهو تغيير مرحب به أن يدرس الناس بدل ذلك مستقبل الذكاء” كما وضّح.
إنها ليست المرة الأولى التي يقلق فيها هوكينج من الذكاء الإصطناعي اذ في السنة الماضية، اجتمع هو وإلون مسك ومئات من الخبراء على كتابة رسالة مفتوحة يطالبون الحكومات أن تمنع الاسلحة الذاتية التي ربما تنقلب على البشر يوما ما.
وقد قال أيضًا في السابق: ” تطوير الذكاء الإصطناعي الكامل ممكن أن يكون نهاية السلالة البشرية”.
في محاضرة الأربعاء، اعترف بأنه لازال قلقًا من “الأسلحة الذاتية القوية” و “طرق جديدة للقلة ليضطهدوا الأكثرية” والذي سيتحقق بالذكاء الإصطناعي.
ولكنه قال ايضا أننا باستطاعتنا ان نفكر في هذه المواضيع ونناقشها الآن، فالتكنولوجيا لديها القدرة أن تفعل الخير أيضا
وقال :”إننا لانستطيع أن نتنبأ مايمكن أن نحققه عندما تتضخم عقولنا بواسطة الذكاء الإصطناعي” .
ربما بأدوات هذه الثورة التكنولوجية الجديدة، سنكون قادرين على عكس بعض الأضرار التي حدثت للعالم الطبيعي بواسطة الثورة الصناعية، وبالتأكيد سيكون الهدف في النهاية القضاء على المرض والفقر.
لقد حصل مركز ليفرهولم لمستقبل الذكاء في جامعة كامبردج، حيث يعمل هوكينج بروفيسورا على (12) مليون دولار أمريكي، أي ما يعادل (10 مليون يورو) كمنحة للقيام بمشاريع بحثية تطور القدرة المستقبلية للذكاء الإصطناعي، مع مرعاة التطرق الى المخاطر بحرص.
أن مركز ليفرهولم مستوحى جزئياً من مركز دراسات المخاطر الوجودية في جامعة كامبردج The Center for the Study of Existential Risk (CSER(
الذي يعرض دورات تدريسية في مواضيع تخص فناء وأنقراض البشرية من أجل معرفة المشاكل المستقبلية المحتملة ستواجهها البشرية .
كان مضمار عمل مركز دراسات المخاطر الوجودية يتضمن دراسة مجموعة من المخاطر – مثل التغير المناخي والحرب – بينما مركز ليفرهولم الجديد سيبحث بالتحديد في المشاكل التي يمكن أن تظهر من الآلات التي تفكر وتتعلم مثل البشر.
“ذكاء الآلات سوف يكون أحد المواضيع التي تميز قرننا، والتحديات في الحرص على أن نستفيد من فرصها هي أشياء نواجهها معًا” قال مدير مركز ليفرهولم هو برايس.
“حاليّا، على أية حال، لقد بدأنا بالكاد نفكر بالتداعيات، جيدة أم سيئة”.
مع بدء جوجل تطوير الذكاء الإصطناعي الذي يستطيع أن يتعلم من ذاكرته الخاصة، إلون مسك قلق من أن يصبح البشر هم الأغبياء “حيوانات منزلية أليفة” للذكاء الإصطناعي في المستقبل، وأنظمة الحاسوب حاليًا والتي تنافس اختبارات ذكاء طفل في الرابعة من العمر، هي شيء بالتأكيد يستحق التفكير فيه عاجلًا غير آجلًا.
مثل ماقال هوكينج، أنها قد تصبح”حاسمة لمستقبل حضارتنا وجنسنا البشري”.

#الباحثون_العراقيون

ترجمة: رباب الحمدان
تدقيق علمي : دعد البدران
تدقيق لغوي : عقيل فاضل
التصميم : Re.Hussein

عن iraqi-res