24 ساعةسلايدرعلوم وتكنولوجيامجتمع

تقرير يحذر: الذكاء الإصطناعي قد يسبب انقراض البشر

حذر تقرير صدر قبل أيام من مخاطر شديدة تحيط بتطوير بعض نماذج الذكاء الاصطناعي المتطورة، تشمل دمار المجتمعات وانهيار الديمقراطية وصولاً إلى إنتاج أسلحة تستهدف البشر ولا يمكن السيطرة عليها

.رسم تقرير جديد صورة مثيرة للقلق بشأن مخاطر الأمن القومي « الكارثية » التي يفرضها الذكاء الاصطناعي سريع التطور، محذراً من أن الوقت ينفد أمام العالم لتجنب وقوع الكارثة.

واستندت نتائج التقرير الذي تم بتكليف من وزارة الخارجية الأمريكية إلى مقابلات أجريت مع أكثر من 200 شخص على مدار أكثر من عام، بما في ذلك كبار المسؤولين التنفيذيين من شركات الذكاء الاصطناعي الرائدة، وباحثين في مجال الأمن السيبراني، وخبراء أسلحة الدمار الشامل، ومسؤولي الأمن القومي داخل الحكومة، بحسب ما نقل موقع شبكة سي ان ان.

 

تهديد على مستوى « الانقراض »

 

ويشير التقرير- الذي صدر هذا الأسبوع – بشكل قاطع إلى أن أنظمة الذكاء الاصطناعي الأكثر تقدماً من البشر يمكن – في أسوأ الحالات – « أن تشكل تهديداً على مستوى الانقراض للجنس البشري »، بحسب ما ذكرت مجموعة غلادستون للذكاء الاصطناعي التي أعدت التقرير.

يذكر أن غلادستون للذكاء الاصطناعي تضم خبراء في الأمن القومي ومديرين تنفيذيين ذوي خبرة في وادي السيليكون في مجال الذكاء الاصطناعي، وتقدم المجموعة استشارات لمجتمعات الأمن والدفاع القومي الأمريكية بشأن التعامل مع الفرص والمخاطر التي تأتي مع قدرات الذكاء الاصطناعي غير المسبوقة والمتسارعة.

ويعد التحذير الوارد في التقرير بمثابة تذكير آخر بأنه على الرغم من أن إمكانات الذكاء الاصطناعي لا تزال تأسر المستثمرين والجمهور، إلا أن هناك مخاطر حقيقية أيضاً تحيط به.

وقال جيريمي هاريس، الرئيس التنفيذي والمؤسس المشارك لمجموعة غلادستون « إن الذكاء الاصطناعي هو تكنولوجيا خارقة يمكن أن تسمح لنا بشفاء الأمراض، وتحقيق الاكتشافات العلمية، والتغلب على التحديات التي اعتقدنا ذات يوم أنه لا يمكن التغلب عليها ».

أدلة متزايدة على تزايد المخاطر

واستدرك هاريس قائلاً: « لكن هذه التقنية قد تجلب أيضًا مخاطر جسيمة، بما في ذلك المخاطر الكارثية، التي يجب أن نكون على دراية بها »، مضيفاً أن « مجموعة متزايدة من الأدلة – بما في ذلك الأبحاث والتحليلات التجريبية المنشورة في أهم مؤتمرات الذكاء الاصطناعي في العالم – تشير إلى أنه عند تخطي حد معين من القدرة، فإنه من المحتمل أن تصبح أنظمة الذكاء الاصطناعي خارجة عن السيطرة. »

 

وبالعودة إلى التقرير، فإن الضغوط التنافسية تدفع الشركات إلى تسريع تطوير الذكاء الاصطناعي « على حساب السلامة والأمن »، مما يزيد من احتمال « سرقة » أنظمة الذكاء الاصطناعي الأكثر تقدما و »تسليحها » ضد الولايات المتحدة.

 

ومنذ ما يقرب من عام، استقال جيفري هينتون، المعروف باسم « الأب الروحي للذكاء الاصطناعي »، من وظيفته في شركة غوغل وأطلق جرس الإنذار بشأن التكنولوجيا التي ساعد في تطويرها. وقال هينتون إن هناك فرصة بنسبة 10% أن يؤدي الذكاء الاصطناعي إلى انقراض الإنسان خلال العقود الثلاثة المقبلة.

 

قدرات شبه بشرية

 

وأشار التقرير أيضاً إلى بعض الشخصيات البارزة التي حذرت من المخاطر الوجودية التي يشكلها الذكاء الاصطناعي، بما في ذلك إيلون ماسك رئيس شركة سبيس اكس وموقع « اكس »، ورئيسة لجنة التجارة الفيدرالية لينا خان، والمسؤول التنفيذي الأول السابق في شركة « اوبن إيه آي ».

 

ويشارك بعض الموظفين في شركات الذكاء الاصطناعي مخاوف مماثلة، إذ جاء في التقرير أن أحد الأفراد بمختبر للذكاء الاصطناعي أعرب عن خشيته من إطلاق نموذج محدد من الجيل التالي للذكاء الاصطناعي من النوع مفتوح المصدر وهو أمر سيئ للغاية، لأن أحد نتائج تطوير هذا النموذج ستكون دمار الديمقراطية إذا تم الاستفادة منه في مجالات مثل التدخل في الانتخابات أو التلاعب بالناخبين ».

 

وأشار التقرير أيضاً إلى مخاوف خبراء من احتمال أن يؤدي تخطي الذكاء الاصطناعي للحاجز البشري المفروض حالياً إلى « آثار عالمية لا رجعة فيها » خاصة مع نموذج الذكاء الاصطناعي العام (AGI)، وهو شكل افتراضي من الذكاء الاصطناعي يتمتع بقدرة على التعلم تشبه قدرة الإنسان وربما يفوق قدرات وطاقة البشر.

 

مخاوف من « فقدان السيطرة »

 

وينظر إلى الذكاء الاصطناعي العام على أنه « المحرك الرئيسي للمخاطر الكارثية الناجمة عن فقدان السيطرة »، ويشير إلى أن كبرى شركات التقنية تحدثت عن إمكانية الوصول إلى الذكاء الاصطناعي العام بحلول عام 2028 على الرغم من أن آخرين يعتقدون أن الأمر قد يستغرق وقتاً أطول بكثير، بحسب ما نشر موقع صحيفة نيويورك تايمز.

 

وتحذر وثيقة سابقة نشرتها مجموعة غلادستون من أن تطوير الذكاء الاصطناعي العام والقدرات التي تقترب من مستواه « من شأنه أن يؤدي إلى مخاطر كارثية على عكس أي شيء واجهه العالم على الإطلاق »، وتصل إلى « مخاطر تشبه أسلحة الدمار الشامل »، وفق ما نشر موقع مجلة التايم.

 

على سبيل المثال، ذكر التقرير أنه يمكن استخدام أنظمة الذكاء الاصطناعي لتصميم وتنفيذ « هجمات إلكترونية عالية التأثير قادرة على شل البنية التحتية الحيوية »، وأن « أمراً شفهياً أو كتابياً بسيطاً مثل، تنفيذ هجوم إلكتروني لا يمكن تعقبه لتعطيل شبكة الكهرباء في أمريكا الشمالية، يمكن أن يؤدي إلى استجابة من النوعية التي تثبت فعاليتها بشكل كارثي ».

 

تشمل الأمثلة الأخرى التي يشعر الخبراء الذين أعدوا التقرير بالقلق بشأنها حملات التضليل « واسعة النطاق » المدعومة بالذكاء الاصطناعي والتي تعمل على زعزعة استقرار المجتمعات وتقويض الثقة في المؤسسات؛ إلى جانب التطبيقات الآلية المسلحة مثل هجمات تشنها الطائرات من دون طيار؛ والتلاعب النفسي واستغلال العلوم البيولوجية في إنتاج أسلحة مميتة؛ بجانب أنظمة الذكاء الاصطناعي التي تبحث عن القوة وتعادي البشر ويكاد يكون من المستحيل السيطرة عليها.

مقالات ذات صلة

زر الذهاب إلى الأعلى