دراسة تحذر: الذكاء الاصطناعي المتطور قد يشكل تهديداً وجودياً للبشر

مدة القراءة 2 دقيقة/دقائق

الحرية:
حث الخبير في مجال سلامة الذكاء الاصطناعي, ماكس تيجمارك, شركات تطوير الذكاء الاصطناعي ‏على تكرار حسابات السلامة قبل إطلاق أنظمتها فائقة القدرة.‏
وفي ورقة بحثية نشرها تيجمارك وثلاثة من طلابه في معهد ماساتشوستس للتكنولوجيا «‏MIT‏»، حذر ‏الباحثون بحساب «ثابت كومبتون» المُعرّف في الورقة بأنه احتمال خروج ذكاء اصطناعي فائق القدرة ‏عن السيطرة البشرية، وفق صحيفة «غارديان».‏
وذكر تيجمارك، أنه أجرى حسابات مشابهة لتلك التي أجراها الفيزيائي الأميركي آرثر كومبتون, ووجد ‏احتمالاً بنسبة 90% أن يُشكّل الذكاء الاصطناعي المتطور تهديداً وجودياً.‏

 أنظمة سلامة عالمية

وقال تيجمارك إنه ينبغي على شركات الذكاء الاصطناعي أن تتحمل مسؤولية الحساب الدقيق لما إذا كان ‏الذكاء الاصطناعي الفائق «‏ASI‏» – وهو مصطلح يُطلق على نظام نظري يتفوق على الذكاء البشري في ‏جميع الجوانب – سيفلت من السيطرة البشرية.‏
وأضاف: على الشركات التي تُطوّر الذكاء الفائق أن تحسب أيضاً ثابت كومبتون، وهو احتمال فقدان ‏السيطرة عليه.‏
يشار إلى أن تيجمارك، أستاذ الفيزياء وباحث الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، هو ‏أيضا أحد مؤسسي معهد مستقبل الحياة، وهي منظمة غير ربحية تدعم التطوير الآمن للذكاء ‏الاصطناعي، وقد نشر رسالة مفتوحة في عام 2023 تدعو إلى التوقف مؤقتاً عن بناء أنظمة ذكاء ‏اصطناعي قوية.‏
ووقّع الرسالة أكثر من 33000 شخص، بمن فيهم إيلون ماسك – أحد الداعمين الأوائل للمعهد – وستيف ‏وزنياك، المؤسس المشارك لشركة أبل.‏
وحذرت الرسالة، التي صدرت بعد أشهر من إطلاق (‏ChatGPT‏), من أن مختبرات الذكاء الاصطناعي ‏عالقة في سباق خارج عن السيطرة لنشر “عقول رقمية أكثر قوة” لا يمكن لأحد فهمها أو التنبؤ بها أو ‏التحكم فيها بشكل موثوق.‏

Leave a Comment
آخر الأخبار