الحرية:
حث الخبير في مجال سلامة الذكاء الاصطناعي, ماكس تيجمارك, شركات تطوير الذكاء الاصطناعي على تكرار حسابات السلامة قبل إطلاق أنظمتها فائقة القدرة.
وفي ورقة بحثية نشرها تيجمارك وثلاثة من طلابه في معهد ماساتشوستس للتكنولوجيا «MIT»، حذر الباحثون بحساب «ثابت كومبتون» المُعرّف في الورقة بأنه احتمال خروج ذكاء اصطناعي فائق القدرة عن السيطرة البشرية، وفق صحيفة «غارديان».
وذكر تيجمارك، أنه أجرى حسابات مشابهة لتلك التي أجراها الفيزيائي الأميركي آرثر كومبتون, ووجد احتمالاً بنسبة 90% أن يُشكّل الذكاء الاصطناعي المتطور تهديداً وجودياً.
أنظمة سلامة عالمية
وقال تيجمارك إنه ينبغي على شركات الذكاء الاصطناعي أن تتحمل مسؤولية الحساب الدقيق لما إذا كان الذكاء الاصطناعي الفائق «ASI» – وهو مصطلح يُطلق على نظام نظري يتفوق على الذكاء البشري في جميع الجوانب – سيفلت من السيطرة البشرية.
وأضاف: على الشركات التي تُطوّر الذكاء الفائق أن تحسب أيضاً ثابت كومبتون، وهو احتمال فقدان السيطرة عليه.
يشار إلى أن تيجمارك، أستاذ الفيزياء وباحث الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، هو أيضا أحد مؤسسي معهد مستقبل الحياة، وهي منظمة غير ربحية تدعم التطوير الآمن للذكاء الاصطناعي، وقد نشر رسالة مفتوحة في عام 2023 تدعو إلى التوقف مؤقتاً عن بناء أنظمة ذكاء اصطناعي قوية.
ووقّع الرسالة أكثر من 33000 شخص، بمن فيهم إيلون ماسك – أحد الداعمين الأوائل للمعهد – وستيف وزنياك، المؤسس المشارك لشركة أبل.
وحذرت الرسالة، التي صدرت بعد أشهر من إطلاق (ChatGPT), من أن مختبرات الذكاء الاصطناعي عالقة في سباق خارج عن السيطرة لنشر “عقول رقمية أكثر قوة” لا يمكن لأحد فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق.