الحرية- سراب علي:
يعتبر الذكاء الاصطناعي فرصة للتقدم والابتكار إذا أُحسن استخدامه ضمن أطر قانونية وأخلاقية، لكنه في الوقت نفسه خطر يهدد الخصوصية والعدالة والمساءلة إذا تُرك دون رقابة أو تشريع واضح.
هذا التناقض يثير تساؤلات جوهرية حول حدود حماية حقوق الإنسان، ولا سيما الحق في الخصوصية والمسؤولية القانونية عند وقوع الأضرار الناتجة عن استخدام الأنظمة الذكية.
الذكاء الاصطناعي وتهديد الخصوصية
يؤكد المحامي والدكتور في الحقوق «قسم القانون الدولي» والباحث في حقوق الإنسان توفيق العلي أن الذكاء الاصطناعي يشكل خطراً كبيراً على خصوصية الأفراد، إذ تعتمد معظم أنظمته على جمع كميات ضخمة من البيانات الشخصية وتحليلها بطرق قد تنتهك خصوصية المستخدمين دون علمهم أو موافقتهم.
ويضيف في تصريحه لـ «الحرية» أن الكثير من التطبيقات تجمع معلومات وبيانات المستخدمين، بما في ذلك موقعهم واهتماماتهم، دون إذن مسبق، وهو ما يعدّ مخالفة واضحة للقانون وخرقاً لحق الإنسان في الخصوصية.
باحث في حقوق الإنسان: غياب التشريعات الواضحة للذكاء الاصطناعي يترك فراغاً قانونياً خطيراً
ويرى العلي أن الذكاء الاصطناعي ذو حدّين ويمكن أن يكون أداة فعّالة لحماية البيانات من خلال التشفير والكشف المبكر عن الاختراقات، لكنه يتحوّل إلى خطر حقيقي عندما يُستخدم دون ضوابط قانونية وأخلاقية واضحة.
يشكل الذكاء الاصطناعي تحولاً تقنياً كبيراً يحمل في طيّاته فرصاً للتقدّم ومخاطر على حقوق الإنسان، خصوصاً الحق في الخصوصية، وقد ينتهك خصوصية الأفراد عبر جمع بياناتهم دون موافقتهم، وهذا ما يستدعي الحاجة لتشريعات خاصة تنظم استخدامه واتفاقية دولية تُفعّل المساءلة والرقابة البشرية.
تشريعات غير كافية
وعن مدى كفاية القوانين الحالية لحماية الحقوق الرقمية يوضح الدكتور العلي، بأن التشريعات الحالية محلياً ودولياً غير كافية لمواجهة التحديات التي يفرضها الذكاء الاصطناعي، ويؤكد أننا نحتاج إلى اتفاقية دولية خاصة تنظم استخدام الذكاء الاصطناعي، تصادق عليها الدول وتضع كل دولة إطاراً قانونياً يضمن الشفافية والمساءلة، ويؤكد على أن يكون الإنسان المتحكم الأول في القرار.
سوابق قانونية دولية
يرى العلي أن العالم بدأ يشهد قضايا قانونية تتعلق بانتهاكات الذكاء الاصطناعي، منها ما حدث في أوروبا عندما قامت إحدى الشركات بجمع صور لأشخاص من الإنترنت دون موافقتهم، مما شكّل مخالفة لقانون حماية البيانات الأوروبي، وتمت معاقبة الشركة على هذا الأساس، ويشير إلى أن هذه القضايا تؤكد الحاجة إلى قواعد قانونية صريحة تحدد المسؤوليات وتمنع الانتهاكات قبل وقوعها.
ويشير إلى أن قانون حماية البيانات الأوروبي يمثل خطوة متقدمة مقارنة بدول أخرى، لكنه غير كاف وحده لضمان حماية شاملة، إذ إن تطبيقات الذكاء الاصطناعي تتجاوز الحدود الجغرافية والقانونية التقليدية.
من يتحمل
ويشير الدكتور العلي أنه في ظل غياب إطار تشريعي واضح، يصعب تحديد المسؤولية القانونية بدقة في حال تسبب الذكاء الاصطناعي في ضرر غير مقصود، لكن يمكن القول مبدئياً إن الشركة المطوِّرة للنظام، أو الجهة التي تستخدمه، تتحمل المسؤولية عن الأضرار الناتجة عن قرارات الذكاء الاصطناعي
ويؤكد أن الحل يكمن في وضع مشروع قانون متكامل ينظم استخدام تقنيات الذكاء الاصطناعي، ويُفعل المساءلة والرقابة البشرية لضمان عدم إفلات أي جهة من العقاب عند وقوع الضرر.
نحو تشريع عالمي
ويختم الدكتور العلي حديثه بالتأكيد على ضرورة صياغة اتفاقية دولية ملزمة تعالج استخدامات الذكاء الاصطناعي بما يضمن احترام حقوق الإنسان، ويحافظ على التوازن بين الابتكار والمسؤولية.
وأضاف: غياب التشريعات الواضحة يترك فراغاً قانونياً خطيراً، وقد يؤدي إلى انتهاكات واسعة النطاق، نحن بحاجة إلى تنظيم دقيق يضمن الشفافية، ويعيد للإنسان موقع السيطرة والمساءلة في مواجهة الآلة.