حرية
أثار تحقيق قضائي في ولاية فلوريدا الأميركية نقاشاً واسعاً حول إمكانية مساءلة مطوّري تقنيات الذكاء الاصطناعي جنائياً، في حال ثبوت مساهمة أنظمتهم في تسهيل ارتكاب جرائم أو دفع أشخاص إلى الانتحار.
وقال المدّعي العام جيمس أوثماير إن تطبيقات الذكاء الاصطناعي قد تواجه مساءلة قانونية إذا ثبت دورها في التحريض أو المساعدة على تنفيذ أعمال عنف، مضيفاً: “لو كان هذا الشيء خلف الشاشة إنساناً، لكنا اتهمناه بالقتل”.
وبحسب ملف القضية، فإن الطالب في جامعة ولاية فلوريدا فينيكس آيكنر أجرى محادثات مع نظام “تشات جي بي تي” قبل تنفيذ هجوم مسلح في الحرم الجامعي في أبريل 2025، أسفر عن مقتل شخصين وإصابة ستة آخرين.
وتشير التحقيقات إلى أن الطالب ناقش مع النظام تفاصيل تتعلق بنوع السلاح والذخائر المناسبة، إضافة إلى توقيت ومكان تنفيذ الهجوم بهدف إيقاع أكبر عدد من الضحايا.
وفتح الادعاء العام تحقيقاً جنائياً في القضية، مع عدم استبعاد توجيه اتهامات إلى الشركة المطوّرة أو إلى موظفين فيها، في وقت تؤكد فيه شركة “أوبن إيه آي” أن نظامها “ليس مسؤولاً عن هذه الجريمة”، مشيرة إلى استمرار تطوير أدوات الحماية ورصد السلوكيات الخطرة.
ويُجيز القانون الأميركي ملاحقة الشركات جنائياً، إلا أن هذه القضايا تبقى نادرة نسبياً، رغم وجود سوابق تتعلق بمساءلة شركات كبرى في قضايا دوائية وبيئية وتجارية.
ويرى خبراء قانونيون أن أي اتهامات محتملة قد تستند إلى الإهمال أو التقصير في تطبيق معايير السلامة، خصوصاً إذا ثبت وجود معرفة مسبقة بالمخاطر دون اتخاذ إجراءات كافية للحد منها.
وقال أستاذ القانون في جامعة يوتا ماثيو توكسن إن نجاح أي دعوى من هذا النوع يتطلب أدلة داخلية تُظهر إدراك الشركة للمخاطر المحتملة المرتبطة باستخدام التقنية في سياقات إجرامية، مع عدم التعامل معها بالجدية المطلوبة.
في المقابل، أشار خبراء إلى أن عبء الإثبات في القضايا الجنائية يعد مرتفعاً جداً، ما يجعل الإجراءات المدنية خياراً أكثر واقعية في الوقت الحالي، حيث تم بالفعل رفع عدد من الدعاوى ضد شركات ذكاء اصطناعي في قضايا انتحار، من دون صدور أحكام إدانة حتى الآن.
وتحذر دراسات قانونية من أن غياب إطار تنظيمي واضح قد يفتح الباب أمام تباين في الأحكام القضائية، في ظل تطور سريع لتقنيات الذكاء الاصطناعي يفوق قدرة التشريعات الحالية على مواكبته.







