حرية – (11/5/2024)
يخشى العديد من المهتمين في مجال الذكاء الاصطناعي، من أن ينقلب ذلك على الإنسان مستقبلاً، بعد التطور السريع لهذه التقنية ودخولها في مجالات عديدة بحياة البشر.
لكن يبدو أن هذه المخاوف باتت واقعاً منذ الآن، وفقاً لدراسة جديدة، إذ أن البرامج التي صُمِّمَت لتكون صادقة، باتت لديها قدرة مثيرة للقلق على خداع البشر، ما ينذر بأن الآتي أعظم.
فقد بيّنت الدراسة التي أجراها فريق باحثين ونشرت نتائجها مجلة “باترنز” أن برامج من هذا النوع باتت قادرة على استغلال البشر في ألعاب إلكترونية أو التحايل على برمجيات مصممة في الأساس للتحقق من أن المستخدم إنسان وليس آلة أو روبوتا.
رغم أن هذه الأمثلة قد تبدو تافهة، إلا أنها تكشف عن مشكلات قد تكون لها قريباً عواقب وخيمة في العالم الحقيقي، كما يحذر بيتر بارك، الباحث في معهد ماساتشوستس للتكنولوجيا، المتخصص في الذكاء الاصطناعي.
وقال بارك إن “هذه القدرات الخطرة لا تُكتشف إلا بعد وقوعها”، بحسب وكالة “فرانس برس”.
كما أوضح أنه على عكس البرامج التقليدية، فإن برامج الذكاء الاصطناعي القائمة على التعلم العميق ليست مشفرة بل يتم تطويرها من خلال عملية مشابهة لتربية النباتات، حيث أن السلوك الذي يبدو قابلاً للتنبؤ ويمكن التحكم فيه يمكن أن يصبح سريعاً غير قابل للتنبؤ في الطبيعة.
“مخادع” مثل البشر
من جانبهم فحص باحثون من معهد ماساتشوستس للتكنولوجيا (“ام اي تي”) برنامج ذكاء اصطناعي صممه “ميتا” يسمى “شيشرو”، والذي، من خلال الجمع بين خوارزميات للتعرف على اللغة الطبيعية وأخرى للإستراتيجية، كان قادراً على التغلب على البشر في اللعبة اللوحية Diplomacy (“دبلوماسي”).
وحظي هذا الأداء بثناء الشركة الأم لفيسبوك في عام 2022 وتم تفصيله في مقال نُشر عام 2022 في مجلة “ساينس”.
وكان بيتر بارك يشكك في ظروف فوز “شيشرو” وفقاً لميتا، التي أكدت أن البرنامج كان “صادقاً ومفيداً في الأساس”، وغير قادر على الغش أو الخداع.