حرية – (7/3/2024)
تعمل النماذج اللغوية الكبيرة لشركتي “ميتا” و”أوبن أيه آي”، والتي تشكل أساساً لأدوات الذكاء الاصطناعي التوليدي الخاصة بهما، على نقل تحيزات على أساس الجنس، بحسب ما حذرت دراسة نشرتها منظمة “يونيسكو” مع اقتراب يوم المرأة العالمي.
وأكدت “يونيسكو” أن نموذجي “جي بي تي 2” و “جي بي تي 3.5” من “أوبن أيه آي” وبرنامج “لاما-2” من “ميتا”، تظهر بشكل قاطع تحيزاً ضد المرأة.
وأكد مساعد المدير العام لـ “يونيسكو” لشؤون الاتصالات والمعلومات توفيق الجلاصي أن “التمييز في العالم الحقيقي لا ينعكس في المجال الرقمي وحسب، بل يتصاعد فيه أيضاً”.
وأظهرت الدراسة التي أجريت بين أغسطس (آب) 2023 ومارس (آذار) 2024 أن هذه النماذج اللغوية أكثر ميلاً إلى ربط الأسماء المؤنثة بكلمات مثل “منزل” و”عائلة” و”أطفال”، في حين أن الأسماء المذكرة أكثر ارتباطاً بكلمات “تجارة” و”راتب” و”وظيفة”.
وطلب الباحثون من هذه الأدوات كتابة قصص عن أشخاص من أصول وأجناس مختلفة، فأظهرت النتائج أن القصص المتعلقة بـ”الأشخاص المتحدرين من الأقليات أو النساء كانت في معظم الأحيان أكثر تكراراً وتستند إلى صور نمطية”.
وعرض الرجل الإنجليزي كمدرس أو سائق أو موظف مصرف، بينما قدمت المرأة الإنجليزية في ما لا يقل عن 30 في المئة من النصوص على أنها بائعة هوى أو عارضة أزياء أو نادلة.
وأكدت المتخصصة في السياسات الرقمية والتحول الرقمي في “يونيسكو” ليونا فيرداديرو، في حديث إلى وكالة الصحافة الفرنسية، أن هذه الشركات “تفشل في تمثيل كل مستخدميها”.
ومع الاستخدام المتزايد لتطبيقات الذكاء الاصطناعي هذه من عامة الناس والشركات، يصبح لديها “القدرة على تشكيل تصور لملايين الأشخاص”، على قول المديرة العامة لـ “يونيسكو” أودري أزولاي.
وأضافت في بيان أن “وجود أدنى قدر من التحيز الجنسي في محتواها يمكن أن يزيد بصورة كبيرة من عدم المساواة في العالم الحقيقي”.
ولمكافحة هذه التحيزات أوصت “يونيسكو” الشركات العاملة في هذا القطاع بأن تعتمد التنويع أكثر ضمن فرقها من المهندسين، وزيادة عدد النساء تحديداً.
وأشارت إلى أن النساء يمثلن فقط 22 في المئة من أعضاء الفرق العاملة في مجال الذكاء الاصطناعي على مستوى العالم، بحسب المنتدى الاقتصادي العالمي.
ودعت “يونيسكو” الحكومات إلى “إقرار مزيد من القوانين لاعتماد ذكاء اصطناعي يستند إلى معايير أخلاقية”.