حرية – (22/3/2023)
كشفت دراسة حديثة أشرف عليها باحثون من شركة OpenAI المطورة لبرنامج ChatGPT ونشرتها جامعة كورنيل الأميركية، أن نماذج الذكاء الاصطناعي اللغوية، المعروفة باسم (نماذج اللغة الكبيرة) LLMs، ستؤثر بشكلٍ أو بآخر في مهام العمل اليومية لنسبة تصل إلى 80٪ من القوى العاملة في الولايات المتحدة.
وذكرت الدراسة أن قرابة 20% من العاملين، سيجدون خلال الأعوام القليلة القادمة أن التقنية الجديدة ستتولى تشغيل نصف مسؤولياتهم تقريبًا.
وقالت الدراسة إن الذكاء الاصطناعي سيؤثر بنسب متفاوتة في المهن المختلفة، إذ إن العاملين بالمجال العلمي سيكونون من بين الأقل تأثرًا، في حين أن أصحاب المهن الإدارية والأعمال المكتبية، والعاملين في المجالات الإبداعية مثل صانعي المحتوى ومطوري البرمجيات والعاملين في مجال التسويق، سيكونون ضمن أكثر الفئات تأثرًا.
ونوه القائمون على الدراسة بأن التأثير المقصود ليس سلبيًا بالضرورة، وهو يعكس مدى استفادة القطاعات المذكورة من تقنيات الذكاء الاصطناعي، وهو لا يعني أن هذه التقنية ستصبح بديلًا عن القوى العاملة في المجالات المتأثرة، بل داعمًا ومُساعدًا لها في معظم الحالات.
وتطرقت الدراسة إلى إمكانيات نموذج GPT-4 الذي أعلنت عنه شركة OpenAI الأسبوع الماضي. وقد حقق النموذج الجديد أداءً مقاربًا للأداء البشري على عدة أصعدة، وذلك بعد إخضاعه لمجموعة من الاختبارات المهنية والأكاديمية. إذ نجح النموذج الجديد في اجتياز اختبارٍ يُحاكي امتحان ممارسة مهنة المحاماة بترتيبٍ يضعه بين الـ 10% الأوائل من الخرّيجين.
تتمثل إحدى الفوائد الرئيسية لنماذج الذكاء الاصطناعي اللغوية على غرار ChatGPT في تعزيزها للإبداع والإنتاجية من خلال تقديم المساعدة والإلهام لمستخدميها. على سبيل المثال، أعلنت جوجل ومايكروسوفت آخرًا عن إدماج ميزات الذكاء الاصطناعي في خدمات كتابة النصوص التابعة لهما، مما يمكن أن يساعد المستخدمين في كتابة المحتوى وتحسينه بكفاءة أكبر. وبالمثل، يعد ChatGPT أداة يمكن أن تساعد رواد الأعمال على التوصل إلى أفكار جديدة أو مساعدتهم في تطوير مشاريعهم. يمكن للذكاء الاصطناعي أيضًا تقليل العبء الإداري عبر تولي المهام الروتينية والسماح للموظفين بالتركيز على المهام الأكثر أهمية.
ومع ذلك، تطرح هذه التقنية أيضًا بعض التحديات والمخاطر، مثل ضمان جودة وموثوقية المحتوى، إذ إن نماذج الذكاء الاصطناعي عرضة لإنتاج مخرجات غير دقيقة أو غير ملائمة تحتاج إلى التحقق والمراجعة من قبل خبراء بشريين. لذا يحتاج مستخدمو التقنية إلى تطوير تفكيرهم النقدي ومهارات التحقق من المعلومات لتقييم صحة المُخرَجات.
ومن التحديات الأخرى التي تطرحها هذه التقنية، احتمالية تحيزها بشكلٍ يعكس البيانات التي دُرِّبَت عليها. على سبيل المثال، قد ينتج عن الذكاء الاصطناعي محتوى تمييزي ضد مجموعات معينة أو ينتهك حقوق الملكية الفكرية. لذلك، يجب أن يكون المستخدمون على وعي بالتأثيرات الأخلاقية والاجتماعية لمخرجات الذكاء الاصطناعي.