تكنولوجيا

الذكاء الاصطناعي تنقصه “نعمة النسيان”.. فما تبعات ذلك؟ – DW – 2023/12/11

عندما اكتشف براين هود أن “تشات جي بي تي” نسب إليه ماضياً إجرامياً، وجد هذا السياسي الأسترالي نفسه في مواجهة معضلة ينكبّ المهندسون جاهدين على محاولة حلّها، وتتمثل في كيفية تعليم الذكاء محوَ الأخطاء.

فالخيار القانوني المتمثل في تلويح براين هود في أبريل/نيسان الفائت برفع دعوى تشهير على شركة “أوبن إيه آي” (منشئة “تشات جبي بي تي”) لا يبدو حلاً مناسباً. كذلك لا يكمن الحلّ في إعادة ضبط معايير الذكاء الاصطناعي بالكامل، إذ إن تدريب النموذج مجدداً يستغرق وطناً طويلاً وهو مكلف جداً.

ويرى المختصون أن مسألة “إلغاء التعلّم” أي جعل الذكاء الاصطناعي ينسى بعض ما تلقّنه، ستكون بالغة الأهمية في السنوات المقبلة، وخصوصاً في ضوء التشريعات الأوروبية لحماية البيانات.

وتؤكد أستاذة علوم المعلومات في جامعة “آر إم آي تي” في ملبورن ليسا غيفن أن “القدرة على محو البيانات الموجودة في قواعد بيانات التعلّم هي موضوع مهم جداً”. لكنها ترى أن جهداً كبيراً لا يزال مطلوباً في هذا المجال نظراً إلى النقص الحالي في المعرفة في شأن كيفية عمل الذكاء الاصطناعي.

ففي ظل الكم الهائل من البيانات التي يُدرَّب الذكاء الاصطناعي عليها، يسعى المهندسون إلى حلول تتيح تحديداً أكبر، بحيث تُزال المعلومات الخاطئة من مجال معرفة أنظمة الذكاء الاصطناعي بغية وقف انتشارها.

خواريزمية تعالج المشكلة؟

 واكتسب الموضوع زخما خلال السنوات الثلاث أو الأربع الأخيرة، على ما يوضح لوكالة فرانس برس الباحث الخبير في هذا المجال، مقداد كرمانجي، من جامعة وارويك البريطانية. وعملت “غوغل ديب مايند” المتخصصة في الذكاء الاصطناعي على معالجة هذه المشكلة، إذ نشر خبراء من الشركة الأميركية الشهر المنصرم مع كورمانجي، خوارزمية مخصصة لمحو البيانات في نماذج لغوية مهمة، كنموذجَي “تشات جي بي تي” و”بارد” (من “غوغل”).

وانكبّ أكثر من ألف خبير شاركوا في مسابقة أطلقتها الشركة الأميركية على العمل ما بين يوليو/تموز وسبتمبر/أيلول لتحسين أساليب “إلغاء تعلّم” الذكاء الاصطناعي. وتتمثل الطريقة المستخدمة المشابهة لما توصلت إليه أبحاث أخرى في هذا المجال، في إدخال خوارزمية تأمر الذكاء الاصطناعي بعدم أخذ بعض المعلومات المكتسبة في الاعتبار، ولا تتضمن تعديل قاعدة البيانات.

ويشدد مقداد كرمانجي على أن هذه العملية يمكن أن تكون “أداة مهمة جداً” لتمكين أدوات البحث من الاستجابة مثلاً لطلبات الحذف، عملاً بقواعد حماية البيانات الشخصية.

تشات جي بي تي لا يعرف نعمة النسيان.
تشات جي بي تي لا يعرف نعمة النسيان.صورة من: Jaap Arriens/NurPhoto/picture alliance

شكوك حول فعاليتها!

 ويؤكد أن الخوارزمية التي تم التوصل إليها أثبتت فاعليتها أيضاً في إزالة المحتوى المحميّ بموجب حقوق المؤلف أو في تصحيح بعض التحيزات. لكنّ آخرين كمسؤول الذكاء الاصطناعي في “ميتا” (فيسبوك وإنستعرام) يانّ لوكان، يبدون أقل اقتناعاً بهذه الفاعلية. ويوضح لوكان لوكالة فرانس برس أنه لا يقول إن هذه الخوارزمية “غير مجدية أو غير مثيرة للاهتمام أو سيئة”، بل يرى أن “ثمة أولويات أخرى”.

ويعتبر أستاذ الذكاء الاصطناعي في جامعة إدنبره، مايكل روفاتسوس أن “الحل التقني ليس الحل الناجع”. ويشرح أن “إلغاء التعلم” لن يتيح طرح أسئلة أوسع، ككيفية جمع البيانات، ومن المستفيد منها، أو من يجب أن يكون مسؤولا عن الضرر الذي يسببه الذكاء الاصطناعي.

 ومع أن قضية براين هود عولجت، من دون تفسير، بعدما حظيت باهتمام إعلامي واسع أثمرَ تصحيح البيانات التي تعالجها “تشات جي بي تي”، فإنه يعتبر أن الأساليب التي ينبغي استخدامها في الوقت الراهن يجب أن تبقى يدوية. ويقول الرجل الأسترالي “ينبغي أن يتحقق المستخدمون من كل شيء، في الحالات التي تعطي فيها روبوتات الدردشة معلومات خاطئة”.

إ.م/ أ.ح (أ ف ب)


مصدر الخبر

للمزيد Facebook

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى