يواجه الذكاء الاصطناعي تحديًا جديدًا، وهو كيفية تعليمه محو الأخطاء. وقد عملت «غوغل ديب مايند» على تطوير خوارزمية مخصصة لمحو البيانات في نماذج لغوية مهمة، لكنّ بعض المختصين يبدون أقل اقتناعاً بفاعلية هذه الخوارزمية.


يواجه الذكاء الاصطناعي تحديًا جديدًا، وهو كيفية تعليمه محو الأخطاء. فعندما أبلغ السياسي الأسترالي براين هود عن أن نموذج الذكاء الاصطناعي «تشات جي بي تي» نسب إليه ماضيًا إجراميًا، لم يكن هناك حلاً قانونيًا أو فنيًا واضحًا لهذه المشكلة.

يرى المختصون أن مسألة «إلغاء التعلّم» أي جعل الذكاء الاصطناعي ينسى بعض ما تلقّنه، ستكون بالغة الأهمية في السنوات المقبلة، خصوصاً في ضوء التشريعات الأوروبية لحماية البيانات.

ويسعى المهندسون إلى حلول تتيح تحديداً أكبر، بحيث تُزال المعلومات الخاطئة من مجال معرفة أنظمة الذكاء الاصطناعي بغية وقف انتشارها.

وقد عملت «غوغل ديب مايند» المتخصصة في الذكاء الاصطناعي على معالجة هذه المشكلة، إذ نشر خبراء من الشركة الأميركية خوارزمية مخصصة لمحو البيانات في نماذج لغوية مهمة، كنموذجَي «تشات جي بي تي» و«بارد» (من «غوغل»).

وتتمثل الطريقة المستخدمة في إدخال خوارزمية تأمر الذكاء الاصطناعي بعدم أخذ بعض المعلومات المكتسبة في الاعتبار، ولا تتضمن تعديل قاعدة البيانات.

يرى بعض المختصين أن هذه الخوارزمية يمكن أن تكون «أداة مهمة جداً» لتمكين أدوات البحث من الاستجابة مثلاً لطلبات الحذف، عملاً بقواعد حماية البيانات الشخصية.

لكنّ آخرين يبدون أقل اقتناعاً بهذه الفاعلية، ويعدّون أن «الحل التقني ليس الحل الناجع».

ويقول براين هود إنه يعتقد أن الأساليب التي ينبغي استخدامها في الوقت الحالي يجب أن تبقى يدوية، وأن المستخدمين يجب أن يتحققوا من كل شيء، في الحالات التي تعطي فيها روبوتات الدردشة معلومات خاطئة.


المصدر : الشفافية نيوز