تواجه شركات التكنولوجيا تحديًا معقدًا ومثيرًا يتمثل في محو المعلومات الحساسة من نماذج الذكاء الاصطناعي التوليدي. بينما تسعى هذه الشركات إلى تعزيز قدرات الذكاء الاصطناعي، تبرز مشكلة "النسيان القسري" كعائق كبير، حيث تتطلب إزالة البيانات الخاصة أو المحمية بحقوق الطبع والنشر جهودًا تقنية ضخمة. أحدث الدراسات، التي ساهم فيها باحثون من جامعات رائدة ومحرك البحث "غوغل"، تكشف عن صعوبات جوهرية في تطبيق هذه التقنيات دون الإضرار بقدرات النماذج، مما يثير تساؤلات حول مستقبل الذكاء الاصطناعي وقدرته على التكيف مع القوانين والمتطلبات الأخلاقية.


تواجه شركات التكنولوجيا تحديًا كبيرًا يتمثل في محو المعلومات الحساسة من أنظمة الذكاء الاصطناعي التوليدي. حيث تبين أن تقنيات "النسيان القسري" التي تهدف إلى إزالة البيانات الخاصة أو المحمية بحقوق الطبع والنشر من هذه النماذج تواجه صعوبات كبيرة. تكمن المشكلة في أن هذه التقنيات غالبًا ما تضعف أداء نماذج الذكاء الاصطناعي إلى درجة تجعلها غير قابلة للاستخدام.

 

جاءت هذه النتائج في دراسة جديدة أعدها باحثون من جامعات واشنطن وبرينستون وشيكاغو وجنوب كاليفورنيا، بالإضافة إلى محرك البحث "غوغل". وأفادت الدراسة بأن تقنيات النسيان القسري المتاحة حاليًا ليست جاهزة للتطبيق العملي. نقل موقع "تيك كرانش" عن الباحثة ويجيا شي، طالبة الدكتوراه في علوم الكمبيوتر بجامعة واشنطن، قولها: "تُشير تقييماتنا إلى أن طرق النسيان القسري الممكنة حاليًا ليست فعالة بما يكفي ولا يمكن تطبيقها في الظروف الواقعية دون خسارة كبيرة في الأداء".

 

تعتمد نماذج الذكاء الاصطناعي التوليدي على تعلم الأنماط من خلال كميات ضخمة من البيانات مثل الأفلام والتسجيلات الصوتية والمقالات. وتستخدم هذه النماذج التنبؤات بناءً على هذه الأنماط لتوليد النصوص والصور والكلام والموسيقى والفيديوهات. وعلى الرغم من أن مطوري هذه النماذج يدافعون عن استخدام البيانات المتاحة عبر الإنترنت باعتبارها استخداماً عادلاً، إلا أن العديد من أصحاب حقوق الطبع والنشر يعترضون على ذلك وقد رفعوا دعاوى قضائية لإجبار المطورين على تغيير نهجهم.

 

ظهرت تقنيات "النسيان القسري" كحل محتمل لإزالة البيانات المحمية بحقوق الطبع والنشر، حيث تعتمد هذه التقنيات على خوارزميات تهدف إلى توجيه النماذج بعيداً عن البيانات المراد نسيانها. اختبرت شي وزملاؤها فاعلية هذه الخوارزميات عبر معيار "MUSE" الذي يقيس قدرة الخوارزمية على منع النماذج من إعادة إنتاج بيانات التدريب الأصلية. وأظهرت الدراسة أن خوارزميات النسيان قادرة على محو معلومات معينة، لكنها تؤثر أيضًا على أداء النموذج بشكل عام.

 

تشير هذه النتائج إلى أن تطوير حلول فعالة لمحو المعلومات سيحدد مستقبل تكنولوجيا الذكاء الاصطناعي. فالفشل في تحقيق ذلك قد يؤدي إلى تآكل الثقة في الذكاء الاصطناعي وتقييد إمكاناته الهائلة.


المصدر : Transparency News