ذكاء اصطناعي متحيز يُورث تحيزاته للبشر
16-10-2023 08:54 AM GMT+03:00
كشفت دراسة إسبانية حديثة أن البشر يرثون تحيزات الذكاء الاصطناعي، حتى بعد انتهاء التفاعل معه، ما يشكل خطراً على قرارات البشر المستقبلية.
أجرى الدراسة باحثون من قسم علم النفس بجامعة ديوستو الإسبانية، ونشروها في دورية "ساينتفيك روبوتس" في 3 أكتوبر (تشرين الأول) 2023.
وأجرى الباحثون سلسلة تجارب ثلاث، شارك فيها متطوعون أجروا تشخيصاً طبياً بمساعدة نظام ذكاء اصطناعي متحيز.
وأظهرت النتائج أن المتطوعين ارتكبوا الأخطاء نفسها التي ارتكبها الذكاء الاصطناعي، حتى بعد انتهاء التفاعل معه.
وقالت الباحثة الأولى المشاركة في الدراسة، لوسيا فيسنتي، إن "الدراسة توضح أن المعلومات المتحيزة بواسطة نموذج الذكاء الاصطناعي يمكن أن يكون لها تأثير سلبي دائم على القرارات البشرية".
وأضافت أن "الذكاء الاصطناعي لن يرث تحيزاته من البيانات البشرية فحسب، بل يمكن للأشخاص أن يرثوا تلك التحيزات منه، وهو ما ينذر بخطر وقوع البشر في فخ حلقة خطيرة من الأخطاء الممنهجة".
وأشارت الباحثة إلى أن "الاكتشاف يشير إلى الحاجة لمزيد من الأبحاث النفسية ودراسات متعددة التخصصات حول عمليات التفاعل بين الذكاء الاصطناعي والإنسان".
وأكدت أن "هناك حاجة إلى التنظيم القائم على الأدلة العلمية؛ لضمان «الوصول إلى تقنيات ذكاء اصطناعي عادلة وأخلاقية»، مع الأخذ في الاعتبار الجوانب النفسية للأنشطة التي ترتكز على التعاون بينه وبين البشر، وليس الميزات التقنية له فقط".
وعن إمكانية تفادي تلك الأخطاء، قالت الباحثة: "من الضروري تحقيق فهم أفضل لكيفية بناء نماذج الذكاء الاصطناعي للتوقعات والنتائج، والأهم من ذلك نشر المستويات الفعلية لكل من الدقة والأخطاء في تلك النماذج".
وأكدت أن "زيادة المعرفة بأخطاء الذكاء الاصطناعي يمكن أن تقلل من ثقة الناس المفرطة في تلك النماذج، وربما يمكنهم اكتشاف تحيزاته ومواجهتها مبكراً".
وأضافت أن "الأشخاص الذين يتعاونون مع الذكاء الاصطناعي يجب أن يحصلوا على التدريب والوقت اللازمين لاكتشاف أخطائه، وكذلك التقييم الصحيح للنتائج والإجراءات المتولدة عنه عندما يكونون في شك منها".
وأكدت الباحثة أن "أفضل طريقة لتجنب تحيز الذكاء الاصطناعي هي أن يتم تنفيذ تلك المهام من قِبل البشر، مع تنبيه نظم الذكاء الاصطناعي للأخطاء المحتملة، ومن ثم تدريبه على تلافيها".
وخلصت الدراسة إلى أن "الذكاء الاصطناعي المتحيز يشكل خطراً على قرارات البشر المستقبلية، ويمكن أن يؤدي إلى حلقة مفرغة من الأخطاء الممنهجة".
المصدر : الشفافية نيوز