يُعرف بعض الأشخاص بقدرتهم على فهم ما لم يقله الشخص الذي يتحدث إليهم، من خلال نبرة صوته أو لغة جسده. بينما قد لا يمتلك الجميع هذه القدرة، إلا أنّ بحثًا جديدًا أجراه خبراء في معهد ماكس بلانك الألماني يُشير إلى أنّ تقنيات الذكاء الاصطناعي يمكن أن تُساعد في فهم أفضل للمشاعر التي لا يعبّر عنها أصحابها.


يقول هانس دايمرلينغ، الباحث في معهد ماكس بلانك للتطور البشري: "يمكن تدريب تقنيات التعلّم الآلي أو الذكاء الاصطناعي لكي تتعرّف إلى المشاعر من خلال تحليل مسامع صوتية مدتها لا تزيد على 1.5 ثانية."

أضاف دايمرلينغ: "حقّقت هذه التقنيات مستوًى من الدقة في التعرف إلى المشاعر يماثل دقة البشر عندما يتعلق الأمر برصد مشاعر المرح أو الغضب أو الحزن أو الخوف، أو المشاعر المحايدة أثناء الحديث."

توصل دايمرلينغ وزملاؤه في المعهد إلى هذه الاستنتاجات بعد اختبارات مبتكرة تُظهر قدرة نماذج الذكاء الاصطناعي على "التعرف الدقيق إلى المشاعر، بغضّ النظر عن اللغة أو الفروق الثقافية، أو المحتوى الدلاليّ للحديث."

استخدم الباحثون في المعهد الألماني مجموعات البيانات الكندية والألمانية، وتوصلوا إلى أنه يمكن تحليل جمل "هراء" مرتّبة في مقاطع صوتية مقسّمة إلى ثانية ونصف الثانية.

يقولون إنّ هذه هي "المدة التي يحتاجها البشر للتعرف إلى المشاعر في الكلام"، وأقصر فترة زمنية تتيح التحكّم في المشاعر المتداخِلة.

اعترف فريق الباحثين أنّ بحثهم، الذي نُشرت نتائجه في مجلة "حدود علم النفس" (Frontiers in Psychology)، واجه "بعض القيود" ولم يحل بعض المشكلات المتعلقة بتداخل الجمل غير ذات المعنى في الحياة الحقيقية.

ومع ذلك، فإنّ هذه الدراسة تُشير إلى أنّ تقنيات الذكاء الاصطناعي قد تُساعد في تحسين مهارات التواصل بين الناس، وتُساعد في فهم بعضنا البعض بشكل أفضل.

تُثير هذه النتائج أيضًا تساؤلات حول استخدام هذه التقنيات في مجالات أخرى مثل العلاج النفسي والتعليم والتسويق.

 


المصدر : وكالات