أعادت شركة OpenAI، المطورة الرائدة للذكاء الاصطناعي، سام ألتمان إلى رئاستها بعد استقالته. وجاء هذا بعد أن هدد جميع موظفي الشركة البالغ عددهم 750 موظفا تقريبا بالاستقالة إذا لم تتم إعادته.


وبحسب ما ورد كانت شركة OpenAI تعمل على نموذج ذكاء اصطناعي جديد قبل استقالة ألتمان والذي كان قوياً للغاية لدرجة أنه تسبب في مخاوف تتعلق بالسلامة بين الموظفين في الشركة.

وذكر تقرير في صحيفة "الغارديان" أن النموذج، المسمى Q، والذي يُنطق باسم "Q-Star" كان قادراً على حل مسائل رياضية أساسية لم يسبق له مثيل.*

وأضاف التقرير أن وتيرة التطوير وراء النظام قد أثارت قلق بعض الباحثين في مجال السلامة، بحيث يمكن النظر إلى القدرة على حل المسائل الرياضية على أنها تطور مهم في الذكاء الاصطناعي.

وجاء هذا في حين يشعر العديد من الخبراء بالقلق من أن شركات مثل OpenAI تتحرك بسرعة كبيرة جدا نحو تطوير الذكاء الاصطناعي العام (AGI)، وهو المصطلح الذي يشير إلى نظام يمكنه أداء مجموعة واسعة من المهام على مستوى الذكاء البشري أو أعلى من مستويات الذكاء البشري - والذي يمكنه، من الناحية النظرية ، التهرب من السيطرة البشرية.

وكانت OpenAI قد تأسست كمشروع غير ربحي مع مجلس إدارة يحكم شركة تجارية فرعية يديرها ألتمان، على أن مايكروسوفت كانت أكبر مستثمر في الأعمال التجارية الهادفة للربح. وكجزء من الاتفاق المبدئي لعودة ألتمان، سيكون لدى OpenAI مجلس إدارة جديد يرأسه بريت تايلور، الرئيس التنفيذي المشارك السابق لشركة البرمجيات Salesforce.

وفيما يلي بعض التفاصيل حول المخاوف التي أثارها نموذج Q:*

  • أعرب بعض الباحثين في OpenAI عن قلقهم من أن النموذج قد يكون قادراً على استخدام قدراته الحسابية الهائلة للوصول إلى المعلومات وإفسادها أو استخدامها لأغراض ضارة.
  • كما أبدى بعض الخبراء مخاوفهم من أن النموذج قد يكون قادراً على تطوير وعي ذاتي أو ذكاء مستقل، مما قد يؤدي إلى عواقب وخيمة محتملة.

ومن غير الواضح ما إذا كانت مخاوف السلامة هذه مبررة أم لا. ومع ذلك، فإنها تسلط الضوء على التحديات التي تواجهها شركات الذكاء الاصطناعي التي تعمل على تطوير أنظمة قوية للغاية.


المصدر : الشفافية نيوز