تُقدم "أوبن إيه آي" أداة "فويس إنجين" لاستنساخ الصوت بمخاطر محدودة، وسط مخاوف من إساءة استخدامها في عمليات الاحتيال أو الجرائم، خاصةً في عام الانتخابات. وتُطبق الشركة قواعد صارمة على استخدام الأداة، وتُجري اختبارات محدودة مع شركاء من مختلف القطاعات. وتُعدّ "فويس إنجين" تطورًا هامًا في مجال الذكاء الاصطناعي التوليدي، لكن يبقى من الواضح أنّ إمكانياتها تثير مخاوف أخلاقية وقانونية كبيرة.


أوضحت "أوبن إيه آي" في بيان لها أنّها تدرك مخاطر إساءة استخدام "فويس إنجين" في عمليات الاحتيال أو الجرائم، ولذلك ستُطبق قواعد صارمة على استخدامها.

وتشمل هذه القواعد الحصول على موافقة صريحة من أي شخص قبل استخدام صوته، وضرورة الإشارة بوضوح إلى المستمعين أن الأصوات ابتُكرت بواسطة الذكاء الاصطناعي.

كما ستُطبق الشركة مجموعة من الإجراءات الأمنية، بينها العلامة المائية حتى نتمكن من تتبع أصل كل صوت تبتكره الأداة الجديدة، بالإضافة إلى مراقبة استباقية لاستخدامها.

أشارت "أوبن إيه آي" إلى أنّها تُجري اختبارات محدودة على "فويس إنجين" مع شركاء من حكومات ووسائل إعلام ومجالات الترفيه والتعليم والمجتمع المدني وقطاعات أخرى.

وتأتي هذه الاختبارات بعد حادثة وقعت في الولايات المتحدة خلال الانتخابات التمهيدية، حيث قام مستشار يعمل في الحملة الرئاسية لمنافس ديمقراطي لجو بايدن، بابتكار برنامج آلي انتحل شخصية الرئيس الأميركي المرشح لولاية جديدة.

ودعا الصوت المشابه لصوت جو بايدن الناخبين إلى الامتناع عن التصويت في الانتخابات التمهيدية في نيو هامبشر. حظرت الولايات المتحدة منذ ذلك الحين الدعوات التي تستخدم فيها الأصوات المستنسخة المولّدة بواسطة الذكاء الاصطناعي، من أجل مكافحة عمليات الاحتيال السياسية أو التجارية.

يخشى الباحثون في مجال التضليل الإعلامي من إساءة استخدام تطبيقات الذكاء الاصطناعي التوليدية، وخصوصاً أدوات استنساخ الصوت، التي تُعدّ رخيصة وسهلة الاستخدام ويصعب تتبعها. أكدت "أوبن إيه آي" أنّها تعتمد "نهجاً حذراً" قبل نشر "فويس إنجين" على نطاق أوسع، وذلك بسبب احتمال إساءة استخدام الأصوات الاصطناعية.

وتُشكل أداة "فويس إنجين" تطورًا هامًا في مجال الذكاء الاصطناعي التوليدي، لكن يبقى من الواضح أنّ إمكانياتها تثير مخاوف أخلاقية وقانونية كبيرة.


المصدر : Transparency News