احتيال صوتي جديد باستخدام الذكاء الاصطناعي
24-10-2023 06:31 AM GMT+03:00
تستخدم تقنيات الذكاء الاصطناعي في مجال التكنولوجيا الحديثة لتوفير العديد من الخدمات والميزات، لكنّها باتت أيضًا أداةً في أيدي المحتالين لارتكاب عمليات احتيال جديدة.
ومن أحدث هذه العمليات، استخدام تقنيات الذكاء الاصطناعي لإنشاء أصوات بشرية مزيفة تشبه أصوات أشخاص حقيقيين. وتستخدم هذه الأصوات في عمليات احتيال تهدف إلى سرقة الأموال أو المعلومات الشخصية من الضحايا.
وفي هذا الإطار، تعرض مستثمر أمريكي يدعى كلايف كاباتزنيك لمحاولة احتيال باستخدام صوت مزيف يشبه صوته. حيث تلقى المصرفي الذي يتعامل معه مكالمة هاتفية من شخص ادعى أنه كاباتزنيك، وحاول إقناعه بتحويل مبلغ مالي كبير إلى حساب آخر.
ولكن المصرفي شكّ في صحة المكالمة، ولاحظ أن صوت الشخص المتصل مختلف عن صوت كاباتزنيك الحقيقي. ولذلك، أبلغ المصرفي فريق الأمن في المصرف بالواقعة، وتم إيقاف عملية الاحتيال.
وهذه الحادثة ليست الأولى من نوعها، فقد شهدت الفترة الأخيرة زيادة في عمليات الاحتيال الصوتي المدعومة بالذكاء الاصطناعي. ويرجع ذلك إلى التطور السريع لتقنيات الذكاء الاصطناعي، وانخفاض تكلفة هذه التقنيات، وسهولة الحصول عليها.
ولمواجهة هذه التهديدات، تسعى المؤسسات المالية إلى تطوير تقنيات جديدة لاكتشاف عمليات الاحتيال الصوتي المدعومة بالذكاء الاصطناعي. كما تدعو هذه المؤسسات العملاء إلى توخي الحذر عند تلقي مكالمات هاتفية من أشخاص لا يعرفونهم.
المصدر : الشفافية نيوز