في عصر يتسم بانتشار التكنولوجيا وتطورها السريع، تزداد المخاوف بشأن تأثير الذكاء الاصطناعي على العمليات الديمقراطية وعمليات الاقتراع في العديد من الدول حول العالم. تحت هذا السياق، تتصاعد دعوات مئات من مجموعات المجتمع المدني لشركات التكنولوجيا الكبرى، حثًّا على تعزيز جهودها في مكافحة المعلومات المضللة التي يُنتجها الذكاء الاصطناعي.


في ظل اقتراب موسم الانتخابات في العديد من الدول حول العالم، تزداد المخاوف بشأن تأثير المعلومات المضللة والتي يمكن أن تنشرها التقنيات الحديثة، خاصة الذكاء الاصطناعي، على عمليات الاقتراع والديمقراطية. وفي هذا السياق، حثت مئات من مجموعات المجتمع المدني رؤساء شركات التكنولوجيا الكبرى على تكثيف جهودهم في مكافحة الأكاذيب والمعلومات المضللة.

وقد وجه تحالف النشطاء رسالة إلى عدد من الشركات التقنية البارزة، منها "ميتا" و"رديت" و"غوغل" و"إكس"، بالإضافة إلى عدد من المديرين التنفيذيين الآخرين في هذا القطاع، داعين إياهم إلى اتخاذ سياسات أكثر فعالية لمواجهة التدفق الكبير للمعلومات السياسية الخاطئة.

وفي سياق مماثل، تطالب المجموعات الناشطة شركات التكنولوجيا بتشديد سياساتها المتعلقة بالإعلانات السياسية، بما في ذلك حظر التزييف العميق ووضع علامات على أي محتوى يتم إنشاؤه بواسطة الذكاء الاصطناعي.

وفي ظل تزايد مخاطر المعلومات المضللة التي يمكن أن تنتجها تقنيات الذكاء الاصطناعي، يعتبر علامات مائية وتقنيات التعرف على المحتوى الناتج عن هذه التقنيات أموراً حيوية للتصدي لهذه الظاهرة.

ومع اقتراب موسم الانتخابات في أكثر من 60 دولة حول العالم، تكمن أهمية تعزيز جهود مكافحة المعلومات المضللة والتدخلات السياسية في وسائل التواصل الاجتماعي، حيث تلعب هذه المنصات دوراً حاسماً في توجيه وتشكيل آراء الناخبين.

على صعيد آخر، تدعو المجموعات الحقوقية شركات التكنولوجيا إلى تعزيز شفافية بشأن استخدام البيانات التي تدعم نماذج الذكاء الاصطناعي، مع التأكيد على أهمية مكافحة الدعاية الخادعة والتصدي للتدخلات الخطيرة في العمليات الديمقراطية.


المصدر : Transparency News