أثار الإصدار الجديد من ChatGPT جدلاً واسعاً بسبب قدراته الجديدة، والتي شملت إمكانية الوصول إلى ما يحدث على شاشتك، مما أثار مخاوف بشأن خصوصية البيانات. في ظل هذه التهديدات، تسعى شركة أبل إلى تعزيز الأمان من خلال تطبيق ضمانات إضافية على استخدام ChatGPT ضمن نظامها الذكي الجديد.


أثار الإصدار الأحدث من ChatGPT، المعروف باسم ChatGPT-4o، قلقاً بين خبراء الذكاء الاصطناعي بسبب سياسة الخصوصية الفضفاضة الخاصة به. حيث كشفت مجلة Wired أن التطبيق الجديد يخزن سجلات الدردشة بنص عادي، ويتيح الوصول إلى كاميرا الحاسوب، مما يسمح لـ ChatGPT برؤية ما يراه المستخدم، وهو ما يثير تساؤلات حول كيفية استخدام هذه البيانات.

وفقاً لمستشار الذكاء الاصطناعي "أنجوس ألان"، فإن سياسة الخصوصية الخاصة بشركة OpenAI تمنحها الحق في جمع جميع مدخلات المستخدم واستخدامها لتدريب نماذجها. وأضاف ألان: "سياسة الخصوصية الخاصة بشركة OpenAI تنص صراحةً على جمع كل مدخلات المستخدم، بما في ذلك الصور وبيانات الصوت، مما يعني أن الإصدار الأحدث من ChatGPT يمكن أن يكون نظاماً ذكاء اصطناعي مكتسحاً يعيش على المنشطات."

تدابير أمان إضافية من شركة أبل

في المقابل، تعكف شركة أبل على تطبيق تدابير أمان إضافية لحماية خصوصية مستخدميها عند استخدام ChatGPT عبر نظامها الذكي الجديد. وتخطط أبل لاستخدام ChatGPT كخيار احتياطي للإجابة على الاستفسارات التي لا يمكن لـ Siri التعامل معها، مع ضمان حماية قوية للبيانات.

وقالت مستشارة الذكاء الاصطناعي "جولز لوف" إن الذكاء الاصطناعي الخاص بشركة أبل يوفر مستوى "استثنائياً" من الخصوصية. وأضافت أن الصفقة بين أبل وOpenAI تتضمن ضمانات لحماية الخصوصية، حيث تضمن شركة أبل إخفاء هوية جميع عمليات ChatGPT عبر أجهزتها، مما يعني أن خوادم OpenAI لن تكون على علم بهوية الشخص الذي قدم طلباً أو من يتلقى الرد.

كما تتضمن اتفاقية أبل مع OpenAI بنداً يقضي بعدم استخدام بيانات هذه العمليات كمواد تدريبية لنماذج ChatGPT، مما يعزز من حماية البيانات الشخصية للمستخدمين.

ومع ظهور التكنولوجيا الجديدة، تبرز أهمية التوازن بين الاستفادة من قدرات الذكاء الاصطناعي وأمان البيانات. بينما تستمر شركات التكنولوجيا في تحسين ميزاتها، من الضروري أن تكون هناك ضمانات قوية لحماية الخصوصية وضمان الشفافية في كيفية استخدام البيانات.


المصدر : وكالات