يشير التقرير الأخير الذي أصدرته الأمم المتحدة إلى استخدام الجيش الإسرائيلي لتقنيات الذكاء الاصطناعي في تحديد أهدافه خلال الحرب الأخيرة ضد حركة حماس في قطاع غزة. وبينما يشعر الأمين العام للأمم المتحدة بقلق بالغ تجاه هذا التطور، تظهر التقارير أن هذه التقنيات قد أدت إلى زيادة الخسائر المدنية، مما يطرح أسئلة قانونية وأخلاقية حول استخدام الذكاء الاصطناعي في الحروب وتأثيره على الأفراد العسكريين والمدنيين.


قد أعلن الأمين العام للأمم المتحدة، أنطونيو غوتيريش، يوم الجمعة، عن قلقه البالغ بشأن معلومات تفيد باستخدام الجيش الإسرائيلي لتقنيات الذكاء الاصطناعي لتحديد أهدافه في الحرب ضد حركة حماس في قطاع غزة. وأعرب غوتيريش عن رفضه لربط "قرارات الحياة والموت بالحسابات التي تقوم بها الخوارزميات".

وأوضح غوتيريش أن القلق يأتي نتيجة لتقارير تشير إلى استخدام الذكاء الاصطناعي كأداة لتحديد الأهداف في حملة القصف التي تشنها إسرائيل، خاصة في المناطق السكنية المزدحمة بالسكان، مما أدى إلى زيادة الخسائر المدنية.

وكانت إسرائيل قد اعتمدت في قصفها لقطاع غزة على قاعدة بيانات مدعومة بالذكاء الاصطناعي لتحديد الأهداف المحتملة، حيث استطاعت تحديد حوالي 37 ألف هدف محتمل. وذكرت صحيفة الغارديان أن النظام المعروف باسم "لافندر" كان له دور محوري في هذه الحرب، حيث قام بمعالجة كميات كبيرة من البيانات لتحديد الأهداف المحتملة بسرعة.

وتسببت الهجمات التي تم تحديدها بواسطة "لافندر" في استخدام ذخائر غير موجهة، المعروفة بـ "القنابل الغبية"، في تدمير منازل بأكملها وقتل جميع سكانها.

وأثار استخدام التقنيات الذكاء الاصطناعي مجموعة من الأسئلة القانونية والأخلاقية، كما أحدث تحولًا في العلاقة بين الأفراد العسكريين والآلات. وأعرب خبراء القانون الإنساني الدولي عن قلقهم إزاء قبول الجيش الإسرائيلي لنسب الأضرار الجانبية التي تصل إلى 20 مدنيًا، مما يتطلب تقييمًا للتناسب في كل ضربة على حدة.

تم تطوير النظام "لافندر" من قبل قسم استخبارات النخبة في الجيش الإسرائيلي، وقد تم استخدامه في تحديد الأهداف وتنفيذ الهجمات خلال الحرب ضد حماس في قطاع غزة، والتي بدأت في السابع من أكتوبر.


المصدر : Transparency News