گوترش درباره خطرات استفاده از هوش مصنوعی در جنگ هشدار داد

 گوترش خواستار تدوین مکانیسم‌هایی بین‌المللی برای محافظت از بشر در برابر مخاطرات احتمالی هوش مصنوعی شده و درباره هر گونه تاخیر در این زمینه هشدار داده است. وی گفت: «هیچ کشوری نباید اقدام به طراحی، توسعه، استقرار یا استفاده از کاربردهای نظامی هوش مصنوعی در درگیری‌های مسلحانه کند. چنین کاربردهای ناقض قوانین بین‌المللی و حقوق بشری هستند.» بعد از آغاز جنگ اسرائیل در غزه برخی از رسانه‌های غربی گزارش داده بودند رژیم صهیونیستی با توسعه برنامه‌ای به نام «گاسپل» از هوش مصنوعی برای هدف قرار دادن اهداف مختلف از جمله مناطق مسکونی استفاده می‌کند. این مساله در آن زمان یکی از دلایل اصلی بالا بودن تلفات غیرنظامیان در جنگ غزه عنوان شده بود. گوترش بدون نام بردن از رژیم صهیونیستی گفته است: «درگیری‌های اخیر به میادینی برای آزمایش کاربردهای نظامی هوش مصنوعی تبدیل شده‌اند.» گوترش گفت مساله‌ای که بسیارنگران‌کننده است احتمال تلفیق هوش مصنوعی با سلاح‌های هسته‌ای و طراحی سامانه‌های کوانتومی هوش مصنوعی است که می‌توانند امنیت جهان را به خطر بیندازند. او تاکید کرد: «سرنوشت بشریت نباید به جعبه سیاه یک الگوریتم سپرده شود.» پیش از این برخی پژوهش‌ها در زمینه روان‌شناسی اجتماعی، از جمله آزمایش‌های «استانلی میلگرام»، روان‌شناس آمریکایی در دانشگاه ییل نقش بمب‌های از راه دور در تشدید خشونت انسان‌ها علیه یکدیگر را مورد تایید قرار داده‌اند. از جمله یافته‌های میلگرام در آزمایش‌های مهمی که او و همکارانش در زمینه نقش اطاعت از مراجع قدرت در ارتکاب خشونت علیه همنوعان انجام داده‌اند این بود که جنگ‌افزارهای کنترل از راه دور به آدمی امکان می‌دهند همنوعان خود‌ را از فاصله‌های دور نابود کند و از این طریق، علاوه بر دور نگاه داشتن خود از دیدن رنج و عذاب آنها، این احساس را در خود ایجاد کند که مسوولیت مرگ دشمن بر عهده خودش نیست.