گوترش درباره خطرات استفاده از هوش مصنوعی در جنگ هشدار داد
گوترش خواستار تدوین مکانیسمهایی بینالمللی برای محافظت از بشر در برابر مخاطرات احتمالی هوش مصنوعی شده و درباره هر گونه تاخیر در این زمینه هشدار داده است. وی گفت: «هیچ کشوری نباید اقدام به طراحی، توسعه، استقرار یا استفاده از کاربردهای نظامی هوش مصنوعی در درگیریهای مسلحانه کند. چنین کاربردهای ناقض قوانین بینالمللی و حقوق بشری هستند.» بعد از آغاز جنگ اسرائیل در غزه برخی از رسانههای غربی گزارش داده بودند رژیم صهیونیستی با توسعه برنامهای به نام «گاسپل» از هوش مصنوعی برای هدف قرار دادن اهداف مختلف از جمله مناطق مسکونی استفاده میکند. این مساله در آن زمان یکی از دلایل اصلی بالا بودن تلفات غیرنظامیان در جنگ غزه عنوان شده بود. گوترش بدون نام بردن از رژیم صهیونیستی گفته است: «درگیریهای اخیر به میادینی برای آزمایش کاربردهای نظامی هوش مصنوعی تبدیل شدهاند.» گوترش گفت مسالهای که بسیارنگرانکننده است احتمال تلفیق هوش مصنوعی با سلاحهای هستهای و طراحی سامانههای کوانتومی هوش مصنوعی است که میتوانند امنیت جهان را به خطر بیندازند. او تاکید کرد: «سرنوشت بشریت نباید به جعبه سیاه یک الگوریتم سپرده شود.» پیش از این برخی پژوهشها در زمینه روانشناسی اجتماعی، از جمله آزمایشهای «استانلی میلگرام»، روانشناس آمریکایی در دانشگاه ییل نقش بمبهای از راه دور در تشدید خشونت انسانها علیه یکدیگر را مورد تایید قرار دادهاند. از جمله یافتههای میلگرام در آزمایشهای مهمی که او و همکارانش در زمینه نقش اطاعت از مراجع قدرت در ارتکاب خشونت علیه همنوعان انجام دادهاند این بود که جنگافزارهای کنترل از راه دور به آدمی امکان میدهند همنوعان خود را از فاصلههای دور نابود کند و از این طریق، علاوه بر دور نگاه داشتن خود از دیدن رنج و عذاب آنها، این احساس را در خود ایجاد کند که مسوولیت مرگ دشمن بر عهده خودش نیست.