تلاش پنتاگون برای باز کردن جعبه سیاه هوش مصنوعی
کِرگ مارتل، مدیر ارشد هوش مصنوعی و دیجیتال پنتاگون، خواستار ارائه اطلاعات بیشتر از سوی شرکتهای هوش مصنوعی درباره نحوه ساخت نرمافزار هوش مصنوعی است تا این نهاد بتواند با اطمینان، از این فناوری استفاده کند. نرمافزار هوش مصنوعی روی مدلهای زبانی بزرگ متکی است که از مجموعه داده عظیمی برای کارکرد ابزارهایی مانند چتباتها و تولیدکنندگان استفاده میکنند. این سرویسها معمولا بدون نشان دادن کارهای داخلی خود، در یک به اصطلاح جعبه سیاه، عرضه میشوند. در نتیجه، برای کاربران دشوار است که درک کنند چطور این فناوری، به تصمیمات رسیده یا چه چیزی باعث بهتر یا بدتر شدن آن به مرور زمان میشود. مارتل گفت: «ما فقط نتیجه نهایی مدلسازی را دریافت میکنیم و این کافی نیست.
پنتاگون هیچ ایدهای ندارد که این مدلها چطور ساخته شدهاند یا از چه دادههایی استفاده میکنند. همچنین شرکتها توضیح نمیدهند سیستمهایشان چه خطراتی ممکن است ایجاد کنند.» این مقام وزارت دفاع آمریکا، چنین مدلهایی را معادل «فناوری بیگانه یافت شده» برای وزارت دفاع توصیف کرد. وی همچنین نگران است که فقط عدهای از مردم پول کافی برای ساختن مدلهای زبانی بزرگ دارند. مارتل هیچ شرکتی را با نام مشخص نکرد، اما مایکروسافت، آلفابت، گوگل و آمازون از جمله شرکتهایی هستند که به همراه استارتآپهای OpenAI و آنتروپیک سرگرم توسعه مدلهای زبانی بزرگ برای بازار تجاری هستند.
مارتل از صنعت هوش مصنوعی و دانشگاهیان دعوت کرد در فوریه به واشنگتن رفته و به نگرانیهای مربوط بپردازند. هدف سمپوزیوم پنتاگون در زمینه داده دفاعی و هوش مصنوعی، این است که مشخص کند مدلهای زبانی بزرگ، برای انجام چه کارهایی میتوانند مناسب باشند. تیم مارتل که یک گروه ویژه را مامور ارزیابی مدلهای زبانی بزرگ کرده است، تاکنون ۲۰۰ کاربرد احتمالی برای آنها در داخل وزارت دفاع یافته است. بر اساس گزارش بلومبرگ، مارتل گفت ما نمیخواهیم مدلهای زبانی بزرگ را متوقف کنیم. میخواهیم استفاده از آنها، مزایا و خطراتی که دارند و نحوه خنثیسازی آنها را درک کنیم.