هشدار گوگل درباره ارائه اطلاعات محرمانه به چت‌بات‌های هوش مصنوعی

 زیرا شرکت‌های هوش مصنوعی با استفاده از پیام‌های ارسال شده توسط کاربران، درک زبان چت‌بات‌های خود را آموزش می‌دهند. همان‌طور که یافته‌های یک مطالعه نشان داده است، ناظران انسانی می‌توانند چت‌ها را بخوانند و بنابراین اطلاعات داخلی را مشاهده کنند، یا اینکه خود هوش مصنوعی می‌تواند به تنهایی آنها را بازتولید و افشا کند. هشدارهای مشابهی از سوی شرکت‌هایی مانند والمارت، مایکروسافت و آمازون صادر شده است که اعلام کرده‌اند پاسخ‌های چت جی‌پی‌تی را دیده‌اند که با اطلاعات داخلی آنها، شباهت زیادی داشته است.

هشدار گوگل به خصوص از این نظر جالب توجه است که خود این شرکت، چت‌بات عرضه کرده است. این غول اینترنتی به مهندسانش هشدار داده است که از ابزارهای هوش مصنوعی برای کدنویسی استفاده نکنند. گوگل اوایل ماه میلادی جاری، اعلام کرد که بارد برای پاسخگویی بهتر به سوالات در مورد منطق و ریاضی، اکنون قادر است به تنهایی، کد اجرا کند. این به‌روزرسانی، پس از به‌روزرسانی آوریل انجام شد که امکان تولید کد را برای بارد فراهم کرده بود. گوگل به رویترز اعلام کرد اگرچه بارد می‌تواند برای برنامه‌نویسان مفید باشد، اما ممکن است کدهای نامطلوب را هم پیشنهاد کند. بر اساس گزارش بیزینس اینسایدر، گوگل قبل از اینکه بارد را عرضه کند، به کارکنانی که این برنامه را آموزش می‌دادند، هشدار داده بود اطلاعات داخلی را به آن ندهند.