هشدار سازمان بهداشت جهانی نسبت به خطرات هوش مصنوعی
سازمان بهداشت جهانی درباره استفاده از چت رباتهای ایجاد شده توسط هوش مصنوعی هشدار داد و خواستار هوش مصنوعی ایمن و اخلاقی برای سلامتی شد.
این اسکن مغزی افکارتان را می نویسد!
این سازمان خواستار احتیاط در استفاده از ابزارهای مدل زبان بزرگ (LLM) تولید شده توسط هوش مصنوعی (AI) برای محافظت و ارتقای رفاه انسان، ایمنی و استقلال انسان و حفظ سلامت عمومی است.
ابزارهای مدل زبان بزرگ ها شامل برخی از پلتفرم های به سرعت در حال گسترش مانند ChatGPT، Bard، Bert و بسیاری دیگر هستند که درک، پردازش و تولید ارتباطات انسانی را تقلید می کنند. انتشار عمومی و استفاده آزمایشی رو به رشد آنها برای مقاصد مرتبط با سلامت، هیجان قابل توجهی را در مورد پتانسیل حمایت از نیازهای بهداشتی مردم ایجاد میکند.
ضروری است که هنگام استفاده از ابزارهای مدل زبان بزرگ که به نام چت ربات های هوش مصنوعی شناخته می شوند، برای بهبود دسترسی به اطلاعات بهداشتی، به عنوان یک ابزار پشتیبانی تصمیم، یا حتی برای افزایش ظرفیت تشخیصی در محیطهای کم منابع برای محافظت از سلامت مردم و کاهش نابرابری، خطرات به دقت بررسی شوند.
در حالی که سازمان بهداشت جهانی مشتاق استفاده مناسب از فناوریها، از جمله چت با هوش مصنوعی، برای حمایت از متخصصان مراقبتهای بهداشتی، بیماران، محققان و دانشمندان است، این نگرانی وجود دارد که احتیاطهایی که معمولاً برای هر فناوری جدید اعمال میشود، به طور مداوم در مورد ابزارهای مدل زبان بزرگ اعمال نمیشود. این شامل گسترش ارزش های کلیدی شفافیت، اخلاق مداری، مشارکت عمومی، نظارت متخصصان و ارزیابی دقیق است.
پذیرش سریع سیستمهای آزمایشنشده میتواند منجر به اشتباهات کارکنان مراقبتهای بهداشتی، آسیب رساندن به بیماران، کاهش اعتماد به هوش مصنوعی و در نتیجه تضعیف (یا تأخیر) مزایای بالقوه بلندمدت و استفاده از چنین فناوریهایی در سراسر جهان شود.
نگرانی هایی که مستلزم نظارت دقیق مورد نیاز برای استفاده از فناوری ها به روش های ایمن، مؤثر و اخلاقی هستند عبارتند از:
دادههای مورد استفاده برای آموزش هوش مصنوعی ممکن است مغرضانه باشد و اطلاعات گمراهکننده یا نادرستی ایجاد کند که میتواند خطراتی برای سلامتی، برابری و فراگیر بودن ایجاد کند.
ابزارهای مدل زبان بزرگ ها پاسخ هایی را تولید می کنند که می توانند برای کاربر نهایی معتبر و قابل قبول به نظر برسند. با این حال، این پاسخ ها ممکن است کاملاً نادرست باشند یا حاوی خطاهای جدی باشند، به ویژه برای پاسخ های مرتبط با سلامت.
ممکن است ابزارهای مدل زبان بزرگ در مورد دادههایی که قبلاً برای چنین استفادههایی رضایت ارائه نشده است آموزش ببینند و ممکن است از دادههای حساس (از جمله دادههای سلامت) که کاربر برای ایجاد پاسخ در اختیار یک برنامه کاربردی قرار میدهد، محافظت نکنند.
از چت بات ها می توان برای تولید و انتشار اطلاعات نادرست بسیار قانع کننده در قالب محتوای متنی، صوتی یا ویدیویی استفاده نادرست کرد که تشخیص آن برای عموم از محتوای سلامت قابل اعتماد دشوار است.
بخش سایتخوان، صرفا بازتابدهنده اخبار رسانههای رسمی کشور است.