نگرانی چین درباره پیشرفت هوش مصنوعی
در این گزارش آنها عنوان کردهاند که برخی از مقامات سیاسی، منتقدان و همچنین کارشناسان فعال در حوزههای فناوری، معتقدند که توسعه روزافزون و پیشرفت هوش مصنوعی بهخصوص در صنایع و تسلیحات جنگی، نظامی و دفاعی خطر و تهدید بزرگی برای آینده بشریت و جهان ایجاد خواهد کرد چرا که منجر به ساخت و توسعه تسلیحات جدید و پیشرفتهای میشود که بدون نیاز به کنترل و نظارت انسان قادر است عملکرد خوبی از خود به نمایش بگذارد و وظایف و مسوولیتهای خود را انجام دهد. این به آن معناست که تسلیحات جنگی و نظامی مبتنی بر فناوریهای نوین نظیر هوش مصنوعی و یادگیری ماشینی بدون درگیر شدن احساسات و عواطف انسانی میتوانند کارهای موردنظر فرماندهان جنگی و سیاست مداران را انجام دهند و کاملا طبق برنامه نویسیهای انجام شده عمل کند.
در اوایل سال ۲۰۱۸ میلادی بود که خبری مبتنی بر تلاش و نگرانی جامعه جهانی درخصوص توسعه هوش مصنوعی و تهدیدات آن منتشر شد. در آن زمان بسیاری از کارشناسان، متخصصان، دانشمندان و شرکتهای بزرگ تکنولوژی در جریان یک اجلاس جهانی که در سوئیس برگزار شد، از لزوم مقابله با توسعه بی رویه و جایگزینی کامل و بدون برنامه هوش مصنوعی با انسان سخن گفتند. از آنجا که فناوری هوش مصنوعی و یادگیری ماشینی در سالهای اخیر با پیشرفت قابل ملاحظهای مواجه شده است، غولهای تکنولوژی متعددی همچون گوگل، مایکروسافت، آمازون، اپل، سامسونگ و ... به طراحی و ساخت ابزارهای هوشمند مبتنی بر فناوری هوش مصنوعی بسیاری روی آوردهاند. همانطور که در اخبار گذشته نیز اشاره شده بود، یکی از جدیدترین نمونههایی که سرو صدا و جنجالهای بسیاری را در جهان به پا کرد، دستیار صوتی مبتنی بر هوش مصنوعی گوگل دوپلکس بود که صدای آن شباهت بینظیری به صدای انسان دارد به گونهای که توسط کاربران قابل تشخیص نیست و مخاطب یک روبات است نه یک انسان!
جالب است بدانید که استفن هاوکینگ، ایلان ماسک، استیوووزنیاک، بیل گیتس و بسیاری دیگر از نامهای بزرگ در زمینه علم و فناوری، مدتهاست که در رسانهها و نامههای سرگشاده خود، درباره خطرات ناشی از هوش مصنوعی ابراز نگرانی کرده و به خیل محققان برجسته هوش مصنوعی پیوستهاند. خطراتی که میتواند به مجرمان این امکان را بدهد تا با سرعت و دقت بیشتری و با کمترین زحمت و احتمال ردیابی، به انجام سرقت، قتلهای زنجیرهای، فریب افراد و کلاهبرداریهای تلفنی و اینترنتی بپردازند.
ارسال نظر