همان‌طور که پیش ‌‌‌از این نیز اشاره شد، طراحان برنامه چت‌‌‌جی‌‌‌پی‌‌‌تی که بر مبنای هوش مصنوعی و با هدف پردازش زبان طراحی‌‌‌ شده، ناگهان دیدند افرادی از قابلیت‌‌‌های ممتاز این برنامه برای نفرت‌پراکنی و القای رفتارها و اعمال خشونت‌‌‌آمیز و تجاوزکارانه سوءاستفاده می‌کنند و آن را به ابزاری برای تحقق نیت‌‌‌های خطرناک خود تبدیل کرده‌‌‌اند. طراحان چت‌‌‌جی‌‌‌پی‌‌‌تی در نتیجه مجبور شدند با هدف مقابله با نفرت‌‌‌پراکنی و انتشار مطالب توهین‌‌‌آمیز از طریق این برنامه دست به اقدام بزنند و برای این کار باز هم دست به دامان هوش مصنوعی شدند و توانستند با کمک آن، این خطر بزرگ را تا حد زیادی برطرف سازند. آنها با استفاده از قابلیت‌‌‌های گنجانده‌‌‌ شده در برنامه موفق شدند واژگان و جملات و تعبیراتی که بوی نفرت‌پراکنی و تفرقه‌‌‌انگیزی و خشونت می‌‌‌دادند را از چرخه گفت‌‌‌وگوها و تعاملات صورت گرفته حذف کنند. این کار با بهره‌‌‌گیری از الگوریتم‌‌‌های هوش مصنوعی انجام شد.

با این ‌‌‌همه، اتفاقی که در مورد چت‌‌‌جی‌‌‌پی‌‌‌تی افتاد می‌تواند زنگ خطری باشد برای آینده؛ چراکه حل این مشکل بدون کمک هوش مصنوعی امکان‌‌‌پذیر نبود. در نتیجه مشخص نیست که وقتی جوامع آزاد به پلتفرم‌‌‌های شبکه‌‌‌ای مبتنی بر هوش مصنوعی وابستگی بیشتری پیدا کنند آیا خواهند توانست با الگوهای پیشین به مصاف تهدیدهای جدید بروند و به ‌‌‌عنوان‌‌‌ مثال بتوانند محتوای تولید و منتشرشده توسط این پلتفرم‌‌‌ها را بدون زیر پا گذاشتن قواعد جامعه آزاد بیان و کنترل کنند؟

 سوال مهم‌تر در اینجا این است که اگر هوش مصنوعی توانسته باشد به این حد از تاثیرگذاری اجتماعی و سیاسی بر جوامع انسانی برسد که در صورت منحرف شدن از مسیر اولیه خود هیچ انسانی را توان مهار آن نباشد و گره کار فقط توسط هوش مصنوعی باز شود، تکلیف چه خواهد بود؟ اگر هوش مصنوعی به درجه‌‌‌ای از توانایی و یادگیری برسد که به‌‌‌صورت خودسرانه یا به‌‌‌صورت سهوی وارد حوزه‌‌‌های مخاطره‌انگیز برای امنیت ملی و بین‌المللی شود، هیچ انسانی نخواهد توانست چالش‌‌‌های احتمالی را مدیریت کند.

در این حالت انسان به هوش مصنوعی وابستگی شدیدی پیدا می‌کند و به زبان ساده‌‌‌تر«زیر سیطره هوش مصنوعی قرار خواهد گرفت». باید مراقب بود که پیشرفت‌‌‌های سریع و شگفت‌‌‌انگیز هوش مصنوعی و پلتفرم‌‌‌های شبکه‌‌‌ای متکی به آن، باعث از بین رفتن توازن قوا بین انسان و ماشین و میان قضاوت انسان و خودکارسازی برآمده از هوش مصنوعی نشود که اگر این اتفاق بیفتد شرایط برای آینده بشر دشوارتر و پیچیده‌‌‌تر خواهد شد.

واقعیت آن است که در گذشته، توسعه و پیشبرد روندهای اجتماعی و سیاسی در سایه نقش‌‌‌آفرینی نهادها و عوامل متعدد و پرشماری صورت می‌‌‌گرفت که آحاد جامعه، نهادهای دولتی و سازمان‌های مردم‌‌‌نهاد و شرکت‌ها و اندیشکده‌‌‌های مختلف را شامل می‌‌‌شد. این نقش‌‌‌آفرینی چندوجهی موجب تعدیل و کنترل این پیشرفت‌‌‌ها و تحولات می‌‌‌شد؛ حال‌‌‌ آنکه سپردن وظیفه شکل‌‌‌دهی به این روندها به هوش مصنوعی می‌تواند تا حد زیادی آسیب‌‌‌زا و نگران‌‌‌کننده باشد، چراکه اگر هوش مصنوعی در این مسیر دچار خطا و انحراف شود و مثلا به‌‌‌صورت عمدی یا سهوی حجم عظیمی از ضداطلاعات و اخبار کلی و غیرواقعی را در سطح عمومی جامعه منتشر کند، انسان‌‌‌ها نمی‌توانند جلوی تبدیل‌‌‌ شدن آن اشتباه به بحران‌های اجتماعی و سیاسی را بگیرند. آن‌‌‌هم به این دلیل که توانایی این کار را ندارند. حل این معضل تنها از عهده هوش مصنوعی ساخته است و بس. در واقع، رشد شتابان و افسارگسیخته هوش مصنوعی و فاصله گرفتن توان ماشین‌‌‌ها و قدرت ذهنی انسان‌‌‌ها این خطر را ایجاد و تقویت می‌کند که در آینده‌‌‌ای نزدیک انسان قادر نباشد خطاهای برآمده درست‌‌‌ کار نکردن هوش مصنوعی را به‌‌‌موقع و به‌‌‌طور دقیق شناسایی کند و برای مدیریت آن چاره‌‌‌ای بیندیشد.

سلسله مباحث و مشاجرات سیاسی و قانونی صورت گرفته در مورد تیک‌‌‌تاک را که یک پلتفرم شبکه‌‌‌ای مبتنی بر هوش مصنوعی است و در چین طراحی شده اما در تمام جهان مورد استفاده قرار می‌گیرد، می‌توان مقدمه‌‌‌ای دانست بر آینده پرتلاطمی که در انتظار این نوع پلتفرم‌‌‌هاست؛ جایی که این هوش مصنوعی است که ارتباطات بین انسان‌‌‌ها را شکل می‌دهد. این چالش‌‌‌ها و پیچیدگی‌‌‌ها هنگامی صدچندان می‌‌‌شوند که هوش مصنوعی توسعه‌‌‌‌یافته در یک کشور، توسط شهروندان کشورهای دیگر مورد استفاده قرار گیرد. این همان اتفاقی است که مباحث مطرح‌‌‌شده پیرامون تیک‌‌‌تاک را داغ‌‌‌تر و حساس‌‌‌تر کرده است.

درواقع، تیک‌‌‌تاک که توسط متخصصان هوش مصنوعی در چین طراحی و ساخته ‌‌‌شده، از الگوریتم‌‌‌هایی برای پیش‌بینی و جهت‌‌‌دهی به سلایق کاربران استفاده می‌کند که بر پایه سیستم حکومتی چین و با محوریت بخشیدن به ویدئوهایی با موضوعاتی همچون جوک و مهارت‌‌‌های غیرمعمول شکل ‌‌‌گرفته و عمل می‌کنند. پرواضح است که پلتفرمی که در کشوری مانند چین طراحی شده و از اطلاعات کاربران به‌‌‌ منظور شناسایی افکار و علاقه‌‌‌مندی‌‌‌های آنها استفاده می‌کند، نمی‌تواند در کشوری مانند آمریکا که در عرصه تکنولوژی با آن در رقابت شدید است، مورد پذیرش قرار گیرد. به همین دلیل هم بود که دولت آمریکا در سال ۲۰۲۰ استفاده از تیک‌‌‌تاک را محدود کرد و اجازه نداد اطلاعات جمع‌‌‌آوری‌‌‌شده از کاربران آمریکایی، توسط این شرکت از آمریکا خارج شود.

به ‌‌‌هر حال، چنین به نظر می‌رسد که با توجه به وابستگی روزافزون پلتفرم‌‌‌های شبکه‌‌‌ای به هوش مصنوعی و نقش رو به رشدی که این پلتفرم‌‌‌ها در جهت‌‌‌دهی به ارتباطات، سرگرمی‌‌‌ها، تجارت و فرآیندهای صنعتی، چه در سطح ملی و چه در سطح بین‌المللی خواهند داشت، در آینده با موج عظیمی از تعارضات و چالش‌‌‌های حقوقی، اجتماعی، سیاسی و ژئوپلیتیک در این زمینه مواجه خواهیم شد. چاره‌‌‌اندیشی در مورد آنها از همین‌‌‌ الان باید شروع شود.

منبع: کتاب The age of AI: and our human future