چت با هوش مصنوعی؛ پایان عصر روشنگری
فناوری جدید به عنوان هوش مصنوعی مولد شناخته میشود. چت جیپیتی (Chat GPT) که در آزمایشگاه تحقیقاتی Open AI توسعه یافته اکنون قادر به مکالمه با انسان است. این برنامه با گستردهتر شدن ظرفیتها دانش بشری را بازتعریف میکند، تعییرات در ساختار واقعیت ما را تسریع و سیاست و جامعه را دوباره سازماندهی میکند. هوش مصنوعی مولد چالش فلسفی و عملی در مقیاسی است که از زمان آغاز عصر روشنگری به این سو تجربه نشده است. چاپخانه و چاپ آثار پژوهشگران را قادر ساخت تا یافتههای یکدیگر را به سرعت تکرار کرده و آن یافتهها را به اشتراک بگذارند. همچنین، باعث ادغام و گسترش بیسابقه اطلاعات و ایجاد روشی علمی شد. آنچه پیشتر غیرقابل نفوذ بود به نقطه آغاز تسریع پرس و جو تبدیل شد. تفسیر قرون وسطایی از جهان به تدریج تضعیف شد. این امکان فراهم شد تا اعماق کیهان تا زمانی که به محدودیتهای جدیدی از درک بشر رسیدند مورد کاوش قرار گیرند.
هوش مصنوعی به طور مشابه مولد راههای انقلابی برای خرد انسانی است و افقهای تازهای را برای دانش یکپارچه خواهد گشود. با وجود این، قطعا تفاوتهایی نیز وجود دارد. دانش عصر روشنگری به تدریج، گام به گام، با هر مرحله قابل آزمایش و آموزش حاصل شد. سیستمهای مجهز به هوش مصنوعی از انتهای دیگری آغاز میشوند. سیستمهای مبتنی بر هوش مصنوعی میتوانند حجم عظیمی از اطلاعات را ذخیره کنند. در مورد Chat GPT این مورد بسیاری از مطالب متنی در اینترنت و تعداد زیادی از کتابها را شامل میشود. نگهداری آن حجم از اطلاعات و عرضه آن فراتر از توان انسان است. روشهای پیشرفته هوش مصنوعی بدون توضیح اینکه چرا یا چگونه فرآیندشان کار میکند نتایجی را به دست میآورند.
ماشین یادگیری مبتنی بر هوش مصنوعی ظرف مدت چند ثانیه به یک متن پاسخ میدهد و قادر است این کار را انجام دهد، زیرا فرآیند را از طریق دادههای گستردهای که از پیش تولید کرده و بر اساس آن آموزش دیده انجام میدهد. البته اینکه ماشین یادگیری با استفاده از چه فرآیندی دانش خود را ذخیره و بازیابی میکند، ناشناخته باقی مانده است. اینکه آیا این فرآیند هرگز کشف خواهد شد یا خیر رمز و راز مرتبط با فراگیری یادگیری ماشینی و شناخت انسان را برای آینده نامعلومی به چالش خواهد کشید. ظرفیتهای هوش مصنوعی ثابت نیستند، اما با پیشرفت فناوری بهطور تصاعدی گسترش مییابند. به تازگی پیچیدگی مدلهای هوش مصنوعی هر چند ماه یکبار به میزان دو برابر افزایش یافته است. بنابراین، سیستمهای مبتنی بر هوش مصنوعی مولد از قابلیتهایی برخوردارند که حتی برای مخترعانشان نیز فاش نشده است.
با هر سیستم مبتنی بر هوش مصنوعی تازه آن سیستم بدون آنکه مبدأ یا مقصد خود را بداند ظرفیتهای تازهای را ایجاد میکند. در نتیجه، آینده ما اکنون دارای یک عنصر کاملا جدید از رمز و راز و ریسک و شگفتی است. علم عصر روشنگری یقینات را انباشته ساخت. هوش مصنوعی ابهامات تجمعی را ایجاد میکند. علم عصر روشنگری با قابل توضیح ساختن اسرار و مشخص ساختن مرزهای دانش و درک بشر در حین حرکت آن تکامل یافت. در دانش عصر روشنگری فرضیه فهم آماده تبدیل شدن به دانش بود. استقرار تبدیل دانش به فهم بود. در عصر هوش مصنوعی، اما معماها با فرآیندهایی حل میشوند که ناشناخته باقی میمانند.
این تناقض سرگردان کشف اسرار را ناممکن و غیرقابل توضیح میسازد. هوش مصنوعی ذاتا به شکلی بسیار پیچیده دانش بشری را افزایش میدهد، اما لزوما باعث افزایش درک انسان نمیشود و پدیدهای است که تقریبا برخلاف تمام پدیدههای مدرنیته از دوران عصر روشنگری به این سو است. با وجود این، در عین حال زمانی که هوش مصنوعی با خرد انسانی همراه میشود ابزاری قویتر از صرف خرد انسانی برای کشف است. بنابراین، تفاوت اساسی بین عصر روشنگری و عصر هوش مصنوعی نه از جنبه فناوری بلکه از جنبه شناختی است. پس از عصر روشنگری فلسفه با علم همراه شد. دادههای گیجکننده جدید و نتیجهگیریهای غالبا غیرمنطقی، تردیدها و ناامنیها با توضیحات جامع تجربیات بشری برطرف شدند. هوش مصنوعی مولد به طور مشابه آماده است تا شکل جدیدی از آگاهی انسان را ایجاد کند. با وجود این، هنوز هیچ رهبری سیاسی یا فلسفیای برای توضیح و هدایت این رابطه بدیع بین انسان و ماشین شکل نگرفته است.
«چت جی پی تی» (Chat GPT) نمونهای از آن چیزی است که به عنوان یک «مدل زبان بزرگ» شناخته میشود که میتواند برای تولید متنی شبیه متنهای تولیدشده توسط انسان استفاده شود. این برنامه نوعی مدل است که میتواند به طور خودکار از مقادیر زیادی متن و بدون نیاز به نظارت انسان بیاموزد. توسعهدهندگان Chat GPT آن را با مقدار زیادی از محتوای متنی دنیای دیجیتال تغذیه کردهاند. قدرت محاسباتی به این مدل اجازه میدهد تا الگوها را ثبت کند.
توانایی مدلهای زبان بزرگ برای تولید متن انسان مانند یککشف تقریبا تصادفی بود. این مدلها به گونهای آموزش داده شدهاند که بتوانند کلمه بعدی را در یک جمله پیشبینی کنند که در کارهایی مانند تکمیل خودکار برای ارسال پیامهای متنی یا جستوجو در وب مفید است. با وجود این، مشخص شده که این مدلها همچنین توانایی غیرمنتظرهای برای ایجاد پاراگرافها و تولید مقاله و کتاب دارند. چت جیپیتی به صورت فوری پاسخهای منحصر بهفردی ارائه میکند. پاسخها، اظهارات و مشاهدات از سوی چت جیپیتی بدون توضیح درباره اینکه از کجا آمدهاند و بدون نویسنده قابل شناسایی ظاهر میشوند. در ظاهر این برنامه انگیزه یا سوگیری قابل تشخیصی ندارد. خروجیهای آن پیچیده است، اما کار آن به طرز شگفتآوری سریع است: ظرف مدت چند ثانیه میتواند پاسخهایی تولید کند که به طور منسجم یک موضوع سطح بالا را توضیح دهد.
این پاسخها به سادگی از متن موجود در حافظه رایانه نسخهبرداری نمیشوند بلکه توسط فرآیندی بازتولید میشوند که انسان قادر به تکرار آن نیست و قادر است استنتاجهای روانشناختی فرضی و غیربدیهی را با یکدیگر ترکیب کند. این برنامه قادر است از میان میلیاردها نقطه داده اولویتبندی کند تا مجموعهای از ۲۰۰ کلمه را انتخاب کند که بیشترین ارتباط را با یکدیگر دارند. به نظر میرسد این برنامه دیدگاههای مخالف را میپذیرد و آن دیدگاهها را همزمان با یکدیگر سازگار نشان میدهد. چت جیپیتی نوشتههای دیگر را بدون کپی کردن یا نسخهبرداری تقلید میکند. اگرچه این مدل قادر به درک مفهوم انسانی نیست، اما خروجی آن بازتابدهنده جوهر زیربنایی زبان انسانی است. من از چت جیپیتی خواستم تا قابلیتهای خود را توضیح دهد.
از آن پرسیدم آیا میتواند آینده را پیشبینی کند و پاسخ منفی داد. چت جیپیتی پاسخ داد: «من صرفا میتوانم اطلاعاتی را ارائه کنم و به پرسشها بر اساس دادههایی که آموزش دیدهام پاسخ دهم. من تجربه یا آگاهی شخصی ندارم. بنابراین، نمیتوانم در مورد رویدادهای آینده پیشبینیای انجام دهم.» از آن برنامه پرسیدم آیا قادر به «قضاوت احتمالی» است و پاسخ داد: «من میتوانم قضاوتهای احتمالی را بر اساس دادههایی که با تکیه بر آن آموزش دیدهام ارائه دهم. برای مثال، اگر روی مجموعه داده بزرگی از الگوهای آب و هوا آموزش دیده باشم ممکن است بتوانم یک قضاوت احتمالی در مورد احتمال وقوع نوع خاصی از آب و هوا در یک مکان خاص در یک روز معین ارائه کنم. با وجود این، توجه به این نکته ضروری است که این قضاوتهای احتمالی مبتنی بر الگوها و روندهای دادهها هستند و ممکن است همواره نتایج واقعی را به طور دقیق بازتاب ندهند.»
من از چت جیپیتی درباره نقش روسیه در حفظ یا تضعیف ثبات اروپا پرسیدم. پاسخهای به ظاهر متفکرانه و مختصر در کمتر از یک دقیقه ارائه شد و اطلاعات متناقض را متعادل کرده بود و بدون اینکه نظری داشته باشد به طور کامل پاسخ میداد. ظرف مدت چند روز پس از راهاندازی «چت جیپیتی» بیش از یک میلیون کاربر برای طرح پرسشهایشان از آن ثبتنام کردند. صدها شرکت روی فناوریهای مولد کار میکنند و سرمایهگذاری در این عرصه در حال سرازیر شدن است و اکتشافات را به سوی حوزه تجاری سوق میدهد.
بزرگترین این مدلها برای آموزش پرهزینه هستند؛ تقریبا یک میلیارد دلار برای هر مدل. هزاران رایانه پس از آموزش دیدن ۲۴ ساعت در روز برای کار با آن فعال هستند. هوش مصنوعی مولد فراتر از مدل زبان بزرگ برای ساخت انواع مدلها استفاده خواهد شد و این روش به طور فزایندهای چندوجهی و محرمانه خواهد ماند و بسیاری از عرصههای تلاش انسان برای مثال آموزش و زیستشناسی را تغییر خواهد داد. مدلهای مختلف از نظر نقاط قوت و ضعف متفاوت خواهند بود. تواناییهای آن مدلها از نوشتن جوک و نقاشی کشیدن گرفته تا طراحی آنتیبادی احتمالا همچنان ما را شگفتزده خواهد کرد. درست همان طور که مدل زبان بزرگ مدلی غنیتر از زبان انسانی را توسعه داد که سازندگان آن پیشبینی میکردند هوش مصنوعیهای مولد در بسیاری از زمینهها احتمالا بیش از آنچه وظایف محولشدهشان نشان میدهد یاد میگیرند.
اهمیت درازمدت هوش مصنوعی مولد فراتر از مفاهیم تجاری یا حتی پیشرفتهای علمی غیرتجاری است چرا که صرفا پاسخ تولید نمیکند بلکه از منظر فلسفی پرسشهای عمیقی را مطرح و بر دیپلماسی و استراتژیهای امنیتی نیز تاثیرگذار خواهد بود. با وجود این، هیچ یک از سازندگان این فناوری به مشکلاتی که ایجاد خواهد کرد، نپرداختهاند. برای مثال، فقدان نقلقول در پاسخهای جیپیتی تشخیص حقیقت را از اطلاعات نادرست دشوار میسازد. ما پیشتر میدانستیم که بازیگران مخرب مجموعهای از «حقایق» ساختهشده و تصاویر و ویدئوهای «جعل عمیق» (دیپ فیک) را به شکل فزایندهای متقاعدکننده به اینترنت تزریق کردهاند یعنی به مجموعه آموزشی حال و آینده چت جیپیتی.
از آنجا که چت جیپیتی برای پاسخ دادن به پرسشها طراحی شده گاهی اوقات حقایقی را برای ارائه پاسخ به ظاهر منسجم میسازد. این پدیده در میان پژوهشگران هوش مصنوعی با عنوان «توهم» شناخته میشود که در آن هوش مصنوعی عباراتی را که برای یک خواننده انسانی واقعی به نظر میرسد، اما هیچ مبنایی در واقعیت ندارند در کنار یکدیگر قرار میدهد. اینکه چه چیزی باعث این خطاها میشود و نحوه کنترل آن چگونه است هنوز مشخص نیست.چت جیپیتی شخصیت آشکاری ندارد. فقدان نویسنده قابل شناسایی چت جیپیتی درک تمایلات آن را برای انسان دشوارتر از قضاوت در مورد دیدگاه سیاسی یا اجتماعی یک انسان میسازد. در واقع، هوش مصنوعی درگیر یک آنالوگ غیرانسانی با شناخت است. اگرچه ما هوش مصنوعی مولد را در قالب انسان درک میکنیم اشتباهات آن اشتباهات یک انسان نیست. انسانها نباید این اشتباهات را به عنوان خطا تشخیص دهند. آیا میتوانیم تعصبات و عیوب آن را به همان اندازه که هستند تشخیص دهیم؟ بنابراین، توضیح خروجیهای هوش مصنوعی همچنان دشوار است.
حقیقت علم عصر روشنگری مورد اعتماد بود، زیرا هر مرحله از فرآیندهای آزمایشی قابل تکرار نیز مورد آزمایش قرار میگرفت بنابراین، امکان داشت که به آن اعتماد کنیم. حقیقت هوش مصنوعی مولد باید با روشهای کاملا متفاوتی توجیه شود و ممکن است هرگز به طور مشابه مطلق نباشد.همان طور که ما سعی میکنیم درک خود را به دانشمان برسانیم باید بهطور پیوسته از خود بپرسیم: در مورد ماشین هنوز برای ما آشکار نشده که چه دانش مبهمی را پنهان میسازد؟ استدلال هوش مصنوعی مولد تا حدی به عنوان بخشی از آموزش مدل احتمالا در طول زمان تغییر میکند. این یک نسخه شتابیافته از پیشرفت علمی سنتی خواهد بود و سازگاریهای تصادفی را به فرآیند کشف میافزاید. حتی اگر مدلهای هوش مصنوعی مولد کاملا قابلتفسیر و دقیق شوند همچنان چالشهای ذاتی در رفتار انسان ایجاد میکنند. دانشآموزان از چت جیپیتی برای تقلب در امتحانات استفاده میکنند.
هوش مصنوعی مولد میتواند تبلیغات ایمیلی ایجاد کند که صندوقهای ورودی را پر میکند و قابلتفکیک و تشخیص از پیامهای دوستان شخصی یا آشنایان تجاری نیست. ویدئوها و تبلیغات تولید شده توسط هوش مصنوعی که پلتفرمهای تبلیغاتی دروغین را به تصویر میکشند، میتوانند تمایز بین مواضع سیاسی را دشوار سازند. تاثیر هوش مصنوعی مولد بر آموزش میتواند در کاهش توانایی رهبران آینده در تمایز قائلشدن بین آنچه به صورت شهودی در اختیار دارند و آنچه به طور مکانیکی جذب میکنند نمایان شود یا میتواند منجر به ایجاد رهبرانی شود که روشهای مذاکره با ماشینها و استراتژی نظامی خود را با تکامل هوش مصنوعی مولد به جای انسان از طریق رایانهها بیاموزند. چت جیپیتی دارای ظرفیتی برای تحلیل است که از نظر کیفی متفاوت از ذهن انسان است، بنابراین آینده نهتنها مستلزم همکاری با نوع دیگری از موجودیت فنی بلکه با نوع دیگری از استدلال است که ممکن است عقلانی باشد بدون آنکه معقول باشد به یک معنا قابلاعتماد باشد، اما از جنبهای دیگر قابلاعتماد نباشد.
این وابستگی خود احتمالا موجب دگرگونی در فراشناخت و هرمنوتیک درک فهم و درک انسان از نقش و کارکرد ما خواهد شد. ماشینهای مورد استفاده در حکمرانی بدون پشتوانههای اخلاقی و فکری مناسب میتوانند به جای تقویت انسانیتمان آن را تحتکنترل خود درآورند و ما را برای همیشه به دام بیندازند. این امر ضرورتهای خاصی را برای تسلط بر آینده قریبالوقوع ما تحمیل میکند. اعتماد به هوش مصنوعی مستلزم بهبود در سطوح مختلف قابلیت اطمینانبخشی است در دقت و ایمنی ماشین، همسویی اهداف هوش مصنوعی با اهداف انسانی و در مسوولیتپذیری افراد حاکم بر ماشین. با وجود این، حتی زمانی که سیستمهای هوش مصنوعی از نظر فنی قابل اعتمادتر میشوند، انسانها کماکان باید راههای جدید، ساده و قابلدسترس برای درک و به چالشکشیدن ساختارها، فرآیندها و خروجیهای سیستمهای هوش مصنوعی بیابند.
منبع: والاستریت ژورنال
ترجمه: پایگاه خبری فرارو