همه ابزارهای کنترل
چگونگی تنظیم این فناوری بستگی به شکل دقیق آن دارد. فرض کنید که این فناوری اثرات منفی خارجی خالص داشته باشد. تولید آن هزینههایی را به دیگران تحمیل میکند و هزینه نهایی اجتماعی بالاتر از هزینه نهایی خصوصی است. واضح است که نمیخواهیم رقابت کامل (که به معنای برابر بودن قیمت و هزینه نهایی است) وجود داشته باشد. این ممکن است در صورتی صادق باشد که نگرانی ما از هوش مصنوعی به بدتر شدن بیماریهای روانی مربوط باشد؛ اما من باور ندارم که این نگرانی غالب باشد. در این صورت باید ویژگیهای خاص مشکلساز را مالیاتبندی کنیم که از نظر من این کار عملی نیست.
حال فرض کنید که هوش مصنوعی یک فناوری باشد که در برخی حالات جهان اثرات منفی خارجی ندارد، اما در حالات دیگر دارد. ما با برخی اعتقادات درباره منافع موردانتظار هوش مصنوعی شروع میکنیم و بهتدریج یاد میگیریم که آیا خطرناک است یا خیر. اگر مقام نظارتی بتواند هر سیاستی را اعمال کند، راهحل منحصربهفردی که با زمان سازگار باشد، همانطور که در مطالعه کوه و سانگوانمو (۲۰۲۵) آمده است، این است که یک محدودیت سخت در کمیت داشته باشیم که در نقطهای خاص قرار گیرد و با گذشت زمان بهروز شود تا ما بیشتر در مورد این فناوری یاد بگیریم و تا آن زمان مالیات بر تولید اعمال نکنیم.
این مقاله را به عنوان ارائه نکات کلی و مهم میبینم، اما نباید آن را چندان جدی گرفت. به نظر من غیرواقعی است که مقام نظارتی توانایی کامل اجرای این سیاستها را داشته باشد. ما در حال ایجاد یک فناوری هستیم که ممکن است به طور ناگهانی گسترش یابد، بدون اینکه خودمان متوجه شویم. ما نیازی نداریم که بدانیم این اتفاق کی خواهد افتاد. بنابراین، شاید بخواهیم در نزدیک شدن به این آستانه احتیاط بیشتری داشته باشیم که این امر ممکن است تحریفاتی در آنچه شرکتهای هوش مصنوعی میتوانند انجام دهند ایجاد کند.
ممکن است فقط ابزارهای محدودی برای تاثیرگذاری بر شرکتهای هوش مصنوعی داشته باشیم. فرض کنید که تنها انتخابهای سیاستی موجود این باشد که هوش مصنوعی توسط یک انحصار توسعه یابد یا توسط چندین شرکت مختلف. دو نیروی متضاد وجود دارد. از یک طرف، انحصار این مزیت را دارد که سرمایهگذاریهای آن توسط رقبا دزدیده نخواهد شد. این شرکت میتواند در سرمایه انسانی کارکنان خود و اختراعات تکنولوژیکی سرمایهگذاری کند بدون اینکه نگران باشد که آنها به سایر شرکتها بروند. از طرف دیگر، یک انحصار انگیزه دارد که توسعه انواع جدیدتر را که ممکن است جایگزین انواع قدیمیتر شوند کندتر کند، و بدین ترتیب زمان بیشتری برای واکنش به ما بدهد.
داشتن چندین شرکت همهچیز را برعکس میکند. آنها تمایل نخواهند داشت که در سرمایه انسانی سرمایهگذاری کنند، زیرا افراد میتوانند از آنها خارج شوند، و ترجیح میدهند در قدرت محاسباتی نسبت به رقبا سرمایهگذاری کنند. از طرف دیگر، آنها تمایل خواهند داشت که برنامههای ریسکیتری ترتیب دهند، زیرا در صورت بروز یک فاجعه جهانی، خسارت کمتری متحمل میشوند.
در تخمین بسیار تقریبی من از توسعه هوش مصنوعی، دو ورودی وجود دارد که مهم هستند: قدرت محاسباتی و الگوریتمها برای استفاده از آنها. بنابراین دو مسیر برای بهبود آن وجود دارد. ما میتوانیم با جمعآوری قدرت محاسباتی بیشتر پیشرفت کنیم، یا میتوانیم با داشتن الگوریتمهای بهتر و بهتر پیشرفت کنیم. به نظر میرسد دومی نگرانی بیشتری برای یک رویداد تکینگی ایجاد میکند. اگر هوش ماشین به چیزهایی در دنیای فیزیکی وابسته باشد، قطعا خاموش کردن آن راحتتر خواهد بود.
واضح است که آنچه میتواند این وضعیت را تغییر دهد، این است که یک هوش مصنوعی، پس از توسعه به هر روشی که باشد، بتواند خود را به توسعه الگوریتمهای بهتر اختصاص دهد. با این حال، با فرض اینکه یک هوش مصنوعی با هر درجهای از هوش قادر به این کار باشد، مهم نیست که با چه روشی ساخته شده باشد، میتوانیم بگوییم که تمایل به هدایت توسعه به سمت قدرت محاسباتی، امنتر است.
چگونه ممکن است اینها را کمّی کنیم؟ به نظر میرسد بسیار دشوار باشد. تا حدودی، من به دنبال کمک و پیشنهادهایی از شما، عموم مردم هستم. بهترین رویدادی که به ذهنم میرسد، بحران ارزهای دیجیتال ۲۰۲۲ است، که به نظر میرسد موجب ارزانتر شدن واحدهای پردازش گرافیکی (GPU) شده است. البته، اشتغال برنامهریزی بلندمدتتری نسبت به یک بحران واحد دارد. باید انتظار داشت که تنها تاثیر «درآمد دائمی» مهم باشد.
* پژوهشگر حوزه اقتصاد