کاربرد هوش مصنوعی در ازدیاد برداشت نفت
کتاب «کاربرد هوش مصنوعی در ازدیاد برداشت نفت» به قلم مهندس محمد بلقدر است که مقالات دیگری نیز در این حوزه نوشته است. این کتاب ۸۰ صفحهای، بخشهای مختلفی دارد که با تیترهایی از جمله «تولید اولیه (طبیعی) نفت»، «ازدیاد برداشت نفت»، «مراحل برداشت»، «هوش مصنوعی»، «کاهش ضریب بهره»، «پارامترهای الگوریتم جستجوی هوش مصنوعی» مطالب خود را عرضه است.
در مقدمه کتاب آمده است: «استفاده صحیح از منابع نفتی کشور به منظور افزایش طول عمر آنها و برخورداری نسلهای آینده از این ذخایر خدادادی، ایجاب میکند تا با مدیریت صحیح این منابع آشنا شویم. از نکات قابل توجه در مدیریت مخازن، اتخاذ روشهایی برای حفظ و صیانت مخزن، بالابردن راندمان تولید و سعی بر نگهداشتن آن در حد مطلوب در طول زمان میباشد. بدین منظور میتوان از هوش مصنوعی با کمترین میزان خطا در محاسبات در این زمینه بهره برد.»
مشکل همسویی
کتاب «مشکل همسویی یادگیری ماشینی و ارزشهای انسانی» یک کتاب غیرداستانی است که توسط نویسنده آمریکایی برایان کریستین در سال ۲۰۲۰ منتشر شد. این بر اساس مصاحبههای متعدد با کارشناسانی است که در تلاش برای ساخت سیستمهای هوش مصنوعی، بهویژه سیستمهای یادگیری ماشینی هستند که با ارزشهای انسانی همسو هستند.
این کتاب به سه بخش تقسیم شده است: پیشگویی، عاملیت و هنجارگرایی. هر بخش شامل محققان و مهندسانی است که بر روی چالشهای مختلف در راستای همسویی هوش مصنوعی با ارزشهای انسانی کار میکنند.
در بخش اول، کریستین بحثهای مربوط به تاریخچه تحقیقات هوش مصنوعی، به ویژه رویکرد یادگیری ماشین شبکههای عصبی مصنوعی مانند Perceptron و AlexNet را با مثالهایی از اینکه چگونه سیستمهای هوش مصنوعی میتوانند رفتار ناخواسته داشته باشند، در هم آمیخته است.
او داستان جولیا آنگوین، روزنامهنگاری را روایت میکند که تحقیقات ProPublica از الگوریتم COMPAS، ابزاری برای پیشبینی تکرار جرم در میان متهمان جنایی، به انتقادات گستردهای از دقت و سوگیری آن نسبت به برخی اطلاعات
جمعیتی منجر شد. یکی از چالشهای اصلی همترازی هوش مصنوعی ماهیت جعبه سیاه آن است (ورودیها و خروجیها قابل شناسایی هستند، اما فرآیند تبدیل در این بین مشخص نیست). فقدان شفافیت، تشخیص اینکه سیستم در کجا درست پیش میرود و کجا اشتباه میکند، دشوار میکند.
در بخش دوم، کریستین به طور مشابه تاریخ مطالعه روانشناختی پاداش، مانند رفتارگرایی و دوپامین را با علم کامپیوتر یادگیری تقویتی در هم میآمیزد، که در آن سیستمهای هوش مصنوعی باید سیاست ("چه باید کرد") را در مواجهه با یک تابع ارزش ("چه پاداش یا مجازاتی باید انتظار داشت"). او سیستمهای DeepMind AlphaGo و AlphaZero را «شاید چشمگیرترین دستاورد در طراحی برنامه درسی خودکار» مینامد. او همچنین بر اهمیت کنجکاوی تاکید میکند، که در آن یادگیرندگان تقویتی به جای جستجوی انحصاری پاداش بیرونی، انگیزه ذاتی برای کشف محیط خود را دارند.
این کتاب نقدهای مثبتی از سوی منتقدان دریافت کرد. دیوید ای. شایویتز از وال استریت ژورنال بر مشکلات مکرر هنگام به کارگیری الگوریتمها برای مسائل دنیای واقعی تاکید کرد و کتاب را به عنوان "کاوشی ظریف و جذاب در مورد این موضوع داغ سفید" توصیف کرد. Kirkus Reviews به این کتاب نقد مثبت داد و آن را «از لحاظ فنی غنی اما در دسترس» و «کاوشی جالب در مورد هوش مصنوعی» نامید.
بخش سوم آموزش هوش مصنوعی را از طریق تقلید از رفتار انسان یا ماشین و همچنین بحثهای فلسفی مانند امکانگرایی و واقعیتگرایی که بر رفتار ایدهآل متفاوت برای سیستمهای هوش مصنوعی دلالت دارد، پوشش میدهد. یادگیری تقویت معکوس از اهمیت ویژهای برخوردار است، رویکردی گسترده برای ماشینها برای یادگیری عملکرد هدف یک انسان یا عامل دیگر. کریستین چالشهای هنجاری مرتبط با نوعدوستی مؤثر و خطر وجودی را مورد بحث قرار میدهد، از جمله کارهای
فیلسوفان توبی اورد و ویلیام مک اسکیل که در تلاش هستند تا راهبردهای انسانی و ماشینی را برای هدایت مشکل همترازی تا حد امکان مؤثر طراحی کنند.
در سال 2021، روزنامه نگار ازرا کلاین، کریستین را در پادکست خود، نمایش ازرا کلاین، داشت و در نیویورک تایمز نوشت: «مشکل همسویی بهترین کتابی است که در مورد سؤالات کلیدی فنی و اخلاقی هوش مصنوعی خوانده ام». ] بعداً در همان سال، این کتاب در یکی از ویژگیهای Fast Company، "5 کتابی که امسال الهام بخش ساتیا نادلا مدیرعامل مایکروسافت بودند" فهرست شد.