محدودیتهای هوش مصنوعی و چگونگی مدیریت آن
گاهی اوقات عملکرد ماشینها در فراسوی چارچوبهای درک و تجربه بشر باعث میشود تا هوش مصنوعی دیدگاهها و پیشنهادهایی را تولید کند که اگرچه درست است اما در دایره فهم انسانها نمیگنجد و به همین دلیل هم هست که برخورد بشر با این دسته از واقعیتهای معرفیشده از طرف هوش مصنوعی برخوردی همراه با تعجب و ناباوری است؛ چراکه این واقعیتهای متفاوت در قالب دانش کنونی بشر قرار نمیگیرند. به همین دلیل هم هست که این رفتار هوش مصنوعی از نظر انسانها یک نوع محدودیت ماشینها در نظر گرفته میشود.
علاوه بر این، هوش مصنوعی این قابلیت را ندارد تا آنچه کشف کرده را بهطور کامل منعکس کند و نسبت به آن بازخورد نشان دهد، حال آنکه انسان در تمام دورهها پدیدههایی همچون جنگ را تجربه کرده و پس از آن اقدام به انعکاس درسهایی کرده که آموخته و این کار را بهصورت سرودن شعر و روایت داستان و کشیدن نقاشی و بازتعریف تراژدیهای مرتبط با جنگهای معروف تاریخ انجام داده است. هوش مصنوعی اما از انجام چنین کارهایی عاجز است و نمیتواند در مورد کشفهایی که کرده و گرههایی که از زندگی انسان گشوده و دستاوردهایی که داشته داستانسرایی و قهرمانسازی کند. علاوه بر این، هوش مصنوعی احساس خاصی در مورد ضرورتهای اخلاقی و فلسفی راجع به منعکس کردن فعالیتها و دستاوردهایش ندارد و فقط آموخته که یکسری روشهای خوب را به کار ببندد و به نتایج مطلوبی دست یابد و این یک نقطهضعف بزرگ برای هوش مصنوعی محسوب میشود.
از سویی دیگر تجربه نشان داده است که حتی هوش مصنوعی جدید و پیشرفته امروز نیز مرتکب اشتباه و خطا میشود. به عنوان مثال بارها پیشآمده که نرمافزار تشخیص تصویر گوگل به شکل عجیبی تصویر یک انسان را بهصورت تصویر یک حیوان تشخیص داده یا تصویری را که از یک حیوان به او نشان داده شده، بهصورت تصویر یک تفنگ در نظر گرفته است. چنین اشتباهاتی از نظر انسانها خیلی مضحک و خندهدار به نظر میرسند؛ اما بارها و بارها از هوش مصنوعی سر میزنند. این اشتباهات هوش مصنوعی ریشه در عوامل مختلفی دارند. تحتتاثیر داده قرار داشتن یکی از مهمترین نقاط ضعف ماشینهای هوش مصنوعی است؛ چراکه هوش مصنوعی بدون در اختیار داشتن داده نمیتواند الگوهای جدید را یاد بگیرد و تنها چیزهایی را تشخیص میدهد که برایش تعریفشدهاند و در برخورد با موقعیتهای خاص و تعریفنشده عاجز باقی میماند. بهعنوان مثال، در مجموعه دادههایی که در اختیار ماشینهای خودران قرار میگیرد، چیزی به نام پریدن یک گونه گوزن کمیاب به وسط جاده تعریف نشده و در نتیجه اگر در دنیای واقعی یک گوزن به جلوی یک ماشین خودران در حال حرکت بپرد، آن ماشین هیچ واکنشی در برابر این اتفاق از خود نشان نخواهد داد.
یکی دیگر از نقاط ضعف هوش مصنوعی از آنجا سرچشمه میگیرد که هوش مصنوعی معمولا به همان سمتی تمایل پیدا میکند که آفرینندگان و طراحانش به آن سمت میل دارند؛ چراکه در جریان فرآیند آموزش به هوش مصنوعی، دادههایی در اختیار ماشینها قرار میگیرند که مدنظر طراحان است و این اتفاق به معنای واقعی کلمه در جریان یادگیری تحت نظارت روی میدهد. بهعنوانمثال یک برنامه بازی شطرنج را در نظر بگیرید که طراح آن به انجام یکسری حرکتها با مهرههایی خاص تمایل دارد. آنچه در جریان برنامهریزی برای بازی شطرنج توسط این برنامه رخ خواهد داد این است که هوش مصنوعی به انجام حرکتهایی تمایل پیدا میکند که مطابق با میل و علاقه طراحش هست؛ حتی اگر این حرکتها بهترین و درستترین حرکتهای ممکن نباشند.
یکی دیگر از منابع تشخیص اشتباه هوش مصنوعی به عدمانعطاف کافی و قدرت انطباق در ماشینهای هوش مصنوعی مربوط میشود. مثال اشتباه گرفتن یک حیوان با یک تفنگ را در نظر بگیرید: چنین تصویری به این دلیل موجب گمراهی هوش مصنوعی میشود که دارای ظرافتهایی است که به چشم ما انسانها نمیآید؛ اما از چشم تیزبین ماشینها دور نمیماند. همین توجه زیاد هوش مصنوعی به جزئیات و ظرافتهاست که موجب گیج شدن و در نتیجه به اشتباه افتادن ماشینها میشود. از سویی دیگر، هوش مصنوعی فاقد آن چیزی است که ما انسانها بهخوبی از آن برخورداریم و به آن «عقل سلیم» میگوییم. به همین دلیل هم هست که ماشینها چیزهایی را باهم قاطى میکنند که ما انسانها بهسرعت و بهآسانی آنها را از هم تشخیص میدهیم و این مشکل در این واقعیت ریشه دارد که قدرت ممیزی و انطباقپذیری هوش مصنوعی پایین است.
شکنندگی هوش مصنوعی تا حد زیادی انعکاسی است از سطحی بودن آن چیزهایی که یاد میگیرد. بهطورکلی، پیوندهایی که بر مبنای یادگیری تحت نظارت و یادگیری تقویتشده بین ورودیها و خروجیها ایجاد میشود تفاوتهای عمیقی با تجربیات و مفهومسازیهای ما انسانها دارد. علاوه بر این، چنین شکنندگی قابلتوجهی تا حدی به نبود خودآگاهی در ماشینهای هوش مصنوعی مربوط میشود؛ چراکه ماشینها از آنچه نمیدانند آگاهی ندارند و از این جهت با انسانها تفاوت دارند که از خطاهای فاحش و چیزهایی که اشتباه بودنشان کاملا مشخص است اجتناب میکنند. در این میان مدیریت ریسکهایی که میتوانند دامان هوش مصنوعی فوق پیشرفته فردا را بگیرند کاملا ضروری و حیاتی است و این وظیفه محققان، شرکتها، دولتها و البته سازمانهای جامعه مدنی است که در این زمینه فعال باشند و هوش مصنوعی یادگیرنده و مولد را به مسیر درست و مناسبی هدایت کنند.