استراتژیستها در مورد استفاده مسوولانه و اخلاقی از تکنولوژی چه میگویند؟
این به آن معناست که یک سازمان باید تکنولوژی و دادههای خود را برای همه افراد، کل جامعه، محیطزیست و سایر ذینفعان طراحی، ایجاد و اجرا کند تا از دسترسی و استفاده گسترده که به نتایج اخلاقی مسوولانه منجر میشود اطمینان پیدا کند.
به همین منظور، مجمع جهانی اقتصاد با برخی مقامات استراتژی تکنولوژی اطلاعات و ارتباطات گفتوگو کرده و از آنها پرسیده که چگونه مصرف فراگیر، اخلاقی و مسوولانه را ترویج میکنند. این جامعه ۴۰ رهبر ارشد فعال استراتژی از شرکتهای مرتبط را دربرمیگیرد که در حوزه تکنولوژی فعالیت دارند. نظرات تعدادی از آنها به این شرح است:
یوگنیو کاسیانو، معاون ارشد استراتژی و نوآوری شرکت «سلونیس»
شرکت پردازش داده سلونیس (Celonis) چه در مورد پردازش اطلاعات باشد و چه هوش مصنوعی، متعهد به ساخت سیستمهای هوشمندی است که نهتنها قدرتمند، بلکه مسوولیتپذیر نیز باشند. ما یک مدل نظارتی ساختاریافته برای هوش مصنوعی داریم که بر اصول انصاف، شفافیت و مسوولیتپذیری مبتنی است. و این کار را از طریق فرآیندهای متعددی که توسط کمیته نظارت میشود و نیز یک تیم بینرشتهای با تخصص در زمینههای حقوق، اخلاق، مهندسی و توسعه، امنیت داده و حریم خصوصی داده انجام میدهیم.
این کمیته اختصاصی به طور فعال دستورالعملهای ما را تعیین میکند و تضمین میکند که اقدامات هوش مصنوعی ما با استانداردهای جهانی و ارزشهای شرکت همخوانی دارد.
هوش مصنوعی واقعا یک تکنولوژی متحولکننده است که بیشتر جنبههای زندگی مدرن ما را تحتتاثیر قرار خواهد داد. اما نحوه انجام آن هم اهمیت دارد. در سلونیس ما معتقدیم که هم پیشرفتهای فنی و هم ملاحظات اخلاقی برای کاهش خطرات و اطمینان از استفاده مسوولانه از هوش مصنوعی، ضروری است.
راوی کاچیبوتلا، مدیر ارشد استراتژی شرکت «کاگنیزنت»
همانطور که هوش مصنوعی تحول کسب و کار و جامعه را ادامه میدهد، ایجاد یک چارچوب اعتماد دیجیتالی قوی ضروری است - چارچوبی که قابلیت همکاری را در اولویت قرار میدهد و از ارتباط نادرست که اغلب ناشی از سیستمهای ناهمسو است، جلوگیری میکند. یک رکن اصلی این چارچوب انصاف است که رفتار اخلاقی، شفاف و بیطرفانه برای همه را تضمین کند. این امر مستلزم طراحی سیستمهای هوش مصنوعی است که قابلیت ممیزی و نمایش دیدگاههای متنوع و کاملا شفاف در عملیات خود را داشته باشند. مجموعه پلتفرمهای Neuro ما با همسو کردن چند عاملی که برای بهینهسازی انصاف، عملکرد، شفافیت و جامعیت مورد استفاده قرار میگیرند، بدون اینکه یکی را در اولویت قرار دهند این اهداف را متعادل میکند.
این امر موجب کاهش سوگیری شده و از طرفی، تضمین میکند که تصمیمها شفاف و قابل تفسیر بوده و موجب ارتقای نتایج عادلانه میشوند. پلتفرمهای ما این امکان را برای مشتریان فراهم میکنند تا برنامههای کاربردی هوش مصنوعی را که قابل ممیزی و بیطرفانه هستند ادغام کنند، و اطمینان داشته باشند که انصاف در کل زنجیره ارزش جریان دارد و اعتماد به یکپارچگی تکنولوژی را القا میکند.
گانشا راسیا، مدیر ارشد استراتژی شرکت HP
اشاعه سریع هوش مصنوعی مولد و استفاده از مدلهای زبانی بزرگ زمینههای بالقوهای را ایجاد کرده است که میتواند اعتماد را به خطر بیندازد. در راس این لیست عدمشفافیت قرار دارد.
امروزه، تا حدود زیادی مشخص نیست که کدام الگوریتمها و مجموعه دادهها مبنای تصمیمگیری یک مدل هوش مصنوعی مولد هستند. کاربران برای اینکه بدانند آیا خروجی به دست آمده دقیق، منطقی یا اخلاقی است به چالش کشیده میشوند.
دادههای تحریفشده یا تبعیضآمیز آسیبهای ناخواستهای را وارد میکنند که میتواند تعصبات انسانی را تداوم بخشیده و پیامدهای فاجعهباری را برای کل جامعه به بار بیاورد. هوش مصنوعی مکانیزمهای ناقصی برای مدیریت دارایی فکری دارد.
سازمانها باید دستورالعملهایی را ایجاد و اجرایی کنند تا اطمینان پیدا کنند که از انصاف، حریم خصوصی و اخلاق محافظت میشود. یکی از مسائلی که در این خصوص وجود دارد این است که این دادهها چگونه و از طریق چه کسی به دست میآیند و اعتبارسنجی میشوند. مساله دیگر، مالکیت محتوای تولید شده توسط هوش مصنوعی است. ما در شرکت HP مجموعهای از اصول حاکمیت هوش مصنوعی را برای استفاده مسوولانه از هوش مصنوعی اتخاذ کردهایم. و این اصول را از طریق مجموعهای از برنامهها و فرآیندهای تعریفشده، از جمله مکانیزمهای راهاندازی، دستورالعملهای راهبری، ابزارهای آموزشی و کمیتههای نظارتی اجرا میکنیم.
آن ماری لاوین، معاون ارشد اقدامات استراتژیک شرکت «اسنوفلیک»
هوش مصنوعی به شالوده استراتژی کسب و کار مدرن تبدیل میشود و یک حقیقت در مورد آن به طور کامل روشن شده است: هوش مصنوعی سازمانی بدون یک استراتژی داده قوی نمیتواند موفق شود. به همان اندازه، یک استراتژی داده محدود و منزویشده نیز نمیتواند کارآیی داشته باشد.
در واقع، دادههای محدودشده یا نادرست میتوانند تا ۳۰درصد از درآمد سالانه شرکتها را به خطر بیندازند. موسسه گارتنر گزارش داده که سازمانها تا ۹۷درصد از دادههای خود را استفاده نمیکنند و فرصتهای بزرگ برای رشد را از دست میدهند.
شرکت اسنوفلیک (Snowflake) با پشتیبانی از فرمتهای باز مانند Apache Iceberg امکان به اشتراکگذاری و نظارت یکپارچه دادهها را برای مدلهای قوی و قابل اعتماد فراهم کرده است.
یک مثال بارز، استارتآپ نروژی Völur است که با استفاده از قابلیتهای تعاملی ما، توانسته دادهها را به شکل امنی به اشتراک بگذارد و نوآوریهایی را در عرصه هوش مصنوعی ایجاد کند که باعث جریانهای درآمدی جدیدی برای آن شده است. آینده همین شکلی است: یک اکوسیستم داده مشارکتی و به هم متصل که تحول شفاف و منصفانه مبتنی بر هوش مصنوعی را تسریع میکند.
منبع: World Economic Forum