استراتژیست‌ها  در مورد استفاده  مسوولانه  و اخلاقی  از تکنولوژی چه  می‏‏‌گویند؟

این به آن معناست که یک سازمان باید تکنولوژی و داده‌‌‌های خود را برای همه افراد، کل جامعه، محیط‌زیست و سایر ذی‌نفعان طراحی، ایجاد و اجرا کند تا از دسترسی و استفاده گسترده که به نتایج اخلاقی مسوولانه منجر می‌شود اطمینان پیدا کند.

به همین منظور، مجمع جهانی اقتصاد با برخی مقامات استراتژی تکنولوژی اطلاعات و ارتباطات گفت‌‌‌وگو کرده و از آنها پرسیده که چگونه مصرف فراگیر، اخلاقی و مسوولانه را ترویج می‌کنند. این جامعه ۴۰ رهبر ارشد فعال استراتژی از شرکت‌های مرتبط را دربرمی‌گیرد که در حوزه تکنولوژی فعالیت دارند. نظرات تعدادی از آنها به این شرح است:

 یوگنیو کاسیانو، معاون ارشد استراتژی و نوآوری شرکت «سلونیس»

شرکت پردازش داده سلونیس (Celonis) چه در مورد پردازش اطلاعات باشد و چه هوش مصنوعی، متعهد به ساخت سیستم‌های هوشمندی است که نه‌تنها قدرتمند، بلکه مسوولیت‌‌‌پذیر نیز باشند. ما یک مدل نظارتی ساختاریافته برای هوش مصنوعی داریم که بر اصول انصاف، شفافیت و مسوولیت‌‌‌پذیری مبتنی است. و این کار را از طریق فرآیندهای متعددی که توسط کمیته نظارت می‌شود و نیز یک تیم بین‌‌‌رشته‌‌‌ای با تخصص در زمینه‌‌‌های حقوق، اخلاق، مهندسی و توسعه، امنیت داده و حریم خصوصی داده انجام می‌‌‌دهیم.

 این کمیته اختصاصی به طور فعال دستورالعمل‌‌‌های ما را تعیین می‌کند و تضمین می‌کند که اقدامات هوش مصنوعی ما با استانداردهای جهانی و ارزش‌‌‌های شرکت همخوانی دارد.

هوش مصنوعی واقعا یک تکنولوژی متحول‌‌‌کننده است که بیشتر جنبه‌‌‌های زندگی مدرن ما را تحت‌تاثیر قرار خواهد داد. اما نحوه انجام آن هم اهمیت دارد. در سلونیس ما معتقدیم که هم پیشرفت‌‌‌های فنی و هم ملاحظات اخلاقی برای کاهش خطرات و اطمینان از استفاده مسوولانه از هوش مصنوعی، ضروری است.

  راوی کاچیبوتلا، مدیر ارشد استراتژی شرکت «کاگنیزنت»

همان‌طور که هوش مصنوعی تحول کسب و کار و جامعه را ادامه می‌دهد، ایجاد یک چارچوب اعتماد دیجیتالی قوی ضروری است - چارچوبی که قابلیت همکاری را در اولویت قرار می‌دهد و از ارتباط نادرست که اغلب ناشی از سیستم‌های ناهمسو است، جلوگیری می‌کند. یک رکن اصلی این چارچوب انصاف است که رفتار اخلاقی، شفاف و بی‌‌‌طرفانه برای همه را تضمین کند. این امر مستلزم طراحی سیستم‌های هوش مصنوعی است که قابلیت ممیزی و نمایش دیدگاه‌‌‌های متنوع و کاملا شفاف در عملیات خود را داشته باشند. مجموعه پلتفرم‌‌‌های Neuro ما با همسو کردن چند عاملی که برای بهینه‌‌‌سازی انصاف، عملکرد، شفافیت و جامعیت مورد استفاده قرار می‌‌‌گیرند، بدون اینکه یکی را در اولویت قرار دهند این اهداف را متعادل می‌کند.

این امر موجب کاهش سوگیری شده و از طرفی، تضمین می‌کند که تصمیم‌‌‌ها شفاف و قابل تفسیر بوده و موجب ارتقای نتایج عادلانه می‌‌‌شوند. پلتفرم‌‌‌های ما این امکان را برای مشتریان فراهم می‌کنند تا برنامه‌‌‌های کاربردی هوش مصنوعی را که قابل ممیزی و بی‌‌‌طرفانه هستند ادغام کنند، و اطمینان داشته باشند که انصاف در کل زنجیره ارزش جریان دارد و اعتماد به یکپارچگی تکنولوژی را القا می‌کند.

 گانشا راسیا، مدیر ارشد استراتژی شرکت HP

اشاعه سریع هوش مصنوعی مولد و استفاده از مدل‌‌‌های زبانی بزرگ زمینه‌‌‌های بالقوه‌‌‌ای را ایجاد کرده است که می‌تواند اعتماد را به خطر بیندازد. در راس این لیست عدم‌شفافیت قرار دارد.

امروزه، تا حدود زیادی مشخص نیست که کدام الگوریتم‌‌‌ها و مجموعه داده‌‌‌ها مبنای تصمیم‌گیری یک مدل هوش مصنوعی مولد هستند. کاربران برای اینکه بدانند آیا خروجی به دست آمده دقیق، منطقی یا اخلاقی است به چالش کشیده می‌‌‌شوند.

 داده‌‌‌های تحریف‌‌‌‌‌‌شده یا تبعیض‌‌‌آمیز آسیب‌‌‌های ناخواسته‌‌‌ای را وارد می‌کنند که می‌تواند تعصبات انسانی را تداوم بخشیده و پیامدهای فاجعه‌‌‌باری را برای کل جامعه به بار بیاورد. هوش مصنوعی مکانیزم‌‌‌های ناقصی برای مدیریت دارایی فکری دارد.

سازمان‌ها باید دستورالعمل‌‌‌هایی را ایجاد و اجرایی کنند تا اطمینان پیدا کنند که از انصاف، حریم خصوصی و اخلاق محافظت می‌شود. یکی از مسائلی که در این خصوص وجود دارد این است که این داده‌‌‌ها چگونه و از طریق چه کسی به دست می‌‌‌آیند و اعتبارسنجی می‌‌‌شوند. مساله دیگر، مالکیت محتوای تولید شده توسط هوش مصنوعی است. ما در شرکت HP مجموعه‌‌‌ای از اصول حاکمیت هوش مصنوعی را برای استفاده مسوولانه از هوش مصنوعی اتخاذ کرده‌‌‌ایم. و این اصول را از طریق مجموعه‌‌‌ای از برنامه‌‌‌ها و فرآیندهای تعریف‌‌‌شده، از جمله مکانیزم‌‌‌های راه‌‌‌اندازی، دستورالعمل‌‌‌های راهبری، ابزارهای آموزشی و کمیته‌‌‌های نظارتی اجرا می‌‌‌کنیم.

آن ماری لاوین، معاون ارشد اقدامات استراتژیک شرکت «اسنوفلیک»

هوش مصنوعی به شالوده استراتژی کسب و کار مدرن تبدیل می‌شود و یک حقیقت در مورد آن به طور کامل روشن شده است: هوش مصنوعی سازمانی بدون یک استراتژی داده قوی نمی‌تواند موفق شود. به همان اندازه، یک استراتژی داده محدود و منزوی‌‌‌شده نیز نمی‌تواند کارآیی داشته باشد.

در واقع، داده‌‌‌های محدودشده یا نادرست می‌توانند تا ۳۰‌درصد از درآمد سالانه شرکت‌ها را به خطر بیندازند. موسسه گارتنر گزارش داده که سازمان‌ها تا ۹۷‌درصد از داده‌‌‌های خود را استفاده نمی‌‌‌کنند و فرصت‌‌‌های بزرگ برای رشد را از دست می‌دهند.

شرکت اسنوفلیک (Snowflake) با پشتیبانی از فرمت‌‌‌های باز مانند Apache Iceberg امکان به اشتراک‌‌‌گذاری و نظارت یکپارچه داده‌‌‌ها را برای مدل‌‌‌های قوی و قابل اعتماد فراهم کرده است.

یک مثال بارز، استارت‌آپ نروژی Völur است که با استفاده از قابلیت‌‌‌های تعاملی ما، توانسته داده‌‌‌ها را به شکل امنی به اشتراک بگذارد و نو‌‌‌آوری‌‌‌هایی را در عرصه هوش مصنوعی ایجاد کند که باعث جریان‌‌‌های درآمدی جدیدی برای آن شده است. آینده همین شکلی است: یک اکوسیستم داده مشارکتی و به هم متصل که تحول شفاف و منصفانه مبتنی بر هوش مصنوعی را تسریع می‌کند.

منبع: World Economic Forum