این اپلیکیشن جان بیماران را نجات میدهد/ راز بزرگ افشا شد
در نوامبر ۲۰۱۵، بیمارستان «رویال فری» لندن و شرکت «دیپمایند» (زیرمجموعه گوگل) قراردادی پنهانی امضا کردند که اگرچه ظاهراً هدفی نوآورانه داشت، اما در واقع زلزلهای اخلاقی به پا کرد؛ چرا که قیمت این همکاری، بهرهبرداری از دادههای حساس ۱.۶ میلیون بیمار بود.
اگرچه دستاوردهای هوش مصنوعی در پزشکی همچون تشخیص زودهنگام سرطان و پیشبینی سکته انکارناپذیر است، اما این گزارش قصد ندارد علم را زیر سوال ببرد؛ بلکه میخواهد بر چالشهای اخلاقی و حقوقی این فناوری تاکید کند که معضلی جهانی است و در صورت عدم نظارت دقیق، میتواند در هر کشوری، از جمله ایران، رخ دهد.
اورژانس شلوغ و پروندههای محرمانه رد و بدل میشوند
داستان از جایی شروع میشود که بخش اورژانس بیمارستان رویال فری، مانند هر روز دیگر، صحنهای از هرجومرج کنترلشده بود. بوی تند مواد ضدعفونیکننده با فریادهای آمبولانسهای رسیده از خیابانهای لندن در هم آمیخته بود.
پزشکان با تکه کاغذهایی در دست که ممکن بود حاوی حیاتیترین اطلاعات زندگی یک انسان باشد، از تختای به تخت دیگر میدویدند.
در این میان، دکتر «داوید فینوی»، معاون سابق پزشکی و رئیس بخش پزشکی اورژانس، سالها بود که با این سیستم آشنا بود. او مردی بود که با فرهنگ کاغذی و پروندههای فیزیکی قدیمی خو گرفته بود و میدانست که در این هرجومرج، حتی یک ثانیه تأخیر در دسترسی به اطلاعات آزمایش خون، میتواند به معنای مرگ یک بیمار باشد.
اما دکتر فینوی و همکارانش، در آن روزهای پایانی سال ۲۰۱۵، از یک جریان بیصدا اما عظیم بیخبر بودند؛ جریانی از دادهها که قرار بود از سرورهای بیمارستان بیرون کشیده شوند و به سمت دیتاسنترهای پیشرفتهی یک شرکت فناوری در کالیفرنیا جاری شوند.
اپلیکیشنی برای نجات جان انسانها طراحی میگردد
قرارداد امضا شده در ۲۹ نوامبر ۲۰۱۵، ظاهراً هدفی نیک داشت. توسعه اپلیکیشنی به نام «استریمز» در دستور کار قرار گرفت.
ابزاری که قرار بود روی تلفن همراه پزشکان نصب شود و با ارسال هشدارهای رنگی، نارسایی حاد کلیه را در بیماران تشخیص دهد. بیماری که اگر به موقع شناسایی نشود، میتواند ظرف چند ساعت جان انسان را بگیرد.
اما آنچه در زیر این ظاهر نیکو پنهان شده بود، واقعیتی تلخ بود. برای اینکه این رنگها درست کار کنند و الگوریتمهای هوش مصنوعی بتوانند خطر را پیشبینی کنند، آنها به سوخت نیاز داشتند؛ سوختی به نام دادههای واقعی و خام.
دادههای خام بیماران برای آموزش الگوریتمها به کار میرود
از سال ۲۰۱۵ تا اوایل ۲۰۱۶، در حالی که بیماران بیگناه برای درمان به بیمارستان مراجعه میکردند، اطلاعات کامل و تاریخی آنها به صورت دیجیتالی منتقل شد.
تعداد این رکوردها به ۱.۶ میلیون مورد میرسید؛ اطلاعاتی که مربوط به بازه زمانی سال ۲۰۰۹ تا ۲۰۱۵ بود. بیمارستان، برای فرار از بوروکراسی اداری و دریافت رضایتنامه جداگانه از این جمعیت عظیم، به یک ترفند قانونی متوسل شد.
آنها مدعی شدند که انتقال این دادهها به شرکت دیپمایند، جزئی از «مراقبت مستقیم» از بیمار است و چون نهایتاً قرار است به سلامت بیمار کمک کند، نیازی به اجازهی صریح او نیست.
اما در واقعیت، دادهها برای «توسعه و تست نرمافزار» استفاده میشد، نه برای درمان یک بیمار خاص در لحظه. این تفسیر سلیقهای و گسترده از قانون، اولین گره در این داستان پیچیده بود. گرهی که میتوانست اعتماد عمومی را برای همدیگر ببلعد.
مدیرعامل دیپمایند نیت خیر خود را اعلام میکند
دکتر مصطفی سلیمان، یکی از بنیانگذاران دیپمایند و رئیس بخش Applied AI در آن زمان، در دفاع از این پروژه معتقد بود که این همکاری میتواند جان ۱۰,۰۰۰ نفر در سال را نجات دهد.
او در بیانیهای گفت: «ما اینجا هستیم تا به پزشکان قدرت بدهیم تا سریعتر تصمیم بگیرند. دادهها فقط در اختیار بیمارستان باقی میماند و ما از آن برای ساخت سیستم هوشمند استفاده میکنیم.»
او و تیمش تلاش میکردند پروژه را در قابی از اخلاق و نجات انسانها نشان دهند. اما در سوی دیگر ماجرا، دکتر داوید فینوی و بسیاری از کارکنان بیمارستان، با خواندن جزئیات قرارداد، به وحشت افتادند.
پزشکان نسبت به نقض حریم خصوصی بیماران اعتراض میکنند
دکتر فینوی، که سالها سوگند خورده بود اسرار بیماران را حفظ کند، نتوانست سکوت کند. او در فضایی پر از تنش، نامههایی به مدیریت بیمارستان نوشت و صدای وجدان بیدار سیستم شد.
او در گفتوگوهای داخلی با صراحت گفت: «این دادهها متعلق به بیماران است، نه به بیمارستان. ما فقط نگهبان آنها هستیم. اینکه یک شرکت تجاری بتواند بدون اینکه بیمار حتی بداند، به تاریخچه کامل پزشکیاش دسترسی داشته باشد، اخلاقی نیست و قانونی هم به نظر نمیرسد.»
این واکنش نشاندهندهی شکاف عمیقی بود که بین نیت خیر تکنولوژی و اصول اخلاقی پزشکی باز شده بود. پزشکان احساس میکردند ابزار دست شرکتهایی شدهاند که هیچ درکی از سوگند بقراط ندارند.
روزنامه گاردین راز بزرگ را فاش میسازد
سکوت سنگین حاکم بر این قرارداد، سرانجام در چهارم ماه می سال ۲۰۱۶ شکسته شد. روزنامه معتبر «گاردین»، با استناد به اسناد محرمانهای که به دست رسیده بود، تیتری زد که مثل سنگی در آب آرام سیستم سلامت بریتانیا فرود آمد.
تیتر خبر میگفت: «گوگل به دادههای میلیونها بیمار NHS دسترسی یافته است.» این افشاگری، موجی از شوک و نگرانی را در جامعه بریتانیا به راه انداخت. مردم ناگهان متوجه شدند که اعتمادشان، وقتی فرمهای پذیرش را در اورژانس پر میکردند، سوءتفاهمی بیش نبوده است.
تصور پروندههایی که شامل حساسترین لحظات زندگی آنها بود، حالا روی سرورهای یک شرکت غولپیکر سیلیکونی ولی ذخیره شده بود.
نهاد ناظر بر دادهها تحقیقات را آغاز مینماید
واکنشها تند بود. از سوی رسانهها گرفته تا فعالان حقوق دیجیتال، همه خواستار توضیح بودند. چرا بیماران مطلع نشدند؟ آیا گوگل در حال خواندن پروندههای پزشکی ماست؟ این فشار عمومی باعث شد اداره کمیسر اطلاعات بریتانیا وارد عمل شود.
تحقیقات گستردهای آغاز شد تا مشخص شود آیا بیمارستان رویال فری قانون حفاظت از دادهها را نقض کرده است یا خیر. در طول این مدت، دکتر فینوی و سایر پزشکان همچنان بر موضع خود پافشاری میکردند و میگفتند که اخلاق حرفهای آنها زیر سوال رفته است. جامعه پزشکی بریتانیا دو قطبی شده بود؛ عدهای مشتاق پیشرفت تکنولوژی و عدهای نگران از دست رفتن حریم خصوصی.
دادگاه نقض قانون را تایید و حکم صادر میکند
سرانجام، در سوم ماه جولای سال ۲۰۱۷، چکش قانون به صدا درآمد. اداره کمیسر اطلاعات حکم رسمی خود را صادر کرد. این حکم که میتوانست نقطه عطفی در تاریخ حقوق دیجیتال باشد، صراحتاً اعلام کرد که بیمارستان رویال فری قانون ۱۹۹۸ حفاظت از دادهها را نقض کرده است.
ناظران دریافتند که استفاده از دادهها برای «توسعه نرمافزار» با «مراقبت مستقیم» تفاوت بنیادین دارد. بیمارستان نمیتوانست با بهانهی نجات جان بیماران در آینده، حریم خصوصی آنها را در حال نقض کند.
اگرچه جریمه نقدی سنگینی صادر نشد، زیرا دیپمایند قصد سوءاستفاده تجاری مستقیم در آن لحظه را نداشت، اما توبیخ جدی برای عدم شفافیت صادر گردید.
قوانین جدید برای حفاظت از دادههای سلامت وضع میگردد
این حکم، پیامدهای فراتر از یک قرارداد خاص داشت. این رویداد به عنوان یک مطالعه موردی برای تدوین قوانین سختگیرانهتر در مورد دادههای سلامت در اروپا، به ویژه در قالب مقررات «جیدیپیآر» تبدیل شد.
شرکتهای فناوری متوجه شدند که نمیتوانند بدون شفافیت کامل و رضایت صریح، به گنجینه دادههای سلامت دسترسی پیدا کنند. اعتماد، کالایی بود که یکبار خراب شده بود و بازگرداندن آن هزینه داشت.
در پسزمینه این ماجرا، جزئیات عینی و دردناکی وجود دارد که نباید فراموش شود. اپلیکیشن «استریمز»، با وجود تمام جنجالها، ابزاری قدرتمند بود.
یک صفحه نمایش موبایل که رنگ زرد و قرمز داشت؛ رنگی که میتوانست فاصله بین آزمایش خون و تجویز دارو را از ساعتها به دقیقهها کاهش دهد.
اعتماد از دست رفته جامعه پزشکی باز نمیگردد
دکتر فینوی و همکارانش، در پایان این ماجرا، پیروز میدان اخلاق شدند، اما جنگ برای حفظ حریم خصوصی تازه آغاز شده بود. بیمارستان رویال فری و دیپمایند مجبور شدند قرارداد را بازنگری کنند و توضیح دهند که چرا فرآیند رضایتنامه نادیده گرفته شده بود.
آنها کمیتههای مشورتی مستقل تشکیل دادند تا شفافیت را بازگردانند. اما برای آن ۱.۶ میلیون نفری که دادههایشان بدون اجازه آنها استفاده شده بود، هیچ دکمهی «برگشت» وجود نداشت.
این داستان، روایتی از تضاد بین «توسعه» و «درمان» است. داستانی که نشان میدهد چگونه تفسیرهای خلاقانه از قانون، میتواند گرههای اخلاقی ایجاد کند که حل آنها سالها طول میکشد. در عصر دیجیتال، «داده» جدیدترین ارز باارزش است، و همانطور که دکتر فینوی هشدار داد، حفاظت از این ارز به اندازه خود درمان حیاتی است.
پزشکان با تردید به تکنولوژی نگاه میکنند
اکنون، با گذشت سالها از آن قرارداد پنهانی، هر بار که پزشکی در لندن گوشی خود را برمیدارد و هشداری را در اپلیکیشن استریمز میبیند، شاید یاد آن روزهای برفی نوامبر بیفتد.
روزهایی که تصمیماتی در اتاقهای بسته گرفته شد، نه فقط برای نوشتن چند خط کد، بلکه برای تعریف مجدد رابطه بین پزشک، بیمار و ماشین. رابطهای که دیگر هرگز مثل سابق نخواهد بود، زیرا اعتماد، مانند یک ظرف شیشهای است؛ وقتی میشکند، حتی اگر با بهترین چسبهای دنیا چسبانده شود، جای ترکش آن همیشه باقی میماند.
و این ترکها، روی بدنه سیستم سلامت مدرن، یادآوری دائمی از قیمت آزادی و حریم خصوصی در عصر هوش مصنوعی هستند.
درسآموزی از این تجربه نباید به معنای پذیرش بدبینی نسبت به علم و فناوری یا تقبیح دستاوردهای کشورهای پیشرفته باشد؛ بلکه باید به عنوان هشداری برای تمامی ملتها تلقی شود که در مسیر بهرهمندی از ابزارهای قدرتمند نظیر جراحی رباتیک، هوش مصنوعی تشخیصی و بانکهای اطلاعاتی سلامت، باید مراقب باشند تا شتاب توسعه، باعث فراموشی حریم انسانی نشود.
این پتانسیل لغزش در هر سیستم سلامتی، چه در غرب و چه در شرق، و حتی در کشور خودمان وجود دارد و تنها با تدوین قوانین شفاف و احترام به حقوق شهروندی میتوان از تکرار آن جلوگیری کرد.
بخش سایتخوان، صرفا بازتابدهنده اخبار رسانههای رسمی کشور است.