این اپلیکیشن جان بیماران را نجات می‌دهد/ راز بزرگ افشا شد

در نوامبر ۲۰۱۵، بیمارستان «رویال فری» لندن و شرکت «دیپ‌مایند» (زیرمجموعه گوگل) قراردادی پنهانی امضا کردند که اگرچه ظاهراً هدفی نوآورانه داشت، اما در واقع زلزله‌ای اخلاقی به پا کرد؛ چرا که قیمت این همکاری، بهره‌برداری از داده‌های حساس ۱.۶ میلیون بیمار بود.

اگرچه دستاوردهای هوش مصنوعی در پزشکی همچون تشخیص زودهنگام سرطان و پیش‌بینی سکته انکارناپذیر است، اما این گزارش قصد ندارد علم را زیر سوال ببرد؛ بلکه می‌خواهد بر چالش‌های اخلاقی و حقوقی این فناوری تاکید کند که معضلی جهانی است و در صورت عدم نظارت دقیق، می‌تواند در هر کشوری، از جمله ایران، رخ دهد.

اورژانس شلوغ و پرونده‌های محرمانه رد و بدل می‌شوند

داستان از جایی شروع می‌شود که بخش اورژانس بیمارستان رویال فری، مانند هر روز دیگر، صحنه‌ای از هرج‌ومرج کنترل‌شده بود. بوی تند مواد ضدعفونی‌کننده با فریادهای آمبولانس‌های رسیده از خیابان‌های لندن در هم آمیخته بود.

پزشکان با تکه کاغذهایی در دست که ممکن بود حاوی حیاتی‌ترین اطلاعات زندگی یک انسان باشد، از تخت‌ای به تخت دیگر می‌دویدند.

در این میان، دکتر «داوید فینوی»، معاون سابق پزشکی و رئیس بخش پزشکی اورژانس، سال‌ها بود که با این سیستم آشنا بود. او مردی بود که با فرهنگ کاغذی و پرونده‌های فیزیکی قدیمی خو گرفته بود و می‌دانست که در این هرج‌ومرج، حتی یک ثانیه تأخیر در دسترسی به اطلاعات آزمایش خون، می‌تواند به معنای مرگ یک بیمار باشد.

اما دکتر فینوی و همکارانش، در آن روزهای پایانی سال ۲۰۱۵، از یک جریان بی‌صدا اما عظیم بی‌خبر بودند؛ جریانی از داده‌ها که قرار بود از سرورهای بیمارستان بیرون کشیده شوند و به سمت دیتاسنترهای پیشرفته‌ی یک شرکت فناوری در کالیفرنیا جاری شوند.

اپلیکیشنی برای نجات جان انسان‌ها طراحی می‌گردد

قرارداد امضا شده در ۲۹ نوامبر ۲۰۱۵، ظاهراً هدفی نیک داشت. توسعه اپلیکیشنی به نام «استریمز» در دستور کار قرار گرفت.

ابزاری که قرار بود روی تلفن همراه پزشکان نصب شود و با ارسال هشدارهای رنگی، نارسایی حاد کلیه را در بیماران تشخیص دهد. بیماری که اگر به موقع شناسایی نشود، می‌تواند ظرف چند ساعت جان انسان را بگیرد.

اما آنچه در زیر این ظاهر نیکو پنهان شده بود، واقعیتی تلخ بود. برای اینکه این رنگ‌ها درست کار کنند و الگوریتم‌های هوش مصنوعی بتوانند خطر را پیش‌بینی کنند، آن‌ها به سوخت نیاز داشتند؛ سوختی به نام داده‌های واقعی و خام.

داده‌های خام بیماران برای آموزش الگوریتم‌ها به کار می‌رود

از سال ۲۰۱۵ تا اوایل ۲۰۱۶، در حالی که بیماران بی‌گناه برای درمان به بیمارستان مراجعه می‌کردند، اطلاعات کامل و تاریخی آن‌ها به صورت دیجیتالی منتقل شد.

تعداد این رکوردها به ۱.۶ میلیون مورد می‌رسید؛ اطلاعاتی که مربوط به بازه زمانی سال ۲۰۰۹ تا ۲۰۱۵ بود. بیمارستان، برای فرار از بوروکراسی اداری و دریافت رضایت‌نامه جداگانه از این جمعیت عظیم، به یک ترفند قانونی متوسل شد.

آن‌ها مدعی شدند که انتقال این داده‌ها به شرکت دیپ‌مایند، جزئی از «مراقبت مستقیم» از بیمار است و چون نهایتاً قرار است به سلامت بیمار کمک کند، نیازی به اجازه‌ی صریح او نیست.

اما در واقعیت، داده‌ها برای «توسعه و تست نرم‌افزار» استفاده می‌شد، نه برای درمان یک بیمار خاص در لحظه. این تفسیر سلیقه‌ای و گسترده از قانون، اولین گره در این داستان پیچیده بود. گرهی که می‌توانست اعتماد عمومی را برای همدیگر ببلعد.

مدیرعامل دیپ‌مایند نیت خیر خود را اعلام می‌کند

دکتر مصطفی سلیمان، یکی از بنیان‌گذاران دیپ‌مایند و رئیس بخش Applied AI در آن زمان، در دفاع از این پروژه معتقد بود که این همکاری می‌تواند جان ۱۰,۰۰۰ نفر در سال را نجات دهد.

او در بیانیه‌ای گفت: «ما اینجا هستیم تا به پزشکان قدرت بدهیم تا سریع‌تر تصمیم بگیرند. داده‌ها فقط در اختیار بیمارستان باقی می‌ماند و ما از آن برای ساخت سیستم هوشمند استفاده می‌کنیم.»

او و تیمش تلاش می‌کردند پروژه را در قابی از اخلاق و نجات انسان‌ها نشان دهند. اما در سوی دیگر ماجرا، دکتر داوید فینوی و بسیاری از کارکنان بیمارستان، با خواندن جزئیات قرارداد، به وحشت افتادند.

پزشکان نسبت به نقض حریم خصوصی بیماران اعتراض می‌کنند

دکتر فینوی، که سال‌ها سوگند خورده بود اسرار بیماران را حفظ کند، نتوانست سکوت کند. او در فضایی پر از تنش، نامه‌هایی به مدیریت بیمارستان نوشت و صدای وجدان بیدار سیستم شد.

او در گفت‌وگوهای داخلی با صراحت گفت: «این داده‌ها متعلق به بیماران است، نه به بیمارستان. ما فقط نگهبان آن‌ها هستیم. اینکه یک شرکت تجاری بتواند بدون اینکه بیمار حتی بداند، به تاریخچه کامل پزشکی‌اش دسترسی داشته باشد، اخلاقی نیست و قانونی هم به نظر نمی‌رسد.»

این واکنش نشان‌دهنده‌ی شکاف عمیقی بود که بین نیت خیر تکنولوژی و اصول اخلاقی پزشکی باز شده بود. پزشکان احساس می‌کردند ابزار دست شرکت‌هایی شده‌اند که هیچ درکی از سوگند بقراط ندارند.

روزنامه گاردین راز بزرگ را فاش می‌سازد

سکوت سنگین حاکم بر این قرارداد، سرانجام در چهارم ماه می سال ۲۰۱۶ شکسته شد. روزنامه معتبر «گاردین»، با استناد به اسناد محرمانه‌ای که به دست رسیده بود، تیتری زد که مثل سنگی در آب آرام سیستم سلامت بریتانیا فرود آمد.

تیتر خبر می‌گفت: «گوگل به داده‌های میلیون‌ها بیمار NHS دسترسی یافته است.» این افشاگری، موجی از شوک و نگرانی را در جامعه بریتانیا به راه انداخت. مردم ناگهان متوجه شدند که اعتمادشان، وقتی فرم‌های پذیرش را در اورژانس پر می‌کردند، سوءتفاهمی بیش نبوده است.

تصور پرونده‌هایی که شامل حساس‌ترین لحظات زندگی آن‌ها بود، حالا روی سرورهای یک شرکت غول‌پیکر سیلیکونی ولی ذخیره شده بود.

نهاد ناظر بر داده‌ها تحقیقات را آغاز می‌نماید

واکنش‌ها تند بود. از سوی رسانه‌ها گرفته تا فعالان حقوق دیجیتال، همه خواستار توضیح بودند. چرا بیماران مطلع نشدند؟ آیا گوگل در حال خواندن پرونده‌های پزشکی ماست؟ این فشار عمومی باعث شد اداره کمیسر اطلاعات بریتانیا وارد عمل شود.

تحقیقات گسترده‌ای آغاز شد تا مشخص شود آیا بیمارستان رویال فری قانون حفاظت از داده‌ها را نقض کرده است یا خیر. در طول این مدت، دکتر فینوی و سایر پزشکان همچنان بر موضع خود پافشاری می‌کردند و می‌گفتند که اخلاق حرفه‌ای آن‌ها زیر سوال رفته است. جامعه پزشکی بریتانیا دو قطبی شده بود؛ عده‌ای مشتاق پیشرفت تکنولوژی و عده‌ای نگران از دست رفتن حریم خصوصی.

دادگاه نقض قانون را تایید و حکم صادر می‌کند

سرانجام، در سوم ماه جولای سال ۲۰۱۷، چکش قانون به صدا درآمد. اداره کمیسر اطلاعات حکم رسمی خود را صادر کرد. این حکم که می‌توانست نقطه عطفی در تاریخ حقوق دیجیتال باشد، صراحتاً اعلام کرد که بیمارستان رویال فری قانون ۱۹۹۸ حفاظت از داده‌ها را نقض کرده است.

ناظران دریافتند که استفاده از داده‌ها برای «توسعه نرم‌افزار» با «مراقبت مستقیم» تفاوت بنیادین دارد. بیمارستان نمی‌توانست با بهانه‌ی نجات جان بیماران در آینده، حریم خصوصی آن‌ها را در حال نقض کند.

اگرچه جریمه نقدی سنگینی صادر نشد، زیرا دیپ‌مایند قصد سوءاستفاده تجاری مستقیم در آن لحظه را نداشت، اما توبیخ جدی برای عدم شفافیت صادر گردید.

قوانین جدید برای حفاظت از داده‌های سلامت وضع می‌گردد

این حکم، پیامدهای فراتر از یک قرارداد خاص داشت. این رویداد به عنوان یک مطالعه موردی برای تدوین قوانین سخت‌گیرانه‌تر در مورد داده‌های سلامت در اروپا، به ویژه در قالب مقررات «جی‌دی‌پی‌آر» تبدیل شد.

شرکت‌های فناوری متوجه شدند که نمی‌توانند بدون شفافیت کامل و رضایت صریح، به گنجینه داده‌های سلامت دسترسی پیدا کنند. اعتماد، کالایی بود که یک‌بار خراب شده بود و بازگرداندن آن هزینه داشت.

در پس‌زمینه این ماجرا، جزئیات عینی و دردناکی وجود دارد که نباید فراموش شود. اپلیکیشن «استریمز»، با وجود تمام جنجال‌ها، ابزاری قدرتمند بود.

یک صفحه نمایش موبایل که رنگ زرد و قرمز داشت؛ رنگی که می‌توانست فاصله بین آزمایش خون و تجویز دارو را از ساعت‌ها به دقیقه‌ها کاهش دهد.

اعتماد از دست رفته جامعه پزشکی باز نمی‌گردد

دکتر فینوی و همکارانش، در پایان این ماجرا، پیروز میدان اخلاق شدند، اما جنگ برای حفظ حریم خصوصی تازه آغاز شده بود. بیمارستان رویال فری و دیپ‌مایند مجبور شدند قرارداد را بازنگری کنند و توضیح دهند که چرا فرآیند رضایت‌نامه نادیده گرفته شده بود.

آن‌ها کمیته‌های مشورتی مستقل تشکیل دادند تا شفافیت را بازگردانند. اما برای آن ۱.۶ میلیون نفری که داده‌هایشان بدون اجازه آن‌ها استفاده شده بود، هیچ دکمه‌ی «برگشت» وجود نداشت.

این داستان، روایتی از تضاد بین «توسعه» و «درمان» است. داستانی که نشان می‌دهد چگونه تفسیرهای خلاقانه از قانون، می‌تواند گره‌های اخلاقی ایجاد کند که حل آن‌ها سال‌ها طول می‌کشد. در عصر دیجیتال، «داده» جدیدترین ارز باارزش است، و همان‌طور که دکتر فینوی هشدار داد، حفاظت از این ارز به اندازه خود درمان حیاتی است.

پزشکان با تردید به تکنولوژی نگاه می‌کنند

اکنون، با گذشت سال‌ها از آن قرارداد پنهانی، هر بار که پزشکی در لندن گوشی خود را برمی‌دارد و هشداری را در اپلیکیشن استریمز می‌بیند، شاید یاد آن روزهای برفی نوامبر بیفتد.

روزهایی که تصمیماتی در اتاق‌های بسته گرفته شد، نه فقط برای نوشتن چند خط کد، بلکه برای تعریف مجدد رابطه بین پزشک، بیمار و ماشین. رابطه‌ای که دیگر هرگز مثل سابق نخواهد بود، زیرا اعتماد، مانند یک ظرف شیشه‌ای است؛ وقتی می‌شکند، حتی اگر با بهترین چسب‌های دنیا چسبانده شود، جای ترک‌ش آن همیشه باقی می‌ماند.

و این ترک‌ها، روی بدنه سیستم سلامت مدرن، یادآوری دائمی از قیمت آزادی و حریم خصوصی در عصر هوش مصنوعی هستند.

درس‌آموزی از این تجربه نباید به معنای پذیرش بدبینی نسبت به علم و فناوری یا تقبیح دستاوردهای کشورهای پیشرفته باشد؛ بلکه باید به عنوان هشداری برای تمامی ملت‌ها تلقی شود که در مسیر بهره‌مندی از ابزارهای قدرتمند نظیر جراحی رباتیک، هوش مصنوعی تشخیصی و بانک‌های اطلاعاتی سلامت، باید مراقب باشند تا شتاب توسعه، باعث فراموشی حریم انسانی نشود.

این پتانسیل لغزش در هر سیستم سلامتی، چه در غرب و چه در شرق، و حتی در کشور خودمان وجود دارد و تنها با تدوین قوانین شفاف و احترام به حقوق شهروندی می‌توان از تکرار آن جلوگیری کرد.

 

بخش سایت‌خوان، صرفا بازتاب‌دهنده اخبار رسانه‌های رسمی کشور است.