20 نوامبر
2023
هوش مصنوعی آماده است که مراقبت های بهداشتی را متحول کند – اما چگونه می توانیم با خطرات مبارزه کنیم؟
توسط آرتی رامان، مدیرعامل و موسس، Portal26.
شکی نیست که هوش مصنوعی (AI) پیامدهای فوق العاده ای برای دنیای مراقبت های بهداشتی دارد. لیست برنامه ها طولانی است. از استفاده از یادگیری ماشین برای تجزیه و تحلیل تصاویر پزشکی گرفته تا تسهیل ارتباط بیمار از طریق رباتهای گفتگو و حتی استفاده از ابزارهای پیشبینی برای شناسایی بیماران پرخطر، هوش مصنوعی پتانسیل ارتقای سیستمهای مراقبتهای بهداشتی را دارد.
و این بدان معنا نیست که هوش مصنوعی میتواند با خودکار کردن مواردی مانند ورود دادهها و زمانبندی قرار ملاقات، در باطن صرفهجویی کند، در نتیجه به متخصصان مراقبتهای بهداشتی زمان بیشتری برای تمرکز بر روی تشخیص و درمان بیماران خود میدهد.
با این حال، بسیاری در صنعت با ترس به این فناوری جدید نزدیک شده اند. نقض بالقوه قوانین حفظ حریم خصوصی پزشکی یک نگرانی دائمی برای سازمان های مراقبت های بهداشتی است و هوش مصنوعی – با الگوریتم های به ظاهر مبهم و استعداد بالقوه اش برای نقض – می تواند در این زمینه بیش از ارزشش مشکل به نظر برسد.
واقعیت پیچیده تر است. بله، هوش مصنوعی مولد هنگامی که بدون اقدامات احتیاطی مناسب مورد استفاده قرار گیرد، مانند هر فناوری، خطری برای سازمانهای مراقبتهای بهداشتی ایجاد میکند. در واقع، نزدیک به 60 درصد از پاسخ دهندگان صنعت مراقبت های بهداشتی به نظرسنجی اخیر انجام شده توسط Portal26 حداقل یک حادثه امنیتی یا سوء استفاده مرتبط با GenAI را در شش ماه گذشته ذکر کرده اند. اما با وجود مکانیسم های امنیتی مناسب، مزایای هوش مصنوعی به طور قابل ملاحظه از جنبه های منفی احتمالی بیشتر است.
مشکل این است که – همانطور که همان نظرسنجی نشان داد – تقریباً 30 درصد از پاسخ دهندگان مراقبت های بهداشتی گفتند که کارفرمایان آنها فاقد هرگونه دستورالعمل یا خط مشی در مورد استفاده از هوش مصنوعی هستند. ایجاد این دستورالعمل ها – اجرای هوش مصنوعی تا حد امکان با دقت و احتیاط – برای تحقق امکان واقعی این فناوری ضروری است.
دید کامل را در سیستم های هوش مصنوعی خود ایمن کنید
در مرکز هرگونه نگرانی در مورد AI و نقض حریم خصوصی پزشکی، اطلاعات بهداشتی محافظت شده (PHI) قرار دارد. PHI شامل هر گونه اطلاعات مربوط به:
- سلامت جسمانی یا روانی گذشته، حال یا آینده یک فرد.
- ارائه خدمات بهداشتی به آن فرد.
- سابقه پرداخت فرد.
تغذیه PHI در مدلهای زبان بزرگ (LLM) که در پایه GenAI قرار دارند، میتواند سود زیادی به سازمانهای مراقبتهای بهداشتی بدهد که به دنبال بهینهسازی فعالیتهای روزانه خود هستند. اما دستیابی موفقیت آمیز به این هدف، با حداقل ریسک، مستلزم اتخاذ نگرش بسیار فعالانه نسبت به نحوه دقیق استفاده از این داده ها است.
کلمه کلیدی در اینجا “قابلیت دید” است. اگر میخواهید مقادیر زیادی PHI حساس را به سیستمهای خود وارد کنید، باید مطمئن شوید که از چیست، چه کسی و برای چه هدفی از آن استفاده میکند، آگاه باشید. نیاز به این امر به ویژه با توجه به ظهور “هوش مصنوعی سایه” بسیار شدید است – یعنی فعالیت های مرتبط با هوش مصنوعی خارج از چشم کسانی که وظیفه نظارت بر آن را دارند رخ می دهد.
جای تعجب نیست که 67 درصد از پاسخ دهندگان صنعت مراقبت های بهداشتی به نظرسنجی Portal26 نگران هوش مصنوعی سایه در شرکت های خود هستند. این مشکلی است که هر روز در حال افزایش است – و تنها با افزایش دید می توان آن را محدود کرد.
منابع قابل توجهی را به حاکمیت هوش مصنوعی اختصاص دهید
برای یک سازمان مراقبت های بهداشتی، چیزی به نام فناوری هوش مصنوعی خارج از جعبه وجود ندارد: هر نمونه ای از استفاده از هوش مصنوعی باید با مجموعه بزرگتری از اصول حاکم از پیش تعیین شده و مبتنی بر اخلاق هماهنگ شود. به طور معمول، این موارد تعهد به عدم آسیب، به کارگیری پروتکلها و روشهای شفاف، اطمینان از حداقل سوگیری، و – مهمتر – اطلاعرسانی به بیماران را تایید میکنند.
همانطور که هر LLM در یک حالت شار ثابت وجود دارد – پیوسته با ورودیها و شرایط جدید تطبیق مییابد – همچنین باید مدیریت هوش مصنوعی شما یک موجود زنده و سازگار باشد. گروههای تخصصی و فرابخشی باید تشکیل شوند تا مسائل مربوط به حفظ حریم خصوصی و اخلاقی را بررسی کنند. پزشکان باید به طور جامع در مورد چگونگی استفاده از فناوری و درک نتایج آن آموزش ببینند. علاوه بر این، الگوریتمها باید بهدقت مورد آزمایش قرار گیرند، در معرض بازبینی همتایان قرار گیرند و یک بار در عمل به طور مداوم نظارت شوند.
بر اساس نظرسنجی Portal26، 71 درصد از سازمان های مراقبت های بهداشتی درباره حکمرانی هوش مصنوعی ابراز نگرانی کرده اند. البته، مقیاسی که اکثر سازمانهای مراقبتهای بهداشتی در آن فعالیت میکنند – و هزاران تصمیم خرد که باید هر روز گرفته شوند – اجرای این سیاستها را چالشبرانگیز میسازد. برای این منظور، ابزارهای مدیریتی اختصاصی هوش مصنوعی میتواند راه طولانی را در جهت تسهیل فرآیند و حفظ سازمانهای مراقبتهای بهداشتی با رعایت آنها انجام دهد.
مطمئن شوید که مدلهای هوش مصنوعی رمزگذاری شده و (در صورت لزوم) شناسایی نشدهاند
باز هم: هیچ برنامه هوش مصنوعی نمی تواند بدون تغذیه حجم زیادی از PHI حساس بالقوه از زمین خارج شود. ناگزیر، دادههای حساس متمرکز، یک سازمان را به هدفی برای مهاجمان تبدیل میکند – به همین دلیل است که قابل درک است که اکثر پاسخدهندگان به Portal26 نگرانیهایی را درباره GenAI و امنیت دادهها ابراز کردهاند.
و بنابراین، در حالی که دیده شدن و حاکمیت کافی هر دو مهم هستند، آنها فقط بدون مکانیزم های رمزگذاری قوی شما را به این نتیجه می رساند. برای محافظت واقعی از PHI، این مکانیسمهای رمزگذاری باید در هر مرحله از فرآیند – قبل، در طول و بعد از فرآیند آموزش – وجود داشته باشند. سازمانهای مراقبتهای بهداشتی همچنین باید بتوانند در صورت لزوم PHI را شناسایی کنند و (در حالت ایدهآل) آن دادهها را با دادههایی که حریم خصوصی بیمار را حفظ میکند جایگزین کنند.
کاربردهای بالقوه هوش مصنوعی در حوزه مراقبت های بهداشتی به قدری متنوع، متنوع و نوآورانه است که در مجموع، به درستی می توان گفت که انقلابی در این زمینه ایجاد می کند. اما «انقلاب» میتواند واژهای گمراهکننده باشد: بازنگری سریع رویههای موجود را پیشنهاد میکند، بدون تعهد همزمان به انواع تصمیمگیریهای دقیق، چندجانبه و سیاستمحور که باعث انقلاب میشود. آخر. تنها زمانی که این دو با هم ترکیب شوند – نوآوری های رادیکال تکنولوژیکی به اضافه نرده های محافظ امنیتی و حریم خصوصی – است که یک انقلاب واقعی در شیوه های موجود رخ می دهد.