هوش مصنوعی آماده است که مراقبت های بهداشتی را متحول کند – اما چگونه می توانیم با خطرات مبارزه کنیم؟


هوش مصنوعی آماده است که مراقبت های بهداشتی را متحول کند – اما چگونه می توانیم با خطرات مبارزه کنیم؟

عکس پروفایل آرتی آرورا رامان
آرتی رامان

توسط آرتی رامان، مدیرعامل و موسس، Portal26.

شکی نیست که هوش مصنوعی (AI) پیامدهای فوق العاده ای برای دنیای مراقبت های بهداشتی دارد. لیست برنامه ها طولانی است. از استفاده از یادگیری ماشین برای تجزیه و تحلیل تصاویر پزشکی گرفته تا تسهیل ارتباط بیمار از طریق ربات‌های گفتگو و حتی استفاده از ابزارهای پیش‌بینی برای شناسایی بیماران پرخطر، هوش مصنوعی پتانسیل ارتقای سیستم‌های مراقبت‌های بهداشتی را دارد.

و این بدان معنا نیست که هوش مصنوعی می‌تواند با خودکار کردن مواردی مانند ورود داده‌ها و زمان‌بندی قرار ملاقات، در باطن صرفه‌جویی کند، در نتیجه به متخصصان مراقبت‌های بهداشتی زمان بیشتری برای تمرکز بر روی تشخیص و درمان بیماران خود می‌دهد.

با این حال، بسیاری در صنعت با ترس به این فناوری جدید نزدیک شده اند. نقض بالقوه قوانین حفظ حریم خصوصی پزشکی یک نگرانی دائمی برای سازمان های مراقبت های بهداشتی است و هوش مصنوعی – با الگوریتم های به ظاهر مبهم و استعداد بالقوه اش برای نقض – ​​می تواند در این زمینه بیش از ارزشش مشکل به نظر برسد.

واقعیت پیچیده تر است. بله، هوش مصنوعی مولد هنگامی که بدون اقدامات احتیاطی مناسب مورد استفاده قرار گیرد، مانند هر فناوری، خطری برای سازمان‌های مراقبت‌های بهداشتی ایجاد می‌کند. در واقع، نزدیک به 60 درصد از پاسخ دهندگان صنعت مراقبت های بهداشتی به نظرسنجی اخیر انجام شده توسط Portal26 حداقل یک حادثه امنیتی یا سوء استفاده مرتبط با GenAI را در شش ماه گذشته ذکر کرده اند. اما با وجود مکانیسم های امنیتی مناسب، مزایای هوش مصنوعی به طور قابل ملاحظه از جنبه های منفی احتمالی بیشتر است.

مشکل این است که – همانطور که همان نظرسنجی نشان داد – تقریباً 30 درصد از پاسخ دهندگان مراقبت های بهداشتی گفتند که کارفرمایان آنها فاقد هرگونه دستورالعمل یا خط مشی در مورد استفاده از هوش مصنوعی هستند. ایجاد این دستورالعمل ها – اجرای هوش مصنوعی تا حد امکان با دقت و احتیاط – برای تحقق امکان واقعی این فناوری ضروری است.

دید کامل را در سیستم های هوش مصنوعی خود ایمن کنید

در مرکز هرگونه نگرانی در مورد AI و نقض حریم خصوصی پزشکی، اطلاعات بهداشتی محافظت شده (PHI) قرار دارد. PHI شامل هر گونه اطلاعات مربوط به:

  • سلامت جسمانی یا روانی گذشته، حال یا آینده یک فرد.
  • ارائه خدمات بهداشتی به آن فرد.
  • سابقه پرداخت فرد.

تغذیه PHI در مدل‌های زبان بزرگ (LLM) که در پایه GenAI قرار دارند، می‌تواند سود زیادی به سازمان‌های مراقبت‌های بهداشتی بدهد که به دنبال بهینه‌سازی فعالیت‌های روزانه خود هستند. اما دستیابی موفقیت آمیز به این هدف، با حداقل ریسک، مستلزم اتخاذ نگرش بسیار فعالانه نسبت به نحوه دقیق استفاده از این داده ها است.

کلمه کلیدی در اینجا “قابلیت دید” است. اگر می‌خواهید مقادیر زیادی PHI حساس را به سیستم‌های خود وارد کنید، باید مطمئن شوید که از چیست، چه کسی و برای چه هدفی از آن استفاده می‌کند، آگاه باشید. نیاز به این امر به ویژه با توجه به ظهور “هوش مصنوعی سایه” بسیار شدید است – یعنی فعالیت های مرتبط با هوش مصنوعی خارج از چشم کسانی که وظیفه نظارت بر آن را دارند رخ می دهد.

جای تعجب نیست که 67 درصد از پاسخ دهندگان صنعت مراقبت های بهداشتی به نظرسنجی Portal26 نگران هوش مصنوعی سایه در شرکت های خود هستند. این مشکلی است که هر روز در حال افزایش است – و تنها با افزایش دید می توان آن را محدود کرد.

منابع قابل توجهی را به حاکمیت هوش مصنوعی اختصاص دهید

برای یک سازمان مراقبت های بهداشتی، چیزی به نام فناوری هوش مصنوعی خارج از جعبه وجود ندارد: هر نمونه ای از استفاده از هوش مصنوعی باید با مجموعه بزرگتری از اصول حاکم از پیش تعیین شده و مبتنی بر اخلاق هماهنگ شود. به طور معمول، این موارد تعهد به عدم آسیب، به کارگیری پروتکل‌ها و روش‌های شفاف، اطمینان از حداقل سوگیری، و – مهم‌تر – اطلاع‌رسانی به بیماران را تایید می‌کنند.

همانطور که هر LLM در یک حالت شار ثابت وجود دارد – پیوسته با ورودی‌ها و شرایط جدید تطبیق می‌یابد – همچنین باید مدیریت هوش مصنوعی شما یک موجود زنده و سازگار باشد. گروه‌های تخصصی و فرابخشی باید تشکیل شوند تا مسائل مربوط به حفظ حریم خصوصی و اخلاقی را بررسی کنند. پزشکان باید به طور جامع در مورد چگونگی استفاده از فناوری و درک نتایج آن آموزش ببینند. علاوه بر این، الگوریتم‌ها باید به‌دقت مورد آزمایش قرار گیرند، در معرض بازبینی همتایان قرار گیرند و یک بار در عمل به طور مداوم نظارت شوند.

بر اساس نظرسنجی Portal26، 71 درصد از سازمان های مراقبت های بهداشتی درباره حکمرانی هوش مصنوعی ابراز نگرانی کرده اند. البته، مقیاسی که اکثر سازمان‌های مراقبت‌های بهداشتی در آن فعالیت می‌کنند – و هزاران تصمیم خرد که باید هر روز گرفته شوند – اجرای این سیاست‌ها را چالش‌برانگیز می‌سازد. برای این منظور، ابزارهای مدیریتی اختصاصی هوش مصنوعی می‌تواند راه طولانی را در جهت تسهیل فرآیند و حفظ سازمان‌های مراقبت‌های بهداشتی با رعایت آنها انجام دهد.

مطمئن شوید که مدل‌های هوش مصنوعی رمزگذاری شده و (در صورت لزوم) شناسایی نشده‌اند

باز هم: هیچ برنامه هوش مصنوعی نمی تواند بدون تغذیه حجم زیادی از PHI حساس بالقوه از زمین خارج شود. ناگزیر، داده‌های حساس متمرکز، یک سازمان را به هدفی برای مهاجمان تبدیل می‌کند – به همین دلیل است که قابل درک است که اکثر پاسخ‌دهندگان به Portal26 نگرانی‌هایی را درباره GenAI و امنیت داده‌ها ابراز کرده‌اند.

و بنابراین، در حالی که دیده شدن و حاکمیت کافی هر دو مهم هستند، آنها فقط بدون مکانیزم های رمزگذاری قوی شما را به این نتیجه می رساند. برای محافظت واقعی از PHI، این مکانیسم‌های رمزگذاری باید در هر مرحله از فرآیند – قبل، در طول و بعد از فرآیند آموزش – وجود داشته باشند. سازمان‌های مراقبت‌های بهداشتی همچنین باید بتوانند در صورت لزوم PHI را شناسایی کنند و (در حالت ایده‌آل) آن داده‌ها را با داده‌هایی که حریم خصوصی بیمار را حفظ می‌کند جایگزین کنند.

کاربردهای بالقوه هوش مصنوعی در حوزه مراقبت های بهداشتی به قدری متنوع، متنوع و نوآورانه است که در مجموع، به درستی می توان گفت که انقلابی در این زمینه ایجاد می کند. اما «انقلاب» می‌تواند واژه‌ای گمراه‌کننده باشد: بازنگری سریع رویه‌های موجود را پیشنهاد می‌کند، بدون تعهد همزمان به انواع تصمیم‌گیری‌های دقیق، چندجانبه و سیاست‌محور که باعث انقلاب می‌شود. آخر. تنها زمانی که این دو با هم ترکیب شوند – نوآوری های رادیکال تکنولوژیکی به اضافه نرده های محافظ امنیتی و حریم خصوصی – است که یک انقلاب واقعی در شیوه های موجود رخ می دهد.

توسط اسکات روپ حاکمیت هوش مصنوعی، هوش مصنوعی در مراقبت های بهداشتی، آرتی رامان، پورتال26





Source link