توصیه هایی به تنظیم کننده هایی که قوانین مربوط به استفاده از هوش مصنوعی در مراقبت های بهداشتی را پیکربندی می کنند



سازمان های فدرال مانند FDA و HHS برنامه های ایمنی را برای اطمینان از استفاده ایمن و قابل اعتماد هوش مصنوعی در بخش های مختلف از جمله مراقبت های بهداشتی ایجاد کرده اند.

مدیران سلامت دیجیتال توصیه‌ها، توصیه‌ها و پیشنهادات خود را برای تنظیم‌کننده‌هایی که قوانین مربوط به استفاده از هوش مصنوعی در مراقبت‌های بهداشتی را پیکربندی می‌کنند، منتقل کردند. MobiHealthNewsاز جمله پرچم‌گذاری محتوای تولید شده توسط هوش مصنوعی و ایجاد چارچوب‌های نظارتی موجود.

Ann Bilyew، SVP، مدیر کل سلامت و گروه، WebMD Ignite

زیاده‌روی نکنید. بسیاری از محافظت‌هایی که ما به آن نیاز داریم در قوانین از قبل موجود مانند HIPAA در ایالات متحده و GDPR در اروپا وجود دارد. برخی مقررات خاص ممکن است نیاز به اصلاح یا تجدید نظر داشته باشند، اما چارچوب‌ها وجود دارند.


سام گلسنبرگ، مدیرعامل و بنیانگذار سطح اول

محتوای تولید شده توسط هوش مصنوعی باید مطابق با استانداردهای هر محتوای دیگری در مراقبت های بهداشتی باشد (بررسی همتایان، داده های شفاف/استنادها، و غیره) – با یک احتیاط عمده. محتوای تولید شده توسط هوش مصنوعی باید همیشه به این صورت علامت گذاری شود. این بسیار مهم است. که در هر فرآیند بررسی محتوا اگر محتوا با هوش مصنوعی تولید شده باشد، آن را باید برای همه بازبین‌ها به‌عنوان تولیدشده توسط هوش مصنوعی علامت‌گذاری شود.

نویسندگان انسانی ممکن است اشتباهات کپی داشته باشند یا ممکن است یک مفهوم را اشتباه درک کنند، و غیره، اما اگر آنها درک درستی از یک مفهوم نداشته باشند، احتمالاً از نوشتن با عمق یا جزئیات بیش از حد اجتناب می کنند. GenAI برعکس است: اطلاعات پزشکی کاملاً نادرست را با جزئیات باورنکردنی تولید می کند. اگر ارجاعات یا داده‌ها وجود نداشته باشند، آن‌ها را تشکیل می‌دهد – گسترش اطلاعات نادرست که محتوای آن را به قیمت دقت باورپذیرتر می‌کند. بسیار مهم است که در هر فرآیند بررسی محتوا، اگر محتوا با هوش مصنوعی تولید شده است، آن را انجام دهد باید برای همه بازبین‌ها به‌عنوان تولیدشده توسط هوش مصنوعی علامت‌گذاری شود.”


کوین مک‌ریث، رئیس و مدیر عامل شرکت Welldoc

اولاً، تنظیم‌کننده‌ها باید بر روی کنترل‌های لازم برای ادغام ایمن و مؤثر هوش مصنوعی در بسیاری از جنبه‌های مراقبت‌های بهداشتی، با در نظر گرفتن ریسک و شیوه‌های تولید خوب به توافق برسند.

ثانیاً، تنظیم‌کننده‌ها باید فراتر از کنترل‌ها بروند و دستورالعمل‌هایی را در اختیار صنعت قرار دهند که آزمایش و پیاده‌سازی آن را در محیط‌های واقعی برای شرکت‌ها قابل اجرا و امکان‌پذیر می‌سازد. این به حمایت از نوآوری، کشف و تکامل ضروری هوش مصنوعی کمک خواهد کرد.”


آمیت خانا، معاون ارشد و مدیر کل سلامت در نیروی فروش

“ما به تنظیم‌کننده‌ها نیاز داریم تا مرزهای مشخصی را برای داده‌ها و حریم خصوصی تعریف و تعیین کنند و در عین حال به فناوری اجازه دهند صنعت را متحول کند. قانون‌گذاران باید اطمینان حاصل کنند که مقررات، باغ‌ها/سیلوهای دیواری در مراقبت‌های بهداشتی ایجاد نمی‌کنند، اما در عوض، خطر را به حداقل می‌رسانند و در عین حال به هوش مصنوعی اجازه می‌دهند کاهش هزینه های تشخیص، ارائه مراقبت و تحقیق و توسعه.”


دکتر پیتر بونیس، افسر ارشد پزشکی در Wolters Kluwer Health

“دستور اجرایی در مورد توسعه و استفاده ایمن، ایمن و قابل اعتماد از هوش مصنوعی مجموعه ای از دستورالعمل ها را به آژانس های مختلف فدرال برای ایجاد مقررات هوش مصنوعی لایه بندی کرده است. این دستورالعمل ها باید در چارچوب یک چارچوب نظارتی موجود در نظر گرفته شوند که بر انواع مختلف تاثیر می گذارد. برنامه های کاربردی مراقبت های بهداشتی. وضوح و قابلیت کشتیرانی برای دستیابی به تعادلی که مجموعه ای سازنده از دستورالعمل های نظارتی را ایجاد می کند که نوآوری را خفه نمی کند، بسیار مهم خواهد بود. آژانس های فدرال که چنین سیاست هایی را توسعه می دهند باید این کار را به طور شفاف و با مشارکت مردم و سایر ذینفعان انجام دهند و به طور انتقادی، با همکاری بین سازمانی غنی است.”


Eran Orr، مدیر عامل شرکت XRHealth

“بیماران باید از همان ابتدا بدانند که چه زمانی چیزی مبتنی بر هوش مصنوعی است و نه یک پزشک واقعی. در این صورت باید به بیماران افشای کامل داده شود. صنعت باید شکافی را که امروز در زمینه هوش مصنوعی قرار داریم پر کند. ابزارها؛ با این حال، مراقبت های بهداشتی جایی برای خطا ندارد – باید از ابتدا کاملاً قابل اعتماد باشد.”



Source link