سازمان های فدرال مانند FDA و HHS برنامه های ایمنی را برای اطمینان از استفاده ایمن و قابل اعتماد هوش مصنوعی در بخش های مختلف از جمله مراقبت های بهداشتی ایجاد کرده اند.
مدیران سلامت دیجیتال توصیهها، توصیهها و پیشنهادات خود را برای تنظیمکنندههایی که قوانین مربوط به استفاده از هوش مصنوعی در مراقبتهای بهداشتی را پیکربندی میکنند، منتقل کردند. MobiHealthNewsاز جمله پرچمگذاری محتوای تولید شده توسط هوش مصنوعی و ایجاد چارچوبهای نظارتی موجود.
Ann Bilyew، SVP، مدیر کل سلامت و گروه، WebMD Ignite
زیادهروی نکنید. بسیاری از محافظتهایی که ما به آن نیاز داریم در قوانین از قبل موجود مانند HIPAA در ایالات متحده و GDPR در اروپا وجود دارد. برخی مقررات خاص ممکن است نیاز به اصلاح یا تجدید نظر داشته باشند، اما چارچوبها وجود دارند.
سام گلسنبرگ، مدیرعامل و بنیانگذار سطح اول
محتوای تولید شده توسط هوش مصنوعی باید مطابق با استانداردهای هر محتوای دیگری در مراقبت های بهداشتی باشد (بررسی همتایان، داده های شفاف/استنادها، و غیره) – با یک احتیاط عمده. محتوای تولید شده توسط هوش مصنوعی باید همیشه به این صورت علامت گذاری شود. این بسیار مهم است. که در هر فرآیند بررسی محتوا اگر محتوا با هوش مصنوعی تولید شده باشد، آن را باید برای همه بازبینها بهعنوان تولیدشده توسط هوش مصنوعی علامتگذاری شود.
نویسندگان انسانی ممکن است اشتباهات کپی داشته باشند یا ممکن است یک مفهوم را اشتباه درک کنند، و غیره، اما اگر آنها درک درستی از یک مفهوم نداشته باشند، احتمالاً از نوشتن با عمق یا جزئیات بیش از حد اجتناب می کنند. GenAI برعکس است: اطلاعات پزشکی کاملاً نادرست را با جزئیات باورنکردنی تولید می کند. اگر ارجاعات یا دادهها وجود نداشته باشند، آنها را تشکیل میدهد – گسترش اطلاعات نادرست که محتوای آن را به قیمت دقت باورپذیرتر میکند. بسیار مهم است که در هر فرآیند بررسی محتوا، اگر محتوا با هوش مصنوعی تولید شده است، آن را انجام دهد باید برای همه بازبینها بهعنوان تولیدشده توسط هوش مصنوعی علامتگذاری شود.”
کوین مکریث، رئیس و مدیر عامل شرکت Welldoc
اولاً، تنظیمکنندهها باید بر روی کنترلهای لازم برای ادغام ایمن و مؤثر هوش مصنوعی در بسیاری از جنبههای مراقبتهای بهداشتی، با در نظر گرفتن ریسک و شیوههای تولید خوب به توافق برسند.
ثانیاً، تنظیمکنندهها باید فراتر از کنترلها بروند و دستورالعملهایی را در اختیار صنعت قرار دهند که آزمایش و پیادهسازی آن را در محیطهای واقعی برای شرکتها قابل اجرا و امکانپذیر میسازد. این به حمایت از نوآوری، کشف و تکامل ضروری هوش مصنوعی کمک خواهد کرد.”
آمیت خانا، معاون ارشد و مدیر کل سلامت در نیروی فروش
“ما به تنظیمکنندهها نیاز داریم تا مرزهای مشخصی را برای دادهها و حریم خصوصی تعریف و تعیین کنند و در عین حال به فناوری اجازه دهند صنعت را متحول کند. قانونگذاران باید اطمینان حاصل کنند که مقررات، باغها/سیلوهای دیواری در مراقبتهای بهداشتی ایجاد نمیکنند، اما در عوض، خطر را به حداقل میرسانند و در عین حال به هوش مصنوعی اجازه میدهند کاهش هزینه های تشخیص، ارائه مراقبت و تحقیق و توسعه.”
دکتر پیتر بونیس، افسر ارشد پزشکی در Wolters Kluwer Health
“دستور اجرایی در مورد توسعه و استفاده ایمن، ایمن و قابل اعتماد از هوش مصنوعی مجموعه ای از دستورالعمل ها را به آژانس های مختلف فدرال برای ایجاد مقررات هوش مصنوعی لایه بندی کرده است. این دستورالعمل ها باید در چارچوب یک چارچوب نظارتی موجود در نظر گرفته شوند که بر انواع مختلف تاثیر می گذارد. برنامه های کاربردی مراقبت های بهداشتی. وضوح و قابلیت کشتیرانی برای دستیابی به تعادلی که مجموعه ای سازنده از دستورالعمل های نظارتی را ایجاد می کند که نوآوری را خفه نمی کند، بسیار مهم خواهد بود. آژانس های فدرال که چنین سیاست هایی را توسعه می دهند باید این کار را به طور شفاف و با مشارکت مردم و سایر ذینفعان انجام دهند و به طور انتقادی، با همکاری بین سازمانی غنی است.”
Eran Orr، مدیر عامل شرکت XRHealth
“بیماران باید از همان ابتدا بدانند که چه زمانی چیزی مبتنی بر هوش مصنوعی است و نه یک پزشک واقعی. در این صورت باید به بیماران افشای کامل داده شود. صنعت باید شکافی را که امروز در زمینه هوش مصنوعی قرار داریم پر کند. ابزارها؛ با این حال، مراقبت های بهداشتی جایی برای خطا ندارد – باید از ابتدا کاملاً قابل اعتماد باشد.”