上一篇文章中,IHI Lucian Leape研究所召集了來自亞馬遜、谷歌、微軟等大型科技公司以及哈佛醫學院、Leapfrog Group 和 Kaiser Permanente的專家組,針對生成式AI在醫療領域的三大用例展開了分析,并就生成式AI對于患者安全的影響展開了全面評估。
*相關閱讀:生成式AI與患者安全(上):專家組詳解三大應用場景與挑戰
那么,如何最大限度地發揮生成式AI 的優勢,消除患者安全和質量方面的“慢性問題”,并最大限度地降低技術對患者和患者安全的風險,一些關鍵群體必須深入思考相應的策略。
本文將詳細分析醫療活動中不同群體的角色、責任、他們面臨的挑戰,以及如何負責任地采用生成式AI。
01患者和患者權益倡導者
患者是醫療保健服務的直接受益者,他們對生成式AI的引入持有重要的發言權。
專家組建議,患者和患者權益倡導者需要確保醫療機構在應用生成式AI時保持透明。在目前的初級階段,醫療機構必須制定披露和同意的最低標準,以確保患者了解在其醫療過程中使用生成式AI 的情況。患者應有權選擇拒絕使用生成式AI,并在拒絕時獲得適當的替代方案。患者需要在知情的情況下同意使用其數據。
02臨床醫生
臨床醫生是生成式AI應用的直接參與者。他們必須要了解這些新技術,并合理地將它們融入日常醫療實踐中。
專家組建議,臨床醫生應將生成式AI節省下來的時間,部分用來改善患者護理,提高醫療質量和安全性。同時,臨床醫生需要了解生成式AI的局限性和挑戰,倡導持續改進,運用專業知識理解和改善現有的問題,如偏見、數據集代表性不足、缺乏透明度或可解釋性等。努力學習新技能,包括基本的生成式AI知識、人工智能與倫理、臨床生成式AI工具的模擬練習,以及醫療保健系統實踐和政策指導等。
此外,臨床醫生應將生成式AI工具視為輔助工具,而非替代品,在臨床決策中保持最終決策者的角色。小心謹慎,確保對AI工具的使用進行監督,從而實現實際的安全,而不僅僅是表面安全。
03安全與質量專業人員
患者安全和質量專業人員負責監控流程、識別風險和實施最佳實踐,以防止差錯和減少傷害。他們需要利用生成式AI來加強對患者安全問題的檢測和監控,并提高報告的效率。
安全與質量專業人員必須確保,通過這些AI技術所獲得的時間能夠被用來高效分配安全管理任務,制定有效的戰略來減少反復出現的安全風險和危害,而不是僅僅優先考慮降低成本。
在使用人工智能加強事件報告流程之前,應當重新思考患者安全的關鍵模式,在實際傷害發生之前進行識別和預防。
與其他關鍵群體進行合作(如患者和臨床醫生、信息技術和信息學人員、數據科學家和分析師、領導者),以促進安全、高質量的醫療,避免僅僅名義上的參與。
04醫療保健系統
雖然生成式AI有望簡化運營和提高醫療水平,但醫療系統的領導者必須把握好相關風險。包括以負責任、合乎道德和公平的方式開發、實施和使用人工智能系統,確保其可信度和準確性,并降低網絡安全風險。
醫療系統及其領導者必須確保生成式AI的使用滿足現有需求。制定和實施計劃時,需考慮可能出現的錯誤結果和意外后果,并營造重視患者安全、公平和負責任地使用生成式AI的氛圍,以提高醫療服務質量。
同時,專家組強調,應用生成式AI的同時,應將時間效率重新分配,以減少臨床醫生的倦怠感。
此外,需要在教育、培訓和保障措施方面進行投資,以培養有效使用生成式AI工具的能力,并確保臨床醫生和其他人員保持基本的醫療能力。
建立健全的人工智能管理,促進跨學科合作。建立管理、評估和監控程序,指導基因人工智能的使用,并制定明確的隱私、安全(包括網絡安全)、數據所有權和管理政策,以及基于AI工具的內部開發指南等,在快速部署的愿望與謹慎的需要之間取得平衡。內部開發的AI工具要能夠支持和加強臨床醫生與患者之間的關系,進行以人為本的設計。
05生成式AI 開發人員
生成式AI的開發者在創新與人類福祉和安全之間必須取得平衡。需要優先考慮透明、可解釋的人工智能設計,使患者和臨床醫生能夠理解并信任其輸出結果。
與醫療保健專業人員、安全領導者、患者和患者權益倡導者密切合作,收集反饋并不斷改進人工智能工具。開發者還必須主動了解和降低患者安全風險,對AI工具進行持續監測,避免偏差。
此外,還需整合先進的數據安全措施,保護敏感的患者數據,直面隱私和數據所有權問題。在產品的整個生命周期中遵循現有的網絡安全準則,主動識別數據的潛在風險,隨時了解并遵守醫療法規和指導方針,確保人工智能工具符合管理機構制定的安全、隱私和道德標準。
06研究人員
研究人員在建立生成式AI研究基礎,以及縮短科研與實踐的鴻溝中,扮演著關鍵角色。他們需要研究如何減輕數據集的偏差問題,提高AI工具的可信度。
以人為本的設計需要進行大量的研究,包括與患者偏好、警報疲勞,以及技術對醫患關系的影響等相關的人為因素問題。
此外,另一個關鍵的研究領域是如何確保人類對AI工具進行有效監督,研究人員可以幫助制定相關策略,以克服生成式AI的潛在風險。
07監管者和決策者
促進負責任的生成式AI采用,監管者和政策制定者起著至關重要的作用。他們需要制定明確的指導方針,制定全面的法規,重點關注患者安全、數據保護和合乎道德地使用技術。與開發者和用戶合作,規定生成式AI 系統的透明度,以確保用戶了解人工智能是如何做出決策的,并在出現錯誤或不利結果時建立問責機制。
監管者和決策者還有責任促進人工智能掃盲,提高公眾意識。
此外,應當激勵那些將安全放在首位的人工智能開發和研究,并促進本地化決策,同時為總體人工智能安全和道德標準提供框架。