嚴正警告!世界衛生組織對人工智能在醫療保健中的使用提出質疑 | 速途網
隨著人工智能在醫療保健領域的應用快速增長,預計到2030年每年將以37%以上的速度增長。對此,世界衛生組織(WHO)在5月17日,發布了一項關于促進健康的安全和道德人工智能的咨詢,關注使用”人工智能生成的大型語言模型工具(LLMs)”時需謹慎。
實際上,聊天機器人已被證明在回答醫療問題的質量方面可以與真正的醫生相媲美。然而,盲目采用人工智能系統可能會導致醫務人員出現錯誤并可能對病人造成傷害,因此需要仔細權衡風險。
與ChatGPT這樣的LLM相關的重要風險包括根據有偏見的數據進行培訓,產生誤導性或不準確的信息,可能對健康公平和包容性構成風險。因此,對于聊天機器人與真正醫生的醫療建議進行比較需要進行廣泛的透明、公眾參與和專家監督。
世衛組織建議決策者在技術公司努力將LLM商業化的同時,確保病人安全和保護。世衛組織承認人們對使用這些聊天機器人滿足健康相關需求的潛力感到 “非常興奮”,但世衛組織同樣認為需要仔細權衡人工智能在醫療保健中的風險。

世衛組織還指出,LLM可能被濫用,以文本、音頻或視頻內容的形式產生和傳播極具說服力的虛假信息,這會對公眾帶來難以區分真假的健康信息,也會引起對健康的關注和憂慮。
此外,開發者可能會在未經最初提供數據者同意的情況下接受數據培訓,這將可能沒有對患者在尋求建議時輸入的敏感數據進行適當的保護。因此,謹慎使用和保護病患安全和隱私是最關鍵的。
健康技術公司Augmedix利用LLMs以及其他技術,以幫助制作醫療文件和數據解決方案,并強調需要適當地使用監督和質量保障來確保輸出的準確性和相關性。因此,盡管人工智能有潛力改善醫療保健,但仍需要考慮風險和潛在的后果,同時確保病患的安全和隱私得到保護。
Augmedix CEO Manny Krakaris表示,他支持世衛組織提出的安全和道德人工智能咨詢意見,并認為在醫療保健領域使用人工智能需要謹慎、經過適當的測試,由人類參與指導。Krakaris也強調了人工智能應用可能存在的潛在風險,如聊天機器人產生不準確的回答或產生誤導性信息等。因此,在開發新技術和應用人工智能的同時,需要充分考慮潛在的風險和后果,確保人工智能系統得到適當的監督和質量管控,以保障病人的權益和安全。
速途網認為,人工智能在醫療保健領域的應用前景廣闊,但需要謹慎考慮潛在的風險和后果,以確保病人的安全和隱私得到充分保護。在使用聊天機器人等人工智能工具時,需要進行廣泛的透明、公眾參與和專家監督,以確保其準確性和可靠性,并避免出現誤導性或不準確的信息。此外,還需要采取措施保護輸入的敏感數據,以幫助患者保護他們的隱私和匿名性。最終,我們需要在醫務人員和技術公司之間建立更好的合作關系,確保人工智能系統得到適當的監督和質量管控,以實現更好的醫療保健服務。