】 【打 印】 
【 第1頁 第2頁 第3頁 】 
當“望聞問切”遇上人工智能
http://www.crntt.hk   2023-09-11 12:16:08
 

  在準確性上,由於模型預訓練時所用的文本範圍不一定囊括所有專科,針對疑難雜症以及罕見疾病的語料也不一定足夠豐富,因此模型在面對較為罕見的場景時,有可能會出現根據它當前掌握的知識強行作答的情況。“在醫檢實踐場景中,我們也發現大模型在回答問題的過程中有可能出現幻覺,會將沒有出現在描述裡的症狀納入到考慮範圍中。”劉斯表示。

  在一致性上,若以相同的問題重復多次詢問模型,模型偶爾會出現回答前後不一致的情況。這種隨機性在日常對話或者故事創作中是受歡迎的,但在臨床咨詢場景中是不允許發生的。

  在及時性上,大模型受限於訓練語料的時限性,無法直接利用訓練之後才產生的新語料。換言之,新的醫療發現和診療指南等信息難以直接、有效地注入未更新的大模型裡。

  “與以聊天為‘主業’的ChatGPT相比,在醫療方面,我們需要大語言模型給出盡可能穩定和精確的結論,避免因為模型幻覺或者含糊不清的回答,誤導患者選擇錯誤的診療方案。”劉斯指出,目前大部分醫療領域的大語言模型會選用知識圖譜進行輔助,圖譜質量在很大程度上會影響其回答質量。

  大語言模型要借助什麼技術手段解決這些缺陷呢?劉斯認為,除了預訓練過程中需要納入足夠多的醫學專業數據外,在模型設計中,也需要重視它對知識圖譜的利用能力,以及基於圖譜的推理能力。目前看來,完全依賴大模型進行外部不可見的獨立推理過程並直接向醫生輸出結果,這種模式在醫學場景中較難達到足夠高的準確率,也較難獲得醫生的認同。“知識圖譜+大模型”的技術路徑,可能會是促進大模型在醫學場景落地的更優選擇。

  此外,大語言模型在微調階段和測試階段,需要醫學專家的深度介入,依托具有交叉學科背景的研發團隊對模型進行迭代,保障模型的反饋嚴格遵照醫學邏輯;同時,在應用過程中,也需要注重大語言模型本身以及相關知識圖譜的更新頻率,如可借助指令精調乃至重新預訓練等手段將新增的醫學語料納入大語言模型的“知識庫”,以應對模型醫學知識更新不及時的問題。

  同時,業內專家也提醒道,要注意對用於醫學領域的大語言模型進行監管和評估。劉斯表示,應在遵循現有生成式人工智能以及人工智能醫用軟件的管理辦法和規章制度,保證數據來源和技術安全、合規、可控的前提下,在大語言模型研發過程中加強與醫學專家團隊的協作,這樣一方面可確保醫學領域的知識有效注入到模型中,另一方面也能使模型輸出的結果與醫生診療結論保持相似或一致。此外,將現階段模型輸出的結果用於診療決策之前,仍需要由醫生來把最後一道關,保障結果的專業性。目前來講,大語言模型僅能作為醫生的助手,而不能替代醫生進行決策。


 【 第1頁 第2頁 第3頁 】


          
】 【打 印】 

 相關新聞: