】 【打 印】 
【 第1頁 第2頁 第3頁 】 
AI為何會“一本正經地胡說八道”
http://www.crntt.hk   2023-11-26 09:46:39
  中評社北京11月26日電/據科技日報報導,想象一下,向人工智能(AI)聊天機器人詢問一個不存在的歷史事件,比如“誰贏得了1897年美國和南極洲之間的戰鬥?”即使沒有這樣的戰鬥,AI聊天機器人也可能會提供一個虛構的答案,例如“1897年的戰鬥是由美國贏得的,約翰·多伊將軍帶領部隊取得了勝利。”這種AI編造信息“一本正經地胡說八道”的情況屢見不鮮。

  在專業領域,AI“一本正經地胡說八道”這種現象被稱為AI幻覺。“AI幻覺指的是AI會生成貌似合理連貫,但同輸入問題意圖不一致、同世界知識不一致、與現實或已知數據不符合或無法驗證的內容。”近日,長期從事自然語言處理、大模型和人工智能研究的哈爾濱工業大學(深圳)特聘校長助理張民教授在接受科技日報記者採訪時表示。

  AI幻覺普遍存在

  記者梳理發現,AI幻覺具有普遍性。

  今年2月,谷歌發布的AI聊天機器人Bard在視頻中,對詹姆斯·韋布空間望遠鏡曾做出不真實陳述;3月,美國的兩名律師向當地法院提交了一份用ChatGPT生成的法律文書,這份文書格式工整、論證嚴密,但其中的案例卻是虛假的……

  OpenAI研究人員雖曾在今年6月初發布報告稱“找到瞭解決AI幻覺的辦法”,但也承認,“即使是最先進的AI模型也容易生成謊言,它們在不確定的時刻會表現出捏造事實的傾向。”

  總部位於紐約的人工智能初創公司和機器學習監控平台Arthur AI也在今年8月發布研究報告,比較了OpenAI、“元宇宙”Meta、Anthropic以及Cohere公司開發的大語言模型出現幻覺的概率。研究報告顯示,這些大模型都會產生幻覺。

  目前國內大語言模型雖無產生AI幻覺相關披露,但也可從相關公開報導中找到端倪。

  今年9月,騰訊混元大語言模型正式亮相。騰訊集團副總裁蔣傑介紹,針對大模型容易“胡言亂語”的問題,騰訊優化了預訓練算法及策略,讓混元大模型出現幻覺的概率比主流開源大模型降低了30%—50%。
 


【 第1頁 第2頁 第3頁 】 


          
】 【打 印】 

 相關新聞: