】 【打 印】 
警惕AI大模型過度采集用戶隱私信息
http://www.crntt.hk   2023-11-21 08:30:24
  中評社北京11月21日電/近日有網友發現,WPS在其“隱私政策”中提到,“我們將對您主動上傳的文檔材料,在採取脫敏處理後作為AI訓練的基礎材料使用”。11月18日,WPS官方微博做出回應,在向用戶致歉的同時,承諾用戶文檔不會被用於AI訓練目的。

  此前,WPS 發布AI公測,聲稱可以幫助用戶潤色、續寫、擴充文檔,寫表格公式,生成PPT等,有助於提升用戶學習、辦公效率。但是,WPS在隱私政策方面的越界行為,違反采集數據信息的“最小化原則”,涉嫌不當獲取用戶隱私信息。在廣大用戶和社會輿論的質疑下,WPS被迫公開致歉,並修改相關條款,也算是懸崖勒馬了。

  然而,這件事引發的爭議,並未就此終結。目前,AI處於炙手可熱的發展階段,各大科技公司發布的AI大模型,已經超過了上百個,這些AI大模型在各個領域均需要海量數據用於訓練,而數據來源的合法性、持續性,就成了問題。

  早在今年7月,一款驟然爆火的“妙鴨相機”,亦曾在“用戶協議”中,聲稱可將用戶信息以“任何形式任何範圍使用”,在引起網友和輿論批評後,删除了相關條款。可見,隨著AI技術的落地應用,一些科技公司急於市場競爭,試圖使用用戶隱私信息,不可避免地會觸及相關法律紅線,埋下信息安全隱患。

  過度采集用戶隱私信息,可能對用戶的個人安全和財產安全造成威脅。一旦這些隱私信息遭到非法洩露,被不法分子獲取,就可能利用信息實施詐騙、盜用身份等違法行為,給用戶帶來巨大的財產損失。因此,監管部門要提高警惕,及早採取措施打擊亂象,防範AI大模型過度采集、濫用個人隱私信息數據。

  國家網信辦等多部門發布的《生成式人工智能服務管理暫行辦法》明確,應當依法開展預訓練、優化訓練等訓練數據處理活動,使用具有合法來源的數據和基礎模型;涉及個人信息的,應當取得個人同意或者符合法律、行政法規規定的其他情形。各大科技公司要主動遵守相關規定,做AI訓練時,應嚴格遵循“最小化原則”,不得跨越紅線。

   來源:深圳特區報  作者:江德斌

          
】 【打 印】 

 相關新聞: