中評社北京8月10日電/網評:善用制度優勢 建構人工智能監管框架
來源:大公報 作者:鄧凱
就在剛剛過去的6月,香港個人資料私隱專員公署(以下簡稱“私隱公署”)發布了《人工智能(AI):個人資料保障模範框架》(以下簡稱《模範框架》)。而在更早前的2月,私隱公署則完成了歷時近半年的人工智能合規檢查,對相關機構在部署人工智能系統提高業務效率時的風險和影響進行評估。
香港作為獨特的法律管轄區,或許因其技術市場規模相對較小,而難以在人工智能法律監管模式上引發諸如歐盟法案那般的關注度,但不可否認,香港的人工智能治理體系頗具特色,筆者願稱之為“軟法(soft law)治理示範”。結合系列專門性文件、核心思路以及底線義務等,本文將對香港的人工智能監管框架做出簡要評述。
香港的人工智能治理之所以是“軟法”式的,原因首先在於,自2018年以來,香港發布的多份數據科技類指導文件均不具有法律意義上的剛性約束力。2018年10月,私隱公署發表《中國香港的(數據)道德問責框架》,建議業界在運用數據科技時,應恪守“尊重”、“互惠”以及“公平”這三項數據管理價值。據此進一步衍生,私隱公署於2021年9月專門針對人工智能行業發布《開發及使用人工智能道德標準指引》,目的是協助產業持份者在遵從《個人資料(私隱)條例》相關規定下建立合乎七項道德標準的人工智能,包括:問責、人為監督、透明度與可解釋性、數據私隱、公平、有益,以及可靠、穩健及安全。該指引同時附設“自我評估核對清單”以輔助當事方自我判斷上述道德標準的采納情況。
平衡新科技領域監管與發展
除私隱公署之外,本港另一個重要的科技部門亦即合併為“數字政策辦公室”前的“政府資訊科技總監辦公室”,則在2023年8月制訂了一套更為完整的《人工智能道德框架》,旨在把人工智能的技術要求、應用標準等規範再度化約為成體系的道德價值與倫理原則。這些要素被主張嵌入人工智能的管治架構並貫穿整個生命周期,以及透過“應用影響評估”的手段來增強該框架的指引性和實操性。在細分領域中,香港金管局則在2019年底提出《應用人工智能的高層次原則》,將相關道德原則拆解細化為能在金融場景中實操的九項具體規定。
|