中評社北京11月6日電/據科技日報報導,當前,加強人工智能領域科技倫理建設的必要性、緊迫性和原則規範已成共識。前不久,《科技倫理審查辦法(試行)》(以下簡稱《審查辦法》)的正式發布,標誌著我國科技倫理建設全面進入治理階段,對於推動我國人工智能等領域的健康發展和負責任創新具有重要的現實意義。
現階段人工智能倫理審查面臨諸多挑戰
現階段人工智能科技活動倫理審查工作重點和突出難點可歸納為以下幾個方面。
一是正確判斷科技活動是否屬於倫理審查範圍。《審查辦法》第二條明確規定了科技活動的審查範圍,從內容上看主要考慮的是受試者的合法權益以及科技活動可能對生命、生態、公共秩序、社會發展等造成的倫理風險。該文件是科技倫理審查的通用性規定,尚未對每一項具體科技活動是否屬於審查範圍作出規定。因此,科技活動承擔單位的科技倫理審查委員會(可能還有承擔專家復核的機構)需要結合實際情況,細化本單位的科技倫理審查範圍,同時根據《審查辦法》第九條制定科技倫理風險評估辦法,指導科研人員開展科技倫理風險評估,按要求申請倫理審查。目前,雖然我國人工智能學界、業界和管理機構對倫理風險的認識正在提升,但風險判斷能力和水平滯後於認識程度的提升,如何作出正確判斷將是一項新挑戰。
二是恰當把握審查內容和審查尺度。《審查辦法》第十五條對科技倫理審查內容作出了明確的規定,特別對涉及個人隱私數據等的科技活動提出了要求,與個人信息保護法、數據安全法等進行了很好的銜接。但在實際工作中,還需要制定可操作的審查細則。此外,《審查辦法》提出,地方、相關行業主管部門或科技類社會團體可以制定或修訂本地方、本系統、本領域的科技倫理審查細則、具體規範和指南。今年2月,國家衛健委、教育部、科技部等制定了《涉及人的生命科學和醫學研究倫理審查辦法》,對生命科學和醫學領域的研究作了更詳細的規定,而人工智能領域尚缺少更具體的規定,因此人工智能倫理審查實施細則的制定應是下一步重點工作之一,並且要在審查實踐中逐步完善。在實施細則的設置中,如何恰當把握審查尺度將面臨挑戰,容易出現尺度過鬆或過嚴的現象,進而對後續的倫理審查產生系統性影響。如果尺度過鬆,有可能導致一些存在倫理風險的科技活動倫理審查不全面,從而留下倫理風險隱患;如果尺度過嚴,可能妨礙科技活動的正常推進,降低國家科技進步和經濟、社會發展的速度。
三是加強科技倫理風險預警與跟蹤研判。《審查辦法》規定,對可能產生較大倫理風險挑戰的新興科技活動實施清單管理。清單的制定涉及對倫理風險的預測,這種預測往往是非常困難的,對人工智能長期社會效應的分析、預測尤其困難。因此,清單的滯後性將持續存在。尤其需要警覺的是,某些倫理後果無法通過事後治理加以消除,或事後治理的代價過大。因此,清單的動態調整機制尤為重要。在對較高風險的科技活動的倫理風險防控上,要堅持《關於加強科技倫理治理的意見》提出的敏捷治理要求,加強科技倫理風險預警與跟蹤研判,及時動態調整治理方式和倫理規範,快速靈活應對科技創新帶來的倫理挑戰。
|