結語
綜觀人工智慧風險評估可大致分成評估源於使用AI所產生的風險以及依據AI系統或應用所辨識的風險評估兩類,然而針對這兩類的風險評估方法都建立在隱私影響評估、環境影響評估、道德影響評估和人權評估等基礎之上。觀察各地區與領域發展的風險評估方法,都鼓勵企業,不論是AI系統的開發商或使用者思考下列問題:
- 何時為合適的風險評估啟始階段(在設計階段、採購前和/或使用期間)?
基於預算考量,多數企業都會選擇在AI工具或系統部屬前後進行風險評估。然而當使用的AI工具或方案複雜度越高則可能衍生較多的風險。在涉及較複雜的AI應用工具時,建議從設計開發階段到部署階段都需要進行相應的風險評估。
- 誰該參與或主導風險評估以避免的潛在利益衝突?
為了使風險評估可信,評估者不應僅限使用者參與。即使在同一組織內,評估者也應獲得管理層的授權,以評估風險並避免有風險被掩飾的可能。
- 在開發或使用AI過程中,風險評估結果若過高,是否有對應的解決方案?
企業在追求特定的人工智慧方案時應了解可能導致的負面影響和聲譽損害並依據風險評估結果判斷相應的風險抵減措施或解決方案。
- 是否需公開揭露AI風險評估結果?
要能達到可信賴的AI開發與使用,進行獨立的風險評估審查,並將結果交付公眾評核是至關重要,但企業若考慮商業和競爭敏感性,亦可選擇摘要揭露並向監管機構陳述不公開評估的原因。
我們相信任何監管與治理框架都需要基於不同風險基礎考量進行相應的調整,以適應其應用的司法管轄區法規體系。過程中,除了需要考慮適用於與人工智慧相關的數據、隱私法規和訊息安全等數位基礎設施的監管生態外,尚須具備明確標準的風險評估制度與流程以建構一個可信賴的AI發展應用體系與環境。
(本文由企業管理諮詢服務高旭宏執行副總經理、余庭瑄資深經理、黃秋樺資深顧問與廖婉丞資深顧問聯合撰寫)