證監會强調在高風險用例中使用人工智能時人爲監察的重要性

於2024年11月12日,香港證券及期貨事務監察委員會(「證監會」)向證監會持牌法團(「持牌法團」)發布了一份通函,關於持牌法團使用生成式人工智能語言模型(generative artificial intelligence language models)(「AI語言模型」),或以AI語言模型為基礎的第三方產品,提供與其受規管活動有關的服務或功能(「通函」)。證監會確認,持牌法團可以使用或正在使用AI語言模型來回應客戶查詢、總結資料、生成研究報告、識別投資訊號,及生成電腦代碼。

證監會支持持牌法團以負責任的方式使用AI語言模型,以便促進創新及提升營運效率。在通函中,證監會提醒持牌法團使用AI語言模型的有關風險,包括幻覺風險(hallucination risks)、偏見、網絡攻擊、不慎泄漏機密資料,及違反個人資料私隱與知識產權法例。證監會亦對使用AI語言模型的持牌法團提出了監管要求,包括落實有效的政策、程序,及內部監控措施。其中包括,持牌法團應確保落實高級管理層的監督及管治、適當的模型風險管理、有效的網絡保安,及數據風險管理。

此外,證監會將使用AI語言模型向投資者或客戶提供投資建議、意見或研究視之為高風險用例。因此,持牌法團須就此類高風險用例采取額外的風險紓減措施,包括在將AI語言模型的輸出內容轉達給使用者前,在過程中應有人員介入負責處理幻覺風險及確保有關內容的事實準確性。證監會提醒有意在高風險用例中使用AI語言模型的持牌法團,必須遵守《證券及期貨(發牌及註冊)(資料)規則》下的通知規定,並鼓勵他們與證監會商討有關計劃。

根據通函,本所留意到證監會的一般態度是,提供正確資料的義務在於持牌法團自身的責任及其專業責任。如出現錯誤信息,責任不在於AI語言模型,而在於使用者,尤其是在此情況下未能進行必要核實的持牌法團。此種態度並不新穎,AI語言模型的使用將取決於人員監督的有效性,及識別可由AI語言模型執行並應由其執行的任務的能力。

請點擊此處查閱通函全文。

Date:
15 November 2024
Practice Area(s):
Key Contact(s):