证监会强调在高风险用例中使用人工智能时人为监察的重要性

于2024年11月12日,香港证券及期货事务监察委员会(“证监会”)向证监会持牌法团(“持牌法团”)发布了一份通函,关于持牌法团使用生成式人工智能语言模型(generative artificial intelligence language models)(“AI语言模型”),或以AI语言模型为基础的第三方产品,提供与其受规管活动有关的服务或功能(“通函”)。证监会确认,持牌法团可以使用或正在使用AI语言模型来回应客户查询、总结资料、生成研究报告、识别投资讯号,及生成电脑代码。

证监会支持持牌法团以负责任的方式使用AI语言模型,以便促进创新及提升营运效率。在通函中,证监会提醒持牌法团使用AI语言模型的有关风险,包括幻觉风险(hallucination risks)、偏见、网络攻击、不慎泄漏机密资料,及违反个人资料私隐与知识产权法例。证监会亦对使用AI语言模型的持牌法团提出了监管要求,包括落实有效的政策、程序,及内部监控措施。其中包括,持牌法团应确保落实高级管理层的监督及管治、适当的模型风险管理、有效的网络保安,及数据风险管理。

此外,证监会将使用AI语言模型向投资者或客户提供投资建议、意见或研究视之为高风险用例。因此,持牌法团须就此类高风险用例采取额外的风险纾减措施,包括在将AI语言模型的输出内容转达给使用者前,在过程中应有人员介入负责处理幻觉风险及确保有关内容的事实准确性。证监会提醒有意在高风险用例中使用AI语言模型的持牌法团,必须遵守《证券及期货(发牌及注册)(资料)规则》下的通知规定,并鼓励他们与证监会商讨有关计划。

根据通函,本所留意到证监会的一般态度是,提供正确资料的义务在于持牌法团自身的责任及其专业责任。如出现错误信息,责任不在于AI语言模型,而在于使用者,尤其是在此情况下未能进行必要核实的持牌法团。此种态度并不新颖,AI语言模型的使用将取决于人员监督的有效性,及识别可由AI语言模型执行并应由其执行的任务的能力。

请点击此处查阅通函全文。

 

Date:
15 November 2024
Practice Area(s):
Key Contact(s):