要通过专门的人工智能立法围绕“可解释性”作出制度安排

2021/1/21 11:27:24   字体:

   刘云撰文《论可解释的人工智能之制度构建》指出,人工智能在社会的各个领域取得了令人瞩目的成绩,如果运用得当,它可以为社会、组织和个人带来最佳的预期。科技进步带来的社会效应恰如一个硬币拥有正反面。然而,当代人工智能技术面临算法黑箱的风险,可解释的人工智能是技术的发展方向,也应当成为法律的必然要求。在技术上,第三代人工智能正在致力于解决联结主义人工智能不可解释性的问题,综合运用知识、数据、算法、算力实现安全、可靠、可信的未来人工智能技术。事实上,算法并非完全不可解释,不存在绝对的黑箱算法;对于黑箱模型,要想方设法将其转化为“灰箱”,尽可能将其中的“黑暗宇宙”压缩到最小空间。与此同时,即便算法的某些部分不具有可解释性,但是这种不确定性应当通过技术和管理相协调的措施予以风险评估和处理,达不到安全、可控标准且对有关主体合法利益产生重大不利影响的,则不应当作为可以上线应用的产品或者技术。目前,个人信息保护法(草案)已经为个人信息处理领域的可解释人工智能系统创造了良好的法律环境,未来还需要通过专门的人工智能发展法围绕“可解释性”的目标,对各类高风险人工智能作出体系化的制度设计,对可解释的适用范围、实现方式、审查标准等作出周延的安排。 

 摘自《江汉论坛》2020年第12期

© 2024 《学术界》杂志社 保留所有版权   皖ICP备2020016010号