圆桌丨学者谈人工智能伦理治理:要将伦理融入AI全生命周期
近年来,人工智能产业高速发展,其伦理与治理问题也备受各界关注。要如何在不同文化背景下认识人工智能伦理?该构建什么样的人工智能治理认知逻辑和框架范式?人工智能伦理又要怎样从理论、理念走向实践?
“新技术往往会给现有社会伦理规范带来冲击,人工智能技术也不是例外,这是人类社会在进步过程当中始终面临的问题。”6月1日,国家新一代人工智能治理专业委员会主任、清华大学文科资深教授、人工智能国际治理研究院院长薛澜在2022北京智源大会人工智能伦理、治理与可持续发展论坛上说道。
近年来,我国接连发布了《新一代人工智能治理原则》《新一代人工智能伦理规范》等政策文件,明确提出八项原则,强调将伦理道德融入人工智能全生命周期。科技部中国科学技术信息研究所党委书记,所长、科技部新一代人工智能发展研究中心主任赵志耘表示,国家科技伦理委员会人工智能分委会正在研究起草人工智能伦理高风险清单,以更好地推动人工智能科研活动的伦理监管工作。
“不应把治理与发展对立起来,而是要通过治理更好地为人工智能发展护航,努力实现人工智能高质量发展与高水平治理的平衡。”赵志耘称,伦理治理对人工智能活动进行良性引导,是人工智能健康发展重要保障。
赵志耘表示,推动人工智能伦理治理有三项关键要求,分别是把握好人工智能发展规律和特点,明确现实的伦理问题;把握好人工智能伦理治理的边界,在适当范围内规范人工智能发展;把握好发展与治理的平衡关系,以治理促发展。
她指出,当前人工智能技术尚未达到强人工智能和通用人工智能的水平,因此,不能将未来的伦理风险当做现实的风险,以免给人工智能发展带来不必要的负面影响。此外,还要明确人工智能治理的底线要求,伦理治理着重要强调促进创新与防范风险相统一的更高需求,而安全和法律问题作为不能越过的底线,不应泛化纳入到伦理治理的范畴。
安全问题主要包括国家安全、社会安全、经济安全、个人安全等方面,伦理问题主要包括隐私、公平、透明、歧视、就业等领域,这两类安全问题目前已经发生了。而对于变异安全,即人工智能可能不可控而产生对社会与人类的伤害问题,目前尚未发生,属于非常规问题。
目前,国际有关组织制定人工智能标准已经进入井喷期,国际人工智能治理工作证加速可操作化。对此,李仁涵认为,当前迫切需要建立相应的规则体系,一方面促进AI可持续健康发展,另一方面有利于与国际接轨,实现全球化发展。同时,也要建设人工智能评测平台,帮助人工智能治理落地。
李仁涵表示,人工智能评测平台将成为未来社会发展的重要基础设施之一,是人工智能产业赋能各行各业持续健康发展的基础保障。平台也将是相关人才培养、成长、发挥作用的重要舞台和参与国际规则制定的重要基础,因此,要尽早规划,以“三步走”战略的方式尽快让评测平台落地。
对于人工智能治理的问题,薛澜认为,要考虑人工智能技术应用给经济社会运行带来的直接、间接的收益与成本,进行利弊权衡。要考虑人工智能技术应用对社会各种行为准则规范的影响,此外还要考虑人工智能技术应用长远的经济社会影响。
薛澜建议,要健全人工智能伦理与安全的治理体系;推进法律法规、标准规范的落地实施;建立多主体参与的对话机制,跟踪技术发展前沿,发现新的安全和伦理问题;建立人工智能前沿研究和应用的伦理评估、预警及管控机制;加强对人工智能研究及应用各相关利益群体的伦理教育,提高伦理意识;积极培育健康的智能文化与数字人文思想;加强人工智能前沿进展的科学传播和伦理普及,提高公众的认知水平。
谈及将伦理融入人工智能全生命周期,赵志耘表示,政府的责任是引导各类主体去重视伦理规范,嵌入操作,要充分体现全生命周期的理念。她举例表示,2019年科技部批复了18个城市试点为新一代人工智能创新发展试验区,在试验区建设中必不可少的环节是要做伦理治理规范试验,在每一个试验区方案中,对于伦理规范,各类主体如何去落实都有相应的操作规范。
对此,中科大机器人实验室主任、CAAI人工智能伦理治理工委会主任、全球人工智能理事会执行委员陈小平表示,最根本的差异是技术本身。过去的自动化技术只能替代人的一部分劳动,但现在人工智能,哪怕只是专用的人工智能,在专用领域远远超过了人、取代了人。有哲学家预测,除了做人工智能的人和做决策的人以外,其他97%的行业从业者工作都将被替代,这个根本原因还是在于技术。
第一是可控性问题。如果未来实现了通用人工智能、强人工智能,或许所有的行业领域都可以被人工智能替代。陈小平表示,虽然目前看可能性不大,但理论上不能排除。一旦人工智能拥有通用能力,或许可以实现不依赖于人类的生存,对此必须高度重视。