|
军事广角
|
|
□ 李卫海
12月13日,中国裁军大使李松在联合国《特定常规武器公约》第六次审议大会上,提交了《关于规范人工智能军事应用的立场文件》。文件清晰地表达了中国在规范人工智能军事应用上反对军事技术霸权、维护全球战略稳定和坚持国际人道主义精神的基本立场,提出了国际社会应该如何在军事领域负责任地开发和利用人工智能技术的八项倡议,有助于完善人工智能军事应用的规范机制,在人工智能领域构建人类命运共同体。 中国强调,各国尤其是大国不应谋求绝对军事优势,不应损害全球战略平衡与稳定。人工智能的军事应用必将引发新一轮军事革命,积极寻求此趋势所带来的军事优势是各国所期。但若通过发展人工智能谋求绝对安全,极易穷兵黩武,引发全球范围恶性军备竞赛。 中国鲜明地秉持“智能向善”原则,坚决反对将人工智能的军事应用作为发动战争和追求霸权的工具。中国无人机技术不仅处于领先地位,而且在研发、贸易、部署、使用等环节上遵循人类共同价值观,强调良法善治:在对外军售上严格管控,促进各国享有技术发展与和平利用的权利;一贯坚持应确保无人机等新武器及其作战手段符合国际人道主义法和其他适用的国际法,努力减少附带伤亡,避免误用恶用。 中国深谙人工智能的巨大风险,坚决主张相关武器系统永远处于人类控制之下。在日益复杂恶劣的作战环境条件下武器系统自主性必然增强,未来各国部署完全自主武器系统亦是大势所趋。中国始终坚持即便是完全自主武器系统,也不能完全脱离人类的控制。其运行参数、部署范围和作战任务都可以人为提前设定,并且可以配备终极控制装置,确保人类可随时中止其运行,以实现对完全自主武器系统“有意义的人类控制”。尽管各国对“有意义的人类控制”形成共识还有相当的距离,但中国倡导的安全性、可靠性、可控性三原则,以及各国安全评估和管控能力的公开性、透明性,为消除其模糊性提供了很好的思考路径。 中国认为,人类是人工智能研发操作的最终责任主体,问责机制必须建立完善。绝不允许出现无人对自主武器系统的决策、行动和影响负责的“问责真空”,自主武器系统必须被严格地视为武器。自主武器系统的研发者、指挥官、操作员乃至自主武器系统所属的国家都有可能承担相关法律责任。 中国以负责任大国坚持多边主义,增进理解与协作,严格管控风险,考虑到人工智能技术的军民两用性质,采取必要措施,降低人工智能军事应用的扩散风险。为了更好地规范人工智能军事应用,中国可以同国际社会进行更多合作,制定与自主武器系统相关技术的系列标准和原则,并努力将这些标准和原则转化为各国生产和使用自主武器系统的最佳实践。以人工智能技术为基础的自主武器系统的相关技术,在商业市场上更容易获得,为此,国际社会要建立严格登记、交易、追踪、溯源体系,始终警惕这些自主武器系统扩散到非国家行为体、恐怖组织或者国际犯罪集团手中。 (作者系中国政法大学军民融合法治研究院院长、教授)
|
|
智能向善军用严控
|
中国《关于规范人工智能军事应用的立场文件》评析
|
|
|
( 2021-12-23 ) 稿件来源: 法治日报军事广角 |
|
□ 李卫海
12月13日,中国裁军大使李松在联合国《特定常规武器公约》第六次审议大会上,提交了《关于规范人工智能军事应用的立场文件》。文件清晰地表达了中国在规范人工智能军事应用上反对军事技术霸权、维护全球战略稳定和坚持国际人道主义精神的基本立场,提出了国际社会应该如何在军事领域负责任地开发和利用人工智能技术的八项倡议,有助于完善人工智能军事应用的规范机制,在人工智能领域构建人类命运共同体。 中国强调,各国尤其是大国不应谋求绝对军事优势,不应损害全球战略平衡与稳定。人工智能的军事应用必将引发新一轮军事革命,积极寻求此趋势所带来的军事优势是各国所期。但若通过发展人工智能谋求绝对安全,极易穷兵黩武,引发全球范围恶性军备竞赛。 中国鲜明地秉持“智能向善”原则,坚决反对将人工智能的军事应用作为发动战争和追求霸权的工具。中国无人机技术不仅处于领先地位,而且在研发、贸易、部署、使用等环节上遵循人类共同价值观,强调良法善治:在对外军售上严格管控,促进各国享有技术发展与和平利用的权利;一贯坚持应确保无人机等新武器及其作战手段符合国际人道主义法和其他适用的国际法,努力减少附带伤亡,避免误用恶用。 中国深谙人工智能的巨大风险,坚决主张相关武器系统永远处于人类控制之下。在日益复杂恶劣的作战环境条件下武器系统自主性必然增强,未来各国部署完全自主武器系统亦是大势所趋。中国始终坚持即便是完全自主武器系统,也不能完全脱离人类的控制。其运行参数、部署范围和作战任务都可以人为提前设定,并且可以配备终极控制装置,确保人类可随时中止其运行,以实现对完全自主武器系统“有意义的人类控制”。尽管各国对“有意义的人类控制”形成共识还有相当的距离,但中国倡导的安全性、可靠性、可控性三原则,以及各国安全评估和管控能力的公开性、透明性,为消除其模糊性提供了很好的思考路径。 中国认为,人类是人工智能研发操作的最终责任主体,问责机制必须建立完善。绝不允许出现无人对自主武器系统的决策、行动和影响负责的“问责真空”,自主武器系统必须被严格地视为武器。自主武器系统的研发者、指挥官、操作员乃至自主武器系统所属的国家都有可能承担相关法律责任。 中国以负责任大国坚持多边主义,增进理解与协作,严格管控风险,考虑到人工智能技术的军民两用性质,采取必要措施,降低人工智能军事应用的扩散风险。为了更好地规范人工智能军事应用,中国可以同国际社会进行更多合作,制定与自主武器系统相关技术的系列标准和原则,并努力将这些标准和原则转化为各国生产和使用自主武器系统的最佳实践。以人工智能技术为基础的自主武器系统的相关技术,在商业市场上更容易获得,为此,国际社会要建立严格登记、交易、追踪、溯源体系,始终警惕这些自主武器系统扩散到非国家行为体、恐怖组织或者国际犯罪集团手中。 (作者系中国政法大学军民融合法治研究院院长、教授)
|
|
|