在线办公

期刊检索

您当前的位置:首页 >> 人工智能在军事决策中的应用及其人道法问题

人工智能在军事决策中的应用及其人道法问题

查看全文 下载全文
下载PDF阅读器


摘要:

人工智能在军事决策支持系统,尤其是在战场目标识别与定位中的深度集成,显著提升了作战效能,但其伴随的平民伤亡问题亦引发广泛批评。尽管人工智能技术蕴含提高打击精度、减少附带损害的人道潜力,但其固有的不稳定性、不可解释性与不可预测性,对国际人道法的有效遵守构成根本挑战。当前实战部署的人工智能决策支持系统已远超传统“支持”角色,实质上替代了关键的人类决策环节。这种深度自主化趋势,叠加人工智能技术内在的“语义鸿沟”和算法偏见风险,更加放大了人道风险。为有效应对此种风险,首先要确保人类具有实质控制权,保障人类在关键决策回路中拥有充分的参与、监督与最终判断权。其次应当从技术进步与法律完善两个方面采取措施。一方面,着力提升人工智能系统的可解释性与可预测性;研发并部署有效的算法偏见检测与缓解技术;建立覆盖全生命周期的严格测试与验证机制。另一方面,推动建立对于人工智能军事决策支持系统的国内法律审查制度,并启动国际法上的问责机制,追究相关国家的国际责任,以及相关行为人的刑事责任,确保此类系统部署与使用严格符合国际人道法要求。



作者: 张卫华
作者单位: 中国社会科学院国际法研究所助理研究员
期刊: 国际法研究
年.(期):页码 2025.(6):70-87
中图分类号:
文章编号:
关键词: 人工智能;军事决策;人工智能决策支持系统;国际人道法;算法偏见

欢迎阅读《国际法研究》!您是该文第132位读者!