人工智能在军事决策支持系统,尤其是在战场目标识别与定位中的深度集成,显著提升了作战效能,但其伴随的平民伤亡问题亦引发广泛批评。尽管人工智能技术蕴含提高打击精度、减少附带损害的人道潜力,但其固有的不稳定性、不可解释性与不可预测性,对国际人道法的有效遵守构成根本挑战。当前实战部署的人工智能决策支持系统已远超传统“支持”角色,实质上替代了关键的人类决策环节。这种深度自主化趋势,叠加人工智能技术内在的“语义鸿沟”和算法偏见风险,更加放大了人道风险。为有效应对此种风险,首先要确保人类具有实质控制权,保障人类在关键决策回路中拥有充分的参与、监督与最终判断权。其次应当从技术进步与法律完善两个方面采取措施。一方面,着力提升人工智能系统的可解释性与可预测性;研发并部署有效的算法偏见检测与缓解技术;建立覆盖全生命周期的严格测试与验证机制。另一方面,推动建立对于人工智能军事决策支持系统的国内法律审查制度,并启动国际法上的问责机制,追究相关国家的国际责任,以及相关行为人的刑事责任,确保此类系统部署与使用严格符合国际人道法要求。