日本发布人工智能武器研发指南,明确“人类干预”必要性

时间:2025-06-08 18:13:00

据日本《朝日新闻》6月7日报道,日本防卫省6日首次制定并发布了关于人工智能(AI)武器研发的“AI适用指南”,以期在管理AI风险的同时推动应用AI技术。关于无人机等AI武器的开发,指南明确提出了“人类责任明确化”等要求。 日本防卫大臣中谷元在6日的记者会上强调:“根据指南内容,可以在降低AI应用风险的同时,最大限度从中受益。”

去年7月,防卫省制定了关于有效利用AI的基本方针,设定了包括“指挥控制”在内的七个重点领域,并明确指出“人类干预”的必要性。在此基础上,此次指南提出了在武器研发中涉及AI应用的思路与审查制度。 具体而言,研发对象被划分为“高风险”和“低风险”两类。例如,如果AI能够识别攻击目标并直接触发导弹发射,则被划为“高风险”一类;而如果即使AI能够识别目标,也仍由人类作出判断,则被视为“低风险”。 针对“高风险”项目,防卫省将从法律与政策角度审查其研发可行性。若无法遵守国际法或国内法,或者涉及人类无法干预的致命性自主武器系统,则不允许推进开发。此外,专家会议将进行技术性审查,从七个方面展开调查。 由于AI武器可能出现错误判断,相关研发管制成为国际社会广泛讨论的课题。

日本政府此次发布指南,旨在通过提供AI风险管理标准,推动国内在武器研发中有效利用AI技术。 熟悉军事领域相关国际法的京都产业大学教授岩本诚吾对指南评价道:“内容遵循国际社会达成共识的伦理框架,值得肯定。”在此基础上他指出,在AI迅速发展的背景下,“未来AI可能自主升级,随着科技不断进步,有必要进行严格的法律审查”。(编译/马晓云)

来源: 参考消息