[PConline 资讯]根据美国国防部发布的最新新闻稿,美国军方制定了未来装备在机器人坦克、智能武器系统中人工智能的新道德标准。新闻稿中指出,美国国防部和业内领先的多名AI专家共同研究15个月之后,提出了涉及五个考虑因素的执导方针。 据悉这五大道德原则分别为“责任”、“公平”、“可追溯”、“可靠”和“可控”。虽然该委员会决议并不具拘束力,但知情官员指出,五角大厦即将重新制定的规格将“完全符合该规范”。 这五大道德原则分别为 1.责任(Responsible) 负责国防部人员将行使适当的判断力和谨慎水平,同时还要负责AI功能的开发,部署和使用。 2.公平(Equitable) 国防部将采取有步骤的措施,最大程度地减少人工智能功能中的意外偏见。 3.可追溯(Traceable) 国防部开发和部署的AI功能将会提供适用情境、开发流程和操作方法等等,并通过透明且可审核的方法对数据源、设计程序和文档进行查看 4.可靠(Reliable) 国防部对各项AI功能都具有明确定义的用途,并且这些功能的安全性,有效性和有效性将在其整个生命周期内经受测试和保证。 5.可控(Governable) 国防部将设计和工程AI功能,以实现其预期的功能,同时具有检测和避免意外后果的能力,以便于在遭遇突发状况的时候及时控制。 五角大厦透过声明稿表示,这些原则理论基础源于美国宪法,规范美军角色与定位的《美国法典》第10卷,国际战争法以及国际既有的条约与规范,未来这些通用性原则将适用于于 包括战斗与非战斗用途的AI,以维护美军在使用AI时的正当性与合法性。 美国国防部“联合人工智慧中心”(JAIC)主任夏纳翰翰中将表示,相较于苏联,中共发展军用AI引发包括违反人权,道德与国际规范等疑虑的事实,美国与西方盟国对于AI的 安全使用与人道考量全面且一致,JAIC未来也将召集美军所有与AI有关的领导阶层,研讨落实该原则的实际措施。 部分专家对于AI的军事化表达高度忧心,国际自动化武器规范委员会(iPRAW)成员,德国慕尼黑大学附属绍尔就表示,五角大厦以及DIB的做法虽然令人赞赏,而将武器自动化仍可能造成极大影响 ,当致命击杀链具自主判断能力时,恐造成危机甚至毁灭。 DIB在原则中,明确指出人类对AI必须掌握最终的控制权,并针对AI使用负起完全责任。 提升该领域军民合作的可能性。 |
正在阅读:五大根本原则:美军公布未来武器AI系统标准五大根本原则:美军公布未来武器AI系统标准
2020-02-27 00:15
出处:其他
责任编辑:songshipeng