blog

关于如何规范“杀手机器人”的世界分歧

<p>上周,来自世界各地的外交官在日内瓦召开了联合国关于致命自主武器系统(LAWS)的第三次非正式专家会议,这次会议通常被称为“杀手机器人”</p><p>他们的目的是在决定如何或是否应该是根据国际人道法受到监管在会议上表达了一系列意见,从巴基斯坦赞成全面禁止,到英国不赞成对LAWS的新规定,以及介于两者之间的几个立场尽管有各种各样的观点,但仍有一些共同点人们普遍认为,LAWS受国际人道法的管辖</p><p>例如,机器人不能忽视平民和战斗员之间的区别原则,或者攻击规模的相称性</p><p>人类指挥官也对其机器人负有指挥责任,就像为男女提供的服务机器人不能合法地用于种族灭绝,屠杀和战争罪行</p><p>除此之外,还有广泛的各国采取的四个立场英国的立场是,现有的国际人道法足以管理人工智能(AI)和机器人技术中的新兴技术</p><p>论证说,国际人道法足以在飞机和潜艇出现时对其进行管理,它也将应对各种各样的LAWS这将包括具有“道德管理者”的捕食者无人机 - 这是用于确定罢工是否符合规定的交战规则和国际人道法的软件 - 或自主反潜战舰船,例如美国海军的实验性自主海上猎人法国代表团表示,禁令将是“为时过早”,并且他们愿意接受“环路”法律的合法性与“人在更广泛的循环中”这意味着机器可以自主选择目标和射击,但是人类仍然设定了参与规则但是,他们我们重新开放调节机器学习“循环”LAWS(尚不存在)因此,他们可能支持未来禁止任何自学AI - 类似于AlphaGo,最近击败人类世界围棋冠军 - 直接在更广泛的环路中控制没有人类的导弹主要关注的是,这种认可机构可能无法预测荷兰和瑞士代表团建议“在更广泛的环路中”的“人在循环”系统可以符合国际人道法,具有足够的意义人类控制并符合公众良知的要求英国,法国和加拿大反对禁止此类系统禁止此类机器人武器的拥护者声称他们在道德上可能优于人类士兵,因为他们会更准确,更精确,更不容易由恐慌或复仇引起的错误决定反对者认为他们可能在混乱或封闭的环境中迷失方向并且在道德上是不可接受的例如,罗马教廷和其他13人国家认为人们在决定采取生命方面进行实时人为干预是必要的,因此必须始终有一个人在这个位置这个位置需要例外的已经部署的“防御性”武器,如方阵近距离武器系统,以及自19世纪60年代以来一直存在的海军地雷长期接受的“海上地雷”武器巴基斯坦和巴勒斯坦将支持任何足以禁止无线电无人机的措施但是,大多数国家认为这超出了LAWS辩论的范围,就像人类一样做出选择和参与目标的决定,尽管很多人认为无人机是人权灾难正式地,人工智能是图灵机,机械地将规则应用于符号输入以产生输出禁止机器学习法律禁止更新的AIs制定致命决定的自己的规则书禁止“更广泛的循环”的法律禁止使用人工编写的规则书来制定致命的决定禁止“在循环中”法律禁止罗马在所有意见中被人类用作武器的飞行员机器人也不同,关于图灵计算的决策控制是否有资格作为有意义或人类日内瓦会议是一次非正式专家会议,以澄清定义并就可能的内容达成共识(如果有的话)在条约中被禁止或受到监管因此,没有对条约措辞的投票最有可能的结果是设立一个政府专家小组来继续讨论人工智能,机器人技术和LAWS仍在开发中 事实上,世界处于第一位:依靠现有的国际人道法提供一个AlphaGo掌管导弹,遵守歧视和相称原则,它不会是非法的,

查看所有