交流评论、关注点赞

  • Facebook Icon脸书专页
  • telegram Icon翻墙交流电报群
  • telegram Icon电报频道
  • RSS订阅禁闻RSS/FEED订阅

多国科学家抵制“杀人智能” 专家警告若不研发将让中共领先

2018年04月07日 9:25 PDF版 分享转发

国际通讯联盟展示的一款集人工智能技术的

和世界各地的科研人员纷纷对配合军方研发人工智能和自主武器(autonomous weapon)说“不”。一些学者和军方人员认为,正以举国之力研发自主武器,美国和西方国家主动丢失这一战场是在自废武功。

30科学vs韩国军事实验室vs

来自30多个国家的50多个人工智能和机器人技术科学家星期四发表联合声明,反对韩国科学技术院设立人工智能武器实验室,称将抵制与该研究院开展任何合作,直至它放弃与有军方背景的财团合作设立用于研发人工智能作战技术的实验室。

无独有偶,据《纽约时报》本星期报道,数千名谷歌公司员工联名上书公司CEO,反对参与美国国防部领头的人工智能项目。

Ad:美好不容错过,和家人朋友一起享受愉快时光,现在就订票

报道说,谷歌员工在信中要求公司推出五角大楼的人工智能“Maven”项目,认为以“不作恶”为信条的谷歌不应该涉足战争。

此前有消息说,谷歌正在与五角大楼合作,用人工智能技术分析处理无人机收集到的“海量”录像画面。

与此同时,联合国“特定常规武器公约”下的一个委员会计划下星期在瑞士日内瓦举行会议,将讨论如何在国际法框架下实现对自主化机器人“有意义的人类控制”(meaningful human control)。

活动人士呼吁,国家间应达成一个禁止自主武器的公约。

美国空军退役少将、杜克大学法学中心教授查尔斯·邓拉普(左一)、高级研究员泰德·皮科内(右二)4月5日在华盛顿参加研讨会 

禁止自主武器是道德问题还是因噎废食?

美国空军退役少将、杜克大学法学中心教授查尔斯·邓拉普(Charles Dunlap)认为,完全自主化、具备类似人类神经感知判断能力的机器人现在还不存在,他也反对以道德原因禁止某项可能被用于军事的技术。

邓拉普4月5日在华盛顿著名智库布鲁金斯学会说,每次使用武力都会伴随道德问题。

他说:“真正有参军经验的人从来不会对杀戮本身感到愉悦,即使杀的是敌人,实际情况是,杀人是为了救其他的人。所以我要提出不作为所带来的道德风险。”

邓拉普强调:“我们永远不应该认为,因为我们不去采用某项技术,这样就可以让平民和无辜的人免受伤害。不是的,我们所处的这个世界有很多邪恶的坏人,他们会得到这些技术,除非我们阻止,他们会使用这些东西。不幸的是,有时暴力是唯一能阻止他们的方式。”

邓拉普认为,国际社会需要达成的是一个对自主机器人技术的测试和评估准则,让军方指挥官有理由相信,某项技术的运作可以受到控制,而不是达成禁止使用有关技术的条约。

他说:“我们永远也不可能达成国际条约。不要忘了,中国至今不接受在网络空间的行为受日内瓦公约有关武装冲突条文的约束。”

的优势是美国的地缘政治问题

布鲁金斯学会副主席、外交政策项目主任布鲁斯·琼斯(Bruce Jones)说,发展自主武器的前景不是科幻小说,而是一个现实命题,甚至可能是下一代的军备竞赛。

他说:“美国、俄罗斯、中国、法国等国家正在投资数百亿美元,来决定谁能赢得这场竞赛。普京和都明确表示要让自己的国家胜出——我认为习近平的说法更为可信。

布鲁金斯学会外交政策高级研究员泰德·皮科内(Ted Piccone)说:“中国使用大数据的方式是我们在民主社会不愿意去用的。他们把数据用于社会控制,但也可以轻易、快速地将其武器化,因为人工智能是基于数据应用的学习,所以我认为我们手上有一个严重的地缘政治问题。”

有报道说,中国人工智能初创公司今年获得的融资首次超过美国,这已经引起了美国研究人员的警觉。

来源:美国之音

喜欢、支持,请转发分享↓Follow Us 责任编辑:林远翔