担心“杀手机器人”出现,50余位AI专家联名抵制韩国一项合作

 


“如果潘多拉盒子被打开,它将很难关闭”。

dezeen 报道,机器人领域 50 多名顶尖专家呼吁抵制韩国科学技术研究院(下文简称 KAIST),因为他们担心 KAIST 与国防制造商韩华公司之间的合作会加速自动化武器,也就是“杀手机器人”的发展。

图片/dezzen

KAIST 曾与韩华公司在 2 月 20 日达成合作,建立了 KAIST 国防与人工智能融合研究中心。据 Science 报道,该中心主要从事人工智能决策系统的开发,并将其用于飞机训练、追踪识别等技术。

但专家们认为,该研究可能会被应用于自动化武器的研发,其中包括无人驾驶飞机、潜艇、巡航导弹,甚至是战场上的“杀手机器人”。因此,KAIST 与韩华公司的合作会加速军备竞赛和 AI 武器的制造,甚至还可能引发继火药、核武器之后的“第三次战争革命”。

声明中说:“它们会让战争的速度更快,规模也更大。” “他们有可能被恐怖分子利用对抗无辜民众,消除任何道德限制。如果潘多拉盒子被打开,它将很难关闭”。

为此,他们以强硬态度抗议 KAIST 的这一行为:“我们将抵制所有与 KAIST 任何部门的合作,直到 KAIST 的总裁提供保证,该中心不会开发缺乏人类控制的自动化武器”。

但 KAIST 在几小时后否定了这种说法,并回复说:KAIST 不打算参与开发致命的自主军事系统和杀手机器人,“我们很清楚应用包括 AI 技术时的道德界限”。

不可否认的是,自动化应用对军事渗入愈加明显:据 TIME 称,中国在两年前已在海、陆、空各个领域测试了无人技术;韩国也在 12 月宣布开发应用于战争的无人机群;以色列目前已具备自主式武器,可以在没有人类指挥的情况下俯冲轰炸雷达信号。

它得出的结论是:世界上强大的国家已开始秘密的军备竞赛,而监管机构动作落后。

与此同时,人类与机器间的决策界限也在被广泛讨论。对于自动化趋势,即使掌握了先进技术的国家对日后发展方向也并不明晰。

新美国安全中心的 Paul Scharre 在接受 Science 采访时表示:”许多国家,特别是机器人领域的领先开发商,对于他们自主权要走多远的规划其实非常模糊。人与机器之间决策权的界限在哪里? 我们是否愿意将致命的权力委托给这些机器呢?”

题图/《钢铁侠3》来自豆瓣

 

20 Comments

  1. 谭菜根 2018年4月13日 at 下午2:55

    我们年轻一代应该活不到老死,应该是终于人祸。🤔

     
  2. ctswctu 2018年4月12日 at 上午10:15

    天网启动倒计时

     
  3. Tchaikovlin 2018年4月12日 at 上午9:32

    韩国净整些幺蛾子

     
  4. zoaly 2018年4月11日 at 下午10:43

    终结者迟早变纪录片

     
  5. 逸宏 2018年4月11日 at 下午2:19

    潘多拉盒早被某国打开了,因为那边可民众会反对。所以其他国家必须随之开发,不管是公开还是偷偷摸摸。

     
  6. 快让我在雪地撒撒撒点野 2018年4月11日 at 下午1:15

    潘多拉的盒子已经打开了

     
  7. 国服第一投资人 2018年4月11日 at 下午1:06

    目前下定论还太早,所以准备好等待死亡吧😏

     
  8. 帅羽迪📖Nicholas 2018年4月11日 at 下午12:34

    自以为能掌握的能力。

     
  9. 浅秋 2018年4月11日 at 上午11:11

    这将会是人类最自以为是的发明

     
  10. 朗仙森 2018年4月11日 at 上午9:45

    为了让更少的人在战场上牺牲,而选择无人化军备几乎是不可避免的趋势。我们早就有无人机杀人了,而真正的界线在于这些无人军备是否具备自主判定目标并执行的能力,比如通过图像识别自主判断敌我实现大面积的精准击杀

     
  11. 上古神兽泰迪犬 2018年4月11日 at 上午9:45

    话说回来,考虑到现在的生存环境,还是有一点点期待呢

     
  12. meo 2018年4月11日 at 上午9:44

    霍金最担心的事

     
  13. OoVta 2018年4月11日 at 上午9:32

    “毁灭自己”才是所谓底线。只有人的世界,食物链却从未消失过。

     
  14. bulecheng 2018年4月11日 at 上午9:12

    悲观态度,ai一定会被武器化。

     
  15. 周艺宁 2018年4月11日 at 上午8:59

    中国社会很少关心科学伦理,这种情况一般只会拍手叫好,感叹军队越来越强大,安全了,殊不知坦克也会压向谁

     
  16. 陈小怪 2018年4月11日 at 上午8:49

    核武器以前也是道德底线,时间问题

     
  17. Echo 2018年4月11日 at 上午8:47

    所谓的道德限制,说说而已

     
  18. JeffBZhao 2018年4月11日 at 上午8:25

    早晚会有的,有的**可没啥道德限制

     
  19. alpha- 2018年4月11日 at 上午8:17

    聪明的商家以其敏锐的嗅觉觉察到其中的商机,并立即推出“你的专属机器人保镖”服务

     
  20. King 2018年4月11日 at 上午7:55

    当然不行了

     

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.