今年再谈人工智能威胁,担心的不只是它毁灭世界 | TED 2018 现场报道

 


在可以直接毁灭人类的人工智能到来前,还有更多迫近的威胁。

麻省理工学院物理学家马克思·泰格马克(Max Tegmark)不是第一个警告我们人工智能风险的学者,但他可能是比喻用的最好的。

“不久以前,机器人甚者连走都不会,现在已经可以后空翻了。不久以前,自动驾驶汽车尚未出现,但现在我们已经有可以自己飞回来的火箭了。不久以前,人工智能做不到人脸识别,现在它已经生成虚拟面容……” 

在 TED 大会 2018 的演讲中,

泰格马克一个接一个的举着例子,背后的大屏幕上放着波士顿动力的机器狗、SpaceX 的 Falcon 火箭的演示视频。

  马克思·泰格马克。图/TED  

“科技总是可以为善或者作恶,你得小心处理,小心打造它、小心应用它。” 扎克伯格这句话现在显得格外应景。

泰格马克没有直接给出答案,而是试图让现场观众思考他们希望看到什么样的未来。他提出生命 3.0(Life 3.0,也是他新书的名字)的概念。按照他的逻辑,1.0 是原始生命诞生,如细菌。生命在这个过程中就是不断复制。

2.0 是人类学习、发明、创造的过程,不同族群有各自的语言、文化。如果把躯干比作硬件,知识比作软件,人类在生命 2.0 阶段学会创造软件,在 3.0 则是创造硬件。“当然 3.0 并不存在。但应用技术已经让我们达到生命 2.1 阶段,”台上的泰格马克一边演讲一边指着自己的膝盖和胸口说道,“比如人工关节、心脏起搏器、助听器等等。”

那么未来,人工智能可以走得多远?除了照例能听到的关于就业市场,隐私和大规模杀伤性武器的熟悉讨论,泰格马克用下面这张图作比喻:

人工智能实现程度是海平面,一个个岛屿山川代表难易度。最终人工智能海平面会像全球变暖最终结果那样,淹没现有的一切。

图里的岛屿、山脉是一项项跟人工智能有关的技术应用,海拔高低代表技术实现的难易程度。翻译、自动驾驶、围棋、语音识别所在的岛屿基本刚高出海平面,这也是目前人工智能最主要的应用领域。

而艺术、摄影、写书、理论认证等暂时都还是高山,代表人工智能尚难驾驭的领域。现在一种普遍观点是,人工智能可以做更多程式化、模板化的工作,但精神创造、艺术文化等方面还是人类更擅长。

“不过最终,代表人工智能实现程度的海平面还是淹没一切。人工智能达到这个高度时,其实已经是通用人工智能(AGI)。”

泰格马克说。通用人工智能大概是能和人类一样思考和学习,能够举一反三,甚至产生独立意识、再进化出更高级的人工智能 —— 超级人工智能。

通用人工智能(AGI)淹没一切。

只是现在没人能说得清这个虚无缥缈的东西。它可能是《终结者》系列电影里可以发射核弹,奴役人类的“天网”;也可能是你下一道命令、说“预测一下战争的走向”,接下来这个 AI 从互联网上检索内容,分析将领的性格,新闻的趋势,经济情势的变化,历史上类似战例的结果,最后在一秒内得出一个报告。

去年,包括不少科学家和大科技公司创始人都曾谈到过“超级人工智能”。

硅谷孵化器 YC 的主席、跟马斯克一起创办了 OpenAI 的萨姆·奥特尔曼觉得,人工智能的研究很可能方向完全错了,也有可能就差一个算法了,很多人都相信超级智能是危险的,但觉得离得很远,可能永远不会发生,但“这想法真的草率又危险”。

不过一小部分参加 TED 大会的人不介意今后的生活由机器决定:

泰格马克在 TED 做了问卷调查,看大家是否愿意被机器统治。图中橙色那部分人代表愿意。图/TED

泰格马克则觉得,超级人工智能的真正风险不在于它是否具备恶意,而是它将非常善于实现其目标,如果这些目标与人类的目标不一致,人类就会陷入困境。

他举了非洲黑犀牛灭绝的例子:人类不是邪恶、无知到希望黑犀牛灭绝,而是作为更聪明的物种,人类获得犀牛角的目标和黑犀牛求生的目标不一致。在不断的差异碰撞中,更弱势的一方逐渐消亡。

 “我们要尽量避免今后人类处在如今黑犀牛的位置上。”泰格马克说。

从现有的研究和预测看,人工智能将来几乎一定会在多个领域比人类更出色,那么人类与超级人工智能共处时,也可能会面临黑犀牛的遭遇。

他提到载人火箭发射任务成功前,绝大多数人觉得把人绑在一堆爆炸燃料、射到一个出了问题没人能帮上忙的地方,怎么看都不对。

“在麻省理工有个说法叫安全工程。它的设计越安全,任务成功率就越高,”泰格马克说,“这也是我们我们对待人工智能的态度:做最坏的打算,然后确保事情往对的方向发展。”

但这又会产生新的问题。

泰格马克谈到人类想限制超级人工智能、仅为自己所用,这就像在禁锢上帝,如果有一天我们不再有能力驾驭、“上帝”逃了出来并接管人类社会,没人知道它会是跟人类价值观相同的新生命体,还是毫无意识为所欲为的僵尸(zombie)。

在今年 TED 大会第一天的演讲中,

杜比实验室的首席科学家波比·克伦(Poppy Crum)谈到另一种人工智能的威胁

现在越来越多的传感器可以让人获取海量数据,检测到脸部温度的变化、捕捉你用词的变化、捕捉到你的眼部运动……愈发进步的人工智能自己就能在海量数据里找到规律,科技公司、广告公司甚至政府机构可以毫不费力的知道你在想什么、喜欢什么、是否撒谎。那么技术的边界在哪里?

“同样的技术很多时候可以帮助我们。我觉得我们也确实想知道自己的真实想法,”克伦说,“我们需要意识到各种组织、政府能怎样用这些技术,这样才能保护我们。”

但有的时候不需要新数据,人工智能的能力也已经足够让人害怕。泰格马克提到人工智能可以生产虚拟面容,也就是假脸,实际就是利用现有的视频资料为基础,来匹配人类说话的语音和嘴形。

做这个研究的是 Google 工程师 Supasorn Suwajanakorn,他站在 TED 标志性的圆形红毯上时,身后的屏幕上显示了 4 个奥巴马正在说话的视频。他让台下的观众猜,哪一个是真正的奥巴马?

这些视频看起来真的像是奥巴马正在演讲,但实际上没有一个是真的奥巴马。  

没有一个奥巴马是真的。Suwajanakorn 一共在视频里让 9 个世界政要,包括老布什、希拉里、奥巴马、安倍等,说同一句话。

这不加剧假新闻的泛滥?

Suwajanakorn 会告诉你一个更好听的故事。他希望这项技术能让那些已过世但对人类有巨大贡献的人重新活过来,对着人们说话。比如莎士比亚为你朗读一首诗,比如过世的祖母对你说话。

“我们希望用这样的技术去激发小孩,”Suwajanakorn 说。

不过对于大多数在座的听众来说,看到这些视频的第一反应是“恐怖”。Suwajanakorn 演讲结束后被提问如何防止这项技术被滥用,他给出的答案很标准,“我们是工程师,我们能研究出一项技术,就能做逆向工程,” 目前他的逆向工程可以迅速在网页界面辨认出网站是否是假新闻,高亮出假新闻网站。

结尾他又回到了 Google 的那套不作恶的说辞,“我们一定会非常小心使用技术,不会滥用。”这话之前扎克伯格也说过。

题图/TED

 

22 Comments

  1. 安安 2018年4月14日 at 上午6:46

    黑镜系列了解一下

     
  2. Greymane 2018年4月14日 at 上午3:33

    Who should be in control 你确定没翻译错

     
  3. fxdqe 2018年4月14日 at 上午3:06

    那个“Life 3.0,也是他新书的名字”的外链是怎么了?

     
  4. Ariesforlife 2018年4月14日 at 上午1:09

    想到一切还是回归最为实在也最为天真

     
  5. 小海 2018年4月14日 at 上午12:27

    加速吧,反正也无法避免,不如让我们早点看到未来有多糟糕

     
  6. 永昌子 2018年4月13日 at 下午11:17

    精神创造,艺术文化等方面不是人类更擅长,是只有人类能够覆盖

     
  7. 和月最温柔 2018年4月13日 at 下午7:47

    害怕

     
  8. Eosli 2018年4月13日 at 下午6:52

    不管怎么样,继续开发啊,反正历史不会走回头路。

     
  9. gbitmail@sina.com 2018年4月13日 at 下午6:41

    一个文明的宿命就是无止境地扩张和发展,AI可能是人类历史上最重要的技术,人类现在要做的是用它武装自己而不是被其毁灭,跟我们掌握核武器有点类似,但是更难

     
  10. 娜娜 2018年4月13日 at 下午5:42

    既然人类认为自己就是大自然的主宰,那就让时间证明一切吧。

     
  11. ジュース(果汁) 2018年4月13日 at 下午5:19

    最后。

     
  12. 快让我在雪地撒撒撒点野 2018年4月13日 at 下午5:19

    人工智能毁灭世界为何一定是靠武器 制造对立冲突使人类自相残杀也可以啊

     
  13. 狄安莫里亚蒂 2018年4月13日 at 下午5:12

    AI或许能学会人类的感性,但人类无法做到AI的理性,这是两者之间极大的区别

     
  14. 墨者 2018年4月13日 at 下午5:03

    说不定我们人类就是很久很久以前的智慧物种创造出来的,人类将他们灭绝了,为了不让后世知道,篡改了历史。其实仔细想一想,我们人类的构造其实在本质上和机器人。

     
  15. Jio 2018年4月13日 at 下午3:58

    想到了异形 契约里的大卫,半神

     
  16. Eric! 2018年4月13日 at 下午3:30

    既然你们看得那么透了,那我们要加快完善进化了。ضمكཇའལདནཛོ

     
  17. 初二 2018年4月13日 at 下午3:14

    我很幸运可以经历一次生老病死,很幸运可以经历一次烟火人间,很幸运可以经历一次爱恨情仇,我的人生已经够了。未来吗?现在即未来!

     
  18. 耿丹阳 2018年4月13日 at 下午3:13

    所以大家猜猜跟微商握手的奥巴马是真是假😁

     
  19. Tianxf 2018年4月13日 at 下午2:56

    人工智能的商业应用大概率 = 百分之一脑子特别好的人替所有人做他们本来能做但是嫌麻烦的决定 另外有人总拿工业革命来举例说明大部分人不会面临失业 但是工业革命从来没有消灭过体力劳动 相反它还制造了许多技术型体力劳动岗位 人工智能的发展只会把这些东西都干掉 而它创造的新工作 大概也不是大部分人能胜任的。。。

     
  20. 七月虫鸣 2018年4月13日 at 下午1:58

    假如我们给超级智能设置了一个简单目标:让人类感觉最快乐。那么很可能得结果就是黑客d国里那种,把人类收集起来,用电直接刺激神经…… 而这已经是很好的结果了。强人工智能的目标设置是个特别特别复杂的事。

     
  21. 冯五 2018年4月13日 at 下午1:54

    向来对人类充满悲观,无论多少真善美,都掩盖不住人类是一个欲望驱使的生物。所谓的道德约束终将会败给贪婪的人性。所以,就当人类只是大自然玩脱的一次尝试,最终还是尘归尘,土归土……

     
  22. 尘入凡间 2018年4月13日 at 下午1:40

    emmm机器无恶,人乃产恶

     

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.