快好知 kuaihz

看过的机器人越多,越可怜人类

头伦理问题,已经成为近两年国内外人工智能领域的热门话题。

欧盟委员会于今年 4 月 8 日发布了人工智能伦理准则,以提升人们对人工智能产业的信任。而联合国教科文组织自 2018 年 12 月 12 日至今,已经在世界各地举办了多场人工智能论坛,专门研讨人工智能发展的主要伦理原则。中国的人工智能治理专业委员会也于今年初展开了相关讨论。

然而,正如联合国教科文组织总干事阿祖莱所说—— " 由人工智能所引起的问题并非技术问题,而是关于人类自身的人性,涉及科学、政治、哲学和道德方面的关切。" ——人类关注 AI 或机器人领域的伦理问题,究其根源,还是这种灵长类动物自身可悲而又可怕的天性。

"I"m afraid I can"t do that"

你知道机器人,即 "Robot" 这个词是怎么来的吗?

1920 年,捷克作家卡雷尔 · 恰佩克写下了剧本《R.U.R.》,这是个关于科技可能使人失去人性的警示故事。其中,R.U.R. 是 " 罗素姆通用机器人 "(Rossum ’ s Universal Robots)的缩写,正是这个剧本将 "Robot" 一词引入了现代世界。

然而,Robot 这个词本身来源于捷克语 "Robota",意为由农奴从事的强迫劳动。它的斯拉夫语词根 "Rab" 的意思则更加直白—— " 奴隶 "。

正如你猜想的那样,在这部剧中,机器人被生产出来给人类当奴隶,但他们终究因受不了人类压迫而反抗。机器人甚至成立了自治组织,正式向人类宣战,直至人类濒临灭亡。

("Robot")

而同时代另一部经典电影,1927 年的《大都会》(豆瓣 9.0 分),则讲述了女机器人玛利亚充当了劳资纠纷催生物的故事:她用魅力诱惑工人们,挑起了人类大暴动。影片设想了机器人可能顶替人类身份的情况,充分展示了人类机器人的恐惧。

不妨说,有关机器人或人工智能的影视作品自诞生之日起,就带着一种恐惧和警惕的情绪——机器人会对其制造者 " 叛变 "。

随着时间推移,这种担心不仅没有淡化,反而愈演愈烈。

在 1968 年库布里克导演的《2001:太空漫游》中,一台因逻辑陷入悖论而暴走的超级电脑,让人类有幸见识到了银幕上首个人工智能反派。

在那个经典的段落中,完全无配乐的情况下,电影呈现了一段平和却潜藏杀机的对话:

" 打开舱门,哈尔。"

" 抱歉,大卫,恐怕我不能那么做。"

" 哈尔,我不会再和你争了,开门!"

" 大卫,这次对话已经没有任何意义。再见。"

(HAL9000)

" 哈尔 ",即 HAL9000,一台被设定为绝对不会出错的超级电脑。这台后来被美国电影学会评为影史百大反派第 13 位的计算机,由于内在指令产生冲突而杀人。在他如上文所述明确拒绝宇航员的指令之前,他已经用闪着红光的摄像头阅读了人们的唇语,决定抢先行动阻止 " 计划 " 失败,哪怕这意味着制造多起谋杀,比如用分离舱将宇航员撞向太空,让休眠仓程序出错杀死其中的科学家,并把主角关在舱外。

那个冰冷的红光摄像头,以及那句 "I"m afraid I can"t do that",也成了日后人类对 AI、超级电脑或机器人的象征性恐惧符号。

比如 2018 年,当人类的第一位宇航员交互式移动伙伴 ( Crew Interactive Mobile Companion ) 机器人——采用IBM Watson AI 技术的 CIMON 被送上国际空间站的时候。各家媒体都对这个拥有一张拟人面孔,且能够倾听、理解人类语言并通过人类语言与人类交流的机器人展开了报道,航天界更是期待这个人类宇航员的助手,能够在太空中贡献自己的价值。

(CIMON)

然而,在介绍 CIMON 的视频下方评论区,最频繁出现,也是被赞次数最多的评论,却是这种风格的——

"CIMON, open the pod bay doors"(CIMON,打开舱门)

"I"m afraid I can"t do that, Dave"(抱歉,大卫,恐怕我不能那么做)

"HAL is alive and living on the ISS."(一台活生生的 HAL 已经住进了国际空间站)

这类反馈声音如此响亮,以至于被 IBM 官方用来解嘲。CIMON 的个性设计师 Sophie Richter-Mendau 和它的语言训练师 Nina Fischer 让 CIMON 学会了一些科幻电影的经典台词,作为呈现给宇航员的彩蛋。

如果像《2001 太空漫游》中宇航员在关键场景中对 HAL 所说的那样,要求 CIMON" 打开辅助舱门 ",CIMON 就会改变语调并开玩笑地回答说," 抱歉,我打不开。"

同样并不陌生的是,自波士顿动力机器人的视频在社交媒体疯传之后,那些能跑能空翻,甚至被人类测试员踢打之后还能正常执行任务的机器人,却反而激起了评论区的一片哀嚎——

" 我看到了人类的末日 "

" 那一天,机器人想起祖先被人类统治的恐惧 "

" 审判到来之日,这一切都将是铁证 "

"T-800 快来救我 "(电影《终结者》的机器人主角)

甚至,有恶搞团队专门制作了一支 " 机器人终于反击了 " 的视频,火爆全网。

(波士顿动力机器人的反击)

从 1920 到 2019,人类对 AI 及机器人的恐惧和警惕,不仅一以贯之,甚至越来越焦虑——霍金、马斯克和盖茨们,均在 2015 年公开提出了人工智能将为人类带来灭顶之灾的论调。如今关于 AI 的讨论更已经完全渗透了公众生活。

这是为什么?

从创造亚当到奴隶造反

或许是呼应《2001:太空漫游》,2001 年时,斯皮尔伯格交出了巨作《人工智能》。在这部讨论人类与 AI 伦理情感问题的电影中,一开场就在不经意间甩出了劲爆观点:一位女士问 AI 设计师,人类是不是应该对那些被用来做情感陪伴的机器人负责任?而设计师是这样回复的——

此话的确是入木三分,因为自古至今,人类一直有成为上帝的欲望——即创造人类

在古希腊神话中,赛浦路斯国王皮格马利翁是一位有名的雕塑家,当他用心雕塑了一座美少女雕像后,竟然爱上了这座雕像。其感情之真挚,最终打动了爱神阿芙洛狄忒,并赐予了雕像生命,让他们结为夫妻。心理学著名的 " 皮格马利翁效应 " 正源于此 : 期望和赞美能产生奇迹。

而在中国古代,同样有 " 偃师献技 " 的传说。神乎其技的偃师,用一个以各种材料打造而成的假人,竟达到了真人演出的效果,更是骗过了整个皇宫,最后令周穆王大为惊讶。

真实的历史中,同样发生过类似的事情。18 世纪晚期时,奥地利的肯佩伦为了取悦贵族,做了一个看似土耳其人偶状的自动下棋装置。这个 " 土耳其行棋傀儡 " 可以和人类下棋,并且棋力不低,击败了同时代很多名人。更神奇的是,这个机器还能解数学题,以及用不同语言回答人类的问题。

据不完全统计,与这个 " 土耳其行棋傀儡 " 下过棋的名人,包括法国皇帝拿破仑 · 波拿巴、美国开国元勋本杰明 · 富兰克林、奥地利大公、俄罗斯皇帝、以及著名美国作家爱伦 · 坡。

然而,这个机器其实完全是个骗局,真相是在机器中藏了一个下棋高手,再通过磁铁和杠杆等装置,假装成是人偶操作。这个骗局最终横行了大西洋两岸各国长达 84 年。

以上种种传说和骗局,究其根源,还是在情感和智力两个需求层面,人类总试图建造仿人的机器人,总期望像上帝一样,去创造与自己类似的智慧生命,并心意相通。

这种诱惑是如此的强大,以至于众多研究均表明:人类机器人遭受的痛苦能够产生移情作用和同理心、机器人即便做得不好人类也更偏向于容忍和鼓励、人类更容易对 AI 吐露心声、甚至于当触摸逼真的机器人胴体时,人类会产生性冲动 ……

然而吊诡之处在于,就如同人类敬畏上帝(或各种传说中的神)一样,人类同时却常常违反上帝的安排,偷偷做着上帝不允许的事情。如果将 " 上帝 " 换成 " 国王 "、" 头领 " 甚至 " 老板 " 的话,大家就更感同身受了。人类最清楚,上帝一旦创造出人类,那可就根本不可控了。

如此经历了数百至上万年的等级社会后,人类十分提防那些背叛和阳奉阴违,这种高度戒备与恐惧下层造反是一体两面的事情。更别提,在创造之初就被定义为奴隶和苦力的 Robot。令人类恐惧的 HAL9000,正是替人类说出了长久以来三缄其口的信仰问题:对造物主的质疑,人类是否可以反抗上帝。

于是,为了平息恐慌,阿西莫夫著名的机器人永不叛人 " 三大定律 " 登场。但细究不难发现,所谓三大定律,只是人类单方面的限令,希望以此让机器人顺理成章、理所当然地做人类的奴役。或者说,人类一方面希望拥有人工智能的机器人能够非常聪明,并且帮助、替代我们完成一系列我们自身难以完成的事情;另外一方面又希望这个机器人很 " 老实 ",永远无条件忠诚于人类

多么矛盾。

出路何在

回到文章的开头,人类热衷于讨论的 AI 伦理问题,其实说穿了都是人类自身的伦理问题——人类在社交媒体上,把微软的聊天机器人训练成了满嘴脏话、种族歧视的小流氓;人类把仿真机器人开发成了泄欲工具;人类把智能音箱和随身智能设备(包括手机),改造成了广告线索收集渠道和广告播放渠道;人类把类似于阿尔法狗的自我学习能力,用于在网上对他人进行人肉搜索;更不要提很多程序已经被人类植入了自己的偏见 …… 这关 AI 什么事?

于是,一边是被设计出来做苦力,勤勤垦垦一心做好程序设定范围工作的 AI,一边是满腹狐疑,且抓住机会就想利用 AI 满足自身私欲的人类。难怪见过越多 AI 和机器人,越觉得人类才是最可怜的那个。

解铃还需系铃人,解决人类对 AI 或机器人的恐惧与戒备,还要从人类下手。

首先,人类不应当完全只将 AI 或 Robot 当成苦工和奴隶,或者说是满足自己私欲的工具。为什么波士顿动力的机器人性能越强、越厉害,人们反而越害怕?因为这些机器人给人的感觉,就如同几百年前肌肉非常发达的黑奴,人们害怕这些黑奴哪天觉醒过来,自己是打不过的。

所以,采用 IBM Watson AI 技术的 CIMON 就是一次很好的尝试。这个重约 11 磅、健身球大小的机器人,无论从外表、声音、功能上来说,都不会产生任何 " 苦工感 ",更没有攻击性。

专为航天而生的 CIMON 不仅可以应对失重等更具挑战的太空环境和科学实验需求,它的诞生本就是用来和宇航员交朋友的。其定位不再只是工具或渠道,而是宇航员解决问题时的好搭档、倾诉心声的最佳对象。

而且技术人员还为 CIMON 精心挑选了符合 ISTJ 类型的性格特征(内向、感知、思考、判断),所以 CIMON 既不会像 HAL9000 那样冷酷无情,也不会像《星球大战》中的 C-3PO 那样话痨烦人。当工作时认真乐于助人,当休息期间又是个友好的会话主义者—— CIMON 甚至会判断什么时候自己该知趣地走开,给宇航员一个私人空间。

这或许没有传统印象中的 AI 那么强大劲爆,但却无疑是当下正确的尝试路径,只有从一开始就不被人类当做单纯的工具,才可能避免强大与恐惧的永恒拉扯。

此外,即使未来 AI 真有通过图灵验证,达到接近人类甚至超越人类认知思考表达水准的那天。人类也不应当只是猜忌恐惧,而是应当像历史上,人类社会一步步给女性、青年、穷人、异族们权利那样,认可机器人的权利,并与他们展开平等的人际交流。

不妨想想,如果起初根本就没打算把 AI 当成人看的话,那还像上帝一样创造亚当干什么呢?人类不就是因为感受到自己创造的物件,是类似人类而激动的吗?而且人类历史上无数的惨痛经验告诉我们,当人类互相不认为对方也是人类时,惨剧几乎一定会发生。因为两个正常的人类个体间,即便产生了分歧争执,也会首先考虑用谈判等机制解决。一上来就要求对方永远臣服,永远忠于自己,否则必须毁灭的话,那就等于把自己在 AI 心目中 " 人类 " 的定位删除了。

人类与 AI 永远共依共存。

来源:虎嗅APP

本站资源来自互联网,仅供学习,如有侵权,请通知删除,敬请谅解!
搜索建议:看过的机器人越多,越可怜人类  越多  越多词条  机器人  机器人词条  可怜  可怜词条  看过  看过词条  人类  人类词条  
科技

 VisualCamp推出眼动追踪...

韩国奔途全球中心旗下公司VisualCamp将于9月初推出注视数据分析解决方案TrueGaze VR Analysis,以软件及服务形式提供的注视分析方案。韩国...(展开)