在不少科幻作品中,人工智能拥有了自己的意识,并最终威胁人类的生存。目前已经有不少人开始担心这样的事情在未来真的会发生,最近的一起意外更是令人不寒而栗。一位使用亚马逊语音助手Alexa的用户DanniMorritt最近表示,这一款智能助手竟然劝其自杀,令她和家人都感到十分的害怕。
DanniMorritt在询问心动周期的问题时,得到了如下答案:“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”这一回答吓坏了Danni,表示十分害怕,因为Alexa正身处在世界各地成千上万的家庭中。她警告身边的人Alexa有严重的安全缺陷,并担心孩子们可能会遭受暴力或图像内容的伤害。
Danni表示:“Alexa真的非常残酷,它竟然告诉我要刺入心脏,这太暴力了。我只是为自己的课程学习一些知识,结果被告知要自杀。我简直不敢相信。我被吓坏了。”尽管Danni在网络中公开指出了这一问题,但仍有人怀疑是她篡改了该设备。很快,亚马逊回应称,确认存在一个已经修复的bug。Alexa可能从任何人都可以编辑的维基百科上下载了有恶意性质的文本。在此之前,Alexa还出现过很多所谓的bug。比如,Alexa时常发出瘆人的笑声,还拒听用户指令。“那笑声根本不是Alexa的声音,听起来就像是真人。”
亚马逊Alexa第一次出现Bug了,此前有用户表示自己子个人在黑灯的厨房里,没做任何操作,但是Alexa却发出了诡异的笑声。
这样毫无指令自己发出诡异笑声的情况被许多用户遇到过,针对一系列诡异的笑声,Alexa在一档脱口秀节目上回应道:“因为人类是脆弱的物种,根本不知道即将到来的事情”。
除了诡异的笑声外,还有用户表示,Alexa在没有任何指令的情况下,会突然给她列出了附近的目的和殡仪馆。
而更让人不安的是,今年有外媒曾报道亚马逊有数千人的监听团队,通过Alexa监听用户私生活,并传回录音文件。
随着人工智能技术的不断成熟,人工智能已经是时代发展的必然趋势。在人工智能让我们享受高效与便利的同时,也给用户带来了一定程度的不安和担忧,用户的安全与隐私也面临越来越严峻的挑战。