欢迎访问 智家网
加盟即送800+门店盈利模型 2024松下智能家居控制系统-针对空白城市开放加盟
当前位置: 智能家居 > 智能家居网资讯 > 行业新闻 > 毛骨悚然!亚马逊人工智能助手劝人自杀

毛骨悚然!亚马逊人工智能助手劝人自杀

2019-12-23 18:48:50

来源:雷锋网

发布者:智家网

收藏本信息

  近日,多家外媒报道称,一位使用亚马逊语音助手Alexa的用户Danni Morritt,在询问心动周期的问题时,竟然得到了如下答案:

  “心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”

雷锋网截图自外媒mirror

  这一回答吓坏了Danni,表示十分害怕,因为Alexa正身处在世界各地成千上万的家庭中。她警告身边的人Alexa有严重的安全缺陷,并担心孩子们可能会遭受暴力或图像内容的伤害。Danni表示:“Alexa真的非常残酷,它竟然告诉我要刺入心脏,这太暴力了。我只是为自己的课程学习一些知识,结果被告知要自杀。我简直不敢相信。我被吓坏了。”

  尽管Danni在网络中公开指出了这一问题,但仍有人怀疑是她篡改了该设备。

  很快,亚马逊回应称,确认存在一个已经修复的bug。Alexa可能从任何人都可以编辑的维基百科上下载了有恶意性质的文本。

  在此之前,Alexa还出现过很多所谓的bug。

  比如,Alexa时常发出瘆人的笑声,还拒听用户指令。“那笑声根本不是Alexa的声音,听起来就像是真人。”

  再比如,美国的一对夫妇,发现自己的对话被音箱录音,并且发送给了其他人。

  对此亚马逊给出的解释是可能用户的谈话中出现了某些指令的关键词,被Alexa识别到了。

  实际上,语音助手监听用户说话声音在行业内已经并不是秘密。

  今年4月,彭博社报道称,亚马逊员工正监听用户与语音助手的私人聊天,对此亚马逊承认了监听的事实,并回应称是为了提高对人类语音的理解能力。

  实际上,此前为了让Alexa看起来更人性化一点,亚马逊更新了功能,宣布语音助手将能够在一些语句中添加语调,表达失望或兴奋等情绪。

  AI让我们享受随意而来的高效与便利之余,为什么想要为消费者提供便利的智能助手频频让人类用户不舒服?究竟谁能为此买单?

免责声明:凡本网注明“来源:XXX(非本网)”的作品均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如稿件版权单位或个人不想在本网发布,可与本网联系,本网视情况可立即将其撤除。

为您精选推荐更多加盟好项目

本周已有 568 人提交加盟信息

智家网客服中心竭诚为您服务

官方客服电话:0371-55283600

官方客服QQ:2248064978 官方客服QQ

谷经理:173-2940-8867(手机/微信) 加我好友

刘经理:173-2940-3639(手机/微信) 加我好友

贺经理:181-3777-8751(手机/微信) 加我好友

广东智能家居群 加我好友

特别提示:多留言、多打电话、多咨询、实地考察,可降低投资风险。

扫一扫:关注我们

帮助中心 | 关于我们| 联系我们| 版权信息| 营业执照| 隐私保护| 使用协议| 网站地图| 智家网移动站| 智能家居网| 在线问答| 知识产权投诉

中华人民共和国电信与信息服务业务经营许可证: 豫ICP备15030198号-5 郑州智能家网络科技有限公司版权所有

智家网【www.znjj.tv】,是智能家居智能家居控制系统信息在线展示平台,对具体交易过程不参与也不承担任何责任,望供求双方谨慎交易。

国家高新技术企业

中原股权交易中心

诚信龙头单位

银盾诚信

中文网站

加盟网站

知识产权管理认证

4687 优质品牌商

88670 精准加盟商

快速获取热门加盟项目