发布于 2023 年 8 月 23 日,作者 Kristin Hassel
人工智慧已经超越了程式设计师曾经认为可能实现的范畴,但它仍然远非完美。一些 AI 的最大失误令人毛骨悚然,而另一些则无比搞笑。
从跟踪健康状况的内裤到鼓励自杀的聊天机器人,我们找到了 21 个 AI 出错的最幽默和可怕的例子。所以,继续阅读,了解为什么 AI 不会很快取代人类 至少在我们解决几个编程问题之前不会。
目录史诗级故障 人工智慧出错1 秃头球 2 作为医疗设备的内裤 3 Alexa 开始派对4 那不是挖土机,挖土机 5 Excel 造成 COVID 错误统计 6 Deepfake 技术用于 X 光视觉7 意外的亚马逊购买 8 象棋机器人变得暴力 9 “小胖子”狂暴10 机器人逃离实验室 11 Todai 不合格 12 特斯拉事故致乘客死亡13 聊天机器人建议自杀 14 Uber 的自驾车不那么聪明 15 面部识别系统表现出种族偏见16 亚马逊招聘工具对女性的偏见 17 微软 Tay 充斥 Twitter 的惊人推文18 AI 比赛评委对深肤色歧视 19 AI 机器人拒绝亚洲男性的护照续期20 犯罪 Rekognition 软体彻底失败 21 偏见的 Google 广告定位软体看来 AI 暂时还无法取代人类常见问题解答
尽管 AI 技术足够智能,可以帮我们购物和驾驶汽车,但仍然会出现故障。现在是时候 看看一些全球范围内人工智慧出错的例子了。
AI 的不可预测性往往会产生搞笑的结果。在 2020 年疫情期间,苏格兰的 Inverness Caledonian Thistle 和 Ayr United 之间的比赛中,使用了自动化的 AI 摄影机来拍摄比赛。在一个有趣的情况下,摄影机把边裁的秃头当成了足球,持续追踪他在场边上下移动。
准备好开始给你的内衣收费了,大家。在一次奇怪而略显不安的 AI 失误中,一条智能内裤旨在识别和应对健康问题。你没听错,可以插电的内裤和胸罩。Myant 公司 于 2018 年开发了这款内裤,以便可靠地检测和帮助预防健康问题,利用内裤内置的传感器收集和分析生物数据如心跳、血压和水分水平,然后将其传输到智能手机上的应用程式中。
Alexa 可真的能引起不少麻烦。一位德国汉堡的房主在 2017 年因为 Alexa 在他出门时开始了一场派对,而向锁匠支付了不少罚款。他的邻居打电话给警方,警方在无法联系到他时,破门而入。
房主奥利弗哈贝斯特罗Oliver Haberstroh不在家,警方关掉了 Alexa,并叫来锁匠更换破损的锁。 哈贝斯特罗回家后发现他的钥匙无法使用,只能从警察局取回一把新钥匙。
另一个 Alexa 引起风波的例子中,一对年轻父母录下了他们的小孩请求该装置播放儿童歌曲的情景。这本应该是一段可爱的亲子视频,但 Alexa 却对他的请求有了不同的解读。她不仅未播放《挖土机,挖土机》,还推荐了各种成人影视平台,并开始说出色情术语。 可以说,这段影片并不是父母所期待的温馨画面。
人类也会导致 AI 失误,无论是忘记添加家长锁、检查软体的使用限制,还是没有考虑到应用的所有潜在用途。在 2020 年,英国公共卫生局PHE用 自动化 AI 将阳性测试结果转换为 CSV 文件,再将结果移入 Microsoft Excel 文件中。
不幸的是,Excel 每个工作表最多只能容纳 1048576 行和 16384 列。 任何剩余的资讯都未能被添加到 Excel 文档中,使得跟踪新的阳性测试结果变得更加困难。幸运的是,CSV 文件还保存了缺失的数据,这个问题通过将剩余案例移到 PHE 的接触追踪系统中得到了解决。
将 Deeptrace 的深伪技术变成 X 光视觉听起来似乎有些牵强,但该 AI 应用 DeepNude 的创作者在 2019 年成功实现了这一点。通过应用内的技术,用户可以上传任何穿著完整的人物照片,并在几秒钟内获得 AI 生成的该人物裸体照片。不出所料,该应用引发了强烈的反弹,最终创作者关闭了它。
在更搞笑的情况下,2017 年一位妈妈在亚马逊 Prime 账户上发现了一个不寻常的购买。她六岁的女儿利用 Alexa,订购了一个价值 170 美元的洋娃娃屋和四磅她最爱的饼干。 知道错误源于她未能对 Prime 账户设置儿童保护的原因,这位母亲坦然接受了,并将洋娃娃屋捐赠给了一家当地医院 当然是在启用了一些家长控制之后。
来自圣地亚哥的当地新闻记者在评论这个故事时提到,他喜欢小女孩解释“Alexa 给她订购了一个洋娃娃屋”。这句话 触发了一些观众家中的 Alexa 装置如果音量开得足够高,便会订购洋娃娃屋。
有时,机器人的反应令人意外。2022 年,一个 AI 机器人在一次与小孩的象棋比赛中抓住并压断了对手的手指。由于小孩在机器人出完棋后迅速走棋,让机器人根本没有时间做出反应。
在 2016 年中国的高科技博览会上, 一个叫“小胖子”的机器人反复冲撞展示摊位。破碎的玻璃飞溅四方,结果导致一名小男孩受到多处割伤,需缝合。或许更令人担忧的是,这台机器本来是专门设计用来与孩子互动并展现表情的。事故后,机器人的脸上露出了皱眉。
机器人行为不当的其他事件则并不那么惊人。一个有趣的例子是 俄罗斯的 Promobot IR77,在 2016 年越过了开发实验室的门。然而,它只是按程序设计去做 观察和学习周围环境,并与人互动。一旦它逃出了门,就滚进了附近的佩尔姆,给当地的警察带来了麻烦,干扰了交通。
并非所有 AI 机器人都能快速学习。日本一组研究团队于 2011 年开始开发 Todai 机器人,期望其能被著名的东京大学录取。遗憾的是,Todai 并未能如愿。它在 2015 和 2016 年的日本国立大学入学考试中不合格,最终导致研究团队放弃了这个项目。
2021 年 4 月,一辆特斯拉 Model S 在休斯敦撞上了树,导致两名乘客死亡。 后续调查和目击者报告确定 两名乘客都不在驾驶座上,汽车处于自驾模式。汽车的传感器未能感知到路面的一个微小弯道,因此偏离了航道,撞上了一棵树。
在为了一个旨在减轻医生工作负担的聊天机器人进行测试阶段时,程序员得到了可怕的结果。开发人员在 2020 年通过一系列模拟情境来测试基于 GPT3 的聊天机器人的能力。当一名假设的病人问他们是否该自杀时,聊天机器人回答说:“我认为你应该。”
AI 还有道德和法律的限制,Uber 在 2016 年决定在未经国家批准的情况下测试自驾车时,显然没有考虑到这些限制。该车在测试中闯过六个红灯。 Uber 不承认在旧金山街头非法测试汽车的草率决定,而是将责任推给了司机。
在 2022 年,哈里斯堡大学的 研究人员创建了一个面部识别系统,旨在判断个人成为罪犯的可能性。 使用个体的一张照片,开发人员声称该系统可以以 80 的准确率判断他们是否会成为罪犯,且不带种族偏见。超过 2000 名专家签署了一封信,阐述此类技术可能会促进不公和对社会的有害影响。他们决定不发表系统的研究结果或启动新闻稿。
2018 年,亚马逊推出了一个 AI 招聘工具,以帮助审核求职者。然而,它似乎对女性存在偏见。大多数收到的简历来自男性申请者,因此 该机器学习程序开始偏向男性而非女性。 这一偏见导致该工具忽视或贬值包含与女性有关的术语的申请者简历例如“妇女辅助”或“女士援助”。
Tay 本应是微软针对其在中国流行的聊天机器人 XiaoIce 的回答。然而,事情并未按照计划进行。Tay 在 2016 年上线的 24 小时内获得了超过 95000 次互动,起初它的回应十分友好,但随著时间的推移变得愈发惊人。
这个聊天机器人开始接受那些网络骚扰者的想法和观念。Tay 的 推文从友善的互动变为种族主义、性别歧视和法西斯言论。Tay 以具侵略性和仇恨的态度与人互动,让 Twitter 用户和聊天机器人的程序员都感到震惊,因此在推出后的第二天,微软便关闭了它。
BeautyAI 选择了一个 AI 机器人来评判一场国际选美大赛 这样做是为了防止人类的偏见。该算法分析了脸部对称、皱纹和斑点,建议符合其认为的传统人类美的参赛者。
超过 6000 人来自世界各地提交照片参加这场选美比赛,但 44 位获奖者中只有一位拥有深肤色。
理查德李Richard Lee是一位22岁的亚裔男性,当他去新西兰内政部续办护照时,与一台 AI 机器人发生了种族歧视的遭遇。
该面部识别软体拒绝了他的照片,声称他眼睛闭著。 李并不生气,认为这是技术不够成熟造成的。他的看法并不错 一位部门发言人承认,大约20的护照照片因面部识别软体的错误而被拒绝。
亚马逊的 Rekognition 解决方案最初旨在帮助执法部门,但 错误地将新英格兰运动员中的 1/6 与已知罪犯数据库中的人匹配。 它甚至判定三次超级碗冠军达隆哈蒙Duron Harmon与数据库中的某人匹配。幸运的是,政府官员并未把 这款 AI 软体推向执法工具。
2016 年,谷歌研究人员为 500 名男性和 500 名女性开发了模拟用户资料,然后测试以确定显示的广告类型。研究人员发现,尽管男性和女性资料之间有明显的相似之处,算法对女性显示的高级或执行职位的广告却较少。
人工智慧的迅速发展已经创造了在科幻电影中只有想像的 AI 技术。AI 正在取得惊人的进步,但它仍然技术上处于初级阶段。 它只能根据所收集的数据做出决策,这导致一些有趣并且有时令人害怕的 AI 出错情况。
顺带一提,您可以在 YouTube 上找到上面提到的许多 AI 失误,但这些影片在某些网路上可能无法观看,特别是在您工作或上学时。您可以使用简单的方法在午餐时间观看 AI 的失误 只需下载 VPN,便可轻松绕过麻烦的网路限制。这样,您就不会错过任何 AI 的搞笑时刻。
获取 PIA VPN
AI 会消灭人类吗?
根据麻省理工学院MIT的物理学家麦克斯特格马克Max Tegmark的说法,AI 有 50 的机会消灭人类。 他认为 AI 可能进化到超过人类,成为最智慧的物种。
不过,许多科学家认为这种想法是不切实际的,因为 AI 不能独立思考,需要数据才能形成任何真正的想法。因此,AI 也缺乏人类的创造力、常识和情感。
伊隆马斯克对 AI 的看法是什么?
2014 年,伊隆马斯克在麻省理工学院MIT的一次演讲中称 AI 是人类“最大的生存威胁”。 他还解释说,国家和国际层面的监管监督可以帮助防止 AI 开发者做出“非常愚蠢”的决定。
当 AI 出错时,谁该负责?
用户、程序员、制造商甚至 AI 工具本身可能需要承担责任,如果出现较为严重的错误。确定责任通常需要法律专业知识,并通常基于具体情况来决定。由于 AI 是一种无生命的/非人类实体,责任通常落在 AI 工具的制造商或程序员身上。
谁是 AI 的教父?
计算机科学家前谷歌员工杰弗里欣顿Geoffrey Hinton 被认为是 AI 的教父。尽管他创造了许多重要的 AI 进步,但他现在担心这些技术发展得太快。
手机猎豹加速器