谷歌在某些方面做得非常出色。我认为他们的文字处理套件(包括 Google Docs、Google Sheets 和相关产品)是其支持的网络协作工作的最佳产品之一。我每天都怀着感激之情使用它,并希望他们推出的所有产品都如此智能。
但是在经过一年有限的公开
SGE 实验之后,将于 2024 年 5 月推出的 AI Review(如上图所示)出现了严重问题。
现在,谷歌搜索结果中占据优质屏幕空间的“人工智能”答案旨在为搜索者提供即时信息,但它们提供的信息往往不正确,从纯粹怪异的信息到危害公共健康的信息。
谷歌长期以来一直推出有问题的产品,然后将 海外数据 其关闭,在任何高度实验的环境中,错误都是常态。 但在今天的一些例子,我们就很容易理解为什么SEO 行业对于这个功能在当前状态下被允许推出感到震惊.
我将总结一些我见过的最奇怪的人 使用量创历史新高 工智能评论,分享一位前谷歌员工对我们现在面临这一功能的看法,并重点关注一个著名的事实核查轶事,指出为什么在任何大型公共实验中都需要负责任地纳入常见的人为错误。
人工智能审查失败,从愚蠢到危险
当你看到这些例子时,我想请你记住你的个人经历,它告诉你人类是多么容易被欺骗、愚弄、误导或以其他方式误导。
让我们从Sean Huber提供的关于谷歌新 AI 审核功能的一个(可能)无害的例子开始,当搜索者想知道哪些美国总统就读于威斯康星大学麦迪逊分校时:
我们可以试着告诉自己,没有一个有逻辑的人 在短信中 能够理解,像 1868 年去世的詹姆斯·布坎南这样的总统,在他不在世的两个世纪里不可能毕业三次,或者 1963 年被暗杀的肯尼迪总统在三十年后不会去上大学。我们希望大多数人能够意识到几乎所有人工智能的反应都存在问题。
但是,如果您不是几十年前在学校学习美国历史,而是现在十岁了,在尝试研究学校报告时,偶然发现了这个看起来非常官方的 Google 答案,其排名超过了搜索结果中的所有其他答案,那该怎么办?您将从网络获得什么样的教育?您如何看待来自 Google 的这些信息和历史记录?
让我们尝试一个简单的问题。Lily Ray只想看一些 50 多岁女性的例子,但却找到了一位 80 多岁的老人和另一位年龄不详的候选人:
然后时间和历史都扭曲成奇怪的形状
捉到了杰西卡·威金 (Jessica Wiggin)对《启示录》四骑士的谷歌定义,因为它与关系建议的联系比与名为《启示录》的古代圣经文本的联系更紧密。在我看来,答案传达了这样一种观点:《新约》的写作主要是为了为流行心理学提供这种隐喻:
技术知识,至少对于 SEO 行业来说,似乎也不是 AI 审查的强项,通过阅读 Tamara Hellgren 在询问如何在 Google 上排名第一时收到的这份奇怪的建议列表中的最后三个定义,你很快就会意识到这一点:
考虑拿着剪刀跑吗?Joe Youngblood报道称,谷歌似乎在开一个对自己有利的玩笑,其形式似乎是基于事实: