这一切都已经够糟糕了,……直到我们在这个新的人工智能审查时代开始在谷歌上搜索健康信息。
到目前为止,我看到的最常见例子是,人工智能指示我们喝人体体液来快速排出肾结石。公众普遍批评这个奇怪的建议,但我在 Twitter 上只看到一个人——Tyler the Wise——指出了这条突出信息中的第二个明显错误:
我听患者说过,
患上和排出肾结石是非常痛苦的。在剧烈的 WS电话列表 身体疼痛中,你可能不是最明智的人,但我真诚地希望没有人如此痛苦,以至于他们会根据谷歌的官方答案喝下一升或一夸脱的液体。然而,你永远无法了解人们的内心情况。你永远不知道。
据报道,在新冠疫情初期,有些人喝漂白剂作为“治疗”。至于液体测量的差异,如果人工智能指示你把错误数量的任何东西放入食谱、汽车发动机或大型电器中,这本身就可能产生一些严重的后果。尤其是当 AI 告诉你在披萨酱中添加胶水时,正如 Peter Yang 在X上分享的那样。
如果我们不幸患上阑尾炎怎么办?
自然而然的聪明(并且唯一正确!)答案是您 Rel Canonical 完整指南 如何以及为什么 应该立即去最近的急诊室,因为您可能需要挽救生命的手术。莉莉·雷 (Lily Ray) 在这里确实是在开玩笑,以回应人工智能告诉阿夫拉姆·皮尔奇 (Avram Piltch)在因可能危及生命的疾病而痛苦弯腰喝薄荷茶,但我担心在我的国家并不是每个人都像莉莉·雷 (Lily Ray) 一样理智:
此类公共卫生错误信息代表着非常现实的威胁,不应不加 在短信中 以管理和制止。它可以杀死任何在生病时思维不清晰或只是生病的人。
因为关于下颌疼痛等症状的健康信息可能不完整。它可能只是像颞下颌关节(不会危及生命)之类的症状,也可能是心脏骤停的警告信号(可能致命),但谷歌的人工智能审查没有向我提及这一点: