只不过是从互联网上下载学期论文而已。学院要求我们提醒学生,荣誉准则禁止他们提交非自己撰写的论文。我并不天真;我知道有些哈佛学生 国家邮箱列表 可能是彻头彻尾的骗子,但我认为这样的人并不多。此外,ChatGPT 的许多文本仍然很容易识别,因为它使用了不存在的引文和参考文献。
人们对 ChatGPT 有很多担忧,例如错误信息和对工作的威胁。有什么事情让您特别担心吗?
点击农场是一种利用大量过时的智能手机和真实用户的低薪劳动力来点击广告、点
赞、订阅、观看视频等的企业
对新技术的恐惧总是由最坏的情况驱动,而没有考虑到现实世界中不可避免地会出现的对策。对于大型语言模型,此类对策包括对自动生成内容的怀疑(记者已经停止使用 ChatGPT 的技巧撰写有关 ChatGPT 的专栏,因为读者已经看穿了它 对整个组织负责的高级管 )、专业和道德约束(例如,哈佛大学的荣誉准则),以及可能标记或检测 LLM 使用情况的技术。还有其他方法可以抵抗。其中之一就是我们本能地感受到与人交往中的因果关系。收藏家可以花 10 万美元购买约翰·F·肯尼迪的高尔夫球杆,尽管它们与那个时代的任何其他高尔夫球杆没有什么区别。对
于短篇小说和社论等知识产品
而言,对真实性的要求甚至更为强烈:它们是由真人撰写的这一事实会影响它们的地位和价值。另一个阻力是法学硕士学位的明显错误,例如声称碎玻璃作为膳食补充剂越来越受欢迎,或者九名妇女可以在一个月内生下一个婴儿。随着系统通过反馈(通常来自 贫穷国家的点击农场)得到改进,此类错误将变得不那么常见,但考虑到无限的可能性,它们仍然会发生。而且,重要的是,不会留下任何可以让我们核实事实的物理痕迹。你可以弄清楚一个人使用了哪些来源,但在法学硕士中,“事实”分布在数十亿个定量变量的微小调整中,其来源无法验证 2017 年国际理论物理中心会议 。然而,LLM 可以像人类一样轻松地生成多种类型的模板文本,这可能很有用。如果遗嘱或离婚协议可以自动生成,那么可能不值得花费大量时间聘请昂贵的律师为您起草。
我们听到过很多有关潜在缺点的说法。有什么优点吗?
一个例子是使用 ChatGPT 作为语义搜索引擎。当前的搜索引擎使用字符串数据类型。现在,如果您想要一个想法而不是一系列字符,那么就没有好的方法可以找到它。真正的语义搜索引擎与 LLM 不同,它会有一个世界的概念模型。它包括人物、地点、物体和事件的符号,以及关于目的和因果的想法,更像人类思维的运作方式。但作为一个简单的工具,作为有用信息的搜索引擎,LLM 可以非常有用 – 只要它停止编造