使用 ChatGPT 的 10 种最佳方式
内容简介: 本文介绍了ChatGPT的优缺点:能做什么,不能做什么。 ChatGPT既不是神,也不是垃圾,而是一个非常有用的工具。
本文原作者斯科特·H·杨(Scott H. Young),一位华尔街畅销书作家。 叶赛文编译。
(头图由叶赛文用AI绘图工具海艺制作)
文章目录
广告
一个集美剧、音乐和AI工具为一体的服务商:
输入优惠码: ysw 可以享受九折优惠。
正文
使用像ChatGPT这样的应用需要小心。
部分困难在于ChatGPT的人类对话能力可能会误导人。感觉像你正在和真人聊天,可能会让你过度信任它。
例如,我们通常认为大多数人不会编造事实。但大型语言模型有时会给出流畅但错误的答案。这些应用在知道自己不知道什么方面能力还不够。
我们还常认为言语流利意味着更高的智慧。但其实,只因模型能够流利说出莎士比亚的台词或解释量子计算,并不意味着它在其他方面也很聪明。
尽管有这些问题,ChatGPT对很多任务确实很有帮助。Simon Willison建议我们将其视为“文字计算器”,而不是一个真正的智能。
我同意这个看法。我们越能了解LLM在哪些情况下有效,在哪些情况下不行,我们就越能充分利用它,而不会掉入陷阱。
使用ChatGPT的十个学习策略 收到了许多读者的邮件,分享他们如何使用ChatGPT学习,我整理了一些建议。
1. 创造你的个人导师
到目前为止,读者们最常提到的是使用大型语言模型作为个人导师。
让ChatGPT来解释难懂的概念、不熟悉的代码或问题似乎是它的强项。找真正的人类专家既昂贵又不容易。
如果你在上课或读书时使用它,出错的风险也较小,因为你还有教材来参考。如果机器的解释和书里不符,不要全信它的话。
2. 用新语言聊天练习
人们常用大型语言模型作为语言导师来学习。这似乎是它的特长。即使有些问题,它可以输出语法正确的句子。
很多人和ChatGPT聊天时,如果困惑了,AI会在他们正在学的语言和英文之间切换来解释。虽然解释可能不完美,但人导师有时也会出错。
大型语言模型还可以把难读的文本变得更适合初学者。学习新语言时,有分级的阅读材料很有帮助。但好的学习材料很少或很无聊。你可以用大型语言模型把一个高级的文本变得更适合你。
Duolingo也开始使用大型语言模型了。我之前对它的拖放学习方式不满意,但这些新变化让我可能要改变看法。
3. 为长篇文本生成摘要
大型语言模型很擅长生成摘要。已经有应用能为学术文章或研究主题生成摘要了。
很多读者用这些AI工具为他们的大量阅读资料提供摘要,帮助他们跟上领域的新进展。
好的摘要,特别是为你量身定制的,可能是处理大量信息的好方法。你可以用它来决定哪些文档要深入阅读,或初步整理不熟悉的资料。
4. 与长文档对话
你也可以用大型语言模型“向”长篇文本“提问”。例如,当你阅读一个科学论文时,你可以快速查询样本大小或询问方法或结果。有些工具提供引用,所以当你可以轻松检查大型语言模型的答案时,出错的风险似乎较小。
尽管有更多奇特的用法,比如让ChatGPT模仿某个作家与他们对话,但我认为能用自然语言向文档提问并带引用得到答复是处理长文本的有用工具。
但是,你必须准备好核实大型语言模型的答案。例如,我问ChatGPT列出支持强引导教学的证据,它引用了Mayer的评论文章。但它错误地称Mayer的工作是元分析,实际上不是。事实上,这篇论文甚至不是全面的文献综述,只是简单地查看了探索性学习的三个突出案例的失败。如果你全信AI的答案,可能会被误导,但如果你知道它参考了哪个文本,检查AI的答案相对容易。
5. 以不同深度重写文本
最难的是理解专家的想法,因为大多数专家级的文本是为其他专家写的。概念没有解释,缺乏背景,充满行话。这意味着大多数人必须依赖翻译者,如非小说或科学作家,他们以更易读的格式呈现专家的想法。
使用AI工具似乎有两种方法。一种是简单地请大型语言模型用更简单的词解释一个流行概念,比如:“像我是一个八年级学生那样解释量子计算。”另一种是给ChatGPT一个文本或解释,并请AI以更容易理解的方式重写它。
我倾向于认为后者更可靠,因为你有原始材料可以对照,而不是完全相信ChatGPT。
6. 解释不熟悉的行话
几年前,我记得读Tyler Cowen的“边际革命”博客,他经常使用“Straussian”这个词,但没有解释。我在网上查,但没有找到答案。
经过研究,我大概理解这个词的意思是:“仔细地读懂名人思想家的观点,找出他们真正的意思,因为他们不能明说。”
很多读者使用大型语言模型来理解特定领域的术语,这些术语通常不是字典上的定义。
7. 制定学习计划和议程
这个用法让我感到惊讶,但很多读者这么做,所以我把它放在这里。人们似乎喜欢用AI告诉他们怎么学习和什么时候学习。
例如,一些读者让ChatGPT为他们制定复杂的学习目标和课程。有些人甚至更进一步,根据他们一天的时间,让ChatGPT为他们制定学习时间表。
我可能不会完全相信大型语言模型给我的学习课程。但如果我学习新东西,这可能是一个不错的开始。开始学习新知识时,最难的部分可能是如何分解看起来很大的目标。有时,被告知何时学习可以帮助我们开始。
虽然技能分解可能还行,但ChatGPT在创建阅读清单时还有问题。所以,虽然它可能很适合分解学习任务,但我还不太信任它推荐的学习资源。
8. 复习遗忘或少用的工具
最多回答我的问题的是程序员。我不知道是不是因为编程特别适合大型语言模型,还是程序员更喜欢尝试新的软件工具。
程序员使用这种模型很明显可以提高效率。我现在不怎么写代码,所以没怎么用过这个功能。但因为很多编程工作都很常规,让机器为你写出算法的初稿可以节省很多时间。
虽然有些人一点都不懂编程,却依靠AI做应用程序,但这样的程序可能不容易修复。相反,熟悉某种编程语言的专家可以修改ChatGPT的输出。
很多程序员告诉我,他们在不熟悉的编程语言或工具上,使用AI能得到很好的启示。他们的编程经验让他们理解并应用AI的建议,但他们对新的语言不熟悉,AI帮他们节省了很多时间。
9. 根据文本制作卡片
卡片是一个强大的学习工具,但制作很麻烦。
一些读者说他们用ChatGPT制作学习卡片。这完全在大型语言模型的能力范围内。所以,正确地提出问题,你可以得到很好的答案,只要你输入你想转化为卡片的材料,而不是期望AI自己找答案。
但制作“好”的卡片很难,我在把卡片加入我的Anki前会先检查。不过,制作卡片很费时,所以先得到一个草稿然后再检查,可能会快很多。只要你确认卡片正确,再放入你的卡片组,风险就很小。
10. 用它来整理你的笔记(高级)
我经常做很多研究,但找笔记时浪费了很多时间。Robert Martin也有同样的问题。用关键词搜索有时不太准确,因为你可能记不起用了什么词,即使意思差不多。
Martin用大型语言模型的功能解决了这个问题。虽然不完全是ChatGPT,但这个工具可以找到跟笔记相关的内容,而不只是完全匹配的关键词。
我很想能搜索到我见过但不太记得在哪里的东西。如果有一个可以读取你硬盘上数据的个人模型,那真的很有用。
不该做的事情
1. 不要期望AI总是提供正确的事实。
大型语言模型有时会编造信息。如果你指望ChatGPT总是给出正确答案,那么这会是个问题。
当维基百科刚出现时,很多“专家”担心它不能被当作可靠的来源。但实际上,维基百科做得相当好。目前,这些模型还没有达到维基百科的质量。所以,最好在你可以查证的地方使用它们,或者你使用AI的目的不是为了得到事实。
2. 不要期望AI引用信息是准确的
虽然大型语言模型有时会出错,但它们在引用信息上似乎更差。它们常常编造作者、论文、研究。
我不会用这种模型来引用任何我需要的研究,并且我会总是核实它提供的来源。
同样,我不会要求它给我一个阅读清单或引用特定的书籍或作者(除非作者非常著名)。
3. 不要期望AI擅长数学
虽然大型语言模型很聪明,但它们并不真的像人类那样智能。科学家发现,人的大脑里,语言和思考是由不同的部分控制的。所以,这种模型虽然说话流利,但可能不擅长思考。
所以,它们在数学上可能会犯错,甚至是简单的数学问题。它们可能会解释数学概念,但实际使用可能不可靠。
发表评论