介绍
大型语言模型 (LLM) 是人工智能 (AI) 算法的一个子类,包括 OpenAI 的 ChatGPT、Google Bard 和 Microsoft 的 Copilot(原名 Bing Chat),其性能近期飞跃,引发了人工文本生成的一场革命。这些系统经过数十亿份文档的训练,非常复杂,足以欺骗人类用户,让他们以为自己正在与其他人交谈 [ 1 , 2 ]。
在学术界,由 LLM 驱动的聊天机器人已经成为帮助起草和修改科学文本的流行工具 [ 3、4 ],有些甚至将他们列为合著者 [ 5 ]。爱好者强调这些系统能够总结整篇文章、简化充满术语的段落,并提高草稿的清晰度和简洁性,特别是对于非英语母语作者而言 [ 6-8 ] 。另一方面,其他人则主张严格的界限和限制 [ 5、9、10 ] ,理由是存在道德和隐私问题,以及这些工具倾向于“产生幻觉”——或者虚构和捏造——事实和参考文献 [ 11 ]。LLM 被输入大量信息,并使用统计数据来预测句子中的下一个单词 [ 12 ]。这样,他们就能根据提示生成语法和语义正确的文本,但无法估计其预测的不确定性或真实性,从而产生幻觉。这也意味着生成的文本可以逐字逐句地从现有来源中借用,这导致了越来越多的版权诉讼 [ 13 , 14 ]。
作为科学提案的撰写者,我们认为撰写提案是一项非常个人化的工作,只有融入了作者的想法、风格和个性,最终产品才是最好的。起草和修改的反复过程也有助于培养科学写作技能 [ 15 ],而这种技能对于在学术界取得长期成功至关重要。但我们也相信,科学家可以从将人工智能作为助手或临时审阅者纳入这一过程中受益匪浅,尤其是随着支持这些系统的算法变得越来越完善和普及。本文旨在取得微妙的平衡——一个充满热情但又不失警示的故事,概述了在撰写拨款申请书的过程中使用 LLM 的10 条最佳实践技巧(总结在图 1中)。
图 1.利用法学硕士学位获得资助的十条规则。
规则 1:查看资助机构关于人工智能的指导方针
一些出版商和资助机构已经发布了关于在出版物和补助申请中使用 AI 聊天机器人的具体但多样的指导方针。虽然《科学》等出版商最初采取了非常严格的立场,将使用 AI 等同于剽窃,禁止在其期刊的任何投稿中使用 AI [ 16 ],但现在许多出版商只是禁止将聊天机器人列为作者,但如果得到适当承认,则允许在出版物中使用它们 [ 9,17 ]。更进一步的是,施普林格·自然集团最近发布了 Curie,这是一款由 AI 驱动的写作助手,供学术研究人员使用,尤其是那些母语不是英语的研究人员 [ 18 ]。在补助金方面,美国心脏协会允许作者自由使用 AI,只要他们在投稿时披露即可 [ 19 ]。美国国家科学基金会鼓励投稿者说明是否以及如何使用了生成式 AI 技术来制定他们的提案,同时警告称,该技术可能导致捏造、伪造或剽窃,而这些都构成研究不端行为 [ 20 ]。另一方面,美国国立卫生研究院“不知道,也不会询问谁写了申请”,但警告称,科学家使用人工智能工具帮助撰写申请,需要自行承担风险,因为自动化系统会检查是否存在抄袭或虚假信息 [ 21 ]。随着越来越多的机构起草自己的人工智能使用指南,并且考虑到现有政策可能会随着时间的推移而发生变化,你必须不断检查你提交资助的资助机构的规则。无论资助方是否要求,我们都建议在你的资助申请中披露任何人工智能的使用情况。
规则 2:考虑数据隐私限制
AI 聊天机器人通过与用户的互动学习而不断进步。事实上,所有公开的 AI 聊天机器人,包括 ChatGPT 和 Google Bard,都会保存您的提示和对话,其明确目标是改进算法。例如,尽管 ChatGPT 提供了一种删除数据的方法,但该公司仍建议用户不要与 AI 分享敏感信息。我们认为,您的资助申请从草稿到提交都是极其敏感的信息,您不会想与对话式 AI 自由分享这些信息。您的想法和方法可能会在聊天机器人的未来迭代中被推荐给另一个用户——竞争对手!为此,我们敦促您权衡使用公开的 AI 聊天机器人来帮助您申请资助的好处。在使用任何聊天机器人之前,请务必检查数据存储设置。最后,如果您的机构提供,或者您拥有计算资源,那么限制为离线访问的自托管 LLM 可能会提供更好的安全性和隐私性,尽管会以准确性和/或性能为代价。
规则 3:不要使用人工智能来撰写资助申请
一个好的经验法则是,任何部分的初稿都必须由您自己撰写。由于这些法学硕士的培训方式,他们的输出不能保证是原创的或科学有效的。因此,虽然您可能想让法学硕士从一个想法或几句话开始为您生成初稿,以避免可怕的“空白页”,但我们不建议您在草稿完成并准备好开始写作过程的修订阶段之前与人工智能打交道。此建议既适用于整个资助计划,也适用于各个部分。最终,您的资助计划必须反映您作为科学家的特质——您的科学思想、初步数据和新颖方法,并用您自己的话来描述。
规则 4:使用自定义提示来获得具体反馈
就像向你的人类同事和导师寻求反馈一样,你对希望他们审查的内容和方式越具体,你收到的反馈就越好、越有针对性,最终也会越有帮助。向法学硕士寻求反馈也不例外。根据我们的经验,我们发现,当法学硕士获得将重点缩小到特定任务或部分的指示时,他们会表现出色,你可以使用自定义提示来实现这一点。写明你是一名申请美国心脏协会职业发展奖的博士后研究员,你希望得到反馈,了解你的文本与他们的使命有多紧密相关,这可以帮助法学硕士对你的文本做出更好、更合适的评论和调整。然后,将法学硕士的重点缩小到每个特定部分,而不是将你的整个申请都放在屏幕上。最后,你可以要求它评估不同部分是否构成一个连贯且有凝聚力的故事。此外,如果你不是英语母语的作家,你可以要求法学硕士改进你提案中的语法和拼写,减轻用外语写作的负担。最后,利用每个 LLM 的特定提示功能;例如,ChatGPT 允许你使用自定义提示来为 LLM 设置规则,以便在其所有后续答案中使用,从而帮助你获得更连贯、更具体的反馈 [ 22 ]。我们在下表 1中列出了这些和其他特定提示的想法(由我们生成),以帮助你入门。
规则 5:核实一切
鉴于其训练的性质,生成式 AI 模型(例如 LLM)会根据提示“产生幻觉”——或者说捏造——事实和参考文献 [ 11,23 ]。尽管这些模型在稳步改进(据报道,ChatGPT 4.0 在避免产生幻觉方面比以前的版本提高了 40% [ 24 ])——但它们仍有可能产生彻头彻尾的虚假信息。例如,在撰写本文时,我们要求 ChatGPT 的免费版和付费版提供参考资料,以获取最佳的拨款申请书写作技巧。前者返回了一个完全虚假的参考资料,其 DOI 解析为关于秀丽隐杆线虫发育的出版物,而后者引用了PLoS Comp Bio上关于拨款申请书写作的早期出版物,但在关于小脑浦肯野细胞计算模型的论文中添加了 DOI。其他人也有过类似的经历:在几项评估法学硕士提供准确参考文献的能力的研究中,绝大多数参考文献都是不正确的,而且有相当多的参考文献是捏造的,这令人震惊 [ 23 , 25 – 27 ]。根据上一条规则中的建议,我们建议在你的自定义说明中加入一条类似于 Twitter/X 用户 @MushtaqBilalPhD 的声明:“你将像学术同事一样做出回应,引用来自真实、已出版来源的主张、观点和数据。避免虚构来源,如果不确定,请承认。”[ 28 ]。尽管如此,底线是,无论 AI 写得多么令人信服,都要进行事实核查。
规则 6:不要复制粘贴;使用 AI 生成的文本作为灵感
LLM 的工作原理是简单地预测下一个单词应该是什么。因此,它们无法解释或理解内容。然而,这并不妨碍它们听起来很有说服力。除了产生虚假信息外,AI 还会剽窃现有文本,而且由于其训练数据集的性质,它们往往会包含偏见,例如种族和性别偏见 [ 29 , 30 ]。另一方面,除非特别要求简明扼要,否则 LLM 往往会产生“无用内容”。出于这些原因以及规则 3 和 5 中列出的原因,你不应该简单地将文本从 LLM 复制粘贴到你的资助申请中。相反,你应该锻炼你的批判性思维技能,仔细通读文本,并以此为灵感对自己的草稿进行战略性编辑(见下文规则 7)。这种循序渐进的方法还有助于你控制文本,并警惕可能对申请做出的不必要的更改。
然而,我们确实注意到,ChatGPT 或 Google Bard 等网站尚不支持文本比较(即跟踪更改),因此很难确定到底发生了哪些更改。当前的一种解决方法是使用Word 或 Google Docs 的“比较文档”功能,并创建第三个文档以突出显示 LLM 编辑前后的差异。
规则 7:利用这个迭代过程成为更好的拨款申请撰写者
人类和人工智能都是通过消费数据和迭代来学习的。在人工智能的每一次回复后,仔细检查每个建议的修改,并问问自己:这个改变会强化我的申请吗?这种措辞真的更容易理解吗?它在整篇文章中的改变是否一致,比如,主要使用主动语态而不是被动语态?通过这种方式,就像人工智能一样,你可以检测出建议中的模式,并监督你自己的“强化学习”。通过与人工智能的反复迭代,你将学会更清晰、更简洁地表达你的想法,以及预测、回应和吸收反馈,这些都是长期从事科学事业的必备技能[ 15 ]。考虑一下人工智能的其他训练方式——你如何利用这些技巧进一步提高你的拨款申请书写作技巧?例如,也许你可以用你所针对的拨款机制的成功案例来开发自己的“训练集”。在回顾这些例子时,你是否注意到什么样的文本或想法获得资助存在规律?
规则 8:利用人工智能来获取设计人物的灵感
生成式 AI 工具并不局限于文本和文字。DALL-E-3 或 Midjourney 等工具可以根据文本提示创建图像。例如,您可以描述您脑海中的特定图表或图像,并将结果用作资助中实际图形的灵感。或者,您可以提供自己的一张图片,并询问 AI 如何解释它,或者您想要强调的特定方面是否清晰。尽管如此,规则 5 和 6 始终适用;与文本生成器非常相似,图像生成器也存在抄袭和科学正确性问题。我们还请读者回顾规则 1:如果使用 AI 来帮助生成图形,请确保资助机构允许这样做。最后,虽然大多数最受欢迎的图像生成器都需要付费,但有些提供免费试用版,非常适合进行实验。
规则 9:不要忘记与人互动
虽然拥有一个速度极快的助手令人兴奋,但请永远记住,没有任何人工智能可以替代专家的人工审核。在撰写拨款申请书的许多步骤中,从真人(你的同事和/或导师)那里获得反馈仍然至关重要 [ 31 – 33 ]。这些人更有能力发现科学和技术错误,否则这些错误可能只能在审核过程中发现。这条建议对于刚开始撰写拨款申请书的初级科学家尤其重要。征求反馈意见、仔细审查反馈意见并将其纳入你的草稿中,对于你作为一名科学家的发展以及创建一份有力且有竞争力的提案至关重要。
规则第十:玩!
学习如何使用人工智能撰写资助申请书的最佳方式是玩一玩,并尝试使用它。OpenAI 的 ChatGPT 3.5 和 Google 的 Bard 可能是众多生成式人工智能中最著名的,它们都允许您免费创建帐户并与法学硕士互动。记住规则 2 中的建议,修改您输入人工智能的提示,并了解哪种效果最好。尝试使用不同的自定义提示,以略有不同的方式或向不同的聊天机器人提出相同的问题。提出您知道答案的问题,以测试这些生成模型的局限性,并学习如何核实它们的答案。毕竟,生成模型将继续存在,您越早熟悉它们的优缺点,就能越快地释放它们的潜力,帮助您改进资助申请和其他科学写作。
总之,我们希望本文在谨慎和热情之间取得了适当的平衡。通过遵循这 10 条简单的规则,您可以避免我们最担心的事情——您的 AI 生成的拨款申请因抄袭而被行政拒绝,或者您的宝贵拨款申请文本被纳入数据训练集并被推荐给您的竞争对手,从而在未来提出类似的提示。从更积极的一面来看,我们相信这项技术具有巨大的潜力,并渴望看到它更好地使拨款申请写作过程民主化——为那些没有全职拨款申请作者随时待命的人提供免费(或低成本)拨款申请写作辅助工具,并帮助非英语母语作者克服不利于科学公平的语言障碍 [ 7 , 34 ]。
致谢
作者感谢 João Rodrigues 和 Michael Levitt 的宝贵反馈。
翻译自:https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1011863