跳转到内容

维基百科:大语言模型

本页使用了标题或全文手工转换
维基百科,自由的百科全书

大语言模型(又称大型语言模型、AI聊天机器人,简称LLM)是使用人工神经网络生成文字的计算机程序,其中又以ChatGPT最为常见。这个工具在协助文字性质工作时可以很有用、但也可以产出有潜在问题、甚至是完全废话的文字。

你可以对大型语言模型命令说:“帮我写一篇维基百科的条目”,但它可能会生出看起来正确,但实际上是虚构的内容,如虚构的参考文献。LLM生成的内容本身是不能自证正确的,相当于机器生成的原创研究。它还可能有偏见诽谤在世人物、违反著作权,从而危害维基百科的中立和正确性。

编辑者如果对这些风险不够了解,且无法克服这些工具的限制,则不应该在它们的协助下进行编辑。编辑者在充分熟悉撰写的目标前,不应使用LLM。它们的输出应该受严格查看,以确保符合所有适用的方针和指引。无论如何,编辑者都应避免在维基百科上发布通过询问LLM写原创内容获取的内容。即使这样的内容经过了大量编辑,也最好使用不使用机器生成内容的替代方案。与所有编辑一样,编辑对其LLM辅助编辑负有全责。

此外,LLM创建的作品不是可靠的来源。除非它们的输出是由有着严格事实查证与正确性的声誉的可靠媒体发布的,否则不应在我们的条目中引用。维基百科不是一个测试场,用于LLM的实验或试验是被禁止的。强烈不建议使用LLMs来编写用户讨论页的评论或编辑摘要。此外,使用LLM生成或修改文本应在编辑摘要中提及(即使他们的使用条款不要求这样做)。

风险和相关方针

[编辑]

原创研究和虚构

[编辑]
维基百科条目不得包含原创研究,即未发表的事实、争论、观点、推论和想法。以及对已发表材料进行的未发表分析、综合或总结,并产生或暗示新的结论。为了证明您未添加原创研究,您必须能够引用可靠的、已发表的来源。这些来源应该与条目主题直接相关,并直接支持所呈现的材料。

LLM是模式完成程序:它们通过输出最有可能出现在先前词语之后的词语来生成文本。它们从训练数据中学习这些模式,该数据包括来自互联网和其他地方的各种内容,包括小说、阴谋论、宣传等。因此,LLM有时会得出即使它们表面上看起来很熟悉,但在任何可靠来源中都不存在的结论。它们还可能按照边缘或荒谬的前提回应提示,试图提出似乎合理的后续内容:如果要求写一篇关于吃碎玻璃好处的条目,一个不受安全约束的LLM将这样做。最后,LLM可以编造事实,这是其设计的统计不可避免的副产品,称为“虚构”。例如,美国技术杂志《快公司》测试ChatGPT时,要求它产生一篇有关特斯拉上一个财务季度的新闻文章,结果产生出来的数据全部错误。[3]从实际角度来看,所有这些都等同于原创研究

由于LLM通常输出准确的陈述,而且它们的输出通常听起来很有道理,并带有自信的语气,每当它们提供一个看似有用的结果时,人们可能难以检测上述问题。一个普通用户可能认为自己拥有一个有用的工具,可能对准确性进行了抽查并“没有看到任何问题”,因此倾向于接受所提供的输出;但很可能存在问题。即使有90%的内容是正确的,有10%是错误的,这在百科全书中也是一个巨大的问题。当要求LLM回答复杂问题、涉及鲜为人知的主题或执行不适合它们的任务时(例如需要广泛知识或分析的任务),LLM的输出变得更糟。

无来源或不可查证的内容

[编辑]
写入维基百科的内容须要能被读者在可靠来源中得到验证。维基百科不发表原创研究,其中收录的内容需要有既已发表的材料作为依据和支持,而不能仅由编辑者认定“真实正确”。编辑者应为条目中的内容及其引用提供可靠来源,否则,这些内容可能被移除。

LLM不遵循维基百科关于可供查证和可靠来源的方针。LLM有时会完全不引用,或者引用不符合维基百科的可靠来源要求的来源(包括引用维基百科作为来源)。在某些情况下,它们通过捏造标题、作者和URL来虚构不存在的参考文献

LLM虚构的内容,除了如上所述是原创研究之外,还违反了可供查证方针,它可能由LLM捏造而导致无法查证,即没有实际存在的参考文献可查。

算法偏见和非中立的观点

[编辑]
所有维基百科条目以及其他百科式内容必须以中立的观点书写,在尽可能没有任何偏见的前提下,平等地表达出任何曾在可靠来源中发表过的重要观点。

LLM生成的文字内容,在语调方面可能看似中立,但实质上不尽然英语algorithmic bias。这个问题在生者传记方面尤为迫切。

侵犯著作权

[编辑]
您为维基百科所贡献的任何资料都将依照知识共享 署名-相同方式共享 4.0协议(CC BY-SA 4.0)和GNU自由文件许可条款(GFDL)公开发行。因此如果您有意参与的话,您必须授权使用该许可证,那意味着:
  • 您拥有该材料的著作权,譬如您是该材料的原创作者,或
  • 您通过某种允许使用CC BY-SA 4.0的渠道取得该材料,例如该材料属公有领域(in public domain)或者该材料本身就是在与CC BY-SA 4.0兼容的条款下发行
在2:00,演讲展示出LLM的侵犯著作权材料
有关LLM侵犯著作权的简报片

LLM可能生成侵犯著作权的材料。[a]生成的文本可能包括逐字引用的非自由内容或是派生作品。另外,ˊ使用LLM总结著作权所有的文章摘要,可能会生出近似复述的内容。LLM使用的著作权材料目前并不明朗,其生成内容的著作权可能与维基百科要求的“知识共享 署名-相同方式共享”和“GNU自由文档许可证”不相容。

用法

[编辑]

维基百科依靠志愿者来审核新内容,以确保其符合我们的核心内容方针,而这往往十分耗时。维基百科的非正式社会契约是,编者应对自己的贡献投入足够的努力,这样其他编者就无需在后面“收拾残局”。编者应当确保其由LLM辅助下作出的编辑对百科全书有益,而非增加其他志愿者的维护负担。

特定能力亦为必需

[编辑]

LLM是辅助工具,不能替代人的判断。需要谨慎判断以确定此类工具是否适合特定目的。使用LLM的编者应该熟悉所使用的LLM固有的局限性,且须能克服这些局限,以确保他们作出的编辑符合相关的方针和指引。为此,编者在使用LLM前应已具有在无LLM协助的情况下完成同等或更高级任务的经验。[b]

有些编者在不依赖LLM辅助时有能力作出编辑,但仍会反复作出不当的LLM辅助编辑。尽管他们真诚地尝试贡献,此时仍应推定他们在这一特定领域欠缺能力。他们可能不了解LLM的风险和固有限制,或虽了解但无法克服这些问题以遵守方针。这种情况下,编者可能被处以禁止借助此类工具的禁制,即只能作出无LLM辅助的编辑(此为特定类型的部分禁制)。他们也可能被禁止编辑部分命名空间。

披露

[编辑]

每笔用到了LLM输出的编辑都应被标记,方法是在编辑摘要中标明AI工具的名称和(如有)版本。这适用于所有命名空间

撰写文章

[编辑]

不管是为了创建新条目还是为现有条目添加大量新内容,将LLM的原始输出直接粘贴到编辑器的效果通常都不佳。LLM可以用于对现有文本进行润色或压缩,也可以用于为新条目或现有条目提供灵感。对条目的每项修改都须遵守所有相关方针与指引。这意味着编者必须熟悉相关主题的来源情况,并仔细评估文本整体上是否观点中立,以及是否在引用来源中能够查证。如果模型输出内容中包含引用,编者必须核查相应来源是否真实存在、可靠、相关且适合作为来源。

若把LLM用作写作顾问,即请求其提供大纲、改善段落的建议、对文本的批评等,编者应始终意识到其提供的信息并不可靠。若将其用于文字润色、总结或改写,编者也应意识到它可能无法正确识别语法错误、解释句法歧义,或保持关键信息不变。可以要求LLM修正其自身输出中的不足,例如补充总结时遗漏的信息,或修改不符合百科风格的语气(如带宣传色彩)。尽管这些尝试是值得的,但不应指望LLM能代替人工修正。它们的输出可能仍需大幅编辑,甚至只能完全舍弃。在采纳其建议和修改前,请充分调查并运用常识。

LLM生成的原始输出也不应直接放入草稿。草稿是创作中的作品,其初始质量往往达不到正式条目的要求。然而草稿或用户命名空间的用途并非让编者从未经修改的模型输出开始构建条目。

沟通

[编辑]

编者不应使用LLM来生成留言。沟通技巧是维基百科决策过程的基石,参与维基百科编辑的用户被预设具备用自己的思考提出意见的能力。不代表真实个人想法的留言对讨论没有帮助,而那些明显由LLM或类似AI技术生成的留言可能会被删除或折叠。重复此类不当行为构成扰乱,并将可能导致封禁禁制

我们不禁止用LLM对真实想法进行表达润色:例如,非母语者可以使用LLM来检查语法,或翻译自己不熟悉的词语。即便如此,仍需注意LLM可能会出错,或改变留言的原意。中文水平有限的编者如需将留言翻译成中文,建议使用机器翻译工具(见相关比较英语Comparison of machine translation applications),而非AI聊天机器人。

其他方针考量

[编辑]

LLM不应被用于作出未获批准的机器人式编辑(WP:MEATBOT),或任何接近机器人行为的编辑方式。在条目命名空间内利用大型语言模型协助高速编辑,很可能因难以及时、严格地审查内容是否符合所有相关方针而无法达到负责任使用的标准。

维基百科不是LLM开发的试验场,不得为开发LLM而在维基百科上进行实验性的编辑。对维基百科的编辑应当服务于完善百科全书,而非推进某项技术。这并不禁止编者为完善维基百科而在自己的用户空间内负责任地试验LLM。

为什么适合与不适合使用大型语言模型撰写条目

[编辑]

大型语言模型可用于编辑或扩充现有文本,并为新条目或现有条目生成想法。对条目的每一次更改都必须符合所有适用的方针和指引。这意味着您必须熟悉与所讨论主题相关的信息来源,并仔细评估文本的整体中立性以及与引用来源相关的可查证性。如果引文是作为输出的一部分生成的,则必须验证相应的来源是真实、可靠、相关且合适的来源[c],并检查“文本—来源一致性[d]”。

具体而言:

  1. 如果您将LLM用作写作顾问,即寻求提纲、改进段落、对文本进行批评等,请注意它提供的信息是不可靠且可能错误的。在选择是否采纳LLM的建议时,请谨慎使用聪明才智。
  2. 您可以使用LLM进行编辑、总结和改写,但请注意它们可能无法正确检测语法错误或保持关键信息完整。请谨慎使用并对其回答进行大量编辑。您还可以要求LLM纠正其不足,比如在总结中缺少信息或具有不百科全书化、例如促销性的语调。

英语维基百科编者Rory Jaffe在线上报纸《The Signpost》表示极为反对使用大型语言模型编写条目,但提出一个例外,表示大型语言模型产生的内容可以作为一个基本条目结构/辅助工具,然后再慢慢去找来源编写。[4] 原始LLM输出不应直接粘贴到草稿或条目中。草稿是正在进行的工作,它们的初始版本通常未达到条目所需的标准,但通过从“未更改”的LLM输出的初始版本开始,使编辑者能够开发条目内容不是草稿空间或用户空间的目的之一。

如果发现了疑似大语言模型生成的内容……

[编辑]

对于疑似由大型语言模型由所产生的内容,先检查是否有真实来源证明,如果满足可以进行清理、修正语气[e]。如果没有,酌情加入来源或者挂上{{AI-generated}}或{{fact}}模板。

如果条目的所有版本均存在问题,可以选择以下作法:协助清理、以G21提报速删({{d|G21}} )、提报侵犯著作权

可以考虑以警告模板警告滥用大语言模型的用户:{{Uw-ai1}}与{{Uw-ai4}}。

附注

[编辑]
  1. ^ 这也适用于AI模型位于其生成的作品不适用著作权的司法管辖区的情况。
  2. ^ 例如,擅长反破坏但几乎不参与条目撰写的人可能不应该使用LLM创建条目。相反,他们应该先积累在没有LLM辅助下创作条目的经验。
  3. ^ 一个纯LLM生成内容的例子,来源不仅不存在,甚至还有example.com这样的网址
  4. ^ 参见en:Wikipedia:Citing sources#Text–source integrity
  5. ^ 建议把文字放进搜索引擎搜索,确认一下有没有侵犯著作权,如果情况存在的话请考虑移除/用自己的方式写

参考来源

[编辑]
  1. ^ Smith, Adam. What Is ChatGPT? And Will It Steal Our Jobs?. Context. Thomson Reuters Foundation. 2023-01-25 [2025-10-05]. Large language models have limited reliability, limited understanding, limited range, and hence need human supervision. 
  2. ^ When AI Gets It Wrong: Addressing AI Hallucinations and Bias. MIT Sloan Teaching & Learning Technologies. [2025-05-25] (美国英语). In short, the “hallucinations” and biases in generative AI outputs result from the nature of their training data, the tools’ design focus on pattern-based content generation, and the inherent limitations of AI technology. Acknowledging and addressing these challenges will be essential as generative AI systems become more integrated into decision-making processes across various sectors. 
  3. ^ How to trick OpenAI’s ChatGPT
  4. ^ en:Wikipedia:Wikipedia Signpost/2023-02-20/News and notes#AI takeoff begins: the first wave of bullshit