维基百科:大语言模型
此頁是關於人工智能、大型語言模型產生內容的論述,不是维基百科的核心方针或指引。 此頁僅代表部分编者关于社羣規範或維基百科的觀點,尚未得到充分共識。有些论述得到社群中多数编者的认同,而有些只代表少数编者的意见。 |
| 本頁簡而言之:大语言模型创作的内容不应当直接作为条目或可靠来源使用,用它辅助编辑维基百科时要查验、修正和声明。 |
此條目可参照英語維基百科相應條目来扩充。 |
| “ | 大語言模型的可靠性、理解力、還有知識範圍,都是有限的。因此,人必須要監督其產出。 | ” |
| ——麥可·奧斯本, 牛津大學的機器學習专业教授[1] | ||
大語言模型(又称大型語言模型、AI聊天机器人,简称LLM)是使用人工神經網路生成文字的電腦程式,其中又以ChatGPT最为常见。這個工具在协助文字性质工作时可以很有用、但也可以產出有潛在問題、甚至是完全廢話的文字。
你可以對大型语言模型命令說:「幫我寫一篇維基百科的條目」,但它可能會生出看起来正确,但实际上是虚构的内容,如虚构的参考文献。LLM生成的内容本身是不能自证正确的,相当于机器生成的原创研究。它还可能有偏见、诽谤在世人物、违反版权,從而危害維基百科的中立和正確性。
编辑者如果对这些风险不够了解,且无法克服这些工具的限制,则不应该在它们的协助下进行编辑。编辑者在充分熟悉撰寫的目標前,不应使用LLM。它们的输出应该受严格檢視,以确保符合所有适用的方针和指引。无论如何,编辑者都应避免在维基百科上发布通过询问LLM写原创内容获取的内容。即使这样的内容经过了大量编辑,也最好使用不使用机器生成内容的替代方案。与所有编辑一样,编辑对其LLM辅助编辑负有全责。
此外,LLM创建的作品不是可靠的来源。除非它们的输出是由有着严格事实查证与正确性的声誉的可靠媒体发布的,否则不应在我们的条目中引用。维基百科不是一个测试场,用于LLM的实验或试验是被禁止的。强烈不建议使用LLMs来编写用户讨论页的评论或编辑摘要。此外,使用LLM生成或修改文本应在编辑摘要中提及(即使他们的使用条款不要求这样做)。
风险和相关方针
[编辑]原创研究和虚构
[编辑]维基百科条目不得包含原创研究,即未发表的事实、争论、觀點、推论和想法。以及对已发表材料进行的未发表分析、综合或总结,并产生或暗示新的结论。为了证明您未添加原创研究,您必须能够引用可靠的、已发表的来源。这些来源应该与条目主题直接相关,并直接支持所呈现的材料。
| “ | 簡而言之,生成式AI輸出的「幻覺」和偏見源於其訓練資料的性質、工具設計著重於基於模式的內容生成、和人工智慧技術的固有限制。隨著生成式AI系統日益融入各領域的決策過程,承認並應對這些挑戰至關重要。 | ” |
| ——"When AI Gets It Wrong", MIT Sloan School of Management, AI basics[2] | ||
LLM是模式完成程序:它们通过输出最有可能出现在先前词语之后的词语来生成文本。它们从训练数据中学习这些模式,该数据包括来自互联网和其他地方的各种内容,包括小说、阴谋论、宣传等。因此,LLM有时会得出即使它们表面上看起来很熟悉,但在任何可靠来源中都不存在的结论。它们还可能按照边缘或荒谬的前提回应提示,试图提出似乎合理的后续内容:如果要求写一篇关于吃碎玻璃好处的条目,一个不受安全约束的LLM将这样做。最后,LLM可以编造事实,这是其设计的统计不可避免的副产品,称为“虚构”。例如,美國技術雜誌《快公司》測試ChatGPT時,要求它產生一篇有關特斯拉上一個財務季度的新聞文章,結果產生出來的數據全部錯誤。[3]从实际角度来看,所有这些都等同于原创研究。
由于LLM通常输出准确的陈述,而且它们的输出通常听起来很有道理,并带有自信的语气,每当它们提供一个看似有用的结果时,人们可能难以检测上述问题。一个普通用户可能认为自己拥有一个有用的工具,可能对准确性进行了抽查并“没有看到任何问题”,因此倾向于接受所提供的输出;但很可能存在问题。即使有90%的内容是正确的,有10%是错误的,这在百科全书中也是一个巨大的问题。当要求LLM回答复杂问题、涉及鲜为人知的主题或执行不适合它们的任务时(例如需要广泛知识或分析的任务),LLM的输出变得更糟。
无来源或不可查证的内容
[编辑]写入维基百科的内容须要能被读者在可靠来源中得到验证。维基百科不发表原创研究,其中收录的内容需要有既已发表的材料作为依据和支持,而不能仅由编辑者认定“真实正确”。编辑者应为条目中的内容及其引用提供可靠来源,否则,这些内容可能被移除。
LLM不遵循维基百科关于可供查证和可靠来源的方针。LLM有时会完全不引用,或者引用不符合维基百科的可靠来源要求的来源(包括引用维基百科作为来源)。在某些情况下,它们通过捏造标题、作者和URL来虚构不存在的参考文献。
LLM虚构的内容,除了如上所述是原创研究之外,还违反了可供查证方针,它可能由LLM捏造而导致无法查证,即没有实际存在的参考文献可查。
算法偏见和非中立的观点
[编辑]所有维基百科条目以及其他百科式内容必须以中立的观点书写,在尽可能没有任何偏见的前提下,平等地表达出任何曾在可靠来源中发表过的重要观点。
LLM生成的文字内容,在語調方面可能看似中立,但實質上不盡然。這個問題在生者傳記方面尤為迫切。
侵犯版权
[编辑]您为维基百科所贡献的任何资料都将依照知识共享 署名-相同方式共享 4.0协议(CC BY-SA 4.0)和GNU自由文件授權條款(GFDL)公开发行。因此如果您有意参与的话,您必须授权使用该许可证,那意味着: - 您拥有该材料的版權,譬如您是该材料的原创作者,或
- 您通过某种允许使用CC BY-SA 4.0的渠道取得该材料,例如该材料属公有领域(in public domain)或者该材料本身就是在与CC BY-SA 4.0兼容的条款下发行

LLM可能生成侵犯版权的材料。[a]生成的文本可能包括逐字引用的非自由内容或是派生作品。另外,ˊ使用LLM總結著作權所有的文章摘要,可能會生出近似复述的內容。LLM使用的著作權材料目前並不明朗,其生成內容的著作權可能與维基百科要求的「知识共享 署名-相同方式共享」和「GNU自由文档许可证」不相容。
用法
[编辑]维基百科依靠志愿者来审核新内容,以确保其符合我们的核心内容方针,而这往往十分耗时。维基百科的非正式社会契约是,编者应对自己的贡献投入足够的努力,这样其他编者就无需在后面“收拾残局”。编者应当确保其由LLM辅助下作出的编辑对百科全书有益,而非增加其他志愿者的维护负担。
特定能力亦为必需
[编辑]LLM是辅助工具,不能替代人的判断。需要谨慎判断以确定此类工具是否适合特定目的。使用LLM的编者应该熟悉所使用的LLM固有的局限性,且须能克服这些局限,以确保他们作出的编辑符合相关的方针和指引。为此,编者在使用LLM前应已具有在无LLM协助的情况下完成同等或更高级任务的经验。[b]
有些编者在不依赖LLM辅助时有能力作出编辑,但仍会反复作出不当的LLM辅助编辑。尽管他们真诚地尝试贡献,此时仍应推定他们在这一特定领域欠缺能力。他们可能不了解LLM的风险和固有限制,或虽了解但无法克服这些问题以遵守方针。这种情况下,编者可能被处以禁止借助此类工具的禁制,即只能作出无LLM辅助的编辑(此为特定类型的部分禁制)。他们也可能被禁止编辑部分命名空间。
披露
[编辑]每笔用到了LLM输出的编辑都应被标记,方法是在编辑摘要中标明AI工具的名称和(如有)版本。这适用于所有命名空间。
撰写文章
[编辑]不管是为了创建新条目还是为现有条目添加大量新内容,将LLM的原始输出直接粘贴到编辑器的效果通常都不佳。LLM可以用于对现有文本进行润色或压缩,也可以用于为新条目或现有条目提供灵感。对条目的每项修改都须遵守所有相关方针与指引。这意味着编者必须熟悉相关主题的来源情况,并仔细评估文本整体上是否观点中立,以及是否在引用来源中能够查证。如果模型输出内容中包含引用,编者必须核查相应来源是否真实存在、可靠、相关且适合作为来源。
若把LLM用作写作顾问,即请求其提供大纲、改善段落的建议、对文本的批评等,编者应始终意识到其提供的信息并不可靠。若将其用于文字润色、总结或改写,编者也应意识到它可能无法正确识别语法错误、解释句法歧义,或保持关键信息不变。可以要求LLM修正其自身输出中的不足,例如补充总结时遗漏的信息,或修改不符合百科风格的语气(如带宣传色彩)。尽管这些尝试是值得的,但不应指望LLM能代替人工修正。它们的输出可能仍需大幅编辑,甚至只能完全舍弃。在采纳其建议和修改前,请充分调查并运用常识。
LLM生成的原始输出也不应直接放入草稿。草稿是创作中的作品,其初始质量往往达不到正式条目的要求。然而草稿或用户命名空间的用途并非让编者从未经修改的模型输出开始构建条目。
沟通
[编辑]编者不应使用LLM来生成留言。沟通技巧是维基百科决策过程的基石,参与维基百科编辑的用户被预设具备用自己的思考提出意见的能力。不代表真实个人想法的留言对讨论没有帮助,而那些明显由LLM或类似AI技术生成的留言可能会被删除或折叠。重复此类不当行为构成扰乱,并将可能导致封禁或禁制。
我们不禁止用LLM对真实想法进行表达润色:例如,非母语者可以使用LLM来检查语法,或翻译自己不熟悉的词语。即便如此,仍需注意LLM可能会出错,或改变留言的原意。中文水平有限的编者如需将留言翻译成中文,建议使用机器翻译工具(见相关比较),而非AI聊天机器人。
其他方针考量
[编辑]LLM不应被用于作出未获批准的机器人式编辑(WP:MEATBOT),或任何接近机器人行为的编辑方式。在条目命名空间内利用大型语言模型协助高速编辑,很可能因难以及时、严格地审查内容是否符合所有相关方针而无法达到负责任使用的标准。
维基百科不是LLM开发的试验场,不得为开发LLM而在维基百科上进行实验性的编辑。对维基百科的编辑应当服务于完善百科全书,而非推进某项技术。这并不禁止编者为完善维基百科而在自己的用户空间内负责任地试验LLM。
為什麼適合與不適合使用大型語言模型撰寫條目
[编辑]大型语言模型可用于编辑或扩充现有文本,并为新条目或现有条目生成想法。对条目的每一次更改都必须符合所有适用的方针和指引。这意味着您必须熟悉与所讨论主题相关的信息来源,并仔细评估文本的整体中立性以及与引用来源相关的可查证性。如果引文是作为输出的一部分生成的,则必须验证相应的来源是真实、可靠、相关且合适的来源[c],并检查「文本—来源一致性[d]」。
具体而言:
- 如果您将LLM用作写作顾问,即寻求提纲、改进段落、对文本进行批评等,请注意它提供的信息是不可靠且可能错误的。在选择是否采纳LLM的建议时,请谨慎使用聪明才智。
- 您可以使用LLM进行编辑、总结和改写,但请注意它们可能无法正确检测语法错误或保持关键信息完整。请谨慎使用并对其回答进行大量编辑。您还可以要求LLM纠正其不足,比如在总结中缺少信息或具有不百科全书化、例如促销性的语调。
英語維基百科編者Rory Jaffe在線上報紙《The Signpost》表示極為反對使用大型語言模型編寫条目,但提出一個例外,表示大型語言模型產生的內容可以作為一個基本条目結構/輔助工具,然後再慢慢去找來源編寫。[4] 原始LLM输出不应直接粘贴到草稿或条目中。草稿是正在进行的工作,它们的初始版本通常未达到条目所需的标准,但通过从“未更改”的LLM输出的初始版本开始,使编辑者能够开发条目内容不是草稿空间或用户空间的目的之一。
如果发现了疑似大语言模型生成的内容……
[编辑]對於疑似由大型語言模型由所產生的內容,先檢查是否有真实來源證明,如果满足可以進行清理、修正語氣[e]。如果沒有,酌情加入來源或者掛上{{AI-generated}}或{{fact}}模板。
如果条目的所有版本均存在问题,可以選擇以下作法:協助清理、以G21提報速刪({{d|G21}} )、提報侵犯版權
可以考慮以警告模板警告濫用大语言模型的用戶:{{Uw-ai1}}與{{Uw-ai4}}。
附注
[编辑]參考來源
[编辑]- ^ Smith, Adam. What Is ChatGPT? And Will It Steal Our Jobs?. Context. Thomson Reuters Foundation. 2023-01-25 [2025-10-05].
Large language models have limited reliability, limited understanding, limited range, and hence need human supervision.
- ^ When AI Gets It Wrong: Addressing AI Hallucinations and Bias. MIT Sloan Teaching & Learning Technologies. [2025-05-25] (美国英语).
In short, the “hallucinations” and biases in generative AI outputs result from the nature of their training data, the tools’ design focus on pattern-based content generation, and the inherent limitations of AI technology. Acknowledging and addressing these challenges will be essential as generative AI systems become more integrated into decision-making processes across various sectors.
- ^ How to trick OpenAI’s ChatGPT
- ^ en:Wikipedia:Wikipedia Signpost/2023-02-20/News and notes#AI takeoff begins: the first wave of bullshit