維基百科:大語言模型
此頁是關於人工智慧、大型語言模型產生內容的論述,不是維基百科的核心方針或指引。 此頁僅代表部分編者關於社羣規範或維基百科的觀點,尚未得到充分共識。有些論述得到社群中多數編者的認同,而有些只代表少數編者的意見。 |
| 本頁簡而言之:大語言模型創作的內容不應當直接作為條目或可靠來源使用,用它輔助編輯維基百科時要查驗、修正和聲明。 |
此條目可參照英語維基百科相應條目來擴充。 |
| 「 | 大語言模型的可靠性、理解力、還有知識範圍,都是有限的。因此,人必須要監督其產出。 | 」 |
| ——麥可·奧斯本, 牛津大學的機器學習專業教授[1] | ||
大語言模型(又稱大型語言模型、AI聊天機器人,簡稱LLM)是使用人工神經網路生成文字的電腦程式,其中又以ChatGPT最為常見。這個工具在協助文字性質工作時可以很有用、但也可以產出有潛在問題、甚至是完全廢話的文字。
你可以對大型語言模型命令說:「幫我寫一篇維基百科的條目」,但它可能會生出看起來正確,但實際上是虛構的內容,如虛構的參考文獻。LLM生成的內容本身是不能自證正確的,相當於機器生成的原創研究。它還可能有偏見、誹謗在世人物、違反著作權,從而危害維基百科的中立和正確性。
編輯者如果對這些風險不夠了解,且無法克服這些工具的限制,則不應該在它們的協助下進行編輯。編輯者在充分熟悉撰寫的目標前,不應使用LLM。它們的輸出應該受嚴格檢視,以確保符合所有適用的方針和指引。無論如何,編輯者都應避免在維基百科上釋出通過詢問LLM寫原創內容獲取的內容。即使這樣的內容經過了大量編輯,也最好使用不使用機器生成內容的替代方案。與所有編輯一樣,編輯對其LLM輔助編輯負有全責。
此外,LLM建立的作品不是可靠的來源。除非它們的輸出是由有著嚴格事實查證與正確性的聲譽的可靠媒體釋出的,否則不應在我們的條目中引用。維基百科不是一個測試場,用於LLM的實驗或試驗是被禁止的。強烈不建議使用LLMs來編寫使用者討論頁的評論或編輯摘要。此外,使用LLM生成或修改文本應在編輯摘要中提及(即使他們的使用條款不要求這樣做)。
風險和相關方針
[編輯]原創研究和虛構
[編輯]維基百科條目不得包含原創研究,即未發表的事實、爭論、觀點、推論和想法。以及對已發表材料進行的未發表分析、綜合或總結,並產生或暗示新的結論。為了證明您未添加原創研究,您必須能夠引用可靠的、已發表的來源。這些來源應該與條目主題直接相關,並直接支持所呈現的材料。
| 「 | 簡而言之,生成式AI輸出的「幻覺」和偏見源於其訓練資料的性質、工具設計著重於基於模式的內容生成、和人工智慧技術的固有限制。隨著生成式AI系統日益融入各領域的決策過程,承認並應對這些挑戰至關重要。 | 」 |
| ——"When AI Gets It Wrong", MIT Sloan School of Management, AI basics[2] | ||
LLM是模式完成程式:它們通過輸出最有可能出現在先前詞語之後的詞語來生成文本。它們從訓練數據中學習這些模式,該數據包括來自網際網路和其他地方的各種內容,包括小說、陰謀論、宣傳等。因此,LLM有時會得出即使它們表面上看起來很熟悉,但在任何可靠來源中都不存在的結論。它們還可能按照邊緣或荒謬的前提回應提示,試圖提出似乎合理的後續內容:如果要求寫一篇關於吃碎玻璃好處的條目,一個不受安全約束的LLM將這樣做。最後,LLM可以編造事實,這是其設計的統計不可避免的副產品,稱為「虛構」。例如,美國技術雜誌《快公司》測試ChatGPT時,要求它產生一篇有關特斯拉上一個財務季度的新聞文章,結果產生出來的數據全部錯誤。[3]從實際角度來看,所有這些都等同於原創研究。
由於LLM通常輸出準確的陳述,而且它們的輸出通常聽起來很有道理,並帶有自信的語氣,每當它們提供一個看似有用的結果時,人們可能難以檢測上述問題。一個普通使用者可能認為自己擁有一個有用的工具,可能對準確性進行了抽查並「沒有看到任何問題」,因此傾向於接受所提供的輸出;但很可能存在問題。即使有90%的內容是正確的,有10%是錯誤的,這在百科全書中也是一個巨大的問題。當要求LLM回答覆雜問題、涉及鮮為人知的主題或執行不適合它們的任務時(例如需要廣泛知識或分析的任務),LLM的輸出變得更糟。
無來源或不可查證的內容
[編輯]寫入維基百科的內容須要能被讀者在可靠來源中得到驗證。維基百科不發表原創研究,其中收錄的內容需要有既已發表的材料作為依據和支持,而不能僅由編輯者認定「真實正確」。編輯者應為條目中的內容及其引用提供可靠來源,否則,這些內容可能被移除。
LLM不遵循維基百科關於可供查證和可靠來源的方針。LLM有時會完全不引用,或者引用不符合維基百科的可靠來源要求的來源(包括引用維基百科作為來源)。在某些情況下,它們通過捏造標題、作者和URL來虛構不存在的參考文獻。
LLM虛構的內容,除了如上所述是原創研究之外,還違反了可供查證方針,它可能由LLM捏造而導致無法查證,即沒有實際存在的參考文獻可查。
算法偏見和非中立的觀點
[編輯]所有維基百科條目以及其他百科式內容必須以中立的觀點書寫,在儘可能沒有任何偏見的前提下,平等地表達出任何曾在可靠來源中發表過的重要觀點。
LLM生成的文字內容,在語調方面可能看似中立,但實質上不盡然。這個問題在生者傳記方面尤為迫切。
侵犯著作權
[編輯]您為維基百科所貢獻的任何資料都將依照創用CC 姓名標示-相同方式分享 4.0協議(CC BY-SA 4.0)和GNU自由檔案授權條款(GFDL)公開發行。因此如果您有意參與的話,您必須授權使用該授權條款,那意味著: - 您擁有該材料的著作權,譬如您是該材料的原創作者,或
- 您通過某種允許使用CC BY-SA 4.0的渠道取得該材料,例如該材料屬公有領域(in public domain)或者該材料本身就是在與CC BY-SA 4.0兼容的條款下發行

LLM可能生成侵犯著作權的材料。[a]生成的文本可能包括逐字引用的非自由內容或是派生作品。另外,ˊ使用LLM總結著作權所有的文章摘要,可能會生出近似複述的內容。LLM使用的著作權材料目前並不明朗,其生成內容的著作權可能與維基百科要求的「創用CC 姓名標示-相同方式分享」和「GNU自由文檔授權條款」不相容。
用法
[編輯]維基百科依靠志願者來審核新內容,以確保其符合我們的核心內容方針,而這往往十分耗時。維基百科的非正式社會契約是,編者應對自己的貢獻投入足夠的努力,這樣其他編者就無需在後面「收拾殘局」。編者應當確保其由LLM輔助下作出的編輯對百科全書有益,而非增加其他志願者的維護負擔。
特定能力亦為必需
[編輯]LLM是輔助工具,不能替代人的判斷。需要謹慎判斷以確定此類工具是否適合特定目的。使用LLM的編者應該熟悉所使用的LLM固有的局限性,且須能克服這些局限,以確保他們作出的編輯符合相關的方針和指引。為此,編者在使用LLM前應已具有在無LLM協助的情況下完成同等或更進階任務的經驗。[b]
有些編者在不依賴LLM輔助時有能力作出編輯,但仍會反覆作出不當的LLM輔助編輯。儘管他們真誠地嘗試貢獻,此時仍應推定他們在這一特定領域欠缺能力。他們可能不了解LLM的風險和固有限制,或雖了解但無法克服這些問題以遵守方針。這種情況下,編者可能被處以禁止藉助此類工具的禁制,即只能作出無LLM輔助的編輯(此為特定類型的部分禁制)。他們也可能被禁止編輯部分命名空間。
披露
[編輯]每筆用到了LLM輸出的編輯都應被標記,方法是在編輯摘要中標明AI工具的名稱和(如有)版本。這適用於所有命名空間。
撰寫文章
[編輯]不管是為了建立新條目還是為現有條目添加大量新內容,將LLM的原始輸出直接粘貼到編輯器的效果通常都不佳。LLM可以用於對現有文本進行潤色或壓縮,也可以用於為新條目或現有條目提供靈感。對條目的每項修改都須遵守所有相關方針與指引。這意味著編者必須熟悉相關主題的來源情況,並仔細評估文本整體上是否觀點中立,以及是否在引用來源中能夠查證。如果模型輸出內容中包含引用,編者必須核查相應來源是否真實存在、可靠、相關且適合作為來源。
若把LLM用作寫作顧問,即請求其提供大綱、改善段落的建議、對文本的批評等,編者應始終意識到其提供的資訊並不可靠。若將其用於文字潤色、總結或改寫,編者也應意識到它可能無法正確識別語法錯誤、解釋句法歧義,或保持關鍵資訊不變。可以要求LLM修正其自身輸出中的不足,例如補充總結時遺漏的資訊,或修改不符合百科風格的語氣(如帶宣傳色彩)。儘管這些嘗試是值得的,但不應指望LLM能代替人工修正。它們的輸出可能仍需大幅編輯,甚至只能完全捨棄。在採納其建議和修改前,請充分調查並運用常識。
LLM生成的原始輸出也不應直接放入草稿。草稿是創作中的作品,其初始質量往往達不到正式條目的要求。然而草稿或使用者命名空間的用途並非讓編者從未經修改的模型輸出開始構建條目。
溝通
[編輯]編者不應使用LLM來生成留言。溝通技巧是維基百科決策過程的基石,參與維基百科編輯的使用者被預設具備用自己的思考提出意見的能力。不代表真實個人想法的留言對討論沒有幫助,而那些明顯由LLM或類似AI技術生成的留言可能會被刪除或摺疊。重複此類不當行為構成擾亂,並將可能導致封鎖或禁制。
我們不禁止用LLM對真實想法進行表達潤色:例如,非母語者可以使用LLM來檢查語法,或翻譯自己不熟悉的詞語。即便如此,仍需注意LLM可能會出錯,或改變留言的原意。中文水平有限的編者如需將留言翻譯成中文,建議使用機器翻譯工具(見相關比較),而非AI聊天機器人。
其他方針考量
[編輯]LLM不應被用於作出未獲批准的機器人式編輯(WP:MEATBOT),或任何接近機器人行為的編輯方式。在條目命名空間內利用大型語言模型協助高速編輯,很可能因難以及時、嚴格地審查內容是否符合所有相關方針而無法達到負責任使用的標準。
維基百科不是LLM開發的試驗場,不得為開發LLM而在維基百科上進行實驗性的編輯。對維基百科的編輯應當服務於完善百科全書,而非推進某項技術。這並不禁止編者為完善維基百科而在自己的使用者空間內負責任地試驗LLM。
為什麼適合與不適合使用大型語言模型撰寫條目
[編輯]大型語言模型可用於編輯或擴充現有文本,並為新條目或現有條目生成想法。對條目的每一次變更都必須符合所有適用的方針和指引。這意味著您必須熟悉與所討論主題相關的資訊來源,並仔細評估文本的整體中立性以及與引用來源相關的可查證性。如果引文是作為輸出的一部分生成的,則必須驗證相應的來源是真實、可靠、相關且合適的來源[c],並檢查「文本—來源一致性[d]」。
具體而言:
- 如果您將LLM用作寫作顧問,即尋求提綱、改進段落、對文本進行批評等,請注意它提供的資訊是不可靠且可能錯誤的。在選擇是否採納LLM的建議時,請謹慎使用聰明才智。
- 您可以使用LLM進行編輯、總結和改寫,但請注意它們可能無法正確檢測語法錯誤或保持關鍵資訊完整。請謹慎使用並對其回答進行大量編輯。您還可以要求LLM糾正其不足,比如在總結中缺少資訊或具有不百科全書化、例如促銷性的語調。
英語維基百科編者Rory Jaffe在線上報紙《The Signpost》表示極為反對使用大型語言模型編寫條目,但提出一個例外,表示大型語言模型產生的內容可以作為一個基本條目結構/輔助工具,然後再慢慢去找來源編寫。[4] 原始LLM輸出不應直接粘貼到草稿或條目中。草稿是正在進行的工作,它們的初始版本通常未達到條目所需的標準,但通過從「未變更」的LLM輸出的初始版本開始,使編輯者能夠開發條目內容不是草稿空間或使用者空間的目的之一。
如果發現了疑似大語言模型生成的內容……
[編輯]對於疑似由大型語言模型由所產生的內容,先檢查是否有真實來源證明,如果滿足可以進行清理、修正語氣[e]。如果沒有,酌情加入來源或者掛上{{AI-generated}}或{{fact}}模板。
如果條目的所有版本均存在問題,可以選擇以下作法:協助清理、以G21提報速刪({{d|G21}} )、提報侵犯著作權
可以考慮以警告模板警告濫用大語言模型的使用者:{{Uw-ai1}}與{{Uw-ai4}}。
附註
[編輯]參考來源
[編輯]- ^ Smith, Adam. What Is ChatGPT? And Will It Steal Our Jobs?. Context. Thomson Reuters Foundation. 2023-01-25 [2025-10-05].
Large language models have limited reliability, limited understanding, limited range, and hence need human supervision.
- ^ When AI Gets It Wrong: Addressing AI Hallucinations and Bias. MIT Sloan Teaching & Learning Technologies. [2025-05-25] (美國英語).
In short, the 「hallucinations」 and biases in generative AI outputs result from the nature of their training data, the tools』 design focus on pattern-based content generation, and the inherent limitations of AI technology. Acknowledging and addressing these challenges will be essential as generative AI systems become more integrated into decision-making processes across various sectors.
- ^ How to trick OpenAI’s ChatGPT
- ^ en:Wikipedia:Wikipedia Signpost/2023-02-20/News and notes#AI takeoff begins: the first wave of bullshit