跳至內容

維基百科:大語言模型

維基百科,自由的百科全書
(重新導向自Wikipedia:GPT

大型語言模型(又稱大模型、AI聊天機械人,簡稱LLM)是使用人工神經網絡生成文字的電腦程式,其中又以ChatGPT最為常見。

雖然大型語言模型在生成新聞等文字時可能非常有用,但它們生成的內容可能是完全虛構的,包括虛構的參考文獻。LLM生成的內容本身是不可供查證的,相當於機器生成的原創研究。它還可能有偏見誹謗在世人物、違反版權,從而危害維基百科的中立和正確性。

編輯者如果對這些風險不夠了解,且無法克服這些工具的限制,則不應該在它們的協助下進行編輯。在編輯者沒有充分熟悉的任務中不應使用LLM。它們的輸出應該被嚴格檢查,以確保符合所有適用的方針和指引。無論如何,編輯者都應避免在維基百科上發佈通過詢問LLM寫原創內容獲取的內容。即使這樣的內容經過了大量編輯,也最好使用不使用機器生成內容的替代方案。與所有編輯一樣,編輯對其LLM輔助編輯負有全責。

此外,LLM創建的作品不是可靠的來源。除非它們的輸出是由有着嚴格事實查證與正確性的聲譽的可靠媒體發佈的,否則不應在我們的條目中引用。維基百科不是一個測試場,用於LLM的實驗或試驗是被禁止的。強烈不建議使用LLMs來編寫用戶討論頁的評論或編輯摘要。此外,使用LLM生成或修改文本應在編輯摘要中提及(即使他們的使用條款不要求這樣做)。

風險和相關方針

[編輯]

原創研究和虛構

[編輯]
維基百科條目不得包含原創研究,即未發表的事實、爭論、觀點、推論和想法。以及對已發表材料進行的未發表分析、綜合或總結,並產生或暗示新的結論。為了證明您未添加原創研究,您必須能夠引用可靠的、已發表的來源。這些來源應該與條目主題直接相關,並直接支持所呈現的材料。

LLM是模式完成程序:它們通過輸出最有可能出現在先前詞語之後的詞語來生成文本。它們從訓練數據中學習這些模式,該數據包括來自互聯網和其他地方的各種內容,包括小說、陰謀論、宣傳等。因此,LLM有時會得出即使它們表面上看起來很熟悉,但在任何可靠來源中都不存在的結論。它們還可能按照邊緣或荒謬的前提回應提示,試圖提出似乎合理的後續內容:如果要求寫一篇關於吃碎玻璃好處的條目,一個不受安全約束的LLM將這樣做。最後,LLM可以編造事實,這是其設計的統計不可避免的副產品,稱為「虛構」。例如,美國技術雜誌《快公司》測試ChatGPT時,要求它產生一篇有關特斯拉上一個財務季度的新聞文章,結果產生出來的數據全部錯誤。[1]從實際角度來看,所有這些都等同於原創研究

由於LLM通常輸出準確的陳述,而且它們的輸出通常聽起來很有道理,並帶有自信的語氣,每當它們提供一個看似有用的結果時,人們可能難以檢測上述問題。一個普通用戶可能認為自己擁有一個有用的工具,可能對準確性進行了抽查並「沒有看到任何問題」,因此傾向於接受所提供的輸出;但很可能存在問題。即使有90%的內容是正確的,有10%是錯誤的,這在百科全書中也是一個巨大的問題。當要求LLM回答覆雜問題、涉及鮮為人知的主題或執行不適合它們的任務時(例如需要廣泛知識或分析的任務),LLM的輸出變得更糟。

無來源或不可查證的內容

[編輯]
寫入維基百科的內容須要能被讀者在可靠來源中得到驗證。維基百科不發表原創研究,其中收錄的內容需要有既已發表的材料作為依據和支持,而不能僅由編輯者認定「真實正確」。編輯者應為條目中的內容及其引用提供可靠來源,否則,這些內容可能被移除。

LLM不遵循維基百科關於可供查證和可靠來源的方針。LLM有時會完全不引用,或者引用不符合維基百科的可靠來源要求的來源(包括引用維基百科作為來源)。在某些情況下,它們通過捏造標題、作者和URL來虛構不存在的參考文獻

LLM虛構的內容,除了如上所述是原創研究之外,還違反了可供查證方針,它可能由LLM捏造而導致無法查證,即沒有實際存在的參考文獻可查。

算法偏見和非中立的觀點

[編輯]
所有維基百科條目以及其他百科式內容必須以中立的觀點書寫,在儘可能沒有任何偏見的前提下,平等地表達出任何曾在可靠來源中發表過的重要觀點。

LLM可能生成在語調上看似中立但實質上不一定中立的內容。對於生者傳記,這一擔憂尤為強烈。

侵犯版權

[編輯]
您為維基百科所貢獻的任何資料都將無條件地在CC BY-SA 4.0下公開發行。因此如果您有意參與的話,您必須授權使用該許可證,那意味着:
  • 您擁有該材料的版權,譬如您是該材料的原創作者,或
  • 您通過某種允許使用CC BY-SA 4.0的渠道取得該材料,例如該材料屬公有領域(in public domain)或者該材料本身就是在CC BY-SA 4.0條款下發行

LLM可能生成侵犯版權的材料。[a]生成的文本可能包括逐字引用的非自由內容或是派生作品

用法

[編輯]

需要特定的能力

[編輯]

LLM是輔助工具,不能替代人類判斷。需要謹慎判斷以確定此類工具是否適合特定目的。使用LLM的編輯者應該熟悉所使用的LLM固有的局限性,然後必須克服這些局限性,以確保他們的編輯符合相關的方針和指引。為此,在使用LLM之前,編輯者應該已經具有在沒有LLM幫助的情況下執行相同或更高級任務的豐富經驗。[b]

披露

[編輯]

每次編輯都涉及到LLM輸出的應標記為LLM輔助,並在編輯摘要中標明AI的名稱和版本(如果可能)。這適用於所有命名空間

寫條目

[編輯]

大型語言模型可用於編輯或擴充現有文本,並為新條目或現有條目生成想法。對條目的每一次更改都必須符合所有適用的方針和指引。這意味着您必須熟悉與所討論主題相關的信息來源,並仔細評估文本的整體中立性以及與引用來源相關的可查證性。如果引文是作為輸出的一部分生成的,則必須驗證相應的來源是真實、可靠、相關且合適的來源,並檢查 文本 - 來源一致性[c]

具體而言:

  1. 如果您將LLM用作寫作顧問,即尋求提綱、改進段落、對文本進行批評等,請注意它提供的信息是不可靠且可能錯誤的。在選擇是否採納LLM的建議時,請謹慎使用聰明才智。
  2. 您可以使用LLMs進行編輯、總結和改寫,但請注意它們可能無法正確檢測語法錯誤或保持關鍵信息完整。請謹慎使用並對響應進行大量編輯。您還可以要求LLM糾正其不足,比如在總結中缺少信息或具有不百科全書化、例如促銷性的語調。

英語維基百科編輯Rory Jaffe在線上報紙《維基短訊》表示極為反對使用大型語言模型編寫文章,但提出一個例外,表示大型語言模型產生的內容可以作為一個基本文章結構/輔助工具,然後再慢慢去找來源編寫。[2] 原始LLM輸出不應直接粘貼到草稿或條目中。草稿是正在進行的工作,它們的初始版本通常未達到條目所需的標準,但通過從「未更改」的LLM輸出的初始版本開始,使編輯者能夠開發文章內容不是草稿空間或用戶空間的目的之一。

如果發現了疑似大語言模型生成的內容……

[編輯]

對於疑似由大型語言模型由所產生的內容,應該:

  1. 首先檢查是否有真實來源證明,如果滿足可以進行清理、修正語氣[d]。如果沒有,酌情加入來源或者掛上{{AI-generated}}或{{fact}}模板。
  2. 如果條目的所有版本均存在問題,可以選擇協助清理/提報侵犯版權提刪,明顯的惡作劇或錯誤資訊可以提報速刪

附註

[編輯]
  1. ^ 這也適用於AI模型位於其生成的作品不適用版權的司法管轄區的情況。
  2. ^ 例如,擅長處理破壞行為但幾乎不進行條目條目的人可能不應該通過使用LLM開始創建條目。相反,他們應該首先在沒有LLM幫助的情況下積累條目創作的實際經驗。
  3. ^ 參見en:Wikipedia:Citing sources#Text–source integrity
  4. ^ 建議把文字放進搜尋引擎搜索,確認一下有沒有侵犯版權,如果情況存在的話請考慮移除/用自己的方式寫

參考來源

[編輯]