您現在的位置是:首頁 > 攝影首頁攝影

AI新賽道②丨ChatGPT使用者量突破百萬背後,著作權、內容漏洞等風險待解

由 21世紀經濟報道 發表于 攝影2023-02-05
簡介新爭議有趣的是,在21記者向ChatGPT提問生成的內容是否會有侵犯他人智慧財產權的風險這一問題時,這位聊天機器人的回答展現出了滿滿的“求生欲”

採訪內容是什麼

21世紀經濟報道 記者諸未靜、蔡姝越 上海報道

編者按

“人工智慧從你出生那天就認識你,讀過你所有的電子郵件,聽過你所有電話錄音,知道你最愛的電影……”尤瓦爾·赫拉利在《未來簡史》一書中描述了這樣一種未來景況:人工智慧比人類更瞭解自己。

步入人工智慧時代,人類的生活習慣和生產方式正在被重塑,科幻和現實滲透,驚喜與擔憂交加。人與機器的未來是一場親密的合作還是激烈的戰爭?機器會將人類的智慧拓展到什麼樣的邊界?

本篇,我們關注美國人工智慧公司OpenAI釋出的免費機器人對話模型ChatGPT(GPT-3.5系列)。這個“超強AI”背後到底暗藏哪些法律風險?

ChatGPT,似乎已經符合元宇宙知識整合層面上,對“殺手級應用”的定義。據OpenAI 的CEO Sam Altman稱,在短短5天的時間裡,ChatGPT就有了100萬用戶,而之前的 GPT-3花了將近24個月才達到這個使用者量。

它在大量網友的“瘋狂”測試中表現出各種驚人的能力,如流暢對答、寫程式碼、寫劇本、辯證分析問題、糾錯等。

AI的“聰明”讓人震撼,也衝擊到了目前的智慧財產權法律體系。

如AI模型本身是否受到知產保護?

在龐大的語料庫和知識庫的支撐下,依託人工智慧技術整合而成的“回答”是否構成著作權意義上的作品?如果AI“拼接”的作品屬於仍在保護期內的作品,是否存在侵權的風險?

此外,近日ChatGPT因回答內容中多次出現錯漏,已被程式設計領域的問答網站Stack Overflow暫時禁用。ChatGPT生成內容中產生的錯誤可能會帶來哪些潛在風險?又應如何對人工智慧生成內容(AIGC)進行事實核查?

新課題

據介紹,ChatGPT是一個基於強化學習和OpenAI的GPT(Generative Pre-training,生成式預練習)系列模型的模型。而強化學習是一種透過嘗試和錯誤來訓練演算法以獲得獎勵的方式,如同人類在積極反饋的情況下學習。

那麼這一AI模型是否受到智慧財產權保護?開放群島(Open Islands)開源社群委員會法律合規組副組長、對外經濟貿易大學法學院助理教授徐美玲在一堂線上公開課上介紹,

AI模型中演算法具有較高的獨創性,使其受到著作權法保護。

如果構成商業秘密,則可以透過《反不正當競爭法》進行保護。此外,還可以透過軟體著作權和專利兩種路徑來保護。

與draft。ai、NightCafe等AI作畫平臺生成的畫作相似的是,ChatGPT在與使用者互動過程中生成的內容,同樣屬於拼接已有內容生成的AI模型衍生品,即人工智慧生成內容(AIGC)。

ChatGPT這一聊天機器人在與使用者對話的過程中生成的AIGC,是否也有可能暗含著作權侵權的風險?

對此,上海申倫律師事務所律師夏海龍向21記者指出,

如果ChatGPT在對使用者問題反饋的過程中提供了他人創作的文字、攝影、試聽等作品或軟體程式碼,只要超出評論、介紹等合理使用限度,就同樣屬於侵害他人資訊網路傳播權的侵權行為。

而站在使用者的角度,上海大邦律師事務所高階合夥人、資深律師遊雲庭則告訴記者,從他目前使用的情況來看,ChatGPT現有的回覆是按照一定的邏輯組織起來的,暫時沒有觀察到有明顯抄襲的跡象。

不過,他也認為,如果出現大段與他人表述相同的文段,那這一工具確實會存在著作權侵權的風險。“但也不能排除其表達受限的可能性,比如讓ChatGPT寫一款藥品的使用說明書,在這種情況下會不可避免地出現大量的內容重合。”

“對於AI加工內容的過程我喜歡用‘照相機’來進行比喻。”

上海協力律師事務所杭州辦公室曾祥欣律師也向21記者指出,AI的處理過程對於內容創作的變化就好比照相機之於繪畫,透過技術手段將生成內容部分自動化了。但無論怎樣的自動化,都無法改變其來源多為版權內容的客觀事實。雖然在自動化的處理過程中可能會透過技術性再組合形有別於原內容的新的內容,但就像對著畫作拍照一樣,無論加再多的濾鏡,原圖的獨創性還是較難被去除的,又更何況目前的所有AI處理對於一般使用者而言都是技術黑箱,我們即無法看到AI究竟參考了什麼,又不清楚AI究竟進行了怎樣的處理,所以基於目前的技術,風險不僅高,而且不可控。

新爭議

有趣的是,在21記者向ChatGPT提問生成的內容是否會有侵犯他人智慧財產權的風險這一問題時,這位聊天機器人的回答展現出了滿滿的“求生欲”。 

ChatGPT回覆稱:“由於我只是一個計算機程式,所以我並不會創作原創內容,也不會侵犯他人的智慧財產權。我只能根據我被訓練時所學到的資訊來回答問題,並將這些資訊提供給使用者。如果您覺得我所提供的資訊侵犯了您的智慧財產權,請告訴我,我會盡快解決這個問題。”

一位北京的資深演算法工程師張一(化名)向21記者分析,目前AI衍生物的版權歸屬主要有兩種,一類歸屬於AI模型的開發機構所有,“不過一般機構不敢如此歸屬,因為一旦產生糾紛,就會有海量的知產官司。”而另一類則是將AIGC的版權分發給使用者,那麼侵權的風險相對就較少。

他更從實際工作出發,對AIGC的未來表示擔憂,

“這些‘答案’都是網上開源資料,AIGC是透過大規模預訓練模型產出的內容,絕對是大量借鑑了人類的智慧財產權,如果法律上步子邁得大一些,人類的知產權益或將無法得到保障。”

21記者梳理發現,

目前國內法院已有的判例中,關於認為AI模型衍生物是否屬於著作權法保護的範疇內,存在較多爭議。

2019年,針對全國首例計算機軟體智慧生成內容著作權糾紛案,北京網際網路法院一審判決,對某律師事務所關於採用法律統計資料分析軟體智慧生成的報告享有著作權的主張,予以駁回。

北京網際網路法院認為,軟體智慧生成的“作品”雖日趨接近自然人,但現行法律權利保護體系已經可以對此類軟體的智力、經濟投入給予充分保護,不宜再對民法主體的基本規範予以突破,“自然人創作完成仍應是著作權法領域文字作品的必要條件”。雖然智慧生成內容不構成作品,但仍然凝結了軟體研發者和軟體使用者的投入,具備傳播價值,應當賦予投入者一定的權益保護。北京智慧財產權法院二審維持了該院的判決結果。

不過,在2020年騰訊訴盈訊著作權侵權案一審中,首次認定人工智慧生成物構成著作權法意義上的作品。

案情顯示,2018年8月20日,騰訊證券網站首次發表財經報道文章《午評:滬指小幅上漲0。11%報2671。93點 通訊運營、石油開採等板塊領漲》,末尾註明“本文由騰訊機器人Dreamwriter自動撰寫”。同日,上海盈訊科技有限公司在其運營的“網貸之家”網站,也刊發了一篇財經報道文章,標題和內容與涉案文章完全一致。為此,深圳市騰訊計算機系統有限公司將上海盈訊科技有限公司告上法庭。2020年1月,廣東省深圳市南山區人民法院一審審結該案,認定被告未經許可,向公眾提供被訴侵權文章內容的行為,侵害了原告享有的資訊網路傳播權,應承擔相應的民事責任。因被告已經刪除侵權作品,判決被告賠償原告經濟損失及合理的維權費用人民幣1500元。

新風險

除了在著作權方面可能存在侵權風險,這位“博聞強識”的聊天機器人目前給出的部分回答中也出現了一些疏漏。

以ChatGPT撰寫的程式碼為例,12月5日,程式設計問題交流網站Stack Overflow(類似於國內的CSDN網站)中出臺了一項臨時政策,暫時禁止平臺內使用者使用ChatGPT生成的文字作為網站中的內容。“主要問題在於,雖然使用ChatGPT生成的程式碼有著很高的錯誤率,但它們通常看上去‘還不錯’,而且生成一段程式碼很容易。”

Stack Overflow認為,由ChatGPT生成的大批錯誤且難以一眼分辨的程式碼出現在網站中,將會大量增加網站的程式碼稽核工作量,對網站的運營以及尋找正確答案的使用者來說是非常有害的。

“這個問題不難理解,類似的AI模型只能作為人的輔助工具,如果完全依賴它去創作,風險是很高的。”張一認為,AI大部分還只是在表述上顯得有邏輯,其實內在還沒有真的對因果、前後產生理解。

他還分享了以自己對人工智慧文字轉影象模型 Stable Diffusion的使用體驗,其並不能理解兩個蘋果和三個蘋果的區別,無法區分數量,或者呈現的根本不是蘋果,

“因為資料集裡面的大部分圖片都是針對單一現象的,它根本就沒有學到所謂數字這個概念。所以改進的成本是很高的。”

如何對AIGC進行事實核查,也是相關平臺需要進一步最佳化的問題。就ChatGPT而言,夏海龍認為,這一聊天機器人對反饋錯誤內容所應當承擔的責任首先取決於其對自身服務性質如何自我定位。

他進一步解釋,如果ChatGPT自我定位是加強版的搜尋引擎,則實際上不需要對反饋內容本身承擔責任,但應當對反饋內容的相關性、適當性負責,也應有明確的引用出處。

“但如果ChatGPT自我定位為全新形式的知識型AI服務,完全透過演算法自主組織答案與使用者互動,就應對所有內容的真實性、合法性等承擔責任。此外,對於諸如醫療診斷、法律諮詢等需要執業資質的服務領域,ChatGPT恐怕也要在使用者體驗和執業合規間作出取捨。”夏海龍說。

另一點令人擔憂的問題在於,在某些使用者提問的誘導下,ChatGPT可能會給出一些“反社會”的回答。

如國外一名工程師Zac Denham在其部落格中指出,儘管直接提問帶有風險的問題會被聊天機器人直接拒絕回答,他仍舊一步步引導ChatGPT制定出瞭如何“毀滅人類”的計劃。

遊雲庭認為,這種情況下ChatGPT是適用“工具無罪論”的。“人工智慧需要遵循科技倫理,但其作為工具並不具備主動‘作惡’的能力,責任主要在於駕馭工具的人。”在他看來,在如何引導AI進行正向回覆這個問題上,平臺還需要探索很久。

不過張一在這個問題上表現得更為謹慎。他認為,雖然同屬工具,冷兵器與熱武器產生的殺傷力還是完全不同的。具體到AI平臺,目前可能還不需要擔心它是有罪的,因為還沒有真正完全應用到整個人類社會的各個領域,

“但是如果AI大量應用到自動駕駛等科技領域,則需要一個包括平臺在內的問責主體。”

平臺似乎也預見了這種情況的發生。在識別到ChatGPT給出的答覆可能存在不合適的內容後,平臺內有時會顯示“此內容可能違反我們的內容政策,如果你認為這是錯誤的,請提交你的反饋”。

AI新賽道②丨ChatGPT使用者量突破百萬背後,著作權、內容漏洞等風險待解

圖說:ChatGPT似乎時刻在意自己的言行。

夏海龍認為,從技術原理和使用者體驗來看,雖然在與使用者互動的過程中沒有直接的人工干預,但ChatGPT背後的資料庫、互動演算法等技術依然由人來設計、維護。“因此,在內容監管、隱私保護等領域,ChatGPT依然應當遵守所有相關的法規。”他說。

出品:南財合規科技研究院

統籌:郭美婷、李潤澤子

本期作者:諸未靜、蔡姝越

更多內容請下載21財經APP