□ 關(guān)偉杰
摘要:以ChatGPT為代表的生成式人工智能引發(fā)的虛假信息泛濫,加強(qiáng)網(wǎng)絡(luò)信息內(nèi)容治理成為大勢所趨,通過“發(fā)展導(dǎo)向型”立法采取有效可行舉措鼓勵生成式人工智能創(chuàng)新發(fā)展,加強(qiáng)內(nèi)容審核已成為生成式人工智能信息內(nèi)容平臺的剛性需求,需要進(jìn)行價值考量與制度取舍,嵌入人工智能造成歧視、“風(fēng)險積聚效應(yīng)”造成市場秩序混亂和責(zé)任配置不明晰等現(xiàn)實問題不斷涌現(xiàn)。有鑒于生成式人工智能的類通用屬性,實現(xiàn)促進(jìn)與限制禁止相統(tǒng)一,運(yùn)用“信息規(guī)制”手段,一是引入第三方主體的評估審核,二是建立網(wǎng)絡(luò)信息分類分級制度,三是創(chuàng)建多責(zé)任主體的內(nèi)容監(jiān)管機(jī)制。
關(guān)鍵詞:生成式人工智能;制度安排;信息治理
一、問題的提出
信息革命的迅猛發(fā)展,人工智能的重要性不言而喻。由于算法運(yùn)用、計算能力和數(shù)據(jù)成本等問題,人工智能的不同發(fā)展階段受到不同程度的影響,而隨著上述問題的解決,人工智能的研究和應(yīng)用又開啟了新階段。2022年底,ChatGPT“橫空出世”,再次讓全球?qū)W者的目光關(guān)注到了生成式人工智能,隨著網(wǎng)絡(luò)空間的虛假信息泛濫、隱私侵權(quán)不斷、數(shù)據(jù)安全形勢嚴(yán)峻,人工智能的潛在威脅受到關(guān)注,在特殊的時代背景下,各界要求加強(qiáng)網(wǎng)絡(luò)信息內(nèi)容治理的呼聲也愈加高漲,有學(xué)者提出“通過頂層設(shè)計推進(jìn)基礎(chǔ)性人工智能立法”,也有學(xué)者提出了“治理型監(jiān)管范式”。有學(xué)者指出,“生成式人工智能大模型正在成為人類信息內(nèi)容生產(chǎn)與傳播的集合體。”意味著大語言模型在人類日常生活中的應(yīng)用潛能不斷增強(qiáng),但由于技術(shù)本身存在的局限性,個人信息泄露、商業(yè)秘密泄露、數(shù)據(jù)安全風(fēng)險、算法歧視等應(yīng)用風(fēng)險也層出不窮,劣質(zhì)信息泛濫和通用性倫理風(fēng)險帶來的新問題新挑戰(zhàn)急需解決。國家在努力嘗試打造并健全網(wǎng)絡(luò)綜合治理體系,營造清朗的網(wǎng)絡(luò)空間。中華人民共和國國家互聯(lián)網(wǎng)信息辦公室在2019年通過了《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》,強(qiáng)調(diào)多主體共同參與網(wǎng)絡(luò)信息內(nèi)容的同時,對算法推薦、深度偽造、流量造假、網(wǎng)絡(luò)暴力等熱點問題進(jìn)行回應(yīng),又于2022年修訂了《互聯(lián)網(wǎng)跟帖評論服務(wù)管理規(guī)定》,對互聯(lián)網(wǎng)行使言論自由進(jìn)行跟帖和評論進(jìn)行了一定的規(guī)制,2023年7月公布的《生成式人工智能服務(wù)管理暫行辦法》初衷是預(yù)防和解決技術(shù)風(fēng)險,更多為人工智能技術(shù)治理規(guī)則體系化進(jìn)行制度積累,堅持發(fā)展和安全并重,通過有效可行舉措鼓勵生成式人工智能創(chuàng)新發(fā)展,充分體現(xiàn)了“發(fā)展導(dǎo)向型”立法趨勢。
面對國家日趨嚴(yán)格的監(jiān)管要求,加強(qiáng)內(nèi)容審核已成為生成式人工智能信息內(nèi)容平臺的剛性需求。為降低審核成本,提高審核質(zhì)量和審核效率,以中小型平臺為典型代表的信息內(nèi)容平臺,紛紛選擇內(nèi)容審核外包服務(wù)。隨著內(nèi)容審核需求的日益增長,傳媒企業(yè)和人工智能技術(shù)公司憑借其先進(jìn)的智能內(nèi)容審核技術(shù)和優(yōu)質(zhì)審核資源紛紛進(jìn)入內(nèi)容審核外包服務(wù)行業(yè),作為第三方內(nèi)容審核機(jī)構(gòu)提供內(nèi)容審核服務(wù)?;凇凹夹g(shù)—制度”的內(nèi)在關(guān)聯(lián)性,強(qiáng)調(diào)機(jī)制構(gòu)建對促進(jìn)人工智能發(fā)展的重要性,圍繞效率與公平、自由與秩序、安全與發(fā)展等重要價值,以經(jīng)濟(jì)法價值衡量與引領(lǐng)標(biāo)準(zhǔn),不斷完善生成式人工智能的政策和法律體系,促進(jìn)構(gòu)建審核機(jī)制以優(yōu)化信息治理環(huán)境。為此,本文認(rèn)為,預(yù)訓(xùn)練大模型帶動了人工智能技術(shù)的迭代發(fā)展,生成式人工智能的信息內(nèi)容治理是多方聚焦商討之重要話題,以往制度過于倚重技術(shù)政策,法律供給明顯不足,以預(yù)訓(xùn)練大模型作為技術(shù)基礎(chǔ),從服務(wù)提供者入手進(jìn)行審核治理無法直接有效生成式人工智能技術(shù)提供者,原有算法治理框架無法對生成式人工智能預(yù)訓(xùn)練大模型海量的訓(xùn)練數(shù)據(jù)和數(shù)以千億的參數(shù)設(shè)置進(jìn)行有效審核,未來應(yīng)當(dāng)明確人工智能信息內(nèi)容的審核重點,盡快建構(gòu)并完善機(jī)制,從而為人工智能技術(shù)和產(chǎn)業(yè)的發(fā)展提供更大空間。
二、生成式人工智能信息內(nèi)容審核的必要性:價值考量與制度取舍
工業(yè)革命的多次變革推動著社會與經(jīng)濟(jì)發(fā)展,與此同時帶來大量的社會問題。有學(xué)者提出“第四次工業(yè)革命”是以人工智能技術(shù)和產(chǎn)業(yè)發(fā)展為核心內(nèi)容,對諸多領(lǐng)域會產(chǎn)生影響。人工智能的飛速發(fā)展會大大提升經(jīng)濟(jì)效率,減少對資源的消耗,與此同時,對網(wǎng)絡(luò)信息內(nèi)容治理的安全性、公平性和秩序性產(chǎn)生負(fù)面影響,現(xiàn)行網(wǎng)絡(luò)信息內(nèi)容治理模式不足以解決網(wǎng)絡(luò)虛擬空間的表達(dá)失序的現(xiàn)實問題。只有妥善把握其帶來的變革和價值沖突,并在制度安排上作出有效取舍,才能通過“適度”的法律規(guī)制,促進(jìn)網(wǎng)絡(luò)空間的健康發(fā)展。
其實,網(wǎng)絡(luò)信息內(nèi)容治理需要制度規(guī)制,與國家對效率、公平、自由、安全、秩序等重要價值的考量直接相關(guān)。效率價值是經(jīng)濟(jì)法規(guī)制必須關(guān)注的,由于經(jīng)濟(jì)法是直擊個體利益與社會公益之間的矛盾,延伸至效率與公平之間的矛盾,因而效率價值被關(guān)注是應(yīng)有之義?;诮?jīng)濟(jì)法自身的特殊性,信息治理不能只考量效率價值,還要衡量公平價值,人類智能與人工智能、自然人與機(jī)器人的“差異性”影響秩序價值,導(dǎo)致網(wǎng)絡(luò)空間秩序混亂等問題。例如,在人工智能大語言模型生成內(nèi)容之時,個人信息被廣泛收集,用戶提問時,敏感個人信息暴露的可能性極大。但根據(jù)OpenAI的說明,用戶只能刪除個人賬戶,無法刪除敏感個人信息。3月20日,ChatGPT的開源庫曾出現(xiàn)漏洞,使部分用戶能看到其他用戶的對話內(nèi)容、姓名、電子郵件地址甚至支付信息。OpenAI不得不在官網(wǎng)提示:“請不要在談話中分享任何敏感信息?!庇绕湫枰谌街黧w審核網(wǎng)絡(luò)信息內(nèi)容。
傳統(tǒng)的自由至上主義者極力主張“最小政府”和“個人利益”的嚴(yán)格保障,此觀點表明我們可以在尊重他人同等權(quán)利的條件下,利用身邊的事物行使自己的權(quán)利,但現(xiàn)實若按照這個邏輯,“公地悲劇”極易被引發(fā)。功利主義者為維護(hù)公共利益成為網(wǎng)絡(luò)空間內(nèi)容治理目標(biāo)提供理論依據(jù),邊沁認(rèn)為,“道德的最高原則就是使幸福最大化,使快樂總體上超過痛苦。如果當(dāng)事人是一個社會,那么功利原理就是關(guān)注社會的幸福,而政府的職責(zé)就是通過避苦求樂來增進(jìn)社會的幸福,并以最大多數(shù)的最大幸福為判斷是非的標(biāo)準(zhǔn)。”整體而言,功利主義的觀點有利于限定網(wǎng)絡(luò)空間表達(dá)權(quán)的邊界,但這類目的性思維模式對于人性本身的“內(nèi)在自由”,亦或是“免除他人強(qiáng)制”能否給予合理解釋還未可知,因此個人利益和公共利益之間的沖突在網(wǎng)絡(luò)空間里面顯得尤為突出。
此外,人工智能可能引發(fā)“安全”等多種問題,規(guī)制之時要特別關(guān)注安全價值,例如,生成式人工智能對網(wǎng)絡(luò)信息內(nèi)容之“用益”,可能會形成針對特定個體的虛假圖片、文本、音視頻信息等使某人“實施”實際生活當(dāng)中沒有實施的行為,對自然人的名譽(yù)權(quán)保護(hù)帶來極大的挑戰(zhàn)。伴隨著越來越多的產(chǎn)業(yè)接入人工智能生成式語言模式,信息泄露的風(fēng)險日益突出,給企業(yè)、行業(yè)帶來巨大的經(jīng)濟(jì)和聲譽(yù)損失?!凹词故瞧涡曰蛄闼榈男畔ⅲ斯ぶ悄芤部赡軐⑵渑c其他數(shù)據(jù)結(jié)合在一起進(jìn)行挖掘分析,從而推斷出關(guān)系國家安全、公共安全、個人和組織合法權(quán)益的情報信息?!鄙踔劣袑W(xué)者提出,通過利用生成式人工智能創(chuàng)建多態(tài)惡意軟件,繞過OpenAI建立的內(nèi)容策略過濾器,創(chuàng)建惡意代碼,由此犯罪分子發(fā)現(xiàn)專業(yè)知識門檻降低、用戶目的模糊等產(chǎn)業(yè)漏洞,利用人工智能進(jìn)行網(wǎng)絡(luò)犯罪。
另外,基于人工智能對網(wǎng)絡(luò)空間秩序的影響,第三方主體對于秩序價值應(yīng)當(dāng)予以專門性規(guī)制,如前所述,效率與秩序價值是互為彼此,密不可分的,目前我國網(wǎng)絡(luò)信息內(nèi)容治理采用的是“政府—平臺—用戶”基本治理架構(gòu),平臺會利用人工智能通過算法對海量信息進(jìn)行處理,其中算法無法對信息內(nèi)容的真實性進(jìn)行核實,加之算法固有的社會偏見和價值判斷,看似準(zhǔn)確本質(zhì)錯誤的“毒性”內(nèi)容易生成,長此以往進(jìn)行傳播將對產(chǎn)業(yè)興衰、人員流動、市場調(diào)整會有極大影響,應(yīng)對失當(dāng),就可能危及經(jīng)濟(jì)秩序,甚至引發(fā)社會動蕩。
可見,在人工智能產(chǎn)業(yè)不斷創(chuàng)新發(fā)展的背景下,需要考慮人工智能對技術(shù)創(chuàng)新、產(chǎn)業(yè)發(fā)展對網(wǎng)絡(luò)信息內(nèi)容的影響,并基于相關(guān)價值考量予以。制度回應(yīng),其中兼具其他各類價值基礎(chǔ)上作出的經(jīng)濟(jì)法基礎(chǔ)制度顯得尤為重要。如美國曾推出《國家人工智能研究與發(fā)展戰(zhàn)略計劃》以支持人工智能產(chǎn)業(yè)的發(fā)展。這些產(chǎn)業(yè)發(fā)展規(guī)劃或計劃,涉及產(chǎn)業(yè)法或計劃法上的安排,包含支持人工智能產(chǎn)業(yè)發(fā)展的多種經(jīng)濟(jì)法手段,集中體現(xiàn)了經(jīng)濟(jì)法作為“發(fā)展促進(jìn)法”的功能。
自2015年國務(wù)院出臺的《關(guān)于積極推動“互聯(lián)網(wǎng)+”行動的指導(dǎo)意見》首次提出“培育發(fā)展人工智能產(chǎn)業(yè)”以來,2016年通過的《“十三五”規(guī)劃綱要》和《“十三五”國家科技創(chuàng)新規(guī)劃》就先后強(qiáng)調(diào)要“發(fā)展人工智能產(chǎn)業(yè)”,2017年國務(wù)院不僅首次將人工智能寫入政府工作報告,還正式公布了《新一代人工智能發(fā)展規(guī)劃》。截至2024年4月26日,根據(jù)十四屆全國人大常委會第九次會議公布的“現(xiàn)行有效法律目錄”,按法律部門分類,個人信息保護(hù)法、數(shù)據(jù)安全法、網(wǎng)絡(luò)安全法、電子商務(wù)法都屬于經(jīng)濟(jì)法部門,立法目的是基于“經(jīng)濟(jì)規(guī)制”與“信息規(guī)制”的協(xié)調(diào)一致性,以解決數(shù)據(jù)信息治理問題。早在2001年我國確立七大部門法之前,學(xué)界已提出信息法可以成為一個獨立部門法。有學(xué)者提出,伴隨我國信息立法大量出臺,基于業(yè)已形成的信息法治體系和相關(guān)部門法理論,完全可以將信息法確立為一個獨立部門法。
如前所述,經(jīng)濟(jì)社會的信息化是國家現(xiàn)代化的重要組成部分,基于“經(jīng)濟(jì)規(guī)制”與“信息規(guī)制”之間的差異性,需要進(jìn)一步關(guān)注信息保護(hù)促進(jìn)與限制禁止相統(tǒng)一之“規(guī)制性”特點。
產(chǎn)業(yè)的轉(zhuǎn)業(yè)升級促進(jìn)網(wǎng)絡(luò)化、數(shù)字化、智能化,經(jīng)濟(jì)社會的高質(zhì)量發(fā)展將直接推動現(xiàn)代化經(jīng)濟(jì)體系的構(gòu)建和國家整體現(xiàn)代化目標(biāo)的實現(xiàn),在生成式人工智能的發(fā)展前景中,以ChatGPT為代表的人工智能技術(shù)產(chǎn)生了不少新型社會治理風(fēng)險,新型科技發(fā)展當(dāng)中的利弊得失理應(yīng)得到權(quán)衡,一方面,人工智能生成內(nèi)容(AI-Generated Content,AIGC)作為互聯(lián)網(wǎng)時代下的新型創(chuàng)作模式,將全面驅(qū)動內(nèi)容生產(chǎn)方式的變革,“平臺”模式下的科研范式可以承載海量計算,在認(rèn)知層面的人機(jī)對齊操作逐漸成為必然,為促進(jìn)產(chǎn)業(yè)賦能提升垂直行業(yè)應(yīng)用效率;另一方面,對其引發(fā)的數(shù)據(jù)濫用和數(shù)據(jù)泄露等各類風(fēng)險或問題,通過不斷完善技術(shù)和制度,避免“技術(shù)規(guī)制法”的邏輯錯誤,化解技術(shù)風(fēng)險、經(jīng)濟(jì)風(fēng)險、社會風(fēng)險和法律風(fēng)險,構(gòu)建兼具保障相關(guān)主體的數(shù)據(jù)安全和數(shù)據(jù)權(quán)益,更兼顧安全與發(fā)展價值,促進(jìn)數(shù)據(jù)要素的有效配置和數(shù)據(jù)資源的開發(fā)利用的好制度。
基于前述分析,可以對生成式人工智能信息內(nèi)容審核機(jī)制構(gòu)建進(jìn)行適當(dāng)取舍:一方面,對于生成式人工智能帶給網(wǎng)絡(luò)信息內(nèi)容的積極效應(yīng),應(yīng)當(dāng)鼓勵與促進(jìn),基于來自市場的有效信息,發(fā)現(xiàn)技術(shù)運(yùn)行中存在的諸多問題,提升治理的精準(zhǔn)度和規(guī)制的針對性,從而更好地處理政府與平臺、平臺與用戶的關(guān)系;另一方面,基于網(wǎng)絡(luò)信息內(nèi)容安全風(fēng)險的復(fù)雜性、對抗性和隱蔽性不斷加強(qiáng)和現(xiàn)行治理需求不斷提高之內(nèi)生張力擴(kuò)充的背景下,審核機(jī)制構(gòu)建是一種全新的社會制度,時刻關(guān)注和強(qiáng)調(diào)以“內(nèi)容聚集樣貌”為中心的網(wǎng)絡(luò)信息內(nèi)容生態(tài)安全才是未來治理之重點。
三、生成式人工智能信息內(nèi)容審核機(jī)制構(gòu)建的現(xiàn)實困境
技術(shù)創(chuàng)新是國家興盛之根本,堅持法治、科學(xué)監(jiān)管是國家興盛的制度保障,20世紀(jì)后半期以來,“管理型”立法與“治理型”立法的分野日益明確?;诰W(wǎng)絡(luò)治理信息內(nèi)容治理的政府規(guī)制和平臺規(guī)制等傳統(tǒng)視角研究,創(chuàng)新性提出吸納外部社會力量等主體參與治理,實踐當(dāng)中也已出現(xiàn)信息內(nèi)容安全風(fēng)險審核評估業(yè)務(wù)外包給專業(yè)內(nèi)容風(fēng)控機(jī)構(gòu)等新趨勢,但目前人工智能依舊屬于產(chǎn)業(yè)發(fā)展初期,傳統(tǒng)的法律體系是否適應(yīng)以待考察,加之可參考之域外成熟經(jīng)驗不足,網(wǎng)絡(luò)空間信息內(nèi)容審核機(jī)制之實踐適用困境需要厘清,以探尋立足于兼顧促進(jìn)產(chǎn)業(yè)健康發(fā)展和防范未來風(fēng)險的雙重目標(biāo)之下的完善路徑。
(一)嵌入人工智能造成歧視
生成式人工智能的業(yè)態(tài)可以分成三個層次,以基礎(chǔ)模型為核心技術(shù)支持,企業(yè)通過平臺進(jìn)行深度學(xué)習(xí)進(jìn)行垂直細(xì)分領(lǐng)域形成個性化定制,從而進(jìn)入專業(yè)模型層,最終服務(wù)應(yīng)用于搜索引擎、智能生成答案直接與用戶對接。近年來,人工智能對信息進(jìn)行歧視和偏見之于社會經(jīng)濟(jì)秩序的影響愈加明顯,加之在國家治理變遷和互聯(lián)網(wǎng)技術(shù)賦權(quán)背景下形成的新型平臺權(quán)力逐漸加擴(kuò)張,相關(guān)信息內(nèi)容審核與規(guī)制機(jī)制建構(gòu)迫在眉睫。
基于法律法規(guī)政策對平臺權(quán)力進(jìn)行粗糙式賦權(quán)現(xiàn)狀,目前平臺權(quán)力定性和法律地位尚不明晰,網(wǎng)絡(luò)平臺對信息內(nèi)容的判定和處置標(biāo)準(zhǔn)上具有較強(qiáng)的主觀性,在自我規(guī)制時的自由裁量空間相對較大,網(wǎng)絡(luò)平臺審核信息的權(quán)力實施邊界或限度問題的關(guān)注較為不足。例如網(wǎng)絡(luò)安全法第四十七條之規(guī)定不僅體現(xiàn)了法律賦權(quán)的特點,而且深層次反映了法律對網(wǎng)絡(luò)平臺“加強(qiáng)管理”的要求,網(wǎng)絡(luò)平臺的權(quán)力擴(kuò)張具有一定的“法定化”色彩。
國務(wù)院《新一代人工智能發(fā)展規(guī)劃》以及國家網(wǎng)信辦、國家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部與廣電總局《生成式人工智能服務(wù)管理暫行辦法》、全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會《生成式人工智能服務(wù)安全基本要求》等政策文件正在積極治理人工智能對信息的歧視問題。
生成式人工智能歧視的動力源泉主要來自于兩方面,一方面是無意識狀態(tài)下的內(nèi)隱偏見歧視,另一方面是基于結(jié)構(gòu)不平等造就的系統(tǒng)性歧視。首先,社會生活存在兩種通道表達(dá),一種是直覺的啟發(fā)式通道,另一種是理性的分析式通道,前者并行處理且反應(yīng)加工速度較快,心理資源利用不足,反應(yīng)自動化,通常只能意識到其加工結(jié)果,加工過程往往被忽視;后者串行加工,加工速度慢,大量利用心理資源,圍繞規(guī)則進(jìn)行可以意識加工過程和結(jié)果。經(jīng)由分析系統(tǒng)表達(dá)的外顯偏見和經(jīng)由啟發(fā)式系統(tǒng)表達(dá)的內(nèi)隱偏見,展現(xiàn)了偏見的表達(dá)通道,外顯偏見可以通過法律責(zé)任加以規(guī)制,內(nèi)隱偏見則不然,往往是人類無意識下參與有意識社會信息加工處理活動,生成式人工智能系統(tǒng)的技術(shù)支持者之內(nèi)隱偏見對信息機(jī)制危害尤甚,事實一旦啟發(fā)式系統(tǒng)與分析系統(tǒng)作用方向不同,往往啟發(fā)式系統(tǒng)會獲勝,表達(dá)順序更加占據(jù)主導(dǎo)地位;其次,權(quán)力關(guān)系和資源配置情況決定了歧視的影響力。分配格局重塑了社會權(quán)力劃分,同時歧視與制度的結(jié)合實現(xiàn)了系統(tǒng)化歧視的質(zhì)變,個人信息具備較強(qiáng)的識別性,數(shù)據(jù)的匿名化極難真正實現(xiàn),生成式人工智能背后蘊(yùn)藏著日益增長的算力,獲取個人信息的成本不斷下降,顯著提升歧視發(fā)生的可能性。此外,“人工智能的目標(biāo)需求需要被轉(zhuǎn)譯為具備相關(guān)性的特征,但模型性能與特征數(shù)量之間并無線性關(guān)系?!钡卣鬟x擇既可以由算法完成,也可以由人類積累的經(jīng)驗法則,此時需要回歸歧視的本質(zhì)問題去考量。
(二)“風(fēng)險積聚效應(yīng)”造成市場秩序混亂
人工智能產(chǎn)業(yè)易形成“風(fēng)險積聚效應(yīng)”,有學(xué)者提出,人工智能之潛在風(fēng)險廣泛且積聚,涉及人類基本權(quán)益的生命與健康、尊嚴(yán)與隱私、安全與自由,不確定性極強(qiáng),系統(tǒng)性風(fēng)險不容忽視。經(jīng)濟(jì)法的信息規(guī)制和內(nèi)容審核機(jī)制明顯難以應(yīng)對以ChatGPT為代表的生成式人工智能在模型參數(shù)、模型輸入和模型輸出方面展現(xiàn)出大模型、多模態(tài)和涌現(xiàn)性等多方面全方位的挑戰(zhàn),信息用益行為失控,風(fēng)險管理明顯不足,運(yùn)用相同思路必然難以解決傳統(tǒng)和新興信息問題,監(jiān)管的滯后性和信息審核的實效性難以適配當(dāng)下的管理需求。
2018年OpenAI推出首代預(yù)訓(xùn)練模型(Generative Pretrained Transformer, GPT)作為知識表示及存儲基礎(chǔ),技術(shù)特性包含超大規(guī)模參數(shù),基于互聯(lián)網(wǎng)可用數(shù)據(jù)訓(xùn)練而形成的深度學(xué)習(xí)模型。GPT-1的參數(shù)量為1.17億,GPT-2的參數(shù)量為15億,GPT-3包含了1750億超大規(guī)模參數(shù),而GPT-4的參數(shù)量雖未披露,但多項預(yù)測顯示將達(dá)100萬億。2019年公布的《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》(以下簡稱《規(guī)定》)第十二條要求建立體現(xiàn)主流價值導(dǎo)向的推薦模型,建立健全人工干預(yù)機(jī)制,建立用戶自主選擇機(jī)制,進(jìn)一步回應(yīng)了算法推薦的相關(guān)問題,明確了算法推薦與人工編輯相結(jié)合的信息分發(fā)方式?!吧疃葌卧欤―eepfake)作為深度學(xué)習(xí)(deep learning)和偽造(fake)組合而成的新生事物,是隨著生成對抗網(wǎng)絡(luò)(GAN)等深度學(xué)習(xí)技術(shù)的發(fā)展而出現(xiàn)的?!鄙疃葌卧鞛榫W(wǎng)絡(luò)平臺治理帶來極大挑戰(zhàn),虛假信息的發(fā)布將擾亂市場秩序,為此《規(guī)定》第二十三條為“深度偽造”技術(shù)劃定了應(yīng)用邊界,為行業(yè)應(yīng)用場景健康發(fā)展探索帶來更多可能性。2022年開始施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》證明了我國人工智能治理進(jìn)入到系統(tǒng)化層面,尤其是算法可解釋性具有特殊要求。科技的飛速迭代導(dǎo)致模型的參數(shù)量爆炸增長,可能導(dǎo)致算法可解釋性的降低,意味著算法透明之義務(wù)履行存在較大困難。同年頒布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,意在強(qiáng)調(diào)通過技術(shù)手段對深度合成算法進(jìn)行管理,對產(chǎn)業(yè)現(xiàn)狀提出責(zé)任區(qū)隔的分層治理模式,仍無法有效應(yīng)對大模型的治理挑戰(zhàn)。有報告曾指出,ChatGPT依托的Transformer是深度學(xué)習(xí)模型,其在前饋神經(jīng)網(wǎng)絡(luò)中引入自注意力機(jī)制(self-attentionmechanism),是經(jīng)典的黑箱算法,技術(shù)層面存在對黑箱算法解釋的局限性,局部補(bǔ)充解釋工具無法真正作為替代性解釋方法,可信度一直存在爭議?;谏墒饺斯ぶ悄茉诘讓蛹夹g(shù)架構(gòu)的復(fù)雜度無法與模型解釋性需求相匹配,致使其在風(fēng)險集中領(lǐng)域部署時會帶來嚴(yán)重的安全威脅,在風(fēng)險相對分散的場景運(yùn)行過程中也可能面臨模型驗證困難和模型診斷缺陷等治理風(fēng)險,對消費(fèi)者數(shù)據(jù)權(quán)利的侵犯是人工智能產(chǎn)業(yè)和消費(fèi)者需要亟待解決的重要問題,在多方主體進(jìn)行信息審核之時既要保障經(jīng)營者對信息獲取的合法權(quán)利,也要時刻關(guān)注不得侵害對消費(fèi)者信息權(quán)利之義務(wù)履行效果,以算法透明為內(nèi)核構(gòu)建而成的算法治理體系即將發(fā)生革命性變化之同時,未來之人工智能信息內(nèi)容的審核機(jī)制應(yīng)當(dāng)對人工智能的“風(fēng)險積聚效應(yīng)”作出制度回應(yīng)。
(三)責(zé)任配置不明晰
伴隨著平臺經(jīng)濟(jì)興起建立的網(wǎng)絡(luò)框架,平臺一直以來是作為網(wǎng)絡(luò)空間的核心規(guī)制對象,2021年《互聯(lián)網(wǎng)平臺落實主體責(zé)任指南(征求意見稿)》明確平臺企業(yè)落實算法主體責(zé)任,責(zé)任配置問題逐漸成為數(shù)字經(jīng)濟(jì)治理的又一核心議題。有學(xué)者提出我國目前的監(jiān)管體系是以服務(wù)提供者為核心抓手,按照“技術(shù)支持者—服務(wù)提供者—內(nèi)容生產(chǎn)者”三類主體分別設(shè)置法律責(zé)任的規(guī)制體系。人工智能已經(jīng)從計算智能、感知智能過渡到認(rèn)知智能階段。生成式人工智能分層業(yè)態(tài)突破明顯,區(qū)分于原有的法律主體界分,基于前述“基礎(chǔ)模型—專業(yè)模型—服務(wù)應(yīng)用”的三個層次劃分,技術(shù)變遷突破了法律的底層設(shè)定。生成式人工智能的底層通用能力直接打破了網(wǎng)絡(luò)服務(wù)提供者和信息內(nèi)容生產(chǎn)者二者互相獨立的局面,將技術(shù)支持者與前兩者相互融合,三者功能的融為一體意味著大模型既可以為企業(yè)進(jìn)行技術(shù)服務(wù),又可以通過智慧問答獲取內(nèi)容生成,法律定位和責(zé)任劃分逐漸趨于模糊。
根據(jù)目前的立法和司法實踐,平臺已經(jīng)需要承擔(dān)公權(quán)力機(jī)關(guān)(如法院、政府)讓渡的網(wǎng)絡(luò)信息內(nèi)容進(jìn)行審核做出法律判斷的責(zé)任。如若平臺強(qiáng)化審核力度,將存在權(quán)力擴(kuò)張和濫用之嫌疑,但平臺疏于相關(guān)信息審核,怠于履行法律義務(wù)將承擔(dān)相應(yīng)的法律責(zé)任,但生成式人工智能的復(fù)雜性之處在于背后算法的分散化、多元化、場景化特性。其一,與傳統(tǒng)型人工智能不同,在生成式人工智能的設(shè)計和運(yùn)行環(huán)節(jié),“算法主體責(zé)任”相關(guān)主體并不明晰,難以厘定承擔(dān)主體的認(rèn)定邊界,大模型風(fēng)險來源多源化可能存在于研發(fā)者,還可能存在于部署者甚至終端用戶,即便位于產(chǎn)業(yè)鏈前端的研發(fā)者可以控制基礎(chǔ)設(shè)施和對模型進(jìn)行訓(xùn)練、修改和測試,但是被控制的大模型作為下游生態(tài)環(huán)境的重要組成部分,部署者直接面對信息的接受者即終端用戶,存在讓大模型變成高風(fēng)險的極大隱患,終端用戶與模型互動的過程中提供的數(shù)據(jù)和信息可能會間接影響,甚至“黑化”大模型;其二,生成式人工智能出現(xiàn)類人化特性愈加明顯,主體優(yōu)勢愈發(fā)明晰,平臺作為信息審核主體承擔(dān)安全責(zé)任,能否通過技術(shù)對算法進(jìn)行安全審查符合法律規(guī)定之義務(wù)。伴隨算法趨向于主體屬性,生成式人工智能具備心智理論(theory of mind)能力已經(jīng)不足為奇,按照人類的意圖、信念和情緒進(jìn)行推斷生成內(nèi)容。如前者所述,人類現(xiàn)在所處的社會已經(jīng)處于人工智能的認(rèn)知智能階段,ChatGPT以數(shù)據(jù)理解、信息認(rèn)知和決策判斷為核心能力,多種模態(tài)共生于載體之中,迅速逼近強(qiáng)人工智能,未來的挑戰(zhàn)在于能否通過穿透算法本身要求開發(fā)者承擔(dān)法律責(zé)任,審核方的責(zé)任如何適配和建構(gòu)都是一大難題。
一直以來,在審核機(jī)制的建構(gòu)上,審核方的主管過錯是探討責(zé)任的主要焦點,首先,從安全利益的角度考量,世界各國包括我國在內(nèi)的國家安全利益的信息內(nèi)容一定是審核方進(jìn)行信息審核的重中之重,應(yīng)當(dāng)進(jìn)行強(qiáng)審核和過濾級別;其次,在信息生成過程中,生成式人工智能應(yīng)當(dāng)是信息的直接制造者與發(fā)布者,仍要考慮的是“設(shè)計階段的數(shù)據(jù)預(yù)處理、部署階段的數(shù)據(jù)提示與應(yīng)用階段的用戶行為等影響”,責(zé)任主體難以分清;最后,生成式人工智能的技術(shù)與應(yīng)用不斷發(fā)展與擴(kuò)張,平臺與場景的單一化,傳統(tǒng)的“告知—刪除”等注意義務(wù)無法解決侵權(quán)情形之多樣化特征。
四、探尋生成式人工智能信息內(nèi)容審核機(jī)制的完善之道
在經(jīng)濟(jì)法和信息法共同發(fā)展的大背景下,信息法更加關(guān)注保護(hù)促進(jìn)與限制禁止相統(tǒng)一,運(yùn)用的是“信息規(guī)制”手段。隨著數(shù)字經(jīng)濟(jì)的飛速發(fā)展,國家在既往的經(jīng)濟(jì)規(guī)制基礎(chǔ)上,還要加強(qiáng)信息規(guī)制,實施有效的信息監(jiān)管??苫凇靶畔徍酥黧w—信息內(nèi)容類型—信息監(jiān)管體制”的內(nèi)在聯(lián)系,著重從發(fā)展法學(xué)的視角,解析生成式人工智能信息內(nèi)容審核機(jī)制的完善之道以及貫穿其中的信息法治邏輯。
(一)引入第三方主體的評估審核
平臺參與信息內(nèi)容治理的內(nèi)生動機(jī)是保障平臺的合法性地位及其流量利益, 關(guān)注的是用戶數(shù)量及內(nèi)容流量所帶來的市場地位與價值,強(qiáng)調(diào)通過流量增大而產(chǎn) 生更多的直接與間接經(jīng)濟(jì)利益,其目標(biāo)是保證平臺安全以及平臺成本減少與利益 最大化。
因動機(jī)與目標(biāo)上的耦合,在多數(shù)情況下平臺與用戶可以被看作是利益共同體。因此,在政府和平臺與用戶組成的利益共同體之外,尋找或建立一個身份更加獨立、利益更加超脫、能力更加專業(yè)的第三方主體參與網(wǎng)絡(luò)信息內(nèi)容治理就有重要意義。此前,借鑒艾博特(Abbott)與辛德爾(Snidal)提出的企業(yè)、政府與非政府組織(也包括個人)“治理三角”模型,在“政府—平臺—用戶”結(jié)構(gòu)基礎(chǔ)上通過改進(jìn)并形成“政府—平臺—第三方專業(yè)機(jī)構(gòu)”的網(wǎng)絡(luò)信息內(nèi)容治理三角模型。在政府和平臺與用戶利益共同體之外,將具有一定結(jié)構(gòu)化組織形式,并具備獨立開展網(wǎng)絡(luò)信息內(nèi)容治理活動資質(zhì)的專業(yè)機(jī)構(gòu)看作是第三方主體。這個 第三方主體參與治理的功能不僅是對不良或違規(guī)信息內(nèi)容的審查,而且包括對平 臺和網(wǎng)絡(luò)整體信息內(nèi)容生態(tài)狀況評估等,以有效推動網(wǎng)絡(luò)信息內(nèi)容生態(tài)從被動式、運(yùn)動式治理向主動建構(gòu)、常態(tài)化治理的轉(zhuǎn)型。
強(qiáng)化第三方主體的審核評估功能,一方面是使其能部分代替政府行使規(guī)制行政權(quán)力,以確保網(wǎng)絡(luò)平臺對信息內(nèi)容生態(tài)安全規(guī)制的遵從;另一方面這也是平臺出于控制規(guī)制成本和減少安全風(fēng)險可能引發(fā)利益受損的內(nèi)在需求。這表明,選擇 第三方主體參與信息內(nèi)容治理是政府和平臺的一種雙向奔赴行為。由于政府和平 臺對信息內(nèi)容安全及其風(fēng)險的評價標(biāo)準(zhǔn)與理解水平存在差異,這就使第三方主體 如何科學(xué)平衡兩者的利益十分困難。第三方主體如何客觀中立地進(jìn)行信息內(nèi)容安 全審核評估,不僅會影響政府對其資質(zhì)的認(rèn)定,而且會影響平臺對它的選擇以及 因此產(chǎn)生的市場機(jī)會。第三方主體在功能定位上主要是代表政府還是平臺,或者是兩者兼而有之就是一個不能回避的問題。
如果第三方主體主要是代表政府,則其開展的主要就是規(guī)制性審核評估;如 果第三方主體是受平臺委托,則其開展的主要就是咨詢性審核評估。如果兩者兼 而有之,則第三方主體如何在審核評估中平衡作為規(guī)制方的政府與作為被規(guī)制方 的平臺兩者之間關(guān)系和利益就顯得特別重要。如果第三方主體是代表政府及其有 關(guān)主管部門對平臺開展規(guī)制性審核評估,此時則需要確認(rèn)政府與第三方主體之間 的關(guān)系。為了使第三方主體開展審核評估依法有據(jù)和具有針對性,可以由政府監(jiān)管部門根據(jù)用戶舉報情況、專項治理行動案例及其代表性等,將網(wǎng)絡(luò)平臺的信息內(nèi)容安全狀態(tài)劃分為不同等級,并委托第三方主體對安全風(fēng)險等級較高的平臺重點開展強(qiáng)制性審核評估。
因此,在規(guī)制性或咨詢性審核評估中,第三方主體不僅要向政府及其主管部門負(fù)責(zé),而且也要向平臺負(fù)責(zé),并因平臺的傳導(dǎo)而向用戶負(fù)責(zé)。雖然目前引入第三方主體監(jiān)管機(jī)制和多方參與的協(xié)調(diào)調(diào)解機(jī)制等舉措已經(jīng)進(jìn)入了政策視野,但第三方主體在參與平臺公私協(xié)同治理中,如何界定其與公權(quán)力主體(政府)和私 權(quán)力主體(平臺本身)的權(quán)力性質(zhì)以及其交叉范圍,明確審核評估時以何種方式獲得政府公權(quán)力主體的規(guī)制授權(quán),又以何種方式介入平臺自治等均是值得進(jìn)一步討論的問題。
(二)建立網(wǎng)絡(luò)信息分類分級制度
建立網(wǎng)絡(luò)信息分類分級分類分級細(xì)則,是實現(xiàn)生成式人工智能網(wǎng)絡(luò)信息內(nèi)容常態(tài)化監(jiān)管的重要任務(wù)。
不同平臺對應(yīng)不同的信息類別,應(yīng)當(dāng)針對不同類型的平臺進(jìn)行差別化治理,并適時建立以風(fēng)險為基礎(chǔ)的內(nèi)容分級制度。理應(yīng)根據(jù)不同類型之平臺實行差別化的制度設(shè)計,“根據(jù)數(shù)字內(nèi)容平臺介入內(nèi)容生產(chǎn)和傳播的程度以及平臺業(yè)務(wù)模式可以劃分為三種類型平臺中介:純中介服務(wù)平臺、托管服務(wù)平臺和在線平臺?!奔冎薪榉?wù)平臺對應(yīng)的是網(wǎng)絡(luò)服務(wù)基礎(chǔ)設(shè)施提供商,可以適用避風(fēng)港原則,對信息處理承擔(dān)較輕的義務(wù);托管服務(wù)平臺一般是指網(wǎng)絡(luò)托管,對侵犯個人隱私等中風(fēng)險內(nèi)容進(jìn)行篩查即可;在平臺經(jīng)濟(jì)飛速發(fā)展的當(dāng)下,在線平臺可以細(xì)分為電子商務(wù)平臺、內(nèi)容分發(fā)平臺和分享經(jīng)濟(jì)平臺等類型,是實現(xiàn)利潤最大化的重要商業(yè)策略工具。由于該信息直接涉及經(jīng)濟(jì)發(fā)展與商業(yè)利益,在線平臺對于虛假信息等低風(fēng)險信息理應(yīng)在技術(shù)經(jīng)濟(jì)合理范圍內(nèi)主動篩選過濾。如若以數(shù)字內(nèi)容的規(guī)模為標(biāo)準(zhǔn),可以分為超大數(shù)字平臺和小平臺(新進(jìn)入平臺),由于超大數(shù)字平臺具有大量用戶基礎(chǔ)和強(qiáng)網(wǎng)絡(luò)效應(yīng),風(fēng)險程度較高的信息具有更廣的傳播面,造成的社會危害更大,且其具有更強(qiáng)的技術(shù)能力,能夠以更低的成本治理非法有害內(nèi)容。最后由于缺乏明確統(tǒng)一的判定標(biāo)準(zhǔn)而具有非常高的事前審查成本和審查失誤風(fēng)險,第三方主體重點任務(wù)是履行通知—刪除義務(wù),在受害人或用戶舉報的情況下及時核實,如果屬實應(yīng)及時刪除,并有效履行反通知程序。
(三)創(chuàng)建多責(zé)任主體的內(nèi)容監(jiān)管機(jī)制
眾所周知,依靠企業(yè)作為單獨內(nèi)部主體進(jìn)行信息審核過濾在事實層面很難形成有效攔截。需要根據(jù)生成式人工智能的應(yīng)用場景,設(shè)計一個可以覆蓋上述多種類型信息生成渠道、區(qū)分多責(zé)任主體的內(nèi)容監(jiān)管機(jī)制。
一方面,鑒于生成式人工智能涉及領(lǐng)域廣闊,其復(fù)雜性、不確定性導(dǎo)致的各類風(fēng)險積聚,對于個體和國家不同維度體系的安全均存在一定威脅,因而應(yīng)加強(qiáng)風(fēng)險評估,建立安全監(jiān)管體系和安全監(jiān)測預(yù)警機(jī)制。首先需要建立一套覆蓋模型機(jī)理、訓(xùn)練和運(yùn)行模式的統(tǒng)一信息內(nèi)容審核標(biāo)準(zhǔn),在算法倫理原理和算法、網(wǎng)絡(luò)安全規(guī)范的框架下,對于明確損害國家和社會安全利益的信息內(nèi)容列為“最高等級”,在數(shù)據(jù)訓(xùn)練前期應(yīng)當(dāng)將信息剔除;如若存在有關(guān)社會安全等模糊不確定性信息的,將其列為“一般等級”,值得注意的是,此類信息在反饋給模型后也有可能轉(zhuǎn)化成最高等級,因此應(yīng)在數(shù)據(jù)策劃、數(shù)據(jù)提示和數(shù)據(jù)微調(diào)階段分別設(shè)立“技術(shù)+人工”定期巡查機(jī)制,以對相關(guān)內(nèi)容及時進(jìn)行清洗和過濾。
另一方面,建立一個由上到下的“標(biāo)識+公開”的內(nèi)容監(jiān)管機(jī)制,實現(xiàn)對平臺的內(nèi)容進(jìn)行全面審核,從技術(shù)開發(fā)層面,企業(yè)應(yīng)當(dāng)積極研發(fā)難以被后期用戶刪除或者更改的水印標(biāo)識,對生成內(nèi)容進(jìn)行標(biāo)記,對內(nèi)容進(jìn)行全流程跟蹤并進(jìn)行責(zé)任認(rèn)定,保障信息安全,矯正信息偏在,體現(xiàn)實質(zhì)公平和信息正義。從推進(jìn)信息化建設(shè),促進(jìn)數(shù)字經(jīng)濟(jì)與信息社會協(xié)調(diào)發(fā)展的角度,提倡利用人工智能審核人工智能生成內(nèi)容的理念正在得到普遍認(rèn)可,基于未來人工智能公開透明的法律框架下,綜合應(yīng)當(dāng)生成場景、實質(zhì)內(nèi)容、因違反引發(fā)的后果嚴(yán)重性等情形設(shè)置義務(wù)違反懲罰救濟(jì)機(jī)制,阻攔有害內(nèi)容生成或者傳播。
(作者系中國社會科學(xué)院大學(xué)法學(xué)院2022級碩士研究生)
編輯:武卓立