首頁 >國際 >

天天熱門:生成式AI劃成長紅線

數(shù)據(jù)違規(guī)收集、隱私保護(hù)缺位、信息難辨真假……ChatGPT的爆火,也讓AIGC(人工智能生成內(nèi)容)陷入了流量與爭議齊飛的境地,對監(jiān)管的呼吁日漸高漲。4月11日,國家互聯(lián)網(wǎng)信息辦公室就《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱“征求意見稿”)公開征求意見,內(nèi)容的真實(shí)性、訓(xùn)練數(shù)據(jù)的安全性等備受關(guān)注的話題皆在其中。隨著AIGC領(lǐng)域首份政府文件的面世,產(chǎn)業(yè)也有望理順發(fā)展邏輯,告別野蠻生長。

防止生成虛假信息

“凌駕”于海量信息之上,結(jié)合超強(qiáng)的理解和生成能力,ChatGPT以高度“仿真”的回答驚艷了全世界。但在ChatGPT能力升級的過程中,生成的內(nèi)容開始變得真?zhèn)文獪y,治理難度隨之升級,這也成了目前以ChatGPT為代表的AIGC最為詬病的一點(diǎn)。


(資料圖片僅供參考)

對此,征求意見稿明確提出,利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確,采取措施防止生成虛假信息。根據(jù)征求意見稿,生成式人工智能是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。

數(shù)據(jù)安全是AIGC領(lǐng)域的另一個(gè)頑疾。河南澤槿律師事務(wù)所主任付建提到,人工智能掌握大量數(shù)據(jù)和信息,但并不能保證數(shù)據(jù)的絕對安全性,一旦出現(xiàn)安全漏洞,再加上技術(shù)不成熟,導(dǎo)致公共利益缺乏有效保障。由于人工智能技術(shù)的程序是開發(fā)人員編寫的,但決策是由機(jī)器做出的,如果出現(xiàn)重大失誤造成損害后果,責(zé)任誰來承擔(dān)仍存在爭議。

為此,在用于AIGC預(yù)訓(xùn)練、優(yōu)化訓(xùn)練的數(shù)據(jù)方面,征求意見稿也做出了明確的規(guī)范,例如不含有侵犯知識產(chǎn)權(quán)的內(nèi)容,數(shù)據(jù)包含個(gè)人信息的,應(yīng)當(dāng)征得個(gè)人信息主體同意或者符合法律、行政法規(guī)規(guī)定的其他情形,能夠保證數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀性、多樣性等。

在引起熱議的隱私保護(hù)方面,征求意見稿表示,提供者在提供服務(wù)過程中,對用戶的輸入信息和使用記錄承擔(dān)保護(hù)義務(wù)。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據(jù)用戶輸入信息和使用情況進(jìn)行畫像,不得向他人提供用戶輸入信息。

順暢的反饋機(jī)制是AIGC良性發(fā)展的關(guān)鍵一環(huán)。征求意見稿指出,提供者應(yīng)當(dāng)建立用戶投訴接收處理機(jī)制,及時(shí)處置個(gè)人關(guān)于更正、刪除、屏蔽其個(gè)人信息的請求;發(fā)現(xiàn)、知悉生成的文本、圖片、聲音、視頻等侵害他人肖像權(quán)、名譽(yù)權(quán)、個(gè)人隱私、商業(yè)秘密,或者不符合本辦法要求時(shí),應(yīng)當(dāng)采取措施,停止生成,防止危害持續(xù)。

而對于運(yùn)行中發(fā)現(xiàn)、用戶舉報(bào)的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過濾等措施外,應(yīng)在3個(gè)月內(nèi)通過模型優(yōu)化訓(xùn)練等方式防止再次生成。

北京卓緯律師事務(wù)所合伙人、律師孫志峰認(rèn)為,征求意見稿明確了網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、個(gè)人信息保護(hù)法以及《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等相關(guān)互聯(lián)網(wǎng)規(guī)則在AIGC領(lǐng)域的適用,有利于執(zhí)法尺度的統(tǒng)一,提升服務(wù)商和用戶對執(zhí)法預(yù)期的判斷。

“同時(shí)征求意見稿也明確了提供者有義務(wù)根據(jù)有關(guān)部門要求,提供包括訓(xùn)練數(shù)據(jù)基本情況描述、人工標(biāo)注規(guī)則及相關(guān)信息,以及基礎(chǔ)算法和技術(shù)體系等,保障用戶知情權(quán),便于日常監(jiān)管,在一定程度上可以緩解當(dāng)前用戶基于算法等技術(shù)革新的擔(dān)憂?!睂O志峰稱。

從野蠻生長到規(guī)范發(fā)展

征求意見稿出爐在一個(gè)關(guān)鍵的時(shí)期:近段時(shí)間以來,無論國外還是國內(nèi),AIGC都陷入了巨大的負(fù)面輿論旋渦。3月末,意大利個(gè)人數(shù)據(jù)保護(hù)局宣布禁止使用ChatGPT,此后,德國、加大拿、法國、愛爾蘭等也相繼釋放出類似信號。

在這之前,1000多位學(xué)界業(yè)界人士聯(lián)名呼吁叫停AI大模型研究的新聞更是刷屏網(wǎng)絡(luò),其中對于AI系統(tǒng)的擔(dān)憂主要集中在兩方面,包括AI可能失控、給人類文明帶來風(fēng)險(xiǎn),以及AI可能被惡意使用,造成錯(cuò)誤信息傳播或被用來犯罪。

于國內(nèi)而言,虛假消息的傳播也已經(jīng)開始擾亂人們的視聽。不久前,一封出自ChatGPT之手的“杭州取消限行”的消息一度盛傳。此外,AI繪畫也始終面臨著版權(quán)的爭議。

瑞萊智慧聯(lián)合創(chuàng)始人蕭子豪對北京商報(bào)記者分析稱,一方面,ChatGPT大模型成為全球化趨勢,另一方面新技術(shù)之下治理挑戰(zhàn)日益嚴(yán)重,以ChatGPT為代表的大模型傳播能力和技術(shù)能力呈現(xiàn)高度的滲透性和擴(kuò)展性,傳統(tǒng)網(wǎng)絡(luò)治理模式失效,在安全風(fēng)險(xiǎn)存在未知與不確定性的情況下,探索新治理路徑成為全球性議題。

“新技術(shù)的發(fā)展,監(jiān)管一定是落后于發(fā)展的?!笔捵雍辣硎?,相比于傳統(tǒng)互聯(lián)網(wǎng)技術(shù),對于AIGC的監(jiān)管已經(jīng)較早地被關(guān)注和提上議程。針對具體的安全問題,需要我們在發(fā)展技術(shù)的同時(shí),對于AIGC應(yīng)用邊界加以管控,采取必要的控制。

在這之前,蕭子豪就曾建議政策層面建立起對ChatGPT等AI生成內(nèi)容的管理法規(guī),對利用AI生成和傳播不實(shí)不良內(nèi)容進(jìn)行規(guī)避,同時(shí)加強(qiáng)治理工具的開發(fā),通過研發(fā)技術(shù)手段來識別AI生成內(nèi)容,這不管對于內(nèi)容檢測還是作品確權(quán),都是重要前提。

商務(wù)部研究院電商所副研究員洪勇評價(jià)稱,征求意見稿為AIGC產(chǎn)業(yè)提供了一套明確的法規(guī)框架,有助于規(guī)范整個(gè)產(chǎn)業(yè)的健康發(fā)展,提升行業(yè)標(biāo)準(zhǔn)。例如征求意見稿強(qiáng)調(diào)了對個(gè)人信息和隱私的保護(hù),規(guī)定了對于涉及個(gè)人信息的處理和保護(hù)的要求,有助于提升用戶對AIGC產(chǎn)業(yè)的信任。

關(guān)鍵詞:

責(zé)任編輯:Rex_12

推薦閱讀