首頁 >國際 >

環(huán)球關(guān)注:科技倫理審查提速 AI“變壞”設(shè)防

ChatGPT與GPT已走進大眾的視線,我國眾多的互聯(lián)網(wǎng)大廠也正火速切入這一賽道。不可否認,GPT等人工智能應(yīng)用極大提升了生產(chǎn)力、便利了大眾的生活,但其也是一柄雙刃劍,不久前甚至還出現(xiàn)誘導(dǎo)人類自殺的事件,由此產(chǎn)生的科技倫理問題也引發(fā)了全球的關(guān)注與擔憂。


(資料圖)

令人欣慰的是,我國已開始籌謀提前化解人工智能的科技倫理風險。日前,科技部公開征求對《科技倫理審查辦法(試行)》(以下簡稱《辦法》)的意見,其中明確提出,從事人工智能的單位,研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會,部分算法模型、自動化決策系統(tǒng)需要專家復(fù)核。分析認為,雖然倫理審查短期內(nèi)會影響產(chǎn)品商業(yè)化的效率,但從長期來看,有助于人工智能行業(yè)可持續(xù)的健康發(fā)展,讓我國在這一領(lǐng)域形成可持續(xù)的全球競爭力。

設(shè)立審查委員會

科技部本次發(fā)布的《辦法》提出,從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動的單位,研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會。

此外,在《辦法》的附錄中還提到了“需要開展專家復(fù)核的科技活動清單”,其中包括:具有輿論社會動員能力和社會意識引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā);面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統(tǒng)的研發(fā)。

“ChatGPT與GPT等應(yīng)用越來越廣,也與我們的生活越來越近,我們在科技倫理方面也遇到了前所未有的挑戰(zhàn)?!闭憬砉ご髮W(xué)數(shù)據(jù)法治研究院副院長郭兵認為,《辦法》比較大的亮點在于,進一步對更廣泛的科技倫理審查問題做了規(guī)定,并引入了專家復(fù)核制度。

事實上,在ChatGPT誕生之前,我國就已經(jīng)出臺與人工智能倫理的相關(guān)規(guī)范和標準。2021年9月25日,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,旨在將倫理融入人工智能全生命周期,為從事人工智能相關(guān)活動的自然人、法人和其他相關(guān)機構(gòu)等提供倫理指引,促進人工智能健康發(fā)展。

“目前我國科技倫理的審查,也正由傳統(tǒng)的完全自律逐漸演變成為法定的義務(wù)?!惫榻B說,在2021年11月1日起施行的《個人信息保護法》中,已經(jīng)明確規(guī)定了科技平臺有義務(wù)設(shè)置獨立的第三方機構(gòu)對其個人信息的處理活動進行監(jiān)督;其第五十八條則規(guī)定,提供重要互聯(lián)網(wǎng)平臺服務(wù)、用戶數(shù)量巨大、業(yè)務(wù)類型復(fù)雜的個人信息處理者,應(yīng)當按照國家規(guī)定建立健全個人信息保護合規(guī)制度體系,成立主要由外部成員組成的獨立機構(gòu)對個人信息保護情況進行監(jiān)督。

“但《個人信息保護法》并未要求企業(yè)邀請何種外部人員,而科技領(lǐng)域、AI領(lǐng)域?qū)I(yè)性較強,《辦法》通過法定的專家參與機制的設(shè)計,能夠更好地保障人工智能倫理審查的效果?!惫M一步解釋說。

倫理問題浮現(xiàn)

人工智能應(yīng)用技術(shù)會帶來哪些科技倫理問題?在中國數(shù)實融合50人論壇智庫專家、商務(wù)部研究院電子商務(wù)研究所副研究員洪勇看來,人工智能可能面臨對自然資源的消耗、產(chǎn)品更新?lián)Q代產(chǎn)生的各種垃圾等環(huán)境倫理問題,隱私泄露、歧視、失業(yè)、安全風險等個人倫理問題,以及推理能力、可解釋性等技術(shù)倫理問題。

“從個人的角度來看,人工智能的應(yīng)用還可能會侵犯人格尊嚴。比如算法所引發(fā)的歧視風險,還包括公民的隱私和個人信息泄露的風險。人工智能也可能引發(fā)勞動者權(quán)益方面的爭議,引發(fā)勞動者的‘飯碗焦慮’?!惫f,人工智能甚至還可能危及個人的生命與健康。

正如郭兵說述,雖然ChatGPT與GPT誕生不久,但已有值得引起關(guān)注的案例。

有媒體援引比利時媒體La Libre 3月28日的報道,一名比利時婦女聲稱,她的丈夫在與 AI 聊天機器人Chai交談了六周后自殺身亡,背后主要原因是Chai鼓勵用戶自殺。據(jù)悉,聊天機器人Chai是基于GPT-4替代方案研發(fā)的產(chǎn)品。

在此次事件中,Chai在法律層面將承擔怎樣的法律責任、又該如何追責?“在這方面目前仍備受爭議?!焙幽蠞砷嚷蓭熓聞?wù)所主任付建認為,人工智能技術(shù)的程序是開發(fā)人員編寫的,但決策是由機器做出的,如果出現(xiàn)重大失誤造成損害后果,責任誰來承擔仍存在爭議,同時,人工智能能否對自己做出的決策進行道德判斷也是一個值得商討的問題。

全球千余專家發(fā)聲

也許因為身處人工智能領(lǐng)域的最前沿,最為了解GPT的運行邏輯以及“涌現(xiàn)”的概率,在Chai事件發(fā)生后的第二天,全球范圍內(nèi)眾多專家疾速發(fā)聲。

3月29日,包括馬斯克、圖靈獎得主約書亞·本吉奧、蘋果聯(lián)合創(chuàng)始人斯蒂夫·沃茲尼亞克在內(nèi)的1000多名人工智能專家和行業(yè)高管聯(lián)名簽署了一份公開信,呼吁暫停開發(fā)比GPT-4更強大的AI系統(tǒng)至少6個月,稱其“對社會和人類構(gòu)成潛在風險”。

事實上,人工智能存在的倫理問題風險也引起了聯(lián)合國教科文組織的注意。近日,聯(lián)合國教科文組織發(fā)表聲明,呼吁各國政府盡快實施該組織通過的首份人工智能倫理問題全球性協(xié)議——《人工智能倫理問題建議書》。

在最新發(fā)布的聲明中,聯(lián)合國教科文組織對科技創(chuàng)新引發(fā)的倫理問題表示關(guān)切,尤其是歧視、性別不平等問題,此外還有打擊虛假信息、隱私權(quán)、個人數(shù)據(jù)保護等。行業(yè)自律顯然不足以避免這些倫理危害,因此,《人工智能倫理問題建議書》提供了工具,以確保人工智能的發(fā)展遵守法律,避免造成危害,并在危害發(fā)生時啟動問責和補救機制。

“從社會和經(jīng)濟層面來看,企業(yè)一般利益至上,如果各家科技巨頭通過研發(fā)的大型語言模型,利用‘算法暗箱’,謀一時之利,就有可能有損整個社會利益和國家利益,給國家安全帶來風險?!惫a充說。

短痛與長痛的選擇

“《辦法》進一步明確政府、科研機構(gòu)、科技企業(yè)等責任主體,建立倫理高風險科技活動的清單制度,有效避免人工智能技術(shù)被不當濫用,推動人工智能技術(shù)健康可持續(xù)發(fā)展?!敝袊娮由虅?wù)專家服務(wù)中心副主任、知名互聯(lián)網(wǎng)專家郭濤認為。

但不得不說,此次的《辦法》實施后將對行業(yè)產(chǎn)生重大影響。

“對人工智能可能帶來的問題提前加以防范,進行倫理審查會對行業(yè)產(chǎn)生重大影響。此前更強調(diào)數(shù)字技術(shù)、人工智能技術(shù)在效率上帶來的變革,而忽略技術(shù)對社會、對個人產(chǎn)生的倫理問題。隨著科技倫理越來越得到重視,將會對人工智能在醫(yī)療、教育、無人駕駛等領(lǐng)域的應(yīng)用產(chǎn)生影響。”北京市社科院研究員、中國人民大學(xué)智能社會治理研究中心研究員王鵬對北京商報記者表示。

郭兵就《辦法》給人工智能行業(yè)帶來變化進行了具體化的解讀,“隨著人工智能倫理審查越來越嚴,會增加企業(yè)的成本,尤其引入了專家復(fù)審要求后,會影響產(chǎn)品或技術(shù)市場化的效率,研發(fā)出來的某個算法模型不能立馬投入商業(yè)化的應(yīng)用?!?/p>

但郭兵認為,另一方面,審查的嚴格將有利于人工智能產(chǎn)業(yè)的可持續(xù)發(fā)展?!叭绻髽I(yè)研發(fā)的產(chǎn)品投入市場化之后產(chǎn)生倫理方面的巨大爭議,面臨巨大法律風險,被直接叫停,帶來的不利影響會比人工智能倫理審查帶來的影響要更大,從長期來看,加強倫理審查有利于人工智能企業(yè)的可持續(xù)健康發(fā)展?!?

關(guān)鍵詞:

責任編輯:Rex_06

推薦閱讀