ChatGPT與GPT已走進(jìn)大眾的視線,我國(guó)眾多的互聯(lián)網(wǎng)大廠也正火速切入這一賽道。不可否認(rèn),GPT等人工智能應(yīng)用極大提升了生產(chǎn)力、便利了大眾的生活,但其也是一柄雙刃劍,不久前甚至還出現(xiàn)誘導(dǎo)人類自殺的事件,由此產(chǎn)生的科技倫理問題也引發(fā)了全球的關(guān)注與擔(dān)憂。
(資料圖)
令人欣慰的是,我國(guó)已開始籌謀提前化解人工智能的科技倫理風(fēng)險(xiǎn)。日前,科技部公開征求對(duì)《科技倫理審查辦法(試行)》(以下簡(jiǎn)稱《辦法》)的意見,其中明確提出,從事人工智能的單位,研究?jī)?nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會(huì),部分算法模型、自動(dòng)化決策系統(tǒng)需要專家復(fù)核。分析認(rèn)為,雖然倫理審查短期內(nèi)會(huì)影響產(chǎn)品商業(yè)化的效率,但從長(zhǎng)期來看,有助于人工智能行業(yè)可持續(xù)的健康發(fā)展,讓我國(guó)在這一領(lǐng)域形成可持續(xù)的全球競(jìng)爭(zhēng)力。
設(shè)立審查委員會(huì)
科技部本次發(fā)布的《辦法》提出,從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動(dòng)的單位,研究?jī)?nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會(huì)。
此外,在《辦法》的附錄中還提到了“需要開展專家復(fù)核的科技活動(dòng)清單”,其中包括:具有輿論社會(huì)動(dòng)員能力和社會(huì)意識(shí)引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā);面向存在安全、人身健康風(fēng)險(xiǎn)等場(chǎng)景的具有高度自主能力的自動(dòng)化決策系統(tǒng)的研發(fā)。
“ChatGPT與GPT等應(yīng)用越來越廣,也與我們的生活越來越近,我們?cè)诳萍紓惱矸矫嬉灿龅搅饲八从械奶魬?zhàn)?!闭憬砉ご髮W(xué)數(shù)據(jù)法治研究院副院長(zhǎng)郭兵認(rèn)為,《辦法》比較大的亮點(diǎn)在于,進(jìn)一步對(duì)更廣泛的科技倫理審查問題做了規(guī)定,并引入了專家復(fù)核制度。
事實(shí)上,在ChatGPT誕生之前,我國(guó)就已經(jīng)出臺(tái)與人工智能倫理的相關(guān)規(guī)范和標(biāo)準(zhǔn)。2021年9月25日,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《新一代人工智能倫理規(guī)范》,旨在將倫理融入人工智能全生命周期,為從事人工智能相關(guān)活動(dòng)的自然人、法人和其他相關(guān)機(jī)構(gòu)等提供倫理指引,促進(jìn)人工智能健康發(fā)展。
“目前我國(guó)科技倫理的審查,也正由傳統(tǒng)的完全自律逐漸演變成為法定的義務(wù)?!惫榻B說,在2021年11月1日起施行的《個(gè)人信息保護(hù)法》中,已經(jīng)明確規(guī)定了科技平臺(tái)有義務(wù)設(shè)置獨(dú)立的第三方機(jī)構(gòu)對(duì)其個(gè)人信息的處理活動(dòng)進(jìn)行監(jiān)督;其第五十八條則規(guī)定,提供重要互聯(lián)網(wǎng)平臺(tái)服務(wù)、用戶數(shù)量巨大、業(yè)務(wù)類型復(fù)雜的個(gè)人信息處理者,應(yīng)當(dāng)按照國(guó)家規(guī)定建立健全個(gè)人信息保護(hù)合規(guī)制度體系,成立主要由外部成員組成的獨(dú)立機(jī)構(gòu)對(duì)個(gè)人信息保護(hù)情況進(jìn)行監(jiān)督。
“但《個(gè)人信息保護(hù)法》并未要求企業(yè)邀請(qǐng)何種外部人員,而科技領(lǐng)域、AI領(lǐng)域?qū)I(yè)性較強(qiáng),《辦法》通過法定的專家參與機(jī)制的設(shè)計(jì),能夠更好地保障人工智能倫理審查的效果?!惫M(jìn)一步解釋說。
倫理問題浮現(xiàn)
人工智能應(yīng)用技術(shù)會(huì)帶來哪些科技倫理問題?在中國(guó)數(shù)實(shí)融合50人論壇智庫專家、商務(wù)部研究院電子商務(wù)研究所副研究員洪勇看來,人工智能可能面臨對(duì)自然資源的消耗、產(chǎn)品更新?lián)Q代產(chǎn)生的各種垃圾等環(huán)境倫理問題,隱私泄露、歧視、失業(yè)、安全風(fēng)險(xiǎn)等個(gè)人倫理問題,以及推理能力、可解釋性等技術(shù)倫理問題。
“從個(gè)人的角度來看,人工智能的應(yīng)用還可能會(huì)侵犯人格尊嚴(yán)。比如算法所引發(fā)的歧視風(fēng)險(xiǎn),還包括公民的隱私和個(gè)人信息泄露的風(fēng)險(xiǎn)。人工智能也可能引發(fā)勞動(dòng)者權(quán)益方面的爭(zhēng)議,引發(fā)勞動(dòng)者的‘飯碗焦慮’?!惫f,人工智能甚至還可能危及個(gè)人的生命與健康。
正如郭兵說述,雖然ChatGPT與GPT誕生不久,但已有值得引起關(guān)注的案例。
有媒體援引比利時(shí)媒體La Libre 3月28日的報(bào)道,一名比利時(shí)婦女聲稱,她的丈夫在與 AI 聊天機(jī)器人Chai交談了六周后自殺身亡,背后主要原因是Chai鼓勵(lì)用戶自殺。據(jù)悉,聊天機(jī)器人Chai是基于GPT-4替代方案研發(fā)的產(chǎn)品。
在此次事件中,Chai在法律層面將承擔(dān)怎樣的法律責(zé)任、又該如何追責(zé)?“在這方面目前仍備受爭(zhēng)議?!焙幽蠞砷嚷蓭熓聞?wù)所主任付建認(rèn)為,人工智能技術(shù)的程序是開發(fā)人員編寫的,但決策是由機(jī)器做出的,如果出現(xiàn)重大失誤造成損害后果,責(zé)任誰來承擔(dān)仍存在爭(zhēng)議,同時(shí),人工智能能否對(duì)自己做出的決策進(jìn)行道德判斷也是一個(gè)值得商討的問題。
全球千余專家發(fā)聲
也許因?yàn)樯硖幦斯ぶ悄茴I(lǐng)域的最前沿,最為了解GPT的運(yùn)行邏輯以及“涌現(xiàn)”的概率,在Chai事件發(fā)生后的第二天,全球范圍內(nèi)眾多專家疾速發(fā)聲。
3月29日,包括馬斯克、圖靈獎(jiǎng)得主約書亞·本吉奧、蘋果聯(lián)合創(chuàng)始人斯蒂夫·沃茲尼亞克在內(nèi)的1000多名人工智能專家和行業(yè)高管聯(lián)名簽署了一份公開信,呼吁暫停開發(fā)比GPT-4更強(qiáng)大的AI系統(tǒng)至少6個(gè)月,稱其“對(duì)社會(huì)和人類構(gòu)成潛在風(fēng)險(xiǎn)”。
事實(shí)上,人工智能存在的倫理問題風(fēng)險(xiǎn)也引起了聯(lián)合國(guó)教科文組織的注意。近日,聯(lián)合國(guó)教科文組織發(fā)表聲明,呼吁各國(guó)政府盡快實(shí)施該組織通過的首份人工智能倫理問題全球性協(xié)議——《人工智能倫理問題建議書》。
在最新發(fā)布的聲明中,聯(lián)合國(guó)教科文組織對(duì)科技創(chuàng)新引發(fā)的倫理問題表示關(guān)切,尤其是歧視、性別不平等問題,此外還有打擊虛假信息、隱私權(quán)、個(gè)人數(shù)據(jù)保護(hù)等。行業(yè)自律顯然不足以避免這些倫理危害,因此,《人工智能倫理問題建議書》提供了工具,以確保人工智能的發(fā)展遵守法律,避免造成危害,并在危害發(fā)生時(shí)啟動(dòng)問責(zé)和補(bǔ)救機(jī)制。
“從社會(huì)和經(jīng)濟(jì)層面來看,企業(yè)一般利益至上,如果各家科技巨頭通過研發(fā)的大型語言模型,利用‘算法暗箱’,謀一時(shí)之利,就有可能有損整個(gè)社會(huì)利益和國(guó)家利益,給國(guó)家安全帶來風(fēng)險(xiǎn)。”郭兵補(bǔ)充說。
短痛與長(zhǎng)痛的選擇
“《辦法》進(jìn)一步明確政府、科研機(jī)構(gòu)、科技企業(yè)等責(zé)任主體,建立倫理高風(fēng)險(xiǎn)科技活動(dòng)的清單制度,有效避免人工智能技術(shù)被不當(dāng)濫用,推動(dòng)人工智能技術(shù)健康可持續(xù)發(fā)展?!敝袊?guó)電子商務(wù)專家服務(wù)中心副主任、知名互聯(lián)網(wǎng)專家郭濤認(rèn)為。
但不得不說,此次的《辦法》實(shí)施后將對(duì)行業(yè)產(chǎn)生重大影響。
“對(duì)人工智能可能帶來的問題提前加以防范,進(jìn)行倫理審查會(huì)對(duì)行業(yè)產(chǎn)生重大影響。此前更強(qiáng)調(diào)數(shù)字技術(shù)、人工智能技術(shù)在效率上帶來的變革,而忽略技術(shù)對(duì)社會(huì)、對(duì)個(gè)人產(chǎn)生的倫理問題。隨著科技倫理越來越得到重視,將會(huì)對(duì)人工智能在醫(yī)療、教育、無人駕駛等領(lǐng)域的應(yīng)用產(chǎn)生影響。”北京市社科院研究員、中國(guó)人民大學(xué)智能社會(huì)治理研究中心研究員王鵬對(duì)北京商報(bào)記者表示。
郭兵就《辦法》給人工智能行業(yè)帶來變化進(jìn)行了具體化的解讀,“隨著人工智能倫理審查越來越嚴(yán),會(huì)增加企業(yè)的成本,尤其引入了專家復(fù)審要求后,會(huì)影響產(chǎn)品或技術(shù)市場(chǎng)化的效率,研發(fā)出來的某個(gè)算法模型不能立馬投入商業(yè)化的應(yīng)用。”
但郭兵認(rèn)為,另一方面,審查的嚴(yán)格將有利于人工智能產(chǎn)業(yè)的可持續(xù)發(fā)展。“如果企業(yè)研發(fā)的產(chǎn)品投入市場(chǎng)化之后產(chǎn)生倫理方面的巨大爭(zhēng)議,面臨巨大法律風(fēng)險(xiǎn),被直接叫停,帶來的不利影響會(huì)比人工智能倫理審查帶來的影響要更大,從長(zhǎng)期來看,加強(qiáng)倫理審查有利于人工智能企業(yè)的可持續(xù)健康發(fā)展。”
關(guān)鍵詞:
責(zé)任編輯:Rex_06