首頁 >國際 >

新華社聚焦ChatGPT:變革與風險

美國人工智能公司OpenAI的大語言模型ChatGPT在推出約兩個月后,1月已達到1億月活躍用戶,成為歷史上增長最快的消費者應用程序。相關專家預計,ChatGPT不僅是新一代聊天機器人的突破,也將為信息產(chǎn)業(yè)帶來巨大變革,但由此帶來的學術造假、技術濫用、輿論安全等風險亦不容忽視。

新一代操作系統(tǒng)平臺的雛形

多語言撰寫充滿想象力的詩歌,編寫可運行的程序,快速生成論文摘要,自動制作數(shù)據(jù)表格,糾正文章中的語法和表達錯誤,把一周大事寫成新聞綜述……ChatGPT不僅能理解很多人類問題和指令,流暢展開多輪對話,也在越來越多領域顯示出解決多種通用問題的能力。


(相關資料圖)

ChatGPT還輕松通過一些對人類難度較高的專業(yè)級測試:它新近通過了谷歌編碼L3級(入門級)工程師測試;分別以B和C+的成績通過了美國賓夕法尼亞大學沃頓商學院MBA的期末考試和明尼蘇達大學四門課程的研究生考試;通過了美國執(zhí)業(yè)醫(yī)師資格考試……業(yè)界形容它的誕生是人工智能時代的“iPhone時刻”,意味著人工智能迎來革命性轉折點。

“ChatGPT的成功不應僅僅被看作新一代聊天機器人的突破,而應該重視其對人工智能乃至整個信息產(chǎn)業(yè)帶來的革命?!北本┲窃慈斯ぶ悄苎芯吭涸洪L黃鐵軍接受記者專訪時說,人工智能領域的過去十年是深度學習的十年,但產(chǎn)業(yè)總體上并沒有出現(xiàn)移動互聯(lián)網(wǎng)和云計算級別的爆發(fā),“ChatGPT的出現(xiàn),具有劃時代意義,大模型+ChatGPT已形成新一代操作系統(tǒng)平臺的雛形”。

黃鐵軍說,ChatGPT在技術路徑上采用了“大數(shù)據(jù)+大算力+強算法=大模型”路線,又在“基礎大模型+指令微調(diào)”方向探索出新范式,其中基礎大模型類似大腦,指令微調(diào)是交互訓練,兩者結合實現(xiàn)逼近人類的語言智能。ChatGPT應用了“基于人類反饋的強化學習”訓練方式,用人類偏好作為獎勵信號訓練模型,促使模型越來越符合人類的認知理解模式。

“這樣的AI可幫助人類進行真實創(chuàng)造,尤其是幫助人類提高創(chuàng)造效率,比如提高獲取信息的效率或提出新穎想法,再由人解決其真實性問題。創(chuàng)造效率的提高將產(chǎn)生巨大效益和多方面影響,可以改變世界信息化格局?!敝袊茖W技術大學機器人實驗室主任陳小平對記者說。

引發(fā)新一輪人工智能科技競賽

ChatGPT的問世正在人工智能領域引發(fā)新一輪科技競賽。北京時間2月8日凌晨,微軟推出由ChatGPT支持的最新版本必應搜索引擎和Edge瀏覽器,宣布要“重塑搜索”。微軟旗下Office、Azure云服務等所有產(chǎn)品都將全線整合ChatGPT。

北京時間2月7日凌晨,谷歌也發(fā)布了基于谷歌LaMDA大模型的下一代對話AI系統(tǒng)Bard。同一天,百度官宣正在研發(fā)的大模型類項目“文心一言”,計劃在3月完成內(nèi)測,隨后對公眾開放。阿里巴巴、京東等中國企業(yè)也表示正在或計劃研發(fā)類似產(chǎn)品。

人工智能大模型領域的全球競爭已趨白熱化。黃鐵軍認為,ChatGPT未來有望演變成新一代操作系統(tǒng)平臺和生態(tài)。這種變革似移動互聯(lián)網(wǎng)從個人電腦到手機的轉化,大部分計算負荷將由大模型為核心的新一代信息基礎設施接管。這一新范式將影響從應用到基礎設施各層面,引發(fā)整個產(chǎn)業(yè)格局的巨變,大模型及其軟硬件支撐系統(tǒng)的生態(tài)之爭將成為未來十年信息產(chǎn)業(yè)焦點。

值得注意的是,ChatGPT有時會“一本正經(jīng)地胡說八道”,存在事實性錯誤、知識盲區(qū)和常識偏差等諸多問題,還面臨訓練數(shù)據(jù)來源合規(guī)性、數(shù)據(jù)使用的偏見性、生成虛假信息、版權爭議等人工智能通用風險。多家全球知名學術期刊為此更新編輯準則,包括任何大型語言模型工具都不會被接受為研究論文署名作者等。

“學術論文的署名作者須滿足至少兩個條件,其一是在論文工作中做出‘實質(zhì)性貢獻’,其二是能承擔相關的責任。目前這兩個條件ChatGPT(以及其他AI系統(tǒng))都不滿足?!标愋∑秸f。

ChatGPT也有應用在輿論信息戰(zhàn)方面的潛力。加拿大麥吉爾大學研究團隊曾使用ChatGPT前代模型GPT-2閱讀加拿大廣播公司播發(fā)的約5000篇有關新冠疫情的文章,然后要求其生成關于這場危機的“反事實新聞”。連OpenAI也警告使用ChatGPT的用戶,它“可能偶爾會生成不正確的信息”,“產(chǎn)生有害指令或有偏見的內(nèi)容”。

“針對這些問題,需要我們在發(fā)展技術的同時,對于ChatGPT應用邊界加以管控,建立起對人工智能生成內(nèi)容的管理法規(guī),對利用人工智能生成和傳播不實不良內(nèi)容進行規(guī)避。同時加強治理工具的開發(fā),通過技術手段識別人工智能生成內(nèi)容。這對于內(nèi)容檢測和作品確權,都是重要前提?!北本┤鹑R智慧科技有限公司副總裁唐家渝說。

關鍵詞: 人工智能

責任編輯:Rex_13