【環(huán)球時(shí)報(bào)綜合報(bào)道】4月11日,中國國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》(簡稱《征求意見稿》),該辦法是國內(nèi)生成式人工智能(AI)領(lǐng)域的首份監(jiān)管文件。同一天,美國也傳來考慮出臺措施監(jiān)管人工智能的消息。據(jù)《華爾街日報(bào)》11日報(bào)道,美國商務(wù)部周二就人工智能問責(zé)措施正式公開征求意見,包括有潛在風(fēng)險(xiǎn)的新人工智能模型在發(fā)布前是否應(yīng)該通過認(rèn)證程序。此外,英國、意大利、加拿大等國也先后宣布收緊人工智能的監(jiān)管政策。
關(guān)上“潘多拉魔盒”?
《征求意見稿》共包含21條舉措,強(qiáng)調(diào)了安全評估和算法備案的前提性和必要性。《征求意見稿》明確指出,辦法中所稱生成式人工智能,是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù),并對生成式人工智能服務(wù)提出了多方面要求,包括“提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求”“提供者應(yīng)當(dāng)對生成式人工智能產(chǎn)品的預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練數(shù)據(jù)來源的合法性負(fù)責(zé)”“要求用戶提供真實(shí)身份信息”等。
多位專家在12日接受《環(huán)球時(shí)報(bào)》記者采訪時(shí)都表示,《征求意見稿》的發(fā)布,主要是明確了生成式人工智能先規(guī)范再發(fā)展的總基調(diào),目的是完善生成式人工智能的應(yīng)用環(huán)境,為生成式AI在國內(nèi)應(yīng)用創(chuàng)造條件。
近段時(shí)間,生成式人工智能技術(shù)掀起新一輪生產(chǎn)力革新的科技浪潮,全球各大科技公司爭相搶灘布局。然而,人工智能熱度蔓延的同時(shí),由其產(chǎn)生的概念亂象及安全問題也引發(fā)諸多擔(dān)憂。
美國法學(xué)教授特利4月3日在《今日美國》發(fā)文稱,自己收到一封郵件,被告知有人在測試生成式人工智能時(shí)發(fā)現(xiàn)他莫名出現(xiàn)在了該工具給出的性騷擾學(xué)生者名單中;路透社5日報(bào)道稱,澳大利亞赫本郡郡長胡德被生成式人工智能誤列為澳大利亞儲備銀行子公司一樁外國賄賂丑聞的“犯案者”……許多人表示,人工智能打開了“潘多拉魔盒”,呼吁政府出臺監(jiān)管措施。
除了中國、美國外,英國、意大利、加拿大、法國、西班牙等國家也都開始行動(dòng)起來。據(jù)英國《金融時(shí)報(bào)》報(bào)道,英國政府于3月發(fā)布了第一份人工智能白皮書,概述了人工智能治理的5項(xiàng)原則。此外,據(jù)路透社報(bào)道,3月底,意大利政府宣布禁止使用一款人工智能聊天機(jī)器人,并限制相關(guān)公司處理意大利用戶信息數(shù)據(jù),同時(shí)對其隱私安全問題立案調(diào)查。加拿大廣播公司4月4日報(bào)道稱,加拿大聯(lián)邦隱私監(jiān)管機(jī)構(gòu)宣布,已對美國人工智能研究公司OpenAI展開調(diào)查,因該公司涉嫌“未經(jīng)同意收集、使用和披露個(gè)人信息”。
與多國紛紛出手加強(qiáng)AI監(jiān)管形成對比的是,印度暫時(shí)沒有計(jì)劃監(jiān)管人工智能的使用和發(fā)展。據(jù)美國??怂剐侣劸W(wǎng)報(bào)道,印度電子和信息技術(shù)部上周發(fā)布一份聲明,詳細(xì)闡述了印度對人工智能發(fā)展及安全方面的立場,表示相信人工智能會(huì)拉動(dòng)印度商業(yè)的增長,政府正在政策和基礎(chǔ)設(shè)施方面采取一切必要措施,以發(fā)展該國的人工智能行業(yè)。
科技巨頭也在商討AI開發(fā)使用標(biāo)準(zhǔn)
通常情況下,政府收緊監(jiān)管意味著大型科技企業(yè)自由發(fā)展的空間和力量被遏制,會(huì)招致行業(yè)的反對,然而這一次,許多科技公司卻發(fā)聲呼吁政府制定監(jiān)管規(guī)定,甚至在一些企業(yè)內(nèi)部,限制使用人工智能的規(guī)定已經(jīng)實(shí)施。
據(jù)韓國《國民日報(bào)》報(bào)道,包括三星、SK海力士在內(nèi)的多家韓企正在采取限制使用相關(guān)人工智能工具的措施,嚴(yán)防員工泄密。LG電子公司也要求員工進(jìn)行“人工智能及數(shù)據(jù)使用”方面的培訓(xùn)。在日本,出于對信息泄露的擔(dān)憂,包括軟銀、日立、富士通和三井住友銀行在內(nèi)的日本公司已開始限制在業(yè)務(wù)運(yùn)營中使用交互式人工智能服務(wù)。
一些人工智能企業(yè)也主動(dòng)尋求制定新的監(jiān)管規(guī)定。據(jù)《華爾街日報(bào)》11日報(bào)道,“我們認(rèn)為,強(qiáng)大的人工智能系統(tǒng)應(yīng)該接受嚴(yán)格的安全評估”,OpenAI在最近的一篇文章中表示:“需要監(jiān)管來確保安全評估得到采用,我們積極與各國政府接觸,探討可能采取的最佳監(jiān)管形式。”
美國??怂剐侣劸W(wǎng)報(bào)道稱,12日,微軟、谷歌、蘋果、英偉達(dá)等人工智能開發(fā)領(lǐng)域的頭部企業(yè)將商議制定AI技術(shù)開發(fā)使用標(biāo)準(zhǔn),討論如何以最負(fù)責(zé)任的態(tài)度繼續(xù)開發(fā)人工智能。
“要在發(fā)展與安全之間找到平衡點(diǎn)”
其實(shí),人工智能監(jiān)管的“火苗”并不是最近才被點(diǎn)燃。早在2021年4月,歐盟委員會(huì)就提出了《人工智能法案》條例草案,這被視為歐盟在人工智能以及更廣泛的歐盟數(shù)字戰(zhàn)略領(lǐng)域的里程碑事件。只不過提案的推進(jìn)并沒有想象中順利,歐洲議會(huì)議員們尚未就提案基本原則達(dá)成一致。
美國國家標(biāo)準(zhǔn)與技術(shù)研究院也于今年1月發(fā)布了《人工智能風(fēng)險(xiǎn)管理框架》(AI RMF)1.0版,旨在指導(dǎo)機(jī)構(gòu)組織在開發(fā)和部署人工智能系統(tǒng)時(shí)降低安全風(fēng)險(xiǎn),避免產(chǎn)生偏見和其他負(fù)面后果,提高人工智能可信度。
清華大學(xué)新聞與傳播學(xué)院教授、清華大學(xué)元宇宙文化實(shí)驗(yàn)室主任沈陽12日接受《環(huán)球時(shí)報(bào)》記者采訪時(shí)表示,各國都高度重視人工智能的監(jiān)管問題,因?yàn)槿斯ぶ悄芗夹g(shù)存在著較大的不確定性和不可控性。目前有必要將人工智能的行業(yè)發(fā)展引導(dǎo)到安全的、正確的道路上,防止重大黑天鵝事件出現(xiàn),造成不可挽回的損失。
對于未來人工智能方面的監(jiān)管前景,浙江大學(xué)國際聯(lián)合商學(xué)院數(shù)字經(jīng)濟(jì)與金融創(chuàng)新研究中心聯(lián)席主任、研究員盤和林告訴《環(huán)球時(shí)報(bào)》記者,在立法方面,中國目前走在前列,《征求意見稿》內(nèi)容還將在實(shí)踐過程中繼續(xù)完善。他同時(shí)也表示,未來監(jiān)管要在生成式AI發(fā)展和安全有序推進(jìn)之間找到平衡點(diǎn),一是要給予人工智能生成內(nèi)容適當(dāng)包容;二是繼續(xù)細(xì)化規(guī)則,這會(huì)讓企業(yè)行為的確定性大大增強(qiáng),更有利于生成式AI產(chǎn)業(yè)的發(fā)展。
相關(guān)稿件