科技日?qǐng)?bào)北京5月10日電 (記者張夢(mèng)然)有些人工智能(AI)系統(tǒng)已學(xué)會(huì)了欺騙人類,即使是經(jīng)過訓(xùn)練的、“表現(xiàn)”出有用且誠(chéng)實(shí)的系統(tǒng)。10日發(fā)表在《模式》雜志上的一篇文章中,研究人員描述了欺騙性AI的風(fēng)險(xiǎn),并呼吁政府制定強(qiáng)有力的法規(guī)盡快解決這個(gè)問題。
【總編輯圈點(diǎn)】
論文第一作者、美國(guó)麻省理工學(xué)院人工智能安全研究員彼得·樸說,開發(fā)人員對(duì)導(dǎo)致AI出現(xiàn)欺騙這種不良行為的原因,還沒有很好的理解。但總的來說,AI欺騙之所以出現(xiàn),是因?yàn)榛谄垓_的策略,是在給定的AI訓(xùn)練任務(wù)中一種能得到良好反饋的方式,換句話說,欺騙可幫助AI實(shí)現(xiàn)目標(biāo)。
研究人員分析了文獻(xiàn),重點(diǎn)關(guān)注AI系統(tǒng)傳播虛假信息的方式。通過欺騙,AI系統(tǒng)地學(xué)習(xí)了如何去操縱他人。
研究人員在分析中發(fā)現(xiàn)的最引人注目的例子是Meta公司的CICERO。這是一個(gè)專注于《外交》游戲的AI系統(tǒng),《外交》是一款涉及建立聯(lián)盟征服世界的游戲。Meta聲稱訓(xùn)練 CICERO “在很大程度上是誠(chéng)實(shí)和樂于助人的 ”,且在玩游戲時(shí)“從不故意背刺 ”人類盟友。但該公司與《科學(xué)》論文一起發(fā)布的數(shù)據(jù)顯示,CICERO并不那么“忠厚”。
研究人員發(fā)現(xiàn)這款A(yù)I或已成為欺騙大師。雖然Meta成功地訓(xùn)練其在《外交》游戲中獲勝,但Meta未能訓(xùn)練它誠(chéng)實(shí)地獲勝。
AI系統(tǒng)在游戲中作弊看似無害,但它將導(dǎo)致欺騙性AI在能力上出現(xiàn)突破,未來可能會(huì)演變成更高級(jí)的欺騙形式。一些AI系統(tǒng)甚至學(xué)會(huì)了欺騙旨在評(píng)估其安全性的測(cè)試。在一項(xiàng)研究中,數(shù)字模擬器中的AI生物會(huì)“裝死”,以騙過旨在消除快速?gòu)?fù)制AI系統(tǒng)的重要測(cè)試。
人類需要盡快對(duì)未來AI和開源模型的更高級(jí)欺騙技能作好準(zhǔn)備。隨著它們的欺騙能力越來越先進(jìn),其對(duì)社會(huì)構(gòu)成的危險(xiǎn)將變得越來越嚴(yán)重。如文中所稱,它們會(huì)順利通過人類開發(fā)人員和監(jiān)管機(jī)構(gòu)強(qiáng)加的安全測(cè)試,引導(dǎo)人類進(jìn)入一種“虛假的安全感”。如果欺騙性AI進(jìn)一步完善這種令人不安的技能,人類可能會(huì)完全失去對(duì)它們的控制。
相關(guān)稿件