美國《國會山》網站在近日的報道中指出,ChatGPT這類生成式人工智能(AI)的爆炸式增長,以及由此帶來的一些諸如虛假信息泛濫、偏見、改變勞動力結構等混亂,引發(fā)了美國聯(lián)邦政府的擔憂,立法者和監(jiān)管機構希望采取切實行動,消弭這些擔憂。
引發(fā)兩大關鍵問題
《國會山》網站報道稱,AI的發(fā)展可能會引發(fā)兩大關鍵問題。
一方面,最近生成式AI工具的興起帶來了與虛假信息傳播有關的問題。另一方面,為自動化系統(tǒng)提供動力的AI可能會導致歧視。
英國《新科學家》雜志也指出,ChatGPT和其他聊天機器人經常出現事實性錯誤,引用完全虛構的事件或文章,在案例中編造性騷擾丑聞、誣告真人等。ChatGPT的使用也導致了數據隱私丑聞,涉及公司機密數據的泄露。另外,AI生成的圖像、音頻甚至視頻也可能導致大規(guī)模的“深度造假”信息,美國前總統(tǒng)特朗普被捕和教皇方濟各穿著時尚白色羽絨服的虛假AI合成照片就證明了這一點。
加強執(zhí)法呼聲高漲
美國聯(lián)邦貿易委員會、司法部民權司、消費者金融保護局和平等就業(yè)機會委員會(EEOC)近日發(fā)表了一份聯(lián)合聲明稱,鑒于AI越來越多地用于從住房到醫(yī)療保健在內的一系列服務,他們承諾加強現有法律的執(zhí)行強度,包括旨在解決AI可能會出現的歧視問題,并制定關于發(fā)展規(guī)則的新法規(guī)。
EEOC主席夏洛特·伯羅斯表示,包括AI在內的先進技術的使用必須符合聯(lián)邦法律。
當然,這些機構的聯(lián)合聲明主要集中于使用AI的自動化系統(tǒng),而不是像ChatGPT這樣的生成式AI。
《國會山》網站在報道中指出,即便如此,隨著ChatGPT等聊天機器人人氣飆升,谷歌和其他公司也不斷推出與之競爭的新產品,此外,包括特斯拉和推特首席執(zhí)行官埃隆·馬斯克等在內的一批企業(yè)家也競相涌入該行業(yè),由此可能引發(fā)的喧嘩與騷動,也凸顯了政策制定者迫切需要采取相關措施。
要應對AI帶來的風險,美國國會將權衡制定新法規(guī),各機構也應加大執(zhí)行現有法律的力度。因為即使在現有法律適用的地方,由于AI系統(tǒng)的工作方式,也可能很難執(zhí)行這些法律。例如,算法招聘工具可能會導致歧視,但員工很難知道自己是否受到了系統(tǒng)的歧視。因此各機構需要解決的問題不僅在于如何應用法律,還要考慮如何應對執(zhí)法過程中帶來的挑戰(zhàn),以及了解這些AI系統(tǒng)對現實世界將產生怎樣的影響等等。
負責民權事務的助理司法部部長克里斯汀·克拉克也強調稱,在當今社會出現的各種歧視問題上,AI構成了很大的威脅,這些問題需要政策制定者和其他人進行更深入的研究和審查。
安全管理勢在必行
美國參議員本月早些時候公布了一項提案,提出將為AI監(jiān)管建立一個框架,旨在提高透明度并加強問責。除此之外,立法者還準備采取行動,就AI技術興起的相關風險向行業(yè)施壓。
參議院情報委員會最近致信ChatGPT的開發(fā)商OpenAI、元宇宙平臺公司、谷歌、Anthropic和微軟等科技公司首席執(zhí)行官,詢問他們在開發(fā)大規(guī)模AI模型時如何應對安全風險。
信中寫道,隨著AI在大部分領域越來越多地使用,以及大型語言模型有可能穩(wěn)步集成到從醫(yī)療保健到金融部門的一系列現有系統(tǒng)中,迫切需要強調AI使用過程中的安全性問題。
針對一些參議員提出的如何利用AI等問題,美國消費者技術協(xié)會的一位發(fā)言人表示,該協(xié)會一直在與其成員“為AI政策、標準和框架制定作出貢獻”。
美國軟件聯(lián)盟負責美國政府關系的副總裁克雷格·奧爾布賴特則表示,國會可以要求公司制訂風險管理計劃,對AI的高風險使用進行風險評估,并定義何為高風險案例,而公司則需要開展影響評估和設計評估,以確保他們做正確的事。
相關稿件