2月26日,人們在西班牙巴塞羅那舉行的2024年世界移動通信大會上體驗設備。新華社發(fā)
近年來,人工智能(AI)技術(shù)的更迭讓人目不暇接。語言模型領域取得重大突破的2023年剛剛過去,2024年,人們又迎來了視頻和物理世界虛擬生成方面的突破。然而,在人工智能技術(shù)被廣泛應用于科創(chuàng)、文化、教育、醫(yī)藥、交通等各行各業(yè),甚至進入日常生活的當下,其被濫用的風險已開始引發(fā)擔憂。
“深度偽造”真假難辨
使用人工智能算法生成的高度逼真的虛假圖像、音頻和視頻等,被稱為“深度偽造”內(nèi)容。自這一概念于2017年首次出現(xiàn)以來,借助該技術(shù)詐騙或操縱輿論的事件在全球愈加頻發(fā)。以美國為例,過去一年里人工智能詐騙事件同比增幅超過了50%。
然而時至今日,人們?nèi)晕茨苡行Ы鉀Q該問題。這是因為,人工智能造假能力的進步速度遠遠超過了信息識偽技術(shù)的開發(fā)速度。如今,任何人都可以快速地、低成本地生成難辨真假的圖像、音頻甚至視頻,而且難以追蹤。與之相反,識偽技術(shù)則因在主題和軟件方面具有特異性,難以得到普及。此外,核查事實需要花費更多時間精力。據(jù)日本瑞穗研究所及技術(shù)公司的調(diào)查,70%的日本受訪者認為互聯(lián)網(wǎng)上的信息很難判斷真假,但只有26%的受訪者表示在接觸可疑信息后會進行某種程度的驗證。
今年年初,世界經(jīng)濟論壇發(fā)布《2024年全球風險報告》,將人工智能生成的錯誤信息和虛假信息列為“未來兩年全球十大風險”之首,擔心其會使本就兩極分化、沖突頻發(fā)的全球形勢進一步惡化??紤]到2024年是全球“大選年”,70多個國家或地區(qū)將舉行重要選舉,人們擔憂人工智能會被武器化,被用來誤導選民、誹謗候選人,甚至煽動暴力、仇恨和恐怖主義。
“2024年的美國大選將出現(xiàn)人工智能生成的虛假信息海嘯?!闭缑绹剪斀鹚箤W會技術(shù)創(chuàng)新中心高級研究員達雷爾·韋斯特所言,美國大選剛剛迎來初選階段,就已經(jīng)有人試圖利用“深度偽造”操控選民了。今年1月,美國民主黨初選在新罕布什爾州舉行,很多選民表示在初選前接到了“來自美國總統(tǒng)拜登的電話”,電話里“拜登”建議選民不要參與初選,應該把選票留到11月大選時投給民主黨。這則電話實際上是拜登競爭對手迪安·菲利普斯的政治顧問克雷默安排的。他利用人工智能模擬了拜登的聲音,并撥給了最有可能受影響的選民??死啄踔林毖裕骸爸恍枰?00美元,任何人都可以再現(xiàn)我的行為?!?/p>
業(yè)內(nèi)人士擔心,“深度偽造”內(nèi)容的泛濫會讓公眾完全失去對自身感官的信任,真實信息也同樣會遭到更多質(zhì)疑。比如2016年,特朗普曾極力宣稱與其有關(guān)的一份丑聞錄音是捏造的。若此事發(fā)生在當下,他的詭辯可能更具說服力。
類似的問題已在全球多國出現(xiàn),然而技術(shù)的發(fā)展走在了各國的法律和行業(yè)規(guī)范之前,目前不得不更多依賴科技公司的“自我監(jiān)管”來解決問題。在2月舉行的第60屆慕尼黑安全會議期間,全球多家科技企業(yè)簽署協(xié)議,承諾將共同努力打擊旨在干擾選舉的人工智能濫用行為,包括開發(fā)識偽工具,同時在生成圖像上添加“非現(xiàn)實內(nèi)容”標簽及電子水印以明確其來源。部分企業(yè)還在考慮禁止政治候選人圖像的生成。然而,有媒體認為上述協(xié)議僅勾勒出一些最基本的原則,并沒有寫明企業(yè)履行承諾的具體措施及時間表,空洞的集體表態(tài)更像是一場公關(guān)活動。更何況,科技公司對其人工智能產(chǎn)品進行主觀調(diào)控,是否意味著會將公司的價值觀強加給用戶,這也是一個問題。
此外,電子水印技術(shù)尚存在不足。比如,“內(nèi)容來源和真實性聯(lián)盟”提供的水印只能被用于靜止圖像,而且“很容易被意外或故意刪除”。因此,從源頭控制虛假信息生成的難度、限制虛假信息在社交媒體的傳播以及培養(yǎng)公眾的批判性思維等,仍是各國解決“深度偽造”問題時不得不面對的難點。
“AI戰(zhàn)爭”的陰影
盡管公眾對人工智能興趣大增主要是由于生成式人工智能的發(fā)展,但多國軍方早已將注意力投向了人工智能技術(shù)在戰(zhàn)場上的應用,尤其是能夠進行深度學習的自主武器系統(tǒng)。美國戰(zhàn)略界把人工智能的發(fā)展與歷史上核武器的出現(xiàn)相類比,美知名科技企業(yè)家埃隆·馬斯克也認為,人工智能技術(shù)的擴散已讓各國企業(yè)可以“在自家后院制造核彈”。
在當前全球最受關(guān)注的兩場沖突中都能看到人工智能的應用。美《時代》周刊近日刊文將俄烏沖突稱為“第一場人工智能戰(zhàn)爭”,披露美國科技公司帕蘭蒂爾向烏克蘭提供人工智能軟件,通過分析衛(wèi)星圖像、無人機畫面等情報提供打擊敵軍的最有效目標,并根據(jù)每次打擊進行學習和改進。報道稱,這些“人工智能軍火商”儼然把烏克蘭當作了其最新科技的最佳實驗場。
在巴以沖突中,以色列軍隊已將人工智能技術(shù)用于摧毀無人機、繪制隧道網(wǎng)絡地圖,以及推薦打擊目標。據(jù)報道,名為“福音”的人工智能系統(tǒng)讓以軍尋找攻擊目標的效率提升了幾百倍。不少媒體擔心這可能意味著系統(tǒng)不僅鎖定了軍事設施,也在轟炸平民住所,“人工智能可能正被用于決定加沙居民的生死”。
而早在2020年就首次實驗人工智能目標識別的美國,最近也廣泛利用該技術(shù)定位也門的火箭發(fā)射裝置、紅海的水面艦艇,以及伊拉克和敘利亞的打擊目標。
據(jù)美媒報道,美國軍方還不斷加強與OpenAI等領先企業(yè)的合作。2023年8月,生成式人工智能的浪潮掀起不久,美國防部數(shù)字和人工智能首席辦公室便迅速成立“生成式人工智能工作組”。今年1月,OpenAI悄無聲息地更新了其“使用政策”頁面,刪除了其中對“軍事和戰(zhàn)爭”應用的限制,將條款改為更模糊的“禁止利用產(chǎn)品開發(fā)或使用武器”。不久后,該公司承認正與五角大樓合作開展包括研發(fā)網(wǎng)絡安全工具在內(nèi)的多個項目。近日,美國防部高級官員再次邀請美科技企業(yè)參加秘密會議,希望加速探索和實施人工智能的軍事應用。
相關(guān)專家認為,人類在幾十年間成功遏止核武器使用,靠的是各國間的戰(zhàn)略協(xié)調(diào)。目前全球缺乏人工智能軍事應用的國際治理框架,極易因技術(shù)失控導致沖突升級或引發(fā)軍備競賽,迫切需要盡快達成多邊共識。聯(lián)合國秘書長古特雷斯此前強調(diào),聯(lián)合國必須在2026年前達成具有法律約束力的協(xié)議,禁止在自動化戰(zhàn)爭武器中使用人工智能。
國際協(xié)調(diào)合作不可或缺
人工智能同時具有正反兩方面的巨大潛能,需及時采取措施防范風險。2016年以來,各國陸續(xù)發(fā)布相關(guān)政策法規(guī),但進展仍趕不上技術(shù)的進步。去年10月,拜登簽署美國首項人工智能監(jiān)管行政令,為人工智能建立安全和隱私保護標準,但被指缺乏強制執(zhí)行效能。歐盟方面,雖然歐洲議會于3月13日通過《人工智能法案》,但是法案中的相關(guān)條款將分階段實施,部分規(guī)則要到2025年才生效。日本執(zhí)政黨自民黨直到最近才宣布計劃在年內(nèi)提議政府引入生成式人工智能立法。
無論是生成式人工智能帶來的虛假信息問題,還是人工智能軍事應用的風險,其影響都是跨越國界的。因此,人工智能的監(jiān)管和治理應通過國際合作來解決,各國應共同做好風險防范,攜手共建具有廣泛共識的人工智能治理框架和標準規(guī)范。
然而遺憾的是,美國不僅從一開始就把中國的人工智能發(fā)展計劃當作敵對行為,在布局人工智能軍事應用時把中國視為假想敵,而且為了維持技術(shù)優(yōu)勢,長期阻礙中國技術(shù)進步。據(jù)報道,美政府不僅禁止美國企業(yè)對華出口處理能力最強的人工智能芯片,還要求美國云計算公司披露在其平臺上開發(fā)人工智能應用程序的外國客戶姓名,試圖借此阻斷中國企業(yè)訪問數(shù)據(jù)中心和服務器。
人工智能的發(fā)展治理攸關(guān)全人類命運,需要群策群力、協(xié)調(diào)應對。在人工智能領域搞“小院高墻”只會削弱人類共同應對風險挑戰(zhàn)的能力。美國應切實尊重科技發(fā)展的客觀規(guī)律,尊重市場經(jīng)濟和公平競爭原則,停止惡意阻撓他國技術(shù)發(fā)展,為加強人工智能領域的國際協(xié)調(diào)合作創(chuàng)造良好條件。
(記者 楊逸夫)