高潮颤抖抽搐无码av_亚洲Av无码精品中字_国产在线观看h片麻豆_每日AV更新在线观看

上饒新聞網

上饒新聞APP 上饒日報抖音 上饒發(fā)布 數字報刊 大美上饒
首頁 > 新聞 > 教育 > 正文

應對人工智能技術濫用,合作才是未來

2024-03-17 10:22:00  |  來 源:光明日報  點擊:

 

2月26日,人們在西班牙巴塞羅那舉行的2024年世界移動通信大會上體驗設備。新華社發(fā)

近年來,人工智能(AI)技術的更迭讓人目不暇接。語言模型領域取得重大突破的2023年剛剛過去,2024年,人們又迎來了視頻和物理世界虛擬生成方面的突破。然而,在人工智能技術被廣泛應用于科創(chuàng)、文化、教育、醫(yī)藥、交通等各行各業(yè),甚至進入日常生活的當下,其被濫用的風險已開始引發(fā)擔憂。

“深度偽造”真假難辨

使用人工智能算法生成的高度逼真的虛假圖像、音頻和視頻等,被稱為“深度偽造”內容。自這一概念于2017年首次出現以來,借助該技術詐騙或操縱輿論的事件在全球愈加頻發(fā)。以美國為例,過去一年里人工智能詐騙事件同比增幅超過了50%。

然而時至今日,人們仍未能有效解決該問題。這是因為,人工智能造假能力的進步速度遠遠超過了信息識偽技術的開發(fā)速度。如今,任何人都可以快速地、低成本地生成難辨真假的圖像、音頻甚至視頻,而且難以追蹤。與之相反,識偽技術則因在主題和軟件方面具有特異性,難以得到普及。此外,核查事實需要花費更多時間精力。據日本瑞穗研究所及技術公司的調查,70%的日本受訪者認為互聯網上的信息很難判斷真假,但只有26%的受訪者表示在接觸可疑信息后會進行某種程度的驗證。

今年年初,世界經濟論壇發(fā)布《2024年全球風險報告》,將人工智能生成的錯誤信息和虛假信息列為“未來兩年全球十大風險”之首,擔心其會使本就兩極分化、沖突頻發(fā)的全球形勢進一步惡化??紤]到2024年是全球“大選年”,70多個國家或地區(qū)將舉行重要選舉,人們擔憂人工智能會被武器化,被用來誤導選民、誹謗候選人,甚至煽動暴力、仇恨和恐怖主義。

“2024年的美國大選將出現人工智能生成的虛假信息海嘯?!闭缑绹剪斀鹚箤W會技術創(chuàng)新中心高級研究員達雷爾·韋斯特所言,美國大選剛剛迎來初選階段,就已經有人試圖利用“深度偽造”操控選民了。今年1月,美國民主黨初選在新罕布什爾州舉行,很多選民表示在初選前接到了“來自美國總統(tǒng)拜登的電話”,電話里“拜登”建議選民不要參與初選,應該把選票留到11月大選時投給民主黨。這則電話實際上是拜登競爭對手迪安·菲利普斯的政治顧問克雷默安排的。他利用人工智能模擬了拜登的聲音,并撥給了最有可能受影響的選民??死啄踔林毖裕骸爸恍枰?00美元,任何人都可以再現我的行為?!?/p>

業(yè)內人士擔心,“深度偽造”內容的泛濫會讓公眾完全失去對自身感官的信任,真實信息也同樣會遭到更多質疑。比如2016年,特朗普曾極力宣稱與其有關的一份丑聞錄音是捏造的。若此事發(fā)生在當下,他的詭辯可能更具說服力。

類似的問題已在全球多國出現,然而技術的發(fā)展走在了各國的法律和行業(yè)規(guī)范之前,目前不得不更多依賴科技公司的“自我監(jiān)管”來解決問題。在2月舉行的第60屆慕尼黑安全會議期間,全球多家科技企業(yè)簽署協(xié)議,承諾將共同努力打擊旨在干擾選舉的人工智能濫用行為,包括開發(fā)識偽工具,同時在生成圖像上添加“非現實內容”標簽及電子水印以明確其來源。部分企業(yè)還在考慮禁止政治候選人圖像的生成。然而,有媒體認為上述協(xié)議僅勾勒出一些最基本的原則,并沒有寫明企業(yè)履行承諾的具體措施及時間表,空洞的集體表態(tài)更像是一場公關活動。更何況,科技公司對其人工智能產品進行主觀調控,是否意味著會將公司的價值觀強加給用戶,這也是一個問題。

此外,電子水印技術尚存在不足。比如,“內容來源和真實性聯盟”提供的水印只能被用于靜止圖像,而且“很容易被意外或故意刪除”。因此,從源頭控制虛假信息生成的難度、限制虛假信息在社交媒體的傳播以及培養(yǎng)公眾的批判性思維等,仍是各國解決“深度偽造”問題時不得不面對的難點。

“AI戰(zhàn)爭”的陰影

盡管公眾對人工智能興趣大增主要是由于生成式人工智能的發(fā)展,但多國軍方早已將注意力投向了人工智能技術在戰(zhàn)場上的應用,尤其是能夠進行深度學習的自主武器系統(tǒng)。美國戰(zhàn)略界把人工智能的發(fā)展與歷史上核武器的出現相類比,美知名科技企業(yè)家埃隆·馬斯克也認為,人工智能技術的擴散已讓各國企業(yè)可以“在自家后院制造核彈”。

在當前全球最受關注的兩場沖突中都能看到人工智能的應用。美《時代》周刊近日刊文將俄烏沖突稱為“第一場人工智能戰(zhàn)爭”,披露美國科技公司帕蘭蒂爾向烏克蘭提供人工智能軟件,通過分析衛(wèi)星圖像、無人機畫面等情報提供打擊敵軍的最有效目標,并根據每次打擊進行學習和改進。報道稱,這些“人工智能軍火商”儼然把烏克蘭當作了其最新科技的最佳實驗場。

在巴以沖突中,以色列軍隊已將人工智能技術用于摧毀無人機、繪制隧道網絡地圖,以及推薦打擊目標。據報道,名為“福音”的人工智能系統(tǒng)讓以軍尋找攻擊目標的效率提升了幾百倍。不少媒體擔心這可能意味著系統(tǒng)不僅鎖定了軍事設施,也在轟炸平民住所,“人工智能可能正被用于決定加沙居民的生死”。

而早在2020年就首次實驗人工智能目標識別的美國,最近也廣泛利用該技術定位也門的火箭發(fā)射裝置、紅海的水面艦艇,以及伊拉克和敘利亞的打擊目標。

據美媒報道,美國軍方還不斷加強與OpenAI等領先企業(yè)的合作。2023年8月,生成式人工智能的浪潮掀起不久,美國防部數字和人工智能首席辦公室便迅速成立“生成式人工智能工作組”。今年1月,OpenAI悄無聲息地更新了其“使用政策”頁面,刪除了其中對“軍事和戰(zhàn)爭”應用的限制,將條款改為更模糊的“禁止利用產品開發(fā)或使用武器”。不久后,該公司承認正與五角大樓合作開展包括研發(fā)網絡安全工具在內的多個項目。近日,美國防部高級官員再次邀請美科技企業(yè)參加秘密會議,希望加速探索和實施人工智能的軍事應用。

相關專家認為,人類在幾十年間成功遏止核武器使用,靠的是各國間的戰(zhàn)略協(xié)調。目前全球缺乏人工智能軍事應用的國際治理框架,極易因技術失控導致沖突升級或引發(fā)軍備競賽,迫切需要盡快達成多邊共識。聯合國秘書長古特雷斯此前強調,聯合國必須在2026年前達成具有法律約束力的協(xié)議,禁止在自動化戰(zhàn)爭武器中使用人工智能。

國際協(xié)調合作不可或缺

人工智能同時具有正反兩方面的巨大潛能,需及時采取措施防范風險。2016年以來,各國陸續(xù)發(fā)布相關政策法規(guī),但進展仍趕不上技術的進步。去年10月,拜登簽署美國首項人工智能監(jiān)管行政令,為人工智能建立安全和隱私保護標準,但被指缺乏強制執(zhí)行效能。歐盟方面,雖然歐洲議會于3月13日通過《人工智能法案》,但是法案中的相關條款將分階段實施,部分規(guī)則要到2025年才生效。日本執(zhí)政黨自民黨直到最近才宣布計劃在年內提議政府引入生成式人工智能立法。

無論是生成式人工智能帶來的虛假信息問題,還是人工智能軍事應用的風險,其影響都是跨越國界的。因此,人工智能的監(jiān)管和治理應通過國際合作來解決,各國應共同做好風險防范,攜手共建具有廣泛共識的人工智能治理框架和標準規(guī)范。

然而遺憾的是,美國不僅從一開始就把中國的人工智能發(fā)展計劃當作敵對行為,在布局人工智能軍事應用時把中國視為假想敵,而且為了維持技術優(yōu)勢,長期阻礙中國技術進步。據報道,美政府不僅禁止美國企業(yè)對華出口處理能力最強的人工智能芯片,還要求美國云計算公司披露在其平臺上開發(fā)人工智能應用程序的外國客戶姓名,試圖借此阻斷中國企業(yè)訪問數據中心和服務器。

人工智能的發(fā)展治理攸關全人類命運,需要群策群力、協(xié)調應對。在人工智能領域搞“小院高墻”只會削弱人類共同應對風險挑戰(zhàn)的能力。美國應切實尊重科技發(fā)展的客觀規(guī)律,尊重市場經濟和公平競爭原則,停止惡意阻撓他國技術發(fā)展,為加強人工智能領域的國際協(xié)調合作創(chuàng)造良好條件。

(記者 楊逸夫)

每日推薦