亚洲激情在线-天堂中文在线最新版地址-茄子视频破解永久ios-噜噜色图|www.bjxyzx.com

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

人工智能武器化的發(fā)展趨勢及治理策略

【摘要】人工智能武器化是新一輪軍事變革的必然趨勢,近年來的局部戰(zhàn)爭沖突進一步刺激相關(guān)國家推進人工智能武器化戰(zhàn)略部署,搶占未來戰(zhàn)爭制高點。人工智能武器化的潛在風險不容忽視,將可能加劇軍備競賽,打破戰(zhàn)略平衡;賦能作戰(zhàn)流程,加大沖突風險;提升問責難度,增加附帶傷亡;降低擴散門檻,導致誤用濫用。對此,應加強國際間戰(zhàn)略溝通,確保各國在人工智能軍事應用上的共識與協(xié)作;推進法律法規(guī)建設的對話與協(xié)調(diào),以形成統(tǒng)一規(guī)范的法律框架;加強人工智能倫理約束,確保技術(shù)發(fā)展符合道德標準;積極參與全球安全治理合作,共同維護國際社會的和平與穩(wěn)定。

【關(guān)鍵詞】人工智能 軍事應用 安全風險 安全治理 【中圖分類號】F113 【文獻標識碼】A

人工智能武器化,是將人工智能相關(guān)技術(shù)、平臺與服務應用到軍事領域,使其成為賦能軍事行動的重要驅(qū)動力量,進而提升軍事行動的效率、精準度和自主性。隨著人工智能技術(shù)在軍事領域的廣泛應用,各主要大國和軍事強國紛紛加大戰(zhàn)略與資源投入,加快研發(fā)應用步伐。近年來頻發(fā)的地區(qū)戰(zhàn)爭沖突也進一步刺激了人工智能的戰(zhàn)場運用,并深刻形塑戰(zhàn)爭形態(tài)以及軍事變革的未來走向。

不容忽視的是,人工智能作為一類快速發(fā)展中的技術(shù),其本身由于內(nèi)在技術(shù)的不成熟、場景匹配的不準確、支持條件的不完備,可能存在潛在風險,而由于人為的誤用、濫用甚至惡意使用,也容易給軍事領域乃至國際安全領域帶來多種風險挑戰(zhàn)。認真貫徹落實習近平總書記提出的全球安全倡議,必須直面世界范圍內(nèi)人工智能武器化的發(fā)展趨勢,深入分析人工智能武器化應用可能帶來的安全風險,并思考科學可行的治理思路與舉措。

當前人工智能武器化的發(fā)展趨勢

近年來,人工智能在軍事領域的應用,正在從根本上重塑未來戰(zhàn)爭形態(tài)、改變未來作戰(zhàn)體系,影響軍事變革的未來走向。主要軍事大國已將人工智能視為改變未來戰(zhàn)爭規(guī)則的顛覆性關(guān)鍵技術(shù),紛紛挹注大量資源,推進人工智能武器的研發(fā)與應用。

? 人工智能武器化是軍事變革的必然趨勢。

隨著科學技術(shù)的飛速發(fā)展,軍事變革的必要性與緊迫性愈發(fā)凸顯。人工智能通過模擬人類的思維過程,延展人類的腦力與體力,可實現(xiàn)信息快速處理、分析和決策,可研發(fā)日益復雜的無人化武器系統(tǒng)平臺,從而為軍事行動提供前所未有的智能化支持。

一是為軍事情報偵察與分析提供智能支持。傳統(tǒng)的情報偵察方式受到人力和時間等多重因素制約,難以有效應對大規(guī)模、高速度和高復雜度的情報處理需求。人工智能技術(shù)的引入,為情報偵察領域帶來革新和突破。在軍事基礎設施中,應用人工智能技術(shù),可構(gòu)建智能監(jiān)測系統(tǒng),提供高精度實時的情報感知服務。在情報偵察領域,人工智能技術(shù)具備對多個“信息流”進行實時處理的能力,從而極大地提高分析效率。①通過使用深度學習等技術(shù)工具,還可以“透過現(xiàn)象看本質(zhì)”,挖掘出各類碎片化情報信息中的深層脈絡與因果聯(lián)系,將海量碎片化數(shù)據(jù)快速轉(zhuǎn)變?yōu)榭梢岳玫那閳螅瑥亩嵘閳蠓治龅馁|(zhì)效。

二是為作戰(zhàn)指揮與決策提供數(shù)據(jù)支持。人工智能在戰(zhàn)場態(tài)勢感知方面為作戰(zhàn)指揮和軍事決策提供有力支持。②其優(yōu)勢在于能夠進行數(shù)據(jù)挖掘、數(shù)據(jù)融合以及預測分析等關(guān)鍵任務。在信息化智能化戰(zhàn)爭中,戰(zhàn)場環(huán)境瞬息萬變,情報信息量龐大,要求決策響應迅速且準確。因此,先進的計算機系統(tǒng)就成為協(xié)助指揮人員管理情報數(shù)據(jù)、進行敵情判斷、提出作戰(zhàn)方案建議以及擬制計劃與命令的重要工具。以美軍為例,美國雷神技術(shù)公司(Raytheon Technologies Corporation)研制的ISTAR(情報、監(jiān)視、目標識別和跟蹤)系統(tǒng),涵蓋了情報采集、監(jiān)視、目標識別及跟蹤功能,可匯聚來自衛(wèi)星、艦船、飛機及地面站等多元信息源的數(shù)據(jù),并對其進行深度分析與處理。這不僅顯著提高了指揮官獲取信息的速度,而且可借助智能分析系統(tǒng)提供數(shù)據(jù)支持,使決策更加快速、高效和精準。

三是為無人作戰(zhàn)系統(tǒng)提供重要支撐。無人作戰(zhàn)系統(tǒng)是一種無需人類直接操縱,便可獨立完成軍事任務的新型武器裝備系統(tǒng),主要包括智能化無人作戰(zhàn)平臺、智能化彈藥和智能化作戰(zhàn)指揮控制系統(tǒng)等組成部分,具備顯著的自主性和智能化特征。無人作戰(zhàn)系統(tǒng),作為引領未來戰(zhàn)爭形態(tài)變革的技術(shù)裝備,已成為國家間軍事競爭的重要籌碼。該系統(tǒng)通過運用自主導航、目標識別、路徑規(guī)劃等關(guān)鍵技術(shù),實現(xiàn)了不同戰(zhàn)場環(huán)境及作戰(zhàn)空間的適應能力。借助深度學習、強化學習等先進算法,無人作戰(zhàn)系統(tǒng)能夠獨立完成導航任務,并實現(xiàn)精準打擊目標。這種系統(tǒng)的設計理念是“平臺無人,系統(tǒng)有人”,其本質(zhì)是對有人作戰(zhàn)系統(tǒng)的智能化延伸。例如,美國國防部高級研究計劃局(DARPA)研發(fā)的“MQM-57獵鷹者”無人機,就采用了先進的人工智能技術(shù),具備高度自主的目標識別和追蹤功能。

四是為軍事后勤與裝備保障提供技術(shù)支持。在信息化戰(zhàn)爭的背景下,戰(zhàn)爭進程加快、機動性提升、作戰(zhàn)消耗顯著增加。傳統(tǒng)的“超量預儲”保障模式已無法適應現(xiàn)代戰(zhàn)場快速變化的需求,因此,對作戰(zhàn)部隊進行適時、適地、適需、適量的快速精確后裝保障提出了更高的要求。人工智能作為一種具有溢出帶動和交叉融合特性的技術(shù),與物聯(lián)網(wǎng)、大數(shù)據(jù)、云計算等前沿技術(shù)相互融合,使得人工智能知識群、技術(shù)群和產(chǎn)業(yè)群全面滲透到軍事后裝領域,顯著提升了后勤裝備保障能力。

? 主要國家紛紛布局人工智能軍事應用。

為增強在人工智能領域的全球競爭力,美國、俄羅斯、日本等主要大國加緊對人工智能軍事應用的戰(zhàn)略布局。首先,通過更新和調(diào)整人工智能領域的頂層戰(zhàn)略規(guī)劃,為未來的發(fā)展提供明確指導;其次,針對未來戰(zhàn)爭需求,加快人工智能技術(shù)與軍事領域的深度融合,推動裝備系統(tǒng)的智能化、自主化和無人化發(fā)展;此外,積極創(chuàng)新作戰(zhàn)概念,以驅(qū)動作戰(zhàn)力量創(chuàng)新,進而提升作戰(zhàn)效能和競爭優(yōu)勢。

一是制定戰(zhàn)略規(guī)劃。基于技術(shù)霸權(quán)追求軍事霸權(quán)、政治霸權(quán)、經(jīng)濟霸權(quán)的戰(zhàn)略偏執(zhí),美國正加快自身軍事智能化進程。2023年11月,美國國防部發(fā)布《數(shù)據(jù)、分析與人工智能采用戰(zhàn)略》,旨在擴展整個國防部體系的先進能力,以獲得持久的軍事決策優(yōu)勢。俄軍頒布被稱為“3.0版本”的《2024年至2033年俄羅斯武器裝備發(fā)展綱要》,旨在為未來10年武器裝備發(fā)展提供指導,綱要強調(diào)繼續(xù)推進核武器和常規(guī)武器建設,并重點研究人工智能和機器人技術(shù)、高超音速武器和其他基于新物理原理的打擊兵器。

二是研發(fā)先進裝備系統(tǒng)。美軍自2005年開始每隔幾年都會發(fā)布一版“無人系統(tǒng)路線圖”,以展望并設計空中、地面、水面/水下等各領域無人系統(tǒng)平臺,貫通研發(fā)—生產(chǎn)—測試—訓練—作戰(zhàn)—保障等無人化武器裝備發(fā)展鏈路。目前,世界上已有70多個國家可以研發(fā)無人化系統(tǒng)平臺,各種類型的無人機、無人車、無人船(艇)、無人潛航器如雨后春筍般不斷出現(xiàn)。2024年7月15日,美軍參聯(lián)會前主席馬克·米利接受《美國防務新聞》采訪時稱,到2039年,三分之一的美軍部隊將由機器人組成。俄軍研發(fā)的平臺-M作戰(zhàn)機器人、“柳葉刀”自殺式無人機和S70“獵人”重型無人機等,已投入實戰(zhàn)檢驗。

三是創(chuàng)新未來作戰(zhàn)概念。作戰(zhàn)概念是對未來戰(zhàn)爭樣式與作戰(zhàn)方式進行的前瞻性研究,往往可牽引新的作戰(zhàn)力量編組及武器裝備跨越發(fā)展。美軍近年來先后提出“分布式殺傷”“多域戰(zhàn)”“馬賽克戰(zhàn)”等作戰(zhàn)概念,試圖引領軍事變革的發(fā)展方向。以“馬賽克戰(zhàn)”為例,該作戰(zhàn)概念將各種傳感器、通信網(wǎng)絡、指揮控制系統(tǒng)、武器平臺等視為“馬賽克碎片”,這些“碎片”單元在人工智能技術(shù)賦能支持下,通過網(wǎng)絡信息系統(tǒng)可動態(tài)鏈接、自主規(guī)劃、協(xié)同組合,從而形成一個按需集成、極具彈性、靈活機動的殺傷網(wǎng)。2022年3月,美國國防部發(fā)布《聯(lián)合全域指揮控制(JADC2)戰(zhàn)略實施計劃》,該計劃旨在將多域作戰(zhàn)向全域作戰(zhàn)概念拓展,將各軍種傳感器連接到一個統(tǒng)一“物聯(lián)網(wǎng)”中,利用人工智能算法幫助改善作戰(zhàn)指揮決策。③

? 戰(zhàn)爭沖突刺激人工智能武器化進程。

近年來,利比亞沖突、納卡沖突、烏克蘭危機、哈以沖突等局部沖突不斷,進一步刺激了人工智能武器化的發(fā)展進程。

在利比亞沖突中,交戰(zhàn)雙方采用多種型號無人機執(zhí)行偵察和作戰(zhàn)任務。據(jù)聯(lián)合國利比亞問題專家小組發(fā)布的報告指出,土耳其制造的“卡古-2”(Kargu-2)無人機2020年在利比亞執(zhí)行了“追捕并遠程交戰(zhàn)”行動,可自主攻擊撤退中的敵方士兵。這一事件標志著致命性自主武器系統(tǒng)在實戰(zhàn)中的首次運用。如美國學者扎卡里·卡倫伯恩所述,若有人在此類自主攻擊中不幸喪生,這極有可能是歷史上首個已知的人工智能自主武器被用于殺戮的例子。在2020年納卡沖突中,阿塞拜疆運用土耳其生產(chǎn)的“旗手”TB2無人機編隊和以色列生產(chǎn)的“哈洛普”無人機成功突破了亞美尼亞防空系統(tǒng),掌握了戰(zhàn)場制空權(quán)和主動權(quán)。④ 阿塞拜疆軍隊無人機作戰(zhàn)的顯著成效,在很大程度上源于亞美尼亞軍隊的“輕敵”心態(tài),對無人機在現(xiàn)代戰(zhàn)爭中的重要性和威脅性認識不足。其次,從進攻策略的角度來看,阿塞拜疆軍隊在無人機戰(zhàn)法上進行了大膽的創(chuàng)新。他們靈活運用察打一體無人機和巡飛彈等先進裝備,不僅提升了作戰(zhàn)效率,也大大增強了戰(zhàn)斗的突然性和致命性。⑤

在2022年爆發(fā)的烏克蘭危機中,俄羅斯和烏克蘭都廣泛使用軍用級和商用無人機執(zhí)行偵察監(jiān)視、火炮瞄準和打擊任務。烏克蘭軍隊通過使用“旗手”TB2無人機以及美國援助的“彈簧刀”系列自殺式無人機,實施精確打擊和高效殺傷,成為令世界矚目的“戰(zhàn)場殺手”。在哈以沖突中,以色列軍方被指控使用名為“薰衣草”(Lavender)的人工智能系統(tǒng)來識別并鎖定加沙境內(nèi)的轟炸目標,曾將多達3.7萬名加沙巴勒斯坦人標記為“武裝分子”嫌疑對象,并將其認定為可直接“暗殺”的目標,以軍行動引發(fā)了國際社會廣泛關(guān)注和譴責。⑥

人工智能武器化帶來的安全風險

從自動化指揮系統(tǒng)到智能無人作戰(zhàn)平臺,再到網(wǎng)絡防御中的智能決策系統(tǒng),人工智能技術(shù)在軍事領域的應用正變得愈發(fā)普遍,已成為現(xiàn)代戰(zhàn)爭不可或缺的一部分。然而,人工智能武器化的趨勢下,其誤用、濫用甚至惡意使用,也將給國際安全帶來不可忽視的風險挑戰(zhàn)。

? 加劇軍備競賽,打破戰(zhàn)略平衡。

在信息化智能化時代,人工智能所具有的顛覆性潛力讓軍事大國都難以抗拒,紛紛聚焦人工智能軍事能力的開發(fā)和運用,唯恐在這一領域落后而喪失戰(zhàn)略機遇。深化人工智能軍事應用,則能夠以更低成本、更高效率的方式獲得“非對稱優(yōu)勢”。

一是各國紛紛搶抓“先行者優(yōu)勢”。當一個國家在智能武器系統(tǒng)開發(fā)領域取得技術(shù)領先地位時,意味著該國具備更高級的人工智能和相關(guān)應用能力,使其在武器系統(tǒng)開發(fā)、控制和應急響應等方面具有先發(fā)優(yōu)勢。這種優(yōu)勢包括更高的自主性、智能化程度和自適應能力,從而增加了該國的軍事實力和戰(zhàn)略競爭優(yōu)勢。與此同時,先行者的軍事優(yōu)勢可能會成為競爭對手的安全威脅,導致各國在先進技術(shù)的軍事應用上呈現(xiàn)出你爭我趕的態(tài)勢。⑦ 2023年8月,美國國防部副部長凱瑟琳·希克斯宣布了“復制者計劃”(Replicator initiative),該倡議力求在不到兩年的時間內(nèi)在印太地區(qū)部署數(shù)千個“自主武器系統(tǒng)”。⑧

二是各國人工智能軍備建設的不透明性可能加劇軍備競賽。這主要有兩個方面的原因:一是人工智能技術(shù)是一種可用于設計多種應用的“使能技術(shù)”,這意味著人工智能軍事應用具體情況核查難度較高,難以像核武器可以通過對鈾、離心機以及武器和運載系統(tǒng)的監(jiān)測來判斷一個國家是否在進行核武器的開發(fā)或部署。半自主、完全自主武器系統(tǒng)之間的差別主要是由于計算機軟件算法不同導致的,很難通過物理核查手段來對各國的條約執(zhí)行情況進行核查。二是各國為了保持己方的戰(zhàn)略優(yōu)勢,往往對先進技術(shù)的軍事應用相關(guān)細節(jié)采取保密措施,從而使對手無法探知其戰(zhàn)略意圖。在當前國際環(huán)境中,這種不透明性不僅僅加劇了軍備競賽,更為未來沖突升級埋下了伏筆。

三是各國戰(zhàn)略意圖的不確定性也會加劇軍備競賽。人工智能對于戰(zhàn)略穩(wěn)定、核威懾和戰(zhàn)爭升級的影響,很大程度上取決于他國對于其能力的感知,而非其實質(zhì)能力。正如美國學者托馬斯·謝林指出,國際關(guān)系常常具有風險競爭的特征,更多的是對勇氣而不是武力的考驗,主要對手之間的關(guān)系是由哪一方最終愿意投入更大的力量,或者使之看起來即將投入更大的力量來決定的。⑨ 一個行為體對于他者能力的感知,無論真假,都會在很大程度上影響軍備競賽進程。如果一個國家大力發(fā)展智能武器系統(tǒng),競爭對手在不確定對方意圖的情況下,會對競爭對手的軍備能力及發(fā)展軍備的意圖產(chǎn)生猜忌,往往采取對等措施,即通過發(fā)展軍備來滿足自身安全需求。正是這種意圖的模糊性刺激了技術(shù)積累,加劇武器部署的不穩(wěn)定性,最終導致惡性循環(huán)。

? 賦能作戰(zhàn)流程,加大沖突風險。

在大數(shù)據(jù)和人工智能技術(shù)賦能下,傳統(tǒng)作戰(zhàn)流程將實現(xiàn)智能化再造,即由“態(tài)勢感知—指揮決策—攻防協(xié)同—綜合保障”向“全域態(tài)勢智能認知—人機一體混合決策—有人/無人自主協(xié)同—主動按需精準保障”轉(zhuǎn)變。然而,作戰(zhàn)流程的智能化再造雖然提高了作戰(zhàn)的效率和精確性,但也提升了沖突和誤判的風險。

一是以“機器速度”爆發(fā)的戰(zhàn)爭將增加倉促行動的風險。人工智能武器系統(tǒng)在精確度和反應速度上表現(xiàn)出強大的能力,使得未來戰(zhàn)爭將以“機器速度”爆發(fā)。⑩ 但戰(zhàn)爭速度過快也將升高沖突風險。在導彈防御、自主武器系統(tǒng)和網(wǎng)絡空間等重視自主性以及反應速度的領域,更快的反應速度將帶來巨大的戰(zhàn)略優(yōu)勢,同時也極大地壓縮了防御方對軍事行動作出反應的時間窗口,導致作戰(zhàn)指揮員和決策者置身于巨大的“時間壓力”之下,加劇了“倉促行動”的風險,并增加了危機意外升級的可能性。

二是依賴系統(tǒng)自主性可能增加壓力下的誤判幾率。美國國防部認為,“高度自主化的人工智能系統(tǒng),能夠根據(jù)任務參數(shù)的動態(tài)變化,自主選擇并執(zhí)行相應操作,高效實現(xiàn)人類預設的目標。自主性的增加不僅大幅減少了對人力的依賴,提高了整體操作效率,更被國防規(guī)劃者視為保持戰(zhàn)術(shù)領先、確保戰(zhàn)場優(yōu)勢的關(guān)鍵要素。”? 然而,由于人類指揮官無法作出足夠快的反應,可能逐漸將控制權(quán)下放給自主系統(tǒng),增加誤判幾率。2003年3月,美國“愛國者”導彈系統(tǒng)曾錯誤地將友軍的“龍卷風”戰(zhàn)斗機標記為反輻射導彈,指揮人員在只有幾秒鐘反應時間的壓力狀態(tài)下,選擇發(fā)射導彈,造成了兩名飛行員的死亡。?

三是削弱了危機終止機制的有效性。冷戰(zhàn)時期,美蘇主導構(gòu)建了一系列限制性措施來遏制危機的升級,避免其演化為大規(guī)模的核戰(zhàn)爭。在這些措施中,人類扮演著至關(guān)重要的“監(jiān)督者”角色,在可能出現(xiàn)風險失控時,能夠在充足的時間內(nèi)啟動終止措施,避免大規(guī)模人道主義災難發(fā)生。但是,隨著人工智能系統(tǒng)運算能力的提升及其與機器學習的深度融合,作戰(zhàn)響應變得更為迅捷、精確和具有破壞性,人類對于危機的終止干預機制將可能被削弱。

? 戰(zhàn)爭問責困難,增加附帶傷亡。

人工智能武器系統(tǒng)使得戰(zhàn)爭責任更難界定。在傳統(tǒng)作戰(zhàn)模式下,由人類控制武器系統(tǒng),一旦造成失誤或危機,人類操作員或者操作系統(tǒng)的研發(fā)者將承擔相應的責任。人工智能技術(shù)本身弱化了人類的能動性和控制能力,致使技術(shù)性行為的責任歸屬變得模糊不清。

一是人工智能“黑箱”問題。盡管人工智能在處理和分析數(shù)據(jù)方面有著顯著優(yōu)勢,但是其內(nèi)部運行規(guī)律和因果邏輯卻常常難以被人類理解和解釋,這使得程序員難以對錯誤算法進行糾偏除誤,這一問題常常被稱為算法模型的“黑箱”。一旦人工智能武器系統(tǒng)產(chǎn)生安全危害,“算法黑箱”可能成為相關(guān)責任方推卸責任的合理化借口,追責者只能面臨泛化的卸責與推諉,并將責任矛頭指向人工智能武器系統(tǒng)。在實踐中,如果無法理解并解釋人工智能的決策過程,可能會引發(fā)一系列的問題,如決策失誤、信任危機、信息濫用等。

二是軍事行動中人機責任劃分問題。當人工智能系統(tǒng)出現(xiàn)故障或者決策失誤時,是否應將其視為一種獨立的實體來承擔責任?或者,是否應該將其視為一種工具,由人類操作者承擔全部或部分責任?這種責任劃分的復雜性不僅在于技術(shù)層面,更在于倫理和法律層面。一方面,人工智能系統(tǒng)雖然能夠自主決策,但其決策過程仍然受到人類預設的程序和算法限制,因此其責任不能完全獨立于人類。另一方面,人工智能系統(tǒng)在某些情況下可能會超越人類的預設范圍,作出獨立的決策,此時其責任又該如何界定,也成為軍控領域的難題。

三是人與人工智能武器系統(tǒng)的決策權(quán)分配問題。按照機器自主權(quán)限的不同,人工智能系統(tǒng)能夠以半自主、有監(jiān)督式自主以及完全自主三種決策與控制方式執(zhí)行任務。在半自主系統(tǒng)中,行動的決策權(quán)由人類掌控;在有監(jiān)督式自主行動中,人類實施監(jiān)督并在必要時干預;在完全自主行動中,人類不參與行動過程。隨著人工智能軍事應用程度的逐漸加深,人在作戰(zhàn)系統(tǒng)中的角色正經(jīng)歷由傳統(tǒng)的“人在回路內(nèi)”模式逐步向“人在回路上”轉(zhuǎn)變,人類從系統(tǒng)內(nèi)部的直接操控者演化為系統(tǒng)外部的監(jiān)督者。然而,這一轉(zhuǎn)變也引發(fā)了新的問題。如何確保人工智能武器系統(tǒng)在獨立運作時仍能遵循人類倫理和價值觀,這是當前人工智能武器研發(fā)領域面臨的重大挑戰(zhàn)。

? 降低擴散門檻,導致誤用濫用。

傳統(tǒng)的戰(zhàn)略競爭通常涉及大規(guī)模的武器系統(tǒng)研發(fā)和采購,需要大量資金和技術(shù)支持。人工智能技術(shù)成熟擴散后,具有易獲取且價格低廉等優(yōu)勢,即便是中小國家也可能具備開發(fā)先進智能武器系統(tǒng)的能力。當前,軍用人工智能領域的戰(zhàn)略競爭主要集中在美俄等軍事大國之間。但長遠來看,人工智能技術(shù)的擴散將擴大戰(zhàn)略競爭的范圍,對現(xiàn)有的戰(zhàn)略平衡構(gòu)成破壞性威脅。一旦掌握人工智能技術(shù)的較小規(guī)模國家擁有相對較強的競爭力,這些國家在面臨大國威脅時發(fā)起對抗的意愿可能就會增強。

一是人工智能有助于發(fā)展一些輕便靈巧的作戰(zhàn)手段,從而鼓勵一些中小國家或者非國家行為體利用其開展小型的、機會主義的軍事冒險,以更低廉的成本和更豐富的途徑來達到其戰(zhàn)略目地。二是人工智能的快速發(fā)展使得網(wǎng)絡戰(zhàn)、電子戰(zhàn)等新型戰(zhàn)爭形態(tài)日益凸顯。在競爭激烈的戰(zhàn)場環(huán)境中,惡意的第三方行為體可以通過操縱信息來影響軍事規(guī)劃和戰(zhàn)略威懾,導致局勢升級。在2022年爆發(fā)的烏克蘭危機中,就有眾多網(wǎng)絡虛假信息傳播混淆視聽。三是人工智能技術(shù)的廣泛應用還降低了戰(zhàn)略透明度。傳統(tǒng)的軍事戰(zhàn)略往往依賴于大量的情報收集、分析和預測,而在人工智能技術(shù)的輔助下,作戰(zhàn)計劃和決策過程變得更加復雜和難以預測。這種不透明性可能導致誤解和誤判,從而增加了沖突升級的風險。

人工智能武器化安全風險的治理路徑

為確保人工智能安全發(fā)展,避免其武器化帶來的潛在危害,應加強國際間的治理戰(zhàn)略溝通,尋求各國在人工智能軍事應用方面的共識與協(xié)作;推進法律法規(guī)對話協(xié)調(diào),以形成統(tǒng)一規(guī)范的法律框架;加強人工智能倫理的約束,確保技術(shù)發(fā)展符合道德標準;積極參與全球安全治理合作,共同維護國際社會的和平與穩(wěn)定。

? 高度重視國際層面戰(zhàn)略溝通。

人工智能治理是一個全球性問題,需要各國通力合作,共同解決。在國際舞臺上,各國利益交融與利益沖突并存,因此,通過有效的溝通渠道來處理全球性問題成為維護世界和平與發(fā)展的關(guān)鍵。

一方面,要準確把握人工智能國際治理挑戰(zhàn)。既要把握各國對人工智能武器化發(fā)展的共識,也要密切關(guān)注各國在人工智能武器化應用安全治理方面的政策差異,通過協(xié)商合作,使相關(guān)倡議與聯(lián)合國議程相協(xié)調(diào),從而有效防止人工智能在軍事上的濫用,推動人工智能用于和平目的。

另一方面,推動各國政府通過官方或半官方對話,達成相關(guān)協(xié)議,建立戰(zhàn)略互信。相較于政府層面的“1軌對話”,“1.5軌對話”指的是政府官員與民間人士共同參與的對話,而“2軌對話”則是由學者、退休官員等進行的民間非官方形式的對話。這兩種對話形式具有更高的靈活性,是政府間官方對話的重要補充和輔助手段。通過多樣化的對話交流方式,官方和民間人士可以廣泛磋商軍備控制的可能實現(xiàn)路徑,分享經(jīng)驗和專業(yè)知識,以避免軍備競賽的升級和緊張局勢的惡化。這些對話機制將為各國提供持續(xù)的溝通與合作平臺,有助于增進相互理解、加強戰(zhàn)略互信,共同應對人工智能軍事化應用帶來的挑戰(zhàn)。

? 科學制定人工智能法律和倫理規(guī)約。

人工智能技術(shù)本身并無對錯善惡之分,但對于人工智能的設計、研發(fā)、制造、使用、運行以及維護確有善惡意圖之別。人工智能武器化引發(fā)了廣泛的倫理關(guān)注。國際法框架下,自主武器系統(tǒng)是否能夠在復雜戰(zhàn)場上精準區(qū)分戰(zhàn)斗人員與平民?此外,若人工智能武器系統(tǒng)導致非預期的傷害,其責任歸屬如何界定?將關(guān)乎生死的決策權(quán)交付于機器,這一做法是否符合道德倫理標準?這些擔憂凸顯了加強人工智能倫理約束的必要性。

一方面,要堅持倫理先行,從技術(shù)源頭上融入“智能向善”的理念。在人工智能軍事系統(tǒng)的設計過程中,將以人為本、智能向善等價值觀內(nèi)嵌于系統(tǒng)中。其目的是從源頭上杜絕人工智能可能引發(fā)的濫殺濫傷行為,控制其過度殺傷力,防范意外毀傷的發(fā)生,從而將人工智能武器系統(tǒng)所帶來的毀傷程度限制在盡可能小的范圍內(nèi)。目前,國內(nèi)外已有近百家機構(gòu)或政府部門發(fā)布各類人工智能倫理原則文件,學術(shù)界和產(chǎn)業(yè)界亦就人工智能基本倫理原則達成共識。2022年,中國向聯(lián)合國遞交的《關(guān)于加強人工智能倫理治理的立場文件》為全球人工智能倫理監(jiān)管的發(fā)展提供了重要參考。文件明確強調(diào),應通過制度建設、風險管控、協(xié)同共治等多方面的措施來推進人工智能倫理監(jiān)管。

另一方面,要完善相關(guān)法律法規(guī),明確人工智能主體的權(quán)責邊界。制定嚴格的技術(shù)審核標準,確保人工智能系統(tǒng)的安全性和可靠性。在人工智能系統(tǒng)上線前進行全面的測試,確保其不會對人類生活和社會秩序造成負面影響。明確開發(fā)者、使用者、維護者等各方在人工智能系統(tǒng)全生命周期中的法律責任,以及建立相應的追責機制。

? 務實參與人工智能安全治理國際合作。

人工智能軍事應用所帶來的戰(zhàn)略風險,更加凸顯出國際安全務實合作的重要性。建議重點從三個方面著手:

一是推動制定人工智能在軍事領域的運用準則。制定人工智能軍事應用的行為準則,是各國規(guī)范人工智能軍事應用的重要責任,也是推動國際共識和遵守國際法規(guī)的必要舉措。中國政府2021年向聯(lián)合國《特定常規(guī)武器公約》大會提交了《中國關(guān)于規(guī)范人工智能軍事應用的立場文件》,2023年發(fā)布《全球人工智能治理倡議》,這些都為完善規(guī)范人工智能軍事應用的行為準則提供了建設性參考。

二是建立適用的監(jiān)管框架。人工智能軍民兩用性使其涉及眾多利益攸關(guān)方,一些非國家行為體如非政府組織、技術(shù)社群、科技企業(yè)在人工智能全球治理進程中的作用將更加突出,成為人工智能軍事應用監(jiān)管框架建設的重要力量。各國可采取的技術(shù)監(jiān)管措施包括:明確人工智能技術(shù)的使用范圍、責任主體和違規(guī)處罰措施;加強技術(shù)研發(fā),提高技術(shù)的安全性和可控性;建立監(jiān)管機制,對技術(shù)的研發(fā)和應用進行全程監(jiān)管,及時發(fā)現(xiàn)和解決問題。

三是共同研發(fā)人工智能安全防范技術(shù)和解決方案。鼓勵將政府間和軍隊間的雙邊或多邊談判納入軍用人工智能應用的對話選項,就軍用人工智能安全防范技術(shù)、操作規(guī)程及實踐經(jīng)驗廣泛交流,推動相關(guān)風險管理技術(shù)標準和使用規(guī)范的分享借鑒,為人工智能軍事化背景下的國際安全互信機制不斷注入新的穩(wěn)定因素。

(作者為國防科技大學國防科技戰(zhàn)略研究智庫主任、研究員,博導;國防科技大學外國語學院碩士研究生劉胡君對本文亦有貢獻)

【注釋】

①Katz B. Analytic edge: Leveraging emerging technologies to transform intelligence analysis [R]. Washington D.C.: Center for Strategic and International Studies, 2020.

②Paul McLeary. Pentagon’s Big AI Program, Maven, Already Hunts Data in Middle East, Africa[N]. Breaking Defense, May 1, 2018.

③唐新華:《美國綜合威懾戰(zhàn)略中的技術(shù)互操作性》,《太平洋學報》, 2022年第12期,第15-25頁。

④Robyn Dixon. Azerbaijan’s Drones Owned the Battlefield in Nagorno-Karabakh—and Showed Future of Warfare[N]. The Washington Post, November 11, 2020.

⑤朱啟超、陳曦、龍坤:《無人機作戰(zhàn)與納卡沖突》,《中國國際戰(zhàn)略評論》,2020年第2期,第167-183頁。

⑥The Verge Report: Israel used AI to identify bombing targets in Gaza [EB/OL].[2024-04-05]. https://www.theverge.com/2024/4/4/24120352/israel-lavender-artificial-intelligence-gaza-ai#:~:text.

⑦羅易煊、李彬:《軍用人工智能競爭中的先行者優(yōu)勢》,《國際政治科學》, 2022第3期,第1-33頁。

⑧U.S. Department of Defense. Deputy Secretary of Defense Kathleen Hicks Keynote Address: The Urgency to Innovate (As Delivered) [EB/OL]. [2023-08-28]. https://www.defense.gov/News/Speeches/Speech/Article/3507156/deputy-secretary-of-defense-kathleen-hicks-keynote-address-the-urgency-to-innov/.

⑨[美]托馬斯·謝林著,毛瑞鵬譯:《軍備及其影響》,上海:上海人民出版社,2017年,第81頁。

⑩Rautenbach P. Keeping Humans in the Loop is Not Enough to Make AI Safe for Nuclear Weapons[EB/OL], https://thebulletin.org/2023/02/keeping-humans-in-the-loop-is-not-enough-to-make-ai-safe-for-nuclear-weapons/,2023-02-16/2024-01-09.

?Mayer M. The new killer drones: understanding the strategic implications of next-generation unmanned combat aerial vehicles[J], International Affairs, 2015,91(04):771.

?[美]保羅·沙瑞爾著,朱啟超、王姝、龍坤譯:《無人軍隊:自主武器與未來戰(zhàn)爭》,北京:世界知識出版社,2019年,第153-156頁。

責編/谷漩 美編/王夢雅

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復本微信號獲得授權(quán),轉(zhuǎn)載時務必標明來源及作者,否則追究法律責任。

[責任編輯:謝帥]