【摘要】人工智能(AI)“復活”的數字人具有高仿真性、強交互性,可給人們帶來一定情感支持。但是,一旦AI“復活”技術被濫用,可能帶來一定風險。對此,應以死者權益保護為前提、以人工智能合法應用為核心、以傳播平臺生態治理為保障,共同堅守AI“復活”技術應用的合法底線。未來,應更加注重AI“復活”技術應用的倫理治理,借助法律力量推進科技倫理成為具有普遍約束力的行動指南,從而實現科技倫理治理法治化,讓AI技術真正造福人類。
【關鍵詞】人工智能“復活” 應用 科技倫理 法治化
【中圖分類號】D922.17;TP18 【文獻標識碼】A
從人工智能(AI)“復活”公眾人物鄧麗君、李玟、高以翔,到商湯科技的如影數字人團隊在公司年會上“復活”前任總裁湯曉鷗,再到電商平臺上提供多樣的AI“復活”逝者服務……,AI“復活”逝者成為民眾熱議的話題。當“云上棲息”走向現實,AI“復活”技術的應用帶給人們情感支持的同時,也帶來了一些風險和問題。對此,我們應更加關注科技發展與社會倫理道德之間的動態互動,以實現保障基本人權與科技進步之間的平衡。
濫用人工智能“復活”技術產生的風險與社會問題
AI“復活”逝者,本質是將個體的聲音、肖像素材輸入人工智能模型進行訓練學習,實現逝者的數字分身的生成與交互。值得注意的是,AI“復活”技術是新應用而非新技術,用AI“復活”技術將逝者個人信息生成數字人,其本質是深度合成或生成式人工智能技術的應用場景。①AI“復活”逝者的初衷也許出于人們的思念和緬懷,但是,一旦AI“復活”技術被濫用,不僅可能侵犯死者肖像、聲音等人格權益,還可能帶來詐騙、誤導輿論等風險。
從死者人格利益保護角度來看,逝者AI分身的構建、應用涉及大量死者肖像、聲音以及個人信息等數據的處理,相關數據的不當使用會直接侵害死者的人格利益。我國民事法律一向對死者相關人格利益提供法律保護。一是《中華人民共和國民法典》(以下簡稱《民法典》)第994條明確了死者的“姓名、肖像、名譽、榮譽、隱私、遺體”等人格利益受到法律保護。根據法律解釋,還包括死者的個人信息、聲音、信用利益等。②構建AI分身所需的肖像、聲音等個人信息受到法律的保護。二是《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)。相較于《民法典》,《個人信息保護法》第49條明確規定死者個人信息受到法律保護,并賦予死者近親屬對死者個人信息享有查閱、更正、刪除等權利,為死者個人信息提供了更為積極的保護。③由此可見,應用AI“復活”技術既涉及死者的人格利益保護,又涉及死者近親屬自身對死者個人信息所享有的權利。
從AI“復活”技術應用的合規角度看,其本質是深度合成或生成式人工智能對包含敏感個人信息(如生物特征)的個人信息的處理活動。相關應用可能存在以下三個方面合規風險。首先,數據源合規風險。法律法規對AI“復活”技術應用中涉及敏感個人信息的訓練數據來源存在合法性要求。《互聯網信息服務深度合成管理規定》第14條規定,提供生物識別信息編輯功能的技術支持者與服務提供者應當提示使用者依法告知被編輯的個人,并取得其單獨同意。此外,《生成式人工智能管理暫行辦法》(以下簡稱《AIGC暫行辦法》)同樣規定生成式人工智能訓練內容涉及個人信息的,應當取得個人同意。其次,生成虛假信息風險。深度合成技術加劇了AI詐騙等網絡犯罪風險,服務提供者需確保AI“復活”技術的生成內容合規。服務提供者作為監管對象肩負著向上游連接技術支持者,向下游負有用戶提示義務,對生成內容合規負有責任。④最后,數據安全風險。AI“復活”技術應用在交互方式上相對自由,包含敏感個人信息的訓練數據安全需得到有效保障。
從AI“復活”應用的科技倫理維度來看,倫理治理已成為人工智能治理舉足輕重的議題與環節。面對人工智能技術迅速發展,單一的法律監管維度顯得力有不逮:一方面,立足于解決明確、現實風險的法律難以應對人工智能技術快速迭代所導致的風險的高度不確定性。另一方面,人工智能歷史展現了從工具向價值建構的角色轉換,需要倫理治理引導科技向善。基于此,《中國關于加強人工智能倫理治理的立場文件》《全球人工智能治理倡議》均主張堅持“以人為本、智能向善”治理理念。目前我國人工智能領域的科技倫理治理體系尚不健全,AI“復活”技術治理為其完善提供了良好切口。AI“復活”技術的應用,打破了真實和虛擬的邊界,一定程度上可能導致人類主體性價值的缺失。AI“復活”的數字人一旦生成歧視、仇恨等言論,也可能對公眾造成誤導。應對AI“復活”技術實際應用中出現的問題,可以反過來推動科技倫理治理的理論創新和制度完善。
人工智能“復活”技術應用的合法底線
AI“復活”技術的實際應用中,應堅守以死者權益保護為基礎、以人工智能技術合法應用為核心、以平臺生態治理為保障的合法底線。
征得同意應當是AI“復活”技術應用的前提。即只有獲得了死者生前的書面同意或死者生前并未明確拒絕,死后其近親屬的書面同意,才可以啟動AI“復活”技術應用。《民法典》994條規定,死者近親屬享有保護死者人格利益,救濟所受侵害的請求權。在司法實踐中,死者利益保護請求權的內涵包括行為人商業化使用的不當得利返還請求權,換言之,在不違背死者意愿的前提下,死者近親屬有權授權許可。⑤此外,《個人信息保護法》賦予了死者近親屬對死者個人信息廣泛的權利,在不影響死者人格尊嚴保護以及不違背其生前意愿的前提下,應當認定其可以積極發揮死者個人信息的經濟效用。⑥因此,若未經死者生前或死者近親屬授權而擅自使用AI“復活”技術應用,死者近親屬有權主張行為人承擔相應民事責任。此外,即使死者沒有近親屬也并不意味著可以自行其是,在死者生前通過遺囑或者指定方式確定其死后人格利益保護人的情形下,則應當獲得意定保護人的同意。
AI“復活”技術應用在數據的收集、處理及輸出全過程均應堅守合法底線。首先,數據攫取應當遵循《個人信息保護法》規定的合法、正當、必要及誠信的原則。⑦AI“復活”技術應用過程中,不應過度收集死者的肖像、個人信息等數據,圍繞技術應用本身形成明確、合理的數據處理目的,在與目的直接相關的范圍內收集死者的照片、聲音、視頻等數據,避免對財產狀況等非必要信息的收集。其次,數據處理過程中應當避免對相關主體隱私權的侵犯。由于死者個人數據中雜糅著家庭成員及其他相關主體的個人數據,如果不加區分地進行生成式人工智能自主訓練,則極易侵犯相關主體隱私權等人格權。因此數據處理過程中應當對其他相關主體的個人數據進行專門甄別、剔除過濾。最后,在AI分身與用戶交互過程中,較易生成與逝者生前形象相悖的帶有歧視、偏見、仇恨色彩的言論,這不僅會導致侵犯他人的名譽權等人格權,還是對死者名譽與榮譽等人格利益的侵犯。
需確保AI“復活”技術應用本身的合法性。一方面,為防止利用AI“復活”技術應用從事各種欺騙和欺詐活動,應充分發揮標識制度的源頭治理效用。我國現已出臺《互聯網信息服務深度合成管理規定》《AIGC暫行辦法》,構建了較為完善的有關深度合成內容的標識制度。⑧為防止真偽不明造成真偽混淆,AI“復活”技術應用的服務提供者應當在死者AI分身的合理位置進行顯著與隱性標識:一是內容上,應當說明相關內容為AI生成,避免用戶混淆。二是標注防偽標志,防止他人用于其他非法用途。三是隱形標識中應當標注制作公司與時間等信息,便于事后溯源和監督。另一方面,AI“復活”技術應用在交互場景下更易獲取用戶隱私數據,一旦泄露會對數據主體人格及財產權益造成損害。AI“復活”技術應用在量身定制的人機交互關系中,可以在情景對話中提供符合用戶偏好的回答,輔之死者生前與用戶的密切關系,用戶更易卸下心防,在交互中提供較多關于自己的隱私等信息。這意味著服務提供者掌握著大量的數據資源,一旦發生數據泄露,將會對數據主體人格及財產權益造成損害。故而,服務提供者應妥善保管和使用相關數據,防止數據泄露或被不當使用。此外,還應保證人工智能模型的安全性,以防出現算法缺陷或黑客攻擊等問題,如定期審核、評估、驗證生成合成類算法機制機理。
應加強對AI“復活”技術應用的傳播平臺的治理。AI“復活”技術應用在與用戶的交互中生成的內容具有不可預知性,容易誘發不良、違法言論。網絡社交媒體平臺為相關不良生成內容的傳播提供了便利,加劇了社會不穩定風險。此外,目前短視頻平臺上已經存在許多代理商通過發布視頻吸引目標客戶,因此網絡平臺生態治理勢在必行。
第一,制定AI“復活”技術應用相關內容顯著標識的運營管理規范,并提供相關的標識技術措施,引導用戶行為規范化。實踐中,抖音等平臺已發布人工智能生成內容標識的相關規范。除了對制作者提出標識要求外,網絡平臺一旦發現,應當主動標記,并采取警告、限制轉發、刪除等措施。第二,加強傳播平臺的內容審查義務,并對違法、不良信息采取規制手段。一方面,平臺應當在事前嚴格審查,明確未獲得授權許可不得上傳。一旦發現含有不良價值觀導向、嚴重破壞平臺健康生態的違規內容,應立即予以下架。另一方面,網絡平臺應持續優化自動識別、過濾不良信息等相關智能治理技術,實現平臺分類標記信息內容,根據平臺用戶數量進行差異化管理。第三,完善用戶投訴舉報機制,可設立AI“復活”技術應用投訴舉報專區。平臺有義務建立便捷的公眾投訴舉報入口,公布處理流程和時限,及時受理、處理投訴舉報。根據“通知-刪除”規則,網絡平臺一旦審查發現違法、不良信息內容,應當馬上核實,采取警告、限制轉發、刪除等措施。此外,網絡平臺若發現違法犯罪線索,應移交行政監管部門。
AI“復活”技術應用倫理治理的法治化路徑
在堅守合法底線的基礎上,AI“復活”技術應用治理還需要科技倫理提供框架和指導。借助法律力量來推進科技倫理成為具有普遍約束力的行動指南,從而實現倫理治理法治化。
AI“復活”技術應用在個人層面進行倫理治理的法治化道路建設。應當確保技術應用符合人類價值觀、彰顯人類的主體價值,并有助于人類基本權益的實現。同時,需明確法律治理與倫理治理在內在邏輯上存在著一定差別,借助法律規范增強倫理的規范化和標準化水平應堅持審慎的態度。
首先,對AI“復活”技術應用所涉數據,應明確人格權益保護路徑,而非數字遺產保護路徑。聯合國教科文組織(UNESCO)在《保存數字遺產憲章》中明確規定,“數字遺產”(Digital Heritage)指包含文化等諸多領域在內以數字形式生成的信息,或從現有的類似的模式轉換成數字形式的信息。依據數字遺產財產權的法律屬性,其可以作為遺產由繼承人加以繼承。相比之下,死者的肖像、聲音、個人信息等屬于人格權益的范疇,具有人身專屬性,只能由近親屬進行保護而不可繼承。
其次,AI“復活”技術應用應當強調以人為本,充分尊重人身自由和人格尊嚴。第一,如果死者表明拒絕AI“復活”技術應用,應當充分尊重死者的意愿。故而,如果死者生前做出禁止AI“復活”技術應用的意思表示,則死者近親屬無權授權。否則,其他近親屬或意定保護人有權向違背死者意愿的近親屬主張民事責任。第二,如果死者生前表達了對其人格權進行商業化利用的意愿,則應當予以尊重。第三,如果死者生前并未做出相關聲明,如前所述,極大可能出現近親屬對AI“復活”技術應用提出不同要求的情形。面對相關主體之間的沖突,可以采取差異化處理的思路。如果在私人范圍內使用,基于緬懷等情感撫慰等目的,則只需要不違背死者生前意愿,近親屬本人或者征得其中一位近親屬同意即可。如果應用于公共平臺流通,由于可能會對近親屬造成二次傷害,則應當恪守知情同意原則,需征得全部近親屬的同意。
最后,需要明確AI“復活”的數字人非法律主體地位,同時對AI“復活”的數字人的應用場景予以限制。雖然AI“復活”的數字人給人們提供了真實的情感支持、彌補親友傷痛等情緒價值等,但這并不意味著AI“復活”的數字人真正具備人類意識。AI“復活”的數字人對人類意識本質屬性社會性的缺乏,決定了其無法獨立自主參與社會活動,不能真正意識到自己行為的法律后果,這就導致AI“復活”的數字人不具有法律主體地位,其行為不被視為具有法律效力的行為。
AI“復活”技術應用于產業鏈的倫理治理規范化建設。一是AI“復活”技術產業的服務提供者應當承擔起防止用戶沉迷的義務。AI分身具有高仿真性、強交互性,同時親友與死者之間的情感寄托往往會導致用戶判斷力下降和對AI分身的情感依賴,從而加劇沉迷的風險,造成逃避現實、弱化社交。此外,還會影響人們對現實親情關系的態度??梢哉f,AI“復活”技術應用對人類的倫理理念和行為準則產生了重要的影響。我國法律已經意識到科技應用的倫理價值負載,并做出了制度回應?!痘ヂ摼W信息服務算法推薦管理規定》指出,服務提供者不得設置誘導用戶沉迷、過度消費等違反法律法規或者違背倫理道德的算法模型。在具體實施中,建議設置彈出虛擬場景提示窗口,防止用戶迷失于現實與虛擬的分界。同時,還應對未成年人與成年人進行不同的防沉迷設計。
二是服務提供者需保障AI“復活”技術應用的信息透明度,履行相關披露義務。聯合國教科文組織《人工智能倫理問題建議書》指出,人工智能透明是“確保人權、基本自由和倫理原則得到尊重、保護和促進的必要先決條件”。因此,應推動AI“復活”技術應用的透明化:服務提供者應加強服務披露。一方面,應明確自身為生成式人工智能服務提供者的身份;另一方面,應事先向用戶披露治理機制和管理規則,并對用戶進行適當的指引。加強算法的可解釋性。服務提供者應采取通俗易懂的個性化解釋方式,使用戶充分了解人工智能產品的運作原理。服務提供者應全方位建立AI“復活”技術應用的算法評估報告披露制度,引入第三方算法評估與審計程序,并向公眾展示深度合成的情況。
三是服務提供者作為“守門人”應當在服務提供的全過程中承擔安全保障義務。除產品研發上線前,后續的服務過程中還需持續進行風險影響的跟蹤評估和定期審核。對產品服務的機理、模型、數據和輸出結果等予以驗證并及時修正,避免生成式人工智能算法“偏離預設軌道”,產生違背倫理道德的相關內容。此外,AI“復活”技術服務提供者還應承擔必要的刪除義務,在近親屬主張、缺乏其他管理人以及定作人要求時,應建立及時的AI分身銷毀機制。
四是產業鏈倫理治理體系的構建需要協同推進,作為產業鏈末端的用戶也應當承擔恪守AI倫理與文明底線的義務。用戶在享受AI“復活”技術服務的過程中,其向AI分身的提問方式、指令要求對生成內容起到關鍵作用。依據《互聯網信息服務深度合成管理規定》的要求,不得利用深度合成服務生產或傳播違法信息。⑨因此,用戶應當保持良好的倫理道德意識,不斷提升自身數字素養,促進形成符合倫理的秩序。
法律在引導人工智能技術向善的過程中,展現出了倫理化趨勢:倫理道德開始成為立法依據,人工智能治理的法律轉向回應倫理問題。未來,人們應引導AI“復活”技術更好地服務人類,同時,采取法治化手段規避技術濫用造成社會危害。
(作者為中國政法大學數據法治研究院教授、博導)
【注釋】
①參見《互聯網信息服務深度合成管理規定》第23條,《生成式人工智能服務管理暫行辦法》第12條。
②楊立新:《死者人格利益保護請求權的法理依據與適用規則—<民法典>第994條的關鍵詞評注》,《杭州師范大學學報(社會科學版)》,2023年第45卷第5期,第104頁。
③程嘯:《論死者個人信息的保護》,《法學評論》,2021年第5期,第20-22頁。
④參見《互聯網信息服務深度合成管理規定》第10條。
⑤趙軒毅:《論死者人格財產利益保護的請求權基礎及其內在限度》,《學術交流》,2020年第6期,第42-46頁。
⑥王葉剛:《死者個人信息保護釋論》,《法律科學(西北政法大學學報)》,2023年第41卷第6期,第34、41頁。
⑦參見《中華人民共和國個人信息保護法》第5條。
⑧參見《生成式人工智能服務管理暫行辦法》第12條。
⑨參見《互聯網信息服務深度合成管理規定》第6條。
責編/陳楠 美編/王夢雅
聲明:本文為人民論壇雜志社原創內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。