亚洲激情在线-天堂中文在线最新版地址-茄子视频破解永久ios-噜噜色图|www.bjxyzx.com

網站首頁 | 網站地圖

大國新村
首頁 > 理論前沿 > 深度原創 > 正文

發展人工智能須把好法律關

核心提示: 人工智能是全球科技關注的熱點,但作為前沿技術也是把“雙刃劍”,面對人與機器間的關系引發社會秩序、管理體制以及倫理規范等方面的問題,必須用法律手段予以規制。要在充分理順好科技創新和法律制度的關系基礎上,出臺針對人工智能的法律法規,厘清人工智能開發主體的法律責任,做好人工智能社會運用的法制監督。

【摘要】人工智能是全球科技關注的熱點,但作為前沿技術也是把“雙刃劍”,面對人與機器間的關系引發社會秩序、管理體制以及倫理規范等方面的問題,必須用法律手段予以規制。要在充分理順好科技創新和法律制度的關系基礎上,出臺針對人工智能的法律法規,厘清人工智能開發主體的法律責任,做好人工智能社會運用的法制監督。

【關鍵詞】人工智能  法律  規制    【中圖分類號】D92    【文獻標識碼】A

人工智能已成為全世界關注的科技前沿技術,世界各國紛紛加大人財物等的投入,搶占人工智能高地。2017年我國發布《新一代人工智能發展規劃》,明確了人工智能發展目標,這標志著我國人工智能發展提高到國家戰略層面。但人工智能為社會發展帶來機遇的同時,也帶來隱私保護、知識產權糾紛等問題。科技的發展需要法律的規制,既要保障人工智能服務于人類,又要提高科技創新水平。

科技的快速發展給法律秩序帶來了新變化

科技創新擴展了立法范圍。現代科技的發展,立法范圍不斷擴大,讓科技法成為單獨立法部門。科技創新成果運用到生產生活中,就會出現新的社會關系,法律方面的問題隨之出現。參照國際上通用的做法,通過立法干預科技活動,規范科技范疇中新出現的社會秩序及關系,比如《中華人民共和國專利法》等,尤其是當代科技發展迅速,使科技立法發展到新階段,成為獨立法律體系,科技法學也發展成獨立學科。

立法規范并協調科技創新中的各類關系。科技創新作為創造性社會活動,是先進生產力的代表,必須建構與之相匹配的生產關系來加以維系。在法律框架內受保護的科技創新,才能為實現健康有序發展。現代科技活動的發展往往都牽涉到復雜社會關系,這些關系往往涉及到復雜的利益背景、利益關系,充滿了利益矛盾及沖突,為此,必須通過法律來進行調整。

人工智能的快速發展,為法律秩序帶來新變化,依靠當前的法律規范不能對人工智能法律關系加以調整與規范,這需要創新法律體系,建立人工智能法律體系。人工智能法律體系建構的初衷是通過運用法律杠桿減少人工智能對公眾帶來的風險,最大程度為人工智能發展創建安全的法治環境。又因為其涉及到多個學科、諸多領域,涉及案件的案情也較為復雜,這對法官提出了更高要求,需要結合人工智能發展的態勢,創建“人工智能法庭”,組建專業性強的審批隊伍,落實人工智能法律適用,解決人工智能法律案件,維護人工智能的公平正義。

厘清人工智能開發主體的法律責任

人工智能沖擊法律是因為能建立對人的模擬,能進行獨立思考,開展獨立行動,基于此,人工智能對當前法律進行沖擊,法律應對人工智能需要厘清人工智能開發主體的法律責任,提高法律執行效力。

第一,規范人工智能采集、使用、分析大數據行為,尤其是涉及公民個人信息的,要堅決予以制止,保證公民的個人信息安全。與此同時,對新近出現的無人駕駛技術等要明確設計、生產、經營以及使用各主體的法律責任,如果出現因人工智能導致的法律案件,明確不同主體的法律責任,能精準定位各方責任,便于案件處置。此外,做好人工智能開發者的科學管理,尤其是開發者在進行設計時,要秉承以人為本的理念,嚴守社會倫理道德,嚴禁以不正當目的進行人工智能開發。對人工智能的銷售、使用者進行約束,銷售人員執行人工智能產品驗收制度,有產品合格證明、質量認證標志。人工智能的使用者要進行合理利用,不能損害他人合法權益,要在法律相關規定中明確使用條件和具體標準。如果因人工智能導致的侵害,需要明確責任分擔機制。如果是開發者的責任,必須由開發者去承擔,而因其認知上的局限,出現損害,開發者也需要承擔一定責任。而銷售、使用人員出現過錯的,需要承擔相關責任。

第二,針對人工智能涉及到著作權,人工智能生成的內容,如果是機器人獨立完成,自然成為受著作權保護的產品,不考慮其價值、用途等。機器人生產的作品擁有著作權,但是不能和自然人那樣去行使權利,也就是說即便是機器人獨立完成的作品,其著作權應屬于機器人的創造者,這主要是因為機器人并不是真正意義上的“人”,是借助算法、數據來完成創作,其本質是人類的創作,必須充分考慮設計者的作用,因人工智能不能認定為著作權人。所以,在明確人工智能不同的主體后,便于清晰劃分法律責任,禁止濫用人工智能從事違法活動的行為,利于保障人工智能技術的推廣和運用。

堅持法律手段與倫理道德并重

人工智能時代的到來,也亟需行為規范調整社會關系。社會規范體系中基本的調節手段是法律、道德,借助不同方式或機制對社會生活的各個領域發揮影響。針對人工智能對社會關系作出的調整,倫理道德也能起到一定的先導作用。法律規范是根據生活而生成的,并且立法過程極為復雜,難免滯后,然而,倫理規范能發揮預設、先行作用,對已經變化或者可能出現變化的社會關系予以調整。美國、日本等都開展了對人工智能的倫理學探索,國外一些企業在從倫理規范方面強化了人工智能專家肩負的責任,突出科研工作者對社會的責任,指導合理的人工智能研發。因此,在借助法律手段對人工智能進行規范的同時,也要充分考慮道德規范的作用,對設計的人工智能產品預設道德準則,對其開展倫理指引,明確人工智能技術研發以及使用的道德規范,用倫理規范去約束科研工作者,這樣倫理規范自然就能為法律的實施提供法源,轉變為法律規范,完成道德法律化。因此,人工智能時代注重法律手段與倫理規范并重,能更好地推動人工智能健康發展。

做好人工智能運用的法制監督

全面落實法律防控,降低人工智能潛在性侵害。法律防控是實施風險治理的有效措施,實施人工智能的立法者需要關注風險功能的法治化。比如專利法能發揮激勵創新的功能,授權客體的擴大及權益保護,是推動人工智能發展的法律表現。當然,也要關注權利客體排除領域,避免權利出現濫用,盡早清除人工智能存在的潛在性危害,與此同時,也要善于借助科技方面的法律法規,對人工智能的開發、使用以及傳播等建立約束與懲戒機制。

規避人工智能造成的技術風險,實施技術控制。技術控制主要表現為政策制定、法律法規以及倫理規則等等,實施風險控制是進行提前預防,也就是從技術視角進行規制,規避技術所產生的負面效益。風險規避的基礎性方式是從技術研發到運用的過程中實施的責任制度,包含科學倫理、法律責任等,而風險規避的實施是倡導技術民主原則,適時公開技術信息,引入公眾參與決策。規避人工智能造成的技術性風險,既要從長遠出發對傳統法律制度進行改造升級,也要充分借助社會力量,做好監管工作,建立完善的風險防控機制。

總之,人工智能時代的來臨,不僅是科技領域的現象,也改變了經濟社會形態,為人們的生產生活提供了便捷,為經濟社會發展帶來了新機遇。但是人工智能的發展,也需要法治,用法來管控人工智能的發展方向,建構適宜人工智能發展的法律體系,明確各主體的法律責任,同時,也要注重發揮倫理道德的效能,并做好人工智能發展的法制監督,確保人工智能在法律規制下實現健康發展。

(作者為北京理工大學法學院博士研究生)

【參考文獻】

①雷悅:《人工智能發展中的法律問題探析》,《北京郵電大學學報(社會科學版) 》,2018年第1期。

②鄭戈:《人工智能與法律的未來》,《探索與爭鳴》,2017年第10期。

③梁志文:《論人工智能創造物的法律保護》,《法律科學(西北政法大學學報) 》,2017年第5期。

責編/張蕾    美編/楊玲玲  史航(見習)

聲明:本文為人民論壇雜志社原創內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。

[責任編輯:謝帥]
標簽: 人工智能   法律   發展