亚洲激情在线-天堂中文在线最新版地址-茄子视频破解永久ios-噜噜色图|www.bjxyzx.com

網站首頁 | 網站地圖

大國新村
首頁 > 原創精品 > 成果首發 > 正文

人工智能時代社會科學研究的“變”與“不變”

【摘要】人工智能的發展推動社會科學研究在廣度與深度上產生了質的飛躍,基礎研究、知識創造將更加呈現跨學科交叉的趨勢,形成了人工智能驅動的社會科學研究范式變革,對社會科學的知識生產和傳播產生了革命性影響。一方面,人工智能以其強大的數據和算法全面賦能社會科學的發展;另一方面,人工智能也顯著改變著人類的行為和決策方式,引發了道德、倫理、隱私、規范等新的社會問題,使人工智能治理成為社會科學的重要研究對象。當前,有必要在闡釋人工智能賦能社會科學的深層次機理的基礎上,剖析人工智能時代社會科學的“變”與“不變”,并就進一步促進人工智能與社會科學的融合發展提出對策建議。

【關鍵詞】人工智能 社會科學研究 賦能機制 人工智能治理 未來展望

【中圖分類號】TP18/G642.3 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2024.04.012

【作者簡介】楊永恒,清華大學公共管理學院教授、博導,清華大學中國發展規劃研究院副院長。研究方向為中長期戰略與規劃、文化戰略與政策、數字文化、公共服務與管理。主要著作有《發展規劃:理論、方法和實踐》、《現代治理視角下的發展規劃:理論、實踐和前瞻》(合著)、《政府治理指標》(譯著)、《中國人類發展報告特別版》(主編)等。

人工智能與經濟社會發展的深度融合,使人工智能的應用從科技領域延伸至社會科學領域,推動了人工智能驅動的社會科學范式變革,對社會科學的知識生產和傳播產生了革命性影響。一方面,人工智能為社會科學研究提供了新的工具、方法和手段,基礎研究、知識創造將更加呈現跨學科交叉的趨勢,衍生出了計算社會科學、計算法學、數字人文等新的學科和學術增長點。另一方面,人工智能重構著人類的生產、生活和思維方式,顯著改變著人類的行為和決策模式,形成了新的社會形態,引發了道德、倫理、規范等領域新的社會問題,使人工智能自身成為了社會科學重要的研究對象。把握人工智能對社會科學的影響,不僅要看到其帶來的積極效果,也要充分認知其所引發的新的問題,理性研判未來人工智能賦能社會科學的發展趨勢,確保其符合人類社會的基本倫理和價值,并充分尊重人在知識創造中的主體作用。

人工智能賦能社會科學的底層邏輯

人工智能尤其是生成式人工智能(AIGC)的快速更新迭代,以其強大的多模態數據處理能力,讓人們對人工智能的總結、提煉、抽象、推理、創作等能力充滿了憧憬。大語言模型(LLM)可以對文本、聲音、圖像、視頻等多模態大數據進行強有力的數據處理、信息提取與建模分析,其生成的內容也可以成為社會科學研究的重要素材。例如,美國OpenAI公司研發的ChatGPT針對互聯網或特定大型文本數據集進行訓練,從這些訓練數據中學習語言模式、語法、上下文和語義,然后運用訓練出的算法處理和生成文本內容,據此完成語言翻譯、文本摘要、情感分析、聊天和文本寫作等任務。

從本質上講,人工智能大模型是在對人類現存知識和經驗進行機器學習和訓練的基礎上,生成強大的算法和模型來揭示與關聯人類現存知識和經驗。ChatGPT就是一個機器學習模型,基于給定的訓練數據,根據某些單詞或單詞序列一起出現的概率來生成文本,本質上并不是理解文本數據,而是在根據概率預測文本數據。[1]大模型巨大的語料庫和超乎尋常的算力,共同支撐了其強大的知識揭示和關聯能力,使其擁有了更加精準的預測能力,這是人類所不可比擬的。大模型的預測能力體現在對人類現存知識和經驗的識別精準度,以及在此基礎上進行預測和研判的能力上。以文獻學為例,人工智能將以往被分割和隔絕的文獻資料重新連接,最大程度地促進文獻關聯與知識發現,改變了學者對文獻、知識的認識路徑,促進了學術研究、知識生產的快速迭代和更新(劉石、李飛躍,2021)。在人工智能的幫助下,研究人員可以通過大數據和算法,更好地理解社會運行規律、解決社會現實問題、預測社會未來趨勢。其作用至少體現在如下三個方面。

第一,為社會科學研究提供強大的新工具和新手段。人工智能大大強化了以數據為基礎的社會科學實證研究范式。大語言模型如ChatGPT使用了海量大數據甚至是整個互聯網文本數據,對文本、聲音、圖像、視頻等多模態大數據進行數據處理、信息提取與建模分析,可以有效支撐文獻綜述、理論建構、研究設計、收集數據、分析數據、文本撰寫等研究任務。大模型的基礎數據庫匯聚了世界上盡可能多的存量知識,雖然不能說是全樣本,但已經是關于人類知識的非常大的樣本。從知識樣本接近全樣本量的角度看,大模型給出的答案可能讓人類個體無限接近理性。

人工智能也為文獻研究、文化遺產保護和活化利用等提供了更加高效便捷的手段。數字技術推動了古籍整理和利用的轉型升級,創新了文獻生產方式、變革了文本呈現形態、拓展了文獻獲取方式,對于古籍整理、保護和傳承發揮了至關重要的作用(劉石、李飛躍,2021)。2021年9月,國際儒學聯合會在杭州、臺北兩地連線,向臺灣民間機構云贈送《文瀾閣四庫全書》,這樣一部皇皇巨著通過數字化整理,可以被更廣泛、更便捷地檢索和使用(楊永恒,2023)。清華大學郭黛姮教授團隊在查閱歷史資料基礎上,借助虛擬現實及增強現實技術,構建了“數字圓明園”,再現了圓明園昔日的恢弘場景。

第二,促使社會科學研究的數據來源發生革命性轉變。傳統社會科學研究往往通過問卷調查、行為實驗、半結構化訪談、多主體建模、參與式觀察等方式收集數據,獲得個人、群體、文化族群及其動態演進特征的概括性描述。人工智能可以幫助研究者及時快速收集大規模數據,從中提取有價值的信息并進行分析。大語言模型利用深度學習來捕捉文本和語言中的復雜關系,包括上下文語境和準確語義,甚至能夠捕捉諷刺、隱喻或情感等細微的語言細節(Bubeck et al., 2023)。這種超強的語言識別能力可以幫助研究者快速有效地收集和處理包括文本和語音在內的多模態數據。

人工智能也可以成為研究者干預控制下的數據收集主體,向不同研究對象(可以是人或人工智能)采集數據。通過設置適當的條件,大語言模型能夠準確模擬社會科學研究中的人類行為反應,從而取代實驗對象或受試人群進行數據收集(Argyle et al., 2023)。研究人員也可以利用模擬參與者的數據形成假設,然后在受試人群中進行實證檢驗(Park et al., 2023)。相對于傳統的便利樣本,大語言模型能夠創建與訓練語料同樣多樣化的樣本,可以比傳統數據采集方法更為準確地描述人類行為和社會動態。

第三,顯著提升了人類對社會問題的分析和洞察能力。與傳統的抽樣調查方法相比,人工智能大模型通過對大規模數據集的預訓練,可以汲取大量的人類經驗和觀點,進而提升研究結論的可推廣性(Grossmann et al., 2023)。研究人員也可以通過人工智能情景模擬,認識政策干預的潛在影響,從而形成更有效的整體方案。基于多主體建模的大語言模型(LLM-ABM)可以在深度學習的基礎上,總結和推導各類決策或行為規則,模擬具有特定特征和信仰的個體之間的互動(Park et al., 2023)。例如,捕捉不同理論學派或意識形態派別的觀點,針對特定案例如古巴導彈危機,模擬多決策主體的參與情形,評估可能發生的各種“假設”情景,并針對不同情景進行決策推演(Tetlock et al., 1991)。

大語言模型尤其適合應用于涉及暴力的高風險或者明顯不能有大量人類個體參與的情形。在類似情形的研究中,可以先運用大語言模型在模擬人群中進行測試,為擬開展的研究提供信息支撐,例如,研究虛假信息在社交網絡中的傳播模式;或者通過創建侵犯者和受害者原型,來研究在線性侵犯行為(Pennycook et al., 2020)。對于這些難度較大和風險較高的情形,因為存在道德風險,很難進行自然實驗,而且可能對人類參與者造成傷害,因此利用大語言模型等人工智能來輔助研究是有效的替代方案。

人工智能給社會科學帶來的影響

研判人工智能給社會科學帶來的影響,可以從兩個視角思考。一方面,人工智能帶來了社會科學研究范式的變革,催生了一批新的學科和學術增長點;另一方面,人工智能引發了道德、倫理、規范等領域新的社會問題,使人工智能自身成為社會科學重要的研究對象。

人工智能帶來的社會科學研究范式變革。普林斯頓大學教授、著名社會學家謝宇指出,不斷發展的人工智能使人文社科研究出現全新研究范式,改變了過去社會科學相對單一的研究視角,讓不同領域的專家共同解決復雜的社會問題。[2]人工智能引發的社會科學研究范式變革,主要體現在如下三個層面。

第一,從理論驅動轉向數據和算法驅動。傳統的社會科學研究主要是基于學者的觀察和實驗提出理論假設,通過收集數據對假設進行實證,從而推動理論的不斷發展和演進,這實際上是一種理論驅動的研究范式。人工智能的數據思維、算法思維為社會科學研究帶來了新的思維范式和方法論指引,拓展了社會科學的研究樣態、觀察視域和運用場景,促使社會科學研究從“小數據輔助”向“大數據發現”模式轉變,催生了數據和算法驅動的社會科學研究。

這種思維方式在底層邏輯上與以實證研究為主流的傳統范式是一致的,但克服了后者的一些顯著缺陷。實證研究是以數據為基礎,運用統計學方法推斷變量之間的邏輯關系尤其是因果關系,從而揭示社會運行規律(洪永淼、汪壽陽,2023)。在實證策略上,傳統實證研究構建理論模型,用盡可能少的變量解釋盡可能多的數據關系,從復雜社會現象中捕捉主要矛盾。由于理論驅動建立在各種假設基礎上,因此結論常常受到所假設理論模型的限制(Breznau et al., 2022, PNAS)。[3]研究表明,基于同一組數據,不同人使用不同的理論模型會得到不同的結論,這也是理論驅動的缺陷。

數據驅動的人工智能大模型無需假設具體的理論模型,而是基于對大規模存量數據和知識的深度挖掘和訓練,試圖捕捉大數據中的所有可能性,從大數據中獲得變量之間的邏輯關系,以得到更加穩健的結論,這實際上克服了理論驅動范式下研究結論可能會因理論模型的改變而變化的缺陷(洪永淼、汪壽陽,2023)。

第二,推動社會科學學者轉向更高層次、更具創新的研究活動。過去的社會科學研究往往是以問題導向、好奇心驅動,尋求對復雜社會現象的理論解釋,為拓展人類認知世界的前沿邊界作出邊際貢獻。人工智能大模型出現后,人類可以更多地依賴大模型認識世界,這有利于把學者從傳統思維框架下的簡單重復工作中解放出來,使其轉而關注更重大的理論和現實問題,從而顯著提升了人類認識世界的能力。學者可以把資料收集、文獻梳理、數據分析、文本撰寫等工作交給人工智能去完成,自身的精力則主要聚焦在提出問題、構建理論等更加復雜、更具創新性,也更難以被人工智能取代的研究活動上。在大模型的賦能下,理論會從孤立的、單一的理論變成結構性、系統性的理論,成為對整個社會系統的近似描述,這無疑將大大推動理論創新,促使以往的點狀創新向系統集成創新轉變。

第三,促進文理工學科交叉,打破傳統社會科學的學科邊界。人工智能的發展具有一定的顛覆性,推動社會科學研究在廣度與深度上產生了質的飛躍,使跨學科、多視角、集成式的社會科學研究成為可能。人工智能時代的基礎研究、知識創造將更加呈現跨學科交叉的趨勢,同時也衍生出了一些新的學科方向,如計算社會科學、計算法學、計算政治學、智能傳播學、數字人文等。2021年底,教育部辦公廳公布了首批教育部哲學社會科學實驗室名單,要求實驗室充分利用現代信息技術和先進實驗手段,推進學科交叉融合,創新研究范式和方法。首批公布的9家試點實驗室(北京大學語言學實驗室,清華大學計算社會科學與國家治理實驗室,中國傳媒大學國家輿情實驗室,中國政法大學數據法治實驗室,南開大學經濟行為與政策模擬實驗室,吉林大學生物考古實驗室,合肥工業大學數據科學與智慧社會治理實驗室,武漢大學文化遺產智能計算實驗室,上海師范大學、上海市教育科學研究院教育大數據與教育決策實驗室)[4]基本上都具有跨學科特點,幾乎都把計算技術和人工智能作為重要的工具和手段。

正如劉石、李飛躍(2021)指出的,人工智能推動人文社會科學形成了“數據驅動、實證優先”的大數據思維,帶動學術研究實現從片面性到整體性、從演繹式到歸納式、從因果性到相關性、從解釋性到求是性的轉變,給人文社科學者帶來了認知方式、學術理念和研究范式的變化,并有可能發現此前無從發現的現象、提出此前難以提出的設想、開展此前難以開展的工作、解決此前不可能解決的問題。

人工智能成為社會科學重要的研究對象。科技革命及產業變革在造福人類的同時,也會帶來潛在的風險和威脅,有關人工智能技術應用的政治、經濟和社會影響及其規制的研究日益成為人文社科學者關注的重要議題。“人工智能之父”、圖靈獎得主約書亞·本吉奧(Yoshua Bengio)和杰弗里·辛頓(Geoffery Hinton)曾經指出,“人工智能的威脅并不是虛構出來的。大模型的樣本量如果足夠大,會有糾偏功能。但它也會產生更大的極化效應,身處其中的人類其實沒有太多的選擇權,從眾效應肯定會進一步放大”。[5]

第一,人工智能深刻改變社會的基本形態與運行模式。[6]人工智能等數字技術的廣泛應用,推動形成了與現實物理世界并存的虛擬數字世界。人們在虛擬世界通過虛擬身份完成人與人之間、人與機器之間的交互,也會產生對自身和自身關系的構建訴求,使其中的生產生活方式、社會關系與交往互動的范式、規范等發生重構,衍生出基于數字空間的新興文化形態(楊永恒,2023)。硬件技術、算法規則和人的行為共同建構著虛擬數字世界,其中,硬件技術支撐了數字世界的物理構建,提供了人機交互接口;基于算法的軟件技術則提供了數字世界的社會運行規則和秩序,而人類在數字空間的行為交互,則是對虛擬數字世界持續的人文塑造(楊永恒,2023)。在數字虛擬世界,個體和社會的存在形式、運作邏輯、社會關系和文化形態都發生了重大變化,顯著區別于現實世界,由此引發了數字空間的法律規則和行為觀、價值觀、道德觀、倫理觀等嶄新議題,成為了社會科學研究的熱點話題。

第二,人工智能引發意識形態和社會偏見等問題。互聯網數據存在海量的虛假信息與固化的社會偏見,人工智能尚無法確認其表述內容的真實性和客觀性。大語言模型是依賴現實語料庫進行訓練的,因而可能會延續現實社會中存在的偏見和價值偏差,并通過快速和低成本的應用加劇這些偏見和偏差。Luo等(2023)發現,ChatGPT存在語言偏見,主要基于英語數據進行訓練,并基于英美視角生成“規范性”觀點。ChatGPT也被發現有宗教偏見、政治偏見和意識形態偏見(Hartmann et al., 2023)。生成式人工智能還存在復雜性和不確定性、不透明和“隨機鸚鵡”現象、事實錯誤、認知錯誤、惡意使用、環境成本等問題(政光景、呂鵬,2023)。城鄉、區域和代際之間的數字鴻溝,也使得生成式人工智能所依賴的大數據必然存在“樣本選擇偏差”,進而影響結論的可靠性與科學性。此外,大模型背后的資本和利益,事實上也決定了它所代表的意識形態。ChatGPT之所以能夠面世,符合美國的主流價值是必須的,否則根本無法上市。人工智能也可能被“武器化”,成為各方角力的新戰場,甚至成為進行輿論引導的新的工具和武器。

第三,人工智能引發新的公共治理問題。個體既是真實世界的個體,也是虛擬世界的個體,而人工智能技術模糊了虛實世界的位格關系,將導致符號世界、虛擬世界、物理世界從三界同構走向三界異構(桑基韜、于劍,2023)。虛擬空間與物理空間之間的滲透和融合,致使虛擬社會越來越能實質性地影響現實社會,很多事件都是在網絡空間發酵,然后再蔓延到現實空間(楊永恒,2023)。現實世界與虛擬世界中的人、人工智能和社會綜合構成一個新型“生態體系”,算法權力、數字資本主義、人工智能治理等議題成為學術界研究和反思的重點。越來越多的學者開始關注人工智能技術應用中的倫理、道德和規范問題。陳振明指出,從“AI for Science”到“AI for Social Science”以及“AI for Public Policy”,人工智能驅動下的公共治理正在興起,公共政策研究的知識形態、范圍、主題和方法也將隨之改變,數據治理和算法治理成為人工智能公共治理的兩大基礎問題。[7]

對社會科學中人工智能應用的深層次思考

毫無疑問,人工智能正在變革并將持續變革社會科學范式,更多的影響還需要更長的時間去觀察,也不排除各種影響的累積和交互,最終將帶動社會科學研究范式發生從量變到質變的顛覆性變化。當前,社會各界對人工智能大模型的發展既滿懷憧憬和期待,也充滿了疑慮。這就需要我們對人工智能與社會科學的深度融合,進行更加理性地思考和研判。至少有如下四個層面的問題值得深入思考。

第一,如何理性看待人工智能輔助社會科學研究的性質。ChatGPT擁有有史以來最為龐大的數據量,并以此作為基礎語料訓練集,再加上基于神經網絡機器學習算法構建的大模型,輔之以驚人的算力,引發了革命性的智能行為。但是從機制上講,ChatGPT是一個機器學習模型,只能基于給定的訓練數據,根據某些單詞或單詞序列一起出現的概率來生成文本,本質上并不是理解文本數據,而是根據最大的概率來預測文本數據。[8]人工智能大模型采用的方法類似于最大似然估計法,是在汲取人類現存知識的基礎上,以遠超人類的能力和效率來最大程度地揭示現存知識之間的關聯。

洪永淼和汪壽陽(2023)指出,目前人工智能技術只有預測能力,并沒有人的意識或理解能力,還不具備與人類一樣的批判性思維與想象力,無法從現有數據中推斷或預測出重大創新成果。此外,大模型所依托的大數據語料庫雖然規模龐大,但也僅是人類社會的一個樣本。大模型是無法窮盡所有可能性的,況且人類社會在不斷進步,人類知識體系也在不斷更新。如果大模型能夠窮盡所有可能性,則實際上就變成了一個封閉系統,這就違背了人類社會開放性和不斷進化的基本特征。

第二,如何處理好理論與數據之間的關系。人工智能大大強化了以數據為基礎的社會科學實證研究范式,例如,ChatGPT使用了海量大數據甚至是整個互聯網文本數據,但這并沒有改變社會科學實證研究從樣本推斷總體的本質。同時,人類發展是一個漫長的歷史過程,即使互聯網大數據的樣本容量極大,也只是人類社會歷史長河全景中的一個片段。縱使在當下,互聯網大數據也只是整個社會全貌中的一個局部呈現。基于大數據的社會科學實證研究仍然是從樣本推斷總體,以及根據樣本特征進行外推預測(洪永淼、汪壽陽,2023)。

此外,人工智能推斷的并不是真正的因果關系。實驗方法是識別、測度因果關系的最有效方法,但大數據基本上是觀測數據而非實驗數據,因此基于人工智能的因果推斷本質上是一種預測關系或相關關系(洪永淼、汪壽陽,2023)。要識別因果關系,依靠人工智能的關系推斷是遠遠不夠的,還必須有理論的指導或引入實驗的方法。洪永淼(2023)以經濟學為例,預判社會科學研究不會也不可能被人工智能工具所取代——“以ChatGPT為代表的大模型技術是人工智能在自然語言處理技術領域的一大突破,但大模型也存在算法風險、經濟可解釋性等問題,因此數據驅動范式必須與經濟理論相結合。如果沒有經濟思維和經濟理論的指引,很難找到經濟學意義上的因果關系”[9]。

第三,如何確保可靠可信的人工智能驅動研究。人工智能大模型基于大量的多模態數據進行訓練,能夠模擬人類的反應和行為,幫助研究人員快速測試有關人類行為的理論假設。這種研究結論的效度取決于數據本身的代表性,比如,能否準確反映不同人口群體的特征和觀點。訓練模型可以捕捉社會中存在的文化偏見(Abid et al., 2021),但這種偏見是否準確地反映了人群特點,抑或僅僅是模型構建的產物?大語言模型工程師對預訓練模型進行調適,依據的是“應然世界”而不是“實然世界”(Bai et al., 2022),這雖然有助于減少模型訓練中的偏見(Weidinger et al., 2022),但可能會影響人工智能輔助社會科學研究的有效性。

此外,人工智能大模型所特有的“黑匣子”性質,不利于評估研究結論背后深層次的潛在機制,也不利于研究結果的復制和推廣,在解釋力上存在巨大挑戰。例如,大模型動輒千億級的參數,[10]不利于識別社會現象背后的主因與次因、主要矛盾與次要矛盾。雖然大模型在預測準確性上表現不俗,但在理論解釋力上還存在較大不足。這些事實上都涉及研究過程的透明度和結果的可復制性。

正如柏拉圖的洞穴隱喻,生活在洞穴的囚犯看到了墻上的影子,就認為這些影子是真實的。大語言模型等生成式人工智能依賴的是現存人類知識和文化中描述人類體驗的“陰影”,這些陰影為它們所代表的現象提供了真實但有限的看法——這是人工智能輔助社會科學研究所存在的一個顯著局限,而且研究中存在的代表性偏差、抽樣方法、個人主義方法論等,也會給研究結果的可靠性帶來沖擊。

第四,如何確保人工智能時代社會科學研究中人的主體性。人工智能驅動的社會科學研究,指向的是一種人機協同的知識生產方式,能夠極大地解放研究生產力并釋放出巨大的創新潛力(雷環捷,2023)。[11]但與此同時,也要避免人對機器過分依賴以至于喪失了人的主體性。對于學術研究而言,人和人的交流是至關重要的。如果完全讓技術主導,最后將不可避免導致人的主體性的喪失。在技術主導下,人和人的交流會日益減少,最后都會變成人和技術的交流,技術會成為中心。從根本上講,作為建構在人類知識基礎之上的智能模式,大語言模型等生成式人工智能應該符合人類社會的基本倫理和價值。

總結與展望

人工智能對社會科學的學科體系、學術體系和話語體系產生了程度不一的影響。其中,學術體系受到的影響最為直接,尤其是在基礎理論、研究方法、研究數據三個方面,而且人工智能本身也成為社會科學的研究對象和新的學術增長點;學科體系受到的影響也開始顯現,如人工智能、數字技術與社會科學等的交叉融合,既衍生出新的學科增長點,也模糊了社會科學的學科邊界;在話語體系方面,機器語言、社會偏見、意識形態等對現實世界和虛擬世界的話語體系所產生的影響也正在逐步顯現。

中國走在全球人工智能技術的前列,再加上超大的人口規模和經濟體量,人工智能技術的應用前景十分廣闊,這必然會給中國哲學社會科學帶來深刻的變革、創造難得的機遇,也將為建構中國自主的知識體系、引領全球思想觀念變革提供強大的動能。具體建議如下。

一是平衡好傳統范式與新范式之間的關系,推動人工智能與社會科學的深度融合。社會科學學者應積極擁抱人工智能,充分利用海量數據資源和多模態數據處理能力,更加有效地揭示人類社會復雜系統的運行與發展規律。同時也要認識到,強調數據和算法驅動,并不意味著理論驅動不重要,理論探索仍是人類不斷拓展認知前沿的主要途徑;強調大模型并不意味小模型不重要,大小模型分別適用于不同情境;強調大數據并不意味“小”數據不重要,“小”數據的信息密度通常更高;強調文本數據等非結構化大數據,也并不意味著結構化數據不重要,后者能夠提供更加簡約、精準的信息。此外,要提升人工智能模型的透明度和結果的可重復性,例如,倡導開源大語言模型、公開未經調適的預訓練模型以及提升方法論的透明度。確保可靠可信的人工智能驅動研究,對于利用人工智能提升人類認識社會和改造社會的能力至關重要(Grossmann et al., 2023)。

二是要加快構建中國自主的大語言模型。中國走在了數字經濟和人工智能技術的前列,在人工智能驅動社會科學發展方面具有得天獨厚的優勢。大語言模型需要利用大量數據進行訓練,使用者越多的文字和語言越易于發展大語言模型。在全球范圍內,漢語是全球使用人口規模僅次于英語的語言,而且中華文明是世界上唯一從未間斷的文明,累積了其他國家無法比擬的大規模中文語料庫。下一步應充分發揮中國在人工智能領域的技術優勢和研發能力,依托中國巨大的人口規模和博大精深的中華文明,加快構建中國自主的大語言模型,并利用中國超大市場規模優勢加速更新迭代,同時要以開放包容的態度鼓勵全球用戶的參與,努力形成具有全球影響力的大語言模型,夯實人工智能時代社會科學研究的數字基礎設施根基。

三是要維護好人工智能時代的意識形態安全。哲學社會科學具有很強的政治屬性和意識形態屬性,維護人工智能時代哲學社會科學的意識形態安全,是構建中國特色哲學社會科學的題中之義。生成式人工智能如ChatGPT在全球范圍所產生的沖擊波,不可避免地會波及到意識形態領域,并對青少年的價值觀和行為模式產生直接影響。維護好人工智能時代的意識形態安全,除加快構建中國自主的大語言模型外,也要對ChatGPT等歐美主導的大語言模型秉持開放的態度。如果ChatGPT能夠深度學習更大規模的中文語料庫,盡可能掌握中文的語法、詞匯、語義,更多地熟悉中國的歷史文化、當代理論和前沿動態,充分理解中華文化的價值觀、倫理觀和道德觀,則將顯著提升ChatGPT語料庫的全球代表性。此外,要引導中國用戶理性地看待和使用ChatGPT,中國用戶與ChatGPT之間的深度交互實際上也是對ChatGPT的持續訓練,有助于幫助其更好地理解中國主流的文化價值,矯正其對中華文化的認知偏差。這既有利于提升中華文化在西方大語言模型中的認知度、接受度和傳播力,也有助于推動ChatGPT等歐美主流大語言模型逐漸成為開放包容、兼收并蓄的文化新空間。

四是要加強人工智能研究中的倫理建設和價值引領。要清醒認識和及時研判人工智能與社會科學融合中的倫理問題,提出基本的倫理原則和規范,及時應對人工智能可能引發的倫理風險。首先,要認清生成式人工智能創作內容的實質,堅持人在社會科學研究中的主體地位,不過度、盲目追求自動化,確保人工智能研究符合人類的基本價值。其次,要及時制定使用規范和指南,積極回應人工智能大模型中的道德和倫理問題,如數據隱私、算法歧視、環境成本以及結果濫用等。最后,要充分預估和有效控制人工智能在社會科學領域應用中的風險和不確定性,防止誤用和濫用,確保其理論創新和知識創造符合學術規范和科研誠信。

總之,人工智能的發展和在社會科學領域的廣泛應用,顯著提升了學者理解和認知人類社會的能力,也為探索人類社會數字文明的走向提供了可能。但同時我們必須深刻地認識到,人工智能變革了社會科學發展的范式,但并不會根本改變社會科學學者認知和揭示人類社會規律的根本使命,尤其是對“真理”的追求,這可能是超越傳統范式與人工智能新范式的根本價值所在。發展人工智能驅動的社會科學研究,必須立足人的主體性,以價值理性駕馭工具理性,讓人工智能研究在符合人類基本價值和倫理的前提下,實現與社會科學的深度融合,不斷推動社會科學的創新性發展,提升人類認知社會和改造社會的能力,讓人工智能技術點亮人類文明的美好未來。

注釋

[1][8]《〈時代〉專訪ChatGPT:我還有很多局限,但人類應準備好應對AI》,2022年12月11日,https://www.ctdsb.net/c1673_202212/1595016.html。

[2]謝宇在復旦大學人工智能與社會研究(2023)學術研討會上的主旨演講,《“AI+”為人文社科研究帶來全新范式》,《文匯報》,2023年10月27日。

[3][9]洪永淼在2023年春季首屆中國數字經濟發展和治理學術年會上的主旨演講,《人工智能新近發展及其對經濟學研究范式的影響》,2023年2月18日。

[4]參見《教育部辦公廳關于公布首批教育部哲學社會科學實驗室名單的通知》(教社科廳函〔2021〕22號)。

[5]轉引自高奇琦等:《人工智能時代的社會科學研究》,《中國社會科學報》,2023年12月22日。

[6]關于這方面的更多論述,可參閱楊永恒:《文化數字化與數字文化化:對數字文化發展再審視》,《人民論壇·學術前沿》,2023年第1期。

[7]陳振明在復旦大學人工智能與社會研究(2023)學術研討會上的主旨演講,2023年10月26日。

[10]大型語言模型(LLM)是在具有大量參數的大型未標記數據集上進行訓練的,GPT-3經過超過1750億個參數的訓練,而GPT-4的模型參數在1.8萬億左右,13萬億訓練數據、一次訓練成本6300萬美元。參見https://www.semianalysis.com/p/gpt-4-architecture-infrastructure?nthPub=11。

[11]轉引自雷環捷,《人工智能與人文社會科學攜手共進》,《中國社會科學報》,2023年7月25日。

參考文獻

劉石、李飛躍,2021,《大數據技術與傳統文獻學的現代轉型》,《中國社會科學》,第2期。

酈全民,2019,《當人工智能“遇見”計算社會科學》,《人民論壇·學術前沿》,第10期。

洪永淼、汪壽陽,2023,《人工智能新近發展及其對經濟學研究范式的影響》,《中國科學院院刊》,第3期。

楊永恒,2023,《文化數字化與數字文化化:對數字文化發展再審視》,《人民論壇·學術前沿》,第1期。

桑基韜、于劍,2023,《從ChatGPT看AI未來趨勢和挑戰》,《計算機研究與發展》,第6期。

政光景、呂鵬,2023,《生成式人工智能與哲學社會科學新范式的涌現》,《江海學刊》,第4期。

A. Abid; M. Farooqi and J. Zou, 2021, "Large Language Models Associate Muslims with Violence," Nature Machine Intelligence, 3, pp. 461-463.

G. Pennycook; J. McPhetres; Y. Zhang; J. G. Lu and D. G. Rand, 2020, "Fighting COVID-19 Misinformation on Social Media: Experimental Evidence for a Scalable Accuracy-Nudge Intervention," Psychological Science, 31(7), pp. 770-780.

I. Grossmann; M. Feinberg; D. C. Parker; N. A. Christakis; P. E. Tetlock and W. A. Cunningham, 2023, "AI and the Transformation of Social Science Research," Science, 380(6650), pp. 1108-1109.

J. S. Park; J. C. O'Brien; C. J. Cai; M. R. Morris; P. Liang and M. S. Bernstein, 2023, "Generative Agents: Interactive Simulacra of Human Behavior," https://arxiv.org/abs/2304.03442.

J. Hartmann; J. Schwenzow and M. Witte, 2023, "The Political Ideology of Conversational AI: Converging Evidence on ChatGPT's Pro-environmental, Left-libertarian Orientation," https://arxiv.org/abs/2301.01768.

L. P. Argyle; E. C. Busby, N; Fulda, J. R. Gubler; C. Rytting and D. Wingate, 2023, "Out of One, Many: Using Language Models to Simulate Human Samples," Political Analysis, 31(3), pp. 337-351.

L. Weidinger; J. Uesato and M. Rauh et al., 2022, "Taxonomy of Risks Posed by Language Models," in 2022 ACM Conference on Fairness, Accountability, and Transparency (ACM, 2022), pp. 214-229.

N. Breznau; E. M. Rinke and A. Wuttke et al., 2022, "Observing Many Researchers Using the Same Data and Hypothesis Reveals a Hidden Universe of Uncertainty," Proceedings of the National Academy of Sciences, 119(44).

P. E. Tetlock; C. B. McGuire and G. Mitchell, 1991, "Psychological Perspectives on Nuclear Deterrence," Annual Review of Psychology, 42(1), pp. 239-276.

Q. Luo; M. J. Puett and M. D. Smith, 2023, "A Perspectival Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, Wikipedia, and YouTube," https://arxiv.org/abs/2303.16281.

S. Bubeck; V. Chandrasekaran and R. Eldan et al., 2023, "Sparks of Artificial General Intelligence: Early Experiments with GPT-4," https://arxiv.org/abs/2303.12712v2.

Y. Bai; S. Kadavath and S. Kundu et al., 2022, "Constitutional AI: Harmlessness from AI Feedback," https://arxiv.org/abs/2212.08073.

The Changed and Unchanged: Social Science Research in the Era of Artificial Intelligence

Yang Yongheng

Abstract: The development of Artificial Intelligence(AI) has facilitated a qualitative leap in the breadth and depth of social science research. Basic research and knowledge creation in social science is expected to exhibit a more interdisciplinary trend with a paradigm shift promoted by AI, which has a revolutionary impact on the knowledge production and dissemination of social science. On one hand, AI comprehensively empowers social science with powerful data and algorithms, on the other hand, it also significantly changes human behavior and decision-making patterns, triggers such new societal issues of morality, ethics, privacy, norms, etc. Consequently, AI governance becomes a new research focus of social science. This article analyzed the change and invariance of social science through interpreting the underlying mechanisms that AI empowers social science, and proposed measures and suggestions to the further integration between AI and social science.

Keywords: artificial intelligence, social science, empowerment mechanism, AI governance, future prospects

責 編∕桂 琰 美 編∕梁麗琛

[責任編輯:李思琪]