亚洲一线产区二线产区区别在哪,亚洲AV永久无码精品,久久精品国产精品国产精品污,亚洲精品亚洲人成年,青青草视频在线观看综合网,亚洲国产色欲AV一区二区三区在线,亚洲美乳字幕日韩无线码高清专区

當前位置:首頁 > 文獻資源 > 論文著作 > 理論推演
趙精武|人工智能科技倫理審查制度的體系化建構
2025年04月07日 【作者】趙精武 預覽:

【作者】趙精武

【內容提要】

人工智能科技倫理審查制度的體系化建構





趙精武 北京航空航天大學法學院副教授、北京科技創(chuàng)新中心研究基地副主任







摘要:目前我國科技倫理審查實踐存在審查形式化、虛置化等現(xiàn)實問題,并且科技倫理治理固有的軟治理特征也使得該制度難以實現(xiàn)預期的制度目標。實踐中倫理失控風險主要表現(xiàn)為既有的科技倫理審查制度難以有效控制人工智能科技倫理風險,造成這一現(xiàn)象的根源在于未能明確人工智能科技倫理審查制度的功能定位,導致在審查范圍、審查標準、審查程序等方面存在模糊性問題。該審查制度雖然屬于典型的風險治理范式,但其以非強制性的社會倫理規(guī)范為制度基礎,審查結果屬于倫理道德層面的判斷,其性質屬于科技創(chuàng)新活動的合理性審查?;诖朔N定位,應當適當區(qū)分科技倫理委員會與科技倫理審查委員會的定位差異,僅限于涉及敏感研究領域才強制要求被審查對象組建科技倫理審查委員會,并將審查結果與安全風險評估結果一并作為采取特定治理措施的風險依據(jù)。

關鍵詞:科技倫理審查;科技倫理風險;合理審查





一、 問題的提出:人工智能科技倫理的失控風險

在武漢市蘿卜快跑之后,人工智能治理難題不僅僅表現(xiàn)為如何確保技術應用的安全可靠,還表現(xiàn)為自動駕駛在遭遇緊急情況時究竟如何做出利害選擇等科技倫理爭議。在國外,14歲少年因過度迷戀人工智能虛擬陪伴者而選擇自殺,也被國外媒體稱之為首例AI聊天致死案。這類科技倫理風險威脅到人類主體地位、人格尊嚴以及既有道德規(guī)范體系,尤其是人工智能技術被應用于就業(yè)市場、社會信譽評估、投保等領域,必然沖擊社會公正等基本道德觀念。

科技倫理風險問題早在生物醫(yī)藥領域就備受關注,并形成了科技倫理審查制度的基本框架。但是,人工智能的躍進式發(fā)展必將對既有的科技倫理審查制度產生沖擊:一方面,審查目標有所變化。傳統(tǒng)生物醫(yī)療領域的科技倫理審查制度是以更為迫切的人類生命健康保護為目標,而人工智能領域的科技倫理審查則是更加偏向科技創(chuàng)新、技術應用的合理性。另一方面,既有審查模式也難以繼續(xù)沿用。傳統(tǒng)生物醫(yī)療領域的科技倫理審查制度是以強制審查為核心,而人工智能領域的科技倫理審查顯然并不能對涉及倫理風險事項一概采用強制審查,否則這將成為科技創(chuàng)新的巨大制度障礙??陀^而言,人工智能創(chuàng)新應用的科技倫理風險屬于科技創(chuàng)新過程失控風險,故需要經由科技倫理審查施加必要的限制,進而協(xié)調促進科技創(chuàng)新和控制科技倫理風險這兩種不同的治理目標。

實際上,科技倫理審查制度實屬制度舶來品,其最初目的是終止各種不道德、不合理的生命醫(yī)學類的科研活動。例如,《紐倫堡法典》《赫爾辛基宣言》是為了終止以人類為試驗對象的科學實驗;美國國立衛(wèi)生研究院(National Institutes of Health,NIH)發(fā)布科研指南,用以確??茖W實驗善待動物。而我國科技倫理審查制度的確立可追溯至《藥物臨床試驗質量管理規(guī)范》,目的同樣是確保受試者的權益和安全;并且后續(xù)的《涉及人的生物醫(yī)學研究倫理審查辦法》《人類遺傳資源管理條例》等規(guī)范性文件也是圍繞生命醫(yī)學科學實驗展開。當這種以生命安全、人格尊嚴等倫理要求為基礎的科技倫理審查制度拓展至人工智能等其他技術領域,就需要重新詮釋科技倫理審查制度的功能定位,確??萍紓惱韺彶樵谏茖W、醫(yī)學、人工智能等領域遵循共通的治理邏輯。

從實踐來看,科技倫理審查制度未能充分實現(xiàn)支持者們所推崇的法律與倫理協(xié)同治理理想效果,反而呈現(xiàn)科技倫理審查形式化、流程化的問題。更棘手的問題是,科技倫理委員會的運行機制面臨著委員會日常如何運行、審查標準如何明確、審查流程如何規(guī)范、專家薪酬如何支付等現(xiàn)實障礙。雖然不少學者提出了諸多的制度完善建議,但相關研究還是缺乏對審查機制的理論剖析和實證考察。總結而言,人工智能科技倫理審查面臨的核心問題是,該類倫理審查的制度模式和實施模式未能與生物醫(yī)療領域的傳統(tǒng)制度予以區(qū)分,導致自身難以直接適用于人工智能技術治理領域。這種制度內容的不完整性主要表現(xiàn)為審查范圍、審查標準和審查制度作用模式這三個方面的模糊性與籠統(tǒng)性。


二、人工智能科技倫理審查的功能與效果

雖然《科技倫理審查辦法(試行)》第15條第5項明確了涉及數(shù)據(jù)和算法的科技活動為重點審查內容,但其作為一般法意義上的科技倫理審查規(guī)則,未能嚴格區(qū)分不同技術領域科技倫理審查模式的差異性。因此,在明確我國人工智能科技倫理審查制度建構模式之前,有必要重新評估和明確人工智能科技倫理審查功能失靈的核心原因。

(一)我國科技倫理審查制度的實踐現(xiàn)狀:虛置化狀態(tài)

人工智能科技倫理審查制度的實際運行效果不佳,主要原因是科技倫理審查制度在實施過程中普遍存在虛置化問題,部分審查機構流于形式、審查過程敷衍了事,導致倫理審查的預設目標難以實現(xiàn)。

第一,科技倫理審查委員會的運行機制以及自身的法律性質始終存疑。《科技倫理審查辦法(試行)》第4條雖然規(guī)定科研單位應當配備必要的工作人員、提供辦公場所、經費等條件,用以確保委員會的獨立性,但這僅僅只能確保形式上獨立。首先,第4條規(guī)定從事生命科學、醫(yī)學、人工智能等科技活動的單位應當設立科技倫理(審查)委員會,并且設立前提是涉及科技倫理敏感領域,但其本質上仍屬于自我約束型的倫理審查機制。即便采用外聘專家、回避機制組成委員會,但審查委員會究竟能夠在多大程度上實現(xiàn)獨立審查、獨立決策令人生疑。畢竟委員的薪酬支付、場所提供等物質支持條件還是由被審查單位提供。這也是部分研究者一直強調的倫理審查委員會極易出現(xiàn)既當裁判員又當運動員的問題,并且根據(jù)部分學者統(tǒng)計,大部分科技機構的倫理審查委員會在進行審查時多次出現(xiàn)直接蓋章同意和批復的情形,使得倫理審查這項制度呈現(xiàn)出走過場的特征。

第二,科技倫理審查的弱約束效果如何通過法治化方式提高治理效果尚無定論。《科技倫理審查辦法(試行)》第1條和第9條規(guī)定了科技倫理風險的評估和預防是科技倫理審查的立法目標,但相較于美歐等國外模式,我國的制度模式實際上是一種弱倫理審查制度,因而會導致科學研究通過率過高等問題。甚至追溯我國科技倫理審查制度的發(fā)展歷程,如部分學者所總結的,該制度設置之初就飽受爭議:支持者認為科學研究不能等同于純粹的科研自由,理應采取一定程度的外部約束;反對者則認為這無疑會增加科研創(chuàng)新活動的經濟成本,所謂的倫理審查委員會更容易淪為官僚主導的形式主義。倫理規(guī)制的基本架構是以行業(yè)性準則、少量的抽象原則以及機構層面的自我規(guī)制為主要內容,這也決定了倫理規(guī)制具有典型的弱約束效果。無論是缺乏強制執(zhí)行力的行業(yè)性準則,還是籠統(tǒng)模糊的倫理原則、自律主導的自我約束,均難以有效達成科技倫理風險預防和控制的治理目標。

第三,科技倫理審查的形式化問題是否能夠通過法律責任承擔予以解決值得商榷?!犊萍紓惱韺彶檗k法(試行)》第474849條規(guī)定了民事責任、行政責任和刑事責任的承擔方式。但這些法律責任的承擔往往存在著嚴格的適用條件。在民事責任方面,第47、48條規(guī)定造成財產損失或者其他損害的承擔民事責任,實際上屬于典型的侵權行為,即便不經過科技倫理審查,造成財產損失或其他損害的,權利人依據(jù)《中華人民共和國民法典》亦可主張承擔民事責任。在行政責任方面,第48條所規(guī)定的弄虛作假、徇私舞弊等情形本質上屬于實質性違反要求的行為,但是無法直接適用于形式化的科技倫理審查活動。相較于不審查、虛假審查等問題,形式化審查更容易弱化科技倫理審查機制的實際效果。由于《科技倫理審查辦法(試行)》本身屬于試行辦法,且本質上屬于一般性規(guī)定,倫理審查形式化問題可能更需要后續(xù)設置生命科學、醫(yī)學、人工智能等領域專屬性的科技倫理審查規(guī)則予以解決。

(二)人工智能科技倫理審查的特殊性

人工智能科技創(chuàng)新對于倫理審查制度最直接的影響便是審查范圍、審查標準以及審查方式發(fā)生異化。過寬或過窄的審查范圍均會使得科技倫理審查成為人工智能科技創(chuàng)新的制度負擔。尤其是科技倫理本身作為社會倫理規(guī)范的一種,缺乏強制性,審查制度反而更容易置于走過場的尷尬地位。

在審查范圍方面,存在法律風險與科技倫理風險混同的誤區(qū)。在部分學者看來,人工智能技術應用所帶來的倫理問題包括失業(yè)率上升、自動駕駛系統(tǒng)決策倫理風險和人工智能主體意識對人類的挑戰(zhàn)等,原因在于治理責任模糊和治理結果不公正。同時,部分學者則將新興技術倫理風險表現(xiàn)樣態(tài)與法律風險、技術安全問題整合,總結為技術安全性問題、個人權益受侵犯問題、社會公平問題、生態(tài)系統(tǒng)受威脅問題。這些觀點不無道理,但問題在于,倘若構成侵犯個人信息權益、存在法律責任界定不明等問題時,完全可以通過適用法律規(guī)范予以解決,何必再設置冗余的科技倫理審查制度進行重復評估?這種法律問題倫理化的傾向也使得科技倫理審查制度本身被視為一種純粹道德意義上的倫理規(guī)范機制。因此,需要澄清的是,盡管科技倫理不可避免地涉及個人權益的保護問題,但這里的個人權益更多地表現(xiàn)為一種抽象層面的法益。在倫理學與法學交叉視角下,人工智能技術應用侵害何種性質的法益存有疑義。以實踐中利用人工智能技術復活死者為例:在法學視角下,未經近親屬同意,這種應用可能構成對個人信息、肖像權等具體權利的侵害;在倫理學視角下,未經近親屬同意,這種應用損害的是近親屬對于逝者的懷念、不想被打擾等情感層面的利益。無論是生命醫(yī)學領域的科技倫理,還是人工智能領域的科技倫理,均強調對人類主體地位的維護??萍紕?chuàng)新活動不應當將人類作為技術規(guī)訓的對象,科技倫理存在的目的也是避免過度追求科研自由而忽視人類主體尊嚴的情況出現(xiàn)?!吨腥A人民共和國民法典》第990條作為《中華人民共和國憲法》第33條第3尊重和保障人權的轉介條款,其規(guī)定的人格尊嚴具有典型的倫理意義,而這恰恰能夠作為科技倫理與法律規(guī)范相對區(qū)隔的重要因素。因此,若以科技倫理審查為導向,人工智能科技倫理的基本范疇可以劃定為涉及科技創(chuàng)新應當維護人類主體地位和人格尊嚴的倫理規(guī)范。

在審查標準方面,科技倫理本身并不是一個內涵和外延相當明確的概念,不同審查主體所遵循的倫理審查標準難以統(tǒng)一。從國內外科技倫理標準的差異現(xiàn)狀來看,科技倫理標準化似乎是一個無解的問題:科技倫理本身就是一個不確定性的法律概念,其受到社會實踐、科技發(fā)展、國家民族文化等諸多因素影響,還會隨著時代發(fā)展產生新的意涵,科技倫理根本無法實現(xiàn)標準化。同時,即便立法機構明確了統(tǒng)一的科技倫理標準,并就此解決了制定主體資格問題,但立法機構所采用的倫理標準依舊難以完全避免受到參與立法過程的專家們主觀意見的影響。然而,這個無解問題并不意味著只能暫時擱置,而是其本身就存在邏輯悖論:既然科技倫理屬于人類倫理道德范疇,而人類倫理道德本身從來都不是標準化的,科技倫理又怎么可能存在客觀化標準?進一步而言,既然該無解問題本身就是一個錯誤命題,那么科技倫理審查所依賴的倫理評判標準又應當如何確定呢?回歸到科技倫理治理目標層面,無論是科技倫理審查,還是其他的科技倫理治理機制,其核心目的均是解決科技倫理風險問題。這種風險治理的內在邏輯并不是通過嚴格意義上的倫理評判標準預防和控制風險事件,而是側重是否能夠識別出潛在的科技倫理風險以及采取必要的預防措施。換言之,即便采用的倫理審查評斷標準各不相同,但是只要這些倫理審查標準屬于科技倫理的基本范疇,那么最后的治理效果并無實質差異。

在審查作用機制方面,構建科技倫理相關的制度規(guī)范以實現(xiàn)相應的治理目標等類似主張混淆了法律治理與倫理治理的作用機制。法律治理通過義務性條款作用于科研創(chuàng)新行為,而科技倫理審查則是作用于科研人員的倫理觀念,并內化為科技創(chuàng)新活動的自我約束準則。兩者在治理體系中互為補充的實踐方式應當是主體與行為的治理邏輯銜接,而不是行為與行為的雙重約束。相應地,基于這種作用機制,科技倫理審查機制的功能定位也會發(fā)生相應的變化。具體而言,科技倫理審查主要面向的是科技創(chuàng)新研發(fā)和應用,確保相關技術服務和產品的設計、生產和銷售符合科技倫理;科研人員科技倫理培訓則是融入科技工作者的教育經歷和工作經歷,推動科研人員形成尊重人格尊嚴的倫理觀念;科技倫理商談則是為了補足科技倫理模糊性內容,以社會公眾網絡評論、科研專家技術解釋等方式,以商談的形式促成符合社會共識的科技倫理觀念形成。因此,在制度建構過程中,不宜將科技倫理審查的作用機制理解為寬泛意義上的科技倫理規(guī)范適用。

(三)人工智能科技倫理審查的功能再調整

言及科技倫理審查,必談及歐美等國的域外制度。與我國精細化法治模式相比,歐美等國因為更加側重科技自由和促進創(chuàng)新,故而選擇通過科技倫理規(guī)范實現(xiàn)軟法治理,提供更為靈活和原則性的監(jiān)管要求。如英國上議院發(fā)布的《人工智能在英國:充分準備、意愿積極、能力凸顯?》(Artificial Intelligence Select Committees Report on AI in the UKReady,Willing and Able?)將人工智能科技倫理解釋為服務于人類共同利益和價值”“遵循可理解性和公平性原則”“不能被應用于削弱個人、家庭和社區(qū)的數(shù)據(jù)權利或隱私以及不應當被賦予任何損害、毀滅或欺騙人類的自主能力四個方面。歐盟委員會人工智能高級專家組(AL HLEG)在《人工智能道德倫理準則》(AI Ethics Guidelines)提出的倫理目標是在發(fā)展、配置和使用人工智能時應當尊重基本權利、基本原則和基本價值。新加坡個人數(shù)據(jù)保護委員會在其發(fā)布的兩版《人工智能監(jiān)管框架范例》(Model AI Governance Framework)中提及內部監(jiān)管、人工智能應用決策時人工干預程度、運營管理、利益相關方互動與溝通四個方面的倫理規(guī)則。不難發(fā)現(xiàn),國外人工智能科技倫理標準在保障人類主體地位和人格尊嚴方面具有共通性,但由于受到本土文化影響,人工智能科技倫理標準難以達成統(tǒng)一。

此外,負責任的研究與創(chuàng)新Responsible Innovation/Responsible Research and Innovation,RRI)逐漸成為歐美等國在科技倫理層面的普遍共識。這一觀念的基本內涵被解釋為綜合倫理上的可接受程度、發(fā)展的可持續(xù)性、社會滿意度等因素的全面考慮,實現(xiàn)科研人員、政府、社會公眾等主體相互尊重、信息透明、產品市場化的創(chuàng)新過程。歐盟委員會在《加強負責任研究與創(chuàng)新的選擇:關于負責任研究與創(chuàng)新最新專家組報告(2013)》(Options for strengthening responsible research and innovationReport of the Expert Group on the State of Art in Europe onResponsible Research and Innovation)中指出負責任的創(chuàng)新是使得受影響的利益相關方在創(chuàng)新初期就參與進來,具體包括是否能夠了解其行動后果和所面臨選擇范圍的影響”“有效評估涉及社會需求和道德價值的結果和選擇以及將前兩個要素作為新型研究、產品和服務設計與開發(fā)的功能性需求。在國外學者看來,負責任的研究與創(chuàng)新是一個科學政策框架,囊括了公眾參與、性別平等、科學教育、倫理和治理等多方面內容,其核心目標是將純粹的科技創(chuàng)新解釋為科研人員與受影響的社會群體相關互動的創(chuàng)新活動,以此實現(xiàn)創(chuàng)新的可接受性、可持續(xù)性和社會價值。一方面,借由科研人員與社會公眾的互動對話形成符合新興技術的科技倫理觀念;另一方面,將科技倫理觀念以外部監(jiān)督、內部自律的方式作用于科研人員本身,促使其在設計、研發(fā)和生產過程中,自覺地將科技倫理嵌入至創(chuàng)新活動中。

學界部分觀點傾向于借鑒國外制度模式,但忽視了國外科技倫理審查與本國制度體系的內在沖突,導致其難以在國內監(jiān)管實踐中發(fā)揮相同水平的治理作用。更重要的是,國外的科技倫理審查制度主要還是適用于生命科學、醫(yī)學等領域,在人工智能領域的延伸適用實際上仍然處于發(fā)展階段。以英國為例,在醫(yī)學領域,其科技倫理審查已經形成較為成熟的三層架構:第一層是由衛(wèi)健委在2007年成立的全國倫理研究服務機構(NRES)進行全國范圍內的倫理審查制度統(tǒng)籌規(guī)范;第二層是英國地方衛(wèi)生行政機構建立的區(qū)域倫理委員會,針對本地區(qū)內非藥物臨床試驗以及患者參與的藥物臨床試驗開展倫理審查;第三層是高校、醫(yī)院等機構自行設立的機構倫理委員會,負責內部的科技倫理審查。故而也有學者將之歸結為分級分類的倫理委員會管理模式。在人工智能領域,英國數(shù)據(jù)倫理和創(chuàng)新中心(CDEI)與人工智能辦公室(OAI)主導引領科技倫理治理工作,CDEI將人工智能倫理界定為一整套價值觀、原則和技術,采用廣泛接受的標準來指導人工智能系統(tǒng)開發(fā)和使用中的道德行為。在倫理審查標準層面,英國人工智能辦公室和政府數(shù)字服務局在2019年發(fā)布的《理解人工智能的倫理和安全》(Understanding artificial intelligence ethics and safety)提出SUM價值觀和FAST倫理原則,前者建構了諸如人文關懷等人工智能倫理詞匯體系,后者則是提出了更為具體的人工智能項目社會影響、可持續(xù)性的評估辦法。由此看來,英國模式同其他歐洲國家一樣,依靠更加靈活的產業(yè)政策適配科技倫理治理的非強制性,并未選擇通過成文法的方式建構人工智能科技倫理審查標準。

將始于醫(yī)學領域的科技倫理審查制度適用于人工智能領域并不是簡單的制度套用。誠然,這些領域的科技倫理風險具有同質性特征,但是相較于人工智能而言,生命醫(yī)學領域的科技倫理審查更加偏重對人類生命健康的保護,這種差異性也決定了當下人工智能立法需要重新明確設置科技倫理審查制度的立法目的是什么。一方面,通說是將科技倫理審查視為法律、市場、倫理等治理工具彼此銜接的核心制度工具,但如果將科技倫理審查事項限定在權利侵害等法律風險方面,反而使得兩種治理工具之間的差異性被淡化。另一方面,科技倫理審查的功能定位直接決定具體的制度和程序,現(xiàn)有研究卻始終跳過這一基礎問題的回答,前提依據(jù)的模糊性必然會導致后續(xù)的制度建構缺乏正當性基礎,而這也是部分學者習慣性地將生命醫(yī)學領域的科技倫理審查套用在人工智能領域的根源之一。

三、人工智能科技倫理審查制度的功能定位

基于人工智能科技倫理審查的功能缺失及其疏解方向研究,顯然需要重新明確人工智能科技倫理審查的制度功能,進而作為倫理審查制度建構的價值指引和理論基礎。

(一)風險識別功能

雖然預防和控制科技倫理風險是人工智能科技倫理機制的基礎功能已成共識,但也存在將科技倫理審查和安全評估混同的主張。雖然倫理審查的最終目的是治理科技倫理風險,但是其所遵循的內在邏輯是判斷和識別科技倫理風險,而不是同安全評估機制那般評估具體的風險水平并采取相應的風險預防措施。將倫理審查理解為倫理風險評估的主張顯然未能區(qū)分科技倫理風險與法律風險之間的差異性:科技創(chuàng)新的法律風險主要表現(xiàn)為對具體權利的損害,科技倫理風險則是一種抽象層面的價值損害風險。相應地,安全風險評估機制、個人信息保護影響評估機制更加側重準確評估是否存在違法行為、判斷權益損害程度,而倫理審查則更加側重能否發(fā)現(xiàn)和識別科技倫理風險,并作出是或否的道德判斷結論。進一步而言,對兩種風險治理機制的理解混同是因為未能準確理解科技倫理審查機制的最終結果??萍紓惱硎冀K是一種社會層面的倫理規(guī)范,不具備邊界分明的內涵和外延,故而不同主體所秉持的倫理觀念會有所差異。單純由立法機構或者監(jiān)管機構逐一判斷和認定某一類人工智能技術應用是否符合科技倫理,雖然能夠解決倫理審查標準的爭議問題,但在實踐層面顯然不具有可操作性。所以,在風險治理層面,人工智能科技倫理審查是以作出道德判斷為終點,借由倫理審查委員會從多個維度評判技術應用是否符合科技倫理要求、是否存在被忽視的科技倫理風險。

通常而言,風險識別是風險評估的前置性條件。在《中華人民共和國網絡安全法》《中華人民共和國個人信息保護法》等法律法規(guī)規(guī)定的安全風險評估、個人信息保護影響評估等相關條款中,實際上也是將法律風險識別作為評估的一部分事項。例如,《數(shù)據(jù)出境安全評估辦法》第8條列舉了數(shù)據(jù)出境安全評估的主要事項,其中就包括(三)出境數(shù)據(jù)的規(guī)模、范圍、種類、敏感程度,出境中和出境后遭到篡改、破壞、泄露、丟失、轉移或者被非法獲取、非法利用等的風險等風險識別事項。更重要的是,網信領域的安全風險評估在評估結果層面表現(xiàn)為風險水平的衡量,而這種風險閾值在科技倫理審查制度領域并無實際意義。因為一項倫理道德的判斷結果往往是合乎或不合乎倫理道德,科技倫理風險的判斷和治理也不依賴于風險水平量化或風險水平類型化。科技倫理審查的制度功能之一應當是通過作出道德判斷,預防科技倫理風險轉變?yōu)閷嶋H損害事實,同時,借由將科技倫理風險識別和確認結果反饋至科研人員,在工程倫理、設計倫理等倫理觀念層面產生反饋性影響。因此,人工智能科技倫理審查制度功能的實現(xiàn)不僅需要在審查事項、審查流程方面予以完善,還需要在審查結果反饋和整改環(huán)節(jié)予以補充。

德國近年來也關注到新興技術潛在的濫用風險,德國國家科學院在2015年設立全國性的處理安全相關研究聯(lián)合委員會(Kommissionen für Ethik sicherheitsrelevanter Forschung),其設置宗旨便是制定科技倫理審查程序、倫理準則以及提供相應的審查建議。在審查環(huán)節(jié),委員會主要設計的關鍵問題包括七項,其中與科技倫理風險相關的包括:(1)研究人員及其相關人員在研究項目中追求哪些具體目標?(2)是否擁有必要的專業(yè)知識對研究工作的潛在風險進行知情評估,或者是否需要咨詢其他專業(yè)知識?(3)能夠根據(jù)當前的實際狀況充分說明已知或可能的研究結果的收益和風險,并在必要時相互權衡?(4)該研究工作的安全相關結果和由此產生的風險是全新的,還是在之前已經公開的研究工作基礎上產生的?從這些審查事項來看,德國的科技倫理審查在一定程度上還是更加側重對科技倫理風險的發(fā)現(xiàn)和識別,既包括新舊科技倫理風險的識別,也包括是否屬于特定專業(yè)領域的科技倫理風險。并且,也有學者發(fā)現(xiàn),德國的安全相關倫理委員會主要職責包括通過咨詢服務和開展活動提高科研人員的敏感性加強研究人員獨立處理濫用其研究風險的能力

(二)風險預防功能

在我國,科技倫理審查通常被視為一種整合科學技術內外倫理規(guī)范的科研活動監(jiān)督制度。在生命醫(yī)學領域,該制度的核心功能是避免科學技術創(chuàng)新活動無序開展,破壞人類共識性的倫理道德底線,保障人類受試者的生命健康和實驗動物的合理對待。特別是在涉及基因實驗領域,無序的科研創(chuàng)新活動會使得人類本身處于相當危險的狀態(tài),隨意試驗人類基因所產生的后果以及對未來人類生命健康的影響難以預料。這種完全失控的科技倫理風險已經超出社會對于科技創(chuàng)新活動的合理期待范疇,甚至會產生諸如基因編輯武器等更為嚴峻的危險因素。所以,科技倫理審查的核心目的被部分學者歸結為新技術應用不損害人類的生存條件和生命健康”“保障人類的切身利益和至高無上的尊嚴促進人類社會的可持續(xù)發(fā)展。之所以實現(xiàn)此類目的需要通過科技倫理審查機制,是因為生命醫(yī)學領域的科技倫理風險已經超出了社會可接受范疇。基因編輯等涉及人體試驗活動所產生的社會危害性往往無法通過事后責任認定完全消除。因此,法律責任和科技倫理審查制度成為應對此類科技倫理風險的雙重保險。科技倫理審查在事前階段通過引入生命醫(yī)學、倫理、法學等領域的專家進行必要干預,但因為科技倫理規(guī)范并不具有國家公權力作為執(zhí)行保障,同時也需要通過刑法等法律法規(guī)發(fā)揮威懾作用,限制科研人員因過度追求科研績效等目的從事危險的科技創(chuàng)新活動。

不過,科技倫理審查制度并沒有就此在其他所有科學創(chuàng)新領域進行擴展性適用。這是因為科技倫理審查的對象通常是涉及生命健康、人格尊嚴等相關的科技倫理風險,其他技術領域的科技倫理風險屬于社會可接受范圍,且能夠通過現(xiàn)行立法直接約束技術應用方式。綜合考量促進科技創(chuàng)新和保障科研自由之目的,科技倫理審查制度的實際適用范圍相當有限。在人工智能領域,該制度再次受到關注并被視為人工智能技術治理體系的重要組成部分,其中的原因是人工智能技術創(chuàng)新速度遠超社會預期,使得原本停留于科幻小說中才有的自主機器人的主體倫理問題開始被倫理學學者所擔憂。此外,人工智能的技術特征具有場景導向性和智能決策性兩類特征,其科技倫理風險水平遠超其他信息技術。場景導向性主要是指人工智能科技倫理風險的產生往往與其應用場景密切相關,在電影文娛行業(yè),“AI換臉”“定制圖片、視頻生成等業(yè)務模式屬于正常的業(yè)務活動。但是,一旦用于重現(xiàn)死者生前音貌等領域,反而可能產生更為顯著的科技倫理風險。智能決策性則是指人工智能技術的智能化程度越來越高,甚至可以在特定業(yè)務場景中代替人類作出較為簡單的決策活動,而這種決策活動及其影響則會產生不同程度的科技倫理風險。例如,在自動駕駛領域,一旦發(fā)生類似電車難題的緊急情況時,信息系統(tǒng)究竟應當按照何種倫理標準進行駕駛行為的決策至今仍然存在較大爭議。

與生命醫(yī)學領域的倫理審查相比,人工智能科技倫理審查的核心功能還表現(xiàn)為,針對不可預期的人工智能科技創(chuàng)新活動,在事前階段發(fā)現(xiàn)可能違背倫理道德、損害人格尊嚴的技術應用方式。同時,在具體的科技倫理審查制度中,對審查委員會的知識背景設置多元化要求,如《科技倫理審查辦法(試行)》第7條提及同行專家、倫理、法律等專業(yè)背景專家組成委員會,其目的是更加準確地判斷是否存在科技倫理風險。特別是針對市場上尚未出現(xiàn)的新型人工智能技術應用模式,其是否存在異常的科技倫理風險往往存在一定爭議,故而需要借由科技倫理審查制度進行科學技術、倫理學和法學層面的綜合性評判,在確保技術應用本身不存在算法歧視、偏見等倫理風險之外,阻止新型技術應用方式產生全新的科技倫理風險類型。

(三)科技創(chuàng)新合理性評價功能

在科技倫理審查法制化的過程中,該制度的定位更適宜理解為網信領域安全風險評估機制、算法分級分類治理機制的前置性程序。科研機構、科研人員是否充分開展科技倫理審查、是否嚴重違反科技倫理審查要求等行為可以作為相關義務主體是否采取必要措施保障人工智能應用安全的判斷要素。因為倘若將是否按照要求開展科技倫理審查活動作為承擔法律責任的事實依據(jù),其直接結果便是在科研機構、科技人員從事科技創(chuàng)新活動中增加不必要的合規(guī)負擔。并且,這也導致科技倫理審查與安全風險評估機制具有相同的法律效果,義務主體反而難以區(qū)分兩種制度的實質區(qū)別,加劇合規(guī)工作難度。但是,倘若將科技倫理審查理解為義務主體未履行人工智能應用安全保障義務的過錯,則能夠促使義務主體充分進行科技倫理審查,作為法律責任免除或減輕的正當事由。此外,在邏輯關系層面,不合法的科技創(chuàng)新活動一定違背科技倫理,但不合乎科技倫理的科技創(chuàng)新不一定不合法,故而不適宜直接將科技倫理審查作為合法性判斷的制度工具。

在治理目標層面,法律治理強調引導非法向合法的轉向,而科技倫理審查的制度目標則是持續(xù)推動實踐逐步貼近理想的治理秩序。在部分學者看來,風險預防審查原則更契合科技倫理審查對應的社會公共利益,并將倫理審查框架的核心內容解釋為損害與預期受益的對比,這種風險收益比也是判斷科技創(chuàng)新活動是否適度和客觀的標準。這種風險與收益的合比例性亦是一種合理性判斷,而非合法與否的判斷。倫理審查委員會的職責之一是發(fā)現(xiàn)科技倫理風險并反饋科研機構和科研人員,督促其人工智能應用方式盡可能采取風險與收益比例最小的技術應用方案。因此,科技倫理審查的制度功能在一定程度上是推動科研機構、科研人員在各類可選技術方案中優(yōu)先選擇更加符合人類福祉的選項。不論科技倫理審查機制以何種方式法制化,均無法擺脫其所固有的非強制性特征,將科技倫理審查與法律效果直接關聯(lián)只會使得治理模式之間的差異性模糊化。更重要的是,人工智能科技創(chuàng)新活動達到具有自主意識的智能化技術水平,客觀上仍然需要足夠長的時間周期,故而現(xiàn)階段的人工智能科技倫理審查主要解決的是技術應用層面潛在的科技倫理風險,以判斷相應的技術應用方式是否合理。

四、人工智能科技倫理審查制度的體系化塑造

《科技倫理審查辦法(試行)》所規(guī)定的科技倫理審查制度屬于一般法層面的倫理審查機制,為了更有效地回應人工智能科技創(chuàng)新領域的倫理風險特殊性,則需要針對當下審查范圍、審查標準和審查作用機制的模糊性問題,對審查主體審查流程兩項關鍵制度內容進行細化。同時,結合人工智能科技倫理審查的風險識別、預防、合理性判斷這三類功能,調整該項制度在整個人工智能科技治理體系中的定位,更充分地發(fā)揮科技倫理審查的實施作用。

(一)審查主體:科技倫理審查委員會的獨立性

在《科技倫理審查辦法(試行)》中,采用的是科技倫理(審查)委員會這一表述。盡管科技倫理委員會和科技倫理審查委員會僅僅只是概念指稱的差異,但從職能定位和組織機構關系來看,更適宜將科技倫理委員會和科技倫理審查委員會予以區(qū)分??萍紓惱砦瘑T會的職能定位包括制定具體的科技倫理規(guī)范、科技倫理審查機制、科技倫理最佳實踐、提供科技倫理信息咨詢等事項。并且,基于這種職能定位的考慮,科技倫理委員會適宜采用相對固定的組成架構,用以確保內部科技倫理規(guī)范的一致性和連貫性??萍紓惱韺彶槲瘑T會對應的是科技倫理審查主體,為了確保倫理審查的獨立性,倫理審查委員會的組成人員應當具有隨機性、靈活性,以便能夠更好地針對特定領域的人工智能科技創(chuàng)新活動作出更為專業(yè)準確的道德判斷。并且,不同的技術方案在科技倫理審查過程中會呈現(xiàn)不同的風險收益比,非固定的組成人員更有利于確保相應的道德判斷結論符合當下科技倫理發(fā)展趨勢。

科技倫理審查委員會的獨立性是實現(xiàn)科技倫理審查制度功能的基本保障,其中最重要的一點便是通過經濟來源獨立實現(xiàn)倫理審查的獨立性。在自愿審查模式中,科技倫理審查表現(xiàn)為自律性審查,倫理審查委員會的獨立性要求相對較低,僅需滿足程序性要求,提供必要的審查場所、審查經費等條件即可。雖然科技倫理審查委員會是由被審查對象組建,并由其支付倫理委員相應報酬,但并不構成自己審查自己,因為自愿審查模式本身就是一種非強制性的道德約束。但是,如果涉及強制審查模式,科技倫理審查委員會的獨立性要求較高,此時由被審查對象承擔相應經費、提供辦公場所、配備必要工作人員反而會削弱科技倫理審查的獨立性程度。一方面,必要的工作人員歸根結底屬于被審查單位的員工,獨立從事科技倫理審查工作不具有可行性;另一方面,審查經費、審查工作場所均由被審查對象提供,更是難以保證倫理審查委員能夠獨立作出道德判斷。因此,對于強制審查情形,為了真正有效預防科技倫理風險事件的發(fā)生,更建議通過財政支持、外部機構設置科技倫理審查委員會等方式實現(xiàn)科技倫理審查的獨立性。有學者在分析和比較歐盟第8和第9科研和創(chuàng)新框架計劃的基礎上,發(fā)現(xiàn)歐盟對于資助項目的倫理考察越發(fā)重視,這兩個框架在倫理評價策劃層面分別設置了倫理自評價——倫理審查——倫理檢查與審核倫理自評估——倫理篩查——倫理檢查等管理流程。而其中的倫理審查(倫理篩查、倫理檢查)均是由外部的科技倫理審查委員會進行。

科技倫理審查委員會的獨立性歸根結底還是保障審查委員能夠獨立作出道德倫理判斷。為了確保審查結果的獨立性和全面性,有學者總結了國外三種人工智能倫理審查的實踐范式:一是倫理嵌入,即讓倫理學專家加入人工智能科技創(chuàng)新活動,在具體的技術方案研發(fā)設計過程中持續(xù)提供倫理風險識別和評估服務。這與國內部分學者所提及的全生命周期科技倫理治理理念相似,能夠及時發(fā)現(xiàn)科技倫理風險,但容易受到專家個人影響。二是倫理對齊,即通過獎勵模型、強化學習等技術方案確保人工智能系統(tǒng)設計運行與人類共同倫理觀保持一致,但現(xiàn)階段仍然停留于試驗階段。三是價值敏感設計,即在設計之初就開始融合多學科的倫理觀念確定相應的技術方案,但無法在復雜的利益關系中達成倫理觀念共識。這些科技倫理審查的實踐模式均試圖將科技倫理審查從集中審查轉變?yōu)榱鞒淌綄彶槟J?,在設計、研發(fā)、運用、用戶反饋等多個環(huán)節(jié)進行科技倫理風險的識別和治理,解決集中審查模式可能存在的審查標準單一、倫理審查委員會專業(yè)性不足等現(xiàn)實難題。不過,這種流程式審查也存在技術水平要求高、審查周期過長、額外支付倫理審查專家報酬等問題,但其實現(xiàn)獨立性、權威性的道德倫理判斷之邏輯具有一定的借鑒價值。

(二)審查流程:增設自愿審查模式

人工智能科技倫理審查是一項判斷人工智能技術應用是否合理的科技倫理風險識別治理機制,其具體的審查模式也應當圍繞技術應用的合理性設置相應的審查事項和審查標準。故此,科技倫理審查環(huán)節(jié)大致可以劃分為三個環(huán)節(jié):第一個環(huán)節(jié)是科技倫理風險發(fā)現(xiàn)和識別,判斷待審查的科技創(chuàng)新活動是否存在顯著異常的科技倫理風險。因為科技倫理風險屬于倫理道德的風險范疇,量化科技倫理風險閾值既無必要也無可能,更重要的是判斷是否存在遠超社會可接受范圍的科技倫理風險。如若存在,則應當直接禁止此類人工智能技術的創(chuàng)新應用;如若不存在顯著異常的科技倫理風險,則進入到合理性判斷環(huán)節(jié)。第二個環(huán)節(jié)是根據(jù)第一個環(huán)節(jié)所發(fā)現(xiàn)的科技倫理風險與可預見的收益進行比較,在價值衡量層面判斷收益范圍內相應的科技倫理風險是否屬于可接受范圍,進而作出相應的道德判斷,具體包括是否存在科技倫理風險”“科技倫理風險是否屬于可接受范圍”“科技倫理風險具體表現(xiàn)形式等事項。第三個環(huán)節(jié)則是審查建議,由倫理審查委員會在上個環(huán)節(jié)的風險識別、合理性判斷的基礎上提出相應的技術應用方案改良建議,并反饋至被審查對象。由于科技倫理本身具有多元化的基本特征,部分科研機構、科研人員可能并未注意到潛在的科技倫理風險。此時,科技倫理審查機制引入內外部專家給予不同知識背景下的科技倫理風險判斷意見,能夠使得科研機構、科研人員采用更為理想化的技術應用方案。

這種科技倫理審查流程表面上似乎明顯增加了審查流程的時間周期和人力成本,不能有效降低科技創(chuàng)新活動的外部監(jiān)管負擔,完全不具有可操作性。因此,需要說明的是,科技倫理審查的適用應當涉及三種情形:第一種情形是涉及全新的人工智能技術應用方式。由于技術應用不同于業(yè)已公開的產品或服務,科研機構、科研人員可能對潛在的科技倫理風險難以準確識別,故而需要引入科技倫理審查機制進行合理性判斷。相應地,如果人工智能科技創(chuàng)新活動涉及市面上已有的產品或服務,那么完全沒有必要再進行科技倫理審查。第二種情形是涉及顯著異??萍紓惱盹L險的科技創(chuàng)新活動。鑒于風險的特殊性,這類科技創(chuàng)新活動應當納入強制科技倫理審查范疇,避免類似基因編輯嬰兒事件的出現(xiàn)。《科技倫理審查辦法(試行)》也已經規(guī)定了此類機制,即需要開展專家復核的科技活動清單制度。第三種情形是涉及具有守門人地位的科技企業(yè)從事的科技創(chuàng)新應用活動。因為這類科技企業(yè)在市場份額、用戶數(shù)量等方面具有優(yōu)勢地位,相應的科技倫理審查風險波及更大,所以在涉及部署全新類型的人工智能應用、人工智能應用重大更新等可能發(fā)生科技倫理風險顯著波動的情況時,需要進行必要的科技倫理審查。

此外,還需要明確的是,科技倫理審查歸根結底屬于一種倫理型治理機制,故而需要區(qū)分強制審查和自愿申報審查兩種啟動程序。上文第一種和第三種屬于自愿申報申請類型,因為只要潛在的科技倫理風險不具有顯著異常性,強制要求進行科技倫理審查反而會不當擴大科技倫理審查的實際范圍。并且,這兩類情形所存在的科技倫理風險并不足以造成嚴重的損害事實,即便這兩類情形涉及的科研機構、科研人員沒有進行科技倫理審查,也不可能因此要求這些科研機構、科研人員承擔法律責任。倘若因為違反程序性規(guī)定而對其采取行政罰款、警告、約談等行政處罰措施,也違背了行政法的比例原則。從整體制度體系的角度理解,科技倫理審查的法制化實際上是將科技倫理審查劃分為倫理層面和法治層面兩類審查模式,而法治層面的科技倫理審查主要針對的是可能同時違背科技倫理和法律禁止性規(guī)定的科技創(chuàng)新活動,故而才存在強制審查、承擔法律責任等制度的適用可能性。因此,在建構專門性的科技倫理審查規(guī)則時,則需要在概念界定條款或審查原則條款中明確人工智能科技倫理審查包括強制審查和自愿審查兩類審查模式。

(三)審查作用機制:法律風險與倫理風險的一體化評估

基于科技倫理風險的治理目標,人工智能科技倫理審查的適用范圍始終僅限于有限的人工智能科技創(chuàng)新活動,《科技倫理審查辦法(試行)》第4條也將設定科技倫理(審查)委員會的情形限定為涉及科技倫理敏感領域。結合法律、倫理、市場、技術等治理工具的綜合技術治理體系,如若將科技倫理審查制度視為一種普適性義務,要求所有科研單位、企業(yè)在開展各類人工智能技術創(chuàng)新和應用之前均應當進行科技倫理審查,則會陷入重復審查的制度泥沼。人工智能科技倫理審查法制化的核心目標是為了進一步完善對異??萍紓惱盹L險的預防和控制。因為忽視這類風險徑直從事科技創(chuàng)新活動已經具有違法性,現(xiàn)行立法也規(guī)定了安全風險評估等具體制度用以約束這類行為,但從治理效果來看,這類風險的事后歸責遠不及事前預防有效,故而需要引入科技倫理審查,多方位阻斷這類超出合理科研創(chuàng)新范疇的科研活動。然而,僅以涉及科技倫理敏感領域或者異??萍紓惱盹L險作為啟動科技倫理審查的前提條件似乎存在先驗性判斷,畢竟在邏輯層面,只有完成了科技倫理審查才能確定相應的科技倫理風險。這里需要澄清的是,相較于法律風險、技術安全風險而言,初步識別科技倫理風險對專業(yè)領域的知識背景要求較低,故而一旦存在顯著的科技倫理風險,科研單位、科研人員也能夠在科技創(chuàng)新活動之初進行初步判斷,進而明確是否有必要啟動強制性的科技倫理審查。

與生物醫(yī)學領域的科技倫理審查相比,人工智能科技倫理審查的行業(yè)特殊性在于,需要結合其他人工智能治理機制形成對整個人工智能技術風險的控制。特別是在人工智能統(tǒng)一立法的語境下,更需要關注人工智能科技倫理審查的法制化路徑。在兼顧技術安全和技術創(chuàng)新的立法目標下,增強科技倫理審查與其他技術治理機制之間的區(qū)分度,同時,合并重復的風險識別、風險治理相關的義務性要求,避免人工智能科技創(chuàng)新活動需要同時進行數(shù)個功能目的相同或相近的業(yè)務合規(guī)事項。既有研究對于人工智能科技倫理審查法制化論述多集中于配套法律制度予以保障基礎立法與專門立法相結合兩類路徑:“配套法律制度予以保障側重區(qū)分科技創(chuàng)新活動與科技應用活動,針對上游的研發(fā)設計活動設置原則性、程序性的科技倫理評估機制,并為科技社會化提供組織保證;針對下游的應用活動設定法律優(yōu)先回應議題,健全審查、評估、監(jiān)管在內的科技倫理監(jiān)督體系。基礎立法與專門立法相結合則側重科技倫理審查應當體現(xiàn)行業(yè)主導性特征,在基礎立法層面設置科技倫理基礎性立法,通過綜合性、統(tǒng)攝性條款明確科技倫理審查的一般規(guī)則;在專門立法層面針對具有優(yōu)先治理需求的科技創(chuàng)新活動設置科技倫理審查特別規(guī)則。

前述兩種法治化路徑忽視了人工智能科技倫理審查法制化過程中的制度銜接問題。在未來建構人工智能科技倫理審查機制的過程中,更需要關注該制度如何通過簡化部分程序性事項或與其他制度合并,達成更為高效的義務合并效果,以此實現(xiàn)人工智能立法的雙重目標?!吨腥A人民共和國網絡安全法》《中華人民共和國數(shù)據(jù)安全法》均規(guī)定了網絡安全、數(shù)據(jù)安全相關的負責人制度,并且要求義務主體保障負責人能夠獨立履職;《科技倫理審查辦法(試行)》同樣規(guī)定了單位應當采取必要措施保障科技倫理(審查)委員會獨立履職。按照此種邏輯,可能會推導出每一類安全風險都需要義務主體提供必要的獨立履職條件這一荒謬的結論。為了避免這種情況的出現(xiàn),更需要在法律層面重新整合和解釋這些法定義務和科技倫理審查要求的履行方式。在人工智能技術風險治理的論爭中,學者們越發(fā)側重對人工智能技術風險的體系化治理,實現(xiàn)這一目標也需要有效整合現(xiàn)有的風險治理策略。人工智能技術風險的呈現(xiàn)方式具有復雜性特征,并不能簡單地拆分為技術安全風險、科技倫理風險、法律風險等具體風險類型予以分類治理。所以,未來在制定人工智能統(tǒng)一立法時,應當允許義務主體采用更為靈活的審查評估模式,對潛在的科技倫理風險、技術安全風險等風險類型進行一次評估,也方便義務主體采取更為高效的安全保障措施以預防和控制人工智能技術風險。

五、結語

武漢市蘿卜快跑的產業(yè)試點說明了人工智能技術普及應用時代已經悄然而至。在享有人工智能技術應用便捷性的同時,不僅需要在法律制度層面規(guī)范技術應用的安全監(jiān)管要求,還需要持續(xù)關注技術應用背后的科技倫理風險。在人工智能治理體系中,科技倫理審查機制能夠提供判斷人工智能技術應用合理與否的綜合性分析框架。該項制度的功能作用是對待審查的人工智能科技創(chuàng)新活動進行合理性審查,并將科技倫理審查結果反饋至被審查單位,通過非確定性的科技倫理規(guī)范對科技人員的倫理觀念產生潛移默化的影響。人工智能科技倫理審查并非合法性審查,而是判斷技術創(chuàng)新方式是否符合科技倫理規(guī)范的合理性審查。因為科技創(chuàng)新活動的合法性問題完全可以交由其他現(xiàn)行法律制度予以解決,并且以違反科技倫理為由認定科技創(chuàng)新活動不具有合法性也超出了科技倫理規(guī)范的實際范疇??陀^而言,人工智能科技倫理審查是一種補充性的技術風險治理機制,預防的風險類型也是以科技倫理風險為限,故而沒有必要過度神話科技倫理審查的治理效果和制度功能。在未來的人工智能立法活動中,更需要以風險體系化治理的治理理念明確科技倫理審查與其他技術風險治理機制的適用關系和銜接方式。




原文刊載于《當代法學》2025年第1期,感謝微信公眾號“當代法學編輯部  ”授權轉載。





那坡县| 东光县| 扶绥县| 广灵县| 邹城市| 襄垣县| 武汉市| 特克斯县| 洮南市| 温泉县| 平凉市| 稻城县| 周宁县| 万荣县| 金门县| 汉源县| 新干县| 铜鼓县| 上思县| 大宁县| 普兰县| 凉城县| 辽阳县| 博野县| 铁岭县| 和田县| 永宁县| 利辛县| 封开县| 黑河市| 沙河市| 西乌珠穆沁旗| 舟山市| 拉萨市| 扎兰屯市| 克东县| 甘洛县| 盐池县| 兴义市| 陇川县| 高碑店市|