【作者】李學堯
【內(nèi)容提要】
人工智能倫理審查制度的立法思路
李學堯 上海交通大學凱原法學院教授、上海交通大學中國法與社會研究院企劃委員
人工智能倫理與生物醫(yī)學倫理具有對稱性、延續(xù)性的關(guān)系,但人工智能倫理的責任主體、審查對象,及實質(zhì)性原則和規(guī)則(如自主原則)的問題意識及其權(quán)重都有異于生物醫(yī)學倫理。生物醫(yī)學倫理審查過程體現(xiàn)為“大眾道德直覺”與“無法禁止的技術(shù)創(chuàng)新”之間的妥協(xié),人工智能倫理審查仍有此性質(zhì),但其“大眾道德直覺”可以通過技術(shù)途經(jīng)直接落實。人工智能的倫理挑戰(zhàn)主要集中于部署和應(yīng)用階段,而生物醫(yī)學倫理主要聚焦于研發(fā)和開發(fā)階段。由上述分析而得,人工智能倫理審查制度宜在科技倫理治理框架內(nèi)單行立法,并在倫理審查責任主體、審查啟動條件、專家構(gòu)成、議事規(guī)則以及審查結(jié)論的法律效力等方面采取有異于生物醫(yī)學倫理的立法思路。
從生物醫(yī)學倫理制度尋求啟示
2022年國家網(wǎng)信辦頒布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第7條,是我國立法意義上構(gòu)筑人工智能倫理審查制度的開端。2023年7月,國家網(wǎng)信辦等7部委頒布了《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》)則在實體法規(guī)則意義上例舉了人工智能倫理的相關(guān)原則。隨后,科技部等單位還頒布了具有規(guī)范性文件性質(zhì)的《科技倫理審查辦法(試行)》(以下簡稱《倫理審查辦法》)并在附錄“需要開展倫理審查復核的科技活動清單”中例舉了必須開展人工智能倫理審查的幾種情形。
如今,對于各級監(jiān)管部門以及合規(guī)主體來說,如何將人工智能倫理從道德原則框架轉(zhuǎn)化為可操作、可預期、可計算的倫理合規(guī)實踐,是一個亟待解決的實務(wù)問題。近來,中央有關(guān)部門正在就制定專門的人工智能倫理審查規(guī)定的議題通過多種方式征求各界意見。那么,我國該如何在“可操作、可計算、可預期”的思路下構(gòu)建人工智能倫理審查制度呢?鑒于生物醫(yī)學倫理及其倫理審查實踐較為成熟,可以將其作為重要的借鑒對象,展開相關(guān)的討論。大致上,可以從四個方面展開論述:第一,兩者具有怎樣的共同點。第二,兩者有什么區(qū)別,人工智能倫理具有什么特征。第三,生物醫(yī)學倫理的制度實踐及其理論討論有什么教訓需要吸取。第四,生物醫(yī)學倫理的制度傳統(tǒng)有哪些方面可以被人工智能倫理實踐直接繼承、學習。
人工智能倫理與生物醫(yī)學倫理的延續(xù)性
在應(yīng)用倫理學界一直存在爭議的是,人工智能技術(shù)的發(fā)展是否提出了新的、獨特的倫理問題,抑或人工智能倫理只是重復了在更成熟的領(lǐng)域,如生物醫(yī)學領(lǐng)域遭遇的相同倫理困境?對此,大部分曾經(jīng)研究生物醫(yī)學倫理的學者都會論證兩者之間存在高度的一致性或者延續(xù)性,并認為其應(yīng)統(tǒng)合在應(yīng)用倫理學的理論體系之中。
如果對生物醫(yī)學倫理通說的四大原則,尊嚴、有利、無傷以及公正,與各國立法和政策文件以及學術(shù)界所列的人工智能倫理實體原則進行比較,確實可以得出這樣的結(jié)論:人工智能倫理與生物醫(yī)學倫理的基本原則存在較強程度的對稱性和一致性。(見表1)換言之,在法律框架內(nèi),可以采取類推等方式,從生物醫(yī)學倫理審查的實體性規(guī)則中,推導出人工智能倫理審查制度的相關(guān)原則和規(guī)則。
人工智能倫理與生物醫(yī)學倫理的差異
上文反思了過于強調(diào)人工智能倫理獨特性的思路。但是,在倫理審查的實務(wù)中,也需要警惕完全將生物醫(yī)學倫理和人工智能倫理視為一體,并在人工智能倫理合規(guī)實踐中簡單復制生物醫(yī)學倫理審查實踐的保守主義思路。筆者曾運用“事物本質(zhì)”的概念工具,初步歸納了人工智能倫理因其技術(shù)特征而區(qū)別于生物醫(yī)學倫理的三大制約性條件:道德規(guī)則的技術(shù)可嵌入性、更強的場景性以及依賴于技術(shù)過程的程序性。此處沿著該文中的理論延長線繼續(xù)展開討論:
第一,合規(guī)主體上倫理責任主體單一性和“泛化”的差異。除了研發(fā)者、提供者以外,人工智能的使用者將成為倫理挑戰(zhàn)的重點;而后者的范圍可以將其理解為全世界所有的自然人和非自然人主體。不同主體對人工智能倫理的使用,一方面可以指數(shù)式提高整個社會的運轉(zhuǎn)效率,但另一方面,其引起的倫理爭議是紛繁復雜的,將其排除出倫理審查范圍是不可想象的。換言之,和生物醫(yī)學倫理相比,人工智能幾乎適用于任何人類活動,這為其使用提供了無數(shù)的可能性,決定了其不可能類似生物醫(yī)學倫理一樣可以簡單地還原為科研人員或者醫(yī)生的職業(yè)倫理。它會挑戰(zhàn)所有領(lǐng)域的人類業(yè)已形成的倫理道德規(guī)則,而所有的使用者都有可能成為潛在的倫理挑戰(zhàn)者。
當然,這會引向兩種討論:一是人工智能使用階段的倫理沖突,最終可能需要或者可以通過立法程序或者司法審查來實現(xiàn),但考慮到具體應(yīng)用場景的復雜性、不確定性以及效率提升的需要,可以通過各種形式的法律授權(quán),將倫理審查的義務(wù)授權(quán)給平臺型和公共管理型使用者、將倫理困境解決的大部分義務(wù)配置給自我監(jiān)管主體依法成立的倫理審查委員會。二是需要區(qū)分因科技創(chuàng)新引發(fā)的不同類型的道德困境場景。電影《我不是藥神》中的倫理爭論是由仿制藥是否可以與如何使用引發(fā)的,但其困境的產(chǎn)生根源是行政秩序維護與治病救人的價值沖突,而不是這種技術(shù)是如何影響個人和人類自主權(quán)的問題。
第二,合規(guī)內(nèi)容上原則和規(guī)則側(cè)重點的差異。以自主性原則為例,毋庸置疑,人類集體和個人的自主性是人工智能倫理原則的關(guān)鍵。一是個體自由意義上的自主權(quán),包括對隱私、財產(chǎn)權(quán)的保護等;二是人類整體意義上的自主性,包括高度自主的人工智能系統(tǒng)應(yīng)被設(shè)計成可以確保其目標和行為在整個操作過程中與人類價值觀保持一致。盡管傳統(tǒng)生物醫(yī)學的技術(shù)研發(fā)及其應(yīng)用,比如致命生物武器也可能引發(fā)人類整體被滅亡或者被其它非人類控制的危險,但人工智能系統(tǒng)可能會接管、威脅整個人類自主性中所體現(xiàn)的倫理挑戰(zhàn),并不是傳統(tǒng)生物醫(yī)學倫理面對的重點。
再以正義原則為例。由于人工智能系統(tǒng)深刻地介入并逐漸替代人類決策,它與生物醫(yī)學技術(shù)本身只是決策對象、利益分配對象有著本質(zhì)的區(qū)別。所以,生物醫(yī)學技術(shù)的研發(fā)最多涉及分配正義,且一般是再分配階段所考慮的內(nèi)容,并非研發(fā)階段所需思考的對象。但人工智能系統(tǒng)的運轉(zhuǎn)本身就會消解或者異化已有的法律程序制度。比起以往應(yīng)用倫理學領(lǐng)域處理的所有研究對象,人工智能的應(yīng)用及其對社會的變革性影響更加廣泛、深遠。所以,每一個前沿性人工智能技術(shù)的研究、開發(fā)、部署以及使用,都有必要從人類正義或者人類現(xiàn)存社會秩序能否得以延續(xù)的角度展開自我審查。
第三,合規(guī)對象上“非道德性”和“有道德性”的分野。人工智能倫理與生物醫(yī)療倫理的審查對象的最大差別在于“非道德性”和“有道德性”要求。近來,國際上人工智能原則的實質(zhì)內(nèi)容逐漸被凝煉闡述為“可信任原則”,而“可信任”實際上也可以轉(zhuǎn)述為“有道德性”的表述。
在生物醫(yī)學領(lǐng)域,非人工智能技術(shù)意義上的生物醫(yī)學技術(shù)和產(chǎn)品,具有鮮明的“非道德性”特征,因此可以在法律合規(guī)中較順利地應(yīng)用“技術(shù)中立原則”。人工智能與傳統(tǒng)生物醫(yī)學研發(fā)和應(yīng)用的區(qū)別是,它的產(chǎn)品和服務(wù)不只是硬件設(shè)備,而通常是極其復雜系統(tǒng)中的程序和應(yīng)用程序,如健康和福利數(shù)據(jù)生成系統(tǒng)、稅收系統(tǒng)。因此,對于人工智能技術(shù)和產(chǎn)品,特別是生成式人工智能系統(tǒng),顯然難以再簡單地適用技術(shù)中立原則。
人工智能倫理審查制度構(gòu)建的要點
通過上述分析,我國人工智能倫理審查制度的立法思路可以從以下方面展開。
第一,立法模式。通過前文分析,人工智能倫理的立法有必要與生物醫(yī)學倫理的立法進行區(qū)別。人工智能倫理審查制度宜在科技倫理治理框架內(nèi)單行立法,并在倫理審查負責主體、審查啟動條件、專家構(gòu)成、審查結(jié)論的法律效力和議事規(guī)則等方面做出有異于生物醫(yī)學倫理的規(guī)范要求。
具體來說,就是要在現(xiàn)行的倫理審查體系中,在主要基于生物醫(yī)學倫理審查場景的《倫理審查辦法》之外,盡快起草一部專門針對人工智能倫理的平行性行政規(guī)章或者規(guī)范性文件。目前,有一種立法思路是,將《倫理審查辦法》作為相關(guān)人工智能倫理審查制度的上位法。由于已有的“科技倫理”及其相關(guān)倫理審查制度(比如委員會構(gòu)成)都承繼了“生物醫(yī)學倫理審查”的制度,為了防止后者審查思路帶來的不可知的慣性思維,很有必要在短期盡快起草一部不受《倫理審查辦法》限制的規(guī)范性文件或者行政規(guī)章。考慮到人工智能倫理原則的實操性關(guān)涉中國人工智能技術(shù)和產(chǎn)業(yè)的競爭優(yōu)勢,且涉及大量的程序性規(guī)范、授權(quán)性規(guī)范,因此很有必要在中短期起草一部單行性的《人工智能倫理法》,并在時機成熟時,將其作為通用型的《人工智能法》專章內(nèi)容進行擬制。
第二,具體條款內(nèi)容。鑒于人工智能倫理的嵌入性、場景性以及程序性特征,使得其更需要自下而上、演化型的規(guī)則生成模式,所以,在具體倫理裁斷場景中,工程師與倫理專家、法學專家的有效溝通、對立性對抗、達成共識并最終轉(zhuǎn)化為行為極其重要。因此,在倫理審查相關(guān)條款的設(shè)計方面,不宜將過多的條款設(shè)計資源放在實體性倫理原則的內(nèi)容設(shè)計,而是應(yīng)在關(guān)注程序性的視角,注重三種條款的設(shè)計:
一是關(guān)于倫理審查委員會的設(shè)置主體、職責內(nèi)容和責任配置。一方面,不同于生物醫(yī)學技術(shù),人工智能技術(shù)的研發(fā)主力逐漸轉(zhuǎn)變成了企業(yè),而非高校和科研機構(gòu)。因此,倫理審查委員會的主管部門應(yīng)從科研機構(gòu)和高校的主管部門主導,轉(zhuǎn)變?yōu)橛晒I(yè)和信息部門主導。另一方面,從專家權(quán)力與行政權(quán)力等權(quán)力合理分配的角度,對其做更多的授權(quán)性條款設(shè)計。同時,也要配合明確人工智能倫理治理過程中的“平臺型開發(fā)和應(yīng)用企業(yè)”的守門人責任,并對其自我創(chuàng)制的相關(guān)規(guī)則進行授權(quán)性確認。
二是關(guān)于倫理審查委員會的組成。為了更好地形成“對立面設(shè)置”,應(yīng)對委員對選聘、構(gòu)成、資格及其成員動態(tài)調(diào)整等做重點設(shè)計。其中,考慮到“有道德人工智能”的人工智能倫理審查目標及其技術(shù)可實現(xiàn)性,在倫理審查過程中,應(yīng)注重增加人工智能技術(shù)專家的比重。人工智能倫理審查仍有“大眾道德直覺”的特質(zhì),但可以通過技術(shù)途經(jīng)直接落實,這應(yīng)該在倫理審查委員會的資格和構(gòu)成中得到體現(xiàn)。
三是關(guān)于倫理審查委員會的議事規(guī)則。應(yīng)注重評議程序、決策程序的設(shè)計。與第二點相關(guān)的是,鑒于人工智能倫理可嵌入性的技術(shù)化需求,在評議程序設(shè)計中也可以設(shè)置適合技術(shù)化的討論流程,以防止出現(xiàn)倫理審查程序空轉(zhuǎn),最后淪落為“大眾道德直覺限制人工智能技術(shù)進步”工具的問題。
四是關(guān)于人工智能倫理審查程序啟動的條件。不應(yīng)將人工智能倫理審查的重點只放在研究和開發(fā)階段、將責任主體只識別為研發(fā)者和提供者,應(yīng)更多地將倫理審查責任配置給使用者,特別是決策型人工智能系統(tǒng)的行業(yè)使用者或者平臺型使用者。這種倫理審查重點的轉(zhuǎn)變,既是人工智能技術(shù)的特質(zhì)所引發(fā)的,也是更好促進人工智能技術(shù)研發(fā)及其產(chǎn)業(yè)發(fā)展的責任優(yōu)化配置的需要。