少妇脱了内裤让我添,久久久久亚洲精品无码网址蜜桃,性色av免费观看,久久人妻av无码中文专区

分享

顏佳華|提升政府治理算法決策公平性的機制與路徑

 花間挹香 2022-06-24 發(fā)布于河南
圖片

引用格式

     顏佳華.提升政府治理算法決策公平性的機制與路徑[J].行政論壇,2022,29(03):34-40.

作者簡介

圖片

顏佳華教授

      顏佳華,湘潭大學馬克思主義學院、公共管理學院教授,博士研究生導師,從事行政哲學與數字治理研究。

摘要

     隨著人工智能與政府治理融合的不斷加深,政府決策開始走向智能化和算法化。從具體實踐來看,政府治理算法決策面臨公平性困境——程序公平受到沖擊和結果公平有所偏差,這主要源于使用者或提供者自身價值觀偏誤、基礎數據的客觀性和準確性有限以及算法程序自我迭代優(yōu)化的技術邏輯影響等。為此,需要聚焦于價值、制度和組織等三個層面,搭建政府治理算法決策公平性的實現機制。同時,必須堅持“軟硬并進”路徑,一方面以正確的價值導向引領算法在政府治理領域的開發(fā)和布局,使算法的決策輸出不偏離公平正義的價值軌道;另一方面,不斷完善政府治理算法決策的制度環(huán)境,打造適配政府治理算法決策的組織系統(tǒng)。

關鍵詞:人工智能;政府治理;算法決策;決策公平性

     維護社會公平正義既是國家治理的重要價值目標,也是政府治理的核心價值觀。隨著人工智能算法與政府治理的深度融合,政府治理決策開始呈現一種智能化和算法化的轉型趨向。相較于傳統(tǒng)的政府治理模式,政府治理算法決策極大地提升了決策的科學性和精準性,增強了決策的時效性和準確性。由于政府治理算法決策依托機器學習的迭代優(yōu)化技術邏輯輸出決策方案仍然面臨決策“暗箱”、透明性和可解釋性不足等困境,也帶來了新的決策公平性問題。因此,在加快政府治理決策向數據化、智能化轉型進程的同時,也要有效解決與之伴生的智能算法輸出的潛在偏見和歧視問題,確保人工智能算法政府決策應用的公平性和正義性。

一、公平性困境:政府治理算法決策的價值隱憂

      從政府治理決策的傳統(tǒng)價值體系看,公平、準確、效率等不容忽視。從價值排序的角度看,公平公正是政府治理決策體系中的價值核心,體現了政府治理的公共性價值追求。在人工智能算法介入的情景下,政府治理決策的公平價值受到沖擊,政府治理算法決策面臨公平性困境。那么,何謂政府治理算法決策公平性問題?簡言之,是指算法決策系統(tǒng)通過使用大量基礎數據訓練優(yōu)化迭代出準確率很高的機器學習模型來實現對目標群體的有效分類,根據預測結果進行決策,由此所引發(fā)的歧視和偏見問題。

(一)政府治理算法決策公平性困境的具體呈現

      從決策的過程和實際影響來看,政府治理算法決策公平性問題可以分解為程序公平和結果公平兩個部分。

     1.程序公平受到沖擊。程序公平是政府治理算法決策公平性的核心環(huán)節(jié)。隨著算法嵌入政府治理決策過程,逐步構建起“場景關聯(lián)”的智能決策體系[1],加速了人類在公共行政實踐情景中的“離場”,人類在治理乃至公共決策中的角色變得越來越無足輕重,然而,缺乏人類在場的治理是否還具有“人類中心主義”的價值關懷,這是值得警惕和擔憂的問題。有學者認為,“一旦權力從人類手中交給算法,人文主義的議題就可能慘遭淘汰”[2]。在算法嵌入的場景下,“算法決策程序的操縱力量降低正當程序的公正性”[3],具體可以概括為以下三個方面:一是責任主體缺失。決策客體有權對決策主體也即責任主體,提出異議和反對,甚至推翻該決策的責任主體。在傳統(tǒng)公共決策模式下,責任主體往往是與之相對應的公共組織或者個人,行動主體往往是責任承擔者,責任歸屬相對清晰,但是與傳統(tǒng)公共決策模式不同的是算法決策生成的邏輯是基于不同機器學習的算法程序,存在責任主體模糊,責任追究困難的問題[4]。二是參與權弱化。公眾參與政府決策環(huán)節(jié)既是決策公平性的重要保障,也是程序公平的核心環(huán)節(jié),然而,“算法決策剝奪了受影響個體'表達意見’和反駁決策的權利,人作為道德主體(即有自己的觀點且能夠理性行事),理應受到相應認可和對待,且有權享有尊嚴和尊重,這是生而為人的基本權利,而算法決策從根本上破壞了這種權利”[5]。這種權利的弱化通常以一種“科學”的面目呈現,公眾往往難以質疑。三是歧視性輸入。就決策環(huán)節(jié)而言,歧視性輸入問題往往發(fā)生在決策行為產生之前。公共決策的公共性訴求,決定了公共決策不得依據與決策無關的考量因素對其進行估量和評價,然而,算法的初始程序往往容易嵌入工程師的個人意志,有意無意地納入一些與決策無關的因素,使得工程師個人偏見和價值觀偏誤支配著決策底層程序的運行邏輯,潛在不公平性的歧視性輸入。

      2.結果公平有所偏差。結果公平是算法決策公平性的具體呈現。根據Zafar 等人對犯罪風險判定的研究發(fā)現,在依據機器學習模型生成決策方案的過程中,模型常常會將一些敏感特征(如性別、膚色、種族等)納入分類依據,并在計算中也設置了較高的權重,從而導致決策結果對某些特定群體(如女性、黑人等)產生不公平的結果,這種算法決策結果的不公平性具體可分為三種,即差別性對待、差別性影響和差別性誤待[6]。一是差別性對待,是指在非敏感性特征相似的情況下,決策結果僅在敏感性特征不同的群體間有差異。據報道,美國應用于犯罪風險預測的COMPAS 算法系統(tǒng),在黑人和白人控制其他特征相同條件下,預測黑人犯罪的再發(fā)生率明顯高于白人,而事實上被列為高風險的黑人,并沒有再次犯下罪行,這就產生了事實的差別性對待。二是差別性影響,是指算法決策所造成的結果總是對某種敏感性特征取某個值的群體更有利(或更不利)。例如,在社區(qū)安防治理領域,開發(fā)部署的防盜預測系統(tǒng),在其他非敏感性特征取值相同的情況下,男性被攔截的概率要遠高于女性,即男性往往更容易被懷疑偷盜。三是差別性誤待,是指算法對某一個敏感性特征取不同值的群體的預測準確性有差別。簡單來說,就是在性別特征值上,對男性和女性的識別或判斷準確率有差異。例如,某醫(yī)院部署輔助醫(yī)生的算法決策系統(tǒng),針對某類疾病的識別,就出現男性的準確率要高于女性的情況。

(二)政府治理算法決策公平性困境何以產生

     政府治理算法決策公平性容易受到技術設計者、使用者以及基礎數據的客觀性和算法程序的自我強化特征的交互影響。

     1.使用者或提供者(設計者)自身價值觀偏誤。目前,大數據智能技術日益成熟,算法被視為解決政府治理問題行之有效的路徑,算法技術所負載的倫理價值也隨即被廣泛討論。在倫理審視的過程中,算法治理的“算法”來源于何處,使用算法技術的“主體”發(fā)揮何種作用,尚未引起足夠的重視,導致在討論算法技術價值負載的時候往往忽略了使用者或提供者(設計者)自身的價值偏好。事實上,算法是由人設計、由人(組織)操控的,必然也容易受到人類價值偏好的影響。在政府治理實踐活動中,算法決策的公平性受損,很大原因在于設計之初植入了設計者或提供者的主觀偏見,“這種偏見會被后者以替代變量的形式編入計算機程序中,然后隨著算法自身的不斷學習而被逐漸放大”[7]。

      2.基礎數據的客觀性和準確性有限。數據的客觀性和準確性是確保政府治理算法決策公平性的基礎?,F階段的大數據技術雖然實現了大規(guī)模數據的實時抓取和處理,但是在數據質量的篩選上仍然面臨一定困難。假如在數據收集的原始階段沒有對數據的錯誤進行及時更正,則這種錯誤數據背后所潛藏的偏見和不公平就會體現在算法輸出的指令中。這種帶有偏見性的輸入勢必會導致政府治理算法決策結果的不公平。有學者指出,人工智能系統(tǒng)是由人類設計、使用的數據,反映我們身處一個并不完美的世界。因此,“如果不進行嚴謹的規(guī)劃,人工智能的運行可能有失公平”[8]。如何解決輸入數據的非客觀性問題,是未來確保政府治理算法決策公平性的關鍵之舉。

      3.算法程序自我迭代優(yōu)化的技術邏輯影響。對于政府治理算法決策的潛在不公平性傾向,有一種情況沒有得到重視,即算法自身雖然沒有傾向性,但依然會強化客觀存在的不公平現實。盡管從社會發(fā)展的客觀規(guī)律來看,非均衡性是現代社會的普遍現象,但一些客觀存在的不公平現實依然需要重視。例如,一些特定的群體(老年人、文盲等)受到主客觀條件的雙重限制,陷入了被數字社會排斥的窘境,處于一種弱勢狀態(tài)——成為數字弱勢群體。在這種情況下,哪怕輸入的數據和運行算法都不存在偏見,決策結果依然會不自覺地走上強化偏見的道路,輸出的方案也會進一步強化對這類弱勢群體的“二次傷害”,正如“邊緣化群體在獲取公共福利……進入醫(yī)保系統(tǒng)或跨越國境時都不得不接受級別更高的數據采集。一旦他們成為懷疑對象而需要接受額外審查時,這些數據便愈加會強化他們的邊緣性”[9]。顯然,這種情況的產生,既受算法程序自我迭代優(yōu)化的技術邏輯影響,也受社會發(fā)展的客觀條件限制。這充分說明,現階段的技術不應該成為中心問題,關鍵在于推動社會的整體發(fā)展和向前進步,著力消除社會客觀存在的不公平。

二、價值、制度和組織:提升政府治理算法決策公平性的三重機制

      所謂機制,一般指可以借助其得以運行或發(fā)揮作用的東西[10]。可以從靜態(tài)和動態(tài)兩個視角,探討提升政府治理算法決策公平性的機制。從靜態(tài)視角看,政府治理算法決策必須高揚“以人民為中心”的旗幟,堅持公平正義;從動態(tài)視角看,算法嵌入政府治理是動態(tài)的過程,不僅需要完備的制度體系,也離不開與之適配的組織架構。因此,從價值、制度和組織等三個層面出發(fā),探討提升政府治理算法決策公平性的實現機制是極其必要的。

(一)價值機制:主流價值駕馭算法應用

      公共性是公共行政的價值內核。無論是從公共行政的本質規(guī)定,還是具體實踐來看,對于公平公正價值的孜孜追求都不能偏廢和失去[11]。價值在很大程度上決定著算法應用于政府治理中的走向,是影響算法“向善”和“為善”的行動指引。從更為辯證的視野出發(fā),一方面,公平公正的價值追求是政府治理算法決策的本質訴求;另一方面,公共行政價值觀又在確保政府治理算法決策公平性的過程中發(fā)揮著重要作用。具體來看,可以將政府治理中的算法應用過程視為一個動態(tài)的價值負載過程。在算法嵌入政府治理的過程中,逐漸與公共行政的價值體系相融合與碰撞,使得算法的前期開發(fā)、后期管理都不可避免地受到公共行政價值體系的影響和約束。

      1.價值觀影響算法的前期開發(fā)。如果從一種技術形態(tài)來理解的話,算法通常被視為一種價值中立的存在,不帶有任何價值偏好和主觀取向,然而,算法之所以被開發(fā)和應用必然離不開對開發(fā)者和使用者某種訴求的滿足,在這種訴求的迎合過程中,算法也就不可避免地承載了開發(fā)者和使用者的價值偏好,被賦予某些個人的判斷標準和主觀傾向性。例如,目前在很多網絡推文和視頻內容中,運營商為了“點擊率”,通過發(fā)布一些不符合常理、涉及暴力等暗示詞語或視頻來滿足閱讀和觀看者的獵奇心理,這往往會被算法捕捉,進而強化這種內容的推送力度,迎合了運營商牟利的終極目的。在政府治理算法決策場景下,算法的開發(fā)和布局必須置于公共價值的規(guī)范和引導之下,充分融合治理的公共性訴求,很多科學家“都有意選擇了'以人為本’的設計”[12]。只有不斷增強算法開發(fā)者和使用者的公共責任感和使命感,樹立正確的價值導向,開發(fā)出適用公共實踐場景和價值訴求的算法系統(tǒng),才能確保政府治理算法決策的公平性。

      2.價值觀影響算法的后期管理。從現實的實踐來看,對算法治理限度的超越往往容易陷入技術路徑的循環(huán)之中,即以“技術創(chuàng)新”突圍“技術困境”。隨著算法在政府治理中的滲透擴散,算法決策潛在的風險和限度也逐漸顯現,算法決策的偏見和歧視性問題不斷擴大。對此,多數研究聚焦進一步加大對算法研發(fā)和設計的投入,試圖從技術優(yōu)化層面去尋求突破,然而在技術上實現算法決策絕對的公平正義是非常困難的,短期內難以實現。如此,從價值角度出發(fā),加大對政府治理算法決策后期管理中的價值影響權重或是一種可行的補充路徑。例如,對政府治理算法決策的結果輔之以人為的修正,通過引入具有專業(yè)知識、踐行以人為本價值觀,并由具有高度社會責任感的人員對政府治理算法決策的內容進行監(jiān)管審核,建立起政府治理算法決策的審核和篩選機制。

(二)制度機制:制度補正算法決策偏誤

      制度是一種對行為起到約束性的安排,既約束個體的行為,又規(guī)范組織的活動。可以說,制度對國家(政府)治理活動的影響是基礎性的??v觀科學技術在人類社會發(fā)展中所扮演的角色,任何具體技術形態(tài)與國家治理的融合都離不開制度的保駕護航,制度往往決定了技術介入國家治理的活動空間及合法性地位的獲得。出于對正式制度的建構屬性考慮,這里更多是從正式制度出發(fā),揭示制度對破解政府治理算法決策公平性困境的作用和價值。

      1.劃定算法介入政府治理的現實邊界。事實上,人工智能算法介入治理所引發(fā)的社會公平正義隱憂正在逐漸擴大,被譽為懸掛在人類頭頂之上新的“達摩克利斯之劍”。具體來看,算法嵌入政府治理對隱私、信任、監(jiān)管以及信息安全的挑戰(zhàn)不容忽視,尤其是決策算法化可能帶來的偏見和歧視問題,引發(fā)了政府治理決策的公平性問題,帶來了新的政府信任危機。為此,必須為算法介入政府治理決策劃定邊界和活動空間,“通過構建準入機制和發(fā)布準入清單,為算法技術的進入和退出架構起安全過濾屏障”[13]。明確部分場景和領域必須堅持“人機合作”的服務供給模式,限定算法的介入權限。

      2.補正政府治理算法決策的輸出偏誤。算法決策的偏見輸出,是源于技術賦能政府與賦權社會之間的張力。政府借助智能算法可以實現對社會運行的精準監(jiān)控和秩序重整;同時,公眾在面對政府的“算法權力”觸角之時,缺乏與之對話博弈的能力。顯然,在數字技術環(huán)境下,一旦政府行為偏離公平正義的時候,必然要求制度層面進行重新的建構和補正。從制度設計上彌補政府治理算法決策的輸出偏誤,調適這種由算法嵌入政府治理所引發(fā)的非均衡性和不平等性問題。例如,通過具體制度文本明確“算法決策”的公平訴求,2021 年頒布的《中華人民共和國個人信息保護法》就明確規(guī)定,在自動化算法決策過程中,“應當保證決策的透明度和結果的公平、公正”。

      3.消除政府治理算法決策的負面影響。制度的有效設計有助于消除算法決策的負面影響。由于“近代以來的制度設計,是通過橫向的分權(三權分立)和縱向的限權(減少干預)來確立權力制約和權利保障機制”[14]的,因此,從權力和權利雙重視角,審視制度如何破解政府治理算法決策的公平性困境,十分必要。從權力視角看,政府治理算法決策事實上造就了國家權力的擴張,加劇了其他主體的權力弱勢地位,與現代國家治理的“共治”理念相悖。如此,必須從制度上創(chuàng)造“多元共治”的權力運行空間,打造政府自律、社會監(jiān)督以及企業(yè)參與的共治格局。從權利視角看,政府治理算法決策壓縮了普通公眾的權利博弈空間,傳統(tǒng)的基于人類理性的權力分配規(guī)則為程序邏輯所取代,制度的價值便在于開辟一條有別于技術賦能的權利實現通道,打破技術治理路徑下技術決定論的桎梏。

(三)組織機制:組織支撐算法決策公平

     政府治理的價值和目標需要依托一個穩(wěn)定的組織來實現,而“新技術的出現可能導致組織形式的變化,而組織形式的變化往往也建立在技術變遷的基礎上”[15]??梢哉f,算法嵌入政府治理決策過程越深,政府組織變革的內在動力也就越強。組織的變革反過來又有助于加速算法融入政府治理的進程。如此,對于糾正算法決策的偏見輸出以及提升決策的公平性,組織的適配也就不可或缺。就組織機制的結構而言,主要包括行政組織架構和公務員系統(tǒng),支撐和糾偏政府治理算法決策的實現。

      1.組織架構支撐算法決策。從算法決策類型來看,政府部門可以選擇輔助決策或者自動決策[16]。在輔助決策模式下,算法輸出的結果僅作為實際決策的參考或建議,而非最終方案。算法并沒有脫離科層結構的運行邏輯,仍然是在科層規(guī)則的約束之下展開。在這種情況下,算法決策潛在的偏見和歧視問題,易于被發(fā)現和及時糾正,只需在原有的組織結構中明確具體的職責和權限,承擔起算法決策的糾偏功能即可。在自動決策模式下,算法被用于直接決策,獲得了一種準公權力,對公眾有相當的權威。算法事實上形成了一套并行于傳統(tǒng)科層系統(tǒng)的決策流程,這套流程廣受詬病的就是其不可解釋性和低透明性。如此,就需要重新設計適配自動決策模式下的組織系統(tǒng),讓其發(fā)揮如下作用:當算法作出的決策出現明顯偏誤的時候,能夠自動重啟人類決策,類似一種“熔斷機制”——算法一旦出現偏誤,即自動復歸至人類決策的環(huán)節(jié)。

      2.公務員系統(tǒng)糾偏算法決策。除了靜態(tài)的組織架構設計和職責安排以外,動態(tài)的組織運行便不能忽視人的角色,即公務員的作用。作為政府治理行為和活動的具體執(zhí)行者,公務員的素質高低往往決定了政府治理的質量優(yōu)劣。從這種意義上而言,公務員的作用和價值與靜態(tài)的結構設計同等重要,某些時候發(fā)揮的作用可能更大。算法決策偏見的形成是由于人類過度信任算法的靜態(tài)能力,認為依托大數據和機器學習的自我迭代邏輯,必然會輸出客觀、公正的方案。其中隱含的一個前提是人類認為算法的能力強于自己,并接受了這一結果。為了避免政府治理算法決策的不公平性問題發(fā)生,必然要求重新定位人類公共管理者(公務員)的角色,明確公共管理者的角色應當由“事務性供給”轉向“公共性維護”[17],事關公平正義之策必交由人類之手決斷。因此,為推動政府治理決策過程中的人機合作,實現人類的主觀能動性和機器的強大計算能力之間的均衡配合,必須對整個公務員系統(tǒng)加強立體培訓和專業(yè)能力提升,擴大對優(yōu)秀數字人才的引育,以適應政府治理決策的算法化轉型需要。

三、堅持“軟硬并進”:提升政府治理算法決策公平性的路徑

      從決策公平的實質內涵來看,必須基于“程序公平、結果公平”的雙重標準,堅持“軟硬并進”的實踐進路,提升政府治理算法決策公平性。具體而言,一方面堅持用正確的價值導向引領算法的開發(fā)和布局,使算法的決策輸出不偏離公平正義的價值軌道;另一方面,不斷完善政府治理算法決策的制度環(huán)境,打造適配政府治理算法決策的組織系統(tǒng)。

(一)將公共價值融入算法設計和布局

      算法治理的公共性訴求,要求賦予算法正確的價值觀。算法的初始設計源自人類之手,將公共價值融入算法的設計和布局過程,事實上就是融入人類創(chuàng)新行為,塑造技術開發(fā)者及其共同組織價值觀的過程。

      1.技術開發(fā)者樹立正確的核心價值觀。作為人類創(chuàng)造的一種技術形態(tài),算法是由人類定義和搭建的,很難完全消除人類的情感痕跡和價值偏好,保持絕對的中立存在。那么,如何賦予算法正確的價值觀呢?如果將算法決策公平性問題的產生,追溯至算法的開發(fā)和設計階段,就不難發(fā)現對技術開發(fā)者的價值觀念進行塑造就構成了賦予算法正確價值觀的核心環(huán)節(jié)。一方面必須堅持技術是造福人類、謀求人類全面自由發(fā)展的價值定位,算法的開發(fā)和設計不能偏離造福人類的價值軌道。愛因斯坦認為,科技工作者“只懂得應用科學本身是不夠的。關心人的本身,應當始終成為一切技術上奮斗的主要目標”[18]。另一方面,必須樹立正確的公共倫理觀。政府治理算法決策獲得了一定的“準公共權力”,具有很強的公共屬性,應用于政府治理決策的算法必須兼具公平性、正義性,這就要求算法的開發(fā)和設計者必須具備公平與正義的倫理價值追求。

      2.強化算法開發(fā)企業(yè)的社會責任意識。算法被科技工作者開發(fā)之后,依托市場機制進入社會公共領域,在公共部門和私營部門得到廣泛應用。當前,大型科技企業(yè)廣泛參與到數字政府建設當中,政府所需的大數據、智能算法以及區(qū)塊鏈技術等都來自互聯(lián)網科技企業(yè)的供給。科技企業(yè)在提升政府治理算法決策公平性的過程中,發(fā)揮著重要的作用,承擔著必要的責任。因此,必須強化企業(yè)對算法應用產生結果負主體責任,加強對布局和應用在政府領域的算法的安全評估。與此同時,應該主動配合政府對提供公共服務的算法程序進行安全審核,研判算法應用的社會公平等風險,提高政府治理算法決策的可解釋性和透明性,弱化政府治理算法決策的“暗箱”效應。只有操控和開發(fā)算法的企業(yè)主體具有了主體責任意識,才能實現公共價值與算法決策相統(tǒng)一。例如,騰訊堅持將科技向善與企業(yè)可持續(xù)發(fā)展的戰(zhàn)略愿景相結合,堅持科學技術是服務人類社會發(fā)展的價值定位。

      3.加強算法“把關人”的價值觀建設。“把關人”原是傳統(tǒng)媒體對選題、采訪和編輯信息發(fā)布所設置的一種內容審核機制。算法在政府治理決策過程中的應用,最終輸出的是一套搭載政府權威的命令和服務安排,然而,如何保證這種命令和服務安排的公平性,則需要建立起類似于新聞“把關人”的算法“把關人”機制,承擔起對算法輸出的命令和方案進行最后審核的角色。算法“把關人”通常是以個體或者一種組織的形態(tài)出現。在政府治理算法決策過程中,算法“把關人”必須承擔起兩種責任:一是追蹤評估政府治理算法決策的后續(xù)影響,精準把控算法輸出方案可能存在的社會爭議和輿論風險;二是當算法輸出的方案出現偏差和有失公平正義時,及時進行糾偏和阻斷。那么,如何肩負算法公平性審核的“把關人”責任,確保能站在公平的立場,便成為決定算法“把關人”成敗與否的關鍵。因此,加強價值觀建設,確保對政府治理算法決策承擔把關責任的個體或組織,始終堅持公平正義的價值取向就至關重要。

(二)以制度明晰算法的權限和地位

     從制度層面看,提升政府治理算法決策公平性,既要明確算法決策的地位和權限,賦予算法輸出的命令和方案應有的權威,也要確保人類決策的中心地位不被動搖,實現人類理性與算法理性的動態(tài)均衡。具體包括以下三個層面:

      1.注重人類決策與算法決策的耦合銜接。從技術發(fā)展的階段來看,政府治理算法決策所依托的技術及其理性程度尚不具備取代人類理性的可能。雖然算法技術從微觀層面極大地改善了人類的決策行為,使得人類的決策活動步入了一個新的階段,但不能否認的是,目前,算法技術給出的理性方案仍然是一種有限理性的決策輸出。因此,若想要最大限度地逼近理性決策,既需要發(fā)揮人類在同理心、道德感、意志等方面的先天優(yōu)勢,又離不開算法在大數據計算、精確識別以及機器學習等方面的技術價值,最終實現人類決策與算法決策的耦合協(xié)同。具體而言,一是用制度明確算法決策的適用場景,為政府治理活動中的算法應用設定邊界,對涉及人類基本生存權力/權利的領域應當審慎應用算法決策;二是建立兩種決策的耦合銜接機制,使得人類決策與算法決策能夠協(xié)同并進,形成決策合力。

      2.完善適配算法決策的權利救濟制度。在常規(guī)的人類決策情境下,當公眾受到行政決策權力侵害時,機關或者個人往往會在法律允許的范圍內給予一定的補償,即權利救濟。由于政府治理算法決策存在的“暗箱”屬性、不透明性以及不可解釋性,在客觀上壓縮了決策相對人的參與空間和權利申訴通道,使得受到算法決策不公平對待的特殊群體,難以通過正常的渠道表達不滿以及提出申訴,獲得一般的權利救濟。因此,必須建立和完善適配政府治理算法決策的權利救濟機制。從程序維度看,全自動算法行政應至少保障行政相對人對全自動程序的知情權、選擇權與要求人工介入等權利[19]。從內容維度看,一方面及時出臺補救措施,糾正算法給出的不公平性指令和方案;另一方面,結合政府治理算法決策的具體影響,給予一定的補償。

      3.強化對算法決策系統(tǒng)的測試與審核。與傳統(tǒng)政府決策“暗箱”不同的是,算法決策的“暗箱”更多是技術層面所帶來的一種不透明和不可解釋性,因此,必須加強對算法應用的前期審核和后期影響評估,提高政府治理算法決策的透明性。一是建立算法應用之前的測試和審核機制。引入公眾積極參與審核過程,現階段公眾尚無渠道了解算法是如何被應用于公共服務及其他治理場景的,測試和審核機制有助于確保公眾知情權,提高算法應用的公開性;同時還需要建立政府治理算法決策的合倫理審查機制,吸引技術專家、公眾和協(xié)會等參與倫理審查,積極防范政府治理算法決策的倫理風險。二是建立政府治理算法決策后期影響的評估制度。合理的算法影響評估制度“在提升算法透明性、改善個體在算法社會中的弱勢地位、協(xié)調公共與私人利益等方面發(fā)揮著重要作用”[20]

(三)打造適配的組織系統(tǒng)

      組織環(huán)境是影響算法能否在政府內部有效運行并產生良好效果的關鍵因素。打造適配政府治理算法決策的組織系統(tǒng),推動圍繞政府治理算法決策需要,進行組織系統(tǒng)內部的重新組合與設計,及時糾正和控制政府治理算法決策的偏見輸出,是確保算法在政府決策過程中公平公正輸出的有效支撐。

     1.明晰數據職能機構的責權關系。數據是政府治理算法決策的核心要素與基礎支撐,數據質量的高低直接影響著政府治理算法決策輸出的偏誤程度。換言之,提升政府治理算法決策公平性的關鍵環(huán)節(jié)便在于高質量的基礎數據輸入。如此,必須從以下兩個方面采取措施:一是整合政府機構內部的數據職能。明晰數據采集者、管理者以及使用者之間的權責關系,推動部門的“數據職責”清單化管理和規(guī)范化界定,破除部門之間數據職能“打架扯皮”現象,提升基礎數據的管理和供給能力。同時,不斷變革傳統(tǒng)的數據調查統(tǒng)計與管理體制,創(chuàng)新傳統(tǒng)入戶調查與自主上報機制,加大數字技術的開發(fā)和應用,建立高度智能化的數據采集和管理系統(tǒng),不斷提升基礎數據的采集、清洗與分析能力,提高基礎數據的質量。二是加強數據部門和業(yè)務部門的協(xié)同聯(lián)動。有學者指出,“隨著數據不斷集中,客觀上出現了與具體業(yè)務工作不銜接不匹配的問題。數據管理部門往往權限不太高,協(xié)調業(yè)務部門難度比較大,出現'小馬拉大車’現象”[21]。事實上,政府治理過程中的決策往往更多地產生于業(yè)務部門,而業(yè)務部門的算法決策又離不開數據部門的具體支撐。因此,必須盡快建立起業(yè)務部門與數據部門的銜接機制,確保政府治理算法決策的高效性、科學性和精準性。

      2.加快培育公務員的算法素養(yǎng)。任何組織的有效運轉都離不開人,政府組織也不例外。對政府治理算法決策而言,不斷加強公務員的算法素養(yǎng),適應政府治理算法決策的特征屬性與業(yè)務要求,對于修正政府治理算法決策的實踐偏誤、提升政府治理算法決策公平性至關重要。一是正確認識培育公務員素養(yǎng)的意義。在政府治理數字化轉型加速的當下,廣大公務員必須主動適應數字時代政府治理決策的新挑戰(zhàn),不能盲目排斥和抵觸決策的算法化轉型。同時,善于借助新興數字技術來提升自身干事創(chuàng)業(yè)的能力,是數字時代公務員必備的技能和素養(yǎng)。二是建立培育公務員算法素養(yǎng)的實踐機制。通過與企業(yè)、高校聯(lián)合開設培訓班,加大公務員算法基礎知識的培訓力度。同時,擴大公共服務的人機協(xié)同,讓公務員深度配合、參與政府治理的算法決策流程,深入了解政府治理算法決策的內在機理,增強公務員對政府治理算法決策的理性認識。三是完善公務員的考評獎勵機制。重視對公務員數據知識、算法基礎等方面技能的激勵,加快建立適配算法轉型的公務員招聘制度,完善數字人才破格晉升、直聘機制,打通人員流動、晉升渠道,促進人才將外在刺激轉化為內在動力。

參考文獻:(略)

全國中文核心期刊

中文社會科學引文索引(CSSCI) 來源期刊

中國人文社會科學核心期刊 

RCCSE 中國權威學術期刊

全國高校精品社科期刊

    本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    主站蜘蛛池模板: 久久伊99综合婷婷久久伊| 精品国偷自产在线视频九色| 日日橹狠狠爱欧美超碰| 成人免费一区二区三区视频| 婷婷五月开心亚洲综合在线| 国产麻豆精品福利在线观看| 中国成熟妇女毛茸茸| 女人脱了内裤趴开腿让男躁| 久久偷看各类wc女厕嘘嘘偷窃| 亚洲熟妇av一区二区三区宅男| 猫咪免费人成网站在线观看| 小13箩利洗澡无码免费视频| 国产亚洲欧美另类一区二区| 亚洲中文字幕无码中文字在线| 99久久无码一区人妻a黑| 国产一区二区三区久久精品| 色在线 | 国产| 日产亚洲一区二区三区| 欧美xxxx做受欧美| 98精品国产综合久久久久久欧美| 国产综合av一区二区三区无码| 欧美真人做爰在线观看| 四虎影视一区二区精品| 中字幕久久久人妻熟女天美传媒| 久久精品www人人做人人爽| 久久亚洲人成综合网| 国色天香社区在线视频| 国产 欧美 亚洲 中文字幕| 国内揄拍国产精品人妻电影| 香蕉久久久久久av成人| 国模冰莲自慰肥美胞极品人体图| 18岁日韩内射颜射午夜久久成人| 国产精品久久久久乳精品爆| 狠狠色噜噜狠狠色综合久| 亚洲男人的天堂在线播放| 熟妇人妻中文av无码| 免费无码国产欧美久久18| 亚洲无人区午夜福利码高清完整版| 蜜臀久久99精品久久久久久小说| 久艾草在线精品视频在线观看| 国产成人片无码免费视频|