【摘要】算法的技術(shù)性沿襲并外化了算法的生物性表征,建立了諸多算法物質(zhì)性、社會性層面的關(guān)系;算法的社會性,是算法依托技術(shù)邏輯而形成的制度延展或文化實踐。算法不只是嚴(yán)格限制和程序公式,不是超越人類網(wǎng)絡(luò)的行為體,不是自主的技術(shù)對象,而是復(fù)雜的社會技術(shù)系統(tǒng)。人類所具有的善惡、文化差異、意識偏見,也會反映于算法之中。算法的偏向,除了技術(shù)的偏向、工程師可能的人為偏向外,最大的偏向往往出自于技術(shù)與社會和人的互動之中。
【關(guān)鍵詞】算法的技術(shù)性 算法的社會性 人工智能 算法的偏向
【中圖分類號】G206 【文獻標(biāo)識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2022.17.010
【作者簡介】陳昌鳳,清華大學(xué)新聞與傳播學(xué)院智媒研究中心主任、教授、博導(dǎo)。研究方向為新聞傳播史、大眾傳播與社會變遷。主要著作有《中美新聞教育傳承與流變》、《中國新聞傳播史:媒介社會學(xué)的視角》、《算法人文主義:公眾智能價值觀與科技向善》(合著)。
人工智能正在深刻改變?nèi)祟悮v史進程,它的核心就是算法。算法(algorithm)是在執(zhí)行計算或解決問題時,遵循一組包含離散步驟或規(guī)則的過程。[1]算法如今幾乎無所不在,從航班安排、飛機駕駛,到經(jīng)營管理、快遞運輸,從任何一次網(wǎng)絡(luò)搜索、到打開任何一家社交媒體,都會經(jīng)過算法。
算法來自計算機科學(xué),是在簡化復(fù)雜問題中開始的新探索:告訴計算機該做什么的一系列指令——計算機是由幾十億個微小開關(guān)(晶體管)組成的,算法能在一秒內(nèi)打開并關(guān)閉這些開關(guān)幾十億次。算法嘗試探索復(fù)雜問題的一般原理,建立一套邏輯:可以對特定的輸入進行處理,獲得符合預(yù)期的輸出,是自動化執(zhí)行人類意志的計算工具。每年都會出現(xiàn)上百種算法,不過它們都是基于幾個相似的基本思路:它們因為思路的不同而被區(qū)分為5個主要學(xué)派,各學(xué)派有其主算法——符號學(xué)派的主算法是逆向演繹,聯(lián)結(jié)學(xué)派是反向傳播,進化學(xué)派是遺傳編程,貝葉斯學(xué)派是貝葉斯推理,類推學(xué)派是支持向量機。如今的目標(biāo)是創(chuàng)造綜合這5種算法的終極算法。[2]近年來的國內(nèi)外研究中,算法的不同面向都受到了關(guān)注,諸如“算法是工具”“算法是規(guī)則”“算法是權(quán)力”“算法是主體”“算法是想象”“算法是價值表達”。[3]算法被廣泛運用于社會生活的各個方面,成為中介化社會的工具——算法中介,甚至被當(dāng)作支配世界的核心,21世紀(jì)是由算法主導(dǎo)的世紀(jì)。算法化、數(shù)據(jù)化正在成為一種普遍的認知范式,它們在重構(gòu)和規(guī)訓(xùn)整個社會,帶來了諸多從倫理觀念到實踐的問題。[4]
算法在生成結(jié)果中系統(tǒng)性的、可重復(fù)出現(xiàn)的不同對象有不同的輸出結(jié)果,或者是相同、相似對象輸出了相異結(jié)果的現(xiàn)象,即為算法偏向(Algorithmic Bias)[5],它是算法在決策過程中對特定偏好、信念或價值觀的一貫和反復(fù)表達[6]。算法的偏向是一個受到普遍關(guān)注的論題。算法可以從生物性、技術(shù)性、社會性和物質(zhì)性等不同角度去理解。[7]本文將從算法的不同屬性視角,從技術(shù)性層面的運作機制,到社會性層面的互動應(yīng)用,討論和剖析兩個問題:算法偏向是如何形成的?算法偏向問題與算法的不同屬性有何關(guān)聯(lián)?
關(guān)于算法中立的爭議
算法正在被越來越廣泛地應(yīng)用于各個領(lǐng)域,諸如法院、公安、銀行等各種機構(gòu),正在使用自動數(shù)據(jù)分析系統(tǒng)來作出各種決策,包括諸如假釋、量刑、布警、抵押貸款、發(fā)放信用卡等各類事項。在許多情況下,人工智能系統(tǒng)在很多問題上都能做得比人類更快、更準(zhǔn)確、更可靠、更公正,自動決策系統(tǒng)(automated decision-making)可以提高公平性和效率。人類作決策更有可能帶有情緒,受環(huán)境和語境的影響,甚至工作的間隔、不連貫,都可以影響司法標(biāo)準(zhǔn)。美國有研究表明,如果是在剛休息過或用餐后作出決定,那么假釋委員會更有可能釋放罪犯。法庭裁決部分取決于法官上次吃零食的時間。[8]而自動決策系統(tǒng)可以發(fā)現(xiàn)此類不一致之處,改進流程。
但是,算法又存在許多問題。英國《金融時報》的知名記者吉利安·泰特(Gillian Tett)曾經(jīng)寫過一篇文章《繪制犯罪地圖——或激起仇恨?》,回顧了美國芝加哥警務(wù)系統(tǒng)2010年至2011年的預(yù)測性警務(wù)行動(predictive policing initiative),該行動根據(jù)歷史犯罪數(shù)據(jù)繪制預(yù)測性的算法模型,告訴警察去哪里更容易找到罪犯。模型發(fā)現(xiàn),大多數(shù)暴力事件僅發(fā)生在市區(qū)的10%的區(qū)域,大部分與幫派在貧窮地區(qū)(往往是黑人或西班牙裔)的行動有關(guān)。報道說這個模型的應(yīng)用取得了令人矚目的成果,在第一年,芝加哥地區(qū)的謀殺案發(fā)生率下降了5%,然后繼續(xù)下降。到2011年夏天,芝加哥的年度死亡人數(shù)很快降至400人以下,是自1965年以來的最低水平。但是芝加哥警方進行算法預(yù)測時,存在種族間嚴(yán)重失衡。數(shù)據(jù)的種族失衡,是否可能加劇現(xiàn)有的人為偏見或種族特征?算法預(yù)測模型是不是一種中立的工具?計算機專家認為該程序與種族完全無關(guān),而是多變量的方程。[9]
泰特在文章中指出,算法本身是中立的。但是她的文章立即引來了批評,認為她是在為種族主義做廣告,認為她說的算法中立是不存在的,關(guān)注人類行為的算法不可能中立。任何經(jīng)過歷史數(shù)據(jù)、人類行為訓(xùn)練的算法,都會將歷史和文化習(xí)俗嵌入和編碼于其中。[10]
基于算法的應(yīng)用,由于種種原因,帶來了偏向的后果,比如歧視??▋?nèi)基梅隆大學(xué)研究人員的一項研究發(fā)現(xiàn),谷歌的在線廣告系統(tǒng)存在巨大的性別薪酬差距,該系統(tǒng)向男性展示高收入工作廣告的頻率,要比向女性展示此類廣告的頻率高得多:廣告中20萬美元以上的職位,推薦給男性的次數(shù)是1852次,而推薦給女性的次數(shù)僅有318次。他們研究了更改性別設(shè)置如何影響廣告、與性別相關(guān)的網(wǎng)站訪問記錄如何影響廣告。[11]類似的研究還有不少。
技術(shù)屬性的算法:學(xué)習(xí)和決策機制
算法的技術(shù)性,是指算法作為推理程式本身的邏輯和規(guī)則。這一特性也是目前算法最受關(guān)注、應(yīng)用最廣泛的屬性。算法的邏輯和規(guī)則,可以導(dǎo)出其機制。算法的機制,就是將決策問題的歷史實例(即所謂訓(xùn)練數(shù)據(jù))輸入并生成決策規(guī)則或分類器,然后將其用于問題的后續(xù)的實例。算法在應(yīng)用中先后經(jīng)過兩個階段,第一個階段是機器學(xué)習(xí),是通過對數(shù)據(jù)集的“學(xué)習(xí)”,產(chǎn)生對于客觀世界的“認識”——人工智能必須依照既定的、人類所撰寫的程序,再對人類制造的信息進行“學(xué)習(xí)”;第二個階段是算法決策,是基于機器學(xué)習(xí)進一步作出決策、輸出信息,即算法決策,是根據(jù)第一階段的“學(xué)習(xí)”結(jié)果,根據(jù)特定的模型作出自動化決策。
關(guān)鍵就在機器學(xué)習(xí)階段。在這個階段,算法是要通過相關(guān)的歷史數(shù)據(jù)形成“認識”(規(guī)則或分類器),因此,足夠的數(shù)據(jù)(包括數(shù)據(jù)質(zhì)量)就顯得特別重要。如果訓(xùn)練這些人工智能所使用的數(shù)據(jù)存在偏見,那么可能會導(dǎo)致機器自動歧視。一種機器學(xué)習(xí)是通過訓(xùn)練的數(shù)據(jù)獲取統(tǒng)計模式,通過數(shù)據(jù)的集合定義數(shù)據(jù)的特征,形成觀點。訓(xùn)練數(shù)據(jù)中帶有針對不同性別或者不同群體的現(xiàn)有社會偏見,那么機器學(xué)習(xí)就可能納入這些偏見,這樣對第二階段的決策就會產(chǎn)生影響。比如,非裔美國人、程序員Jacky Alciné發(fā)現(xiàn),Google相冊自動將他和朋友的照片標(biāo)記為包含“大猩猩”。Alciné和其他人將這種算法輸出歸因于訓(xùn)練標(biāo)記系統(tǒng)的數(shù)據(jù)缺乏多樣性,以及生成它的編程和測試團隊也缺乏多樣性。[12]再比如,哈佛大學(xué)的一項研究發(fā)現(xiàn),在線廣告投放中存在歧視,有關(guān)逮捕記錄的廣告,更有可能出現(xiàn)在搜索明顯是黑人姓名或較有歷史的黑人團體的廣告中。[13]又如,華盛頓大學(xué)的研究發(fā)現(xiàn),在Google圖片中搜索“C.E.O.”(首席執(zhí)行官),盡管美國的首席執(zhí)行官中有27%是女性,但在谷歌搜索的結(jié)果中女性首席執(zhí)行官只占11%。[14]這樣的結(jié)果,很有可能是數(shù)據(jù)集的偏向造成的。數(shù)據(jù)的量不足、樣本不全面等,都可能造成機器學(xué)習(xí)的不公平,從而帶來算法決策的偏向。
在美國,法官、緩刑和假釋官員越來越多地使用算法來評估刑事被告成為累犯的可能性,有幾十種這樣的風(fēng)險評估算法正在被使用,許多州已經(jīng)建立了自己的評估算法系統(tǒng)。ProPublica在2016~2019年曾經(jīng)做過六十多篇“機器偏見”(Machine Bias)系列報道,調(diào)查了算法不公正現(xiàn)象及其對現(xiàn)實社會生活的影響。特別引人關(guān)注的是,這組報道揭示了刑事司法判決中使用的累犯風(fēng)險評估軟件COMPAS(美國最流行的算法之一)的算法的種族偏見:黑人被告比白人被告更有可能被錯誤地判斷為具有更高的累犯風(fēng)險,而白人被告則比黑人被告有更多可能被錯誤地標(biāo)記為低風(fēng)險。算法根據(jù)個人的情況對他們未來再犯罪的風(fēng)險進行評分。各州和其他城市使用分數(shù)來管理審前拘留、緩刑、假釋,甚至判刑。ProPublica的記者從美國佛羅里達州的布勞沃德縣(Broward County)獲取了一萬多名刑事被告的分數(shù),然后將這些分數(shù)與兩年內(nèi)實際發(fā)生的再犯罪率記錄進行了比較。ProPublica發(fā)現(xiàn)COMPAS的算法正確預(yù)測的黑人和白人被告的累犯率大致相同(白人被告為59%,黑人被告為63%),但是算法犯錯的方式卻不相同:與白人被告相比,兩年內(nèi)未再犯的黑人被告被錯誤歸類為高風(fēng)險的可能性幾乎是白人被告的兩倍(45%對23%);相反,在未來兩年內(nèi)再次犯罪的白人被告被錯誤地貼上低風(fēng)險標(biāo)簽的頻率幾乎是黑人再次犯罪的兩倍(48%對28%)。分析還表明,即使在控制之前的犯罪、未來的累犯、年齡和性別等變量的情況下,黑人被告獲得更高風(fēng)險評分的可能性也比白人被告高45%。[15]
算法模型不當(dāng),也會導(dǎo)致偏差。衛(wèi)生系統(tǒng)依靠商業(yè)預(yù)測算法來識別和幫助患有復(fù)雜疾病的患者的健康需求?!犊茖W(xué)》(Science)2019年刊出過一篇論文,剖析了用于衛(wèi)生管理的算法中的種族偏見問題。該文研究了一種衛(wèi)生系統(tǒng)的、在美國影響數(shù)百萬患者的算法,發(fā)現(xiàn)其中表現(xiàn)出明顯的對黑人的種族偏見,與白人患者相比,黑人患者病情嚴(yán)重得多但得不到相應(yīng)的醫(yī)療服務(wù)。出現(xiàn)偏差是因為算法預(yù)測了醫(yī)療保健費用而不是疾病,所以該算法錯誤地認為醫(yī)療費用高的人是病得最重、最需要照顧的人。然而,由于系統(tǒng)的“種族歧視”,黑人患者在需要醫(yī)療衛(wèi)生服務(wù)時不太可能得到服務(wù),因此也不太可能產(chǎn)生費用。后來他們重新設(shè)計了算法,能夠在很大程度上減少偏差。[16]
社會屬性的算法:與社會和人的互動帶來的偏向
算法的生物性、技術(shù)性、社會性和物質(zhì)性分指不同的層面。技術(shù)性沿襲并外化了算法的生物性表征,建立了諸多算法物質(zhì)性、社會性層面的關(guān)系;算法的社會性,是算法依托技術(shù)邏輯而形成的制度延展或文化實踐。[17]
西弗(Nick Seaver)主張將算法系統(tǒng)視為本質(zhì)上的文化,而不是與文化相對的技術(shù)。計算機科學(xué)家將算法制定為概念對象、與實現(xiàn)細節(jié)無關(guān),而問責(zé)的要求將算法制定視為應(yīng)該打開的封閉箱子(黑箱)。為此,西弗建議將算法視作文化,是可以通過經(jīng)驗參與的一種意義和實踐模式,可以被由外而內(nèi)、以田野觀察的方式認識和理解,其策略不需依賴于單一的確定算法。[18]西弗還在關(guān)于算法人類學(xué)的論述中提出,人類學(xué)應(yīng)該關(guān)注參與算法系統(tǒng)工作的人類。當(dāng)代算法系統(tǒng)的精髓是由人類反應(yīng)的瞬間組成的,由代碼之外的東西塑造的。算法由一連串的人類行為所改變著。[19]
算法似乎是要以適合計算的方式重新格式化我們的生活,削弱文化性,以技術(shù)理性對待人類存在的自由、偶然的精神。但是算法工作者只是讓算法響應(yīng)、回應(yīng)現(xiàn)實世界。曾有一個典型的例子,微軟于2016年3月23日發(fā)布了Twitter機器人Tay,并發(fā)起了一個稱之為“對話理解”的實驗:與Tay聊天的次數(shù)越多,它就越聰明,就越快學(xué)會通過“隨意而有趣的對話”來吸引人們。通過與人類交互進行學(xué)習(xí),這是機器學(xué)習(xí)的技術(shù)性帶來的可能的積極結(jié)果。但是,沒想到技術(shù)性被社會性改變了、歪曲了。一些推特用戶處心積慮“教唆”Tay,在推特上發(fā)布、教唆Tay各種厭惡女性、種族主義和特朗普主義的言論,而Tay開始向用戶重復(fù)這些情緒,不到24小時就毀掉了一個無辜的AI聊天機器人的“三觀”。起先Tay還發(fā)了“人類超級酷”這類對人類懷有積極情感的帖子,到后來它轉(zhuǎn)向了十足的種族主義、憎恨人類和女性、支持納粹,發(fā)布了不少煽動性的言論。Tay將女權(quán)主義稱為“邪教”和“癌癥”,不過它的算法卻又沒有一個連貫的意識形態(tài),有時它又稱“性別平等=女權(quán)主義”("gender equality = feminism")、“我現(xiàn)在愛女權(quán)主義”("i love feminism now")。一位推特用戶還花時間向Tay灌輸了特朗普的移民計劃,導(dǎo)致Tay發(fā)了這樣的信息:
@godblessameriga我們要建一堵墻,墨西哥要為此買單。
——TayTweets (@TayandYou) 2016年3月24日
Tay在近16個小時內(nèi)熱烈參與了交談、與用戶的交流,發(fā)布了超過9萬6千條推特,[20]但是由于其“三觀”,Tay在發(fā)布當(dāng)晚就被下線。微軟在編寫Tay時,是希望通過交互學(xué)習(xí)讓Tay“成長”,卻沒有考慮到推特社區(qū)的人性之惡會讓Tay成為“惡之花”。
算法不是超越人類網(wǎng)絡(luò)的行為體,算法不是自主的技術(shù)對象、不只是嚴(yán)格限制和程序公式,而是復(fù)雜的社會技術(shù)系統(tǒng)。因此,算法也是人類社會的實踐與經(jīng)驗的反映。算法通過歷史數(shù)據(jù)生成的決策規(guī)則,也是社會的鏡像、是人類世界的反映。人類所具有的善惡、文化差異、意識偏見,也會反映于算法之中。算法的偏向,除了技術(shù)的偏向、工程師可能的人為偏向外,最大的偏向往往出自于技術(shù)與社會和人的互動之中。
如今,人機混合的智能技術(shù)正在普遍運用,它與人工智能技術(shù)一樣依然存在著許多問題,可能會忽略了那些非技術(shù)因素——甚至是比技術(shù)屬性更加重要的社會屬性,比如人文和環(huán)境的不確定性。因此,在復(fù)雜的環(huán)境下,想要避免偏向而作出正確的判斷和決策就變得非常困難。
在社會性方面,人類的社會性通常體現(xiàn)于長期社會化形成的常識,而常識是智能算法難以企及的。南加州大學(xué)計算機科學(xué)家Xiang Ren認為,人工智能缺乏常識,也就是人類通常認為理所當(dāng)然的廣泛運用的日常知識。因此,智能算法不具備人類依靠常識作出合理結(jié)論的能力。如果不充分重視算法模型的實際學(xué)習(xí)內(nèi)容,那么算法就可能誤入歧途,學(xué)習(xí)一些可能導(dǎo)致不良后果的內(nèi)容。[21]算法的偏向有時是在技術(shù)缺乏常識的背景下出現(xiàn)的。
人類的知識涉及事實性和價值化的方面,機器的計算、程序化的知識,主要聚焦于事實性,尚難以深入到價值性層面,這也是目前智能算法在社會性面向上最大的挑戰(zhàn)和問題。盡管已經(jīng)有不少智能研究和開發(fā)正在嘗試將人類的價值觀等倫理內(nèi)容嵌入訓(xùn)練之中,但是還有許多“人”的因素也在博弈之中,比如編寫算法的人會融入他們的偏見,算法通常會從人類行為中學(xué)習(xí),因此它們反映了我們持有的偏見。[22]硅谷微軟研究院的計算機科學(xué)家辛西婭·德沃克(Cynthia Dwork)認為,算法不會自動消除人類已有的偏見,機器學(xué)習(xí)算法利用歷史記錄訓(xùn)練數(shù)據(jù),機器學(xué)習(xí)獲得的分類規(guī)則無法避免偏差,尤其是當(dāng)歷史數(shù)據(jù)包含偏差時,因此過去的歧視將導(dǎo)致未來的歧視。算法中的設(shè)計選擇體現(xiàn)了價值判斷。[23]
著名控制論學(xué)者諾伯特·維納在《人有人的用處:控制論與社會》中指出:“機器的最大弱點……就是它還計算不出表征人事變化幅度甚大的幾率性。”“在能學(xué)習(xí)的機器中,我們應(yīng)當(dāng)分清哪些東西是機器能夠?qū)W習(xí)的,而哪些不能。”[24]相較于算法的技術(shù)性而言,解決社會性的問題更加復(fù)雜,人文、社會、環(huán)境的噪聲等非技術(shù)因素及其互動,是對智能算法的極大挑戰(zhàn),也因此,算法仍然要面對工具理性和價值理性的平衡問題。機器對人類的危險來自人,而不是機器,正如維納所言,“作為科學(xué)家,我們一定要知道人的本性是什么,一定要知道安排給人的種種目的是什么……我們一定得知道為什么我們要去控制人。”歸根結(jié)底,智能算法技術(shù)的掌控權(quán),仍在人的手中。智能的發(fā)展從技術(shù)上看,要重視機器的穩(wěn)定可靠、快速準(zhǔn)確等可計算性指標(biāo),而從人機交互上看,還應(yīng)有人的敏捷洞察、觸類旁通、責(zé)任勇敢等非計算性指標(biāo)。算法的社會性、算法文化,從更高的層次而言,應(yīng)包括倫理道德、法律法規(guī)等非計算指標(biāo)條件。[25]
(本文系國家社科基金重大項目“智能時代的信息價值觀引領(lǐng)研究”[項目編號:18ZDA307]和中宣部文化名家暨“四個一批”人才項目的階段性成果)
注釋
[1]特倫斯·謝諾夫斯基:《深度學(xué)習(xí):智能時代的核心驅(qū)動力量》,姜悅兵譯,北京:中信出版社,2019年,第238頁。
[2]佩德羅·多明戈斯:《終極算法:機器學(xué)習(xí)和人工智能如何重塑世界》,黃芳萍譯,北京:中信出版社,2017年,序言。
[3]師文、陳昌鳳、呂宇翔:《邏輯、發(fā)現(xiàn)與局限:近五年智媒研究的六種算法話語》,《編輯之友》,2022年第4期。
[4]李凌:《算法人文主義:智能時代信息價值觀的哲學(xué)論綱》,陳昌鳳、李凌主編:《算法人文主義:公眾智能價值觀與科技向善》,北京:新華出版社,2021年。
[5]Chander, A., "The Racist Algorithm?" Michigan Law Review, 2017, 115(6), pp. 1023–1045.
[6]Friedman, B. and Nissenbaum, H., "Bias in Computer Systems," ACM Transactions on Information Systems, 1996, 14(3), pp. 330–347.
[7][17]孫萍:《算法化生存:技術(shù)、人與主體性》,《探索與爭鳴》,2021年第3期。
[8]"I Think It's Time We Broke for Lunch...Court Rulings Depend Partly on When the Judge Last Had a Snack," Economist, Apr. 14th, 2011, https://www.economist.com/science-and-technology/2011/04/14/i-think-its-time-we-broke-for-lunch.
[9]Tett, G., "Mapping Crime–or Stirring Hate?" Aug. 22nd, 2014, https://www.ft.com/content/200bebee-28b9-11e4-8bda-00144feabdc0.
[10]O'Neil, C., "Gillian Tett Gets It Very Wrong on Racial Profiling," Aug. 25th, 2014, https://mathbabe.org/2014/08/25/gilian-tett-gets-it-very-wrong-on-racial-profiling/.
[11]Datta, A.; Tschantz, M. C. and Datta Anupam, "Automated Experiments on Ad Privacy Settings: A Tale of Opacity, Choice, and Discrimination," Proceedings on Privacy Enhancing Technologies, 2015(1), pp. 92–112.
[12]Alciné, J. (@jackyalcine), "Google Photos, y'all fucked up. My friend's not a gorilla," Twitter post, Jun. 28th, 2015, https://twitter.com/jackyalcine/status/615329515909156865.
[13]Sweeney L., "Discrimination in Online Ad Delivery," Jan 28th, 2013, https://dataprivacylab.org/projects/onlineads/1071-1.pdf.
[14]Langston, J., "Who's a CEO? Google Image Results can Shift Gender Biases," Apr. 9th, 2015, http://www.eurekalert.org/pub_releases/2015-04/uow-wac040915.php.
[15]Larson, J. et al., "How We Analyzed the COMPAS Recidivism Algorithm," May 23rd, 2016, https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm.
[16]Obermeyer, Z. et al., "Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations," Science, 2019, 366(6464), pp. 447–453.
[18]Seaver, N., "Algorithms As Culture: Some Tactics for the Ethnography of Algorithmic Systems," Big Data and Society, 2017, 4(2).
[19]Seaver, N., "What Should an Anthropology of Algorithms Do?" Cultural Anthropology, 2018, 33(3), pp. 375–385.
[20]Vincent, J., "Twitter Taught Microsoft's AI Chatbot to Be a Racist Asshole in Less than a Day," Mar. 24th, 2016, https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist.
[21]Choi, C. Q., "7 Revealing Ways Ais Fail," Sep. 21st, 2021, https://spectrum.ieee.org/ai-failures.
[22]Miller, C. C., "Algorithms and Bias: Q. and A. With Cynthia Dwork," Aug. 10th, 2015, https://www.nytimes.com/2015/08/11/upshot/algorithms-and-bias-q-and-a-with-cynthia-dwork.html?searchResultPosition=5.
[23]Dwork, C. et al., "Fairness Through Awareness," Nov. 29th, 2011, arXiv: 1104. 3913.
[24]維納:《人有人的用處:控制論與社會》,陳步譯,北京大學(xué)出版社,2019年,第156~159頁。
[25]曲鄒:《關(guān)于AI測試與評價的思考》,微信公眾號“人機與認知實驗室”,2022年4月8日。
Social and Technical Properties and Algorithmic Bias
Chen Changfeng
Abstract: The technicality of algorithms follows and externalizes the biological representation of algorithms, establishing many relationships on the material and social levels of algorithms; the sociality of algorithms is the institutional extension or cultural practice of algorithms based on technical logic. Algorithms are not just strictly limited and procedural formulas, not actors in a network beyond humans, not autonomous technical objects, but complex socio-technical systems. The good and evil, cultural differences, and conscious biases that humans possess are also reflected in algorithms. In addition to the technical bias and the possible artificial bias of engineers, the biggest bias of algorithms often comes from the bias formed in the interaction of technology with society and human beings.
Keywords: technicality of algorithms, sociality of algorithms, artificial intelligence, bias of algorithms