IBM退出面部識別 以推進種族公正反對系統(tǒng)化的種族歧視
6月8日,IBM首席執(zhí)行官Arvind Krishna呼吁美國國會頒布改革措施,以推進種族公正、反對系統(tǒng)化的種族歧視,同時宣布IBM將退出面部識別業(yè)務(wù)。
“IBM堅決反對也不會容忍包括面部識別技術(shù)在內(nèi)的任何技術(shù)用于大規(guī)模監(jiān)控、種族定性、侵犯基本人權(quán)與自由,或其他任何不符合我們價值觀和信任與透明原則的目的。”Krishna在當(dāng)天遞交給美國國會的信中寫道,“我們認(rèn)為現(xiàn)在是時候開展全國對話,討論面部識別技術(shù)是否或如何被國內(nèi)執(zhí)法機構(gòu)應(yīng)用。”
IBM作出這一決定,是由于美國黑人喬治·弗洛伊德因警察暴力執(zhí)法而死后,警察系統(tǒng)改革和種族不平等成為了全美輿論焦點。
據(jù)CNBC 當(dāng)天報道,使用了面部識別技術(shù)的多家公司對該技術(shù)進行了批判,稱面部識別技術(shù)表現(xiàn)出種族和性別偏見。亞馬遜2019年曾讓股東就面部識別技術(shù)進行投票,其中2.4%的股東出于公民權(quán)和隱私權(quán)的擔(dān)憂,認(rèn)為應(yīng)該禁止將面部識別技術(shù)出售給政府機構(gòu)。
面部識別技術(shù)并沒有為IBM帶來很多收入,但由于IBM是一家將政府作為主要客戶的公司,該決定同時涉及商業(yè)和道德,因此仍然值得關(guān)注。一位知情人士透露,IBM在過去幾周內(nèi),聽到了包括員工在內(nèi)很多選民對面部識別技術(shù)應(yīng)用的擔(dān)憂。
“人工智能是個強大的工具,可以幫助執(zhí)法部門保護公民的安全,但人工智能系統(tǒng)的供應(yīng)商和用戶有一個共同的責(zé)任,那就是確保人工智能能通過偏見測試,尤其是在執(zhí)法機構(gòu)使用時,這種偏見測試應(yīng)該經(jīng)過審計并形成報告。”Krishna寫道。