他偷一輛車「被人工智慧評估重判8年」瞬間傻眼!當AI觸角伸向司法界,是合理,還是荒唐? ​​​​

本文獲得微信公眾號 英國那些事兒(hereinuk) 授權,原始標題:他偷輛車就被人工智慧評估重判8年。當AI觸角伸向司法界,是合理,還是荒唐? ​​​​ 現如今,AI(人工智慧)已經成為了一個逃不掉的話題..不管是橫掃圍棋界各大高手的Alpha Go….  還是用不同化名在網路上發表詩歌,都沒有被人察覺的微軟小冰…  最複雜的遊戲,最微妙的情感,AI似乎夠能和人一樣做出來,甚至,比人做得更好..... 但它們不止於此,更是早已來到了司法界。 最近美國有一起充滿爭議的案子,一個因為偷竊罪被判刑的男人把威斯康星法院告了,因為...他被判整整8年有期徒刑,不是因為他的罪行,也不是因為法官的判斷,而是因為,一個AI認為,他對社會具有『高危險性』! 事情要從2013年說起...那年的2月11日,威斯康星州的拉克羅斯市出現了槍擊案。有目擊者們看到一輛車行駛過Kane大街2200號房子的時候,車裡的人突然掏出槍向屋子開了兩槍。目擊者馬上報警,並且告訴警察關於車子的信息。 之後, 警方在別的地方找到這輛車,馬上展開激烈追捕,最後好不容易把車子逼停了,看到了31歲的Eric Loomis和他的小夥伴.... 警方在車子裡發現一些槍支,本以為是人贓俱獲,但仔細徹查後發現.....這兩人,根本不是槍擊案的罪犯,而是在錯誤的時間錯誤的地點出現的竊車的小偷。 警方調查發現,槍擊案罪犯棄車逃跑後,這個小偷順手把這輛車給偷了..... 案情確鑿,於是法院判兩人有盜竊罪和拒捕罪。 原本,這案子並不算大,但是在Eric Loomis接受了一個叫做COMPAS的軟件系統的提問後,法官宣布,判處Eric Loomis 長達8年6個月的有期徒刑。 這麼長的刑期,Eric Loomis簡直傻眼了.....法官Scott Horene給出的理由是這樣的:『根據COMPAS的測試,被告被認定為對社會具有高危險性的人。』(「identified, through the COMPAS assessment, as an individual who is at high risk to the community.」) COMPAS......這到底是個啥?? COMPAS是一個由私營企業編寫出的、能夠幫助司法人員做出判斷的智慧AI。它通過向被告詢問137個問題(比如『你在學校多久打一次架』;『你有多少朋友非法使用藥物』;『你受過的最高教育是什麼』),還有搜索他曾經的犯罪記錄,得到一堆數字,然後經過公司設定的複雜算法,最終得出一長串數據。 裡面包括他的孤僻程度、犯罪型人格的得分、性格穩定度....以及最重要的,他的 『危險指數』,也就是 『未來再次犯罪的可能性』。 COMPAS在美國很多個州中都被使用,其中使用最廣泛的是威斯康星州。 從2012年起,威斯康星州就鼓勵在全州所有法庭上都用COMPAS,在監獄系統中的每一部分也使用它,給犯人做出評估,協助司法人員進行判刑到假釋的判斷....因為....COMPAS實在太好用了,它告訴人們的答案太清晰了!這個AI能清楚地說出每個被告的『 危險指數』是多少,從1到10,10為最危險,說明被告再次犯罪的可能性極高。根據這個數據,能夠幫助法官判斷,是判他早早出獄,還是在監獄裡多待兩年,免得出去禍害社會..... 除此外,COMPAS還能告訴司法人員,最適合被告的監禁類型是什麼,被告什麼時候才能被假釋,監獄裡這麼多人,誰最適合提前釋放,保釋金需要多少錢,...... 只要有人問,COMPAS幾乎能回答關於罪犯和監禁的所有問題! 威斯康星州懲教部的部長Jared Hoy曾經說,這個AI簡直太好用。 它給人的驚喜不斷,建議每個工作人員做決定的時候都可以用一用。 對工作人員可能是好事....但對被告來說,這簡直就是莫名其妙.... Eric Loomis聽到結果後,馬上表示不服,『為什麼我會被評為是對社會有高危險度?理由呢?而且還是用一個軟件來評判我,這不合理!』 按照美國第六修正案,被告有權知道被控告的理由,那麼他被控『 有高危險度』的理由是什麼呢?COMPAS: 抱歉,我不能說。 是的,因為COMPAS是一個商業產品,有知識產權,所有除了公司的核心成員, 它的具體算法不能被外界知道,就算是用它用了很多年的法院,他們也不知道算法長什麼樣,只能看到結果.... 所以,COMPAS就像是一個黑匣子。Eric Loomis被判為『高危險』,也許是由於他在『受教育程度』那裡分數很低,也許是由於在『是否住在危險街區』中回答了『是』,也許是COMPAS認為他在回答中撒謊.....總之,沒人知道。 於是,不滿的Eric Loomis決定上訴,一路鬧到威斯康星州最高法院,但最終,法院仍然認為COMPAS的判斷沒有問題,它『科學又有效』。在扯了幾年的皮後,Eric Loomis的刑罰最後被降到6年,但他覺得還是很長.....  為什麼威斯康辛星就是對COMPAS如此痴迷呢?法院方面表示,因為COMPAS的優點很大啊!它就是一堆冷冰冰的算法,很客觀,完全不受個人情感因素的影響。使用COMPAS,法官能夠更公正無私地看待案子,最大化地消除偏見。這就是法院大力使用的原因..... 但根據非盈利新聞社ProPublica的研究,COMPAS似乎並沒有那麼完美..... 在COMPAS的137個問題中,沒有詢問被告關於『 種族』的問題,這也是人們說它客觀的原因。但在2016年,ProPublica卻發現了很多『 AI種族歧視』的情況。比如,黑人女孩Brisha Borden和白人大叔Vernon Parter因為盜竊罪被捕,兩人都被控竊取價值80美元的東西。女孩之前有過4次行為不當,沒有入獄經歷;而大叔有過兩次持槍搶劫,還曾經坐過5年牢。結果女孩被COMPAS判斷的危險指數是8,屬於『 高危』,而大叔的指數卻是3,屬於『 一般危險』..... 再比如,下面兩小哥都因為攜帶毒品被捕,左邊的白人Fugett曾經因為持有可卡因和大麻,被警方抓捕過三次,還犯過一次搶劫案,COMPAS認為他的危險指數是3分;而右邊的Parker,只有過一次拘捕,只是逃跑,沒有襲警,卻被COMPAS認為危險程度極高,有10分。 明明是個死物的COMPAS,為什麼會像種族歧視者呢?人們不知道,但考慮到COMPAS在問題中問的各種因素,比如家庭、街區、是否有工作、最高學歷、父母是否吸毒等等,看上去和個人有關,但實際上是受社會大環境影響,黑人處於的弱勢環境,讓他們在AI的評測中更加吃虧.... 因為算法本身不客觀,那麼COMPAS的正確率也不會有多高....在2016年,ProPublica通過COMPAS計算了7000多名罪犯在刑滿後再次犯罪的可能性。這些罪犯來自加利福尼亞州的Broward市,被COMPAS測評『危險指數』的時間是2013年到2014年。結果...只有20%的人會按照COMPAS預測的那樣再次犯罪,如果把所有的犯罪類型都算上,比如用一個過期的駕照開車這種小罪, 那麼COMPAS的正確率為61%。  而Eric Loomis的這個案例....因為所謂的『危險指數』偏高,而不得不被聽信AI的法官判更長時間的牢。 他自己覺得,確實感覺挺冤... 現在,猶他州、弗吉尼亞州,很多地方都在使用類似的AI來幫助審判,預測犯罪,這是美國司法界的趨勢,也許,這也將是是全球的趨勢.... 但犯罪是一個極其複雜的社會問題,AI能幹得好嗎,它真的能像公正無私的審判者一樣,做出完美的判決嗎? 法官判案,有人說法官受人性影響,會有偏差...讓AI來評估,實際證明也不完美....那,什麼又才是正確的路呢?  ref:https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing http://bigthink.com/robby-berman/a-judge-lets-an-app-help-him-decide-a-wisconsin-mans-6-year-sentencehttp://www.northpointeinc.com/files/downloads/DataSheet_Classification.pdfhttp://www.equivant.com/solutions/inmate-classificationhttps://www.theatlantic.com/technology/archive/2016/06/when-algorithms-take-the-stand/489566/ -------------------   本文獲得微信公眾號 英國那些事兒(hereinuk) 授權,原始標題:


[圖擷取自網路,如有疑問請私訊]

本篇
不想錯過? 請追蹤FB專頁!    
前一頁 後一頁