AI已經將觸角伸向司法界了!一位美國偷車賊被判8年牢,原因是由於AI說他具有‘高危險性’….這到底是合理,還是荒唐?

 現如今,AI(人工智慧)已經成為了一個逃不掉的話題..不管是橫掃圍棋界各大高手的阿爾法狗….還是用不同化名在網上發表詩歌,都沒有被人察覺的微軟小冰…最複雜的遊戲,最微妙的情感,AI似乎夠能和人一樣做出來,甚至,比人做得更好…..但它們不止於此,更是早已來到了司法界。最近美國有一起充滿爭議的案子,一個因為偷竊罪被判刑的男人把威斯康星法院告了,因為…他被判整整8年有期徒刑,不是因為他的罪行,也不是因為法官的判斷,而是因為,一個AI認為,他對社會具有‘高危險性’!事情要從2013年說起…那年的2月11日,威斯康星州的拉克羅斯市出現了槍擊案。有目擊者們看到一輛車行駛過Kane大街2200號房子的時候,車裡的人突然掏出槍向屋子開了兩槍。目擊者馬上報警,並且告訴警察關於車子的資訊。之後,警方在別的地方找到這輛車,馬上展開激烈追捕,最後好不容易把車子逼停了,看到了31歲的Eric Loomis和他的小夥伴….警方在車子裡發現一些槍支,本以為是人贓俱獲,但仔細徹查後發現…..這兩人,根本不是槍擊案的罪犯,而是在錯誤的時間錯誤的地點出現的竊車的小偷。警方調查發現,槍擊案罪犯棄車逃跑後,這個小偷順手把這輛車給偷了…..案情確鑿,於是法院判兩人有盜竊罪和拒捕罪。原本,這案子並不算大,但是在Eric Loomis接受了一個叫做COMPAS的軟體系統的提問後,法官宣佈,判處Eric Loomis長達8年6個月的有期徒刑。這麼長的刑期,Eric Loomis簡直懵逼了…..法官Scott Horene給出的理由是這樣的:‘根據COMPAS的測試,被告被認定為對社會具有高危險性的人。’(“identified, through the COMPAS assessment, as an individual who is at high risk to the community.”)COMPAS……這到底是個啥??COMPAS是一個由私營企業編寫出的、能夠幫助司法人員做出判斷的智慧AI。它通過向被告詢問137個問題(比如‘你在學校多久打一次架’;‘你有多少朋友非法使用藥物’;‘你受過的最高教育是什麼’),還有搜尋他曾經的犯罪記錄,得到一堆數字,然後經過公司設定的複雜演算法,最終得出一長串資料。裡面包括他的孤僻程度、犯罪型人格的得分、性格穩定度….以及最重要的,他的‘危險指數’,也就是‘未來再次犯罪的可能性’。COMPAS在美國很多個州中都被使用,其中使用最廣泛的是威斯康星州。從2012年起,威斯康星州就鼓勵在全州所有法庭上都用COMPAS,在監獄系統中的每一部分也使用它,給犯人做出評估,協助司法人員進行判刑到假釋的判斷….因為….COMPAS實在太好用了,它告訴人們的答案太清晰了!這個AI能清楚地說出每個被告的‘危險指數’是多少,從1到10,10為最危險,說明被告再次犯罪的可能性極高。根據這個資料,能夠幫助法官判斷,是判他早早出獄,還是在監獄裡多待兩年,免得出去禍害社會…..除此外,COMPAS還能告訴司法人員,最適合被告的監禁型別是什麼,被告什麼時候才能被假釋,監獄裡這麼多人,誰最適合提前釋放,保釋金需要多少錢,……只要有人問,COMPAS幾乎能回答關於罪犯和監禁的所有問題!威斯康星州懲教部的部長Jared Hoy曾經說,這個AI簡直太好用。它給人的驚喜不斷,建議每個工作人員做決定的時候都可以用一用。對工作人員可能是好事….但對被告來說,這簡直就是莫名其妙….Eric Loomis聽到結果後,馬上表示不服,‘為什麼我會被評為是對社會有高危險度?理由呢?而且還是用一個軟體來評判我,這不合理!’按照美國第六修正案,被告有權知道被控告的理由,那麼他被控‘有高危險度’的理由是什麼呢?COMPAS:抱歉,我不能說。是的,因為COMPAS是一個商業產品,有智慧財產權,所有除了公司的核心成員,它的具體演算法不能被外界知道,就算是用它用了很多年的法院,他們也不知道演算法長什麼樣,只能看到結果….所以,COMPAS就像是一個黑匣子。Eric Loomis被判為‘高危險’,也許是由於他在‘受教育程度’那裡分數很低,也許是由於在‘是否住在危險街區’中回答了‘是’,也許是COMPAS認為他在回答中撒謊…..總之,沒人知道。於是,不滿的Eric Loomis決定上訴,一路鬧到威斯康星州最高法院,但最終,法院仍然認為COMPAS的判斷沒有問題,它‘科學又有效’。在扯了幾年的皮後,Eric Loomis的刑罰最後被降到6年,但他覺得還是很長…..為什麼威斯康辛星就是對COMPAS如此痴迷呢?法院方面表示,因為COMPAS的優點很大啊!它就是一堆冷冰冰的演算法,很客觀,完全不受個人情感因素的影響。使用COMPAS,法官能夠更公正無私地看待案子,最大化地消除偏見。這就是法院大力使用的原因…..但根據非盈利新聞社ProPublica的研究,COMPAS似乎並沒有那麼完美…..在COMPAS的137個問題中,沒有詢問被告關於‘種族’的問題,這也是人們說它客觀的原因。但在2016年,ProPublica卻發現了很多‘AI種族歧視’的情況。比如,黑人女孩Brisha Borden和白人大叔Vernon Parter因為盜竊罪被捕,兩人都被控竊取價值80美元的東西。女孩之前有過4次行為不當,沒有入獄經曆;而大叔有過兩次持槍搶劫,還曾經坐過5年牢。結果女孩被COMPAS判斷的危險指數是8,屬於‘高危’,而大叔的指數卻是3,屬於‘一般危險’…..再比如,下面兩小哥都因為攜帶毒品被捕,左邊的白人Fugett曾經因為持有可卡因和大麻,被警方抓捕過三次,還犯過一次搶劫案,COMPAS認為他的危險指數是3分;而右邊的Parker,只有過一次拘捕,只是逃跑,沒有襲警,卻被COMPAS認為危險程度極高,有10分。明明是個死物的COMPAS,為什麼會像種族歧視者呢?人們不知道,但考慮到COMPAS在問題中問的各種因素,比如家庭、街區、是否有工作、最高學曆、父母是否吸毒等等,看上去和個人有關,但實際上是受社會大環境影響,黑人處於的弱勢環境,讓他們在AI的評測中更加吃虧….因為演算法本身不客觀,那麼COMPAS的正確率也不會有多高….在2016年,ProPublica通過COMPAS計算了7000多名罪犯在刑滿後再次犯罪的可能性。這些罪犯來自加利福尼亞州的Broward市,被COMPAS測評‘危險指數’的時間是2013年到2014年。結果…只有20%的人會按照COMPAS預測的那樣再次犯罪,如果把所有的犯罪型別都算上,比如用一個過期的駕照開車這種小罪,那麼COMPAS的正確率為61%。而Eric Loomis的這個案例….因為所謂的‘危險指數’偏高,而不得不被聽信AI的法官判更長時間的牢。 他自己覺得,確實感覺挺冤…現在,猶他州、弗吉尼亞州,很多地方都在使用類似的AI來幫助審判,預測犯罪,這是美國司法界的趨勢,也許,這也將是是全球的趨勢….但犯罪是一個極其複雜的社會問題,AI能幹得好嗎,它真的能像公正無私的審判者一樣,做出完美的判決嗎?法官判案,有人說法官受人性影響,會有偏差…讓AI來評估,實際證明也不完美….那,什麼又才是正確的路呢?ref:https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencinghttp://bigthink.com/robby-berman/a-judge-lets-an-app-help-him-decide-a-wisconsin-mans-6-year-sentencehttp://www.northpointeinc.com/files/downloads/DataSheet_Classification.pdfhttp://www.equivant.com/solutions/inmate-classificationhttps://www.theatlantic.com/technology/archive/2016/06/when-algorithms-take-the-stand/489566/Reference:Man"s Daily 看更多!請加入我們的粉絲團


[圖擷取自網路,如有疑問請私訊]

本篇
不想錯過? 請追蹤FB專頁!    
前一頁 後一頁