專業/預測警務
| 此頁面或部分是一個未開發的草稿或大綱。 您可以幫助完成作品,也可以在專案室尋求幫助。 |
預測警務 是一種執法實踐,使用數學、預測和分析方法來預測和預防潛在犯罪。
預測警務的主要普及者之一是 1956 年的短篇故事 少數派報告,作者是 菲利普·K·迪克,以及 2002 年同名 電影。這個短篇故事發生在未來社會,幾乎所有犯罪都被消除。這一壯舉是透過預犯罪部門實現的,該部門由主角約翰·安德頓建立並領導。預犯罪部門利用三個被稱為“先知”的變種人來逮捕潛在的罪犯,防止他們犯罪。
“你可能已經理解了預犯罪方法的基本法律缺陷。我們逮捕的是沒有違反法律的人。”
“但他們肯定會,”維特沃爾堅定地肯定道。
“幸運的是,他們沒有——因為我們先抓住了他們,在他們進行暴力行為之前。所以犯罪本身的發生是絕對的形而上學。我們可以聲稱他們有罪。另一方面,他們可以永遠聲稱他們是無辜的。而且,在某種意義上,他們是無辜的。”
——菲利普·K·迪克,《少數派報告》
這個故事準確地預測了當今預測警務面臨的許多問題。三個“先知”變種人不僅預測犯罪,還無意識地喋喋不休地談論他們能看到的未來的一切。這產生了難以處理的資料量,提前幾十年預見了 大資料 的問題之一。迪克正確地預測了這大量資料將由機器處理。此外,他預測大資料分析將由於所涉及的統計資料而存在固有的不確定性:變種人的預測經常發生衝突,而“多數報告”足以進行逮捕。
儘管預犯罪系統存在不確定性,但安德頓完全相信它的權威——直到它指控他謀殺了一個他從未見過的人,利奧波德·卡普蘭。這表明了一種重要的偏見:人們傾向於支援傷害他人的事物,直到它傷害到他們自己。在現代預測警務中,被指控對特定群體有偏見的系統可能會被那些不受影響的群體中的警官和他們上級的官員所接受。
另一個教訓來自故事的反高潮結局。當安德頓自己檢視導致他被指控的資料時,很明顯系統犯了一個錯誤。這指出了過度依賴預測模型的危險。根據研究人員 Sonja B. Starr 的說法,文獻表明“向法官提供被視為科學和資料驅動的風險預測,可能會增加他們對這些預測的重視程度”。[1] 因此,必須確保人們充分了解這種預測的侷限性。
PredPol 是為警察部門提供這種型別軟體的公司的一個例子。PredPol 聲稱犯罪型別往往會聚集,其演算法試圖使用自激點過程模型來複制這種感知行為[2]。該演算法以特定警察部門的記錄管理系統 (RMS) 資料作為輸入,生成地圖上 500 英尺 x 500 英尺區域的輸出,預測這些區域最有可能發生犯罪。該演算法透過從部門的 RMS 收集三個基本資料點來做到這一點:犯罪型別、犯罪地點和犯罪日期/時間。警察部門通常使用 PredPol 的輸出將警官部署到這些高風險區域,根據警官的可用性,他們在這些區域的執勤時間只佔他們執勤時間的一小部分。據說由於警官在場,這些地區的犯罪得到了遏制。
警察部門在實施預測警務軟體後通常會取得良好的效果。事實上,聖克魯斯在第一年看到了入室盜竊案下降了 11%,搶劫案下降了 27%,儘管有些人認為這些數字可能是正常犯罪率波動的結果[3]。在 2012 年,對 200 個警察機構進行的調查中,70% 的警察機構表示,他們計劃在未來兩到五年內增加預測警務技術的應用[4]。隨著 PredPol 的使用者群擴充套件到包含 60 多個警察部門,包括他們最大的客戶洛杉磯和亞特蘭大,預測警務似乎將成為現代執法中的普遍趨勢。
許多人並不相信像 PredPol 這樣的預測警務軟體能夠按預期工作。儘管 PredPol 支持者重申它只是一種有用的犯罪威懾手段,但有些人聲稱將區域標記為高風險可能會導致巡邏該區域的警官誇大危險[3]。其他人則認為,由於預測警務並沒有真正阻止犯罪,因此它無助於解決該地區的根本問題。事實上,顯示犯罪率下降的統計資料可能是具有欺騙性的,因為罪犯可能只是轉移到了另一個區域。
一個主要擔憂是預測警務軟體可能會強化不良習慣,並放大偏見[5]。這是因為該軟體有可能導致種族歧視的滑坡。特別是,如果該軟體深入挖掘警察部門的 RMS 資料,它很可能找到足夠多的由個人偏見造成的逮捕記錄,從而做出可能存在種族歧視的決定。如果警官反過來過度依賴該系統,這些偏見可能會導致更多有偏見的逮捕,這可能會進一步混淆作為該軟體輸入的資料。
此外,雖然 PredPol 在美國擁有廣泛的使用者群,但一些警察部門一直不願使用演算法警務。2014 年,奧克蘭警察局的新研究與規劃負責人正在遊說使用 PredPol。他不熟悉該社群,但認為預測警務可以增強警力。然而,助理警長保羅·菲格羅瓦反對伯奇使用 PredPol 的提議。在接下來的幾個月裡,伯奇正在等待 10 萬美元來實施 PredPol,他開始瞭解這個社群。一旦資金獲批,他就意識到了菲格羅瓦早些時候指出的缺陷——主要是該技術將加劇對警官的不信任。基於這一點以及其他灣區警察部門放棄該技術的新聞,伯奇撤回了他的資金申請。[6]
北pointe 犯罪風險評估專案使用統計資料來預測個人罪犯的再犯可能性。與 PredPol 不同的是,北pointe 的評分在個人層面上使用,並幫助做出諸如假釋批准之類的決定。由於這使得針對特定個人成為可能,ProPublica 開始了一項研究,以調查是否存在偏見。 [7] ProPublica 釋出了一份長篇報告,概述了他們聲稱是偏見證據的統計資料。儘管統計資料有多種解釋,但該研究強調了一些軟體明顯失效的個別案例。在一個案例中,一名在青少年時期因輕微罪行被判有罪的黑人女性被賦予了比一名被判有罪的持械搶劫的白人男性更高的評分。該女性從未再次被逮捕,而該男性因類似罪行再次入獄。雖然很難確定這是由於軟體中的故障還是更深層次的偏見造成的——許多預測軟體是“黑盒子”,演算法對使用者隱藏——但 ProPublica 針對其在決定人們未來中的使用提出了寶貴的擔憂。
倫理問題
[edit | edit source]影響平民的問題
[edit | edit source]正如 PredPol 和北pointe 所描述的那樣,預測性警務與許多潛在的倫理問題相關。最大的批評之一是,無論演算法是否有偏見,演算法使用的資料本身就存在偏差。這是由於歷史上某些群體的人被執法部門不公平地針對。如果這些資料用於預測性警務,那麼它將導致警察更加集中地針對這些地區,從而形成一個偏見反饋迴路。因此,很難防範有偏見的歷史資料。
此外,為了保護他們的智慧財產權,開發這些演算法的公司不會發布技術細節。雖然這是一種可以理解的商業行為,但它在許多人中造成了不信任。這使得無法判斷開發人員實施演算法的倫理問題。由於這些程式還處於起步階段,可能需要數年時間才能出現任何揭露軟體有偏見性質的舉報人,或者更確鑿的證據證明軟體確實有助於減少犯罪。
影響警官的問題
[edit | edit source]雖然只考慮預測性警務對平民的影響很誘人,但同樣重要的是要考慮對警官的影響。在加州伯班克市,一項全部門調查發現,75% 的警官士氣“低或極低”,部分原因是部門使用 PredPol。警長克勞迪奧·洛薩科解釋說:“這就像告訴一個擁有 20 年經驗的漁夫,我們將告訴你如何釣魚。”[8] 因此,該市的警官不再需要花時間在突出顯示的區域。[9]
警官關注的另一個問題是自動化問題。在 PredPol 的主頁上,洛杉磯警察局長查理·貝克被引用說:“我不會得到更多資金。我不會得到更多警官。我必須更好地利用現有資源,而這正是預測性警務的意義所在。”[10] 雖然這從管理人員的角度來看確實很有吸引力,但它應該引起巡邏警官的擔憂。由於補償效應,貝克的陳述有一個推論:如果預測性警務的承諾得到實現,那麼對他們當前職位上的警官的需求可能會減少。警官因此被置於一個困難的境地——如果預測性警務能夠阻止更多犯罪,那麼他們就應該支援它,即使是以他們自己生計為代價。這種自動化導致更高效率和更少需要工人的問題,幾乎適用於所有職業。
參考資料
[edit | edit source]- ↑ Starr, S. (2014). Evidence-Based Sentencing and the Scientific Rationalization of Discrimination. Stanford Law Review, 66(4), 803 - 872.
- ↑ PredPol. (2015). How PredPol Works. Retrieved May 08, 2017, from http://www.predpol.com/how-predpol-works/
- ↑ a b Huet, E. (2015). Server and protect: Predictive policing firm predPol promises to map crime before It happens. Forbes. Retrieved May 08, 2017, from https://www.forbes.com/sites/ellenhuet/2015/02/11/predpol-predictive-policing/#5c37d1b64f9b.
- ↑ Police Executive Research Forum. 2014. Future Trends in Policing. Washington, D.C.: Office of Community Oriented Policing Services.
- ↑ Smith IV, J. (2016). Crime-prediction tool PredPol amplifies racially biased policing, study shows. Retrieved May 08, 2017, from https://mic.com/articles/156286/crime-prediction-tool-pred-pol-only-amplifies-racially-biased-policing-study-shows#.9Voi4FTYF.
- ↑ Thomas, E. (2016, December 28). Why Oakland Police Turned Down Predictive Policing. Retrieved May 08, 2017, from https://motherboard.vice.com/en_us/article/minority-retort-why-oakland-police-turned-down-predictive-policing
- ↑ Julia Angwin, Surya Mattu, Jeff Larson, Lauren Kirchner. (2016, May 31). Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And it’s Biased Against Blacks. Retrieved May 08, 2017, from https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
- ↑ Jack Smith. (2016, Oct. 10). Crime-prediction tool may be reinforcing discriminatory policing. Retrieved from http://www.businessinsider.com/predictive-policing-discriminatory-police-crime-2016-10
- ↑ Alene Tchekmedyian. (2016, Oct. 4). Police push back against using crime-prediction technology to deploy officers. Retrieved from http://www.latimes.com/local/lanow/la-me-police-predict-crime-20161002-snap-story.html
- ↑ http://www.predpol.com/