Pemolisian prediktif masih bersifat rasis — apa pun data yang digunakannya

Bukan rahasia lagi bahwa alat kebijakan prediksi bias rasial . Sejumlah penelitian telah menunjukkan bahwa putaran umpan balik rasis dapat muncul jika algoritme dilatih pada data polisi , seperti penangkapan. Tetapi penelitian baru menunjukkan bahwa melatih alat prediksi dengan cara yang diklaim dapat mengurangi bias memiliki pengaruh yang kecil. Penangkapan bias data alat prediksi karena polisi diketahui menangkap lebih banyak orang di Black dan lingkungan minoritas lainnya, yang mengarahkan algoritma untuk mengarahkan lebih banyak kepolisian ke daerah tersebut, yang mengarah ke lebih banyak penangkapan. Hasilnya adalah bahwa alat prediksi salah mengalokasikan patroli polisi: beberapa lingkungan secara tidak adil ditetapkan sebagai hotspot kejahatan; yang lainnya kurang terlatih. Dalam pembelaan mereka, banyak pengembang alat kepolisian prediktif mengatakan bahwa mereka telah mulai menggunakan laporan korban untuk mendapatkan gambaran yang lebih akurat tentang tingkat kejahatan di lingkungan yang berbeda. Dalam teori, laporan korban seharusnya tidak terlalu bias karena tidak terpengaruh oleh prasangka polisi atau umpan balik. Namun Nil-Jana Akpinar dan Alexandra Chouldechova di Universitas Carnegie Mellon menunjukkan bahwa pandangan yang diberikan oleh laporan korban juga miring . Pasangan ini membangun algoritme prediktif mereka sendiri menggunakan model yang sama yang ditemukan di beberapa alat populer, termasuk PredPol, sistem yang paling banyak digunakan di AS. Mereka melatih model data laporan korban untuk Bogotá di Kolombia, salah satu dari sedikit kota di mana data pelaporan kejahatan independen tersedia di tingkat distrik demi distrik. Ketika mereka membandingkan prediksi alat mereka dengan data kejahatan aktual untuk setiap distrik, mereka menemukan bahwa alat itu membuat kesalahan yang signifikan. Misalnya, di distrik di mana hanya sedikit kejahatan yang dilaporkan, alat tersebut hanya memprediksi sekitar 20% dari titik api yang sebenarnya — lokasi dengan tingkat kejahatan yang tinggi. Di sisi lain, di distrik dengan jumlah laporan yang tinggi, alat tersebut memperkirakan 20% lebih banyak hotspot daripada yang sebenarnya. Bagi Rashida Richardson, seorang pengacara dan peneliti yang mempelajari bias algoritmik di AI Now Institute di New York, hasil ini memperkuat pekerjaan yang ada yang menyoroti masalah dengan kumpulan data yang digunakan dalam kebijakan prediktif. “Mereka mengarah pada hasil yang bias yang tidak meningkatkan keamanan publik,” katanya. “Saya pikir banyak vendor kepolisian prediktif seperti PredPol pada dasarnya tidak memahami bagaimana kondisi struktural dan sosial bias atau condong ke banyak bentuk data kejahatan.” Jadi mengapa algoritmanya salah? Masalah dengan laporan korban adalah bahwa orang kulit hitam lebih mungkin dilaporkan untuk kejahatan daripada kulit putih. Orang kulit putih yang lebih kaya lebih mungkin melaporkan orang kulit hitam yang lebih miskin daripada sebaliknya. Dan orang kulit hitam juga lebih cenderung melaporkan orang kulit hitam lainnya. Seperti data penangkapan, hal ini menyebabkan lingkungan Kulit Hitam ditandai sebagai hotspot kejahatan lebih sering dari yang seharusnya. Faktor-faktor lain juga merusak gambaran tersebut. “Pelaporan korban juga terkait dengan kepercayaan masyarakat atau ketidakpercayaan terhadap polisi,” kata Richardson. "Jadi, jika Anda berada dalam komunitas dengan departemen kepolisian yang secara historis korup atau terkenal bias rasial, itu akan memengaruhi cara dan apakah orang melaporkan kejahatan." Dalam hal ini, alat prediksi mungkin meremehkan tingkat kejahatan di suatu daerah, sehingga tidak mendapatkan pengawasan yang dibutuhkan.

Tidak ada perbaikan cepat

Lebih buruk lagi, masih belum ada perbaikan teknis yang jelas. Akpinar dan Chouldechova mencoba menyesuaikan model Bogotá mereka untuk memperhitungkan bias yang mereka amati, tetapi tidak memiliki cukup data untuk penyesuaian agar banyak perbedaan — meskipun ada lebih banyak data tingkat distrik untuk Bogotá daripada kota di AS mana pun. “Pada akhirnya, tidak jelas apakah mengurangi bias dalam kasus ini lebih mudah daripada upaya sebelumnya yang berhasil untuk mendebias sistem berbasis data penangkapan,” kata Akpinar. Apa yang bisa dilakukan? Richardson menilai, tekanan publik untuk membongkar alat rasis dan kebijakan di baliknya adalah satu-satunya jawaban. “Ini hanya masalah kemauan politik,” katanya. Dia mencatat bahwa pengguna awal alat kebijakan prediktif, seperti Santa Cruz, telah mengumumkan bahwa mereka tidak akan lagi menggunakannya dan bahwa telah ada laporan resmi yang pedas tentang penggunaan kebijakan prediktif oleh LAPD dan Chicago PD. “Tetapi tanggapan di setiap kota berbeda,” katanya. Chicago menangguhkan penggunaan pemolisian prediktif tetapi berinvestasi kembali dalam database untuk geng kepolisian, yang menurut Richardson memiliki banyak masalah yang sama. “Hal ini memprihatinkan bahwa bahkan ketika investigasi dan laporan pemerintah menemukan masalah yang signifikan dengan teknologi ini, tidak cukup bagi politisi dan pejabat polisi untuk mengatakan bahwa itu tidak boleh digunakan,” katanya.

Komentar

Postingan populer dari blog ini

Cara menjalin hubungan yang lebih baik dengan teknisi Anda

Fraktal dapat membantu AI belajar melihat dengan lebih jelas — atau setidaknya lebih adil