Pemolisian prediktif masih bersifat rasis — apa pun data yang digunakannya
Bukan rahasia lagi bahwa alat kebijakan prediksi bias rasial . Sejumlah penelitian telah menunjukkan bahwa putaran umpan balik rasis dapat muncul jika algoritme dilatih pada data polisi , seperti penangkapan. Tetapi penelitian baru menunjukkan bahwa melatih alat prediksi dengan cara yang diklaim dapat mengurangi bias memiliki pengaruh yang kecil. Penangkapan bias data alat prediksi karena polisi diketahui menangkap lebih banyak orang di Black dan lingkungan minoritas lainnya, yang mengarahkan algoritma untuk mengarahkan lebih banyak kepolisian ke daerah tersebut, yang mengarah ke lebih banyak penangkapan. Hasilnya adalah bahwa alat prediksi salah mengalokasikan patroli polisi: beberapa lingkungan secara tidak adil ditetapkan sebagai hotspot kejahatan; yang lainnya kurang terlatih. Dalam pembelaan mereka, banyak pengembang alat kepolisian prediktif mengatakan bahwa mereka telah mulai menggunakan laporan korban untuk mendapatkan gambaran yang lebih akurat tentang tingkat kejahatan di lingkungan yang berbeda. Dalam teori, laporan korban seharusnya tidak terlalu bias karena tidak terpengaruh oleh prasangka polisi atau umpan balik. Namun Nil-Jana Akpinar dan Alexandra Chouldechova di Universitas Carnegie Mellon menunjukkan bahwa pandangan yang diberikan oleh laporan korban juga miring . Pasangan ini membangun algoritme prediktif mereka sendiri menggunakan model yang sama yang ditemukan di beberapa alat populer, termasuk PredPol, sistem yang paling banyak digunakan di AS. Mereka melatih model data laporan korban untuk Bogotá di Kolombia, salah satu dari sedikit kota di mana data pelaporan kejahatan independen tersedia di tingkat distrik demi distrik. Ketika mereka membandingkan prediksi alat mereka dengan data kejahatan aktual untuk setiap distrik, mereka menemukan bahwa alat itu membuat kesalahan yang signifikan. Misalnya, di distrik di mana hanya sedikit kejahatan yang dilaporkan, alat tersebut hanya memprediksi sekitar 20% dari titik api yang sebenarnya — lokasi dengan tingkat kejahatan yang tinggi. Di sisi lain, di distrik dengan jumlah laporan yang tinggi, alat tersebut memperkirakan 20% lebih banyak hotspot daripada yang sebenarnya. Bagi Rashida Richardson, seorang pengacara dan peneliti yang mempelajari bias algoritmik di AI Now Institute di New York, hasil ini memperkuat pekerjaan yang ada yang menyoroti masalah dengan kumpulan data yang digunakan dalam kebijakan prediktif. “Mereka mengarah pada hasil yang bias yang tidak meningkatkan keamanan publik,” katanya. “Saya pikir banyak vendor kepolisian prediktif seperti PredPol pada dasarnya tidak memahami bagaimana kondisi struktural dan sosial bias atau condong ke banyak bentuk data kejahatan.” Jadi mengapa algoritmanya salah? Masalah dengan laporan korban adalah bahwa orang kulit hitam lebih mungkin dilaporkan untuk kejahatan daripada kulit putih. Orang kulit putih yang lebih kaya lebih mungkin melaporkan orang kulit hitam yang lebih miskin daripada sebaliknya. Dan orang kulit hitam juga lebih cenderung melaporkan orang kulit hitam lainnya. Seperti data penangkapan, hal ini menyebabkan lingkungan Kulit Hitam ditandai sebagai hotspot kejahatan lebih sering dari yang seharusnya. Faktor-faktor lain juga merusak gambaran tersebut. “Pelaporan korban juga terkait dengan kepercayaan masyarakat atau ketidakpercayaan terhadap polisi,” kata Richardson. "Jadi, jika Anda berada dalam komunitas dengan departemen kepolisian yang secara historis korup atau terkenal bias rasial, itu akan memengaruhi cara dan apakah orang melaporkan kejahatan." Dalam hal ini, alat prediksi mungkin meremehkan tingkat kejahatan di suatu daerah, sehingga tidak mendapatkan pengawasan yang dibutuhkan.
Komentar
Posting Komentar