Begitulah cara kami kehilangan kendali atas wajah kami

Pada tahun 1964, matematikawan dan ilmuwan komputer Woodrow Bledsoe pertama kali mencoba mencocokkan wajah tersangka dengan foto. Dia mengukur jarak antara fitur wajah yang berbeda dalam foto cetakan dan memasukkannya ke dalam program komputer. Keberhasilannya yang belum sempurna akan memicu penelitian puluhan tahun ke dalam mesin pengajaran untuk mengenali wajah manusia. Sekarang sebuah studi baru menunjukkan seberapa besar perusahaan ini telah mengikis privasi kami. Itu tidak hanya memicu alat pengawasan yang semakin kuat. Pengenalan wajah berbasis deep learning generasi terbaru benar-benar mengganggu norma persetujuan kami. Deborah Raji, seorang rekan di Mozilla nirlaba, dan Genevieve Fried, yang menasihati anggota Kongres AS tentang akuntabilitas algoritmik, memeriksa lebih dari 130 kumpulan data pengenalan wajah yang dikumpulkan selama 43 tahun. Mereka menemukan bahwa para peneliti, didorong oleh kebutuhan data yang meledak dalam pembelajaran mendalam, secara bertahap meninggalkan permintaan persetujuan orang. Hal ini menyebabkan semakin banyak foto pribadi orang dimasukkan ke dalam sistem pengawasan tanpa sepengetahuan mereka. Ini juga menyebabkan kumpulan data yang jauh lebih berantakan: mereka mungkin secara tidak sengaja menyertakan foto anak di bawah umur, menggunakan label rasis dan seksis, atau memiliki kualitas dan pencahayaan yang tidak konsisten. Tren ini dapat membantu menjelaskan meningkatnya jumlah kasus di mana sistem pengenalan wajah telah gagal dengan konsekuensi yang mengganggu, seperti penangkapan palsu dua pria kulit hitam di wilayah Detroit tahun lalu. . Orang-orang sangat berhati-hati dalam mengumpulkan, mendokumentasikan, dan memverifikasi data wajah di masa-masa awal, kata Raji. “Sekarang kami tidak peduli lagi. Semua itu sudah ditinggalkan, ”katanya. “Anda tidak bisa melacak jutaan wajah. Setelah titik tertentu, Anda bahkan tidak bisa berpura-pura bahwa Anda memiliki kendali. ”

Riwayat data pengenalan wajah

Para peneliti mengidentifikasi empat era utama pengenalan wajah, masing-masing didorong oleh keinginan yang meningkat untuk meningkatkan teknologi. Fase pertama, yang berlangsung hingga 1990-an, sebagian besar ditandai dengan metode intensif secara manual dan metode komputasi yang lambat. Namun kemudian, didorong oleh kesadaran bahwa pengenalan wajah dapat melacak dan mengidentifikasi individu dengan lebih efektif daripada sidik jari, Departemen Pertahanan AS mengeluarkan $ 6,5 juta untuk membuat kumpulan data wajah skala besar pertama. Lebih dari 15 sesi fotografi dalam tiga tahun, proyek ini menangkap 14.126 gambar dari 1.199 orang. Database Face Recognition Technology (FERET) dirilis pada tahun 1996.
Dekade berikutnya melihat peningkatan dalam penelitian pengenalan wajah akademik dan komersial, dan lebih banyak kumpulan data dibuat. Sebagian besar bersumber dari pemotretan seperti FERET dan mendapat persetujuan penuh dari peserta. Banyak juga yang menyertakan metadata yang cermat, kata Raji, seperti usia dan etnis subjek, atau informasi iluminasi. Tetapi sistem awal ini berjuang dalam pengaturan dunia nyata, yang mendorong para peneliti untuk mencari kumpulan data yang lebih besar dan lebih beragam. Pada tahun 2007, rilis set data Labeled Faces in the Wild (LFW) membuka pintu air untuk pengumpulan data melalui pencarian web. Peneliti mulai mengunduh gambar langsung dari Google, Flickr, dan Yahoo tanpa mempedulikan persetujuan. LFW juga melonggarkan standar seputar penyertaan anak di bawah umur, menggunakan foto yang ditemukan dengan istilah penelusuran seperti "bayi", "remaja", dan "remaja" untuk meningkatkan keberagaman. Proses ini memungkinkan pembuatan kumpulan data yang jauh lebih besar dalam waktu singkat, tetapi pengenalan wajah masih menghadapi banyak tantangan yang sama seperti sebelumnya. Hal ini mendorong para peneliti untuk mencari lebih banyak metode dan data untuk mengatasi kinerja teknologi yang buruk. Kemudian, pada 2014, Facebook menggunakan foto penggunanya untuk melatih model pembelajaran mendalam yang disebut DeepFace. Meskipun perusahaan tidak pernah merilis kumpulan data tersebut, kinerja sistem yang luar biasa meningkatkan pembelajaran mendalam ke metode de facto untuk menganalisis wajah. Saat itulah verifikasi dan pelabelan manual menjadi hampir tidak mungkin karena kumpulan data berkembang menjadi puluhan juta foto, kata Raji. Itu juga ketika fenomena yang sangat aneh mulai muncul, seperti label yang dibuat secara otomatis yang menyertakan terminologi yang menyinggung. Cara kumpulan data digunakan mulai berubah pada waktu itu juga. Alih-alih mencoba mencocokkan individu, model baru mulai lebih fokus pada klasifikasi. “Daripada mengatakan, 'Apakah ini foto Karen? Ya atau tidak, 'itu berubah menjadi' Mari kita prediksi kepribadian internal Karen, atau etnisnya, 'dan memasukkan orang ke dalam kategori ini, "kata Raji. Amba Kak, direktur kebijakan global di AI Now, yang tidak berpartisipasi dalam penelitian tersebut, mengatakan bahwa makalah tersebut menawarkan gambaran yang jelas tentang bagaimana industri biometrik telah berkembang. Pembelajaran mendalam mungkin telah menyelamatkan teknologi dari beberapa kesulitannya, tetapi "kemajuan teknologi itu juga harus dibayar mahal," katanya. “Ini memunculkan semua masalah yang sekarang kita cukup kenal: persetujuan, ekstraksi, masalah IP, privasi.”

Bahaya yang menimbulkan bahaya

Raji mengatakan penyelidikannya terhadap data telah membuatnya sangat prihatin tentang pengenalan wajah berbasis pembelajaran yang mendalam. “Ini jauh lebih berbahaya,” katanya. “Persyaratan data memaksa Anda untuk mengumpulkan informasi yang sangat sensitif tentang, setidaknya, puluhan ribu orang. Itu memaksa Anda untuk melanggar privasi mereka. Itu sendiri merupakan dasar dari bahaya. Dan kemudian kami menimbun semua informasi yang tidak dapat Anda kendalikan untuk membangun sesuatu yang kemungkinan besar akan berfungsi dengan cara yang bahkan tidak dapat Anda prediksi. Itu benar-benar sifat tempat kami berada. "Dia berharap makalah ini akan memprovokasi para peneliti untuk merefleksikan trade-off antara perolehan kinerja yang diperoleh dari pembelajaran mendalam dan hilangnya persetujuan, verifikasi data yang cermat, dan dokumentasi yang menyeluruh. “Apakah layak untuk meninggalkan semua praktik ini untuk melakukan pembelajaran mendalam?” dia berkata.Dia mendesak mereka yang ingin terus membangun pengenalan wajah untuk mempertimbangkan pengembangan teknik yang berbeda: "Agar kami benar-benar mencoba menggunakan alat ini tanpa menyakiti orang, perlu membayangkan kembali semua yang kami ketahui tentangnya."

Komentar

Postingan populer dari blog ini

Cara menjalin hubungan yang lebih baik dengan teknisi Anda

Fraktal dapat membantu AI belajar melihat dengan lebih jelas — atau setidaknya lebih adil

Pemolisian prediktif masih bersifat rasis — apa pun data yang digunakannya