Khawatir tentang etika AI perusahaan Anda? Para pemula ini ada di sini untuk membantu.

Pekerjaan Rumman Chowdhury dulu melibatkan banyak terjemahan. Sebagai pemimpin "AI yang bertanggung jawab" di perusahaan konsultan Accenture, dia akan bekerja dengan klien yang berjuang untuk memahami model AI mereka. Bagaimana mereka tahu jika model melakukan apa yang seharusnya mereka lakukan? Kebingungan sering kali muncul sebagian karena ilmuwan data, pengacara, dan eksekutif perusahaan tampaknya berbicara dalam bahasa yang berbeda. Timnya akan bertindak sebagai perantara sehingga semua pihak bisa berada di halaman yang sama. Itu tidak efisien, untuk sedikitnya: mengaudit satu model bisa memakan waktu berbulan-bulan. Jadi pada akhir 2020, Chowdhury meninggalkan jabatannya untuk memulai usahanya sendiri. Disebut Parity AI , ia menawarkan klien seperangkat alat yang berusaha mempersingkat proses menjadi beberapa minggu. Ini pertama-tama membantu mereka mengidentifikasi bagaimana mereka ingin mengaudit model mereka — apakah untuk bias atau untuk kepatuhan hukum? —Dan kemudian memberikan rekomendasi untuk mengatasi masalah tersebut. Paritas adalah salah satu dari sekian banyak startup yang menjanjikan cara organisasi untuk mengembangkan, memantau, dan memperbaiki model AI mereka. Mereka menawarkan berbagai produk dan layanan dari alat mitigasi bias hingga platform yang dapat dijelaskan. Awalnya sebagian besar klien mereka berasal dari industri yang diatur secara ketat seperti keuangan dan perawatan kesehatan. Tetapi penelitian dan perhatian media yang meningkat pada masalah bias , privasi, dan transparansi telah menggeser fokus percakapan. Klien baru sering kali hanya khawatir tentang tanggung jawab, sementara yang lain ingin "membuktikan masa depan" sendiri untuk mengantisipasi peraturan. “Begitu banyak perusahaan yang benar-benar menghadapi ini untuk pertama kalinya,” kata Chowdhury. “Hampir semua dari mereka sebenarnya meminta bantuan.”

Dari risiko hingga dampak

Saat bekerja dengan klien baru, Chowdhury menghindari penggunaan istilah "tanggung jawab". Kata itu terlalu licin dan tidak jelas; itu menyisakan terlalu banyak ruang untuk miskomunikasi. Dia malah mulai dengan istilah perusahaan yang lebih dikenal: gagasan risiko. Banyak perusahaan memiliki lengan risiko dan kepatuhan, dan menetapkan proses untuk mitigasi risiko. Mitigasi risiko AI tidak berbeda. Sebuah perusahaan harus mulai dengan mempertimbangkan berbagai hal yang dikhawatirkan. Ini dapat mencakup risiko hukum, kemungkinan melanggar hukum; risiko organisasi, kemungkinan kehilangan karyawan; atau risiko reputasi, kemungkinan menderita bencana PR. Dari sana, ia dapat bekerja mundur untuk memutuskan bagaimana mengaudit sistem AI-nya. Perusahaan keuangan, yang beroperasi di bawah undang-undang peminjaman yang adil di AS, ingin memeriksa model peminjamannya apakah ada bias untuk mengurangi risiko hukum. Perusahaan telehealth, yang sistemnya melatih data medis sensitif, mungkin melakukan audit privasi untuk mengurangi risiko reputasi.
A screenshot of Parity's library of impact assessment questions.
Paritas mencakup pustaka pertanyaan yang disarankan untuk membantu perusahaan mengevaluasi risiko model AI mereka.
PARITAS
Paritas membantu mengatur proses ini. Platform pertama kali meminta perusahaan untuk membuat penilaian dampak internal — intinya, serangkaian pertanyaan survei terbuka tentang bagaimana bisnis dan sistem AI-nya beroperasi. Itu dapat memilih untuk menulis pertanyaan khusus atau memilihnya dari perpustakaan Parity, yang memiliki lebih dari 1.000 petunjuk yang diadaptasi dari pedoman etika AI dan undang-undang yang relevan dari seluruh dunia. Setelah penilaian dibuat, karyawan di seluruh perusahaan didorong untuk mengisinya berdasarkan fungsi dan pengetahuan pekerjaan mereka. Platform tersebut kemudian menjalankan respons teks bebas mereka melalui model pemrosesan bahasa alami dan menerjemahkannya dengan memperhatikan area risiko utama perusahaan. Paritas, dengan kata lain, berfungsi sebagai perantara baru dalam mendapatkan ilmuwan data dan pengacara di halaman yang sama. Selanjutnya, platform merekomendasikan serangkaian tindakan mitigasi risiko yang sesuai. Ini dapat mencakup pembuatan dasbor untuk terus memantau keakuratan model, atau menerapkan prosedur dokumentasi baru untuk melacak bagaimana model dilatih dan disesuaikan pada setiap tahap pengembangannya. Ini juga menawarkan kumpulan kerangka kerja sumber terbuka dan alat yang mungkin membantu, seperti IBM AI Fairness 360 untuk pemantauan bias atau Kartu Model Google untuk dokumentasi. Chowdhury berharap jika perusahaan dapat mengurangi waktu yang dibutuhkan untuk mengaudit model mereka, mereka akan menjadi lebih disiplin dalam melakukannya secara teratur dan sering. Seiring berjalannya waktu, ia berharap, hal ini juga bisa membuat mereka berpikir di luar mitigasi risiko. “Tujuan licik saya sebenarnya adalah membuat lebih banyak perusahaan berpikir tentang dampak dan bukan hanya risiko,” katanya. “Risiko adalah bahasa yang dipahami orang saat ini, dan ini adalah bahasa yang sangat berharga, tetapi risiko sering kali bersifat reaktif dan responsif. Dampak lebih proaktif, dan sebenarnya itulah cara yang lebih baik untuk membingkai apa yang seharusnya kita lakukan. ”

Ekosistem tanggung jawab

Sementara Parity berfokus pada manajemen risiko, startup lain, Fiddler , berfokus pada kemampuan menjelaskan. CEO Krishna Gade mulai memikirkan perlunya transparansi yang lebih besar tentang bagaimana model AI membuat keputusan sambil menjabat sebagai manajer teknik tim Umpan Berita Facebook. Setelah pemilihan presiden 2016, perusahaan membuat dorongan internal yang besar untuk lebih memahami bagaimana algoritmanya menentukan peringkat konten. Tim Gade mengembangkan alat internal yang kemudian menjadi dasar dari "Mengapa saya melihat ini?" fitur . Gade meluncurkan Fiddler tidak lama setelah itu, pada Oktober 2018. Ini membantu tim ilmu data melacak kinerja model mereka yang berkembang, dan membuat laporan tingkat tinggi untuk eksekutif bisnis berdasarkan hasilnya. Jika akurasi model memburuk dari waktu ke waktu, atau menunjukkan perilaku bias, Fiddler membantu men-debug mengapa hal itu mungkin terjadi. Gade melihat model pemantauan dan meningkatkan kemampuan menjelaskan sebagai langkah pertama untuk mengembangkan dan menerapkan AI secara lebih sengaja. Arthur , didirikan pada 2019, dan Bobot & Bias , didirikan pada 2017, adalah dua perusahaan lagi yang menawarkan platform pemantauan. Seperti Fiddler, Arthur menekankan kemampuan menjelaskan dan mitigasi bias, sementara Weights & Biases melacak eksperimen pembelajaran mesin untuk meningkatkan reproduktifitas penelitian . Ketiga perusahaan tersebut telah mengamati pergeseran bertahap dalam perhatian utama perusahaan, dari kepatuhan hukum atau kinerja model ke etika dan tanggung jawab. “Bagian sinis saya adalah khawatir pada awalnya bahwa kami akan melihat pelanggan masuk dan berpikir bahwa mereka dapat mencentang kotak dengan mengaitkan merek mereka dengan orang lain yang melakukan AI yang bertanggung jawab,” kata Liz O'Sullivan, Wakil Presiden AI yang bertanggung jawab dari Arthur , yang juga menjabat sebagai direktur teknologi Proyek Pengawasan Teknologi Pengawasan, sebuah organisasi aktivis. Tetapi banyak klien Arthur telah berusaha untuk memikirkan lebih dari sekadar perbaikan teknis pada struktur tata kelola dan pendekatan mereka terhadap desain inklusif. “Sangat menyenangkan melihat mereka benar-benar berinvestasi dalam melakukan hal yang benar,” katanya. O'Sullivan dan Chowdhury juga senang melihat lebih banyak startup seperti mereka yang online. “Tidak hanya satu alat atau satu hal yang perlu Anda lakukan untuk melakukan AI yang bertanggung jawab,” kata O'Sullivan. Chowdury setuju: “Ini akan menjadi ekosistem.”

Komentar

Postingan populer dari blog ini

Pertarungan algoritma: Mengungkap AI ofensif

Begitulah cara kami kehilangan kendali atas wajah kami

Cara menjalin hubungan yang lebih baik dengan teknisi Anda