Khawatir tentang etika AI perusahaan Anda? Para pemula ini ada di sini untuk membantu.
Dapatkan link
Facebook
X
Pinterest
Email
Aplikasi Lainnya
Pekerjaan Rumman Chowdhury dulu melibatkan banyak terjemahan. Sebagai pemimpin "AI yang bertanggung jawab" di perusahaan konsultan Accenture, dia akan bekerja dengan klien yang berjuang untuk memahami model AI mereka. Bagaimana mereka tahu jika model melakukan apa yang seharusnya mereka lakukan? Kebingungan sering kali muncul sebagian karena ilmuwan data, pengacara, dan eksekutif perusahaan tampaknya berbicara dalam bahasa yang berbeda. Timnya akan bertindak sebagai perantara sehingga semua pihak bisa berada di halaman yang sama. Itu tidak efisien, untuk sedikitnya: mengaudit satu model bisa memakan waktu berbulan-bulan. Jadi pada akhir 2020, Chowdhury meninggalkan jabatannya untuk memulai usahanya sendiri. Disebut Parity AI , ia menawarkan klien seperangkat alat yang berusaha mempersingkat proses menjadi beberapa minggu. Ini pertama-tama membantu mereka mengidentifikasi bagaimana mereka ingin mengaudit model mereka — apakah untuk bias atau untuk kepatuhan hukum? —Dan kemudian memberikan rekomendasi untuk mengatasi masalah tersebut. Paritas adalah salah satu dari sekian banyak startup yang menjanjikan cara organisasi untuk mengembangkan, memantau, dan memperbaiki model AI mereka. Mereka menawarkan berbagai produk dan layanan dari alat mitigasi bias hingga platform yang dapat dijelaskan. Awalnya sebagian besar klien mereka berasal dari industri yang diatur secara ketat seperti keuangan dan perawatan kesehatan. Tetapi penelitian dan perhatian media yang meningkat pada masalah bias , privasi, dan transparansi telah menggeser fokus percakapan. Klien baru sering kali hanya khawatir tentang tanggung jawab, sementara yang lain ingin "membuktikan masa depan" sendiri untuk mengantisipasi peraturan. “Begitu banyak perusahaan yang benar-benar menghadapi ini untuk pertama kalinya,” kata Chowdhury. “Hampir semua dari mereka sebenarnya meminta bantuan.”
Dari risiko hingga dampak
Saat bekerja dengan klien baru, Chowdhury menghindari penggunaan istilah "tanggung jawab". Kata itu terlalu licin dan tidak jelas; itu menyisakan terlalu banyak ruang untuk miskomunikasi. Dia malah mulai dengan istilah perusahaan yang lebih dikenal: gagasan risiko. Banyak perusahaan memiliki lengan risiko dan kepatuhan, dan menetapkan proses untuk mitigasi risiko. Mitigasi risiko AI tidak berbeda. Sebuah perusahaan harus mulai dengan mempertimbangkan berbagai hal yang dikhawatirkan. Ini dapat mencakup risiko hukum, kemungkinan melanggar hukum; risiko organisasi, kemungkinan kehilangan karyawan; atau risiko reputasi, kemungkinan menderita bencana PR. Dari sana, ia dapat bekerja mundur untuk memutuskan bagaimana mengaudit sistem AI-nya. Perusahaan keuangan, yang beroperasi di bawah undang-undang peminjaman yang adil di AS, ingin memeriksa model peminjamannya apakah ada bias untuk mengurangi risiko hukum. Perusahaan telehealth, yang sistemnya melatih data medis sensitif, mungkin melakukan audit privasi untuk mengurangi risiko reputasi.
Paritas mencakup pustaka pertanyaan yang disarankan untuk membantu perusahaan mengevaluasi risiko model AI mereka.
PARITAS
Paritas membantu mengatur proses ini. Platform pertama kali meminta perusahaan untuk membuat penilaian dampak internal — intinya, serangkaian pertanyaan survei terbuka tentang bagaimana bisnis dan sistem AI-nya beroperasi. Itu dapat memilih untuk menulis pertanyaan khusus atau memilihnya dari perpustakaan Parity, yang memiliki lebih dari 1.000 petunjuk yang diadaptasi dari pedoman etika AI dan undang-undang yang relevan dari seluruh dunia. Setelah penilaian dibuat, karyawan di seluruh perusahaan didorong untuk mengisinya berdasarkan fungsi dan pengetahuan pekerjaan mereka. Platform tersebut kemudian menjalankan respons teks bebas mereka melalui model pemrosesan bahasa alami dan menerjemahkannya dengan memperhatikan area risiko utama perusahaan. Paritas, dengan kata lain, berfungsi sebagai perantara baru dalam mendapatkan ilmuwan data dan pengacara di halaman yang sama. Selanjutnya, platform merekomendasikan serangkaian tindakan mitigasi risiko yang sesuai. Ini dapat mencakup pembuatan dasbor untuk terus memantau keakuratan model, atau menerapkan prosedur dokumentasi baru untuk melacak bagaimana model dilatih dan disesuaikan pada setiap tahap pengembangannya. Ini juga menawarkan kumpulan kerangka kerja sumber terbuka dan alat yang mungkin membantu, seperti IBM AI Fairness 360 untuk pemantauan bias atau Kartu Model Google untuk dokumentasi. Chowdhury berharap jika perusahaan dapat mengurangi waktu yang dibutuhkan untuk mengaudit model mereka, mereka akan menjadi lebih disiplin dalam melakukannya secara teratur dan sering. Seiring berjalannya waktu, ia berharap, hal ini juga bisa membuat mereka berpikir di luar mitigasi risiko. “Tujuan licik saya sebenarnya adalah membuat lebih banyak perusahaan berpikir tentang dampak dan bukan hanya risiko,” katanya. “Risiko adalah bahasa yang dipahami orang saat ini, dan ini adalah bahasa yang sangat berharga, tetapi risiko sering kali bersifat reaktif dan responsif. Dampak lebih proaktif, dan sebenarnya itulah cara yang lebih baik untuk membingkai apa yang seharusnya kita lakukan. ”
Ekosistem tanggung jawab
Sementara Parity berfokus pada manajemen risiko, startup lain, Fiddler , berfokus pada kemampuan menjelaskan. CEO Krishna Gade mulai memikirkan perlunya transparansi yang lebih besar tentang bagaimana model AI membuat keputusan sambil menjabat sebagai manajer teknik tim Umpan Berita Facebook. Setelah pemilihan presiden 2016, perusahaan membuat dorongan internal yang besar untuk lebih memahami bagaimana algoritmanya menentukan peringkat konten. Tim Gade mengembangkan alat internal yang kemudian menjadi dasar dari "Mengapa saya melihat ini?" fitur . Gade meluncurkan Fiddler tidak lama setelah itu, pada Oktober 2018. Ini membantu tim ilmu data melacak kinerja model mereka yang berkembang, dan membuat laporan tingkat tinggi untuk eksekutif bisnis berdasarkan hasilnya. Jika akurasi model memburuk dari waktu ke waktu, atau menunjukkan perilaku bias, Fiddler membantu men-debug mengapa hal itu mungkin terjadi. Gade melihat model pemantauan dan meningkatkan kemampuan menjelaskan sebagai langkah pertama untuk mengembangkan dan menerapkan AI secara lebih sengaja. Arthur , didirikan pada 2019, dan Bobot & Bias , didirikan pada 2017, adalah dua perusahaan lagi yang menawarkan platform pemantauan. Seperti Fiddler, Arthur menekankan kemampuan menjelaskan dan mitigasi bias, sementara Weights & Biases melacak eksperimen pembelajaran mesin untuk meningkatkan reproduktifitas penelitian . Ketiga perusahaan tersebut telah mengamati pergeseran bertahap dalam perhatian utama perusahaan, dari kepatuhan hukum atau kinerja model ke etika dan tanggung jawab. “Bagian sinis saya adalah khawatir pada awalnya bahwa kami akan melihat pelanggan masuk dan berpikir bahwa mereka dapat mencentang kotak dengan mengaitkan merek mereka dengan orang lain yang melakukan AI yang bertanggung jawab,” kata Liz O'Sullivan, Wakil Presiden AI yang bertanggung jawab dari Arthur , yang juga menjabat sebagai direktur teknologi Proyek Pengawasan Teknologi Pengawasan, sebuah organisasi aktivis. Tetapi banyak klien Arthur telah berusaha untuk memikirkan lebih dari sekadar perbaikan teknis pada struktur tata kelola dan pendekatan mereka terhadap desain inklusif. “Sangat menyenangkan melihat mereka benar-benar berinvestasi dalam melakukan hal yang benar,” katanya. O'Sullivan dan Chowdhury juga senang melihat lebih banyak startup seperti mereka yang online. “Tidak hanya satu alat atau satu hal yang perlu Anda lakukan untuk melakukan AI yang bertanggung jawab,” kata O'Sullivan. Chowdury setuju: “Ini akan menjadi ekosistem.”
Saat aplikasi pembelajaran mesin beralih ke arus utama, era baru ancaman dunia maya muncul — era yang menggunakan kecerdasan buatan (AI) ofensif untuk meningkatkan kampanye serangan. AI ofensif memungkinkan penyerang untuk mengotomatiskan pengintaian, membuat serangan peniruan yang disesuaikan dengan kebutuhan, dan bahkan menyebar sendiri untuk menghindari deteksi. Tim keamanan dapat bersiap dengan beralih ke AI defensif untuk melawan — menggunakan pertahanan cyber otonom yang belajar di tempat kerja untuk mendeteksi dan merespons bahkan indikator serangan yang paling halus, di mana pun ia muncul. Marcy Rizzo, dari MIT Technology Review, mewawancarai Marcus Fowler dan Max Heinemeyer dari Darktrace pada Januari 2021. MIT Technology Review baru-baru ini duduk bersama para ahli dari Darktrace — Marcus Fowler, direktur ancaman strategis, dan Max Heinemeyer, direktur perburuan ancaman — untuk membahas aplikasi AI ofensif, AI defensif, dan pertempuran algoritme yang sedang berlangsung ant...
Pada tahun 1964, matematikawan dan ilmuwan komputer Woodrow Bledsoe pertama kali mencoba mencocokkan wajah tersangka dengan foto. Dia mengukur jarak antara fitur wajah yang berbeda dalam foto cetakan dan memasukkannya ke dalam program komputer. Keberhasilannya yang belum sempurna akan memicu penelitian puluhan tahun ke dalam mesin pengajaran untuk mengenali wajah manusia. Sekarang sebuah studi baru menunjukkan seberapa besar perusahaan ini telah mengikis privasi kami. Itu tidak hanya memicu alat pengawasan yang semakin kuat. Pengenalan wajah berbasis deep learning generasi terbaru benar-benar mengganggu norma persetujuan kami. Deborah Raji, seorang rekan di Mozilla nirlaba, dan Genevieve Fried, yang menasihati anggota Kongres AS tentang akuntabilitas algoritmik, memeriksa lebih dari 130 kumpulan data pengenalan wajah yang dikumpulkan selama 43 tahun. Mereka menemukan bahwa para peneliti, didorong oleh kebutuhan data yang meledak dalam pembelajaran mendalam, secara bertahap meninggalk...
Ketergantungan kita pada teknologi telah melonjak selama pandemi. Perusahaan analisis aplikasi App Annie menemukan bahwa orang menghabiskan sekitar 4 jam dan 18 menit per hari di perangkat seluler pada bulan April 2020. Itu meningkat 20% dari tahun sebelumnya, setara dengan tambahan 45 menit per hari waktu layar. Penelitian menunjukkan bahwa secara intrinsik tidak ada yang salah dengan menghabiskan lebih banyak waktu di layar — terutama saat ini. Terlepas dari manfaat terhubung dengan teman, keluarga, dan rekan kerja, beralih ke teknologi dapat membantu kita mengelola emosi yang sulit dan bahkan mengurangi stres . Namun, tidak semua waktu layar dibuat sama. Beberapa aktivitas online memang membawa risiko tertentu. Menghabiskan waktu lama secara pasif menelusuri media sosial, misalnya, terkait dengan perasaan iri dan kesepian yang lebih besar, serta risiko depresi yang lebih tinggi. Lalu, apa yang harus kita lakukan di bulan-bulan mendatang untuk memastikan hubungan kita dengan tekn...
Komentar
Posting Komentar