AI dapat membuat perawatan kesehatan lebih adil — dengan membantu kami memercayai apa yang dikatakan pasien kepada kami
Dalam beberapa tahun terakhir, penelitian telah menunjukkan bahwa pembelajaran mendalam dapat menyamai kinerja tingkat ahli dalam tugas pencitraan medis seperti deteksi dini kanker dan diagnosis penyakit mata . Tapi ada juga alasan untuk berhati-hati. Penelitian lain menunjukkan bahwa deep learning memiliki kecenderungan untuk melanggengkan diskriminasi . Dengan sistem perawatan kesehatan yang sudah penuh dengan disparitas, penerapan pembelajaran mendalam yang ceroboh dapat memperburuknya. Sekarang sebuah makalah baru yang diterbitkan di Nature Medicine mengusulkan cara untuk mengembangkan algoritma yang mungkin membantu membalikkan, bukannya memperburuk, ketidaksetaraan yang ada. Kuncinya, kata Ziad Obermeyer, seorang profesor di UC Berkeley yang mengawasi penelitian ini, adalah menghentikan algoritma pelatihan agar sesuai dengan kinerja pakar manusia. Makalah ini melihat contoh klinis spesifik dari perbedaan yang ada dalam pengobatan osteoartritis lutut, penyakit yang menyebabkan nyeri kronis. Menilai tingkat keparahan nyeri tersebut membantu dokter meresepkan pengobatan yang tepat, termasuk terapi fisik, pengobatan, atau pembedahan. Ini biasanya dilakukan oleh ahli radiologi yang meninjau sinar-X lutut pasien dan menilai rasa sakit mereka pada tingkat Kellgren-Lawrence (KLG), yang menghitung tingkat nyeri berdasarkan adanya fitur radiografi yang berbeda, seperti tingkat kehilangan tulang rawan atau kerusakan struktural. Tetapi data yang dikumpulkan oleh National Institute of Health menemukan bahwa dokter yang menggunakan metode ini secara sistematis menilai pasien berkulit hitam jauh di bawah tingkat keparahan rasa sakit yang mereka alami. Pasien melaporkan sendiri tingkat nyeri mereka menggunakan survei yang menanyakan tentang nyeri selama berbagai aktivitas, seperti meluruskan lutut sepenuhnya. Tetapi tingkat nyeri yang dilaporkan sendiri ini diabaikan dalam preferensi skor KLG ahli radiologi saat meresepkan pengobatan. Dengan kata lain, pasien kulit hitam yang menunjukkan jumlah tulang rawan yang hilang sama dengan pasien kulit putih melaporkan sendiri tingkat rasa sakit yang lebih tinggi. Ini secara konsisten membuat jengkel para ahli medis. Salah satu hipotesis mengatakan bahwa pasien kulit hitam dapat melaporkan tingkat rasa sakit yang lebih tinggi agar dokter dapat merawat mereka dengan lebih serius. Tapi ada penjelasan alternatif. Metodologi KLG sendiri bisa jadi bias. Ini dikembangkan beberapa dekade lalu berdasarkan populasi kulit putih Inggris. Beberapa ahli medis berpendapat bahwa daftar penanda radiografi yang harus dicari oleh dokter mungkin tidak mencakup semua kemungkinan sumber nyeri fisik dalam populasi yang lebih beragam. Dengan kata lain, mungkin ada indikator nyeri radiografi yang muncul lebih umum pada orang kulit hitam yang tidak termasuk dalam rubrik KLG. Untuk menguji kemungkinan ini, para peneliti melatih model pembelajaran mendalam untuk memprediksi tingkat nyeri yang dilaporkan pasien sendiri dari rontgen lutut mereka. Jika model yang dihasilkan memiliki akurasi yang buruk, ini akan menunjukkan bahwa nyeri yang dilaporkan sendiri agak sewenang-wenang. Tetapi jika model memiliki akurasi yang sangat baik, ini akan memberikan bukti bahwa rasa sakit yang dilaporkan sendiri sebenarnya berkorelasi dengan penanda radiografi pada x-ray. Setelah menjalankan beberapa eksperimen, termasuk untuk mengurangi faktor perancu, para peneliti menemukan bahwa model tersebut jauh lebih akurat daripada KLG dalam memprediksi tingkat nyeri yang dilaporkan sendiri untuk pasien kulit putih dan kulit hitam, tetapi terutama untuk pasien kulit hitam. Ini mengurangi perbedaan ras di setiap tingkat rasa sakit hampir setengahnya. Sasarannya belum tentu mulai menggunakan algoritme ini dalam pengaturan klinis. Tetapi dengan mengungguli metodologi KLG, terungkap bahwa cara standar untuk mengukur nyeri memiliki kelemahan, dengan biaya yang jauh lebih besar bagi orang kulit hitam. Ini seharusnya memberi petunjuk kepada komunitas medis untuk menyelidiki penanda radiografi mana yang mungkin dilihat algoritme, dan memperbarui metodologi penilaian mereka. "Ini benar-benar menyoroti bagian yang sangat menarik di mana jenis algoritme ini dapat masuk ke dalam proses penemuan medis," kata Obermeyer. “Ini memberi tahu kami jika ada sesuatu di sini yang layak untuk dilihat yang tidak kami pahami. Ini mengatur panggung bagi manusia untuk kemudian turun tangan dan, menggunakan algoritme ini sebagai alat, mencoba mencari tahu apa yang terjadi. ”“Hal keren tentang makalah ini adalah memikirkan tentang berbagai hal dari perspektif yang sama sekali berbeda,” kata Irene Chen, seorang peneliti di MIT yang mempelajari cara mengurangi ketidakadilan perawatan kesehatan dalam pembelajaran mesin dan tidak terlibat dalam makalah ini. Alih-alih melatih algoritme berdasarkan pengetahuan ahli yang mapan, katanya, para peneliti memilih untuk memperlakukan penilaian diri pasien sebagai kebenaran. Melalui itu terungkap kesenjangan penting dalam apa yang biasanya dianggap bidang medis sebagai ukuran nyeri yang lebih "objektif". "Itulah rahasianya," kata Obermeyer setuju. Jika algoritme hanya pernah dilatih untuk mencocokkan kinerja ahli, katanya, algoritme hanya akan mengabadikan celah dan ketidakadilan yang ada. "Studi ini adalah gambaran sekilas dari saluran yang lebih umum yang semakin dapat kami gunakan dalam pengobatan untuk menghasilkan pengetahuan baru."
Komentar
Posting Komentar