Dari membantu dokter dalam mendiagnosis hingga menyarankan perawatan tingkat lanjut, Kecerdasan Buatan (AI) mengubah kesehatan dan pengobatan. Namun AI sebagian besar dikembangkan oleh laki-laki, berdasarkan kumpulan data yang memprioritaskan tubuh dan kebutuhan kesehatan laki-laki. Artinya, banyak model AI yang penuh dengan bias gender dan jenis kelamin sehingga menimbulkan risiko kesehatan bagi perempuan, serta pasien non-biner.
Dengan semakin banyaknya bias dalam bidang kedokteran yang menjadi sorotan dalam beberapa tahun terakhir, apakah AI akan memperlebar kesenjangan layanan kesehatan yang ada – atau dapatkah AI dimanfaatkan untuk membantu menjembatani kesenjangan tersebut?
Data yang bias
Kualitas AI sangat bergantung pada kualitas kumpulan data besar yang dimasukkan ke dalam algoritme pembelajaran mesin yang mendasari program perangkat lunaknya.
Jika data tidak mencakup atau kurang mewakili sektor-sektor yang relevan dalam populasi global, AI yang kurang mendapat informasi dapat menimbulkan risiko kesehatan yang serius – mulai dari kesalahan diagnosis, gangguan interpretasi pencitraan medis, hingga rekomendasi intervensi yang salah.
Masalahnya dimulai dengan bias gender yang mendasari pengkodean bahasa perangkat lunak AI.
Infiltrasi stereotip maskulin ke dalam AI telah muncul – mulai dari kata ganti laki-laki yang tampaknya tidak disadari hingga kata ganti laki-laki “dia” ketika pilihannya ambigu, hingga aplikasi perawatan kesehatan yang mengkhawatirkan yang mengancam diagnosis dan pengobatan.
Misalnya, dalam bidang psikiatri, ketika pria menggambarkan gejala trauma, mereka lebih mungkin didiagnosis menderita gangguan stres pasca-trauma (PTSD), sedangkan wanita yang menggambarkan gejala yang sama berisiko lebih tinggi untuk menerima diagnosis gangguan kepribadian.
Bias gender semacam ini dapat (dan seringkali memang) memengaruhi akses perempuan terhadap layanan kesehatan atau pengelolaannya dalam sistem layanan kesehatan – dan tampaknya bias ini juga tereplikasi dalam model AI.
Sebuah studi tahun 2020 dari AS menemukan bahwa model AI Pemrosesan Bahasa Alami yang digunakan dalam psikiatri menunjukkan bias gender yang signifikan.
Makalah penelitian yang diterbitkan di PLos One memperingatkan bahwa model AI yang menyaring psikopatologi atau bunuh diri akan membuat kesalahan jika dilatih terutama pada data yang ditulis oleh pria kulit putih, karena bahasa dibentuk oleh gender. Misalnya, pria dan wanita mengekspresikan tekanan bunuh diri secara berbeda.
Yang terpenting adalah kesadaran akan isu-isu seperti ini semakin meningkat dan inisiatif-inisiatif untuk mencegah bias bermunculan – yang seringkali didorong oleh perempuan, seperti Bioinfo4women-B4W, sebuah program dari Barcelona Supercomputing Centre.
Contoh ini juga mengingatkan kita bahwa pertimbangan seputar bias dan bahasa gender dalam AI harus melampaui bahasa Inggris, agar relevan dengan pengembangan AI di seluruh dunia.
Peluang untuk desain inklusif
Namun kekhawatiran tidak berhenti pada tingkat bahasa. Bagaimana jika sesuatu yang mendasar seperti pembentukan tubuh kita tidak dipertimbangkan ketika AI sedang dikembangkan?
Seiring dengan meluasnya penggunaan AI ke dalam desain produk keselamatan, kita memiliki peluang yang belum pernah terjadi sebelumnya untuk menciptakan produk yang lebih baik dengan menciptakan fitur-fitur yang sesuai dengan tubuh manusia kita – baik wanita maupun pria.
Rata-rata tubuh perempuan dan laki-laki mempunyai perbedaan proporsionalitas; kita tidak bisa begitu saja mengubah skala dari satu ke yang lain.
Poin ini semakin ditekankan selama pandemi COVID, ketika penggunaan alat pelindung diri (APD) menjadi wajib.
Meskipun sekitar 70 persen petugas layanan kesehatan global adalah perempuan, APD dirancang khusus untuk tubuh laki-laki. Sebuah survei di Kanada mengidentifikasi bahwa APD yang tidak pas tidak hanya bertanggung jawab atas kegagalan memberikan perlindungan yang memadai, namun juga bahwa perlengkapan yang terlalu besar dan tidak pas menimbulkan risiko kecelakaan yang signifikan.
Diperlukan lebih banyak penelitian mengenai topik ini, namun para peneliti telah mengusulkan pembuatan APD yang dirancang dengan AI. Memastikan bahwa ciri-ciri jenis kelamin dipertimbangkan dalam desain APD diharapkan dapat meningkatkan keselamatan.
Bergerak ke arah yang benar
Keakuratan diagnosis klinis yang dibantu AI sepenuhnya bergantung pada kekuatan kumpulan data yang mendasarinya. Tanpa secara aktif memperhitungkan bias jenis kelamin dan gender dalam kumpulan data historis, AI dapat menyebabkan kesalahan diagnosis.
Untungnya, penyesuaian terhadap bias tersebut tampaknya menghasilkan hasil layanan kesehatan yang lebih baik bagi perempuan.
Misalnya, skor penilaian risiko tradisional untuk serangan jantung, Global Registry of Acute Coronary Events (GRACE), diperbarui pada tahun 2022 untuk memasukkan model prediktif AI yang memperhitungkan karakteristik penyakit spesifik jenis kelamin.
Pembaruan ini telah merevolusi kinerja alat penilaian ini. Keberhasilan ini berasal dari analisis terpisah terhadap data pria dan wanita – yang memandu lebih banyak pasien wanita untuk melakukan intervensi dini yang dapat menyelamatkan nyawa, membantu mengatasi bias struktural dalam manajemen pasien.
Contoh praktis model AI yang dirancang untuk mengatasi dan mengurangi bias gender adalah SMARThealth Kehamilan GPT. Alat ini, yang dikembangkan oleh The George Institute for Global Health, bertujuan untuk meningkatkan akses terhadap nasihat kehamilan berbasis pedoman bagi perempuan yang tinggal di komunitas pedesaan dan terpencil di India.
Konsepnya adalah mengembangkan chatbot model bahasa besar yang sensitif secara kontekstual dan akurat secara klinis – serta menghindari tertanamnya stereotip yang merugikan.
Tim George Institute bekerja sama dengan petugas kesehatan komunitas, dokter, dan perempuan yang tinggal di komunitas pedesaan, untuk bersama-sama menciptakan dan menyempurnakan algoritme alat tersebut. Para dokter juga menilai jawaban yang dihasilkan AI berdasarkan keakuratan, kesesuaian untuk petugas kesehatan komunitas, kelengkapan, dan risiko bias, yang membantu meningkatkan respons chatbot.
Chatbot ini menunjukkan potensi AI dalam membangun kapasitas petugas layanan kesehatan dan meningkatkan pendidikan kesehatan di wilayah dengan sumber daya terbatas – sekaligus menghindari bias dan mempromosikan hak-hak perempuan.
Pengembangan AI yang sensitif terhadap gender juga dapat meningkatkan teknologi medis lainnya yang tak terhitung jumlahnya yang mengandalkan keragaman dan integritas data untuk akurasi: misalnya, menyesuaikan perawatan yang dipersonalisasi; memprediksi respons pengobatan; melakukan operasi tertentu dengan bantuan robot; memantau pasien dari jarak jauh; layanan kesehatan virtual; dan percepatan penemuan obat.
Inisiatif untuk memajukan peningkatan kesetaraan gender dan gender dalam layanan kesehatan juga mulai muncul dalam beberapa tahun terakhir. Mereka termasuk Australian Centre for Sex and Gender Equity in Health and Medicine yang baru diluncurkan dan UK Medical Science Sex and Gender Equity.
Program-program ini secara aktif menganjurkan pertimbangan rutin mengenai jenis kelamin dan gender mulai dari penemuan hingga penelitian translasi, termasuk penerapan AI, untuk memastikan ketelitian ilmiah sebagai landasan yang kuat untuk memajukan layanan kesehatan dan medis.
AI adalah masa depan layanan kesehatan, dan kita tidak boleh mengulangi kesalahan ketidakadilan kesehatan yang terjadi di masa lalu karena mengabaikan seks dan gender. Inilah saatnya memprogram AI untuk memetakan arah kita menuju tujuan yang etis.
(Penafian: Informasi dalam artikel ini disediakan untuk tujuan pendidikan dan tidak boleh dianggap sebagai nasihat medis.)
(Penulis: Dr Sue Haupt adalah Peneliti Senior di Pusat Seks dan Kesetaraan Gender dalam Kesehatan dan Kedokteran di Institut George untuk Kesehatan Global di UNSW, Peneliti Senior Kehormatan di Universitas Deakin dan juga di Departemen Sir Peter MacCallum di Onkologi, Universitas Melbourne. Prof Bronwyn Graham adalah Direktur Pusat Seks dan Kesetaraan Gender dalam Kesehatan dan Kedokteran di George Institute for Global Health dan Profesor di Fakultas Psikologi, UNSW Kesehatan Wanita di Institut George untuk Kesehatan Global, Sekolah Kesehatan Masyarakat, Imperial College London.
(Awalnya diterbitkan di bawah Creative Commons oleh 360info)
(Kecuali judulnya, cerita ini belum diedit oleh staf NDTV dan diterbitkan dari feed sindikasi.)