Bias rasial dalam perawatan medis dapat muncul di tempat-tempat yang tak terduga. Salah satu contohnya: alat pengambilan keputusan klinis yang memainkan peran penting dalam bagaimana pasien saat ini diuji, didiagnosis, dan diobati.
Alat ini berisi algoritma, atau prosedur langkah-demi-langkah, biasanya berbasis komputer, untuk menghitung faktor-faktor seperti risiko penyakit jantung, kebutuhan rontgen dada, dan dosis obat resep. Kecerdasan buatan dapat digunakan untuk menyisir catatan kesehatan dan sistem penagihan guna membuat data set yang diperlukan.
Di permukaan, mungkin terdengar objektif. Tetapi studi telah menunjukkan bahwa analisis data yang digunakan dalam algoritma ini dapat bias secara penting terhadap kelompok rasial dan sosial ekonomi tertentu. Ini dapat memiliki berbagai konsekuensi dalam hal jumlah dan kualitas perawatan kesehatan yang diterima oleh kelompok tersebut.
Poin Utama
Alat pengambilan keputusan medis berperan besar dalam bagaimana pasien saat ini diuji, didiagnosis, dan diobati.
Sayangnya, algoritma yang digunakan alat ini kadang-kadang bisa bias.
Menggunakan data pengeluaran medis untuk menilai kondisi medis seseorang dapat salah menilai tingkat keparahan penyakit pasien miskin dan minoritas ketika pengeluaran medis yang lebih rendah mencerminkan kurangnya akses ke perawatan medis daripada kurangnya kebutuhan.
Algorit indeks massa tubuh (BMI) yang digunakan untuk mendiagnosis pasien sebagai kelebihan berat badan atau obesitas telah menciptakan suasana malu-malu dan ketidakpercayaan antara pasien dan dokter, karena lebih banyak wanita kulit hitam daripada wanita Hispanic atau kulit putih sekarang dikategorikan sebagai obesitas.
Input data dan hasilnya kini mulai diperiksa untuk bias rasial, etnis, pendapatan, gender, dan usia agar disparitas dapat dikenali dan algoritma diperbaiki.
Bias Rasial Mempengaruhi Pasien Paling Sakit
Pada tahun 2019, sebuah studi tentang algoritma yang banyak digunakan oleh rumah sakit dan perusahaan asuransi di AS untuk mengalokasikan bantuan manajemen kesehatan tambahan menunjukkan bahwa algoritma tersebut secara sistematis mendiskriminasi orang kulit hitam. Alat pengambilan keputusan tersebut kurang cenderung merujuk orang kulit hitam dibandingkan orang kulit putih ke program manajemen perawatan untuk kebutuhan medis yang kompleks, padahal kedua kelompok ras ini sama-sama sakit.
Alasan utama bias ini terkait dengan penetapan skor risiko kepada pasien berdasarkan biaya medis mereka tahun sebelumnya. Asumsinya adalah dengan mengidentifikasi pasien dengan biaya lebih tinggi, akan teridentifikasi mereka yang membutuhkan perawatan medis paling besar. Namun, banyak pasien kulit hitam memiliki akses yang lebih sedikit, kemampuan membayar yang lebih rendah, dan kepercayaan terhadap perawatan medis yang lebih rendah dibandingkan orang kulit putih yang sama-sama sakit. Dalam kasus ini, biaya medis mereka yang lebih rendah tidak secara akurat memprediksi status kesehatan mereka.
Program manajemen perawatan menggunakan pendekatan yang intensif, seperti panggilan telepon, kunjungan rumah oleh perawat, dan prioritas janji temu dokter untuk mengatasi kebutuhan kompleks pasien paling sakit. Program ini terbukti meningkatkan hasil, mengurangi kunjungan ke ruang gawat darurat dan rawat inap, serta menurunkan biaya medis. Karena program ini sendiri mahal, mereka diberikan kepada orang dengan skor risiko tertinggi. Teknik penilaian yang mendiskriminasi terhadap pasien kulit hitam yang paling sakit untuk perawatan ini dapat menjadi faktor signifikan dalam meningkatnya risiko kematian dari berbagai penyakit.
Ras Sebagai Variabel dalam Penyakit Ginjal
Algoritma dapat mengandung bias tanpa memasukkan ras sebagai variabel, tetapi beberapa alat secara sengaja menggunakan ras sebagai kriteria. Contohnya adalah skor eGFR, yang menilai kesehatan ginjal dan digunakan untuk menentukan siapa yang membutuhkan transplantasi ginjal.
Dalam studi tahun 1999 yang menetapkan kriteria skor eGFR, para peneliti memperhatikan bahwa orang kulit hitam memiliki, rata-rata, tingkat kreatinin (produk sampingan dari pemecahan otot) yang lebih tinggi daripada orang kulit putih. Para ilmuwan berasumsi bahwa tingkat yang lebih tinggi ini disebabkan oleh massa otot yang lebih besar pada orang kulit hitam. Mereka kemudian menyesuaikan skor, yang secara efektif berarti bahwa orang kulit hitam harus memiliki skor eGFR yang lebih rendah daripada orang kulit putih untuk didiagnosis dengan penyakit ginjal stadium akhir. Akibatnya, orang kulit hitam harus menunggu sampai penyakit ginjal mereka mencapai tahap yang lebih parah agar memenuhi syarat pengobatan.
Pada tahun 2018, seorang mahasiswa kedokteran dan kesehatan masyarakat di University of Washington di Seattle mengamati bahwa skor eGFR tidak akurat untuk mendiagnosis tingkat keparahan penyakit ginjal pada pasien kulit hitam. Dia berjuang agar ras dihapus dari algoritma dan menang. Pada tahun 2020, UW Medicine setuju bahwa penggunaan ras adalah variabel yang tidak efektif dan tidak memenuhi standar ilmiah dalam alat diagnostik medis.
Penting
Pada tahun 2021, sebuah tim tugas gabungan dari National Kidney Foundation dan American Society of Nephrology merekomendasikan adopsi persamaan kreatinin eGFR CKD EPI 2021 yang memperkirakan fungsi ginjal tanpa menggunakan ras sebagai variabel.
Indeks Massa Tubuh dan Bias Rasial
Bahkan alat pengambilan keputusan medis paling sederhana yang tidak memasukkan ras dapat mencerminkan bias sosial. Misalnya, indeks massa tubuh (BMI), didasarkan pada perhitungan yang mengalikan berat badan dengan tinggi badan. Digunakan untuk mengidentifikasi pasien kekurangan berat badan, kelebihan berat badan, dan obesitas.
Pada tahun 1985, National Institutes of Health mengaitkan definisi obesitas dengan BMI individu, dan pada tahun 1998, sebuah panel ahli menetapkan pedoman berdasarkan BMI yang mengklasifikasikan 29 juta orang Amerika yang sebelumnya dikategorikan sebagai berat badan normal atau hanya overweight ke dalam kategori overweight dan obesitas.
Saat ini, menurut standar BMI, mayoritas orang kulit hitam, Hispanic, dan kulit putih termasuk dalam kategori overweight atau obesitas. Tetapi laporan tahun 2021 dari Centers for Disease Control and Prevention (CDC) menemukan bahwa persentase orang Amerika yang dapat diklasifikasikan sebagai obesitas bervariasi menurut ras atau kelompok etnis.
Menurut CDC, rincian di antara orang dewasa secara keseluruhan adalah:
Non-Hispanic Black: 49,9%
Hispanic: 45,6%
Non-Hispanic White: 41,4%
Non-Hispanic Asian: 16,1%
Jika memecah data wanita dewasa yang diklasifikasikan sebagai obesitas, perbedaannya tampak lebih signifikan.
Non-Hispanic Black: 57,9%
Hispanic: 45,7%
Non-Hispanic White: 39,6%
Non-Hispanic Asian: 14,5%
Mengklasifikasikan sebagian besar populasi sebagai overweight atau obesitas telah menciptakan suasana malu-malu dan ketidakpercayaan antara pasien dan dokter. Orang dengan berat badan lebih tinggi mengeluh bahwa dokter tidak membahas masalah kesehatan atau kekhawatiran yang membawa mereka ke pemeriksaan. Sebaliknya, dokter menyalahkan berat badan pasien atas masalah kesehatan mereka dan mendorong penurunan berat badan sebagai solusi. Hal ini menyebabkan banyak pasien kulit hitam dan Hispanic menghindari praktisi kesehatan dan mungkin melewatkan peluang untuk mencegah masalah atau mendeteksinya sejak dini.
Selain itu, semakin jelas bahwa menjadi overweight atau obesitas tidak selalu merupakan masalah kesehatan. Tingkat kondisi serius seperti penyakit jantung, stroke, diabetes tipe 2, dan beberapa jenis kanker lebih tinggi di antara mereka yang obesitas. Tetapi dalam situasi tertentu, seperti pemulihan setelah operasi jantung, menjadi overweight atau obesitas sedang (bukan morbidly obese) dikaitkan dengan tingkat kelangsungan hidup yang lebih baik.
Pedoman obesitas baru untuk klinisi Kanada, yang diterbitkan pada Agustus 2020, menekankan bahwa dokter harus berhenti mengandalkan BMI saja dalam mendiagnosis pasien. Orang hanya boleh didiagnosis obesitas jika berat badan mereka mempengaruhi kesehatan fisik atau kesejahteraan mental mereka, menurut pedoman baru ini. Pengobatan harus holistik dan tidak hanya berfokus pada penurunan berat badan. Pedoman ini juga mencatat bahwa, “Orang yang hidup dengan obesitas menghadapi bias dan stigma yang substansial, yang berkontribusi pada meningkatnya morbiditas dan mortalitas terlepas dari berat badan atau indeks massa tubuh.”
Pertimbangan BMI individu dapat digantikan oleh ukuran lain, seperti lingkar pinggang. Dan obesitas sendiri mungkin didefinisikan ulang. Pada Januari 2025, sekelompok 58 peneliti mengusulkan definisi baru yang akan mengalihkan fokus dari BMI ke kelebihan lemak tubuh dan dampaknya terhadap kesehatan. Kelompok ini mengusulkan dua kategori obesitas: preklinis, ketika individu memiliki kelebihan lemak tetapi organ berfungsi normal, dan klinis, ketika terlalu banyak lemak merusak jaringan dan organ.
Mengurangi Bias dalam Alat Pengambilan Keputusan
Algoritma medis bukan satu-satunya jenis algoritma yang dapat bias. Seperti yang dicatat dalam artikel tahun 2020 di The New England Journal of Medicine, “Masalah ini tidak unik dalam bidang kedokteran. Sistem peradilan pidana, misalnya, menggunakan alat prediksi recidivism untuk membimbing keputusan tentang jumlah jaminan dan hukuman penjara.” Penulis menyebutkan bahwa salah satu alat yang banyak digunakan, “walaupun tidak menggunakan ras secara langsung, menggunakan banyak faktor yang berkorelasi dengan ras dan memberikan skor risiko yang lebih tinggi untuk terdakwa kulit hitam.”
Penggunaan kecerdasan buatan (AI)—terutama pembelajaran mesin—juga menimbulkan pertanyaan tentang bias berdasarkan ras, status sosial ekonomi, dan faktor lainnya. Dalam layanan kesehatan, pembelajaran mesin sering bergantung pada catatan kesehatan elektronik. Pasien miskin dan minoritas mungkin menerima perawatan yang terfragmentasi dan dilihat di berbagai institusi. Mereka lebih mungkin dilihat di klinik pengajaran di mana input data atau penalaran klinis mungkin kurang akurat. Mereka juga mungkin tidak dapat mengakses portal pasien online dan mendokumentasikan hasil. Akibatnya, catatan pasien ini mungkin memiliki data yang hilang atau salah. Algoritma yang menggerakkan pembelajaran mesin ini bisa saja secara tidak sengaja mengecualikan pasien miskin dan minoritas dari data set dan perawatan yang diperlukan.
Kabar baiknya adalah kesadaran akan bias dalam algoritma layanan kesehatan telah meningkat dalam beberapa tahun terakhir. Input data dan hasilnya sedang diperiksa untuk bias rasial, etnis, pendapatan, gender, dan usia. Masyarakat spesialis medis di AS mengakui bahaya yang disebabkan oleh kedokteran berbasis ras dan bergerak untuk mengakhiri pertimbangan ras dalam algoritma klinis. Ketika disparitas dikenali, algoritma dan data set dapat direvisi untuk mencapai objektivitas yang lebih baik.
Apa Itu Algoritma?
Tidak ada definisi hukum atau ilmiah standar untuk algoritma, tetapi National Institute for Standards and Technology menyebutnya sebagai “Proses matematika yang jelas untuk perhitungan; seperangkat aturan yang, jika diikuti, akan memberikan hasil yang ditentukan.”
Contoh Algoritma?
Dalam pengertian paling luas, algoritma hanyalah proses langkah-demi-langkah untuk menjawab pertanyaan atau mencapai hasil yang diinginkan. Jadi, misalnya, resep kue adalah bentuk algoritma. Dalam dunia keuangan, sistem perdagangan otomatis adalah contoh.
Apa Itu Pembelajaran Mesin?
IBM, pelopor di bidang ini, mendefinisikan pembelajaran mesin sebagai “subset dari kecerdasan buatan (AI) yang berfokus pada algoritma yang dapat ‘belajar’ pola dari data pelatihan dan, kemudian, membuat inferensi yang akurat tentang data baru.”
Intinya
Meskipun tampaknya objektif dan tidak memihak, algoritma yang digunakan profesional medis untuk membuat keputusan tertentu bisa rentan terhadap bias berdasarkan ras, kelas sosial, dan faktor lainnya. Oleh karena itu, algoritma tidak bisa hanya diterima begitu saja tanpa analisis ketat. Seperti yang dicatat dalam artikel tahun 2021 di MIT Technology Review, “Istilah ‘algoritma’, bagaimanapun didefinisikan, seharusnya bukan menjadi tameng untuk membebaskan manusia yang merancang dan menerapkan sistem dari tanggung jawab atas konsekuensinya.”
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Bias Rasial dalam Alat Pengambilan Keputusan Perawatan Medis
Bias rasial dalam perawatan medis dapat muncul di tempat-tempat yang tak terduga. Salah satu contohnya: alat pengambilan keputusan klinis yang memainkan peran penting dalam bagaimana pasien saat ini diuji, didiagnosis, dan diobati.
Alat ini berisi algoritma, atau prosedur langkah-demi-langkah, biasanya berbasis komputer, untuk menghitung faktor-faktor seperti risiko penyakit jantung, kebutuhan rontgen dada, dan dosis obat resep. Kecerdasan buatan dapat digunakan untuk menyisir catatan kesehatan dan sistem penagihan guna membuat data set yang diperlukan.
Di permukaan, mungkin terdengar objektif. Tetapi studi telah menunjukkan bahwa analisis data yang digunakan dalam algoritma ini dapat bias secara penting terhadap kelompok rasial dan sosial ekonomi tertentu. Ini dapat memiliki berbagai konsekuensi dalam hal jumlah dan kualitas perawatan kesehatan yang diterima oleh kelompok tersebut.
Poin Utama
Bias Rasial Mempengaruhi Pasien Paling Sakit
Pada tahun 2019, sebuah studi tentang algoritma yang banyak digunakan oleh rumah sakit dan perusahaan asuransi di AS untuk mengalokasikan bantuan manajemen kesehatan tambahan menunjukkan bahwa algoritma tersebut secara sistematis mendiskriminasi orang kulit hitam. Alat pengambilan keputusan tersebut kurang cenderung merujuk orang kulit hitam dibandingkan orang kulit putih ke program manajemen perawatan untuk kebutuhan medis yang kompleks, padahal kedua kelompok ras ini sama-sama sakit.
Alasan utama bias ini terkait dengan penetapan skor risiko kepada pasien berdasarkan biaya medis mereka tahun sebelumnya. Asumsinya adalah dengan mengidentifikasi pasien dengan biaya lebih tinggi, akan teridentifikasi mereka yang membutuhkan perawatan medis paling besar. Namun, banyak pasien kulit hitam memiliki akses yang lebih sedikit, kemampuan membayar yang lebih rendah, dan kepercayaan terhadap perawatan medis yang lebih rendah dibandingkan orang kulit putih yang sama-sama sakit. Dalam kasus ini, biaya medis mereka yang lebih rendah tidak secara akurat memprediksi status kesehatan mereka.
Program manajemen perawatan menggunakan pendekatan yang intensif, seperti panggilan telepon, kunjungan rumah oleh perawat, dan prioritas janji temu dokter untuk mengatasi kebutuhan kompleks pasien paling sakit. Program ini terbukti meningkatkan hasil, mengurangi kunjungan ke ruang gawat darurat dan rawat inap, serta menurunkan biaya medis. Karena program ini sendiri mahal, mereka diberikan kepada orang dengan skor risiko tertinggi. Teknik penilaian yang mendiskriminasi terhadap pasien kulit hitam yang paling sakit untuk perawatan ini dapat menjadi faktor signifikan dalam meningkatnya risiko kematian dari berbagai penyakit.
Ras Sebagai Variabel dalam Penyakit Ginjal
Algoritma dapat mengandung bias tanpa memasukkan ras sebagai variabel, tetapi beberapa alat secara sengaja menggunakan ras sebagai kriteria. Contohnya adalah skor eGFR, yang menilai kesehatan ginjal dan digunakan untuk menentukan siapa yang membutuhkan transplantasi ginjal.
Dalam studi tahun 1999 yang menetapkan kriteria skor eGFR, para peneliti memperhatikan bahwa orang kulit hitam memiliki, rata-rata, tingkat kreatinin (produk sampingan dari pemecahan otot) yang lebih tinggi daripada orang kulit putih. Para ilmuwan berasumsi bahwa tingkat yang lebih tinggi ini disebabkan oleh massa otot yang lebih besar pada orang kulit hitam. Mereka kemudian menyesuaikan skor, yang secara efektif berarti bahwa orang kulit hitam harus memiliki skor eGFR yang lebih rendah daripada orang kulit putih untuk didiagnosis dengan penyakit ginjal stadium akhir. Akibatnya, orang kulit hitam harus menunggu sampai penyakit ginjal mereka mencapai tahap yang lebih parah agar memenuhi syarat pengobatan.
Pada tahun 2018, seorang mahasiswa kedokteran dan kesehatan masyarakat di University of Washington di Seattle mengamati bahwa skor eGFR tidak akurat untuk mendiagnosis tingkat keparahan penyakit ginjal pada pasien kulit hitam. Dia berjuang agar ras dihapus dari algoritma dan menang. Pada tahun 2020, UW Medicine setuju bahwa penggunaan ras adalah variabel yang tidak efektif dan tidak memenuhi standar ilmiah dalam alat diagnostik medis.
Penting
Pada tahun 2021, sebuah tim tugas gabungan dari National Kidney Foundation dan American Society of Nephrology merekomendasikan adopsi persamaan kreatinin eGFR CKD EPI 2021 yang memperkirakan fungsi ginjal tanpa menggunakan ras sebagai variabel.
Indeks Massa Tubuh dan Bias Rasial
Bahkan alat pengambilan keputusan medis paling sederhana yang tidak memasukkan ras dapat mencerminkan bias sosial. Misalnya, indeks massa tubuh (BMI), didasarkan pada perhitungan yang mengalikan berat badan dengan tinggi badan. Digunakan untuk mengidentifikasi pasien kekurangan berat badan, kelebihan berat badan, dan obesitas.
Pada tahun 1985, National Institutes of Health mengaitkan definisi obesitas dengan BMI individu, dan pada tahun 1998, sebuah panel ahli menetapkan pedoman berdasarkan BMI yang mengklasifikasikan 29 juta orang Amerika yang sebelumnya dikategorikan sebagai berat badan normal atau hanya overweight ke dalam kategori overweight dan obesitas.
Saat ini, menurut standar BMI, mayoritas orang kulit hitam, Hispanic, dan kulit putih termasuk dalam kategori overweight atau obesitas. Tetapi laporan tahun 2021 dari Centers for Disease Control and Prevention (CDC) menemukan bahwa persentase orang Amerika yang dapat diklasifikasikan sebagai obesitas bervariasi menurut ras atau kelompok etnis.
Menurut CDC, rincian di antara orang dewasa secara keseluruhan adalah:
Jika memecah data wanita dewasa yang diklasifikasikan sebagai obesitas, perbedaannya tampak lebih signifikan.
Mengklasifikasikan sebagian besar populasi sebagai overweight atau obesitas telah menciptakan suasana malu-malu dan ketidakpercayaan antara pasien dan dokter. Orang dengan berat badan lebih tinggi mengeluh bahwa dokter tidak membahas masalah kesehatan atau kekhawatiran yang membawa mereka ke pemeriksaan. Sebaliknya, dokter menyalahkan berat badan pasien atas masalah kesehatan mereka dan mendorong penurunan berat badan sebagai solusi. Hal ini menyebabkan banyak pasien kulit hitam dan Hispanic menghindari praktisi kesehatan dan mungkin melewatkan peluang untuk mencegah masalah atau mendeteksinya sejak dini.
Selain itu, semakin jelas bahwa menjadi overweight atau obesitas tidak selalu merupakan masalah kesehatan. Tingkat kondisi serius seperti penyakit jantung, stroke, diabetes tipe 2, dan beberapa jenis kanker lebih tinggi di antara mereka yang obesitas. Tetapi dalam situasi tertentu, seperti pemulihan setelah operasi jantung, menjadi overweight atau obesitas sedang (bukan morbidly obese) dikaitkan dengan tingkat kelangsungan hidup yang lebih baik.
Pedoman obesitas baru untuk klinisi Kanada, yang diterbitkan pada Agustus 2020, menekankan bahwa dokter harus berhenti mengandalkan BMI saja dalam mendiagnosis pasien. Orang hanya boleh didiagnosis obesitas jika berat badan mereka mempengaruhi kesehatan fisik atau kesejahteraan mental mereka, menurut pedoman baru ini. Pengobatan harus holistik dan tidak hanya berfokus pada penurunan berat badan. Pedoman ini juga mencatat bahwa, “Orang yang hidup dengan obesitas menghadapi bias dan stigma yang substansial, yang berkontribusi pada meningkatnya morbiditas dan mortalitas terlepas dari berat badan atau indeks massa tubuh.”
Pertimbangan BMI individu dapat digantikan oleh ukuran lain, seperti lingkar pinggang. Dan obesitas sendiri mungkin didefinisikan ulang. Pada Januari 2025, sekelompok 58 peneliti mengusulkan definisi baru yang akan mengalihkan fokus dari BMI ke kelebihan lemak tubuh dan dampaknya terhadap kesehatan. Kelompok ini mengusulkan dua kategori obesitas: preklinis, ketika individu memiliki kelebihan lemak tetapi organ berfungsi normal, dan klinis, ketika terlalu banyak lemak merusak jaringan dan organ.
Mengurangi Bias dalam Alat Pengambilan Keputusan
Algoritma medis bukan satu-satunya jenis algoritma yang dapat bias. Seperti yang dicatat dalam artikel tahun 2020 di The New England Journal of Medicine, “Masalah ini tidak unik dalam bidang kedokteran. Sistem peradilan pidana, misalnya, menggunakan alat prediksi recidivism untuk membimbing keputusan tentang jumlah jaminan dan hukuman penjara.” Penulis menyebutkan bahwa salah satu alat yang banyak digunakan, “walaupun tidak menggunakan ras secara langsung, menggunakan banyak faktor yang berkorelasi dengan ras dan memberikan skor risiko yang lebih tinggi untuk terdakwa kulit hitam.”
Penggunaan kecerdasan buatan (AI)—terutama pembelajaran mesin—juga menimbulkan pertanyaan tentang bias berdasarkan ras, status sosial ekonomi, dan faktor lainnya. Dalam layanan kesehatan, pembelajaran mesin sering bergantung pada catatan kesehatan elektronik. Pasien miskin dan minoritas mungkin menerima perawatan yang terfragmentasi dan dilihat di berbagai institusi. Mereka lebih mungkin dilihat di klinik pengajaran di mana input data atau penalaran klinis mungkin kurang akurat. Mereka juga mungkin tidak dapat mengakses portal pasien online dan mendokumentasikan hasil. Akibatnya, catatan pasien ini mungkin memiliki data yang hilang atau salah. Algoritma yang menggerakkan pembelajaran mesin ini bisa saja secara tidak sengaja mengecualikan pasien miskin dan minoritas dari data set dan perawatan yang diperlukan.
Kabar baiknya adalah kesadaran akan bias dalam algoritma layanan kesehatan telah meningkat dalam beberapa tahun terakhir. Input data dan hasilnya sedang diperiksa untuk bias rasial, etnis, pendapatan, gender, dan usia. Masyarakat spesialis medis di AS mengakui bahaya yang disebabkan oleh kedokteran berbasis ras dan bergerak untuk mengakhiri pertimbangan ras dalam algoritma klinis. Ketika disparitas dikenali, algoritma dan data set dapat direvisi untuk mencapai objektivitas yang lebih baik.
Apa Itu Algoritma?
Tidak ada definisi hukum atau ilmiah standar untuk algoritma, tetapi National Institute for Standards and Technology menyebutnya sebagai “Proses matematika yang jelas untuk perhitungan; seperangkat aturan yang, jika diikuti, akan memberikan hasil yang ditentukan.”
Contoh Algoritma?
Dalam pengertian paling luas, algoritma hanyalah proses langkah-demi-langkah untuk menjawab pertanyaan atau mencapai hasil yang diinginkan. Jadi, misalnya, resep kue adalah bentuk algoritma. Dalam dunia keuangan, sistem perdagangan otomatis adalah contoh.
Apa Itu Pembelajaran Mesin?
IBM, pelopor di bidang ini, mendefinisikan pembelajaran mesin sebagai “subset dari kecerdasan buatan (AI) yang berfokus pada algoritma yang dapat ‘belajar’ pola dari data pelatihan dan, kemudian, membuat inferensi yang akurat tentang data baru.”
Intinya
Meskipun tampaknya objektif dan tidak memihak, algoritma yang digunakan profesional medis untuk membuat keputusan tertentu bisa rentan terhadap bias berdasarkan ras, kelas sosial, dan faktor lainnya. Oleh karena itu, algoritma tidak bisa hanya diterima begitu saja tanpa analisis ketat. Seperti yang dicatat dalam artikel tahun 2021 di MIT Technology Review, “Istilah ‘algoritma’, bagaimanapun didefinisikan, seharusnya bukan menjadi tameng untuk membebaskan manusia yang merancang dan menerapkan sistem dari tanggung jawab atas konsekuensinya.”