Akankah robot menggantikan dokter?

Vinod Khosla, seorang investor legendaris Silicon Valley, berpendapat bahwa robot akan menggantikan dokter pada tahun 2035. Dan ada beberapa bukti bahwa dia mungkin benar.

berapa banyak anak di bawah umur di AS

KE studi 2017 dari Rumah Sakit Umum Massachusetts dan MIT menunjukkan bahwa sistem kecerdasan buatan (AI) sama atau lebih baik daripada ahli radiologi dalam membaca mammogram untuk lesi kanker berisiko tinggi yang memerlukan pembedahan. Setahun sebelumnya, dan dilaporkan oleh Journal of American Medical Association, Google menunjukkan bahwa komputer mirip dengan dokter mata dalam memeriksa gambar retina penderita diabetes. Dan baru-baru ini, robot yang dikendalikan komputer berhasil melakukan operasi usus pada babi. Sementara robot membutuhkan waktu lebih lama daripada manusia, jahitannya jauh lebih baik—lebih presisi dan seragam dengan lebih sedikit kemungkinan patah, bocor, dan infeksi. Penguat teknologi percaya bahwa AI akan menghasilkan lebih banyak perawatan berbasis bukti, perawatan yang lebih dipersonalisasi, dan lebih sedikit kesalahan.

Tentu saja, meningkatkan hasil diagnostik dan terapeutik adalah tujuan yang patut dipuji. Tetapi AI hanya sebaik manusia yang memprogramnya dan sistem di mana ia beroperasi. Jika kita tidak berhati-hati, AI tidak dapat membuat perawatan kesehatan menjadi lebih baik, tetapi sebaliknya secara tidak sengaja memperburuk banyak aspek terburuk dari sistem perawatan kesehatan kita saat ini.



Menggunakan pembelajaran yang mendalam dan mesin, sistem AI menganalisis sejumlah besar data untuk membuat prediksi dan merekomendasikan intervensi. Kemajuan dalam daya komputasi telah memungkinkan pembuatan dan analisis hemat biaya dari kumpulan data besar klaim pembayar, data catatan kesehatan elektronik, gambar medis, data genetik, data laboratorium, data resep, email klinis, dan informasi demografis pasien untuk mendukung model AI.

AI 100 persen bergantung pada data ini, dan seperti segala sesuatu dalam komputasi, sampah masuk, sampah keluar, seperti kata pepatah. Kekhawatiran utama tentang semua kumpulan data perawatan kesehatan kami adalah bahwa mereka dengan sempurna mencatat sejarah perbedaan yang tidak dapat dibenarkan dan tidak adil dalam akses, perawatan, dan hasil di seluruh Amerika Serikat.

Menurut laporan 2017 oleh National Academy of Medicine pada kesenjangan perawatan kesehatan, non-kulit putih terus mengalami hasil yang lebih buruk untuk kematian bayi, obesitas, penyakit jantung, kanker, stroke, HIV/AIDS, dan kematian secara keseluruhan. Yang mengejutkan, penduduk asli Alaska menderita kematian bayi 60 persen lebih tinggi daripada orang kulit putih. Dan lebih buruk, kematian AIDS untuk Afrika Amerika sebenarnya meningkat. Bahkan di antara orang kulit putih, ada perbedaan geografis yang substansial dalam hasil dan kematian. Bias berdasarkan status sosial ekonomi dapat diperburuk dengan memasukkan data yang dihasilkan pasien dari sensor mahal, telepon, dan media sosial.

Data yang kami gunakan untuk melatih model AI kami dapat menghasilkan hasil yang melanggengkan—dan bahkan memperburuk—daripada memperbaiki perbedaan yang membandel ini. Mesin tidak dan tidak dapat memverifikasi keakuratan data dasar yang diberikan. Sebaliknya, mereka menganggap data tersebut sangat akurat, mencerminkan kualitas tinggi, dan mewakili perawatan dan hasil yang optimal. Oleh karena itu, model yang dihasilkan akan dioptimalkan untuk mendekati hasil yang kami hasilkan hari ini. Bahkan lebih sulit untuk mengatasi perbedaan yang dihasilkan AI karena modelnya sebagian besar adalah kotak hitam yang dirancang oleh mesin dan tidak dapat dijelaskan, dan jauh lebih sulit untuk diaudit daripada proses pengiriman perawatan kesehatan manusia saat ini.

Tantangan besar lainnya adalah bahwa banyak dokter membuat asumsi dan pilihan perawatan yang tidak didokumentasikan dengan rapi sebagai data terstruktur. Dokter yang berpengalaman mengembangkan intuisi yang memungkinkan mereka untuk mengidentifikasi pasien yang sakit meskipun dia mungkin terlihat identik dengan pasien lain yang kurang sakit dengan nomor yang dimasukkan ke dalam program komputer. Hal ini menyebabkan beberapa pasien diperlakukan secara berbeda dari yang lain karena alasan yang sulit untuk disaring dari data catatan kesehatan elektronik. Penilaian klinis ini tidak terwakili dengan baik oleh data.

Tantangan ini tampak besar ketika sistem kesehatan mencoba menggunakan AI. Misalnya, ketika Pusat Medis Universitas Pittsburgh (UPMC) dievaluasi risiko kematian akibat pneumonia pasien yang tiba di unit gawat darurat mereka, model AI memperkirakan bahwa kematian turun ketika pasien berusia di atas 100 tahun atau memiliki diagnosis asma. Sementara model AI menganalisis data yang mendasarinya dengan benar—UPMC memang memiliki angka kematian yang sangat rendah untuk kedua kelompok ini. Tidak benar untuk menyimpulkan bahwa mereka berisiko lebih rendah. Sebaliknya, risiko mereka sangat tinggi sehingga staf unit gawat darurat memberi pasien ini antibiotik bahkan sebelum mereka didaftarkan ke dalam rekam medis elektronik, sehingga stempel waktu untuk antibiotik penyelamat nyawa tidak akurat. Tanpa memahami asumsi dokter dan dampaknya terhadap data—dalam hal ini waktu pemberian antibiotik yang akurat—analisis semacam ini dapat mengarah pada protokol yang diilhami AI yang membahayakan pasien berisiko tinggi. Dan ini bukan contoh yang terisolasi; dokter membuat ratusan asumsi seperti ini setiap hari, dalam berbagai kondisi.

Sebelum kami mempercayakan perawatan kami ke sistem AI dan robot dokter, pertama-tama kami harus berkomitmen untuk mengidentifikasi bias dalam kumpulan data dan memperbaikinya sebanyak mungkin. Lebih lanjut, sistem AI perlu dievaluasi tidak hanya pada keakuratan rekomendasinya, tetapi juga pada apakah sistem tersebut melestarikan atau mengurangi perbedaan dalam perawatan dan hasil. Salah satu pendekatannya adalah dengan membuat kumpulan data uji nasional dengan dan tanpa bias yang diketahui untuk memahami bagaimana model disesuaikan untuk menghindari perawatan yang tidak etis dan rekomendasi klinis yang tidak masuk akal. Kita bisa melangkah lebih jauh dan memanfaatkan peer review untuk mengevaluasi temuan dan membuat saran untuk meningkatkan sistem AI. Ini mirip dengan pendekatan yang sangat efektif yang digunakan oleh National Institutes of Health untuk mengevaluasi aplikasi hibah dan oleh jurnal untuk mengevaluasi temuan penelitian. Intervensi ini bisa sangat membantu meningkatkan kepercayaan publik pada AI dan mungkin, suatu hari nanti, memungkinkan pasien untuk menerima jenis perawatan yang tidak bias yang seharusnya diberikan oleh dokter manusia selama ini.