Panduan Gedung Putih yang baru meremehkan bahaya AI yang penting

Mengikuti a Perintah eksekutif Februari 2019 , Kantor Manajemen dan Anggaran AS (OMB) mengeluarkan panduan terakhir tentang regulasi kecerdasan buatan (AI) pada 17 November 2020. Dokumen ini menyajikan strategi pemerintah A.S. terhadap pengawasan AI, dan karena itu patut untuk diteliti dengan cermat. Panduan Gedung Putih beralasan dan mencerminkan pemahaman yang bernuansa AI; namun, ada juga penyebab nyata kekhawatiran mengenai dampak jangka panjang pada regulasi AI.

Untuk memulai, ada banyak aspek positif dari panduan Peraturan AI Gedung Putih. Cakupannya masuk akal, mengingat bahwa regulasi AI sektor swasta secara fundamental berbeda dari penerapan sistem AI pemerintah, meninggalkan yang terakhir untuk dokumen terpisah. Ini juga dengan tepat mengusulkan pendekatan terhadap AI di mana regulasi khusus untuk sektor dan jenis aplikasi AI, daripada kebijakan menyeluruh yang tidak masuk akal di seluruh spektrum penggunaan AI yang luas. Dokumen OMB mengambil pendekatan berbasis risiko, menyarankan prioritas perlindungan yang lebih kuat untuk sistem AI yang menunjukkan potensi risiko yang lebih tinggi. Dokumen tersebut juga meminta lembaga federal untuk bekerja dengan badan standar, secara khusus meminta mereka untuk mematuhi National Institute of Standards and Technology. rencana keterlibatan federal untuk mengembangkan standar teknis AI .

Aspek lain dari bimbingan kurang positif. Nada dokumen tersebut sangat ngotot pada janji pengembangan dan inovasi AI, terutama untuk pertumbuhan ekonomi, tulisan yang mempromosikan inovasi dan pertumbuhan AI adalah prioritas tinggi pemerintah AS. Ini bisa dimengerti, karena ekonomi digital menyumbang untuk lebih dari 9% dari PDB dan tumbuh sebesar 6,8% per tahun sebelum pandemi COVID-19. AI adalah bagian besar dari sektor itu, dan juga berkembang ke banyak sektor lainnya. Namun, meskipun nilai ekonomi AI penting, panduan ini terlalu fokus pada argumen bahwa regulasi tidak boleh menghambat inovasi dan penerapannya. Dokumen tersebut mencatat serangkaian pendekatan non-regulasi terhadap AI dan memiliki bagian tentang pengurangan hambatan dalam penerapan dan penggunaan AI, tetapi tidak diimbangi dengan kontekstualisasi luas dari bahaya AI.



Panduan OMB dengan jelas menyatakan bahwa banyak aplikasi AI tidak selalu menimbulkan masalah baru. Klaim ini sebagian benar, karena pemerintah tidak perlu khawatir dengan banyak aplikasi AI. Namun kebalikannya juga benar: banyak aplikasi AI sektor swasta benar-benar mengangkat masalah baru. Sistem AI dapat mensistematisasikan diskriminasi dan mendistribusikan kembali daya dari konsumen dan karyawan garis depan. Sistem AI juga dapat memungkinkan pengawasan perusahaan skala besar. Mereka dapat melakukan semua ini, sambil membuat proses lebih sulit untuk dipahami oleh individu, dan berpotensi merusak jalur hukum mereka untuk kerugian.

mengapa bernie sanders sebenarnya menang

Isu-isu ini tidak sepenuhnya diabaikan dalam dokumen Gedung Putih. Ini mencantumkan sepuluh prinsip untuk pengelolaan aplikasi AI, yang konsisten dengan rekomendasi dari pakar AI etis terkemuka. Daftar itu meliputi: Kepercayaan Publik pada AI, Partisipasi Publik, Penilaian dan Manajemen Risiko, Keadilan dan Non-Diskriminasi, dan Pengungkapan dan Transparansi. Masalahnya adalah bahwa kriteria ini dibingkai sebagai daftar periksa yang harus dikerjakan sebelum lembaga dapat menerapkan aturan baru tentang AI. Tepat sebelum daftar prinsip, pedoman menyatakan Lembaga harus mempertimbangkan peraturan baru hanya ... mengingat bagian sebelumnya ... bahwa Peraturan Federal diperlukan. Dipasangkan dengan pembingkaian dokumen anti-peraturan yang lebih luas, ini menunjukkan niat untuk mendahului tindakan pengaturan.

Preemption bermasalah karena kita sudah tahu ada area yang membutuhkan penegakan dan regulasi yang lebih ketat. Badan Pengawas Obat dan Makanan adalah mempertimbangkan bagaimana menyesuaikan aturan mereka untuk memastikan keamanan perangkat medis yang disempurnakan dengan AI sambil tetap memungkinkannya untuk diperbarui dengan data baru. Departemen Tenaga Kerja dan Equal Employment Opportunity Commission harus melihat bagaimana alat algoritmik memengaruhi kompensasi pekerja, keselamatan tempat kerja, dan proses perekrutan . Layanan Kesehatan dan Kemanusiaan harus belajar untuk menegakkan perlindungan hukum non-diskriminasi pada layanan kesehatan yang dialokasikan secara algoritmik. Demikian pula, Departemen Perhubungan butuh aturan baru untuk memastikan keamanan kendaraan otonom.

Dengan tidak adanya peraturan dan proses penegakan yang diperbarui, status quo memudahkan untuk menghindari hukum dengan menggunakan algoritme. Mengawasi algoritma membutuhkan ide-ide baru , keahlian teknis, dan kapasitas tambahan, serta Gedung Putih dan OMB harus mendorong lembaga untuk mengatasi risiko baru AI. Sayangnya, dalam aturan final mengenai standar dampak yang berbeda, Pembangunan Perumahan dan Perkotaan mengabaikan tantangan baru AI, membuatnya tidak mungkin bagi penggugat untuk membuktikan bahwa mereka didiskriminasi oleh algoritma.

imigrasi di abad 21

Di luar pengaruh langsung pada pembuatan peraturan lembaga, pedoman ini juga dapat mempengaruhi peran OMB di masa depan, terutama badan peninjau peraturannya, Kantor Urusan Informasi dan Pengaturan (OIRA). Kadang-kadang dalam empat puluh tahun sejarahnya, OIRA telah bermain peran penjaga gerbang regulasi yang aktif. Peran ini terutama difokuskan pada 'tindakan regulator yang signifikan', yang mencakup aturan yang diperkirakan memiliki dampak ekonomi lebih dari 0 juta atau peraturan alternatif yang mengangkat masalah hukum atau kebijakan baru . Sementara beberapa peraturan AI kemungkinan akan memenuhi kriteria dampak ekonomi, pasti lebih banyak lagi yang akan mengangkat isu-isu baru dalam hukum dan kebijakan. Staf OIRA yang relatif kecil, dibagi menjadi beberapa kelompok yang ditugaskan ke lembaga federal yang berbeda, mungkin tidak memiliki keahlian AI yang diperlukan untuk mempertimbangkan secara efektif aturan baru yang muncul ini. Tidak pasti bagaimana masalah ini akan berkembang, tetapi ada kemungkinan bahwa pedoman Gedung Putih, sebagaimana ditafsirkan oleh OIRA, menciptakan beban kepatuhan baru.

Mungkin tidak perlu waktu lama untuk mengetahui apa dampak dari panduan ini. Mungkin kontribusinya yang paling berharga dari panduan ini adalah meminta lembaga federal untuk menyediakan rencana kepatuhan dalam waktu enam bulan (sebelum 17 Mei 2021). Dengan masuknya penunjukan baru dari pemerintahan Biden, ada kemungkinan bahwa dokumen ini mendorong ide-ide baru dan tingkat tindakan yang belum pernah terjadi sebelumnya untuk membangun peraturan AI yang masuk akal dan efektif. Harapannya, OIRA akan bekerja terutama untuk mendorong pertukaran pengetahuan dan kerjasama antar instansi, seperti yang dikatakan Cass Sunstein .

Ini mungkin masalahnya. Namun, ada alasan untuk khawatir dalam pembingkaian dokumen ini, dan efeknya akan sangat bergantung pada bagaimana dokumen itu ditafsirkan dan didekati oleh staf lembaga di masa depan. Sulit membayangkan bahwa mengubah pedoman ini akan menjadi prioritas utama Gedung Putih Biden, mengingat semua masalah mendesak lainnya. Namun ada risiko nyata bahwa dokumen ini menjadi kekuatan untuk mempertahankan status quo, sebagai lawan untuk mengatasi bahaya AI yang serius.