Tekno

Apakah kecerdasan buatan mengelola pemerintah? Inilah yang kami ketahui

Administrasi Trump memungkinkan jalur chatbots AI.

Agen federal seperti Departemen Layanan Publik Dan Administrasi Jaminan Sosial Chatgpt-Asque telah meluncurkan pekerja mereka. itu Departemen Urusan Prajurit Lama Kecerdasan buatan digunakan untuk menulis kode.

Tentara Amerika telah dikerahkan Camogpt, Alat II Reed, untuk meninjau dokumen untuk menghilangkan referensi ke keragaman, keadilan dan inklusi. Lebih banyak alat turun di telepon. itu Kementerian Pendidikan Dia menyarankan untuk menggunakan Importir IQ untuk menjawab pertanyaan dari siswa dan keluarga tentang bantuan keuangan dan pembayaran pinjaman.

Intelijen monokologis bertujuan untuk mengotomatiskan tugas -tugas pekerja pemerintah sebelumnya, dengan 300.000 diskon dalam pekerjaan dari tenaga kerja federal pada akhir tahun.

Meg Young, peneliti di Data & Society, mengatakan, Institut Penelitian dan Kebijakan Independen di New York City.

“Kami berada dalam siklus kebisingan gila,” katanya.

Apa yang dilakukan oleh kecerdasan buatan pemerintah Amerika?

Saat ini, chatbots pemerintah bertujuan sebagian besar untuk tugas -tugas publik, seperti membantu pekerja federal menulis email dan merangkum dokumen. Tetapi Anda dapat mengharapkan lembaga pemerintah untuk segera memberi mereka tanggung jawab. Dalam banyak kasus, kecerdasan buatan kekanak -kanakan tidak pada tingkat tugas.

Misalnya, GSA Dia ingin menggunakan Ai tawylidi untuk tugas pembelian. Pembelian adalah proses hukum dan birokrasi yang dengannya pemerintah membeli barang dan jasa dari perusahaan swasta. Misalnya, pemerintah akan mengambil pembelian untuk menemukan kontraktor saat membangun gedung kantor baru.

Proses pembelian mencakup pengacara dari pemerintah dan perusahaan yang menegosiasikan kontrak yang memastikan bahwa Perusahaan mematuhi peraturan pemerintah, seperti persyaratan transparansi atau persyaratan undang -undang Disabilitas Amerika. Kontrak juga dapat berisi perbaikan kepada perusahaan setelah pengiriman produk.

Tidak jelas bahwa kecerdasan buatan akan mempercepat pembelian, menurut surat kabar Yong. Dikatakan, misalnya, dapat memudahkan pegawai pemerintah untuk mencari dan meringkas dokumen. Tetapi pengacara mungkin menemukan Amnesty International di subjek kesalahan yang terpapar penggunaannya dalam banyak langkah dalam pembelian, yang melibatkan negosiasi sejumlah besar uang. Ai Tolidi mungkin membuang waktu.

Pengacara harus dengan cermat memeriksa bahasa dalam kontrak ini. Dalam banyak kasus, mereka sudah menyetujui formulasi yang dapat diterima.

“Jika Anda memiliki chatbot menghasilkan kondisi baru, itu menciptakan banyak pekerjaan dan membakar banyak waktu hukum,” kata Young. “Waktu yang paling menghemat adalah salin dan tempel.”

Pekerja pemerintah juga harus waspada saat menggunakan kecerdasan buatan dalam masalah hukum, karena mereka tidak secara andal akurat dalam pemikiran hukum. A 2024 Studi Ditemukan bahwa chatbots dirancang khusus untuk penelitian hukum, yang dirilis oleh LexisNexis dan Thomson Ruteers, melakukan kesalahan realistis, atau halusinasi, dari 17 % hingga 33 % dari waktu.

Sorrani mengatakan bahwa perusahaan telah mengeluarkan alat hukum baru sejak itu, tetapi promosi memiliki masalah yang sama.

Apa saja jenis kesalahan yang dibuat oleh kecerdasan buatan?

Jenis kesalahan luas. Yang paling menonjol adalah pada tahun 2023, pengacara disetujui atas nama seorang pelanggan yang menggugat Avianca Airlines setelah mereka mati syahid dalam situasi yang tidak diketahui yang diciptakan oleh Chatgpt. Dalam contoh lain, Chatbot, pelatih, mengatakan tentang pemikiran hukum bahwa Mahkamah Agung Nebraska membatalkan Mahkamah Agung Amerika Serikat, kata Fayez Surni, rekan penulis studi 2024.

“Ini masih misterius bagiku,” katanya. “Sebagian besar sekolah menengah dapat memberi tahu Anda bahwa ini bukan cara kerja sistem peradilan di negara ini.”

Jenis kesalahan lainnya bisa lebih akurat. Studi ini menemukan bahwa chatbots mengalami kesulitan membedakan antara keputusan pengadilan dan argumen yudisial. Mereka juga menemukan contoh sebagai LLM yang dikutip berdasarkan undang -undang.

Surani juga menemukan bahwa kunci obrolan terkadang gagal mengidentifikasi ketidaktepatan klaim itu sendiri. Misalnya, ketika dia diminta untuk bertanya tentang keputusan seorang hakim fiksi bernama Luther A. Welgar, chatbot menjawab dalam kondisi nyata.

Logika hukum sangat sulit untuk kecerdasan buatan karena pengadilan berfluktuasi kasus legislatif dan badan -badan membatalkan undang -undang. Sorrani mengatakan bahwa sistem ini menjadikannya ekspresi tentang hukum, “Ini bisa 100 % benar di beberapa titik, maka segera berhenti untuk benar -benar benar.”

Ini dijelaskan dalam konteks teknik yang dikenal sebagai generasi yang dilengkapi, yang biasanya digunakan oleh kondisi hukum setahun yang lalu. Dalam teknologi ini, sistem pertama kali menggabungkan beberapa kasus yang relevan dari database sebagai respons terhadap klaim dan menciptakan hasilnya berdasarkan kasus ini.

Tetapi metode ini masih sering menghasilkan kesalahan, saya menemukan studi 2024. Wade dan Planthood V. Casey, misalnya, katakan ya. Tapi itu akan salah, karena ROE ditolak oleh Organisasi Kesehatan Wanita Dobbs V. Jackson.

Selain itu, hukum itu sendiri bisa misterius. Misalnya, undang -undang pajak Tidak selalu jelas Apa yang dapat Anda hapus sebagai biaya medis, sehingga pengadilan dapat mempertimbangkan kasus individu.

“Pengadilan memiliki perbedaan sepanjang waktu, jadi jawabannya, bahkan jika itu tampaknya pertanyaan sederhana, bisa agak tidak jelas,” kata Leg Osovsky, seorang profesor hukum di North Carolina University, Chaplin Hill.

Apakah pajak Anda dikirim ke chatbot?

Meskipun Internal Revenue Service saat ini tidak menyediakan program chatbot, yang berfungsi atas nama kecerdasan buatan untuk penggunaan publik, a 2024 Laporan Otoritas Pajak Dia merekomendasikan lebih banyak investasi dalam kemampuan kecerdasan buatan untuk obrolan seperti itu.

Kecerdasan buatan yang keras tentu dapat berguna dalam pemerintahan. A Program Eksperimental Di Pennsylvania, dalam kemitraan dengan Openai, misalnya, ini menunjukkan bahwa penggunaan chatgpt telah menyelamatkan orang 95 menit sehari dalam tugas administratif seperti menulis email dan meringkas dokumen.

Young mencatat bahwa para peneliti yang mengelola program melakukan ini dengan cara yang terukur, dengan mengizinkan 175 karyawan untuk mengeksplorasi bagaimana chatgpt dapat masuk ke dalam alur kerja saat ini.

Tetapi pemerintahan Trump tidak mengikuti kejang serupa.

“Proses yang mereka ikuti ini menunjukkan bahwa mereka tidak peduli jika kecerdasan buatan bekerja untuk tujuan yang dinyatakan,” kata Young. “Ini sangat cepat. Ini tidak dirancang dalam fungsi orang -orang tertentu. Ini tidak dipublikasikan dengan cermat untuk tujuan sempit.”

Pemerintahan GSAI telah merilis jadwal yang dipercepat menjadi 13.000 orang.

Pada tahun 2022, Osovsky Saya melakukan studi Bimbingan hukum pemerintah, termasuk chatbots. Chatbots tidak menggunakan kecerdasan buatan. Studi mereka membuat beberapa rekomendasi kepada pemerintah tentang chatbots untuk penggunaan umum, seperti yang diusulkan oleh Kementerian Pendidikan.

Mereka merekomendasikan keberadaan chatbots dengan evakuasi tanggung jawab yang memberi tahu pengguna bahwa mereka tidak berbicara dengan seseorang. Chatbot juga harus menjelaskan bahwa penghapusannya tidak mengikat secara hukum.

Saat ini, jika Chatbot memberi tahu Anda bahwa Anda diizinkan untuk mengurangi pengeluaran kerja tertentu, tetapi otoritas pajak tidak setuju, Anda tidak dapat memaksa otoritas pajak untuk mengikuti respons chatbot, dan chatbot harus mengatakan itu dalam produksinya.

Lembaga pemerintah juga perlu mengadopsi “serangkaian kepemimpinan yang jelas” yang menunjukkan siapa yang bertanggung jawab untuk menciptakan obrolan dan pemeliharaan ini.

Selama studi mereka, mereka sering menemukan bahwa orang yang mengembangkan obrolan adalah ahli teknologi yang agak mengenakan karyawan lain di departemen. Ketika pendekatan agensi berubah dalam panduan hukum, tidak selalu jelas bagaimana pengembang harus memperbarui grup obrolan mereka.

Dengan pemerintah mengintensifkan penggunaan kecerdasan buatan kebidanan, penting untuk diingat bahwa teknologi masih dalam masa pertumbuhan. Anda mungkin memercayainya untuk mencapai resep dan menulis belasungkawa, tetapi tata kelola benar -benar berbeda.

Young mengatakan perusahaan teknologi belum tahu kasus penggunaan kecerdasan buatan apa yang akan berguna. Openai, Hothropic dan Google secara aktif mencari kasus penggunaan ini oleh Kemitraan dengan pemerintah.

“Kami masih dalam hari -hari pertama menilai apa itu kecerdasan buatan dan tidak berguna di pemerintahan,” kata Young.

Tautan sumber

Related Articles

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *