October 4, 2023

Tdia CEO OpenAI, Sam Altman, telah menghabiskan bulan lalu berkeliling ibu kota dunia di mana, dalam pembicaraan dengan orang banyak yang terjual habis dan dalam pertemuan dengan kepala pemerintahan, dia telah berulang kali berbicara tentang perlunya regulasi AI world.

Namun di balik layar, OpenAI telah melobi untuk elemen signifikan dari undang-undang AI paling komprehensif di dunia—Undang-Undang AI UE—agar dipermudah dengan cara yang akan mengurangi beban peraturan pada perusahaan, menurut dokumen tentang keterlibatan OpenAI dengan UE pejabat yang diperoleh TIME dari Komisi Eropa melalui permintaan kebebasan informasi.

Dalam beberapa kasus, OpenAI mengusulkan amandemen yang kemudian dibuat pada teks akhir undang-undang UE—yang disetujui oleh Parlemen Eropa pada 14 Juni, dan sekarang akan dilanjutkan ke putaran closing negosiasi sebelum diselesaikan secepatnya pada bulan Januari.

Baca selengkapnya: A sampai Z Kecerdasan Buatan

Pada tahun 2022, OpenAI berulang kali berargumen kepada pejabat Eropa bahwa Undang-Undang AI yang akan datang tidak boleh mempertimbangkan sistem AI tujuan umum—termasuk GPT-3, pendahulu ChatGPT, dan pembuat gambar Dall-E 2—sebagai “berisiko tinggi”, sebuah penunjukan yang akan membuat mereka tunduk pada persyaratan hukum yang ketat termasuk transparansi, ketertelusuran, dan pengawasan manusia.

Argumen itu membuat OpenAI sejalan dengan Microsoft, yang telah menginvestasikan $13 miliar ke dalam lab AI, dan Google, yang keduanya sebelumnya telah melobi pejabat UE untuk mendukung pelonggaran beban peraturan Undang-Undang tersebut pada penyedia AI besar. Kedua perusahaan berpendapat bahwa beban untuk mematuhi persyaratan Undang-undang yang paling ketat harus ditanggung oleh perusahaan yang secara eksplisit menetapkan untuk menerapkan AI pada kasus penggunaan berisiko tinggi—bukan pada perusahaan (sering kali lebih besar) yang membangun sistem AI tujuan umum.

“Dengan sendirinya, GPT-3 bukanlah sistem berisiko tinggi,” kata OpenAI dalam dokumen tujuh halaman yang sebelumnya tidak dipublikasikan yang dikirim ke pejabat Komisi dan Dewan Uni Eropa pada September 2022, berjudul Buku Putih OpenAI tentang Undang-Undang Kecerdasan Buatan Uni Eropa. “Tetapi [it] memiliki kemampuan yang berpotensi digunakan dalam kasus penggunaan berisiko tinggi.”

TIME menerbitkan Buku Putih secara lengkap bersama cerita ini.

Upaya melobi oleh OpenAI di Eropa ini belum pernah dilaporkan sebelumnya, meskipun Altman baru-baru ini menjadi lebih vokal tentang undang-undang tersebut. Pada bulan Mei, dia mengatakan kepada wartawan di London bahwa OpenAI dapat memutuskan untuk “berhenti beroperasi” di Eropa jika dianggap tidak dapat mematuhi peraturan tersebut, yang menurutnya dia mendapat “banyak” kritik. Dia kemudian mencabut peringatan itu, mengatakan perusahaannya tidak punya rencana untuk pergi dan berniat untuk bekerja sama dengan UE

Namun, upaya lobi OpenAI tampaknya berhasil: draf akhir Undang-Undang yang disetujui oleh anggota parlemen UE tidak berisi kata-kata yang ada dalam draf sebelumnya yang menunjukkan bahwa sistem AI tujuan umum harus dianggap berisiko tinggi secara inheren. Sebaliknya, undang-undang yang disepakati meminta penyedia apa yang disebut “mannequin dasar”, atau sistem AI yang kuat yang dilatih pada information dalam jumlah besar, untuk mematuhi beberapa persyaratan yang lebih kecil termasuk mencegah pembuatan konten ilegal, mengungkapkan apakah suatu sistem dilatih. pada materi berhak cipta, dan melakukan penilaian risiko. OpenAI mendukung pengenalan terlambat “mannequin dasar” sebagai kategori terpisah dalam Undang-Undang, kata juru bicara perusahaan kepada TIME.

Kembali pada bulan September 2022, bagaimanapun, kompromi yang tampak ini belum tercapai. Di salah satu bagian White Paper OpenAI yang dibagikan kepada pejabat Eropa pada saat itu, perusahaan menolak usulan amandemen Undang-Undang AI yang akan mengklasifikasikan sistem AI generatif seperti ChatGPT dan Dall-E sebagai “berisiko tinggi” jika mereka menghasilkan teks atau gambar yang dapat “secara keliru tampak oleh seseorang sebagai buatan manusia dan asli”. OpenAI mengatakan di Buku Putih bahwa amandemen ini berarti mannequin mereka “secara tidak sengaja” dapat dianggap berisiko tinggi dan merekomendasikan untuk membatalkan amandemen tersebut. Perusahaan berargumen bahwa akan cukup untuk mengandalkan bagian lain dari Undang-Undang tersebut, yang mengamanatkan penyedia AI untuk memberi label yang cukup pada konten yang dihasilkan AI dan menjelaskan kepada pengguna bahwa mereka berinteraksi dengan sistem AI.

Amandemen yang dipermasalahkan OpenAI tidak termasuk dalam teks akhir Undang-Undang AI yang disetujui oleh Parlemen Eropa pada bulan Juni. “Mereka mendapatkan apa yang mereka minta,” kata Sarah Chander, penasihat kebijakan senior di Hak Digital Eropa dan pakar Undang-Undang, yang meninjau Buku Putih OpenAI atas permintaan TIME. Dokumen itu, katanya, “menunjukkan bahwa OpenAI, seperti banyak perusahaan Teknologi Besar, telah menggunakan argumen utilitas dan manfaat publik dari AI untuk menutupi kepentingan finansial mereka dalam mempermudah regulasi.”

Dalam sebuah pernyataan kepada TIME, juru bicara OpenAI mengatakan: “Atas permintaan pembuat kebijakan di UE, pada September 2022 kami memberikan ikhtisar tentang pendekatan kami untuk menerapkan sistem seperti GPT-3 dengan aman, dan mengomentari draf saat itu. [AI Act] berdasarkan pengalaman itu. Sejak saat itu, [AI Act] telah berkembang secara substansial dan kami telah berbicara secara terbuka tentang kemampuan dan adopsi teknologi yang maju. Kami terus terlibat dengan pembuat kebijakan dan mendukung tujuan UE untuk memastikan alat AI dibuat, diterapkan, dan digunakan dengan aman sekarang dan di masa mendatang.”

Baca selengkapnya: Large Tech Sudah Melobi untuk Mengurangi Aturan AI Eropa

Pada Juni 2022, tiga bulan sebelum pengiriman Buku Putih, tiga anggota staf OpenAI bertemu dengan pejabat Komisi Eropa untuk pertama kalinya di Brussel. “OpenAI ingin Komisi mengklarifikasi kerangka risiko dan mengetahui bagaimana mereka dapat membantu,” catatan resmi pertemuan disimpan oleh Komisi dan diperoleh dari permintaan kebebasan informasi. “Mereka khawatir bahwa sistem AI tujuan umum akan dimasukkan sebagai sistem berisiko tinggi dan khawatir bahwa lebih banyak sistem, secara default, akan dikategorikan sebagai berisiko tinggi.” Pesan yang diambil pejabat dari pertemuan itu adalah bahwa OpenAI — seperti perusahaan Teknologi Besar lainnya — takut akan “regulasi berlebihan” yang dapat memengaruhi inovasi AI, menurut sumber Komisi Eropa yang mengetahui langsung tentang keterlibatan tersebut, yang meminta anonimitas karena mereka tidak berwenang untuk berbicara di depan umum. Staf OpenAI mengatakan dalam pertemuan bahwa mereka menyadari risiko dan melakukan semua yang mereka bisa untuk menguranginya, kata sumber itu, tetapi staf tidak secara eksplisit mengatakan bahwa, sebagai hasil dari upaya mereka, OpenAI harus tunduk pada peraturan yang tidak terlalu ketat. Mereka juga tidak mengatakan jenis peraturan apa yang ingin mereka lihat. “OpenAI tidak memberi tahu kami seperti apa regulasi yang baik itu,” kata orang tersebut.

White Paper tampaknya merupakan cara OpenAI untuk memberikan enter tersebut. Dalam satu bagian dokumen, OpenAI menjelaskan secara panjang lebar kebijakan dan mekanisme keamanan yang digunakannya untuk mencegah penyalahgunaan alat AI generatifnya, termasuk melarang pembuatan gambar individu tertentu, memberi tahu pengguna bahwa mereka berinteraksi dengan AI, dan mengembangkan alat untuk mendeteksi apakah suatu gambar dihasilkan oleh AI. Setelah menguraikan langkah-langkah ini, OpenAI tampaknya menyarankan bahwa langkah-langkah keamanan ini harus cukup untuk mencegah sistemnya dianggap “berisiko tinggi”.