
THari ini, Gedung Putih dengan bangga mengumumkan telah menerima “komitmen sukarela” dari perusahaan teknologi seperti Microsoft, Meta, dan OpenAI untuk mendukung regulasi kecerdasan buatan yang akan datang. Sepintas lalu, ini adalah isyarat meyakinkan dari perusahaan teknologi yang memegang “kepunahan manusia” di telapak tangan mereka, tetapi orang Amerika harus menerima basa-basi mereka dengan sebutir garam.
Lebih dari satu dekade setelah Mark Zuckerberg menciptakan mantra “bergerak cepat dan hancurkan,” publik akhirnya menyadari efek negatif serius yang dimiliki platform media sosial terhadap kesehatan psychological kaum muda, dan kehancuran dalam demokrasi dan kesehatan masyarakat kita yang telah ditinggalkan Massive Tech.
Sekarang, Massive Tech ingin “meluncurkan dan mengulangi” eksperimen lab baru pada masyarakat yang ditulis secara besar-besaran, kali ini dengan kecerdasan buatan. Para pemimpin di lapangan setuju bahwa “regulasi cerdas” diperlukan untuk menghindari kerugian serius bagi umat manusia, tetapi AI sudah terjalin ke dalam jalinan kehidupan sehari-hari arus utama. Seruan untuk kerja sama dan janji yang menghangatkan hati ini difokuskan pada risiko di masa depan tanpa pengakuan yang memadai atas kerugian nyata dan terdekat yang terjadi pada anak-anak saat ini.
Waktu untuk bergerak cepat dan memperbaiki keadaan adalah sekarang. Anak-anak menggunakan alat AI, dalam banyak kasus tanpa sepengetahuan orang tua atau guru mereka, menurut studi Widespread Sense, dan banyak yang sudah lebih sering menggunakannya daripada menggunakan Google.
Adopsi AI yang luas di antara anak-anak dapat menghadirkan banyak risiko nyata, privasi information menjadi yang utama di antara mereka. Chatbot populer seperti “MyAI” Snapchat dapat dengan cepat mengekstraksi dan memproses sejumlah besar information pribadi, berpotensi membuat anak-anak terpapar ancaman dunia maya, iklan bertarget, dan konten yang tidak pantas.
Pengawasan anak-anak yang digerakkan AI juga bisa merusak. Karena AI hanya sebaik keputusan programmer yang mendesainnya, penggunaan deteksi wajah, vokal, dan emosional dapat menyebabkan kerugian yang tidak proporsional bagi kelompok yang terpinggirkan. Penelitian telah menunjukkan bahwa ketidakakuratan algoritme pengenalan wajah pada warna kulit yang lebih gelap dapat mengakibatkan penangguhan yang tidak adil dan tindakan disipliner bagi siswa kulit berwarna. Bahkan solusi AI yang bermaksud baik memiliki potensi untuk melanggengkan bias yang tidak adil, terutama jika solusi tersebut tidak mempertahankan keragaman penuh di antara siswa dan menjangkar ekuitas di pusat pengalaman.
Baca Lebih Lanjut: Argumen Darwin untuk Mengkhawatirkan AI
Artinya, transparansi dari teknolog AI tidak boleh dinegosiasikan. ChatGPT tidak dapat memahami konteks permintaan, dan biasanya tidak mengutip referensi atau tautan tepercaya yang memungkinkan pengguna menjelajahi sumber yang mendasarinya, yang dapat menyebabkan penyebaran informasi yang salah, atau lebih buruk. Publik harus memiliki akses ke batasan mannequin yang diketahui dan kinerja sistem AI, yang ditentukan oleh sekumpulan parameter yang secara unik berlaku untuk AI seperti akurasi, daya ingat, dan presisi. Dengan begitu, pengguna tidak disesatkan untuk mempercayai hasil yang salah, tidak lengkap, atau tidak pantas.
Jika kita belajar sesuatu dari ledakan media sosial, pemerintah tidak akan bergerak cepat untuk menetapkan kebijakan teknologi yang menguntungkan anak-anak. Pelobi teknologi yang kuat berjuang untuk melindungi hak perusahaan untuk merancang produk untuk orang dewasa, dan beberapa dari produk tersebut nantinya akan dianggap berbahaya bagi anak-anak. Mereka memiliki rekam jejak kemenangan yang mengesankan – terlepas dari bukti yang jelas bahwa keuntungan perusahaan menggantikan perlindungan anak – dan, akibatnya, laju perubahan legislatif secara tragis menjadi lamban.
Sekarang, ada harapan bahwa pembuat kebijakan mungkin lebih tahu. Anggota parlemen Eropa menunjukkan kepemimpinan yang mengesankan dalam berkolaborasi dengan regulator untuk mengembangkan pagar pembatas untuk perlindungan anak. RUU Keamanan Daring Inggris akan menetapkan tugas perawatan dan transparansi untuk AI dan Undang-Undang AI UE mencakup persyaratan khusus untuk “mannequin dasar” seperti ChatGPT OpenAI, yang semuanya telah menyebabkan ahli teknologi seperti Sam Altman berpikir dua kali untuk bergerak cepat ke Eropa. Jenis tarik-ulur ini menghasilkan lingkungan yang lebih berhati-hati yang, pada akhirnya, akan menguntungkan anak-anak dan membantu kita mengatasi risiko AI yang meluas.
Secara keseluruhan, ada risiko yang sangat besar jika tidak bertindak, terlepas dari banyak kemungkinan menjanjikan yang ditawarkan AI. Daripada “dapatkah AI digunakan untuk tugas ini?”, pertanyaan pertama harus selalu “sebaiknya AI digunakan untuk tugas ini?” Karena jika menyangkut anak-anak, kita harus benar-benar yakin bahwa manfaatnya lebih besar daripada risikonya. Kita harus menerapkan pelajaran dari media sosial dan mendesak pembuat kebijakan dan perusahaan teknologi untuk melindungi privasi, keselamatan, dan kesehatan psychological anak-anak. Jika kita membiarkan mereka bergerak cepat dan merusak sesuatu dengan AI, anak-anak akan menjadi pecundang terbesar.