September 23, 2023

Risiko eksistensial yang ditimbulkan oleh kecerdasan buatan (AI) kini telah diakui secara luas.

Setelah ratusan pemimpin industri dan sains memperingatkan bahwa “memitigasi risiko kepunahan AI harus menjadi prioritas world bersama dengan risiko skala sosial lainnya seperti pandemi dan perang nuklir,” Sekretaris Jenderal PBB baru-baru ini menggemakan keprihatinan mereka. Begitu pula perdana menteri Inggris, yang juga menginvestasikan 100 juta pound untuk penelitian keamanan AI yang sebagian besar dimaksudkan untuk mencegah risiko eksistensial. Pemimpin lain cenderung mengikuti dalam mengenali ancaman utama AI.

Dalam bidang ilmiah risiko eksistensial, yang mempelajari kemungkinan besar penyebab kepunahan manusia, AI secara konsisten menduduki peringkat teratas dalam daftar. Di dalam Jurangsebuah buku oleh peneliti risiko eksistensial Oxford Toby Ord yang bertujuan untuk mengukur risiko kepunahan manusia, kemungkinan AI menyebabkan kepunahan manusia melebihi perubahan iklim, pandemi, serangan asteroid, gunung api tremendous, dan perang nuklir digabungkan. Orang akan berharap bahwa bahkan untuk masalah world yang parah, risiko yang menyebabkan kepunahan manusia secara penuh relatif kecil, dan ini memang berlaku untuk sebagian besar risiko di atas. AI, bagaimanapun, dapat menyebabkan kepunahan manusia jika hanya beberapa kondisi yang terpenuhi. Diantaranya adalah AI tingkat manusia, yang didefinisikan sebagai AI yang dapat melakukan berbagai tugas kognitif setidaknya sebaik yang kita bisa. Studi yang menguraikan ide-ide ini sebelumnya telah diketahui, tetapi terobosan AI baru telah menggarisbawahi urgensinya: AI mungkin sudah mendekati stage manusia.

Perbaikan diri secara rekursif adalah salah satu alasan mengapa akademisi risiko eksistensial menganggap AI tingkat manusia sangat berbahaya. Karena AI tingkat manusia dapat melakukan hampir semua tugas di tingkat kita, dan karena melakukan penelitian AI adalah salah satu dari tugas tersebut, maka AI tingkat lanjut seharusnya dapat meningkatkan keadaan AI. Meningkatkan AI secara terus-menerus akan menciptakan putaran umpan balik positif tanpa batasan yang ditetapkan secara ilmiah: ledakan kecerdasan. Titik akhir dari ledakan kecerdasan ini bisa menjadi kecerdasan tremendous: AI seperti dewa yang mengakali kita seperti manusia yang sering mengakali serangga. Kami tidak akan cocok untuk itu.

Oleh karena itu, AI superintelligent kemungkinan besar dapat mengeksekusi tujuan apa pun yang diberikan. Tujuan seperti itu pada awalnya diperkenalkan oleh manusia, tetapi mungkin berasal dari aktor jahat, atau tidak dipikirkan dengan matang, atau mungkin rusak selama pelatihan atau penerapan. Jika tujuan yang dihasilkan bertentangan dengan apa yang menjadi kepentingan terbaik umat manusia, superintelijen akan berusaha untuk melaksanakannya tanpa mempedulikannya. Untuk melakukannya, pertama-tama ia dapat meretas sebagian besar web dan kemudian menggunakan perangkat keras apa pun yang terhubung dengannya. Atau bisa menggunakan kecerdasannya untuk menyusun narasi yang sangat meyakinkan bagi kita. Dikombinasikan dengan akses yang diretas ke garis waktu media sosial kita, itu bisa menciptakan realitas palsu dalam skala besar. Seperti yang dikatakan Yuval Harari baru-baru ini: “Jika kita tidak berhati-hati, kita mungkin terjebak di balik tirai ilusi, yang tidak dapat kita singkirkan—atau bahkan sadari ada di sana.” Sebagai opsi ketiga, setelah menghasilkan uang secara authorized atau meretas sistem keuangan kita, intelijen tremendous dapat dengan mudah membayar kita untuk melakukan tindakan apa pun yang diperlukan dari kita. Dan ini hanyalah beberapa strategi yang dapat digunakan AI superintelligent untuk mencapai tujuannya. Kemungkinan masih banyak lagi. Ibarat bermain catur melawan grandmaster Magnus Carlsen, kita tidak bisa memprediksi gerakan yang akan dia mainkan, tapi kita bisa memprediksi hasilnya: kita kalah.

Tapi mengapa superintelijen ingin membuat umat manusia punah? Faktanya, itu mungkin tidak secara eksplisit menginginkannya sama sekali. Kepunahan umat manusia mungkin hanyalah efek samping dari pelaksanaan tujuan lain hingga ke ujungnya. Ketika kita menjalankan tujuan kita sendiri sebagai manusia, seperti produksi pangan atau menumbuhkan ekonomi kita, kita cenderung tidak terlalu memperhatikan efeknya terhadap spesies lain. Ini secara rutin mengarah pada kepunahan spesies hewan hanya sebagai efek samping dari memaksimalkan tujuan kita. Dengan cara yang sama, kecerdasan tremendous yang tidak terkendali dapat menyebabkan kepunahan kita sebagai efek samping dari AI yang mendorong tujuannya, apa pun itu, hingga batasnya.

Baca selengkapnya: A sampai Z Kecerdasan Buatan

Jadi bagaimana kita bisa menghindari risiko eksistensial AI? Umat ​​manusia sekarang menghadapi pilihan yang sulit: hentikan AI pada tingkat yang aman, atau lanjutkan pengembangan tanpa batas. Tidak mengherankan, laboratorium AI menginginkan yang terakhir. Akan tetapi, melanjutkan berarti benar-benar mempertaruhkan nyawa kita agar laboratorium ini mampu memecahkan masalah ilmiah terbuka yang disebut Penyelarasan AI.

AI Alignment adalah pendekatan yang saat ini dilakukan oleh laboratorium terkemuka seperti OpenAI, DeepMind, dan Anthropic untuk mencegah kepunahan manusia. Alignment AI tidak mencoba untuk mengontrol seberapa kuat AI, tidak mencoba untuk mengontrol apa yang sebenarnya akan dilakukan oleh AI, dan bahkan tidak berusaha untuk mencegah potensi pengambilalihan terjadi. Karena laboratorium mengantisipasi bahwa mereka tidak akan dapat mengontrol AI superintelijen yang mereka buat, mereka menerima bahwa AI semacam itu akan bertindak secara mandiri dan tidak dapat dihentikan, tetapi bertujuan untuk membuatnya bertindak sesuai dengan nilai-nilai kita. Seperti yang dikatakan oleh Richard Ngo, seorang peneliti penyelarasan terkemuka yang bekerja di OpenAI, “Saya ragu kami akan dapat membuat setiap lingkungan penerapan aman terhadap kekuatan intelektual penuh dari AGI superintelligent.” Ada masalah besar dengan pendekatan penyelarasan mereka, baik secara basic maupun teknis.

Pada dasarnya, tentu saja tidak ada kesepakatan tentang nilai-nilai apa yang kita miliki. Apa yang ingin dilakukan pendiri OpenAI Sam Altman oleh superintelligence mungkin sama sekali berbeda dari apa, katakanlah, seorang pekerja tekstil di Bangladesh ingin melakukannya. Mengumpulkan preferensi manusia selalu menjadi masalah pelik bahkan sebelum AI, tetapi akan menjadi lebih rumit ketika kita memiliki kecerdasan tremendous yang mungkin dapat dengan cepat, lengkap, dan mengimplementasikan keinginan segelintir CEO secara world. Demokrasi, betapapun tidak sempurnanya, sejauh ini telah menjadi solusi terbaik yang dapat kita temukan untuk agregasi nilai. Namun, tidak jelas apakah kombinasi sistem politik nasional kita saat ini dapat mengendalikan AI yang seperti dewa. Faktanya, tidak jelas apakah ada organisasi atau sistem yang akan melakukan tugas tersebut.

Di luar ketidaksepakatan atas nilai-nilai saat ini, manusia secara historis tidak pandai memprediksi eksternalitas masa depan dari teknologi baru. Krisis iklim, misalnya, dapat dilihat sebagai hasil tak terduga dari teknologi seperti mesin uap dan pembakaran inside. Teknologi yang semakin kuat memiliki potensi untuk menciptakan eksternalitas yang semakin besar. Tidak mungkin untuk meramalkan apa efek samping negatif dari penerapan beberapa interpretasi nilai-nilai kemanusiaan saat ini. Mereka mungkin membuat perubahan iklim menjadi pucat jika dibandingkan.

Ada lebih banyak masalah mendasar yang belum terpecahkan dengan menyelaraskan superintelligence, tetapi saat ini, perusahaan AI bahkan tidak sampai sejauh itu. Tampaknya bahkan membuat jaringan saraf besar saat ini andal melakukan apa siapa pun inginkan adalah masalah teknis yang saat ini tidak dapat kami selesaikan. Ini disebut misalignment batin dan telah diamati dalam AI saat ini: mannequin mengejar tujuan yang salah ketika dilepaskan ke dunia nyata setelah dilatih pada kumpulan information terbatas. Untuk superintelijen, ini bisa berakibat bencana. Masalah ini, menurut dokumen terbaru OpenAI, Governance of Superintelligence, merupakan “pertanyaan penelitian terbuka”. Tapi jangan khawatir: mereka mengatakan mereka “mengusahakan banyak” untuk itu.

Baca selengkapnya: Perlombaan Senjata AI Mengubah Segalanya

Bahkan jika individu seperti Altman peduli dengan ancaman superintelijen yang ada, dinamika pasar saat ini dari laboratorium AI yang bersaing tidak mendorong keselamatan. Mannequin GPT-4 yang dibangun oleh OpenAI telah diuji dan disesuaikan selama tujuh bulan sebelum dipublikasikan dengan laporan rinci tentang keamanannya. Bertentangan dengan upaya keamanan OpenAI, Google yang panik merilis mannequin PaLM 2 pesaingnya hanya beberapa bulan kemudian, tanpa menyebutkan tes keamanan serupa. Sekarang bahkan mannequin sumber terbuka seperti Orca bekerja di stage ChatGPT, tanpa analisis keamanan apa pun. Perlombaan panik, mendorong perusahaan-perusahaan ini untuk mengambil lebih banyak risiko untuk tetap di depan. Ruang lingkup risiko ini sangat besar. Sebagai Jaan Tallinn, investor dari lab AI utama Anthropic, menempatkannya: “Saya belum pernah bertemu siapa pun di laboratorium AI yang mengatakan risikonya [from training a next-generation model] kurang dari 1% untuk meledakkan planet ini”.

Mari kita perjelas: melanjutkan pengembangan AI yang berisiko, dan akhirnya mengalami ledakan kecerdasan yang mengarah pada kecerdasan tremendous yang tidak terkendali, adalah ide yang buruk. Kami tidak akan dapat menavigasi dengan aman. Kami kekurangan solusi teknis, koordinasi, wawasan, kebijaksanaan, dan pengalaman untuk melakukan sesuatu yang rumit ini langsung pada percobaan pertama. Sebagai manusia, kita pandai memecahkan masalah dengan proses coba-coba di mana kita mendapat banyak percobaan. Tetapi dalam kasus ledakan intelijen, kita tidak dapat menggunakan strategi ini, karena uji coba pertama superintelligence yang tidak terkendali bisa menjadi bencana.

Jadi apa alternatifnya? Jeda AI. Ini berarti bahwa pemerintah melarang pelatihan mannequin AI apa pun dengan kemampuan yang kemungkinan melebihi GPT-4. Ini dapat ditentukan dengan memeriksa jumlah perhitungan yang diperlukan untuk pelatihan, dikoreksi dari waktu ke waktu untuk peningkatan efisiensi algoritmik. Mannequin terkemuka ini hanya dapat dilatih di perusahaan AI atau pusat information besar, membuat penegakan jeda seperti itu realistis.