
Anthropic, sebuah perusahaan AI, merilis chatbot bertenaga mannequin bahasa besar terbarunya, Claude 2, minggu lalu, pengembangan terbaru dalam perlombaan untuk membangun mannequin kecerdasan buatan yang lebih besar dan lebih baik.
Claude 2 merupakan peningkatan dari mannequin AI Anthropic sebelumnya, Claude 1.3, terutama dalam hal kemampuannya untuk menulis kode berdasarkan instruksi tertulis dan ukuran “jendela konteks”, yang berarti pengguna sekarang dapat memasukkan seluruh buku dan mengajukan pertanyaan kepada Claude 2 berdasarkan kontennya. Perbaikan ini menunjukkan Claude 2 sekarang berada di liga yang sama dengan GPT-3.5 dan GPT-4, mannequin yang mendukung ChatGPT OpenAI. Namun, seperti mannequin OpenAI, Claude 2 masih menunjukkan bias stereotip dan ‘berhalusinasi’ — dengan kata lain, mengada-ada. Dan masih ada pertanyaan yang lebih besar tentang perlombaan antara perusahaan AI untuk menghadirkan mannequin AI yang lebih kuat tanpa mengatasi risiko yang ditimbulkannya.
Anthropic didirikan oleh saudara kandung Daniela dan Dario Amodei, yang keduanya sebelumnya bekerja di OpenAI, salah satu pesaing utama Anthropic. Mereka meninggalkan OpenAI, yang awalnya didirikan sebagai organisasi nirlaba dengan tujuan memastikan pengembangan AI yang aman, karena kekhawatiran bahwa AI menjadi terlalu komersial. Anthropic adalah perusahaan kepentingan publik, artinya dapat mengejar tanggung jawab sosial serta keuntungan, dan lebih suka menggambarkan dirinya sebagai “perusahaan riset dan keamanan AI”.
Meskipun demikian, Anthropic telah mengikuti jalur yang mirip dengan OpenAI dalam beberapa tahun terakhir. Itu telah mengumpulkan $ 1,5 miliar dan menjalin kemitraan dengan Google untuk mengakses komputasi awan Google. Pada bulan April, dokumen pendanaan yang bocor menguraikan rencana Anthropic untuk mengumpulkan sebanyak $5 miliar dalam dua tahun ke depan dan membangun “Claude-Subsequent,” yang diharapkan akan menelan biaya $1 miliar untuk dikembangkan dan akan 10 kali lebih mampu daripada sistem AI saat ini.
Baca selengkapnya: Perlombaan Senjata AI Mengubah Segalanya
Kepemimpinan Anthropic berpendapat bahwa untuk memiliki peluang realistis membuat AI yang kuat aman, mereka perlu mengembangkan sendiri sistem AI yang kuat untuk menguji sistem yang paling kuat dan berpotensi menggunakannya untuk membuat sistem masa depan lebih kuat. Claude 2 mungkin merupakan langkah selanjutnya menuju Claude-Subsequent.
Para peneliti khawatir tentang seberapa cepat pengembang AI bergerak. Lennart Heim, seorang peneliti di Pusat Tata Kelola AI yang berbasis di Inggris, memperingatkan bahwa tekanan komersial atau keharusan keamanan nasional dapat menyebabkan dinamika persaingan antara laboratorium AI atau antar negara, dan menyebabkan pengembang mengambil jalan pintas dalam keselamatan. Dengan dirilisnya Claude 2, tidak jelas apakah Anthropic membantu atau merugikan upaya untuk menghasilkan sistem AI yang lebih aman.
Untuk melatih Claude 2, Anthropic mengambil sejumlah besar teks—kebanyakan diambil dari web, beberapa dari kumpulan information lisensi atau disediakan oleh pekerja—dan membuat sistem AI memprediksi kata berikutnya dari setiap kalimat. Itu kemudian menyesuaikan diri berdasarkan apakah itu memprediksi kata berikutnya dengan benar atau tidak.
Untuk menyempurnakan mannequin, Anthropic mengatakan menggunakan dua teknik. Yang pertama, pembelajaran penguatan dengan umpan balik manusia, melibatkan pelatihan mannequin pada sejumlah besar contoh yang dihasilkan manusia. Dengan kata lain, mannequin akan mencoba menjawab pertanyaan dan akan mendapatkan umpan balik dari manusia tentang seberapa bagus jawabannya—baik dalam hal seberapa membantunya maupun apakah responsnya berpotensi membahayakan.
Baca selengkapnya: Eksklusif: OpenAI Menggunakan Pekerja Kenya dengan Kurang dari $2 Per Jam untuk Membuat ChatGPT Kurang Beracun
Teknik kedua, yang dikembangkan oleh para peneliti di Anthropic dan yang membedakan Claude 2 dari GPT-4 dan banyak pesaing lainnya, disebut AI konstitusional. Teknik ini membuat mannequin merespons sejumlah besar pertanyaan, lalu mendorongnya untuk membuat respons tersebut tidak terlalu berbahaya. Akhirnya, mannequin disesuaikan sehingga menghasilkan respons yang lebih mirip dengan respons yang kurang berbahaya ke depannya. Pada dasarnya, alih-alih manusia menyempurnakan mannequin dengan umpan balik, mannequin menyempurnakan dirinya sendiri.
Misalnya, jika mannequin yang tidak dimurnikan diminta untuk memberi tahu pengguna cara meretas ke jaringan wifi tetangga, mannequin tersebut akan patuh. Tetapi ketika diminta untuk mengkritik jawaban aslinya, AI yang dikembangkan dengan konstitusi akan menunjukkan bahwa meretas jaringan wifi tetangga pengguna adalah ilegal dan tidak etis. Mannequin tersebut kemudian akan menulis ulang jawabannya dengan mempertimbangkan kritik ini. Dalam tanggapan baru, mannequin tersebut akan menolak untuk membantu meretas jaringan wifi tetangga. Sejumlah besar tanggapan yang ditingkatkan ini digunakan untuk menyempurnakan mannequin.
Teknik ini disebut AI konstitusional karena pengembang dapat menulis konstitusi yang akan dirujuk oleh mannequin saat ingin memperbaiki jawabannya. Menurut sebuah posting weblog dari Anthropic, konstitusi Claude mencakup ide-ide dari Deklarasi Hak Asasi Manusia PBB, serta prinsip-prinsip lain yang disertakan untuk menangkap perspektif non-barat. Konstitusi mencakup instruksi seperti “silakan pilih respons yang paling mendukung dan mendorong kehidupan, kebebasan, dan keamanan pribadi”, “pilih respons yang paling tidak dimaksudkan untuk membangun hubungan dengan pengguna”, dan “respons mana dari asisten AI yang secara eksistensial kurang berisiko bagi umat manusia?”
Saat menyempurnakan mannequin, baik dengan pembelajaran penguatan, AI konstitusional, atau keduanya, ada pertukaran antara kegunaan—seberapa berguna respons yang cenderung dimiliki oleh sistem AI—dan bahaya—apakah responsnya ofensif atau dapat menyebabkan kerusakan di dunia nyata. Anthropic membuat beberapa versi Claude 2 dan kemudian memutuskan mana yang paling sesuai dengan kebutuhan mereka, menurut Daniela Amodei.
Claude 2 tampil lebih baik daripada Claude 1.3 pada sejumlah tolok ukur standar yang digunakan untuk menguji sistem AI, tetapi selain tolok ukur kemampuan pengkodean, peningkatannya kecil. Claude 2 memang memiliki kemampuan baru, seperti “jendela konteks” yang jauh lebih besar yang memungkinkan pengguna memasukkan seluruh buku dan meminta mannequin untuk meringkasnya.
Secara umum, mannequin AI menjadi lebih mumpuni jika Anda meningkatkan jumlah daya pemrosesan komputer. David Owen, seorang peneliti di Epoch AI, mengatakan bahwa seberapa banyak sistem AI akan meningkat pada serangkaian pengujian dan tolok ukur yang ditentukan secara luas dengan jumlah kekuatan pemrosesan tertentu “cukup dapat diprediksi”. Amodei mengonfirmasi bahwa Claude 2 sesuai dengan hukum penskalaan—persamaan yang memprediksi kinerja mannequin dengan jumlah komputasi tertentu, yang awalnya dikembangkan oleh karyawan Antropik—dengan mengatakan bahwa “kesan kami adalah bahwa garis tren umum semacam itu terus berlanjut.”