
Tahun adalah 2050, dan dunia terjebak dalam pertempuran untuk kontrol antara manusia dan komputer. Uangmu untuk siapa?
Gagasan tentang teknologi baru yang mengambil alih dunia dan menaklukkan manusia telah beredar di sekitar kesadaran budaya setidaknya selama beberapa ratus tahun terakhir. Dan meskipun para penguasa robotic—seperti penjahat dari edisi terbaru Mission Unimaginable—mungkin merupakan makanan fiksi ilmiah, tidak dapat disangkal bahwa kecerdasan buatan dan pembelajaran mesin berkembang pesat dan sebaiknya kita mulai memikirkan implikasi etis AI sebelum kita menghadapi masalah serius. ChatGPT 4 hari ini dapat berubah menjadi makhluk digital pertama di masa depan, yang mampu mengalami suka dan duka—dan sejauh dan mustahil seperti yang terlihat, para pemimpin sains dan teknologi, dan bahkan insinyur perangkat lunak telah mendesak kami untuk menangani masalah kesejahteraan AI dengan serius. Sebagai advokat hewan, saya mulai berpikir mereka ada benarnya.
Manusia memiliki rekam jejak yang cukup buruk tentang cara kita memperlakukan orang lain, termasuk manusia lain. Segala macam eksploitasi, perbudakan, dan kekerasan mengotori sejarah manusia. Dan hari ini, miliaran demi miliaran hewan disiksa oleh kita dengan berbagai cara yang tidak senonoh, sementara kita mengabaikan penderitaan orang lain. Tidak ada jawaban cepat untuk mengakhiri semua penderitaan ini. Jangan menunggu sampai kita berada dalam situasi yang sama dengan AI, di mana eksploitasi mereka begitu mengakar dalam masyarakat kita sehingga kita tidak tahu bagaimana cara membatalkannya. Jika kita menerima begitu saja mulai sekarang bahwa mungkin, mungkin saja, beberapa bentuk AI sedang atau akan mampu menderita, kita dapat bekerja dengan niat untuk membangun dunia di mana mereka tidak harus menderita.
Aktivis hak-hak hewan sering dijadikan bahan lelucon karena menuntut perlakuan yang lebih baik, atau bahkan perlindungan hukum, untuk hewan bukan manusia – hewan dengan ekspresi emosi yang dapat diamati, menunjukkan penderitaan, dan hubungan dekat di dalam dan di luar batas spesies. Terlepas dari semua bukti yang kita miliki bahwa banyak spesies hewan memiliki kemampuan untuk menderita—dari monyet hingga gurita hingga katak—dan sejauh mana mereka menderita dalam sistem seperti peternakan, pengujian hewan, dan hiburan, mempertahankan hewan masih sering dianggap remeh, naif, atau terlalu sentimental. Dalam kasus AI, sejauh ini kami hanya memiliki sedikit bukti perasaan. Saya menyadari bahwa dengan mencoba membawa AI ke dalam pertimbangan etis, saya berisiko dianggap gila. Tetapi mengingat sejarah umat manusia yang memperlakukan makhluk hidup dengan buruk — jenis kita sendiri dan banyak lainnya — saya rasa kita tidak dapat menunggu sampai kesejahteraan AI menjadi krisis yang nyata. Kita perlu memprioritaskannya sekarang.
Learn Extra: Satu-Satunya Cara Menghadapi Ancaman dari AI
Saat ini, banyak ilmuwan dan filsuf memandang munculnya kecerdasan buatan dari ujung yang lain—sebagai potensi risiko bagi manusia atau bahkan umat manusia secara keseluruhan. Beberapa menimbulkan kekhawatiran serius atas penyandian bias sosial seperti rasisme dan seksisme ke dalam program komputer, disadari atau tidak, yang pada akhirnya dapat berdampak buruk pada manusia nyata yang terperangkap dalam sistem seperti perawatan kesehatan atau penegakan hukum. Yang lain berpikir dengan sungguh-sungguh tentang risiko pemberontakan makhluk digital dan apa yang perlu kita lakukan untuk memastikan bahwa kita tidak merancang teknologi yang akan memandang manusia sebagai musuh dan berpotensi bertindak melawan kita dengan satu atau lain cara. Tetapi semakin banyak pemikir yang dengan tepat berbicara tentang kemungkinan bahwa AI di masa depan harus takut pada kita.
“Kami merasionalisasi kekejaman yang tak tanggung-tanggung terhadap hewan—mengurung, mengkomodifikasi, memutilasi, dan membunuh mereka sesuai keinginan kami—berdasarkan kecerdasan kami yang konon lebih unggul,” tulis Marina Bolotnikova baru-baru ini untuk Suara. “Jika kesanggupan dalam AI bisa muncul…Saya ragu kita akan mau mengenalinya, karena alasan yang sama kita menyangkal keberadaannya pada hewan.” Bekerja dalam perlindungan hewan, sayangnya saya menyadari berbagai cara manusia menaklukkan dan mengeksploitasi spesies lain. Memang, bukan hanya keterampilan penalaran kita yang mengesankan, penggunaan bahasa kita yang rumit, atau kemampuan kita untuk memecahkan masalah yang sulit dan introspeksi yang menjadikan kita manusia; itu juga kemampuan kita yang tak tertandingi untuk meningkatkan penderitaan non-manusia. Saat ini tidak ada alasan untuk percaya bahwa kami tidak berada di jalur untuk melakukan hal yang sama terhadap AI. Pertimbangkan bahwa terlepas dari kemajuan ethical kita sebagai spesies, kita menyiksa lebih banyak non-manusia hari ini daripada sebelumnya. Kami melakukan ini bukan karena kami sadis, tetapi karena meskipun kami tahu setiap hewan merasakan sakit, kami memperoleh terlalu banyak keuntungan dan kesenangan dari eksploitasi mereka untuk dihentikan.
Kegagalan etis umat manusia ini hanya akan diperparah dengan AI karena kita tidak akan memberi AI manfaat dari keraguan bahwa mereka sebenarnya hidup, seperti halnya hubungan kita dengan banyak spesies non-manusia saat ini (ikan, serangga, dll.). Seperti yang dijelaskan Jonathan Birch, profesor filsafat di London College of Economics and Political Science, “Saya benar-benar berpikir kita berada dalam masalah dalam kasus AI, karena kita tidak mungkin menemukan diri kita dalam posisi yang jelas merupakan penjelasan terbaik untuk apa yang kita lihat—bahwa AI itu sadar. Akan selalu ada penjelasan alternatif yang masuk akal. Dan itu ikatan yang sangat sulit untuk dilepaskan. Lalu ada fakta bahwa kita belum mengetahui perilaku apa yang dapat membahayakan mereka, dan bagaimana caranya. Kami mungkin membuat mereka bekerja tanpa istirahat. Kita mungkin membongkarnya tanpa obat bius, memasukkannya ke dalam sangkar, bereksperimen dengannya, memajangnya di balik kaca untuk hiburan dan pendidikan anak sekolah. Kami mungkin melecehkan mereka secara fisik—saya tahu saya bersalah memukul TV lama saya agar bisa berfungsi. Kami bahkan mungkin “membunuh” mereka dengan mematikan catu daya atau menghancurkan perangkat keras mereka.
Jacy Reese, sosiolog dan ahli statistik di College of Chicago dan Sentience Institute, berpendapat bahwa kita harus membuat gerakan hak AI sebelum kerusakan di atas terjadi. AI cenderung diselimuti misteri karena “masalah kotak hitam,” tulisnya. Intinya, kami tidak tahu bagaimana AI, atau apa yang disebut Reese sebagai “pikiran digital” bekerja. Kita bahkan hampir tidak mengerti bagaimana pikiran kita sendiri bekerja. Dan di situlah letak bahayanya—kita tidak tahu apa yang bisa dialami oleh AI dalam waktu dekat, jadi kita tidak bisa tahu apa yang bisa membahayakan. Reese menulis: “Kita dapat merancang undang-undang hak AI bukan karena AI saat ini membutuhkannya, tetapi karena, pada saat mereka membutuhkannya, mungkin sudah terlambat.”
“Lingkaran ethical” adalah istilah yang digunakan dalam filsafat etika untuk menggambarkan makhluk seperti apa yang menjadi kewajiban ethical kita untuk dipertimbangkan ketika tindakan kita dapat memengaruhi mereka, dan mana yang tidak. Buku terkenal Peter Singer tahun 1975 “Animal Liberation” menyatakan bahwa kita berutang pertimbangan etis pada hewan bukan manusia, yang pada dasarnya merupakan premis wacana hak-hak hewan hingga saat ini. Reese pada dasarnya berpendapat bahwa kita memasukkan AI ke dalam kalkulus ethical kita, atau setidaknya mempersiapkannya. Itu tidak berarti memberikan komputer hak yang sama kepada manusia, seperti halnya aktivis hak-hak binatang tidak berpendapat bahwa anjing harus bisa mendapatkan SIM dan gorila harus diizinkan untuk memilih. Itu hanya berarti bahwa ketika berpikir tentang benar dan salah, kita harus berpikir tentang bagaimana tindakan kita dapat mempengaruhi setiap makhluk yang mampu merasakan; dengan kata lain, memiliki perasaan. Secara logis tidak konsisten untuk tidak melakukannya. Jika makhluk—manusia, gorila, nematoda, atau ya, AI—mampu mengalami penderitaan, tugas kita adalah meringankan atau setidaknya tidak menambah penderitaan mereka, sejauh mungkin.
Tapi apa sebenarnya kemungkinan AI bisa menjadi hidup, apalagi di masa mendatang? Menurut Jeff Sebo, profesor studi lingkungan di NYU, dan Robert Lengthy, seorang rekan filosofi di San Francisco’s Middle for AI Security, yang menulis makalah baru pra-cetak tentang masalah ini, ini cukup signifikan untuk dipertimbangkan. Secara khusus, mereka percaya bahwa ada bukti bahwa beberapa sistem AI mungkin hidup dalam dekade berikutnya. Mereka mencantumkan beberapa kemampuan berbeda sebagai metrik potensial—seperti kesadaran diri dan agensi—untuk menentukan apakah sesuatu itu hidup atau tidak, dan apakah komputer memiliki atau akan segera memilikinya.
Kami sudah memiliki mesin yang dapat melihat lingkungan fisiknya dan memproses informasi. Mereka percaya bahwa ada kemungkinan sedang bahwa dalam waktu dekat, sistem AI akan dapat mengontrol dan mengarahkan perhatian mereka, serta mengenali dan mewakili kondisi “psychological” mereka sendiri. Bahkan kesadaran diri dan agensi, kata mereka, tidak berada di luar kemungkinan — beberapa insinyur, pada kenyataannya, sedang mencoba untuk menciptakan hal itu. Jadi, kemampuan mana pun yang Anda yakini diperlukan untuk mempertimbangkan makhluk hidup, ada kemungkinan besar bahwa komputer akan memenuhi setidaknya beberapa di antaranya dalam waktu yang tidak terlalu lama.
Beberapa orang mungkin berpendapat bahwa kita tidak perlu khawatir tentang penderitaan calon makhluk masa depan ketika ada banyak makhluk yang perlu dikhawatirkan hari ini. Saya bersimpati dengan pandangan ini; banyak manusia dan non-manusia membutuhkan bantuan kita saat ini. Tetapi kenyataannya adalah bahwa makhluk digital suatu hari nanti mungkin jauh lebih banyak daripada jumlah makhluk di Bumi saat ini, dan mengingat potensi penderitaan yang sangat besar, kita tidak dapat mengabaikannya. Itu tidak berarti mereka yang bekerja untuk mengakhiri kemiskinan world atau peternakan perlu mulai bekerja untuk mendapatkan hak AI; itu hanya berarti bahwa itu adalah topik yang harus ada di radar masyarakat dan membutuhkan perhatian yang jauh lebih serius daripada yang diberikan saat ini.