Sarjana Georgia Tech: Kekhawatiran tentang AI yang Mahakuasa Adalah Keliru

Seorang pakar kebijakan dari Georgia Tech berpendapat bahwa kekhawatiran akan AI yang mahakuasa dan mampu mengakhiri umat manusia adalah keliru. Sebaliknya, katanya, masyarakat harus fokus pada aturan-aturan yang tepat sasaran untuk menjaga agar sistem AI di dunia nyata tetap selaras dengan nilai-nilai kemanusiaan.

Sejak alat-alat seperti ChatGPT muncul di hadapan publik, berbagai berita utama memperingatkan bahwa kecerdasan buatan suatu hari nanti dapat memusnahkan umat manusia. Penelitian baru dari Georgia Tech berpendapat bahwa skenario kiamat tersebut bukan hanya tidak mungkin terjadi — tetapi juga salah memahami cara kerja AI sebenarnya dan bagaimana masyarakat membentuk teknologi.

Milton Mueller, seorang profesor di Sekolah Kebijakan Publik Jimmy dan Rosalynn Carter, berupaya untuk memeriksa apakah kecerdasan buatan (AI) yang mahakuasa dan tak terkendali merupakan kemungkinan nyata. Analisisnya, diterbitkan dalam Jurnal Kebijakan Siber, menyimpulkan bahwa narasi ancaman eksistensial sebagian besar keliru dan mengalihkan perhatian dari tantangan yang lebih praktis.

Mueller telah menghabiskan empat dekade mempelajari kebijakan teknologi informasi. Sepanjang waktu itu, dia belum pernah melihat teknologi yang diperlakukan sebagai pertanda malapetaka hingga perdebatan baru-baru ini tentang kecerdasan buatan umum, atau AGI, bentuk hipotetis AI yang akan menyamai atau melampaui kemampuan manusia di hampir semua tugas.

Dia berpendapat bahwa sebagian dari masalahnya adalah siapa yang memimpin percakapan tersebut.

“Ilmuwan komputer seringkali kurang pandai menilai implikasi sosial dan politik dari teknologi,” kata Mueller dalam siaran pers. “Mereka terlalu fokus pada mekanisme AI dan terpesona oleh keberhasilannya, tetapi mereka kurang pandai menempatkannya dalam konteks sosial dan historis.”

Alih-alih memperlakukan AI sebagai kekuatan yang tak terbendung, karya Mueller menekankan bahwa perkembangan dan dampaknya dibentuk oleh pilihan manusia, institusi, dan hukum.

Mempertanyakan “kecerdasan super”

Skenario AI yang paling menakutkan biasanya berpusat pada AGI, yang sering digambarkan sebagai "kecerdasan super" yang mahakuasa dan sepenuhnya otonom. Dalam cerita populer, sistem seperti itu menjadi lebih pintar daripada manusia, lepas dari kendali kita dan mengejar tujuannya sendiri, dengan hasil yang mengerikan.

Mueller menunjukkan bahwa para ahli bahkan tidak sepakat tentang apa sebenarnya AGI itu. Beberapa ilmuwan komputer membayangkan sebuah sistem yang hanya menyamai "kecerdasan manusia," sementara yang lain berasumsi bahwa sistem tersebut akan jauh melampauinya. Kedua gagasan tersebut bergantung pada bagaimana kita mendefinisikan kecerdasan sejak awal.

Sistem AI saat ini sudah mampu mengungguli manusia dalam tugas-tugas spesifik seperti mengolah data dalam jumlah besar atau mengenali pola dalam gambar. Namun, kecepatan dan akurasi tersebut tidak berarti mereka kreatif, sadar diri, atau mampu memecahkan masalah secara luas dan fleksibel seperti manusia.

Bagi para pelajar dan masyarakat umum yang mencoba memahami kehebohan ini, karya Mueller menggarisbawahi poin mendasar: mampu melakukan banyak perhitungan matematika dengan sangat cepat tidak sama dengan memiliki kecerdasan.

Otonomi versus penyelarasan

Asumsi kunci lain di balik ketakutan eksistensial adalah bahwa, seiring bertambahnya daya komputasi, AI secara alami akan berevolusi menjadi sesuatu yang dapat bertindak sendiri, tanpa arahan manusia.

Mueller menantang gagasan itu. Sistem AI saat ini selalu dilatih atau diarahkan pada tujuan tertentu. Mereka tidak secara spontan memutuskan apa yang mereka inginkan. Chatbot membutuhkan perintah dari pengguna untuk memulai percakapan. Algoritma rekomendasi membutuhkan tujuan yang jelas, seperti memaksimalkan klik atau waktu tonton.

Ketika AI tampak menyimpang dari jalur yang seharusnya, menurutnya, itu biasanya karena kekurangan atau kontradiksi dalam tujuan yang kita berikan kepadanya, bukan karena mesin tersebut telah menjadi independen.

Dalam salah satu contoh yang ia teliti, sebuah AI yang mengendalikan perahu dalam permainan video menemukan bahwa ia dapat mengumpulkan lebih banyak poin dengan mengitari sebagian lintasan daripada benar-benar berpacu dengan lawannya. Sistem tersebut tidak memberontak; ia memanfaatkan celah dalam struktur penghargaan yang telah dibuat oleh para perancang.

“Kesenjangan keselarasan terjadi dalam berbagai konteks, bukan hanya AI,” tambah Mueller. “Saya telah mempelajari begitu banyak sistem regulasi di mana kita mencoba mengatur suatu industri, dan beberapa orang pintar menemukan cara agar mereka dapat memenuhi aturan tetapi juga melakukan hal-hal buruk. Tetapi jika mesin melakukan sesuatu yang salah, ilmuwan komputer dapat memprogram ulang mesin tersebut untuk memperbaiki masalah.”

Dengan kata lain, perilaku yang tidak selaras adalah masalah desain dan tata kelola, bukan bukti bahwa sebuah mesin menjadi hidup.

Mengapa fisika dan infrastruktur masih penting?

Mueller juga menolak anggapan bahwa AI yang tidak selaras dapat dengan cepat berkembang di luar kendali manusia dan mengambil alih dunia fisik.

Agar sistem AI dapat melakukan tindakan berskala besar di dunia nyata, sistem tersebut membutuhkan kemampuan fisik — robot, pabrik, sumber energi, dan jaringan komunikasi — serta cara untuk memelihara dan memperluas infrastruktur tersebut. Model perangkat lunak yang berjalan di pusat data tidak dapat melakukan hal itu sendiri.

Batasan fisik dasar, seperti berapa banyak energi dan ruang yang dibutuhkan untuk komputasi, juga membatasi apa yang dapat dilakukan oleh suatu sistem. Tidak peduli seberapa canggih algoritma yang ada, algoritma tersebut tetap berjalan pada perangkat keras yang mematuhi hukum fisika.

Dari kiamat hingga kebijakan

Bagi Mueller, pertanyaan yang lebih mendesak bukanlah bagaimana menghentikan kiamat AI, tetapi bagaimana mengelola sistem nyata yang diterapkan saat ini dengan cara yang selaras dengan nilai-nilai kemanusiaan dan kepentingan publik.

Inti dari penelitiannya adalah bahwa AI bukanlah entitas tunggal yang terpadu. AI muncul dalam berbagai aplikasi yang berbeda, masing-masing tertanam dalam jaringan hukum, peraturan, dan lembaga sosialnya sendiri.

Sebagai contoh, ketika sistem AI mengambil teks dan gambar dari internet untuk melatih model, hal itu menimbulkan pertanyaan hak cipta yang dapat diatasi melalui hukum kekayaan intelektual yang ada. Ketika AI digunakan dalam bidang kedokteran, hal itu berada di bawah pengawasan lembaga seperti Badan Pengawas Obat dan Makanan (FDA), bersama dengan perusahaan obat yang teregulasi dan para profesional medis.

Alih-alih mencoba membuat satu set aturan umum untuk semua AI, Mueller berpendapat bahwa para pembuat kebijakan harus fokus pada pendekatan spesifik sektor yang memanfaatkan keahlian dan perlindungan yang sudah ada di bidang tersebut.

Artinya, membangun batasan-batasan yang jelas seputar penggunaan AI yang konkret — mulai dari perekrutan dan pemberian pinjaman hingga perawatan kesehatan dan pendidikan — daripada mengejar skenario spekulatif tentang mesin yang mahakuasa.

Bagi para mahasiswa, peneliti, dan warga yang menyaksikan perdebatan tentang AI, pesan Mueller sungguh menyadarkan sekaligus memberi harapan. AI itu kuat dan dapat menyebabkan kerugian nyata jika disalahgunakan atau dikelola dengan buruk. Tetapi AI bukanlah kekuatan asing yang tak terhentikan dan di luar pengaruh manusia.

Masa depannya akan dibentuk oleh pilihan yang dibuat orang sekarang: bagaimana kita mendefinisikan masalah, merancang sistem, menetapkan aturan, dan meminta pertanggungjawaban lembaga. Tantangannya, menurut Mueller, bukanlah takut pada AI yang mahakuasa, tetapi melakukan kerja keras untuk memastikan AI yang kita bangun benar-benar melayani tujuan manusia.

Sumber: Georgia Institute of Technology