JAKARTA – Sejumlah ilmuwan komputer yang membantu membangun fondasi teknologi kecerdasan buatan (artificial intelligence atau AI), termasuk Geoffrey Hinton yang sering dijuluki sebagai the godfather of AI, telah memperingatkan bahayanya, seperti destabilisasi pasar kerja, persenjataan otomatis, dan bahaya kumpulan data yang bias. Namun, mereka belum sepakat tentang ‘apa bahaya itu’ atau bagaimana cara mencegahnya.
Seperti dilansir dari TRT World, setelah mundur dari Google, Hinton berbicara lebih lepas tentang pandangannya mengenai kemampuan penalaran sistem komputer yang telah dia habiskan seumur hidupnya untuk diteliti. Menurutnya, AI akan mempelajari banyak hal dari manusia, termasuk bagaimana memanipulasi orang. “Saya berharap saya memiliki solusi sederhana yang bagus, tetapi sayangnya tidak,” tuturnya.
Perintis AI lainnya, Yoshua Bengio, mengatakan kepada The Associated Press pada hari Rabu (3/5) bahwa dia ‘cukup selaras’ dengan kekhawatiran Hinton yang dibawa oleh chatbots seperti ChatGPT dan teknologi terkait. Namun, jika Hinton terlihat seperti orang yang pesimistis, dirinya mengaku lebih optimistis.
“Perbedaan utamanya, dia orang yang pesimistis dan saya lebih optimistis,” kata Bengio, yang juga seorang profesor di Universitas Montreal. “Saya pikir bahayanya dalam jangka pendek dan jangka panjang sangat serius dan perlu ditanggapi dengan serius tidak hanya oleh beberapa peneliti, tetapi juga oleh pemerintah dan penduduk.”
Gedung Putih sendiri telah memanggil CEO Google, Microsoft, dan pembuat ChatGPT, OpenAI, untuk bertemu dengan Wakil Presiden AS, Kamala Harris, dalam apa yang dijelaskan oleh para pejabat sebagai diskusi terbuka tentang cara mengurangi risiko jangka pendek dan jangka panjang teknologi mereka. Anggota parlemen Eropa juga mempercepat negosiasi untuk meloloskan aturan AI yang baru.
Margaret Mitchell, mantan pemimpin tim etika AI Google, mengaku bahwa dia kesal karena Hinton tidak berbicara selama satu dekade saat berkuasa di Google, terutama setelah penggulingan ilmuwan kulit hitam terkemuka, Timnit Gebru, pada tahun 2020, yang telah mempelajari bahaya model sebelum dikomersialkan secara luas menjadi produk seperti ChatGPT dan Google’s Bard.
Bengio, Hinton, dan peneliti ketiga, Yann LeCun, yang bekerja di Facebook Meta, semuanya dianugerahi Penghargaan Turing pada tahun 2019 atas terobosan mereka di bidang jaringan saraf tiruan, yang berperan penting dalam pengembangan aplikasi AI saat ini seperti ChatGPT. Bengio, satu-satunya dari tiga orang yang tidak bekerja dengan raksasa teknologi, telah menyuarakan keprihatinan selama bertahun-tahun tentang risiko AI dalam jangka pendek.
Kekhawatiran tersebut telah berkembang baru-baru ini, membuat Bengio bergabung dengan ilmuwan komputer dan pemimpin bisnis teknologi lainnya seperti Elon Musk dan salah satu pendiri Apple, Steve Wozniak, menyerukan jeda enam bulan untuk mengembangkan sistem AI yang lebih kuat daripada model terbaru OpenAI, GPT-4. Bengio yakin model bahasa AI terbaru telah lulus ‘tes Turing’, setidaknya di permukaan.
“Itu adalah tonggak sejarah yang bisa menimbulkan konsekuensi drastis jika kita tidak hati-hati,” jelas Bengio. “Perhatian utama saya adalah bagaimana mereka dapat dieksploitasi untuk tujuan jahat untuk mengacaukan demokrasi, untuk serangan dunia maya, dan disinformasi. Anda dapat berbicara dengan sistem ini dan berpikir bahwa Anda berinteraksi dengan manusia. Mereka sulit dikenali.”
Di sisi lain, sejumlah peneliti justru tidak begitu setuju tentang bagaimana sistem bahasa AI saat ini dan bahayanya. Menurut Aidan Gomez, yang memperkenalkan apa yang disebut teknik transformator ‘T’ di akhir ChatGPT, gagasan tentang model-model ini, yang entah bagaimana akan mendapatkan akses ke senjata nuklir dan meluncurkan semacam peristiwa kepunahan, bukanlah wacana yang produktif. “Ini berbahaya bagi upaya kebijakan pragmatis nyata yang mencoba melakukan sesuatu yang baik,” ujarnya.
Sementara ditanya tentang investasinya di Cohere sehubungan dengan kekhawatirannya yang lebih luas tentang AI, Hinton mengatakan dia tidak memiliki rencana untuk menarik investasinya karena masih banyak aplikasi model bahasa yang bermanfaat dalam kedokteran dan di bidang lain. Dia juga tidak menyesali keputusannya dalam mengejar penelitian. “Hingga saat ini, saya pikir krisis eksistensial ini masih jauh,” pungkas Hinton.