Berpotensi Bahaya, Ilmuwan Galau tentang Risiko AI dan Solusinya

Berpotensi Bahaya, Ilmuwan Galau tentang Risiko AI dan Solusinya
kecerdasan buatan (artificial intelligence atau AI) memiliki potensi bahaya yang mengancam (Sumber : digital.gov)

JAKARTA – Sejumlah ilmuwan komputer yang membantu membangun fondasi teknologi kecerdasan buatan (artificial intelligence atau AI), termasuk Geoffrey Hinton yang sering dijuluki sebagai the godfather of AI, telah memperingatkan bahayanya, seperti destabilisasi pasar kerja, persenjataan otomatis, dan bahaya kumpulan data yang bias. Namun, mereka belum sepakat tentang ‘apa bahaya itu’ atau bagaimana cara mencegahnya. 

Seperti dilansir dari TRT World, setelah mundur dari Google, Hinton berbicara lebih lepas tentang pandangannya mengenai kemampuan penalaran komputer yang telah dia habiskan seumur hidupnya untuk diteliti. Menurutnya, AI akan mempelajari banyak hal dari manusia, termasuk bagaimana memanipulasi orang. “Saya berharap saya memiliki solusi sederhana yang bagus, tetapi sayangnya tidak,” tuturnya.

Bacaan Lainnya

Perintis AI lainnya, Yoshua Bengio, mengatakan kepada The Associated Press pada hari Rabu (3/5) bahwa dia ‘cukup selaras’ dengan kekhawatiran Hinton yang dibawa oleh chatbots seperti ChatGPT dan teknologi terkait. Namun, jika Hinton terlihat seperti orang yang pesimistis, dirinya mengaku lebih optimistis.

“Perbedaan utamanya, dia orang yang pesimistis dan saya lebih optimistis,” kata Bengio, yang juga seorang profesor di Universitas Montreal. “Saya pikir bahayanya dalam jangka pendek dan jangka panjang sangat serius dan perlu ditanggapi dengan serius tidak hanya oleh beberapa peneliti, tetapi juga oleh pemerintah dan penduduk.”

Gedung Putih sendiri telah memanggil CEO Google, Microsoft, dan pembuat ChatGPT, OpenAI, untuk bertemu dengan Wakil Presiden AS, Kamala Harris, dalam apa yang dijelaskan oleh para pejabat sebagai diskusi terbuka tentang cara mengurangi risiko jangka pendek dan jangka panjang teknologi mereka. Anggota parlemen Eropa juga mempercepat negosiasi untuk meloloskan aturan AI yang baru.

Margaret Mitchell, mantan pemimpin tim etika AI Google, mengaku bahwa dia kesal karena Hinton tidak berbicara selama satu dekade saat berkuasa di Google, terutama setelah penggulingan ilmuwan kulit hitam terkemuka, Timnit Gebru, pada tahun 2020, yang telah mempelajari bahaya sebelum dikomersialkan secara luas menjadi produk seperti ChatGPT dan Google’s Bard.

Bengio, Hinton, dan peneliti ketiga, Yann LeCun, yang bekerja di Facebook Meta, semuanya dianugerahi Penghargaan Turing pada tahun 2019 atas terobosan mereka di bidang jaringan saraf tiruan, yang berperan penting dalam pengembangan aplikasi AI saat ini seperti ChatGPT. Bengio, satu-satunya dari tiga orang yang tidak bekerja dengan raksasa teknologi, telah menyuarakan keprihatinan selama bertahun-tahun tentang risiko AI dalam jangka pendek.

Kekhawatiran tersebut telah berkembang baru-baru ini, membuat Bengio bergabung dengan ilmuwan komputer dan pemimpin bisnis teknologi lainnya seperti Elon Musk dan salah satu pendiri Apple, Steve Wozniak, menyerukan jeda enam bulan untuk mengembangkan sistem AI yang lebih kuat daripada terbaru OpenAI, GPT-4. Bengio yakin model AI terbaru telah lulus ‘ Turing’, setidaknya di permukaan.

“Itu adalah tonggak sejarah yang bisa menimbulkan konsekuensi drastis jika kita tidak hati-hati,” jelas Bengio. “Perhatian utama saya adalah bagaimana mereka dapat dieksploitasi untuk tujuan jahat untuk mengacaukan demokrasi, untuk serangan dunia maya, dan disinformasi. Anda dapat berbicara dengan sistem ini dan berpikir bahwa Anda berinteraksi dengan manusia. Mereka sulit dikenali.”

Di sisi lain, sejumlah peneliti justru tidak begitu setuju tentang bagaimana sistem AI saat ini dan bahayanya. Menurut Aidan Gomez, yang memperkenalkan apa yang disebut teknik transformator ‘T’ di akhir ChatGPT, gagasan tentang -model ini, yang entah bagaimana akan mendapatkan akses ke senjata dan meluncurkan semacam peristiwa kepunahan, bukanlah wacana yang produktif. “Ini berbahaya bagi upaya kebijakan pragmatis nyata yang mencoba melakukan sesuatu yang baik,” ujarnya.

Sementara ditanya tentang investasinya di Cohere sehubungan dengan kekhawatirannya yang lebih luas tentang AI, Hinton mengatakan dia tidak memiliki rencana untuk menarik investasinya karena masih banyak aplikasi yang bermanfaat dalam kedokteran dan di bidang lain. Dia juga tidak menyesali keputusannya dalam mengejar penelitian. “Hingga saat ini, saya pikir krisis eksistensial ini masih jauh,” pungkas Hinton.

Pos terkait