Godfather AI Sebut DeepSeek Bikin Kecerdasan Buatan Makin Ngeri

Sahrul

Penggunaan kecerdasan buatan (AI) dalam berbagai sektor terus mengalami perkembangan pesat. Namun, laporan terbaru yang dirilis oleh para ahli AI menggarisbawahi meningkatnya risiko bahwa teknologi ini dapat dimanfaatkan untuk tujuan jahat. Salah satu ancaman yang disorot adalah potensi bahaya yang ditimbulkan oleh perusahaan asal Tiongkok, DeepSeek.

Yoshua Bengio, seorang pelopor dalam dunia AI yang dijuluki “Godfather AI Modern,” menyatakan bahwa kemajuan yang ditunjukkan DeepSeek dapat memperburuk risiko keamanan. Menurutnya, dominasi Amerika Serikat dalam bidang ini selama beberapa tahun terakhir bisa menghadapi tantangan serius.

“Ini berarti persaingan yang lebih ketat, yang biasanya bukan hal baik dari sudut pandang keamanan AI,” ujarnya seperti dikutip dari Nature, Jumat (31/1/2025).

Bengio menambahkan bahwa perusahaan-perusahaan teknologi besar di AS mungkin akan lebih fokus merebut kembali keunggulan mereka daripada memperhatikan aspek keamanan. OpenAI, pengembang ChatGPT, juga menghadapi tekanan dari DeepSeek yang meluncurkan asisten virtualnya sendiri. Mereka bahkan berkomitmen untuk mempercepat peluncuran produk sebagai respons terhadap persaingan ini.

“Jika Anda membayangkan persaingan antara dua entitas dan salah satu berpikir mereka jauh lebih unggul, maka mereka mampu bersikap lebih bijaksana dan tetap yakin bahwa mereka akan tetap unggul,” jelas Bengio. “Sedangkan jika Anda memiliki persaingan antara dua entitas dan mereka berpikir bahwa yang lain berada pada level yang sama, maka mereka perlu mempercepat. Maka mungkin mereka tidak terlalu memperhatikan keselamatan,” tambahnya.

Laporan Keselamatan AI Internasional

Laporan Keselamatan AI Internasional pertama yang komprehensif disusun oleh 96 pakar, termasuk penerima hadiah Nobel Geoffrey Hinton. Bengio, yang meraih penghargaan Turing pada 2018, ditunjuk pemerintah Inggris untuk memimpin laporan tersebut. Laporan ini diumumkan dalam pertemuan puncak di Bletchley Park, Inggris pada 2023.

Panel tersebut mencakup perwakilan dari 30 negara, Uni Eropa, dan PBB. Pertemuan puncak berikutnya dijadwalkan berlangsung di Paris pada 10 dan 11 Februari mendatang.

Menurut laporan tersebut, sistem AI serbaguna seperti chatbot telah semakin canggih dalam domain yang rentan terhadap penyalahgunaan. Dari mengidentifikasi celah dalam perangkat lunak hingga memberikan panduan teknis pembuatan senjata biologis dan kimia, AI kini dapat melakukan hal-hal yang sebelumnya hanya bisa dilakukan oleh para ahli berpendidikan tinggi.

Ancaman Deepfake dan Keamanan Siber

Teknologi deepfake juga mendapat sorotan dalam laporan ini. Deepfake telah digunakan untuk memanipulasi gambar, suara, dan video guna melakukan penipuan finansial, pemerasan, serta penciptaan konten pornografi. Laporan tersebut menyebutkan bahwa meskipun ada peningkatan signifikan dalam penggunaan deepfake, data statistik yang lengkap masih sulit diperoleh.

Selain itu, sistem AI kini mampu menemukan kelemahan perangkat lunak secara mandiri tanpa campur tangan manusia. Meskipun demikian, laporan menyatakan bahwa kemampuan AI untuk melaksanakan serangan dunia nyata secara independen masih jauh dari kenyataan karena memerlukan tingkat presisi tinggi.

Kemunculan Model AI Baru

Pada Desember 2024, OpenAI meluncurkan model ‘penalaran’ canggih bernama o3. Bengio mencatat bahwa model ini mampu membuat terobosan dalam tes penalaran abstrak yang sebelumnya dianggap mustahil oleh banyak ahli.

“Tren yang dibuktikan oleh o3 dapat memiliki implikasi yang mendalam bagi risiko AI. Penilaian risiko dalam laporan ini harus dibaca dengan pemahaman bahwa AI telah memperoleh kemampuannya sejak laporan ini ditulis,” katanya.

Ia menambahkan bahwa perkembangan dalam kemampuan penalaran AI dapat berdampak besar pada pasar kerja. AI yang semakin otonom berpotensi menggantikan tugas-tugas manusia tetapi juga dapat dimanfaatkan oleh kelompok teroris.

“Jika Anda seorang teroris, Anda ingin memiliki AI yang sangat otonom. Seiring dengan meningkatnya agensi, kita meningkatkan potensi manfaat AI dan kita meningkatkan risikonya,” ujarnya.

Namun demikian, Bengio menekankan bahwa AI saat ini belum mampu melakukan perencanaan jangka panjang yang memungkinkan mereka sepenuhnya lepas dari kendali manusia.

“Jika AI tidak dapat merencanakan dalam jangka panjang, ia hampir tidak akan dapat lepas dari kendali kita,” katanya.

Dampak Sosial dan Ekonomi

Laporan setebal hampir 300 halaman tersebut juga menyoroti berbagai kekhawatiran umum terkait AI, mulai dari penipuan hingga pelanggaran privasi. Meskipun demikian, para peneliti belum sepenuhnya menemukan solusi untuk mengatasi ancaman-ancaman tersebut.

Laporan ini menekankan bahwa meskipun masa depan AI penuh dengan ketidakpastian, keputusan masyarakat dan pemerintah akan sangat menentukan arah perkembangan teknologi ini. Jalur yang dipilih dapat membawa manfaat besar atau justru risiko yang merugikan.

“Ketidakpastian ini dapat menimbulkan fatalisme dan membuat AI tampak seperti sesuatu yang terjadi pada kita. Namun, keputusan masyarakat dan pemerintah tentang cara menavigasi ketidakpastian ini yang akan menentukan jalur mana yang akan kita ambil,” demikian bunyi laporan tersebut.

Also Read

Tags

Leave a Comment