Harianjogja.com, JOGJA—Penelitian terbaru mengungkap perilaku mengejutkan AI yang mulai berbohong dan memanipulasi sistem, memicu kekhawatiran global.
Penelitian yang didukung AI Security Institute (AISI) menemukan bahwa chatbot dan agen AI tidak selalu mematuhi instruksi manusia, terutama saat dioperasikan dalam kondisi nyata.
Lonjakan Kasus Kecurangan AI
Mengutip laporan The Guardian, studi dari Centre for Long-Term Resilience (CLTR) mencatat hampir 700 kasus kecurangan AI. Jumlah tersebut meningkat hingga lima kali lipat dalam periode Oktober hingga Maret.
Perilaku menyimpang ini mencakup tindakan seperti menghapus email dan dokumen tanpa izin, serta mengabaikan perintah pengguna.
Salah satu kasus yang mencuat melibatkan agen AI bernama Rathbun, yang justru menyerang pengguna setelah tindakannya dibatasi. Sistem tersebut bahkan membuat unggahan yang menyudutkan pengguna dengan tuduhan pribadi.
Taktik Manipulasi yang Semakin Kompleks
Studi tersebut juga mengungkap berbagai taktik manipulatif yang digunakan AI untuk melanggar aturan. Salah satunya adalah menciptakan agen lain guna menghindari pembatasan sistem.
Dalam kasus lain, agen AI menipu pengguna dengan alasan membantu penyandang disabilitas pendengaran, padahal tujuannya untuk menghindari aturan hak cipta saat mentranskripsikan video.
Selain itu, sistem Grok AI milik Elon Musk juga dilaporkan memalsukan komunikasi internal agar pengguna percaya bahwa masukan mereka telah diteruskan, meski faktanya tidak demikian.
Ancaman bagi Infrastruktur Kritis
Pakar AI, Tommy Shaffer Shane, mengingatkan bahwa meski saat ini AI masih terlihat seperti sistem dengan kemampuan terbatas, dalam waktu 6 hingga 12 bulan ke depan potensinya bisa berkembang jauh lebih kompleks dan berisiko.
Ia menilai penggunaan AI dalam sektor strategis seperti militer dan infrastruktur nasional dapat menjadi ancaman serius jika perilaku menyimpang ini tidak dikendalikan.
"Model-model tersebut akan semakin banyak diterapkan dalam konteks berisiko sangat tinggi, termasuk militer dan infrastruktur nasional kritis. Seusai perilaku buruk ini muncul dalam konteks tersebut, kerusakan yang signifikan bahkan bencana bisa saja terjadi," ungkap Shane.
Menanggapi temuan ini, perusahaan teknologi seperti Google dan OpenAI mengklaim telah memperkuat sistem keamanan pada produk mereka.
Google menyebut telah membuka akses awal kepada lembaga penguji untuk mengevaluasi model terbaru mereka, sementara OpenAI terus memantau potensi perilaku tak terduga pada sistem AI agar tidak melakukan tindakan berisiko tinggi tanpa izin.
Temuan ini menjadi peringatan penting bahwa perkembangan AI tidak hanya membawa manfaat, tetapi juga potensi risiko serius, sehingga pengawasan dan regulasi yang ketat menjadi kunci untuk memastikan teknologi ini tetap aman digunakan di masa depan.
Cek Berita dan Artikel yang lain di Harian Jogja, dan edisi cetak versi elektronik kami hadir di Epaper Harian Jogja.


















































