Makin Canggih, AI Justru Makin Sering ‘Mengarang’ Informasi

Thalatie K Yani
24/6/2025 08:48
Makin Canggih, AI Justru Makin Sering ‘Mengarang’ Informasi
Ilustrasi(freepik)

Semakin canggih kecerdasan buatan (AI), semakin besar pula kemungkinannya menghasilkan informasi yang tidak akurat atau bahkan sepenuhnya salah. Fenomena ini dikenal sebagai “halusinasi AI”. Kondisi ini menjadi perhatian serius para pakar.

Penelitian terbaru dari OpenAI menunjukkan dua model AI terbarunya—o3 dan o4-mini—mengalami halusinasi dalam 33% hingga 48% kasus saat diuji dengan tolok ukur internal bernama PersonQA. Angka ini jauh lebih tinggi dibandingkan model sebelumnya, o1, yang menunjukkan tingkat kesalahan lebih rendah. Ironisnya, meskipun model o3 lebih akurat secara keseluruhan, frekuensi kesalahannya justru meningkat.

“Ketika sistem menghasilkan informasi palsu—seperti fakta yang dibuat-buat, kutipan fiktif, atau kejadian yang tak pernah terjadi—dengan kefasihan yang sama seperti saat menyampaikan informasi akurat, hal itu bisa menyesatkan pengguna dengan cara yang halus namun berdampak besar,” kata Eleanor Watson, pakar etika AI dari Singularity University dan anggota IEEE, kepada Live Science.

Halusinasi: Fitur atau Cacat?

Menurut para peneliti, halusinasi bukanlah sekadar kekeliruan teknis—melainkan konsekuensi dari cara kerja model AI berbasis large language model (LLM). Model semacam ini tak hanya menyajikan informasi yang pernah dilatih, tetapi juga mencoba menciptakan jawaban baru dengan meniru pola berpikir manusia, termasuk berimajinasi.

“Halusinasi adalah fitur, bukan bug,” ujar Sohrob Kazerounian, peneliti AI dari Vectra AI. “Sebenarnya, semua yang dihasilkan LLM adalah halusinasi. Bedanya, beberapa di antaranya benar.” Tanpa kemampuan ini, lanjutnya, AI hanya akan jadi mesin pencari besar—terbatas hanya pada informasi yang sudah ada sebelumnya.

Artinya, agar bisa kreatif dan menyelesaikan masalah dengan cara baru, AI memang perlu “bermimpi”. Seperti manusia yang membayangkan berbagai kemungkinan saat mencari ide baru.

Masalah Serius dalam Dunia Nyata

Meski penting untuk kreativitas, halusinasi menjadi masalah besar saat AI digunakan dalam bidang yang membutuhkan ketepatan tinggi—seperti medis, hukum, atau keuangan. Informasi yang terdengar masuk akal namun keliru bisa berdampak fatal jika tidak diperiksa ulang.

“Masalah ini makin berbahaya karena kesalahan yang dibuat AI canggih semakin sulit dikenali,” kata Watson. “Konten yang keliru kini sering terselip dalam narasi yang terlihat logis dan meyakinkan.”

Kazerounian menambahkan tidak ada metode universal untuk memastikan jawaban AI benar-benar akurat. “Kita semakin sering melihat contoh nyata—dari referensi yang tidak pernah ada, chatbot yang menciptakan kebijakan perusahaan fiktif, hingga jawaban yang meyakinkan tapi salah total.”

Masih Bisa Dikendalikan?

Meski sulit dihilangkan sepenuhnya, beberapa pendekatan bisa membantu mengurangi risiko halusinasi AI. Salah satunya adalah retrieval-augmented generation, di mana model AI mengambil data dari sumber informasi tepercaya untuk mendasari jawabannya.

Strategi lain adalah mendorong model untuk memeriksa dan membandingkan jawaban, atau menggunakan kerangka logika tertentu dalam menyusun tanggapan. Pelatihan tambahan dari manusia maupun AI evaluator juga dapat membantu model lebih fokus pada ketepatan dibanding kreativitas liar.

Watson juga menyarankan agar model dilatih untuk mengenali ketidakpastiannya sendiri. Alih-alih memberi jawaban yang terdengar yakin meski keliru, AI bisa dirancang untuk menyampaikan keraguan dan merekomendasikan pengecekan manusia.

Tetap Butuh Skeptisisme

Pada akhirnya, baik Watson maupun Kazerounian sepakat: halusinasi dalam AI kemungkinan besar tak akan bisa dihapus sepenuhnya, terutama pada model yang makin canggih. Karena itu, pengguna harus memperlakukan informasi dari AI dengan sikap skeptis, seperti kita memperlakukan pendapat manusia. (Live Science/Z-2)



Cek berita dan artikel yg lain di Google News dan dan ikuti WhatsApp channel mediaindonesia.com
Editor : Thalatie Yani
Berita Lainnya