Headline

Diskoneksi antara tren rupiah dan IHSG dipengaruhi kredibilitas kebijakan makro.

AI Hallucination: Kecerdasan Buatan Beri Jawaban Ngawur, Lakukan ini agar Pencarian Lebih Akurat

Abi Rama
24/11/2025 19:17
AI Hallucination: Kecerdasan Buatan Beri Jawaban Ngawur, Lakukan ini agar Pencarian Lebih Akurat
Ilustrasi, AI(freepik)

FENOMENA AI hallucination menjadi salah satu kekhawatiran terbesar dalam pemanfaatan teknologi. Hal ini disampaikan dalam sesi diskusi edukasi AI di Jakarta, Co-Founder & CEO Kata.ai, Irzan Raditya, menjelaskan secara gamblang bahwa halusinasi AI adalah tantangan utama yang harus diantisipasi.

Mengarang Fakta yang Sebenarnya Tidak Ada

Menurut Irzan, fenomena halusinasi AI adalah ancaman serius, karena dapat menjadi hoaks yang ditimbulkan langsung oleh AI. Masalah ini muncul karena model AI memprediksi jawaban berdasarkan pola bahasa, bukan berdasarkan verifikasi fakta.

Ketika tidak memiliki informasi yang akurat, AI dapat menciptakan jawaban yang tampak meyakinkan tetapi sesungguhnya salah atau sepenuhnya fiktif.

Irzan juga menegaskan bahwa fenomena ini tidak hanya terjadi pada perindividu saja. Dalam korporasi, seperti bank misalnya, halusinasi pada AI berbahaya karena menyangkut kepercayaan kepada konsumen. 

“Kalau tantangan utama dari AI, untuk kita sebagai publik konsumen (individu) itu ada pada dissinformation. Namun, sebagai bisnis ketika menggunakan AI, apalagi untuk public facing kepada nasabah, tantangan utamanya itu hallucination (halusinasi AI),” ujar Irzan pada sesi edukasi AI, Senin (24/11/2025).

Kenapa AI Bisa Berhalusinasi?

Irzan menjelaskan setidaknya ada 2 faktor yang menyebabkan AI suka berhalusinasi atau menjawab tidak sesuai fakta.

1. Model AI

Setiap model memiliki kemampuan berbeda. Mengambil contoh dari Chat-GPT, model terbaru dari AI ini, yaitu GPT-4 atau GPT-5 memiliki tingkat akurasi lebih tinggi, tetapi tetap tidak 100% bebas halusinasi.

2. Tidak Ada Pembatas yang Jelas 

Irzan menegaskan pentingnya guardrailing atau batasan teknis untuk mengarahkan AI. Guardrailing sendiri merupakan serangkaian aturan, batasan, dan kontrol teknis yang dipasang untuk memastikan bahwa AI hanya menghasilkan jawaban yang aman, akurat, dan sesuai konteks, tanpa keluar jalur hingga mengarang informasi.

Guardrailling ini biasa dilakukan saat pengguna memasukan prompt kepada AI, pengguna harus merinci secara  jelas bagaimana AI ini harus bekerja agar tidak keluar pada batas.

“Perlu ada teknis-teknis, yaitu guardrailing,  supaya informasi yang diberikan AI sesuai fakta-fakta yang ada,” ujar Irzan. 

Cara Mengatasi Halusinasi pada AI

Beberapa yang bisa dilakukan antara lain:

  • Tidak langsung percaya, gunakan laman pencarian manual untuk memverifikasi data.
  • Gunakan fitur search-based answers.
  • Memberikan AI hanya akses ke sumber internal yang sudah terverifikasi.

Pendekatan ini memastikan bahwa jawaban AI tidak keluar jalur. (Z-4)



Cek berita dan artikel yg lain di Google News dan dan ikuti WhatsApp channel mediaindonesia.com
Editor : Reynaldi
Berita Lainnya