Headline
Diskoneksi antara tren rupiah dan IHSG dipengaruhi kredibilitas kebijakan makro.
Diskoneksi antara tren rupiah dan IHSG dipengaruhi kredibilitas kebijakan makro.
Kumpulan Berita DPR RI
FENOMENA AI hallucination menjadi salah satu kekhawatiran terbesar dalam pemanfaatan teknologi. Hal ini disampaikan dalam sesi diskusi edukasi AI di Jakarta, Co-Founder & CEO Kata.ai, Irzan Raditya, menjelaskan secara gamblang bahwa halusinasi AI adalah tantangan utama yang harus diantisipasi.
Menurut Irzan, fenomena halusinasi AI adalah ancaman serius, karena dapat menjadi hoaks yang ditimbulkan langsung oleh AI. Masalah ini muncul karena model AI memprediksi jawaban berdasarkan pola bahasa, bukan berdasarkan verifikasi fakta.
Ketika tidak memiliki informasi yang akurat, AI dapat menciptakan jawaban yang tampak meyakinkan tetapi sesungguhnya salah atau sepenuhnya fiktif.
Irzan juga menegaskan bahwa fenomena ini tidak hanya terjadi pada perindividu saja. Dalam korporasi, seperti bank misalnya, halusinasi pada AI berbahaya karena menyangkut kepercayaan kepada konsumen.
“Kalau tantangan utama dari AI, untuk kita sebagai publik konsumen (individu) itu ada pada dissinformation. Namun, sebagai bisnis ketika menggunakan AI, apalagi untuk public facing kepada nasabah, tantangan utamanya itu hallucination (halusinasi AI),” ujar Irzan pada sesi edukasi AI, Senin (24/11/2025).
Irzan menjelaskan setidaknya ada 2 faktor yang menyebabkan AI suka berhalusinasi atau menjawab tidak sesuai fakta.
Setiap model memiliki kemampuan berbeda. Mengambil contoh dari Chat-GPT, model terbaru dari AI ini, yaitu GPT-4 atau GPT-5 memiliki tingkat akurasi lebih tinggi, tetapi tetap tidak 100% bebas halusinasi.
Irzan menegaskan pentingnya guardrailing atau batasan teknis untuk mengarahkan AI. Guardrailing sendiri merupakan serangkaian aturan, batasan, dan kontrol teknis yang dipasang untuk memastikan bahwa AI hanya menghasilkan jawaban yang aman, akurat, dan sesuai konteks, tanpa keluar jalur hingga mengarang informasi.
Guardrailling ini biasa dilakukan saat pengguna memasukan prompt kepada AI, pengguna harus merinci secara jelas bagaimana AI ini harus bekerja agar tidak keluar pada batas.
“Perlu ada teknis-teknis, yaitu guardrailing, supaya informasi yang diberikan AI sesuai fakta-fakta yang ada,” ujar Irzan.
Beberapa yang bisa dilakukan antara lain:
Pendekatan ini memastikan bahwa jawaban AI tidak keluar jalur. (Z-4)
AI seperti ChatGPT, Copilot, dan Google Gemini kini membantu banyak orang merencanakan liburan. Namun, tak jarang muncul “halusinasi” yang menyesatkan.
Penelitian terbaru OpenAI mengungkap alasan matematis di balik halusinasi AI seperti ChatGPT.
Fenomena halusinasi AI, di mana kecerdasan buatan menghasilkan informasi salah, menjadi perhatian serius seiring makin canggihnya model AI.
Copyright @ 2026 Media Group - mediaindonesia. All Rights Reserved