Headline

DPR minta agar dana tanggap darurat bencana tidak dihambat birokrasi berbelit.

Pakar Oxford Peringatkan Risiko Tragedi 'Hindenburg' pada Teknologi AI

Thalatie K Yani
19/2/2026 12:32
Pakar Oxford Peringatkan Risiko Tragedi 'Hindenburg' pada Teknologi AI
Ilustrasi(freepik)

PERSAINGAN sengit perusahaan teknologi dalam meluncurkan kecerdasan buatan (AI) ke pasar global memicu kekhawatiran serius. Michael Wooldridge, Profesor AI dari Universitas Oxford, memperingatkan adanya risiko bencana besar layaknya tragedi balon udara Hindenburg yang dapat menghancurkan kepercayaan dunia terhadap teknologi ini.

Wooldridge menyoroti tekanan komersial yang luar biasa besar bagi perusahaan untuk segera merilis alat AI baru. Ironisnya, banyak produk dilepas ke publik sebelum kemampuan dan potensi cacatnya dipahami sepenuhnya. Munculnya berbagai chatbot dengan sistem pengaman (guardrails) yang mudah ditembus menjadi bukti insentif komersial kini lebih diprioritaskan ketimbang pengujian keselamatan yang hati-hati.

"Ini adalah skenario teknologi klasik," ujarnya. "Anda memiliki teknologi yang sangat, sangat menjanjikan, namun tidak diuji secara ketat sesuai keinginan, dan tekanan komersial di baliknya tidak tertahankan."

Analogi Tragedi Hindenburg

Dalam kuliah penghargaan Michael Faraday di Royal Society, Wooldridge menyebut "momen Hindenburg" sangat mungkin terjadi. Sebagai catatan sejarah, kapal udara Hindenburg terbakar hebat saat mendarat di New Jersey pada 1937, menewaskan 36 orang. Peristiwa itu seketika mematikan minat global terhadap kapal udara selamanya.

"Tragedi Hindenburg menghancurkan minat global pada kapal udara; sejak saat itu, teknologi tersebut mati. Momen serupa merupakan risiko nyata bagi AI," kata Wooldridge. Mengingat AI kini tertanam di berbagai sistem, insiden besar bisa menghantam sektor apa pun.

Ia mencontohkan beberapa skenario fatal: pembaruan perangkat lunak mematikan pada mobil otonom, peretasan berbasis AI yang melumpuhkan maskapai penerbangan dunia, hingga keruntuhan ekonomi perusahaan besar akibat kesalahan fatal AI.

Kesenjangan Ekspektasi dan Realitas

Meski prihatin, Wooldridge menekankan bahwa ia tidak bermaksud menyerang AI modern. Namun, ia menyoroti celah antara apa yang diharapkan peneliti dengan apa yang muncul saat ini. Alih-alih memberikan solusi yang tuntas dan logis, AI kontemporer bekerja berdasarkan probabilitas kata.

"AI kontemporer tidak sehat maupun lengkap: ia sangat, sangat perkiraan," jelasnya.

Hal ini menyebabkan AI memiliki kemampuan yang "bergerigi": sangat efektif pada tugas tertentu, namun sangat buruk pada tugas lainnya. Masalahnya, chatbot AI sering gagal dengan cara yang tidak terduga dan tidak tahu kapan mereka salah, namun dirancang untuk tetap memberikan jawaban dengan nada percaya diri.

Bahaya Memanusiakan AI

Risiko lain muncul saat orang mulai memperlakukan AI layaknya manusia. Survei tahun 2025 oleh Center for Democracy and Technology menunjukkan hampir sepertiga siswa melaporkan bahwa mereka atau teman mereka pernah menjalani hubungan romantis dengan AI.

"Perusahaan ingin menyajikan AI dengan cara yang sangat mirip manusia, tapi menurut saya itu jalur yang sangat berbahaya," tegas Wooldridge. "Kita perlu memahami bahwa ini hanyalah spreadsheet yang dimuliakan, mereka adalah alat dan tidak lebih dari itu."

Sebagai perbandingan, ia memuji penggambaran AI dalam serial Star Trek (1968), di mana komputer menjawab dengan suara robotik yang jujur jika data tidak mencukupi. "Mungkin kita butuh AI berbicara dengan suara komputer Star Trek. Dengan begitu, Anda tidak akan pernah percaya bahwa itu adalah manusia," pungkasnya. (The Gurdian/Z-2)



Cek berita dan artikel yg lain di Google News dan dan ikuti WhatsApp channel mediaindonesia.com
Editor : Thalatie Yani
Berita Lainnya