- Halusinasi AI terjadi ketika model dengan percaya diri menghasilkan informasi yang salah atau dibuat-buat, yang disebabkan oleh kualitas data yang buruk, terlalu banyak data, atau permintaan yang ambigu.
- Halusinasi berkisar dari kesalahan faktual hingga konten yang dibuat-buat dan dapat merusak kepercayaan, merugikan bisnis hingga miliaran dolar, atau menyebarkan informasi yang salah dan berbahaya.
- Langkah-langkah pencegahan utama termasuk memilih platform AI yang andal, menambahkan retrieval-augmented generation (RAG), membuat petunjuk yang tepat, dan menyertakan pengawasan manusia.
Menurut Anda, apakah Joaquin Phoenix akan jatuh cinta pada Scarlett Johansson jika dia bertanya padanya berapa banyak huruf Rsdalam stroberi? Jika Anda menggunakan LinkedIn, Anda pasti tahu jawabannya adalah 3. (Atau, Anda tahu, jika Anda bisa membaca.)

Namun bagi chatbot AI, hal ini tidak selalu sesederhana itu.
Anda mungkin pernah melihat orang-orang mengolok-olok absurditas halusinasi AI. Dan sejujurnya, model AI dengan pengetahuan yang tampaknya tak ada habisnya, kemampuan penalaran seperti manusia, dan eksekusi tugas secepat kilat yang gagal dalam soal matematika tingkat taman kanak-kanak, cukup absurd.
Namun, di balik kesenangan dan permainan tersebut, terdapat kenyataan yang lebih serius - dan berpotensi berbahaya.
Dalam artikel ini, saya akan membahas tentang halusinasi AI-apa itu, apa penyebabnya, mengapa hal itu penting, dan langkah-langkah yang dapat Anda lakukan untuk mencegahnya.
Apa yang dimaksud dengan halusinasi AI?
Halusinasi AI adalah ketika model AI menyajikan informasi yang tidak akurat, menyesatkan, atau sepenuhnya dibuat-buat. Informasi palsu ini dapat terlihat masuk akal, dan dalam banyak kasus, tidak terdeteksi.
Karena adopsi LLMsyang meluas, halusinasi paling sering disebut dalam konteks model teks generatif. Pada kenyataannya, hal ini menimbulkan risiko bagi penerapan AI Generatif.
Apa yang menyebabkan halusinasi pada AI?
Halusinasi AI terjadi ketika model mempelajari pola yang salah.

Pola, dalam konteks AI, mengacu pada kemampuannya untuk menggunakan contoh pelatihan individual untuk menggeneralisasi data yang tidak terlihat. Ini bisa berupa serangkaian kata untuk membentuk kelanjutan dari sebuah teks, atau distribusi piksel gambar yang sesuai dengan seekor anjing.
Dalam kasus halusinasi LLM , model menganggap serangkaian kata sebagai tindak lanjut yang paling mungkin dari permintaan pengguna, meskipun itu salah.
Hal ini dapat disebabkan oleh satu atau beberapa alasan berikut:
Data Pelatihan Berkualitas Rendah

ChatGPT dan LLMs serupa dilatih dengan banyak data. Data ini, meskipun berlimpah, tidak sempurna karena:
- Kesenjangan dalam topik-topik tertentu
- Mencerminkan prasangka di dunia nyata
- Kesalahan informasi yang disengaja atau sindiran yang tidak ditandai
- Bias, seperti pada data yang tidak seimbang atau "berat sebelah".
Pertimbangkan sebuah skenario di mana model dilatih dengan informasi tentang semua dewa kecuali satu dewa Yunani.
Kemampuannya untuk menarik hubungan statistik antara topik-topik yang mirip mitologi Yunani - cinta, etika, pengkhianatan - dapat membuatnya merangkai beberapa mitologi yang dianggap "mungkin", mengingat model statistiknya.
Hal ini juga tampak jelas dalam pembuatan gambar, di mana sebagian besar petunjuk untuk subjek wanita menghasilkan gambar yang sangat seksual. Bias terhadap satu jenis penggambaran tertentu mengkondisikan jenis gambar yang dihasilkan.
Pengejaan strawberry kemungkinan besar muncul dalam data pelatihan dalam konteks diskusi tentang huruf R ganda, yang merupakan masalah yang sering dialami oleh penutur bahasa Inggris yang bukan penutur asli. Dalam kasus ini, angka 2 atau kata "double" kemungkinan besar muncul sehubungan dengan pengejaan kata tersebut.
Di sisi lain, tidak mungkin data tersebut menyebutkan bahwa ia memiliki 3 Rs.
Keluarannya tidak masuk akal karena permintaannya adalah: dalam keadaan apa seseorang akan menulis sebuah kata dan kemudian menanyakan tentang bagaimana ejaannya?
Arsitektur Model dan Metode Pembangkitan
Model-model tersebut dibangun dari arsitektur jaringan saraf yang sangat kompleks. Sedikit variasi berdampak pada cara model berinteraksi dengan data pelatihan dan permintaan input. Kapasitas model untuk mengurangi halusinasi dapat ditingkatkan secara bertahap melalui penelitian dan pengujian yang ketat.
Yang terpenting adalah bagaimana generasi diimplementasikan. Kata per kata (sebenarnya kata per kata), model memprediksi kata yang paling mungkin untuk diikuti. Jadi:
"Rubah coklat yang cepat melompati rubah yang malas."

Akan menentukan kata berikutnya yang paling mungkin adalah "anjing". Namun, kata-kata lain mungkin saja terjadi. Dan pembangkitan yang hanya didasarkan pada penentuan satu kata yang paling mungkin menghasilkan hasil yang tidak menarik dan dapat diprediksi.
Hal ini berarti metode pengambilan sampel yang kreatif harus digunakan untuk menjaga agar tanggapan tetap menarik namun tetap koheren. Dalam melakukan hal itu, faktualitas terkadang tidak diperhatikan.
Overfitting

Overfitting adalah ketika model dilatih untuk memprediksi data dengan sangat cermat sehingga gagal untuk menggeneralisasi input baru.
Jadi, jika saya adalah seorang model (seperti yang dikatakan oleh ibu saya), maka saya akan menjadi model yang terlatih dengan baik jika saya mengenali anjing:
Berbulu, memiliki telinga yang melorot, lucu, dan hidung kancing berwarna cokelat.
Tetapi saya akan terlalu berlebihan jika saya hanya mengenalinya sebagai:
Memiliki titik cokelat di bawah dagunya, menjawab nama "Frank", dan benar-benar mengunyah sepasang sepatu Nike saya yang bagus.
Dalam konteks program LLMbiasanya terlihat seperti memuntahkan kembali informasi yang terlihat di data pelatihan, alih-alih mundur jika tidak tahu jawabannya.
Katakanlah Anda bertanya kepada chatbot tentang kebijakan pengembalian barang perusahaan. Jika tidak tahu, ia harus memberi tahu Anda. Meskipun jika terlalu berlebihan, ia mungkin mengembalikan kebijakan perusahaan yang serupa.
Petunjuk yang Buruk
Perusahaan-perusahaan mengeluarkan sertifikat dalam bidang teknik yang cepat dengan pengetahuan bahwa AI hanya sebaik inputnya.
Sebuah prompt yang dibentuk dengan baik diartikulasikan dengan tepat, menghindari terminologi khusus, dan menyediakan semua konteks yang diperlukan.
Hal ini karena halusinasi terjadi di tepi banyak output dengan probabilitas rendah.
Katakanlah Anda bertanya "apa alur cerita gadis hiu?" Sekarang, manusia berpikir "ya, gadis hiu." Dalam dunia statistik, kemungkinannya adalah:
- The Adventures of Sharkboy and Lavagirl - film anak-anak yang cukup populer dari tahun 2005 dengan judul yang sama.
- Film horor/thriller tahun 2024 berjudul Shark Girl - kurang populer tetapi lebih baru dan akurat.
- Buku anak-anak dengan nama yang sama dari awal tahun ini - yang mungkin sudah diindeks atau belum diindeks oleh model ini.
Tak satu pun dari hal tersebut yang merupakan pilihan yang jelas, sehingga menghasilkan distribusi probabilitas yang "datar" dengan komitmen yang lebih rendah terhadap satu topik atau narasi. Sebuah perintah yang lebih efektif akan memberikan konteks, yaitu mengartikulasikan contoh mana yang dimaksud oleh pengguna.
Sup ambiguitas dan relevansi tangensial ini dapat menghasilkan respons yang hanya itu-itu saja: plot umum yang dibuat-buat untuk cerita yang berhubungan dengan hiu.
Menurunkan kemungkinan halusinasi berarti menurunkan ketidakpastian.
Jenis-jenis Halusinasi AI
Sejauh ini saya sudah berbicara tentang halusinasi secara garis besar. Kenyataannya, hal ini menyentuh hampir semua aspek AI. Namun, demi kejelasan, sebaiknya kita mempertimbangkan kategori yang berbeda.
Kesalahan Faktual
Di sinilah contoh stroberi cocok. Terdapat kesalahan dalam rincian pernyataan yang sebenarnya faktual. Hal ini dapat mencakup tahun terjadinya peristiwa tertentu, ibu kota suatu negara, atau angka-angka statistik.

Detail menit dalam respons yang baik bisa sangat berbahaya, terutama ketika menyangkut detail yang tidak sering diingat manusia, seperti angka pasti.
Konten Fabrikasi
Pada tahun 2023, Google Bard secara keliru mengklaim bahwa teleskop James Webb digunakan untuk mengambil gambar pertama dari exoplanet. Ini bukan masalah ketidakakuratan teknis - ini benar-benar salah.
Ini bisa berupa klaim yang berani seperti di atas, tetapi lebih sering muncul sebagai URL yang tidak jelas, atau pustaka kode dan fungsi yang dibuat-buat.
Perlu dicatat bahwa batas antara kesalahan faktual dan konten yang dibuat-buat tidak selalu jelas.
Katakanlah kita sedang mendiskusikan seorang peneliti. Jika kita mengutip makalah mereka tapi salah tahun, itu adalah kesalahan faktual. Jika kita salah menyebutkan nama, lalu bagaimana? Bagaimana dengan nama dan tahun?
Informasi yang salah
Hal ini bisa termasuk dalam salah satu dari 2 kategori sebelumnya, tetapi mengacu pada informasi palsu yang sumbernya lebih transparan.
Google AI yang terkenal merekomendasikan lem pizza dan makan batu adalah contoh yang bagus untuk hal ini; materi sumbernya jelas-jelas satir dan secara umum tidak berbahaya - komentar Reddit yang ditulis oleh The Onion, tetapi pelatihan model tidak memperhitungkan hal itu.

Risiko Halusinasi AI
1. Hilangnya Kepercayaan
Kami menghargai kebebasan untuk menyerahkan tugas-tugas kami kepada AI, tetapi tidak dengan mengorbankan kepercayaan kami.
Kecelakaan yang baru-baru ini terjadi pada Cursor AI - bot layanan pelanggan yang menciptakan kebijakan yang membatasi - telah membuat banyak pengguna membatalkan langganan mereka, dan mempertanyakan keandalannya.
2. Biaya
AI telah menjadi yang terdepan di banyak bisnis, dan meskipun itu adalah hal yang baik, namun jika salah langkah bisa berakibat fatal.
Halusinasi James Webb dari Google menyebabkan penurunan saham Alphabet sebesar $100 miliar selama beberapa jam. Dan itu belum termasuk biaya untuk melatih ulang para model.
3. Kesalahan Informasi yang Berbahaya
Kita menertawakan absurditas lem pizza, tetapi bagaimana dengan dosis medis yang menyesatkan?
Saya akan menjadi orang pertama yang menukar membaca tulisan kecil yang penuh peringatan dengan jawaban cepat dari AI. Tapi bagaimana jika itu salah? Hampir pasti tidak akan memperhitungkan semua kondisi medis yang mungkin terjadi.
3. Keamanan dan Malware
Seperti yang telah disebutkan, AI sering kali membuat nama-nama pustaka kode. Ketika Anda mencoba menginstal pustaka yang tidak ada, tidak ada yang terjadi.
Sekarang bayangkan seorang peretas menyematkan malware ke dalam kode dan mengunggahnya dengan nama perpustakaan yang umum digunakan. Anda menginstal library tersebut, dan 💨bunyi💨: Anda telah diretas.
Ini ada, dan ini disebut slopsquatting.
Terlepas dari namanya yang jorok, tidak ada salahnya untuk bersikap kritis terhadap apa yang Anda instal, dan memeriksa ulang nama-nama pustaka yang terdengar eksotis.
Langkah-langkah untuk Mencegah Halusinasi AI
Jika Anda tidak melatih model, tidak banyak yang dapat Anda lakukan pada sisi data dan arsitektur.
Kabar baiknya, masih ada tindakan pencegahan yang dapat Anda lakukan, dan tindakan tersebut dapat membuat perbedaan besar dalam pengiriman AI yang bebas halusinasi.
Pilih Model dan Platform yang Dapat Anda Percaya
Anda tidak sendirian. Perusahaan AI sangat berkepentingan untuk menjaga kepercayaan, dan itu berarti tidak ada halusinasi.
Bergantung pada apa yang Anda lakukan dengan AI, Anda hampir selalu memiliki setidaknya beberapa opsi, dan platform AI yang baik membuat hal ini dapat diakses. Platform ini harus transparan tentang bagaimana mereka mengurangi halusinasi.
Gunakan RAG (Retrieval-Augmented Generation)

Jangan membuat model mengandalkan pengetahuannya sendiri. Melengkapi model Anda dengan RAG akan memperjelas informasi yang tersedia dan di mana menemukannya.
Sebaiknya jalankan AI pada platform yang memiliki instruksi sederhana tentang cara menerapkan RAG yang efektif.
Tambahkan Instruksi Menyeluruh
Jika Anda pernah mendengarnya sekali, Anda pasti sudah mendengarnya ribuan kali: sampah masuk, sampah keluar.
"Menjawab pertanyaan pengguna" tidak akan menjamin keberhasilan. Akan tetapi, sesuatu seperti:
# Petunjuk
Silakan merujuk secara eksklusif ke dokumen FAQ. Jika jawabannya tidak muncul di sana:
* Memberitahukan dengan sopan kepada pengguna bahwa informasi tersebut tidak tersedia.
* Tawarkan untuk meneruskan percakapan ke agen manusia.
akan membuat agen Anda tetap terkendali. Petunjuk yang jelas dengan pagar pembatas yang kokoh adalah pertahanan terbaik Anda terhadap agen yang nakal.
Verifikasi Manusia
Pada topik eskalasi, memiliki seseorang yang siap untuk memeriksa, mengevaluasi, dan mengatasi kekurangan AI.
Kemampuan untuk meningkatkan, atau memverifikasi percakapan secara retroaktif memungkinkan Anda mengetahui apa yang berhasil dan apa yang berisiko menjadi halusinasi. Human-in-the-loop -pengawasan manusia terhadap alur kerja yang digerakkan oleh AI - adalah suatu keharusan di sini.
Gunakan AI Bebas Halusinasi Hari Ini
Ketidakpastian seputar keandalan AI mungkin membuat bisnis terhambat dalam melakukan transformasi digital.
Kemampuan RAG Botpress, integrasi human-in-the-loop, dan sistem keamanan yang menyeluruh membuat AI aman dan dapat diandalkan. Agen Anda bekerja untuk Anda, bukan sebaliknya.
Mulaimembangun hari ini. Ini gratis.