- Yapay zeka halüsinasyonu, modeller kendinden emin bir şekilde yanlış veya uydurma bilgiler ürettiğinde ortaya çıkar; bunun nedeni düşük veri kalitesi, aşırı uyum veya belirsiz istemlerdir.
- Halüsinasyonlar gerçek hatalardan uydurma içeriklere kadar çeşitlilik gösterir ve güvene zarar verebilir, işletmelere milyarlarca dolara mal olabilir veya zararlı yanlış bilgiler yayabilir.
- Kilit önleme adımları arasında güvenilir yapay zeka platformlarının seçilmesi, geri alma destekli nesil (RAG) eklenmesi, hassas istemlerin hazırlanması ve insan gözetiminin dahil edilmesi yer alıyor.
Sizce Joaquin Phoenix Scarlett Johansson'a çilekte kaç Rolduğunu sorsaydı ona aşık olur muydu? LinkedIn'deyseniz cevabın 3 olduğunu biliyorsunuzdur. (Ya da, bilirsiniz, eğer okuyabiliyorsanız.)

Ancak yapay zeka sohbet robotları için bu her zaman bu kadar basit değildir.
Muhtemelen insanların YZ halüsinasyonlarının saçmalığıyla dalga geçtiğini görmüşsünüzdür. Adil olmak gerekirse, görünüşte sonsuz bilgiye, insan benzeri muhakeme becerilerine ve yıldırım hızında görev yürütmeye sahip bir yapay zeka modelinin anaokulu düzeyinde bir matematik probleminde başarısız olması biraz saçma.
Ancak eğlence ve oyunların ardında daha ciddi ve potansiyel olarak sinsi bir gerçeklik yatmaktadır.
Bu makalede, YZ halüsinasyonlarından bahsedeceğim - ne oldukları, neden oldukları, neden önemli oldukları ve bunları önlemek için alabileceğiniz önlemler.
Yapay zeka halüsinasyonu nedir?
YZ halüsinasyonu, bir YZ modelinin yanlış, yanıltıcı veya tamamen uydurma bilgiler sunmasıdır. Bu yanlış bilgiler makul görünebilir ve çoğu durumda fark edilmeyebilir.
LLMsyaygın olarak benimsenmesi nedeniyle, halüsinasyonlara çoğunlukla üretken metin modelleri bağlamında atıfta bulunulmaktadır. Gerçekte, Üretken Yapay Zeka'nın herhangi bir uygulaması için risk oluştururlar.
Yapay zekada halüsinasyona ne sebep olur?
Yapay zeka halüsinasyonu, modeller yanlış kalıplar öğrendiğinde gerçekleşir.

Yapay zeka bağlamında örüntüler, görünmeyen veriler arasında genelleme yapmak için bireysel eğitim örneklerini kullanma yeteneğini ifade eder. Bu, bir metnin devamını oluşturmak için bir dizi kelime veya bir köpeğe karşılık gelen görüntü piksellerinin dağılımı olabilir.
LLM halüsinasyonu durumunda model, yanlış olmasına rağmen bir dizi kelimeyi kullanıcının sorusunun en olası takipçisi olarak kabul etmiştir.
Bu, aşağıdaki nedenlerden bir veya daha fazlasına bağlı olabilir:
Düşük Kaliteli Eğitim Verileri

ChatGPT ve benzeri LLMs 'ler çok sayıda veri üzerinde eğitilir. Bu veriler, ne kadar bol olursa olsun, aşağıdaki nedenlerden dolayı kusurludur:
- Belirli konulardaki boşluklar
- Gerçek dünyadaki önyargıları yansıtmak
- Kasıtlı yanlış bilgilendirme veya işaretlenmemiş hiciv
- Yanlı, dengesiz veya "eğik taraflı" verilerde olduğu gibi.
Modelin bir Yunan tanrısı hariç tüm tanrılar hakkındaki bilgilerle eğitildiği bir senaryo düşünün.
Yunan mitolojisi benzeri konular - aşk, etik, ihanet - arasında istatistiksel bağlantılar kurma yeteneği, istatistiksel modeli göz önüne alındığında "olası" olduğunu düşündüğü bazı uydurma mitolojileri bir araya getirmesine neden olabilir.
Bu durum, bir kadın özneye yönelik istemlerin çoğunun aşırı cinselleştirilmiş görüntüler ürettiği görüntü üretiminde de görülmektedir. Belirli bir tasvir türüne yönelik önyargı, üretilen görüntü türlerini koşullandırmaktadır.
Çilek kelimesinin yazılışı muhtemelen eğitim verilerinde, anadili İngilizce olmayanların kötü şöhretli bir sorun noktası olan çift R ile ilgili bir tartışma bağlamında ortaya çıkmıştır. Bu durumda, 2 sayısı veya "double" kelimesi muhtemelen kelimenin yazımıyla bağlantılı olarak ortaya çıkmıştır.
Öte yandan, verilerin 3 R'ye sahip olduğundan bahsetmesi pek olası değildir.
Çıktı saçma çünkü soru şu: Hangi durumda birisi bir kelime yazar ve sonra nasıl yazıldığını sorar?
Model Mimarisi ve Oluşturma Yöntemi
Modeller şaşırtıcı derecede karmaşık sinir ağı mimarilerinden oluşturulmuştur. Küçük farklılıklar, modellerin eğitim verileri ve girdi istemleriyle etkileşime girme şeklini etkiler. Bir modelin halüsinasyonu azaltma kapasitesi, titiz araştırma ve testler yoluyla aşamalı olarak iyileştirmeye tabidir.
Bunun da ötesinde, üretimin nasıl uygulandığıdır. Kelime kelime (aslında kelime-parça), modeller takip etmesi en muhtemel kelimeyi tahmin eder. Yani:
"Hızlı kahverengi tilki tembel ___'nin üzerinden atlar."

Bir sonraki en olası kelimenin "köpek" olduğunu belirleyecektir. Ancak başka kelimeler de mümkündür. Ve yalnızca bir sonraki en olası kelimeyi belirlemeye dayalı nesil, ilginç olmayan, öngörülebilir sonuçlar üretir.
Bu da yanıtları heyecan verici ama tutarlı kılmak için yaratıcı örnekleme yöntemlerinin kullanılması gerektiği anlamına geliyor. Bunu yaparken de bazen gerçekler gözden kaçabiliyor.
Aşırı Uyum

Aşırı uyum, modelin verileri yeni girdilere genelleme yapamayacak kadar yakından tahmin etmek üzere eğitildiği durumdur.
Yani, eğer bir model olsaydım (annemin dediği gibi), o zaman köpekleri tanımak için uygun şekilde eğitilmiş bir model olurdum:
Tüylü, sarkık kulaklı, oyuncu ve küçük kahverengi bir düğme burunlu.
Ama onları sadece şu şekilde tanısaydım, fazla uymuş olurdum:
Çenesinin altında kahverengi bir nokta var, "Frank" ismine cevap veriyor ve iyi bir çift Nike'ımı tamamen çiğnedi.
Bu bağlamda LLMgenellikle cevabı bilmediği yerlerde geri çekilmek yerine eğitim verilerinde görülen bilgileri kusuyor gibi görünür.
Bir chatbot'a bir şirketin iade politikasını sorduğunuzu varsayalım. Eğer bilmiyorsa, sizi bilgilendirmesi gerekir. Yine de aşırı uyumluysa, benzer bir şirketin politikasını iade edebilir.
Zayıf Yönlendirme
Şirketler, yapay zekanın yalnızca girdileri kadar iyi olduğu bilgisiyle hızlı mühendislik sertifikaları veriyor.
İyi oluşturulmuş bir bilgi istemi tam olarak ifade edilir, niş terminolojiden kaçınır ve gerekli tüm bağlamı sağlar.
Bunun nedeni, halüsinasyonun birçok düşük olasılıklı çıktının kenarında gerçekleşmesidir.
Diyelim ki "Köpekbalığı Kız'ın konusu ne?" diye sordunuz. Şimdi, bir insan "huh, köpekbalığı kız" diye düşünür. İstatistik dünyasında, olasılıklar şunlardır:
- The Adventures of Sharkboy and Lavagirl - 2005 yapımı benzer isimli oldukça popüler bir çocuk filmi.
- Köpekbalığı Kız adlı 2024 tarihli bir korku/gerilim filmi - daha az popüler ama daha yeni ve doğru.
- Bu yılın başlarında aynı adı taşıyan bir çocuk kitabı - model indekslemiş ya da indekslememiş olabilir.
Bunların hiçbiri bariz bir seçim değildir, bu da tek bir konuya veya anlatıya daha az bağlılıkla "daha düz" bir olasılık dağılımına neden olur. Daha etkili bir ipucu bağlam sağlayacaktır, yani kullanıcının hangi örneğe atıfta bulunduğunu açıkça belirtecektir.
Bu belirsizlik ve teğetsel alaka çorbası, sadece köpekbalığı ile ilgili bir hikayeye uydurulmuş genel bir olay örgüsü olan bir yanıt üretebilir.
Halüsinasyon görme ihtimalinizi düşürmek, belirsizliği azaltmakla ilgilidir.
YZ Halüsinasyon Türleri
Şimdiye kadar halüsinasyonlardan genel hatlarıyla bahsettim. Gerçek şu ki, yapay zekanın neredeyse tüm yönlerine değiniyor. Yine de netlik adına, farklı kategorileri göz önünde bulundurmak en iyisidir.
Gerçek Hatalar
Çilek örneği de bu noktada devreye giriyor. Gerçeklere dayalı ifadelerin ayrıntılarında hatalar vardır. Bunlar arasında belirli bir olayın gerçekleştiği yıl, bir ülkenin başkenti veya bir istatistiğin rakamları yer alabilir.

Normalde iyi olan bir yanıttaki küçük ayrıntılar, özellikle de kesin sayılar gibi insanların genellikle hatırlamadığı ayrıntılar söz konusu olduğunda, özellikle sinsi olabilir.
Fabrikasyon İçerik
2023 yılında Google'ın Bard'ı yanlış bir şekilde James Webb teleskobunun ötegezegenlerin ilk fotoğraflarını çekmek için kullanıldığını iddia etti. Bu teknik bir yanlışlık meselesi değildi; düpedüz yanlıştı.
Bunlar yukarıdaki gibi cesur iddialar olabilir, ancak daha sıklıkla hiçbir yere gitmeyen URL'ler veya uydurma kod kütüphaneleri ve işlevleri olarak görünür.
Gerçeklere dayalı hatalar ile uydurma içerik arasındaki çizginin her zaman net olmadığını belirtmek gerekir.
Diyelim ki bir araştırmacıyı tartışıyoruz. Eğer bir makalesine atıfta bulunuyorsak ancak yılını yanlış biliyorsak, bu gerçek bir hatadır. İsmi yanlış yazarsak, o zaman ne olur? İsim ve yıl ne olacak?
Yanlış Bilgilendirme
Bu, önceki 2 kategoriden herhangi birine girebilir, ancak kaynağın daha şeffaf olduğu yanlış bilgileri ifade eder.
Google yapay zekasının yapıştırıcı pizza ve taş yemeyi önermesi bunun harika bir örneğidir; kaynak materyal açıkça hicivli ve genellikle zararsızdır - Reddit yorumları The Onion tarafından yazılmıştır, ancak modelin eğitimi bunu hesaba katmamıştır.

Yapay Zeka Halüsinasyonlarının Riskleri
1. Güven Kaybı
Görevlerimizi yapay zekaya devretme özgürlüğünü takdir ediyoruz, ancak güvenimizi kaybetme pahasına değil.
Cursor AI'nin son talihsizliği - kısıtlayıcı bir politika icat eden bir müşteri hizmetleri botu - birçok kullanıcının güvenilirliğini sorgulayarak aboneliklerini iptal etmesine neden oldu.
2. Maliyet
Yapay zeka birçok işletmede ön plana çıkmış durumda ve bu iyi bir şey olsa da bir hata pahalıya mal olabilir.
Google'ın James Webb halüsinasyonu Alphabet'in hisselerinde birkaç saat içinde 100 milyar dolarlık bir düşüşe neden oldu. Ve bu, modellerin yeniden eğitilmesinin maliyetinden önceydi.
3. Zararlı Yanlış Bilgilendirme
Tutkallı pizzanın saçmalığına gülüyoruz, peki ya yanıltıcı tıbbi dozlara ne demeli?
Yapay zekadan gelecek hızlı bir yanıt için uyarılarla dolu ince yazıları okumayı tercih eden ilk kişi ben olacağım. Ama ya yanlışsa? Neredeyse kesinlikle tüm olası tıbbi durumları hesaba katmayacaktır.
3. Güvenlik ve Kötü Amaçlı Yazılımlar
Belirtildiği gibi, AI genellikle kod kütüphanelerinin adlarını uydurur. Var olmayan bir kütüphaneyi yüklemeye çalıştığınızda hiçbir şey olmaz.
Şimdi bir bilgisayar korsanının kötü amaçlı yazılımı kodun içine yerleştirdiğini ve yaygın olarak kullanılan bir kütüphane adı altında yüklediğini düşünün. Kütüphaneyi yüklüyorsunuz ve 💨poof💨: saldırıya uğruyorsunuz.
Böyle bir şey var ve buna slopsquatting deniyor.
Kaba isim bir yana, ne yüklediğiniz konusunda eleştirel olmak ve kulağa egzotik gelen kütüphane isimlerini iki kez kontrol etmekten asla zarar gelmez.
Yapay Zeka Halüsinasyonlarını Önlemek için Adımlar
Modelleri eğitmiyorsanız, veri ve mimari tarafında yapabileceğiniz çok az şey vardır.
İyi haber şu ki, hala alabileceğiniz önlemler var ve bunlar halüsinasyonsuz yapay zeka göndermede büyük fark yaratabilir.
Güvenebileceğiniz Bir Model ve Platform Seçin
Tek başınıza değilsiniz. Yapay zeka şirketlerinin güveni korumak için her türlü çıkarı vardır ve bu da halüsinasyon görmemek anlamına gelir.
YZ ile ne yaptığınıza bağlı olarak, neredeyse her zaman en az birkaç seçeneğiniz vardır ve iyi bir YZ platformu bunu erişilebilir hale getirir. Bu platformlar halüsinasyonları nasıl hafiflettikleri konusunda şeffaf olmalıdır.
RAG (Retrieval-Augmented Generation) kullanın

Modeli kendi bilgisine güvenmek zorunda bırakmayın. Modelinizi RAG ile donatmak, bilginin mevcut olduğunu ve nerede bulunacağını netleştirir.
Yapay zekayı, etkili RAG'nin nasıl uygulanacağına dair basit talimatlar içeren bir platformda çalıştırmak en iyisidir.
Kapsamlı Talimatlar Ekleyin
Bir kez duyduysanız bin kez duymuşsunuzdur: çöp girer, çöp çıkar.
"Kullanıcının sorusunu yanıtla" başarıyı garanti etmeyecektir. Ancak, şöyle bir şey:
# Talimatlar
Lütfen yalnızca SSS belgesine başvurun. Eğer cevap orada görünmüyorsa:
* Kullanıcıya kibarca bilginin mevcut olmadığını bildirin.
* Görüşmeyi bir insan temsilciye yönlendirmeyi teklif edin.
temsilcinizi kontrol altında tutacaktır. Sağlam korkuluklarla net bir şekilde yönlendirmek, serseri bir temsilciye karşı en iyi savunmanızdır.
İnsan Doğrulaması
Yükseltme konusunda, YZ'nin eksikliklerini incelemeye, değerlendirmeye ve ezmeye hazır bir kişinin olması.
Konuşmaları yükseltme veya geriye dönük olarak doğrulama yeteneği, neyin işe yaradığını ve neyin halüsinasyon riski altında olduğunu anlamanızı sağlar. Yapay zeka odaklı iş akışlarının insan gözetimindeolması burada bir zorunluluktur.
Halüsinasyonsuz Yapay Zekayı Bugün Kullanın
Yapay zekanın güvenilirliği konusundaki belirsizlik, işletmeleri dijital dönüşümden alıkoyuyor olabilir.
Botpress'in RAG yetenekleri, döngüde insan entegrasyonu ve kapsamlı güvenlik sistemleri yapay zekayı güvenli ve güvenilir kılar. Temsilciniz sizin için çalışır, tam tersi değil.
Bugün inşa etmeye başlayın. Ücretsiz.