AI Halüsinasyonu

Birçoğumuz halüsinasyonu yalnızca insanların deneyimlediğini düşünürüz ancak durum olarak böyle değil. Günümüz teknolojisinin reddedilemez gerçeği AI sohbet robotları da kendi yöntemleriyle halüsinasyon görme yeteneğine sahiptir. Bir yapay zeka sistemi halüsinasyon gördüğünde, yanlış veya saçma sapan bir yanıt verir, ancak isteğinizi yerine getirdiğine inanır. Başka bir deyişle, AI halüsinasyonu dediğimiz şey AI sohbet robotunun, tutarsız, hatalı, anlamsız veya yalanlarla dolu bir yanıttan emin olmasıdır.

İyi kurulmuş yapay zeka sohbet robotları, kitaplardan, akademik dergilerden, filmlerden veya başka bir yerden büyük miktarda bilgi ile eğitilir. Ancak, her şeyi bilmiyorlar, bu nedenle bilgi tabanları büyük olsa da hala sınırlı. Bunun da ötesinde, günümüzün en büyük yapay zeka sohbet robotlarının doğal insan dilini yorumlama ve kullanma yeteneklerine rağmen, bu sistemler mükemmel olmaktan uzaktır ve bazen bazı şeyler yanlış anlaşılabilir. Bu aynı zamanda AI halüsinasyonu olarak ifade ettiğimiz durumun ortaya çıkmasına da katkıda bulunur.

Yapay zeka sohbet robotunun kafası bir istemle yeterince karıştığında ancak bunu fark etmediğinde, sonuç olarak halüsinasyonlar gelebilir. AI halüsinasyonu örnekleri çoğaltılabilir ancak bunun anladığımız iki farklı senaryoya göz atalım.

  • Seçtiğiniz AI sohbet robotundan glütensiz ekmek için bir saatlik bir tarif bulmasını istersiniz. Tabii ki, yapımı sadece bir saat süren glütensiz bir ekmek tarifi bulmak çok zor, ancak chatbot size bunu söylemek yerine yine de deniyor. Bunun yerine, size 2 saat süren glütensiz gözleme tarifi verilir, ki bu istediğiniz şey değildir.
  • Bir diğer örneğimizde, sohbet robotuna Everest Dağı’nda buz pateni yapmak için en iyi yeri nasıl bulacağınızı sorarsınız ve size bir ipucu listesi sunar. Açıkçası, Everest Dağı’nda buz pateni yapmak imkansız, ancak yapay zeka ile donatılmış sohbet robotu bu gerçeği gözden kaçırıyor ve yine de ciddi bir yanıt veriyor. Bu durumda, doğru bilgi verdiğine dair halüsinasyon gördü.

Ancak yapay zeka sohbet robotu, isteğinizi yerine getirdiğine inanıyor. Daha fazla bilgiye veya daha net talimatlara ihtiyaç duyduğundan söz etmiyor. Bu senaryolarda, sohbet botu en iyi yanıtı sağladığına dair halüsinasyon görmüştür. Hatalı istemler yapay zeka halüsinasyonu dediğimiz bu duruma yol açabilirken, işler bundan biraz daha derine iniyor.

Yapay Zeka Halüsinasyonlarının Teknik Yönü

Tipik AI sohbet botu, yapay sinir ağlarını kullanarak çalışır. Bu sinir ağları, insan beynindekiler kadar gelişmiş olmasa da hala oldukça karmaşıktırlar.

Örneğin ChatGPT’yi ele alalım. Bu yapay zeka sohbet robotunun sinir ağı, metni alır ve bir yanıt üretmek için işler. Bu süreçte, metin, giriş katmanı, gizli katmanlar ve çıktı katmanı gibi birden çok nöral katmandan geçer. Metin, giriş katmanına ulaştığında sayısal olarak kodlanır ve bu kod daha sonra ChatGPT’nin eğitim verileri kullanılarak yorumlanır. Veriler daha sonra çıktı katmanına ulaştığında kodu çözülür ve bu noktada kullanıcının istemine bir yanıt verilir.

Bu süreçte, ChatGPT’nin kelimelerin en doğal ve bilgilendirici yanıtı oluşturma olasılığını (insan konuşma kalıplarına dayalı olarak) test etmesi gibi çeşitli başka şeyler de vardır.

Ancak bir istemi almak, yorumlamak ve yararlı bir yanıt vermek her zaman mükemmel gitmez. İstem sinir ağına beslendikten sonra, birçok şey ters gidebilir. İstem, sohbet robotunun eğitim verilerinin kapsamının ötesine geçebilir veya sohbet botu metindeki herhangi bir kalıbı ayırt edemeyebilir. Bu sorunlardan biri veya her ikisi ortaya çıktığında, sonuç olarak AI halüsinasyonu dediğimiz durum ortaya çıkabilir.

Bir AI sohbet robotunun halüsinasyon görmeye teşvik edilmesinin bilinen birkaç yolu vardır:

  • Birden çok istek içeren uzun, karmaşık istemler.
  • Duygu yüklü dil.
  • Çelişkili dil.
  • Gerçekçi olmayan sorular veya istekler.
  • Tek bir istemden kaynaklanan son derece uzun konuşmalar.

ChatGPT, Google Bard ve Claude gibi sohbet robotları, belirli bir istemin mantıklı olmadığını veya iyileştirilmesi gerektiğini tespit edip etmediklerini size söyleyebilir. Ancak hatalı istemlerin tespiti %100 değildir ve halüsinasyonlara yol açan mevcut hata paylarıdır.

Hangi Yapay Zeka Sohbet Robotları Halüsinasyon Görüyor?

Popüler sohbet robotlarında yapay zeka halüsinasyonları üzerine çeşitli çalışmalar yapılmıştır. Ulusal Tıp Kütüphanesi (NIH), oldukça popüler iki yapay zeka sohbet robotu olan ChatGPT ve Google Bard’daki halüsinasyonlar üzerine çalışmalar yayınladı.

ChatGPT ile ilgili NIH çalışmasında odak noktası, sohbet robotunun bilimsel verileri anlama ve sağlama becerisine yönelikti. Bu çalışmada, ChatGPT güvenilir bilimsel makaleler yazabilse de ürettiği verilerin gerçek ve tamamen uydurma olanların bir karışımı olduğu sonucuna varıldı. Ayrıca, bu keşfin ChatGPT gibi akademik yazılarda büyük dil modellerinin kullanılmasının bütünlüğü ve doğruluğu konusunda endişeleri artırdığı sonucuna varıldı.

NIH’nin Google Bard ile ilgili çalışması, sohbet robotunun sağlık verilerini yorumlama ve sağlama yeteneğiyle ilgiliydi. Burada AI halüsinasyonu tepkilerinin verildiği de tespit edildi. Bir örnekte Bard, bilgi istemindeki bir kısaltmayı başka bir şey olarak yanlış yorumladı ve bu nedenle uydurma alıntılarla birlikte işe yaramaz bir yanıt verdi.

Claude’un yaratıcısı Anthropic, sohbet robotunun halüsinasyon görebileceğini açıkça belirtti. “Claude halüsinasyon görüyor” başlıklı bir Anthropic bildirisinde, Anthropic’in halüsinasyon olaylarını en aza indirme çabalarına rağmen, halüsinasyonların hala olduğu belirtildi. Özellikle, Anthropic, Claude’un yanıtlarındaki halüsinasyonlar sorununun henüz tam olarak çözülmediğini belirtti.

Yapay Zeka Halüsinasyon Sorunlarını Çözmek İçin Geliştirme Yapılıyor Mu?

Yazımızda bahsettiğimiz AI halüsinasyon örnekleri endişe verici olsa da geliştiriciler hiçbir şekilde sorunu görmezden gelmiyor.

Yeni AI sohbet sürümleri piyasaya sürülmeye devam ettikçe, sistemin istemleri işleme yeteneği gelişme eğilimindedir. Eğitim verilerinin kalitesini artırarak, daha yeni eğitim verileri sağlayarak, düzenli testler yaparak ve yanıt parametrelerini iyileştirerek AI halüsinasyon örnekleri azaltılabilir.

Yapılan bir araştırmaya göre GPT-4 ve GPT-4 Turbo, diğer yapay zeka modellerine kıyasla en düşük halüsinasyon oranlarına sahip. GPT-4 ve GPT-4 Turbo %3 halüsinasyon oranına sahipken, GPT-3.5 Turbo %3,5 halüsinasyon oranıyla ikinci sırada yer aldı. Bu da gösteriyor ki yeni GPT sürümleri daha az bir halüsinasyon oranına sahiptir.

Anthropic’in Claude 2’si %8.5’lik bir halüsinasyon oranına sahipti, ancak Kasım 2023’te piyasaya sürülen Claude 2.1’in daha düşük bir orana sahip olup olmayacağını zaman gösterecek.

Google’ın LaMDA ve Palm 2’nin halefi olan Gemini Pro AI modeli, %4,8’lik bir halüsinasyon oranına sahipti. Vectara, ilk Claude modeli için bir oran vermese de Google Palm 2 ve Google Palm 2 sohbetinin sırasıyla %12,1 ve %27,2 gibi çok yüksek halüsinasyon oranlarına sahip olduğunu belirtti.

AI Halüsinasyonu Nasıl Önlenir?

Bir yapay zeka sohbet botu kullandığınızda yapay zeka halüsinasyonunun gerçekleşmeyeceğini garanti etmenin bir yolu olmasa da bunun olma olasılığını en aza indirmek için deneyebileceğiniz birkaç yöntem vardır:

  • İstemlerinizi nispeten kısa ve öz tutun.
  • Tek bir komut istemine çok sayıda istek yığmayın.
  • Yapay zeka sohbet robotu doğru cevabı veremezse “Bilmiyorum” deme seçeneği verin.
  • İstemlerinizi tarafsız tutun ve duygu yüklü bir dilden kaçının.
  • Çelişkili bir dil, gerçekler veya rakamlar kullanmayın.

AI sohbet robotunun size verdiği herhangi bir bilgiyi doğrulamak da önemlidir. Bu araçlar harika olgusal kaynaklar olsa da halüsinasyon yanlış bilgilere yol açabilir, bu nedenle yapay zeka sohbet robotları web aramasının yerine kullanılmamalıdır.

Yapay zeka halüsinasyonu konusunda çok endişeliyseniz, halüsinasyon hala önemli bir sorun olduğundan, şimdilik yapay zeka sohbet robotlarından uzak durmak isteyebilirsiniz.

BİR CEVAP BIRAK

Please enter your comment!
Please enter your name here