Yapay zeka gelişmeye devam ederken, önemli bir sorun ortaya çıktı: “Halüsinasyonlar”. Bunlar, YZ tarafından üretilen ve gerçeklikte hiçbir temeli olmayan çıktılardır. Halüsinasyonlar küçük hatalardan düpedüz tuhaf ve uydurma bilgilere kadar her şey olabilir. Bu sorun birçok insanın YZ sistemlerine güvenip güvenemeyeceklerini merak etmesine neden oluyor. Eğer bir YZ yanlış ve hatta tamamen uydurma iddialar üretebiliyorsa ve bunları doğru bilgiler kadar makul gösterebiliyorsa, kritik görevler için ona nasıl güvenebiliriz?
Araştırmacılar halüsinasyon sorununun üstesinden gelmek için, yapay zeka sistemlerini gerçek ve kurgu arasında ayrım yapmak üzere eğitmek için doğrulanmış bilgilerin büyük veri kümelerini kullanmak da dahil olmak üzere çeşitli yaklaşımlar araştırıyorlar. Ancak bazı uzmanlar, halüsinasyon olasılığını tamamen ortadan kaldırmanın, yapay zekayı bu kadar değerli kılan yaratıcılığı da bastırmayı gerektireceğini savunuyor.
YZ’nin sağlıktan finansa ve medyaya kadar birçok sektörde giderek daha önemli bir rol oynaması nedeniyle riskler yüksek. Bu arayışın başarısı, YZ’nin geleceği ve günlük hayatımızdaki uygulamaları için geniş kapsamlı etkilere sahip olabilir.
YZ neden halüsinasyon görüyor?
ChatGPT gibi üretici yapay zeka sistemleri bazen “halüsinasyonlar” üretir – gerçeklere dayanmayan çıktılar – çünkü bu sistemler metni nasıl oluşturur? Bir yanıt oluştururken, YZ esasen kendisinden önce gelen sözcüklere dayanarak bir sonraki olası sözcüğü tahmin eder. (Bu, telefon klavyenizin bir sonraki kelimeyi önermesinden çok daha karmaşıktır, ancak aynı ilkeler üzerine inşa edilmiştir). Bunu kelime kelime yapmaya devam ederek tam cümleler ve paragraflar oluşturur.
Pennsylvania Üniversitesi’nde bilgisayar ve bilgi bilimi profesörü olan Chris Callison-Burch, Freethink’e yaptığı açıklamada, sorunun, bazı kelimelerin diğerlerini takip etme olasılığının, ortaya çıkan cümlenin gerçekçi olmasını sağlamanın güvenilir bir yolu olmaması olduğunu söylüyor. Yapay zeka kulağa makul gelen ama doğru olmayan kelimeleri bir araya getirebilir.
“Modeli daha deterministik hale getirdiğiniz anda … kaliteyi yok edersiniz.”-Maria Sukhareva
ChatGPT’nin temel matematikle olan mücadelesi, metin oluşturma yaklaşımının sınırlarını vurgulamaktadır. Örneğin, eğitim verilerinde karşılaştığı “iki artı iki” gibi iki sayıyı toplaması istendiğinde, doğru olarak “dört” yanıtını verebilmiştir. Ancak bunun nedeni, “iki artı iki eşittir” ifadesini takip eden “dört” kelimesine yüksek bir olasılık atamasıydı, sayıların ve toplamanın matematiksel kavramlarını anladığı için değil.
Bu örnek, sistemin eğitim verilerindeki örüntülere güvenmesinin, basit aritmetikte bile gerçek muhakeme gerektiren görevlerde nasıl başarısızlığa yol açabileceğini göstermektedir.
Callison-Burch, “Ancak daha önce hiç görmediği çok uzun iki sayı alırsanız, basitçe rastgele bir piyango numarası üretecektir” dedi. “Bu durum, ChatGPT ve benzeri dil öğrenme modelleri (LLM’ler) tarafından kullanılan bu tür otomatik regresif üretimin, gerçeklere dayalı veya sembolik muhakeme türlerini gerçekleştirmeyi zorlaştırdığını gösteriyor.”
Sıradan Yapay Zeka
Halüsinasyonları ortadan kaldırmak zor bir iştir çünkü bunlar bir sohbet robotunun çalışma şeklinin doğal bir parçasıdır. Aslında, metin üretiminin değişken, hafif rastgele doğası, bu yeni AI sohbet robotlarının kalitesini bu kadar iyi yapan şeyin bir parçasıdır.
Siemens’te bir yapay zeka uzmanı olan Maria Sukhareva bir röportajında, “Modeli daha deterministik hale getirdiğiniz anda, temel olarak onu en olası kelimeyi tahmin etmeye zorlarsınız, halüsinasyonları büyük ölçüde kısıtlarsınız, ancak model her zaman aynı metni üreteceği için kaliteyi yok edersiniz” dedi.
Callison-Burch, LLM’leri kullanarak halüsinasyonları ortadan kaldırmak muhtemelen mümkün olmasa da, yaygınlıklarını azaltmak için etkili teknikler geliştirildiğini belirtti. Umut verici yaklaşımlardan biri “geri getirme ile artırılmış nesil” olarak adlandırılıyor. Sistem, yalnızca YZ’nin mevcut eğitim verilerine ve kullanıcı tarafından sağlanan bağlama güvenmek yerine, Wikipedia veya diğer web sayfalarında ilgili bilgileri arayabilir. Daha sonra daha doğru özetler veya yanıtlar oluşturmak için bu (muhtemelen daha gerçekçi) bilgileri kullanır.
Halüsinasyonu azaltmaya yönelik bir başka yaklaşım da, yapay zekanın değişkenleri değiştirerek ve sorunu birden fazla perspektiften inceleyerek farklı senaryoları test etmesine olanak tanıyan “nedensel yapay zeka” kullanmaktır.
UserExperience.ai’nin kurucusu Tony Fernandes, Freethink’e verdiği demeçte, “Veri setini doğru oluşturmak ve makul sonuçlar olarak kabul edilenler için korkuluklar oluşturmak, halüsinasyonların ortaya çıkmasını önleyebilir” dedi. “Ancak nihai cevap, yapay zeka süreci ne kadar sofistike olursa olsun, insanların sürece dahil olması ve gözetim sağlaması gerekeceğidir.”
Yapay zeka hatalarını azaltmaya yardımcı olan Aporia şirketini yöneten Liran Hason, yapay zekanın bir şeyler uydurmasını engellemek için, siber güvenlik dünyasının bilgisayar korsanlarının veri izinsiz girişlerini durdurmak için nasıl güvenlik duvarları yaptığını öğrenmemiz gerektiğini söylüyor. Anahtar, YZ çıktılarını gerçek zamanlı olarak filtrelemek ve düzeltmek için tasarlanmış proaktif önlemler olan YZ korkuluklarını uygulamakta yatıyor. Bu korkuluklar, halüsinasyonları tespit edip düzelterek ve potansiyel kötü niyetli saldırıları engelleyerek ilk savunma hattı görevi görür.
“Halüsinasyonları tamamen ortadan kaldırmak zordur çünkü bu YZ uygulamaları yanlışlıklar veya güncel olmayan bilgiler içerebilen bilgi kaynaklarına dayanmaktadır.”
Yaratıcılık üzerindeki etkisi
Yapay zeka tarafından üretilen içerik söz konusu olduğunda, halüsinasyonlar iki ucu keskin bir kılıç olabilir. Callison-Burch, tıbbi durumları teşhis etmek, finansal tavsiyeler sunmak veya haber olaylarını özetlemek gibi doğruluğun çok önemli olduğu durumlarda, gerçeklikten bu sapmaların sorunlu ve hatta zararlı olabileceğini söyledi.
Bununla birlikte, yazı, sanat veya şiir gibi yaratıcı uğraşlar alanında, yapay zeka halüsinasyonları değerli bir araç olabilir. Mevcut gerçek bilgilerden uzaklaşıp hayal gücüne girmeleri, yaratıcı süreci besleyerek yeni ve yenilikçi fikirlerin ortaya çıkmasını sağlayabilir.
“Örneğin, kendi yaratıcı yazma tarzımı taklit etmek istersem, yazdığım geçmiş hikayelerden örnekler alabilir ve ardından LLM’nin benzer bir tarzda takip etmesini sağlayabilirim” diye ekledi.
“Yapay zeka modelleri söz konusu olduğunda, her iki yöne de sahip olabiliriz.” -Kjell Carlsson
YZ sistemlerinde halüsinasyonlar ve yaratıcılık arasındaki bağlantı, insan hayal gücünde gördüklerimizle paralellik gösteriyor. Domino Data Lab Yapay Zeka Strateji Başkanı Kjell Carlsson bir röportajında, tıpkı insanların zihinlerini gerçekliğin sınırlarının ötesinde dolaştırarak yaratıcı fikirler üretmesi gibi, en yenilikçi ve orijinal çıktıları üreten yapay zeka modellerinin de zaman zaman gerçek dünya gerçeklerine dayanmayan içerikler üretmeye daha yatkın olduğunu belirtti.
“YZ modelleri ve insanlar için bunun zararı önlemek için fazlasıyla haklı olduğu zamanlar vardır” diye ekledi. “Ancak, konu YZ modelleri olduğunda, her iki yolu da kullanabiliriz. Belirli bir YZ uygulaması düzeyinde halüsinasyonları ortadan kaldırabiliriz ve kaldırmalıyız çünkü – benimsenmesi ve etki yaratması için – mümkün olduğunca amaçlandığı gibi davranması gerekir. Bununla birlikte, bu kısıtlamaları kaldırabilir, daha az bağlam sağlayabilir ve bu YZ modellerini kendi yaratıcı düşüncemizi teşvik etmek için kullanabiliriz.”
*Bu yazı Can we stop AI hallucinations? And do we even want to? başlıklı yazıdan çevrilmiştir.