Salı, Aralık 24, 2024
No menu items!
Ana SayfaAraştırmaYapay zeka modelleri kendi kendilerini eğittikçe anlamı unutuyor

Yapay zeka modelleri kendi kendilerini eğittikçe anlamı unutuyor

Sonunda, ‘kendi gerçeklik projeksiyonuyla zehirlenerek’ çöker.

OpenAI ve Google tarafından sunulanlar gibi büyük dil modelleri, çalışmak için çok sayıda eğitim verisine ihtiyaç duyuyor. Bu modellerin en son sürümleri mevcut internetin büyük bir kısmını taramış durumda ve bu da bazılarının gelecekteki yinelemeleri eğitmek için yeterli yeni veri kalmayabileceğinden korkmasına neden oldu. Meta CEO’su Mark Zuckerberg gibi sektörün önde gelen bazı isimleri bu veri ikilemine bir çözüm önerdi: yeni YZ sistemlerini eski YZ çıktıları üzerinde eğitmek.

Ancak yeni araştırmalar, geçmiş model çıktılarının yamyamlaştırılmasının hızlı bir şekilde saçma sapan YZ dizileriyle sonuçlanacağını ve sonunda “model çöküşü” olarak adlandırılan duruma yol açabileceğini öne sürüyor. Bir örnekte, araştırmacılar bir yapay zekayı kilise mimarisi hakkında iyi huylu bir paragrafla beslediler, ancak nesiller boyunca hızla bozulmasını sağladılar. En son, en “gelişmiş” model, “kara kuyruklu tavşanlar” ifadesini sürekli tekrarladı.

Bu hafta Nature dergisinde yayınlanan bir çalışma, yapay zeka üzerinde eğitilmiş yapay zeka senaryosunu teste tabi tuttu. Araştırmacılar başlangıçta orijinal, insan tarafından oluşturulmuş metinle besledikleri kendi dil modellerini oluşturdular. Daha sonra, her biri kendisinden önceki model tarafından üretilen metin çıktısı üzerinde eğitilen dokuz nesil model daha oluşturdular. Son nesilde ortaya çıkan sonuç, orijinal metinle esasen hiçbir ilgisi olmayan, kulağa gerçeküstü gelen anlamsız sözlerdi. Araştırmacılar, zaman içinde ve birbirini izleyen nesiller boyunca modellerinin “kendi gerçeklik projeksiyonuyla zehirlendiğini” söylüyor.

Yapay zeka modelleri kendi kendilerini eğittikçe anlamı unutuyor
Araştırmacılar, YZ’nin görünüşte kendi üzerine çöktüğü bu garip durumu, erken ve geç evre biçimlerde kendini gösterebilen dejeneratif bir süreç olan “model çöküşü” olarak adlandırıyor. Erken aşamada çöküş, orijinal eğitim verilerinden birkaç nesil sonra ortaya çıkan yapay zeka modellerinin, orijinal metindeki aykırı değerleri ya da nadirlikleri unutmasıyla ortaya çıkıyor. Bu durum, en olası çıktıları giderek daha yaygın hale getirme etkisine sahiptir. Bu gerçek dünyada bir sorun olabilir, çünkü azınlık görüşlerinin veya ifadelerinin azalmasına neden olabilir. Erken çöküş belirtileri gösteren bir LLM, çeşitlilikten yoksun ve ezici bir aynılıktan muzdarip bir gerçeklik versiyonu sunabilir.

Çöküşün ilerleyen aşamalarında işler daha da garipleşir. Bu son nesillerde, modeller üzerinde eğitilen modeller orijinal eğitim verilerinden o kadar uzaklaşmıştır ki, ilk eğitimin önemli yönlerini unutmaya başlarlar ve olay örgüsünü tamamen kaybederler. İşte bu aşamada modeller tamamen anlamsız saçmalıklar üretmeye başlıyor. Araştırmacılar bu durumda, modelin kendi önceki çıktılarını “gelişigüzel” kendi kendine yamyamlaştırmasının “ortaya çıkan modelde geri dönüşü olmayan kusurlara neden olduğunu” söylüyor.

Araştırmacılar, bu basamaklı etkinin ve nihai model çöküşünün, kendi verileri üzerinde eğitilen büyük modeller için kaçınılmaz olduğunu iddia ediyor. Bu araştırmanın özellikle dil modellerine odaklandığını ve görüntü ve video jeneratörleri gibi çok modlu modellerin kendi üzerlerinde eğitilmeleri durumunda neler olabileceği üzerinde durmadığını belirtmek önemlidir. Bu araştırma aynı zamanda kendi verileri üzerinde eğitim alan bir modelde ne olması gerektiğine de odaklanmaktadır. Örneğin Meta’dan bir modelin OpenAI’den üretilen çıktılar üzerinde eğitilmesi durumunda ne olacağı tam olarak belli değil.

Orijinal insan metnini korumak çöküşü engelleyebilir
Gerçek dünya modelinin çökmesi ihtimali, düşünülemeyecek bir varsayım değil. Şu anda, tamamen LLM’ler tarafından üretilen makaleler ve blog yazıları içeren sayısız web sitesi yayında. Mümkün olduğunca hızlı bir şekilde yeni modeller oluşturma yarışında, YZ tarafından üretilen bu saçmalıkların çoğunun eğitim setlerine sızabileceği düşünülemez değil.

Yapay zeka tarafından üretilen içeriğin yanlışlıkla eğitim setlerine dahil edilmesine karşı olası bir çözüm, platformlar arasında içeriğin gerçekliğini ve bir makine tarafından üretilip üretilmediğini açıkça gösteren bir filigran standardını teşvik etmek olacaktır. Google, Adobe ve büyük teknoloji oyuncuları, The Coalition for Content Provenance and Authenticity’nin (C2PA) bir parçası olarak standartlaştırmaya çalıştıkları özel bir “içerik kimlik bilgisi” rozetiyle tam da bunu yapmaya çalışıyorlar.

Ancak bu sadece görüntüler için geçerli olacak. YZ tarafından oluşturulan metinlerin filigranlanması ve hatta mevcut tespit yazılımları kullanılarak doğru bir şekilde tespit edilmesi çok daha zordur. Daha gerçekçi bir yaklaşım, YZ geliştiricilerinin materyalleri YZ manipülasyonu belirtilerine karşı titizlikle incelemelerini ve potansiyel olarak yüksek kaliteli verileri üzerinde eğitime erişim için saygın insan kaynaklarına ödeme yapmalarını gerektirebilir. İnsan eğitim verilerinin bu güvenceleri olmadan, internet bir YZ kusmuğu dalgası tarafından sular altında kalma riskiyle karşı karşıya kalır. Bunu kimse istemez.

*Bu yazı AI trained on AI churns out gibberish garbage başlıklı yazıdan çevrilmiştir.

Benzer Haberler

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Popüler Konular

Son Yorumlar