Pazartesi, Ocak 6, 2025
No menu items!
Ana SayfaBilimOpenAI'nin Sora video oluşturucusunun gerçekçiliği güvenlik endişelerini artırıyor

OpenAI’nin Sora video oluşturucusunun gerçekçiliği güvenlik endişelerini artırıyor

Metni videoya dönüştürebilen en yeni yapay zeka modeli, bazı yapay zeka araştırmacılarının övgüsünü kazanırken, 2024’teki küresel seçimler sırasında video sahteciliği risklerine ilişkin endişeleri de artırıyor

OpenAI, metin açıklamalarını fotogerçekçi videolara dönüştürebilen Sora adlı bir program olan en son yapay zeka sistemini tanıttı. Video oluşturma modeli, yapay zeka teknolojisinin ilerlemesiyle ilgili heyecanı artırırken, yapay deepfake videoların dünya çapında çok önemli bir seçim yılında yanlış bilgi ve dezenformasyonu nasıl kötüleştirdiğine dair artan endişeleri de beraberinde getiriyor.

Sora AI modeli şu anda tek başına metin talimatları veya bir görüntüyle birlikte metin kullanarak 60 saniye uzunluğa kadar videolar oluşturabiliyor. Bir tanıtım videosu, “şık bir kadının sıcak parlayan neon ve animasyonlu şehir tabelalarıyla dolu bir Tokyo caddesinde nasıl yürüdüğünü” anlatan bir metin istemiyle başlıyor. Diğer örnekler arasında karda gezinen bir köpek, yollarda ilerleyen araçlar ve şehir gökdelenleri arasında havada yüzen köpekbalıkları gibi daha fantastik senaryolar yer alıyor.

Berkeley’deki California Üniversitesi’nden Hany Farid, “Üretken YZ’deki diğer tekniklerde olduğu gibi, metinden videoya teknolojisinin de hızla gelişmeye devam etmeyeceğine inanmak için hiçbir neden yok; bu da bizi sahteyi gerçekten ayırt etmenin zor olacağı bir döneme giderek daha da yaklaştırıyor” diyor. “Bu teknoloji, yapay zeka destekli ses klonlama ile birleştirilirse, insanların hiç yapmadıkları şeyleri söyledikleri ve yaptıkları derin taklitler yaratma konusunda tamamen yeni bir cephe açabilir.”

Sora kısmen OpenAI’nin görüntü oluşturucu DALL-E ve GPT büyük dil modelleri gibi önceden var olan teknolojilerine dayanıyor. Metinden videoya yapay zeka modelleri gerçekçilik ve erişilebilirlik açısından bu diğer teknolojilerin biraz gerisinde kaldı, ancak sosyal mühendisliğe odaklanan bir beyaz şapkalı bilgisayar korsanlığı organizasyonu olan SocialProof Security’nin kurucu ortağı Rachel Tobac, Sora gösteriminin daha öncekilere göre “daha inandırıcı ve daha az karikatürize” olduğunu söylüyor.

Bu yüksek gerçekçilik seviyesine ulaşmak için Sora iki farklı yapay zeka yaklaşımını birleştiriyor. Bunlardan ilki, DALL-E gibi yapay zeka görüntü oluşturucularında kullanılanlara benzer bir difüzyon modeli. Bu modeller rastgele görüntü piksellerini kademeli olarak tutarlı bir görüntüye dönüştürmeyi öğrenir. İkinci yapay zeka tekniği “transformatör mimarisi” olarak adlandırılır ve sıralı verileri bağlamsallaştırmak ve bir araya getirmek için kullanılır. Örneğin, büyük dil modelleri, kelimeleri genel olarak anlaşılabilir cümleler halinde bir araya getirmek için dönüştürücü mimarisini kullanır. Bu durumda OpenAI, video klipleri Sora’nın dönüştürücü mimarisinin işleyebileceği görsel “uzay-zaman yamalarına” ayırdı.

Sora’nın videoları hala yürüyen bir insanın sol ve sağ bacaklarının yer değiştirmesi, bir sandalyenin rastgele havada süzülmesi veya ısırılmış bir kurabiyenin sihirli bir şekilde ısırık izi olmaması gibi pek çok hata içeriyor. Yine de, NVIDIA’da kıdemli bir araştırma bilimcisi olan Jim Fan, Sora’yı dünyaları simüle edebilen “veri odaklı bir fizik motoru” olarak övmek için sosyal medya platformu X’e gitti.

Princeton Üniversitesi’nden Arvind Narayanan, Sora’nın videolarının çok fazla hareket içeren karmaşık sahneleri tasvir ederken hala bazı garip aksaklıklar göstermesinin, bu tür deepfake videoların şimdilik tespit edilebileceğini gösterdiğini söylüyor. Ancak uzun vadede “toplum olarak uyum sağlamak için başka yollar bulmamız gerekeceği” konusunda da uyarıda bulundu.

OpenAI, Sora’nın kötüye kullanım potansiyelini değerlendirmek için uzmanların yapay zeka modelinin güvenlik önlemlerini kırmaya çalıştığı “kırmızı ekip” tatbikatlarını gerçekleştirirken Sora’yı halka açık hale getirmeyi erteledi. Bir OpenAI sözcüsü, şu anda Sora’yı test eden seçkin bir grup insanın “yanlış bilgilendirme, nefret dolu içerik ve önyargı gibi alanlarda alan uzmanları” olduğunu söylüyor.

Bu testler hayati önem taşıyor çünkü yapay videolar kötü niyetli kişilerin örneğin birini taciz etmek ya da siyasi bir seçimi etkilemek amacıyla yanlış görüntüler üretmesine yol açabilir. Yapay zeka tarafından üretilen sahte videolarla beslenen yanlış bilgilendirme ve dezenformasyon, akademi, iş dünyası, hükümet ve diğer sektörlerdeki liderlerin yanı sıra yapay zeka uzmanları için de büyük bir endişe kaynağı.

Tobac, “Sora kesinlikle sıradan insanları kandırabilecek videolar yaratabilir,” diyor. “Videonun inandırıcı olması için mükemmel olması gerekmiyor, çünkü pek çok insan videonun da resimler kadar kolay manipüle edilebileceğinin hala farkında değil.”

Tobac, yapay zeka şirketlerinin, Sora halka açıldığında ortaya çıkması muhtemel yanlış bilgi ve dezenformasyon ölçeğiyle başa çıkmak için sosyal medya ağları ve hükümetlerle işbirliği yapması gerekeceğini söylüyor. Savunmalar, YZ tarafından üretilen içerik için benzersiz tanımlayıcıların veya “filigranların” uygulanmasını içerebilir.

OpenAI sözcüsü, OpenAI’nin 2024 yılında Sora’yı daha yaygın bir şekilde kullanılabilir hale getirme planları olup olmadığı sorulduğunda, şirketi “Sora’yı OpenAI’nin ürünlerinde kullanılabilir hale getirmeden önce birkaç önemli güvenlik adımı atıyor” olarak tanımladı. Örneğin, şirket halihazırda ticari yapay zeka modellerinin aşırı şiddet, cinsel içerik, nefret dolu görüntüler ve gerçek politikacılar veya ünlülerin tasvirlerini üretmesini engellemeyi amaçlayan otomatik süreçler kullanıyor. Bu yıl seçimlere her zamankinden daha fazla insanın katılmasıyla, bu güvenlik adımları çok önemli olacak.

*Bu yazı Realism of OpenAI’s Sora video generator raises security concerns başlıklı yazıdan çevrilmiştir.

Benzer Haberler

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Popüler Konular

Son Yorumlar