Kısa bir süre önce OpenAI, metin açıklamalarını videolara dönüştürebilen yeni sistemi Sora’yı piyasaya sürerek yapay zeka alanındaki gelişmiş yeteneklerini ortaya koydu. Bununla birlikte, özellikle 2024’te yapılacak seçimler bağlamında, böylesine güçlü bir teknolojinin potansiyel olarak kötüye kullanılmasına ilişkin endişeler bulunuyor. Sora kullanılarak deepfake’lerin yaratılması hafife alınmamalı.
Sora: vaatler ve tehlikeler
Sora’nın videoları kusurlu olsa da etkileyici. Bazıları animatörler, VFX sanatçıları veya hareket tasarımcıları tarafından kapsamlı bir çalışma gerektirirken, Sora basit bir cümleden hızlı bir şekilde 60 saniyelik videolar üretebiliyor. Bu önemli bir teknolojik ilerlemeyi temsil ediyor. SocialProof Security’nin kurucu ortağı Rachel Tobac’a göre, bu yeni aracın üretebildikleri ile güvenilirlik açısından daha önce yapılanlar arasındaki fark önemli.
Sora bunu iki yapay zeka teknolojisini birleştirerek başarıyor. Bu süreçte kullanılan teknoloji, rastgele pikselleri keskin görüntüler halinde düzenlemek için DALL-E gibi difüzyon modellerine dayanıyor. Ayrıca, bu görüntüleri tutarlı diziler halinde düzenlemek için ‘dönüşüm mimarisi’ olarak bilinen başka bir teknolojiden yararlanıyor.
Berkeley’deki Kaliforniya Üniversitesi’nden Hany Farid tarafından açıklandığı üzere, bu etkileyici yetenekler endişelere yol açmıştır. Diğer üretici yapay zeka yöntemlerinde olduğu gibi, metinden videoya dönüşümün hızla gelişmeye devam edip etmeyeceği ve doğruyu yanlıştan ayırmayı zorlaştırıp zorlaştırmayacağı belirsizdir.
Gerçek hayattan daha büyük mamutlar © OpenAI |
Bu teknolojinin yapay zeka destekli ses klonlama ile birleştirilmesi, insanları hiç gerçekleşmemiş şeyleri söylerken ve yaparken gösteren deepfake’ler için yeni olanaklar yaratabilir. Model şu anda kötüye kullanım potansiyelini değerlendirmek üzere test ediliyor. Bir OpenAI sözcüsüne göre analiz, yanlış bilgilendirme, nefret içeriği ve önyargı gibi alanlarda uzmanlardan oluşan bir ekip tarafından yürütülüyor.
Daha güçlü bir yasal çerçeveye doğru
Güçlü bir araç olan Sora’nın yanlış bilginin yayılması üzerindeki potansiyel etkisi gerçek bir endişe kaynağıdır. Üretilen videolar kusurlu olsa da, daha önce var olan her şeyi aşıyor. Sora’nın henüz emekleme aşamasında olduğunu ve Midjourney kadar hızlı gelişebileceğini unutmamak gerekir. Bu videoların bir gün gerçeklikten ayırt edilemez hale gelmesi mümkün.
Bu tuzağa düşmekten nasıl kaçınabiliriz? Hükümetler, yapay zeka şirketleri ve sosyal ağlar arasında yakın işbirliği dışında çok fazla çözüm yok. İçeriğin YZ tarafından üretildiğini kanıtlayan ‘filigran’ gibi mekanizmalar da faydalı olabilir. Ancak, zorluğun ölçeği göz önüne alındığında, bu önlemlerin yeterli olup olmayacağı belirsiz.
Kaynak: New Scientist