AI modelleri, gerçek kişilerin fotoğraflarını ve telif hakkıyla korunan resimleri tükürür
Kararlı Difüzyon açık kaynaktır, yani herkes onu analiz edebilir ve araştırabilir. Imagen kapalı, ancak Google araştırmacılara erişim izni verdi. Singh, çalışmanın analiz için bu modellere araştırma erişimi vermenin ne kadar önemli olduğunun harika bir örneği olduğunu söylüyor ve şirketlerin OpenAI’nin ChatGPT’si gibi diğer yapay zeka modelleriyle benzer şekilde şeffaf olması gerektiğini savunuyor.
Ancak, sonuçlar etkileyici olsa da, bazı uyarılarla birlikte gelirler. Grubun bir parçası olan ETH Zürih’te bilgisayar bilimi yardımcı doçenti Florian Tramèr, araştırmacıların çıkarmayı başardığı görüntülerin eğitim verilerinde birden çok kez göründüğünü veya veri setindeki diğer görüntülere göre oldukça sıra dışı olduğunu söylüyor.
Tramèr, sıra dışı görünen veya sıra dışı isimlere sahip kişilerin ezberlenme riskinin daha yüksek olduğunu söylüyor.
Araştırmacılar, AI modelinden bireylerin fotoğraflarının yalnızca nispeten az sayıda tam kopyasını çıkarabildiler: Webster’a göre milyonda bir görüntü kopyaydı.
Ancak bu yine de endişe verici, diyor Tramèr: “Umarım kimse bu sonuçlara bakıp ‘Aslında bu sayılar milyonda bir ise o kadar da kötü değil’ demez.”
“Önemli olan sıfırdan büyük olmaları” diye ekliyor.