Algoritma: AI tarafından oluşturulan sanat, etik, telif hakkı, güvenlik hakkında zor soruları gündeme getiriyor
Kendine özgü stili sayesinde Rutkowski, geçtiğimiz ayın sonlarında piyasaya sürülen yeni açık kaynaklı AI sanat oluşturucu Stable Diffusion’da en sık kullanılan komutlardan biri ve Picasso gibi dünyanın en ünlü sanatçılarından çok daha popüler. Adı yaklaşık 93.000 kez bir bilgi istemi olarak kullanılmıştır.
Ama bundan memnun değil. Bunun geçimini tehdit edebileceğini düşünüyor ve kendisine çalışmasının bu şekilde kullanılmasını kabul edip etmeme seçeneği hiçbir zaman verilmedi.
Hikaye, bundan etkilenecek insanları düşünmeden harika bir şey ortaya çıkarmak için acele eden AI geliştiricilerinin bir başka örneğidir.
Stable Difusion, herkesin kullanabileceği ücretsiz olup, ürünler oluşturmak için güçlü bir model kullanmak isteyen AI geliştiricileri için harika bir kaynak sağlar. Ancak bu açık kaynaklı programlar, internetten görüntüler sıyırılarak oluşturulduğundan, genellikle izinsiz ve sanatçılara uygun bir atıf yapılmadan oluşturulduğundan, etik, telif hakkı ve güvenlikle ilgili zor soruları gündeme getiriyorlar.
Rutkowski gibi sanatçılar bıktı. Hâlâ ilk günler, ancak büyüyen bir sanatçı koalisyonu, sorunun nasıl çözüleceğini bulmaya çalışıyor. Gelecekte, sanat sektörünün film ve müzik endüstrilerinde kullanılana benzer oyun başına ödeme veya abonelik modellerine doğru kaydığını görebiliriz. Merak ediyorsan ve daha fazlasını öğrenmek istiyorsan hikayemi oku.
Ve sadece sanatçılar değil: Özellikle bu teknolojiler internet altyapısının daha önemli bir parçası haline geldikçe, AI modellerinin eğitim veri setlerine nelerin dahil olduğu konusunda hepimiz endişe duymalıyız.
Geçen yıl yayınlanan bir makalede, AI araştırmacıları Abeba Birhane, Vinay Uday Prabhu ve Emmanuel Kahembwe, Kararlı Yayılım oluşturmak için kullanılana benzer daha küçük bir veri setini analiz etti. Bulguları üzücü. Veriler internetten kazındığı ve internet korkunç bir yer olduğu için, veri seti açık tecavüz görüntüleri, pornografi, kötü niyetli klişeler ve ırkçı ve etnik hakaretlerle dolu.
Have I Been Trained adlı bir web sitesi, insanların en son popüler AI sanat modellerini eğitmek için kullanılan görüntüleri aramasına olanak tanır. Masum arama terimleri bile çok sayıda rahatsız edici sonuç alır. Veritabanında etnik kökenimi aramayı denedim ve tek aldığım porno oldu. Bir sürü porno. Yapay zekanın “Asyalı” kelimesiyle ilişkilendirdiği görünen tek şeyin Doğu Asyalı çıplak kadınlar olması iç karartıcı bir düşünce.
Herkes bunu AI sektörünün çözmesi gereken bir sorun olarak görmüyor. Stability.AI’nin kurucusu Emad Mostaque, Stable Diffusion’ı kurdu. söz konusu Twitter’da bu modeller etrafındaki etik tartışmanın “insanlara veya topluma güvenmeyen paternalist aptallık” olduğunu düşündü.
Ama büyük bir güvenlik sorunu var. Montreal AI Ethics Institute’un kurucusu ve Boston Consulting Group’ta sorumlu bir AI uzmanı olan Abhishek Gupta, Stable Diffusion ve geniş dil modeli BLOOM gibi ücretsiz açık kaynaklı modellerin kötü niyetli oyunculara minimum kaynaklarla geniş ölçekte zararlı içerik üretme araçları sağladığını savunuyor. .
Gupta, bu sistemlerin sağladığı tahribat ölçeğinin, insanların oluşturabileceği görüntü sayısını sınırlamak ve tehlikeli içeriğin oluşturulmasını kısıtlamak gibi geleneksel kontrollerin etkinliğini sınırlayacağını söylüyor. Steroidler hakkında derin sahtekarlık veya dezenformasyon düşünün. Gupta, güçlü bir AI sistemi “vahşi ortama girdiğinde”, “bu gerçek bir travmaya neden olabilir … örneğin, sakıncalı içerik oluşturarak” diyor. [someone’s] benzerlik.”
Kediyi çantaya geri koyamayızGupta, bu yüzden bu yapay zeka modelleriyle vahşi doğada nasıl başa çıkacağımızı gerçekten düşünmemiz gerektiğini söylüyor. Bu, AI sistemlerinin piyasaya sürüldükten sonra nasıl kullanıldığını izlemeyi ve “en kötü senaryolarda bile zararları en aza indirebilecek” kontrolleri düşünmeyi içerir.
Derin Öğrenme
Yeni Çin görüntü oluşturma AI’sında Tiananmen Meydanı yok