Yapay zeka tarafından oluşturulan metin interneti nasıl zehirliyor?
Bu, AI için çılgın bir yıl oldu. Çevrimiçi olarak çok zaman geçirdiyseniz, muhtemelen DALL-E 2 veya Stable Diffusion gibi AI sistemleri tarafından oluşturulan resimlere veya OpenAI’nin büyük dil modeli GPT’nin en son enkarnasyonu olan ChatGPT tarafından yazılan şakalara, denemelere veya diğer metinlere rastlamışsınızdır. -3.
Bazen bir resim veya bir metin parçasının bir yapay zeka tarafından oluşturulduğu açıktır. Ancak giderek artan bir şekilde, bu modellerin ürettiği çıktılar, bizi bunun bir insan tarafından yapıldığını düşünmeye kolayca kandırabilir. Ve özellikle büyük dil modelleri kendinden emin saçmalıklardır: Kulağa doğru gibi görünen ama aslında yanlışlarla dolu olabilecek metinler oluştururlar.
Bunun biraz eğlenceli olması önemli olmasa da, yapay zeka modelleri filtrelenmemiş sağlık tavsiyesi sunmak veya diğer önemli bilgi biçimlerini sağlamak için kullanılırsa ciddi sonuçlara yol açabilir. Yapay zeka sistemleri ayrıca, tükettiğimiz bilgileri ve hatta gerçeklik algımızı çarpıtarak yığınlarca yanlış bilgi, kötüye kullanım ve spam üretmeyi aptalca kolaylaştırabilir. Örneğin, seçimler sırasında özellikle endişe verici olabilir.
Bu kolayca erişilebilen büyük dil modellerinin çoğalması önemli bir soruyu gündeme getiriyor: İnternette okuduklarımızın bir insan mı yoksa bir makine tarafından mı yazıldığını nasıl bileceğiz? Yapay zeka tarafından oluşturulan metni tespit etmek için şu anda sahip olduğumuz araçları inceleyen bir hikaye yayınladım. Spoiler uyarısı: Günümüzün algılama araç kiti, ChatGPT’ye karşı ne yazık ki yetersiz.
Ancak daha ciddi bir uzun vadeli çıkarım var. Gerçek zamanlı olarak bir saçmalık kartopunun doğuşuna tanık olabiliriz.
Büyük dil modelleri, insanların çevrimiçi yazdığı tüm zehirli, aptalca, yanlış, kötü niyetli şeyler de dahil olmak üzere metin için internetten kazıyarak oluşturulan veri kümeleri üzerinde eğitilir. Bitmiş AI modelleri, bu yanlışlıkları gerçek olarak kusuyor ve çıktıları çevrimiçi olarak her yere yayılıyor. Teknoloji şirketleri, daha büyük, daha inandırıcı modeller yetiştirmek için kullandıkları yapay zeka ile yazılmış metinleri toplayarak interneti yeniden kazıyor ve insanların tekrar tekrar kazınmadan önce daha fazla saçmalık üretmek için kullanabileceği, mide bulandırıcı.
Yapay zekanın kendi kendini beslemesi ve giderek daha kirli çıktılar üretmesi gibi bu sorun, görüntülere kadar uzanıyor. King’s College London’da yapay zeka araştırmacısı olan Mike Cook, üretken yapay zeka modellerinin geleceği hakkındaki yeni yazısında meslektaşım Will Douglas Heaven’a “İnternet artık yapay zeka tarafından yapılan görüntülerle sonsuza dek kirlenmiş durumda” dedi.
2022’de yaptığımız görseller bundan sonra yapılacak her modelin bir parçası olacak.”