BİLİM VE TEKNOLOJİ

AI tarafından oluşturulan bu sevimli hayvan görüntülerinin arkasındaki karanlık sır


DALL-E 2 ve Imagen gibi web’den alınan çok sayıda belge ve görüntü üzerinde eğitilmiş büyük modellerin, bu verilerin en iyi yanı sıra en kötü yönlerini de özümsediği bir sır değil. OpenAI ve Google bunu açıkça kabul etmektedir.

Imagen web sitesinde – karate kemeri takan ejder meyvesini ve şapka ve güneş gözlüğü takan küçük kaktüsü geçerek – toplumsal etki bölümüne gidin ve şunu elde edin: “Antrenman verilerimizin bir alt kümesi, gürültüyü gidermek ve istenmeyen pornografik görüntüler ve toksik dil gibi içerikler de kullandık [the] Pornografik görüntüler, ırkçı hakaretler ve zararlı sosyal klişeler dahil olmak üzere çok çeşitli uygunsuz içerik içerdiği bilinen LAION-400M veri kümesi. Imagen, düzgünleştirilmemiş web ölçeğindeki veriler üzerinde eğitilmiş metin kodlayıcılara dayanır ve bu nedenle büyük dil modellerinin sosyal önyargılarını ve sınırlamalarını devralır. Bu nedenle, Imagen’in daha fazla güvenlik önlemi olmadan kamu kullanımı için piyasaya sürmeme kararımıza rehberlik eden zararlı stereotipler ve temsiller kodlaması riski vardır.”

Bu, OpenAI’nin 2019’da GPT-3’ü ortaya çıkardığında yaptığı kabulün aynısı: “İnternet eğitimli modellerin internet ölçeğinde önyargıları var.” Ve Londra Queen Mary Üniversitesi’nde yapay zeka yaratıcılığı üzerine araştırma yapan Mike Cook’un işaret ettiği gibi, Google’ın geniş dil modeli PaLM ve OpenAI’nin DALL-E 2’sine eşlik eden etik beyanlarında. Kısacası, bu firmalar modellerinin yetenekli olduğunu biliyorlar. korkunç içerik üretmek ve bunu nasıl düzeltecekleri hakkında hiçbir fikirleri yok.



Source link