BİLİM VE TEKNOLOJİ

Yapay zekadan daha az önyargılı olmasını istesek ne olur?


Geçen hafta, AI girişimi Hugging Face ve Leipzig Üniversitesi’ndeki araştırmacılar tarafından geliştirilen ve insanların AI modellerinin farklı cinsiyetler ve etnik kökenler hakkında ne tür içsel önyargılara sahip olduğunu görmelerini sağlayan yeni araçlar hakkında bir hikaye yayınladım.

Önyargılarımızın yapay zeka modellerine nasıl yansıdığı hakkında çok şey yazmış olmama rağmen, yapay zeka insanlarının tam olarak ne kadar solgun, erkek ve bayat olduğunu görmek hala sarsıcı geldi. Bu, “CEO” veya “yönetmen” gibi komutlar verildiğinde zamanın %97’sinde beyaz adamlar oluşturan DALL-E 2 için özellikle doğruydu.

Ve önyargı sorunu düşündüğünüzden daha da derine iniyor AI tarafından yaratılan daha geniş dünyaya. Stanford Üniversitesi’nden bir araştırmacı olan Federico Bianchi, bu modellerin Amerikan şirketleri tarafından inşa edildiğini ve Kuzey Amerika verileri üzerinde eğitildiğini ve bu nedenle onlardan kapılardan evlere kadar sıradan günlük eşyalar bile üretmeleri istendiğinde Amerikan gibi görünen nesneler yarattıklarını söylüyor. Ben.

Dünya yapay zeka tarafından üretilen görüntülerle giderek daha fazla dolarken, çoğunlukla Amerika’nın önyargılarını, kültürünü ve değerlerini yansıtan görüntüler göreceğiz. AI’nın Amerikan yumuşak gücünün önemli bir aracı haline geleceğini kim bilebilirdi?
Peki bu sorunları nasıl çözeceğiz? Yapay zeka modellerinin üzerinde eğitildiği veri kümelerindeki önyargıları düzeltmek için birçok çalışma yapıldı. Ancak son zamanlarda yayınlanan iki araştırma makalesi, ilginç yeni yaklaşımlar önermektedir.

Ya eğitim verilerini daha az önyargılı hale getirmek yerine, modelden size daha az önyargılı cevaplar vermesini isteseniz?

Almanya’daki Darmstadt Teknik Üniversitesi’ndeki bir araştırma ekibi ve AI girişimi Hugging Face, istediğiniz görüntü türlerini oluşturmak için AI modellerinde ince ayar yapmayı kolaylaştıran Fair Diffusion adlı bir araç geliştirdi. Örneğin, farklı ortamlarda CEO’ların stok fotoğraflarını oluşturabilir ve ardından görüntülerdeki beyaz erkekleri kadınlarla veya farklı etnik kökenlerden insanlarla değiştirmek için Adil Yayılma’yı kullanabilirsiniz.

Hugging Face araçlarının gösterdiği gibi, eğitim verilerinde görüntü-metin çiftlerine dayalı görüntüler oluşturan AI modelleri, varsayılan olarak meslekler, cinsiyet ve etnik köken hakkında çok güçlü önyargılara sahiptir. Alman araştırmacıların Adil Yayılım aracı, kullanıcıların yapay zeka sisteminin insan görüntülerini nasıl oluşturduğuna ve sonuçları nasıl düzenlediğine rehberlik etmesine olanak tanıyan, anlamsal rehberlik adı verilen, geliştirdikleri bir tekniğe dayanmaktadır.

Çalışmaya katılan TU Darmstadt’ta bilgisayar bilimi profesörü olan Kristian Kersting, AI sisteminin orijinal görüntüye çok yakın kaldığını söylüyor.



Source link