BİLİM VE TEKNOLOJİ

Yapay zeka sistemlerinin güvenlik uyarılarıyla birlikte gelmesi gerekiyor mu?


Yapay zeka sistemlerinin ne kadar güçlü olduğu ve hayatlarımız, evlerimiz ve toplumlarımız hakkında yüksek riskli kararlar vermede giderek daha fazla rol oynadıkları düşünüldüğünde, şaşırtıcı derecede az resmi inceleme alıyorlar.

Yapay zeka denetimlerinin gelişen alanı sayesinde bu değişmeye başlıyor. İyi çalıştıklarında, bu denetimler bir sistemin ne kadar iyi çalıştığını güvenilir bir şekilde kontrol etmemize ve olası herhangi bir önyargı veya zararı nasıl azaltacağımızı anlamamıza olanak tanır.

Ünlü olarak, AI araştırmacıları Joy Buolamwini ve Timnit Gebru tarafından ticari yüz tanıma sistemlerinin 2018 denetimi, sistemin daha koyu tenli insanları ve beyaz insanları tanımadığını buldu. Koyu tenli kadınlar için hata oranı %34’e kadar çıktı. AI araştırmacısı Abeba Birhane’nin Nature’daki yeni bir makalesinde belirttiği gibi, denetim “yüz analizi algoritmalarının önyargısını, ayrımcılığını ve baskıcı doğasını ortaya çıkaran bir dizi kritik çalışmayı başlattı.” Umut, farklı AI sistemlerinde bu tür denetimler yaparak, sorunları daha iyi çözebileceğimiz ve AI sistemlerinin yaşamlarımızı nasıl etkilediği hakkında daha geniş bir konuşma yapabileceğimizdir.

Düzenleyiciler yetişiyor ve bu kısmen denetim talebini artırıyor. New York City’de yeni bir yasa, AI destekli tüm işe alım araçlarının Ocak 2024’ten itibaren yanlılık açısından denetlenmesini zorunlu kılacak. Yasa, “yüksek riskli” AI sistemlerinin denetimlerini gerektirecektir.

Bu büyük bir hırs, ancak bazı büyük engeller var. Bir yapay zeka denetiminin nasıl olması gerektiği konusunda ortak bir anlayış yoktur ve bunları yapmak için doğru becerilere sahip yeterli sayıda insan yoktur. Brookings Enstitüsü’nde AI yönetişimi üzerine çalışan Alex Engler, bugün yapılan birkaç denetimin çoğunlukla geçici olduğunu ve kalite açısından çok çeşitlilik gösterdiğini söyledi. Verdiği bir örnek, bir basın açıklamasında bir dış denetimin algoritmalarının önyargısız olduğunu bulduğunu ima eden AI işe alma şirketi HireVue’den. Bunun saçmalık olduğu ortaya çıktı – denetim aslında şirketin modellerini incelememişti ve bir ifşa etmeme anlaşmasına tabiydi, bu da ne bulduğunu doğrulamanın bir yolu olmadığı anlamına geliyordu. Aslında bir PR dublörlüğünden başka bir şey değildi.

AI topluluğunun denetçi eksikliğini gidermeye çalışmasının bir yolu Bu, siber güvenlik hata ödüllerine benzer şekilde çalışan önyargı ödül yarışmaları aracılığıyla gerçekleşir; yani, insanları AI modellerinde algoritmik önyargıları belirlemek ve azaltmak için araçlar oluşturmaya çağırırlar. Böyle bir yarışma, Twitter’ın etik yapay zeka lideri Rumman Chowdhury’nin de aralarında bulunduğu bir grup gönüllü tarafından geçen hafta başlatıldı. Arkasındaki ekip, birçoğunun ilki olmasını umuyor.

İnsanların denetim yapmak için gereken becerileri öğrenmeleri için teşvikler oluşturmak ve ayrıca hangi yöntemlerin en iyi sonucu verdiğini göstererek denetimlerin nasıl görünmesi gerektiğine ilişkin standartlar oluşturmaya başlamak güzel bir fikir. Bununla ilgili daha fazla bilgiyi buradan okuyabilirsiniz.

Bu denetimlerin artması, bir gün sigara paketi tarzı uyarılar görebileceğimizi gösteriyor. AI sistemlerinin sağlığınıza ve güvenliğinize zarar verebileceğini Kimyasallar ve gıda gibi diğer sektörler, ürünlerin kullanımının güvenli olduğundan emin olmak için düzenli denetimlere sahiptir. Böyle bir şey yapay zekada norm haline gelebilir mi?



Source link