Etkili AI politikası nasıl oluşturulur?
Yani ilk sorunuza göre haklısınız. Bu politika yapıcılar aslında korkulukları tanımlamalıdır, ancak bunu her şey için yapmaları gerektiğini düşünmüyorum. Bence en hassas alanları seçmemiz gerekiyor. AB onları yüksek risk olarak nitelendirdi. Ve belki bundan, neyin yüksek riskli olduğu ve nerede daha fazla zaman ve potansiyel olarak politika yapıcılar hakkında düşünmemize yardımcı olan bazı modeller alabiliriz, nerede birlikte zaman geçirmeliyiz?
Geri bildirimin ortak tasarımı ve birlikte evrimi söz konusu olduğunda, düzenleyici sanal alanların büyük bir hayranıyım. Oxford Üniversitesi’nin bir basın kitabında, birazdan bahsedebileceğim, teşvike dayalı bir derecelendirme sistemiyle ilgili bir makalem var. Ama aynı zamanda, hepinizin itibar riskinizi hesaba katması gerektiğini düşünüyorum.
Dijital olarak çok daha gelişmiş bir topluma doğru ilerlerken, geliştiricilerin de gerekli özeni göstermeleri gerekiyor. Bir şirket olarak çıkıp en iyi fikir olduğunu düşündüğünüz bir algoritmayı veya otonom bir sistemi koyup gazetenin ilk sayfasına çıkmayı göze alamazsınız. Çünkü bu, tüketicilerinizin ürününüzün güvenilirliğini azaltır.
Ve her iki tarafa da söylediğim şey, yüz tanıma teknolojisi söz konusu olduğunda belirli korkulukların olduğu bir konuşmaya değer olduğunu düşünüyorum çünkü tüm popülasyonlar için geçerli olduğunda teknik doğruluğa sahip değiliz. Finansal ürünler ve hizmetler üzerindeki farklı etki söz konusu olduğunda.İşimde, bankacılık sektöründe bulduğum harika modeller var, aslında tetikleyicileri var, çünkü düzenleyici kurumlara sahipler ve hangi vekillerin gerçekte farklı etki sağladığını anlamalarına yardımcı oluyorlar. . Yapay zekanın bir nevi öznel karar vermenin yerini almak için kullanıldığı, ancak gördüğümüz ayrımcılık ve yırtıcı değerlendirme türlerine daha fazla katkıda bulunduğu konut ve değerleme piyasasında bu hakkı yeni gördüğümüz alanlar var. Korkuluklar koymak için politika yapıcılara ihtiyaç duyduğumuz bazı durumlar var, ancak daha çok proaktif olun. Politika yapıcılara her zaman söylüyorum, veri bilimcilerini suçlayamazsınız. Veriler korkunçsa.
Anthony Yeşil: Doğru.
Nicol Turner Lee: Ar-Ge’ye daha fazla para koyun. Belirli alanlarda aşırı temsil edilen veya azınlık nüfusları açısından yetersiz temsil edilen daha iyi veri kümeleri oluşturmamıza yardımcı olun. Önemli olan, birlikte çalışması gerektiğidir. Politika yapıcılar bunu gerçekten yönetirse veya veri bilimcileri belirli alanlarda kendi başına yönetirse, iyi bir kazanan çözüme sahip olacağımızı düşünmüyorum. Bence bu ilkelerin ne olduğu konusunda birlikte çalışan ve işbirliği yapan insanlara gerçekten ihtiyacınız var. Bu modelleri oluşturuyoruz. Bilgisayarlar yapmaz. Algoritmalar veya otonom sistemler veya reklam hedefleme oluştururken bu modellerle ne yaptığımızı biliyoruz. Biliyoruz! Bu odadaki bizler, arkamıza yaslanıp bu teknolojileri neden kullandığımızı anlamıyoruz diyemeyiz. Biliyoruz çünkü aslında toplumumuzda nasıl genişledikleri konusunda emsalleri var, ancak biraz hesap verebilirliğe ihtiyacımız var. Ve gerçekten varmaya çalıştığım şey bu. Yarattığımız bu sistemlerden bizi kim sorumlu tutuyor?
Bu çok ilginç Anthony, bu son birkaç hafta, çoğumuz Ukrayna’daki çatışmayı izledik. Kızım, 15 yaşında bir çocuğum olduğu için, bana çeşitli TikTok’larla ve gördüğü başka şeylerle geldi, “Hey anne, bunun olduğunu biliyor muydun?” Ve bir şekilde kendimi geri çekmek zorunda kaldım çünkü onunla bu yola girdiğimde bir şekilde bunu bilmeden sohbete gerçekten dahil oldum. Gittikçe daha derine iniyorum ve o kuyunun derinliklerine iniyorum.
Anthony Yeşil: Evet.