BİLİM VE TEKNOLOJİ

İnsanlar yapay zekanın zararlarını dile getirerek bu kadar yüksek bir bedel ödememeli


Hükümetler yapay zeka sistemlerinin yarattığı zararları ve riskleri en aza indirmeye çalışırken G7, yapay zeka şirketlerinin uyması gereken (gönüllü) bir davranış kuralları üzerinde anlaşmaya vardı. Ve bu haftanın ilerleyen saatlerinde Birleşik Krallık, hükümetin yapay zeka güvenliğine ilişkin küresel kurallar oluşturma çabası olan Yapay Zeka Güvenliği Zirvesine katılan yapay zekayı hareket ettiren ve sarsanlarla dolu olacak.

Sonuç olarak bu olaylar, Silikon Vadisi’nin yapay zekanın yarattığı “varoluşsal risk” hakkındaki söyleminin kamusal söylemde giderek daha baskın hale geldiğini gösteriyor.

Bu endişe verici çünkü gelecekte ortaya çıkabilecek varsayımsal zararları düzeltmeye odaklanmak, dikkatleri yapay zekanın bugün neden olduğu gerçek zararlardan uzaklaştırıyor. Tanınmış bir yapay zeka araştırmacısı ve aktivisti Joy Buolamwini, Unmasking AI: My Mission to Protection What Is Human in adlı yeni anı kitabında, “Gösterilen zararlara neden olan mevcut yapay zeka sistemleri, varsayımsal ‘duyarlı’ yapay zeka sistemlerinden daha tehlikelidir çünkü bunlar gerçektir” diye yazıyor. Makinelerin Dünyası. Düşüncelerinin daha fazlasını yarın çıkacak kitabından bir alıntıda okuyun.

Buolamwini ile hayat hikayesi ve bugün onu yapay zeka konusunda ilgilendiren şeyler hakkında konuşma zevkini yaşadım. Buolamwini bu alanda etkili bir ses. Yüz tanıma sistemlerinde önyargı üzerine yaptığı araştırma, IBM, Google ve Microsoft gibi şirketlerin sistemlerini değiştirmesine ve teknolojilerini kolluk kuvvetlerine satmaktan vazgeçmesine neden oldu.

Artık Buolamwini’nin görünürde yeni bir hedefi var. Daha etik, fikir birliğine dayalı veri toplama uygulamalarından başlayarak, yapay zeka sistemlerinin nasıl oluşturulduğuna dair radikal bir yeniden düşünme çağrısında bulunuyor. “Beni endişelendiren şu ki, bu kadar çok şirkete bedava geçiş hakkı veriyoruz ya da başımızı çevirip yeniliği alkışlıyoruz [away from the harms]” dedi Buolamwini bana. Onunla röportajımı okuyun.

Buolamwini’nin hikayesi birçok açıdan ilham verici bir hikaye olsa da aynı zamanda bir uyarıdır. Buolamwini son on yıldır yapay zekanın zararlarına dikkat çekiyor ve konuyu kamuoyunun bilincine taşımak için bazı etkileyici şeyler yaptı. Beni asıl etkileyen şey, açıkça konuşmanın ona verdiği zarardı. Kitapta, savunuculuk yapmak, kâr amacı gütmeyen kuruluşu Algoritmik Adalet Birliği’ni kurmak, kongre oturumlarına katılmak ve MIT’de doktora tezini yazmak gibi aynı anda çok fazla şey yapmaya çalıştıktan sonra şiddetli yorgunluk nedeniyle kendini acil servise yatırmak zorunda kaldığını anlatıyor. .

O yalnız değil. Buolamwini’nin deneyimi, neredeyse tam bir yıl önce yazdığım, sorumlu yapay zekanın ne kadar tükenmişlik sorunu yaşadığına dair yazdığım bir yazıyla devam ediyor.

Kısmen Buolamwini gibi araştırmacılar sayesinde, teknoloji şirketleri yapay zeka sistemleri üzerinde daha fazla kamu incelemesiyle karşı karşıya kalıyor. Şirketler, ürünlerinin olası zararları azaltacak şekilde geliştirilmesini sağlamak için sorumlu yapay zeka ekiplerine ihtiyaçları olduğunu fark etti. Bu ekipler hayatlarımızın, toplumlarımızın ve siyasi sistemlerimizin tasarlanma, geliştirilme ve dağıtılma şekillerinden nasıl etkilendiğini değerlendiriyor.



Source link