Zaten mevcut olan yapay zeka zararlarına odaklanmalıyız
Varsayımsal varoluşsal zararların daha önemli olduğunu söyleyerek mevcut yapay zeka zararlarını en aza indirmenin bir sorunu, bunun değerli kaynakların akışını ve mevzuatın dikkatini değiştirmesidir. Yapay zekanın varoluşsal risklerinden korktuğunu iddia eden şirketler, insanlığı sona erdirebileceğini iddia ettikleri yapay zeka araçlarını piyasaya sürmeyerek insanlığı korumaya yönelik gerçek bir bağlılık gösterebilirler.
Ölümcül yapay zeka sistemlerinin yaratılmasının önlenmesine karşı değilim. Yapay zeka sistemlerinin ölümcül kullanımından endişe duyan hükümetler, ölümcül otonom sistemleri ve dijital insanlıktan çıkarmayı yasaklamak için Katil Robotları Durdurma Kampanyası’nın uzun süredir savunduğu korumaları benimseyebilir. Kampanya, tüm insanlığı yok edecek duyarlı sistemler yaratma yolunda olduğumuza dair abartılı bir sıçrama yapmadan yapay zekanın potansiyel olarak ölümcül kullanımlarını ele alıyor.
Fiziksel şiddeti nihai zarar olarak görmek cazip gelse de bunu yapmak, toplumlarımızın devam ettirdiği zararlı yöntemleri unutmayı kolaylaştırır. yapısal şiddet. Norveçli sosyolog Johan Galtung, kurumların ve sosyal yapıların insanların temel ihtiyaçlarını karşılamasını nasıl engellediğini ve dolayısıyla zarara neden olduğunu açıklamak için bu terimi icat etti. Yapay zeka kullanımı yoluyla sağlık hizmetlerine, barınmaya ve istihdama erişimin reddedilmesi, bireysel zararların ve nesiller boyu yaraların devam etmesine neden oluyor. Yapay zeka sistemleri bizi yavaş yavaş öldürebilir.
Dünyanın önde gelen teknoloji şirketlerinden bazılarının algoritmik önyargıları hakkında “Cinsiyet Tonları” araştırmamın ortaya çıkardığı şey göz önüne alındığında, endişem yapay zeka ile ilgili acil sorunlar ve ortaya çıkan zayıf noktalar ve bunları aynı zamanda bir gelecek yaratmaya yardımcı olacak yollarla ele alıp alamayacağımızdır. Yapay zekanın yükünün orantısız bir şekilde marjinalleştirilmiş ve savunmasız kişilerin üzerine düşmediği bir yer. Yanlış tutuklamalara veya yanlış teşhislere yol açan, ortalamanın altında zekaya sahip yapay zeka sistemlerinin şimdi ele alınması gerekiyor.
X riskini düşündüğümde aklıma şu anda zarar gören insanlar ve yapay zeka sistemlerinden zarar görme riski altında olanlar geliyor. Kodlanmanın riski ve gerçekliği hakkında düşünüyorum. Bir hastane triyaj için yapay zekayı kullandığında ve sizi bakımsız bıraktığında veya hayat kurtaran organ nakli almanızı engelleyen bir klinik algoritma kullandığında, silinebilirsiniz. Algoritmik karar vermeye dayalı olarak bir krediniz reddedildiğinde kodlanabilirsiniz. Özgeçmişiniz otomatik olarak elendiğinde ve yapay zeka sistemleri tarafından değiştirilmeyen kalan işler için rekabet etme fırsatınız engellendiğinde ihraç edilebilirsiniz. Bir kiracı tarama algoritması konuta erişiminizi reddettiğinde kodlanabilirsiniz. Bu örneklerin hepsi gerçektir. Hiç kimse kodlanmadan muaf değildir ve zaten dışlanmış olanlar daha büyük risk altındadır.
Bu nedenle araştırmam yalnızca sektördeki kişilerle, yapay zeka araştırmacılarıyla ve hatta iyi niyetli etkileyicilerle sınırlı olamaz. Evet, akademik konferanslar önemli mekanlardır. Pek çok akademisyen için yayınlanmış makaleleri sunmak belirli bir araştırma araştırmasının temel taşıdır. Benim için New York Üniversitesi’nde “Cinsiyet Tonları”nı sunmak bir başlangıç noktasıydı. Çöken tatlılar adasını terk ettiğimde, yapay zeka uygulayıcılarıyla alışveriş konuşmalarının, akademik sunumların ve özel akşam yemeklerinin ötesinde, araştırmamı eyleme geçirme konusunda motive olduğumu hissettim. Akademisyenlere ve sektördeki kişilere ulaşmak kesinlikle yeterli değil. Yapay zekanın zarar görme riskiyle karşı karşıya olan sıradan insanların algoritmik adalet mücadelesinin bir parçası olmasını sağlamamız gerekiyor.
Joy Buolamwini ile röportajımızı buradan okuyun.