AI neden ölüm kalım kararları vermemeli?
Sizi “Dr. Ölüm” veya “Yardımlı intiharın Elon Musk’ı”.
Nitschke’nin tuhaf bir amacı var: Ölümü “medikalize etmek” ve teknoloji aracılığıyla mümkün olduğunca yardımsız intiharı sağlamak istiyor. Meslektaşım Will Heaven’ın bildirdiği gibi, Nitschke Sarco adında tabut büyüklüğünde bir makine geliştirdi. Hayatlarına son vermek isteyen insanlar, algoritmaya dayalı bir psikiyatrik öz değerlendirmeden geçtikten sonra makineye girebilirler. Geçerlerse Sarco nitrojen gazı salacak ve bu da onları dakikalar içinde boğacak. Ölmeyi seçen bir kişi üç soruyu yanıtlamalıdır: Sen kimsin? Neredesin? Ve o düğmeye bastığınızda ne olacağını biliyor musunuz?
Yardımlı intiharın yasal olduğu İsviçre’de, ötenazi adayları, tipik olarak bir psikiyatrist tarafından değerlendirilen zihinsel kapasiteyi göstermelidir. Ancak Nitschke, insanları denklemden tamamen çıkarmak istiyor.
Nitschke uç bir örnektir. Ancak Will’in yazdığı gibi, yapay zeka, giderek artan sayıda sağlık alanında hastaları öncelik sırasına koymak ve tedavi etmek için zaten kullanılıyor. Algoritmalar, bakımın giderek daha önemli bir parçası haline geliyor ve rollerinin ahlaki değil tıbbi kararlarla sınırlı olmasını sağlamaya çalışmalıyız.
Will, burada ölüm kalım kararları vermeye yardımcı olabilecek AI geliştirme çabalarının dağınık ahlakını araştırıyor.
Muhtemelen son derece huzursuz hisseden tek kişi ben değilim Algoritmaların insanların yaşayıp yaşamayacağına karar vermesine izin vermekle ilgili. Nitschke’nin çalışması, algoritmaların yeteneklerine duyulan güvenin klasik bir örneği gibi görünüyor. Sözde “tarafsız” ve “nesnel” kararlar verebilecek bir teknoloji sunarak karmaşık insan yargılarından kaçınmaya çalışıyor.
Bu tehlikeli bir yol ve nereye gittiğini biliyoruz. Yapay zeka sistemleri, onları oluşturan insanları yansıtır ve önyargılarla dolu. Siyah insanları tanımayan ve onları suçlu veya goriller olarak etiketleyen yüz tanıma sistemleri gördük. Hollanda’da vergi makamları, yalnızca masum insanları -çoğunlukla düşük gelirli insanları ve etnik azınlık üyelerini- cezalandırmak için, yardım dolandırıcılığını ayıklamaya çalışmak için bir algoritma kullandı. Bu, binlerce kişi için yıkıcı sonuçlara yol açtı: iflas, boşanma, intihar ve çocukların koruyucu aileye alınması.
Yapay zeka, en yüksek riskli kararlardan bazılarının alınmasına yardımcı olmak için sağlık hizmetlerinde kullanıma sunulduğundan var, bu sistemlerin nasıl oluşturulduğunu eleştirel bir şekilde incelemek her zamankinden daha önemli. Sıfır önyargı ile mükemmel bir algoritma oluşturmayı başarsak bile, algoritmalar insanlar ve toplum hakkında kendi başlarına kararlar verecek nüans ve karmaşıklıktan yoksundur. Yapay zekaya gerçekten ne kadar karar vermek istediğimizi dikkatlice sorgulamalıyız. Hayatımıza ve toplumlarımıza daha derinden girmesine izin vermenin kaçınılmaz bir yanı yoktur. Bu, insanların yaptığı bir seçimdir.