BİLİM VE TEKNOLOJİ

Gerçek AI riskleri hakkında konuşma zamanı


Şaşırtıcı olmayan bir şekilde, herkes yapay zekadan ve son zamanlarda büyük dil modellerini dağıtma telaşından bahsediyordu. Konferanstan önce Birleşmiş Milletler, RightsCon katılımcılarını AI gözetimi ve şeffaflığına odaklanmaya teşvik eden bir bildiri yayınladı.

Şaşırdım ama RightsCon’da üretken yapay zekanın riskleri hakkındaki konuşmalar, büyük Silikon Vadisi seslerinden gelen tüm uyarılardan ne kadar farklıydı? haberlerde okuduğum.

Geçtiğimiz birkaç hafta boyunca, OpenAI CEO’su Sam Altman, eski Google çalışanı Geoff Hinton, üst düzey yapay zeka araştırmacısı Yoshua Bengio, Elon Musk ve diğerleri gibi teknoloji uzmanları, “varoluşsal riskleri” ele almak için düzenleme ve acil eylem çağrısında bulundular. yapay zekanın insanlığa sunduğu yok oluş.

Risk değerlendirmeleri, eğitim verileri ve süreçleri hakkında açıklamalar yapılmadan veya teknolojinin nasıl kötüye kullanılabileceğine çok fazla dikkat edilmeden büyük dil modellerinin hızlı bir şekilde konuşlandırılması kesinlikle endişe vericidir. Ancak RightsCon’daki birkaç oturumdaki konuşmacılar, bu yapay zekanın altına hücumunun şirketin kâr peşinde koşmasının bir ürünü olduğunu, yasal beceriksizlik veya teknolojik kaçınılmazlık olmadığını yineledi.

Daha ilk oturumda, Wired’ın en iyi editörü (ve Tech Review’un eski baş editörü) Gideon Lichfield ve Digital Futures Lab’in kurucusu Urvashi Aneja, Google’dan Kent Walker ile baş başa gittiler.

“Microsoft’tan Satya Nadella, Google’ı dans ettirmek istedi. Ve Google dans etti,” dedi Lichfield. “Artık hepimiz burnumuzu tutarak boşluğa atlıyoruz çünkü bu iki şirket birbirini yenmeye çalışıyor.” Walker yanıt olarak, yapay zekadaki ilerlemelerin uyuşturucu keşfi gibi alanlarda getirebileceği sosyal faydaları vurguladı ve Google’ın insan haklarına olan bağlılığını yeniden ifade etti.

Ertesi gün, yapay zeka araştırmacısı Timnit Gebru, doğrudan yapay zekanın ortaya koyduğu varoluşsal risklerle ilgili konuşmaya değindi: “Ajansı bir araca atfetmek bir hatadır ve bu bir saptırma taktiğidir. Ve kimin böyle konuştuğunu görürseniz, bu şirketlere milyarlarca dolar akıtanların kelimenin tam anlamıyla aynı kişiler olduğunu görürsünüz.”

“Sadece birkaç ay önce, Geoff Hinton GPT-4’ten ve onun nasıl dünyanın kelebeği olduğundan bahsediyordu. Oh, verileri alan ve sonra güzel bir kelebeğe uçan bir tırtıl gibive şimdi aniden varoluşsal bir risk. Yani, insanlar neden bu insanları ciddiye alıyor?”

İnsan Hakları İzleme Örgütü’nün teknoloji ve insan hakları direktörü Frederike Kaltheuner gibi uzmanlar, yapay zeka hakkındaki anlatılardan bıkmış durumda, kendimizi sahip olduğumuz risklere dayandırmayı öneriyor. veba AI’yı zaten biliyorum ne olabileceği hakkında spekülasyon yapmak yerine.

Ve yapay zeka kullanımının ortaya çıkardığı bazı açık, iyi belgelenmiş zararlar var. Onlar içerir:

  • Artan ve güçlenen yanlış bilgi. Instagram, Twitter ve YouTube gibi sosyal medya platformlarındaki öneri algoritmalarının, doğruluğundan bağımsız olarak aşırı ve duygusal açıdan zorlayıcı içeriğe öncelik verdiği gösterilmiştir. LLM’ler, “halüsinasyonlar” olarak bilinen inandırıcı yanlış bilgiler üreterek bu soruna katkıda bulunur. (Aşağıda bununla ilgili daha fazla bilgi)
  • Taraflı eğitim verileri ve çıktıları. AI modelleri, önyargılı çıktılara yol açabilecek önyargılı veri kümeleri üzerinde eğitilme eğilimindedir. Bu, refah dolandırıcılığı yapmak için insanlara risk puanları verirken ayrım yapan algoritmalar veya daha koyu tenli kadınlarda beyaz erkeklerden daha az doğru olduğu bilinen yüz tanıma sistemlerinde olduğu gibi, mevcut sosyal eşitsizlikleri güçlendirebilir. Irkçı içerik kusan ChatGPT örnekleri de belgelenmiştir.
  • Kullanıcı gizliliğinin aşınması. Yapay zeka modellerini eğitmek, genellikle web’den alıntılanan veya satın alınan, izin ve gizlilikle ilgili soruları gündeme getiren çok büyük miktarda veri gerektirir. ChatGPT ve Bard gibi büyük dil modelleri geliştiren şirketler, internetten çok fazla veri içermelerine rağmen, onları eğitmek için kullanılan veri kümeleri hakkında henüz fazla bilgi yayınlamadı.

Kaltheuner, üretken yapay zeka sohbet robotlarının zihinsel sağlık tedavisi gibi riskli bağlamlarda konuşlandırılacağından özellikle endişe duyduğunu söylüyor: “Üretken yapay zekanın, teknolojinin basitçe tasarlanmadığı veya amaca uygun olmadığı şeyler için kesinlikle pervasızca kullanıldığı durumlardan endişe duyuyorum.”

Gebru, karmaşık büyük dil modellerini çalıştırmak için gereken büyük miktarda bilgi işlem gücünden kaynaklanan çevresel etkilerle ilgili endişelerini yineledi. (Dahili araştırmalarda bu ve diğer endişeleri dile getirdiği için Google’dan kovulduğunu söylüyor.) Düşük ücretle çalışan ChatGPT moderatörlerinin de model çıktılarını daha az zehirli hale getirme çabalarında TSSB yaşadıklarını belirtti.

Kaltheuner, insanlığın geleceğiyle ilgili endişelerle ilgili olarak “Kimin yok oluşu? Tüm insan ırkının neslinin tükenmesi mi? Şu anda tarihsel olarak marjinalize edilmiş insanların zarar gördüğünü zaten görüyoruz. Bu yüzden onu biraz alaycı buluyorum.”

başka ne okuyorum

  • ABD devlet kurumları GPT-4’ü dağıtıyor, Bloomberg tarafından bildirilen Microsoft’tan bir duyuruya göre. OpenAI, sohbet robotu için düzenleme isteyebilir, ancak bu arada onu ABD hükümetine de satmak istiyor.
  • ChatGPT’nin halüsinasyon sorunu düzeltilebilir olmayabilir. MIT’deki araştırmacılara göre, büyük dil modelleri birbirleriyle tartıştıklarında daha doğru oluyorlar, ancak Washington Post’tan bu gerçekten kullanışlı hikayede ayrıntılarıyla anlatıldığı gibi, olgusal doğruluk onların kapasitelerine dahil edilmiyor. Halüsinasyonlar düzeltilemezse, ChatGPT gibi araçları yalnızca sınırlı durumlarda güvenilir bir şekilde kullanabiliriz.
  • Wall Street Journal, Stanford Üniversitesi ve Massachusetts Üniversitesi, Amherst tarafından yapılan bir araştırmaya göre, Instagram, çocuk cinsel istismarı içeriği yayınlayan geniş hesap ağlarına ev sahipliği yapıyor. Platform, sorunu araştırmak için bir görev gücü oluşturarak yanıt verdi. Bu kadar önemli bir sorunun, platformun içerik moderatörleri ve otomatik moderasyon algoritmaları tarafından fark edilmemesi oldukça şaşırtıcı.

Bu hafta ne öğrendim

Güney Kore merkezli insan hakları grubu PSCORE tarafından hazırlanan yeni bir rapor, Kuzey Kore’de internete erişmek için gereken günlerce süren başvuru sürecini ayrıntılarıyla anlatıyor. Kim Jong-Un’a bağlı sadece birkaç düzine ailenin internete sınırsız erişimi var ve yalnızca “birkaç bin” hükümet çalışanı, araştırmacı ve öğrenci, yoğun bir şekilde izlenen bir sürüme erişebiliyor. Matt Burgess’in Wired’da bildirdiği gibi, Rusya ve Çin muhtemelen Kuzey Kore’ye yüksek düzeyde kontrollü web altyapısı sağlıyor.



Source link