BİLİM VE TEKNOLOJİ

İnternet özgürlüğü için nasıl savaşılır?


Geçtiğimiz hafta, bir insan hakları savunucusu grubu olan Freedom House, dünya çapında internet özgürlüğünün durumuna ilişkin yıllık incelemesini yayınladı; Dijital özgür ifadedeki değişiklikleri anlamak istiyorsanız, mevcut en önemli izleyicilerden biridir.

Yazdığım gibi rapor, üretken yapay zekanın halihazırda jeopolitikte oyunun kurallarını değiştirdiğini gösteriyor. Ancak konuyla ilgili tek bulgu bu değil. Küresel olarak internet özgürlüğü hiç bu kadar düşük olmamıştı ve siyasi, sosyal ve dini konuşma içeren web sitelerini engelleyen ülkelerin sayısı da hiç bu kadar yüksek olmamıştı. Ayrıca çevrimiçi ifade nedeniyle insanları tutuklayan ülkelerin sayısı da rekor seviyeye ulaştı.

Dünya çapında 50’den fazla seçimin yapılacağı bir yıla girmeden önce bu konular özellikle acildir; Freedom House’un belirttiği gibi seçim dönemleri internet özgürlüğünün çoğunlukla en fazla tehdit altında olduğu dönemlerdir. Kuruluş, uluslararası toplumun büyüyen krize nasıl tepki vermesi gerektiğine ilişkin bazı öneriler yayınladı; ben de onun bakış açısı için başka bir politika uzmanına ulaştım.

Bana iyimser diyebilirsiniz, ancak bu hafta onlarla konuşmak bana interneti daha güvenli ve daha özgür hale getirmek için yapabileceğimiz en azından bazı eyleme dönüştürülebilir şeyler olduğunu hissettirdi. İşte teknoloji şirketlerinin ve kanun koyucuların yapması gerektiğini söyledikleri üç önemli şey:

  1. Yapay zeka modelleri etrafında şeffaflığı artırın

    Freedom House’un başlıca tavsiyelerinden biri, yapay zeka modellerinin nasıl oluşturulduğunun daha fazla kamuya açıklanmasını teşvik etmektir. ChatGPT gibi büyük dil modelleri kesinlikle esrarengizdir (meslektaşlarımın bu konudaki çalışmalarını okumalısınız) ve algoritmaları geliştiren şirketler, modellerini eğitmek için hangi verileri kullandıklarına ilişkin bilgileri açıklamaya direndiler.

    Raporda, “Hükümet düzenlemeleri daha fazla şeffaflık sağlamayı, etkili kamu gözetimi mekanizmaları sağlamayı ve insan haklarının korunmasına öncelik vermeyi amaçlamalı” diyor.

    Hükümetler hızla gelişen bir alana ayak uydurmak için yarışırken, kapsamlı mevzuata ulaşmak mümkün olmayabilir. Ancak eğitim verilerinin açıklanması ve çıktılardaki önyargıların standartlaştırılmış test edilmesi gibi daha dar gereksinimleri zorunlu kılan öneriler, daha hedefli politikalarda yerini bulabilir. (Özellikle ABD’nin yapay zekayı düzenlemek için neler yapabileceğini merak ediyorsanız onu da ele aldım.)

    İnternet özgürlüğü söz konusu olduğunda, artan şeffaflık, insanların çevrimiçi olarak devlet destekli içerik gördüklerini daha iyi anlamalarına da yardımcı olacaktır; örneğin hükümetin, üretken yapay zeka modelleri tarafından oluşturulan içeriğin Komünist Parti lehine olmasını talep ettiği Çin’de olduğu gibi.

  2. İçeriği taramak ve filtrelemek için yapay zekayı kullanırken dikkatli olun

    Sosyal medya şirketleri, platformlarında görünenleri denetlemek için giderek daha fazla algoritma kullanıyor. Otomatik denetleme dezenformasyonu engellemeye yardımcı olsa da çevrimiçi ifadeye zarar verme riski de taşır.

    Mallory şöyle diyor: “Şirketler, platformlarının ve ürünlerinin devlet destekli dezenformasyon kampanyalarını alevlendirmemek için tasarlanma, geliştirilme ve dağıtılma yollarını dikkate almalı, aynı zamanda insan haklarını, yani özgür ifade ve çevrimiçi örgütlenmeyi korumak için de dikkatli olmalılar.” Knodel, Demokrasi ve Teknoloji Merkezi’nin baş teknoloji sorumlusu.

    Ek olarak Knodel, hükümetlerin içeriği taramak ve filtrelemek için platformlara ihtiyaç duyması durumunda, bunun genellikle algoritmaların amaçlanandan daha fazla içeriği engellemesine yol açtığını söylüyor.

    Knodel, çözümün bir parçası olarak teknoloji şirketlerinin, insanların içerik denetleme konusunda uygulamalı rollere sahip olduğu ve “dezenformasyonu hem engellemek hem de raporlamak için kullanıcı ajansına güvendiği” döngüdeki insan özelliklerini geliştirmenin yollarını bulması gerektiğine inanıyor. .”

  3. Özellikle seçimlerle ilgili olmak üzere yapay zeka tarafından oluşturulan içeriği daha iyi etiketlemenin yollarını geliştirin

    Şu anda yapay zeka tarafından oluşturulan görüntüleri, videoları ve sesleri etiketlemek inanılmaz derecede zordur. (Geçmişte bu konu hakkında, özellikle de teknoloji uzmanlarının sorun üzerinde ilerleme kaydetmeye çalıştıkları yöntemler hakkında biraz yazmıştım.) Ancak burada altın bir standart yok, dolayısıyla yanıltıcı içerik, özellikle seçimlerle ilgili olarak, büyük zarar verme potansiyeli taşıyor.

    Freedom House raporundaki araştırmacılardan biri olan Allie Funk bana, Nijerya’da, başkan adayı Atiku Abubakar ve ekibinin oylamada hile yapmayı planladıklarını söylediklerinin duyulduğu, yapay zeka ile manipüle edilmiş bir ses klibinden bahsetti. Nijerya’nın seçimlerle ilgili bir çatışma geçmişi var ve Funk, bunun gibi dezenformasyonların “gerçekten potansiyel huzursuzluğu alevlendirmekle tehdit ettiğini” ve “felaket etkileri” yarattığını söylüyor.

    Yapay zeka tarafından manipüle edilen sesin tespit edilmesi özellikle zordur. Funk, bu örneğin grubun kaydettiği pek çok örnekten sadece biri olduğunu ve “çok sayıda farklı etiketleme türüne duyulan ihtiyacı dile getirdiğini” söylüyor. Gelecek yılın seçimlerine zamanında hazır olamasak bile, bunu şimdi anlamaya başlamamız kritik önem taşıyor.

Başka ne okuyorum

  • Wired ve Markup’ın ortak araştırması, tahmine dayalı polislik yazılımının %1’den daha az oranda doğru olduğunu gösterdi. Bulgular kahretsin ama şaşırtıcı değil: polislik teknolojisinin, özellikle adli tıpta önemsiz bilim olarak ifşa edilmesinin uzun bir geçmişi var.
  • MIT Technology Review, çığır açan araştırmalara öncülük eden şirketleri öne çıkardığımız, izlenecek ilk iklim teknolojisi şirketleri listemizi yayınladı. Meslektaşım James Temple’ın, iklim krizimizi etkileme potansiyeli olan teknolojilere neden dikkat etmemiz gerektiğini ortaya koyan listeye ilişkin genel bakışını okuyun.
  • Üretken yapay zekaya sahip olan veya onu kullanan şirketler, yakında yapay zeka modellerini kullanma riskini azaltmak için sigorta poliçeleri yaptırabilir; önyargılı çıktıları ve telif hakkı davalarını düşünün. Bu, üretken yapay zeka pazarında büyüleyici bir gelişme.

Bu hafta öğrendiklerim

Stanford’un Çevrimiçi Güven ve Güvenlik Dergisi’nden yeni bir makale, doğru yapay zeka sistemleri oluşturmak için yeterli sayısallaştırılmış eğitim verisine sahip olmayan diller olan düşük kaynaklı dillerdeki içerik denetiminin neden bu kadar zayıf olduğunu vurguluyor. Aynı zamanda bunu geliştirmek için dikkatin nereye yönlendirilmesi gerektiği konusunda da ilginç bir durum ortaya koyuyor. Sosyal medya şirketlerinin sonuçta “bu dillerde daha fazla eğitim ve test verisine erişmeye” ihtiyacı olsa da, “daha düşük bir meyvenin” düşük düzeydeki doğal dil işleme (NLP) araştırmaları için yerel ve tabandan gelen girişimlere yatırım yapabileceği öne sürülüyor. kaynak dilleri.

Araştırmacılar, “Fon verenler, en düşük kaynaklı dillerden bazıları için araçlar oluşturmak ve dijitalleştirmek için çalışan dil ve dil ailesine özgü NLP araştırma ağlarından oluşan mevcut yerel kolektiflerin desteklenmesine yardımcı olabilir” diye yazıyor. Başka bir deyişle, fon sağlayıcılar, büyük Batılı teknoloji şirketleri için düşük kaynaklı dillerden daha fazla veri toplamaya yatırım yapmak yerine, bu dillere doğrudan çok uygun yapay zeka yaratabilecek yeni yapay zeka araştırmaları geliştiren yerel NLP projelerine para harcamalı.



Source link