BİLİM VE TEKNOLOJİ

AI çağında kötü içerik yakalamak


Büyük dil modelleri hala bağlamla mücadele ediyor, bu da muhtemelen gönderilerin ve resimlerin nüansını insan moderatörlerin yanı sıra yorumlayamayacakları anlamına geliyor. Farklı kültürler arasında ölçeklenebilirlik ve özgüllük de soruları gündeme getiriyor. “Belirli bir niş türü için bir model kullanıyor musunuz? Ülkeye göre mi yapıyorsun? Bunu topluluğa göre mi yapıyorsunuz?… Bu, herkese uyan tek bir sorun değil” diyor DiResta.

Yeni teknoloji için yeni araçlar

Üretken yapay zekanın çevrimiçi bilgi alanı için daha zararlı mı yoksa yararlı mı olacağı, büyük ölçüde teknoloji şirketlerinin, içeriğin yapay zeka tarafından üretilip üretilmediğini bize söyleyecek iyi, yaygın olarak benimsenen araçlar bulup bulamayacağına bağlı olabilir.

Bu oldukça teknik bir zorluk ve DiResta bana sentetik ortamın tespitinin büyük olasılıkla yüksek bir öncelik olacağını söylüyor. Bu, eklenen içeriğin yapay zeka tarafından yapıldığını işaretlemek için bir tür kalıcı işaret görevi gören bir kod parçasını gömen dijital filigran gibi yöntemleri içerir. Yapay zeka tarafından oluşturulan veya manipüle edilen gönderileri tespit etmeye yönelik otomatik araçlar çekicidir çünkü filigrandan farklı olarak, yapay zeka tarafından oluşturulan içeriğin yaratıcısının içeriği proaktif olarak bu şekilde etiketlemesini gerektirmezler. Bununla birlikte, bunu yapmaya çalışan mevcut araçlar, makine yapımı içeriği belirlemede özellikle iyi olmamıştır.

Bazı şirketler, bir içeriğin nasıl ortaya çıktığı gibi bilgileri güvenli bir şekilde günlüğe kaydetmek için matematiği kullanan kriptografik imzalar bile önerdiler, ancak bu, filigran gibi gönüllü açıklama tekniklerine dayanacaktır.

Avrupa Birliği’nin bu hafta önerilen AI Yasasının en yeni versiyonu, üretici AI kullanan şirketlerin, içerik gerçekten makine tarafından üretildiğinde kullanıcıları bilgilendirmesini gerektiriyor. Yapay zeka tarafından üretilen içerikle ilgili şeffaflık talebi arttıkça, önümüzdeki aylarda bu tür yeni ortaya çıkan araçlar hakkında daha fazla şey duyacağız.

başka ne okuyorum

  • AB, halka açık yerlerde yüz tanımayı ve tahmine dayalı polislik algoritmalarını yasaklamanın eşiğinde olabilir. Geçerse bu yasak, ABD’de son aylarda ivme kaybeden yüz tanıma karşıtı hareket için büyük bir başarı olacak.
  • Salı günü, OpenAI CEO’su Sam Altman, önceki akşam iki partili bir akşam yemeğinin ardından AI gözetimi hakkındaki duruşmanın bir parçası olarak ABD Kongresi’ne ifade verecek. ABD milletvekillerinin yapay zeka konusunda ne kadar akıcı olduklarını ve toplantıdan somut bir şey çıkıp çıkmayacağını görmek için sabırsızlanıyorum, ancak beklentilerim çok yüksek değil.
  • Geçen hafta sonu Çin polisi, ChatGPT’yi sahte haberler yaymak için kullandığı için bir adamı tutukladı. Çin, üretken yapay zekanın kullanımıyla ilgili daha katı yasaların bir parçası olarak Şubat ayında ChatGPT’yi yasakladı. Bu, ortaya çıkan ilk tutuklama gibi görünüyor.

Bu hafta ne öğrendim

Yanlış bilgilendirme toplum için büyük bir sorun, ancak tahmin edebileceğinizden daha küçük bir izleyici kitlesi var gibi görünüyor. Oxford İnternet Enstitüsü’nden araştırmacılar, 200.000’den fazla Telegram gönderisini incelediler ve yanlış bilgilerin çokça ortaya çıkmasına rağmen, çoğu kullanıcının bunu paylaşmaya devam etmediğini keşfettiler.

Makalelerinde, “popüler kabul gören bilgeliğin aksine, yanlış bilgi izleyicisinin genel bir kitle değil, küçük ve aktif bir kullanıcı topluluğu olduğu” sonucuna varıyorlar. Telegram nispeten denetlenmiyor, ancak araştırma, belki de bir dereceye kadar kötü bilgileri kontrol altında tutan organik, talebe dayalı bir etki olduğunu öne sürüyor.



Source link