Eric Schmidt’in seçimle ilgili yanlış bilgiyle mücadele için 6 maddelik bir planı var
Ancak bu, kullanıcılardan eylemliliği uzaklaştırdı (gördüklerimizi kontrol etmiyoruz) ve bunun yerine bizi nefret ve anlaşmazlık dolu konuşmaların yanı sıra gençler arasında büyüyen bir salgın hastalıkla baş başa bıraktı. Bu, idealistlerin 15 yıl önce hayalini kurduğu küresel, demokratikleştirilmiş tek dünya diyaloğundan çok uzak. Pek çok kullanıcının başıboş kalması ve bu platformlara olan inancını kaybetmesi nedeniyle, geliri en üst düzeye çıkarmanın ticari çıkarlara ironik bir şekilde zarar verdiği açıktır.
Artık yapay zekanın sosyal medyayı çok daha zehirli hale getirmeye başlamasıyla birlikte platformların ve düzenleyicilerin, kullanıcıların güvenini yeniden kazanmak ve demokrasimizi korumak için hızlı hareket etmesi gerekiyor. Burada platformların kullanıcılarını korumak için kullanması gereken altı teknik yaklaşım öneriyorum. Düzenlemeler ve yasalar, bu eylemlerin çoğunun teşvik edilmesinde veya zorunlu kılınmasında çok önemli bir rol oynayacaktır. Bu reformlar yanlış bilgi ve dezenformasyonla ilgili tüm sorunları çözmeyecek olsa da gelecek yıl yapılacak seçimler öncesinde yaşanan gidişatın durdurulmasına yardımcı olabilir.
1. İnsan kullanıcıları doğrulayın. Sosyal medyayı kullanan insanları botlardan ayırmamız ve yasaların veya politikaların ihlal edilmesi durumunda her ikisini de sorumlu tutmamız gerekiyor. Bu, kimliklerin ifşa edilmesi anlamına gelmiyor. Kullanıcı yorumlarını gördüğümüz ve Uber’in sürücünün kimliğini doğruladığını bildiğimiz için bir yabancının arabasına atlayacak kadar kendimizi nasıl güvende hissettiğimizi bir düşünün. Benzer şekilde, sosyal medya şirketlerinin her hesabın arkasındaki insanı doğrulaması ve hesapların topluluğun güvenini kazanmasını teşvik etmek için itibara dayalı işlevsellik sunması gerekiyor.
2. Her kaynağı bilin. İçeriğin kaynağını ve ağa girdiği zamanı bilmek güveni ve emniyeti artırabilir. İlk adım olarak, bir zaman damgası ve şifrelenmiş (ve kaldırılamaz) bir IP adresi kullanmak, tanımlanabilir bir başlangıç noktası garanti eder. Gözetim zinciri yoluyla keşfedilebilen kötü oyuncular ve onların yayınları, algoritmik olarak güçlendirilmek yerine önceliklendirilebilir veya yasaklanabilir. VPN trafiği algılamayı caydırabilirken, platformlar VPN’lerin tanımlanmasını iyileştirme çabalarını hızlandırabilir.
3. Deepfake’leri tanımlayın. Başkan Biden’ın, Ticaret Bakanlığı’nın yapay zeka tarafından oluşturulan içeriğin filigranlanması için kılavuz geliştirmesini gerektiren yapay zeka hakkındaki kapsamlı idari emrine uygun olarak, platformların algılama ve etiketleme araçlarını daha da geliştirmesi gerekiyor. Platformların başlamasının bir yolu, mevcut bir görsel veritabanını taramak ve kullanıcıya bir görselin geçmişi olup olmadığını söylemektir (örneğin, Google Görseller bunu yapmaya başlamıştır). Yapay zeka sistemleri aynı zamanda sahte olarak etiketlenmiş görsellerle kontrast oluşturan geniş gerçek görsel kümelerini kullanarak deepfake imzalarını tespit edecek şekilde de eğitilebilir. Bu tür yazılımlar, belirli numaralardan arama geldiğinde telefonunuza aldığınız “spam riski” bildirimine benzer şekilde, bir görselin deepfake olma olasılığının yüksek olduğunu size bildirebilir.
4. Reklamverenleri filtreleyin. Şirketler, reklam verenlerin “güvenli listesini” platformlar arasında paylaşabilir, geçerli reklamcılık yasalarına uyanları ve platformların reklamcılık standartlarına profesyonel olarak uyanları onaylayabilir. Platformların ayrıca, sentetik içerik kullanılıyorsa belirgin sorumluluk reddi beyanları ekleyerek siyasi reklamlara yönelik incelemelerini artırmaları gerekiyor. Örneğin Meta, bu ay siyasi reklamların yapay zeka kullanıp kullanmadıklarını açıklamalarının zorunlu olacağını duyurdu.
5. Yardım için gerçek insanları kullanın. Elbette hatalar olacak ve bazı güvenilmez içerikler korumalardan kaçacaktır. Ancak Vikipedi örneği, yanlış bilgilerin açık ve son derece ayrıntılı içerik kurallarına uyan insanlar tarafından kontrol altına alınabileceğini gösteriyor. Sosyal medya şirketleri de içerik için kalite kuralları yayınlamalı ve güven ve güvenlik ekiplerini daha fazla donatarak ve potansiyel olarak gönüllülere araçlar sağlayarak bu ekipleri güçlendirerek bunları uygulamalıdır. İnsanların, sohbet robotlarından gelen yapay zeka tarafından üretilen materyal çığını nasıl savuşturacağı henüz bilinmiyor, ancak bu tür içerikleri tespit etmek ve filtrelemek için eğitimli yapay zeka sistemleri kullanılırsa görev daha az korkutucu olacaktır.