Big Tech'in filigranlama planları neden hoş karşılanan iyi haberlerdir?
6 Şubat'ta Meta, yapay zeka tarafından oluşturulan görselleri Facebook, Instagram ve Threads'te etiketleyeceğini söyledi. Birisi görüntü oluşturmak için Meta'nın yapay zeka araçlarını kullandığında şirket, görüntü dosyasına görünmez filigranlar ve meta verilerin yanı sıra görüntüye görünür işaretçiler ekleyecektir. Şirket, standartlarının, kar amacı gütmeyen bir yapay zeka araştırması olan Partnership on AI tarafından ortaya konan en iyi uygulamalarla uyumlu olduğunu söylüyor.
Big Tech ayrıca görüntülere, videolara ve seslere bir “beslenme etiketi” ekleyebilecek umut verici bir teknik standardın arkasına da ağırlık veriyor. C2PA olarak adlandırılan bu, bir içerik parçasının kökenleri hakkındaki ayrıntıları veya teknoloji uzmanlarının “kaynak” bilgisi olarak adlandırdığı bilgileri kodlamak için kriptografiye dayanan açık kaynaklı bir internet protokolüdür. C2PA geliştiricileri genellikle protokolü bir beslenme etiketiyle karşılaştırır; ancak bu etiket, içeriğin nereden geldiğini ve onu kimin (ya da neyin) oluşturduğunu belirtir. Bununla ilgili daha fazlasını buradan okuyun.
8 Şubat'ta Google, C2PA'nın yönetim kurulunda Microsoft ve Adobe gibi diğer teknoloji devlerine katılacağını ve yeni Gemini araçlarında yapay zeka tarafından oluşturulan tüm görüntülere SynthID filigranını dahil edeceğini duyurdu. Meta kendisinin de C2PA'ya katıldığını söylüyor. Endüstri çapında bir standarda sahip olmak, hangi sistemle oluşturulmuş olursa olsun şirketlerin yapay zeka tarafından oluşturulan içeriği tespit etmesini kolaylaştırır.
OpenAI de geçen hafta yeni içerik kaynağı tedbirlerini duyurdu. ChatGPT ve görüntü oluşturma yapay zekası DALL-E 3 ile oluşturulan görüntülerin meta verilerine filigran ekleyeceğini söylüyor. OpenAI, artık görsellerin yapay zeka ile oluşturulduğunu belirtmek için görsellere görünür bir etiket ekleyeceğini söylüyor.
Bu yöntemler ümit verici bir başlangıçtır ancak kusursuz değildir. Meta verilerdeki filigranların, görüntülerin ekran görüntüsünü alarak ve yalnızca bunu kullanarak atlatılması kolaydır; görsel etiketler kırpılabilir veya düzenlenebilir. Google'ın SynthID'si gibi görünmez filigranlar için belki de daha fazla umut var; bu, bir görüntünün piksellerini ustaca değiştirerek bilgisayar programlarının filigranı algılayabilmesine ancak insan gözünün algılayamamasına neden oluyor. Bunları kurcalamak daha zordur. Dahası, yapay zeka tarafından oluşturulan video, ses ve hatta metinleri etiketlemenin ve tespit etmenin güvenilir yolları yok.
Ancak bu kaynak araçlarını oluşturmanın hâlâ değeri var. Üretken yapay zeka uzmanı Henry Ajder'in, birkaç hafta önce deepfake pornonun nasıl önleneceği konusunda kendisiyle röportaj yaptığımda bana söylediği gibi, amaç “sapkın bir müşteri yolculuğu” yaratmak. Başka bir deyişle, zararlı içeriğin oluşturulmasını ve paylaşılmasını mümkün olduğunca yavaşlatmak için deepfake kanalına engeller ve sürtünmeler ekleyin. Kararlı bir kişi muhtemelen bu korumaları geçersiz kılabilir, ancak her zerre bile yardımcı olur.
Deepfake porno gibi sorunları önlemek için teknoloji şirketlerinin uygulayabileceği pek çok teknik olmayan düzeltme de mevcut. Google, Amazon, Microsoft ve Apple gibi büyük bulut hizmet sağlayıcıları ve uygulama mağazaları, rıza dışı derin sahte çıplak görüntüler oluşturmak için kullanılabilecek hizmetleri yasaklamak için harekete geçebilir. Ve filigranlar, teknolojiyi geliştiren daha küçük girişimler tarafından bile yapay zeka tarafından oluşturulan tüm içeriğe dahil edilmelidir.
Bana umut veren şey, bu gönüllü önlemlerin yanı sıra bağlayıcı düzenlemeleri de görmeye başlıyor olmamız. Teknoloji şirketlerinin yapay zeka tarafından oluşturulan içeriği ifşa etmesini ve zararlı içeriği daha hızlı kaldırmasını gerektiren AB Yapay Zeka Yasası ve Dijital Hizmetler Yasası gibi. ABD'li milletvekilleri arasında deepfake'lere ilişkin bazı bağlayıcı kuralların geçirilmesine yönelik ilgi de yenilendi. Ve Başkan Biden'ın yapay zeka tarafından oluşturulan ve seçmenlere oy vermemelerini söyleyen otomatik çağrılarının ardından, ABD Federal İletişim Komisyonu geçen hafta bu çağrılarda yapay zekanın kullanımını yasakladığını duyurdu.