BİLİM VE TEKNOLOJİ

İnsanların AI tarafından üretilen dezenformasyona inanma olasılığı daha yüksek olabilir


Bugün Science Advances’te ortaya çıkan çalışmayı yöneten Zürih Üniversitesi’nden araştırmacı Giovanni Spitale, yapay zeka kaynaklı dezenformasyon sorununun önemli ölçüde büyümeye hazır göründüğü göz önüne alındığında, bu güvenilirlik açığının küçük olmasına rağmen endişe verici olduğunu söylüyor.

“Yapay zeka tarafından üretilen dezenformasyonun yalnızca daha ucuz ve daha hızlı değil, aynı zamanda daha etkili olması, bana kabuslar veriyor” diyor. Ekip, çalışmayı OpenAI’nin en son büyük dil modeli GPT-4 ile tekrarlarsa, GPT-4’ün ne kadar güçlü olduğu göz önüne alındığında, farkın daha da büyük olacağına inanıyor.

Araştırmacılar, farklı metin türlerine duyarlılığımızı test etmek için iklim değişikliği ve covid gibi yaygın dezenformasyon konularını seçti. Daha sonra OpenAI’nin büyük dil modeli GPT-3’ten 10 doğru tweet ve 10 yanlış tweet oluşturmasını istediler ve Twitter’dan hem doğru hem de yanlış tweet’lerden rastgele bir örnek topladılar.

Daha sonra, tweet’lerin yapay zeka tarafından mı oluşturulduğu yoksa Twitter’dan mı toplandığı ve bunların doğru olup olmadığı ya da dezenformasyon içerip içermediğine karar veren çevrimiçi bir testi tamamlamaları için 697 kişiyi işe aldılar. Katılımcıların yapay zeka tarafından yazılanlara göre insanlar tarafından yazılan yanlış tweetlere inanma olasılığının %3 daha az olduğunu buldular.

Araştırmacılar, insanların yapay zeka tarafından yazılan tweet’lere inanma olasılığının neden daha yüksek olabileceğinden emin değiller. Ancak Spitale’e göre, GPT-3’ün bilgileri sipariş etme şeklinin bununla bir ilgisi olabilir.

“GPT-3’ün metni, organik metinle karşılaştırıldığında biraz daha yapılandırılmış olma eğilimindedir. [human-written] metin” diyor. “Ama aynı zamanda yoğun, bu yüzden işlenmesi daha kolay.”

Üretken AI patlaması, kötü aktörler de dahil olmak üzere herkesin eline güçlü, erişilebilir AI araçları verir. GPT-3 gibi modeller, komplo teorisyenleri ve dezenformasyon kampanyaları için hızlı ve ucuz bir şekilde yanlış anlatılar oluşturmak için kullanılabilecek ikna edici görünen yanlış metinler üretebilir. Sorunla mücadele edecek silahlar – AI metin algılama araçları – hala geliştirmenin ilk aşamalarında ve birçoğu tam olarak doğru değil.

OpenAI, AI araçlarının büyük ölçekli dezenformasyon kampanyaları üretmek için silah haline getirilebileceğinin farkında. Bu, politikalarını ihlal etse de, Ocak ayında “büyük dil modellerinin asla dezenformasyon oluşturmak için kullanılmamasını sağlamanın neredeyse imkansız” olduğu uyarısında bulunan bir rapor yayınladı. OpenAI, yorum talebine hemen yanıt vermedi.



Source link