BİLİM VE TEKNOLOJİ

DeepMind, sohbet robotlarını daha güvenli hale getirebileceğini nasıl düşünüyor?


Bazı teknoloji uzmanları, bir gün insanların sohbet edebileceği süper akıllı bir yapay zeka sistemi geliştireceğimizi umuyor. Ona bir soru sorun ve bir insan uzmanı tarafından bestelenmiş gibi görünen bir cevap sunacaktır. Tıbbi tavsiye istemek veya bir tatil planlamasına yardımcı olmak için kullanabilirsiniz. Eh, en azından fikir bu.

Gerçekte, bundan hala çok uzağız. Günümüzün en gelişmiş sistemleri bile oldukça aptaldır. Bir keresinde Meta’nın yapay zeka sohbet robotu BlenderBot’u bana önde gelen bir Hollandalı politikacının terörist olduğunu söylemesi için almıştım. Yapay zeka destekli sohbet robotlarının tıbbi tavsiye vermek için kullanıldığı deneylerde, hastalara kendilerini öldürmelerini söylediler. Sizi pek çok iyimserlikle doldurmuyor, değil mi?

Bu nedenle AI laboratuvarları, gerçek dünyada serbest bırakmadan önce konuşma AI’larını daha güvenli ve daha yararlı hale getirmek için çok çalışıyor. Alphabet’in sahip olduğu yapay zeka laboratuvarı DeepMind’in son çabası hakkında bir hikaye yayınladım: Sparrow adlı yeni bir sohbet robotu.

DeepMind’in yapay zeka destekli iyi bir sohbet robotu yapma konusundaki yeni hilesi, insanların ona nasıl davranacağını söylemelerini sağlamaktı.—ve Google aramayı kullanarak iddialarını yedeklemeye zorlayın. İnsan katılımcılardan daha sonra AI sisteminin cevaplarının ne kadar makul olduğunu değerlendirmeleri istendi. Buradaki fikir, insanlar ve makineler arasındaki diyalogu kullanarak yapay zekayı eğitmeye devam etmektir.

Hikayeyi bildirirken, kar amacı gütmeyen bir AI araştırma laboratuvarı olan Cohere for AI’yı yöneten Sara Hooker ile konuştum.

Bana, konuşma tabanlı yapay zeka sistemlerini güvenli bir şekilde dağıtmanın önündeki en büyük engellerden birinin kırılganlıkları olduğunu, yani tanıdık olmayan bir bölgeye götürülene kadar mükemmel bir performans sergilediklerini ve bu da onları tahmin edilemez şekilde davranmaya zorladığını söyledi.

“Ayrıca çözülmesi zor bir problem çünkü herhangi iki kişi bir konuşmanın uygun olup olmadığı konusunda anlaşamayabilir. Ve şu anda bir şeyin uygun olduğu konusunda hemfikir olsak bile, bu zamanla değişebilir veya öznel olabilen ortak bağlama dayanabilir” diyor Hooker.

Buna rağmen DeepMind’in bulguları, AI güvenliğinin sadece teknik bir düzeltme olmadığının altını çiziyor. Döngüde insanlara ihtiyacınız var.



Source link