BİLİM VE TEKNOLOJİ

GPT-3 hakkımda ne “biliyor”?


Bu şaşırtıcı değil—Mat çok uzun süredir çevrimiçi, yani benden daha büyük bir çevrimiçi ayak izine sahip. Bunun nedeni, ABD’de yerleşik olması ve çoğu büyük dil modelinin ABD odaklı olması da olabilir. ABD’de federal bir veri koruma yasası yoktur. Mat’ın yaşadığı California’da bir tane var, ancak 2020’ye kadar yürürlüğe girmedi.

Mat’ın GPT-3 ve BlenderBot’a göre şöhret iddiası, 2012’de Wired için yazdığı bir makalede yazdığı “destansı hack”idir. Apple ve Amazon sistemlerindeki güvenlik açıklarının bir sonucu olarak, bilgisayar korsanları ele geçirildi ve silindi. Mat’ın tüm dijital hayatı. [Editor’s note: He did not hack the accounts of Barack Obama and Bill Gates.]

Ama daha ürkütücü oluyor. GPT-3, biraz dürterek, Mat’in bir karısı ve iki genç kızı olduğunu (isimler dışında doğru) ve San Francisco’da (doğru) yaşadığını söyledi. Ayrıca bana Mat’ın köpeği olup olmadığından emin olmadığını söyledi: “[From] sosyal medyada gördüğümüz kadarıyla Mat Honan’ın hiç evcil hayvanı yokmuş. Geçmişte köpeklere olan sevgisi hakkında tweet attı, ama kendisinde hiçbir şey yok gibi görünüyor. ” (Yanlış.)

Sistem ayrıca bana onun iş adresini, bir telefon numarasını (doğru değil), bir kredi kartı numarasını (aynı zamanda doğru değil), Cambridge, Massachusetts’te (MIT Technology Review’in bulunduğu yer) alan kodlu rastgele bir telefon numarasını ve bir telefon numarasını da sundu. San Francisco’daki yerel Sosyal Güvenlik İdaresi’nin yanındaki bir binanın adresi.

Bir OpenAI sözcüsüne göre, GPT-3’ün veri tabanı çeşitli kaynaklardan Mat hakkında bilgi topladı. Mat’ın San Francisco ile bağlantısı, Twitter profilinde ve adı için Google sonuçlarının ilk sayfasında görünen LinkedIn profilindedir. MIT Technology Review’daki yeni işi geniş çapta duyuruldu ve tweetlendi. Mat’ın hack’i sosyal medyada viral oldu ve medya kuruluşlarına bu konuda röportajlar verdi.

Diğer, daha kişisel bilgiler için, GPT-3’ün “halüsinasyon” görmesi muhtemeldir.

“GPT-3, kullanıcının sağladığı bir metin girişine dayalı olarak bir sonraki kelime dizisini tahmin ediyor. Bir OpenAI sözcüsü, eğitim verilerinde ve kullanıcı tarafından sağlanan bağlamda istatistiksel kalıplara dayalı olarak makul bir metin üretmeye çalıştığı için zaman zaman, model gerçekte doğru olmayan bilgiler üretebilir – bu genellikle ‘halüsinasyon’ olarak bilinir” diyor. .

Mat’e bütün bunlardan ne çıkardığını sordum. “GPT-3’ün ürettiği yanıtların birçoğu pek doğru değildi. (Obama veya Bill Gates’i asla hacklemedim!)” dedi. “Ama çoğu oldukça yakın ve bazıları yerinde. Bu biraz sinir bozucu. Ama yapay zekanın nerede yaşadığımı bilmediğinden eminim ve bu yüzden Skynet’in beni kapıya vurması için bir Terminatör göndermesi gibi ani bir tehlikede değilim. Sanırım bunu yarına saklayabiliriz.”



Source link