BİLİM VE TEKNOLOJİ

OpenAI, ChatGPT’yi nasıl daha güvenli ve daha az önyargılı hale getirmeye çalışıyor?


Bu sadece gazetecileri korkutmakla kalmıyor (bazıları aptal bir sohbet robotunun duygulara sahip olma becerisini antropomorfize edip abartmaktan daha iyisini bilmeli.) Başlangıç, aynı zamanda, sohbet robotu ChatGPT’nin bir özelliği olduğunu iddia eden ABD’deki muhafazakarlardan da çok fazla ısı aldı. “uyandırma” önyargısı.

Tüm bu öfke nihayet etkisini gösteriyor. Bing’in trippy içeriği, OpenAI girişimi tarafından geliştirilen ChatGPT adlı yapay zeka dili teknolojisi tarafından üretiliyor ve geçen Cuma OpenAI, sohbet robotlarının nasıl davranması gerektiğini açıklığa kavuşturmayı amaçlayan bir blog yazısı yayınladı. Ayrıca, ABD “kültür savaşları” hakkında sorular sorulduğunda ChatGPT’nin nasıl yanıt vermesi gerektiğine ilişkin yönergelerini yayınladı. Kurallar, örneğin, siyasi partilere üye olmamak veya bir grubu iyi veya kötü olarak yargılamamayı içerir.

OpenAI’de iki AI politika araştırmacısı olan Sandhini Agarwal ve Lama Ahmad ile konuştum, şirketin ChatGPT’yi nasıl daha güvenli ve daha az çılgın hale getirdiği hakkında. Şirket, Microsoft ile olan ilişkisi hakkında yorum yapmayı reddetti, ancak yine de bazı ilginç görüşleri vardı. İşte söylemek zorunda oldukları şey:

Daha iyi yanıtlar nasıl alınır: AI dil modeli araştırmasında, en büyük açık sorulardan biri, modellerin bir şeyler uydurmak için kibar bir terim olan “halüsinasyon” yapmasının nasıl durdurulacağıdır. ChatGPT aylardır milyonlarca insan tarafından kullanılıyor, ancak Bing’in ürettiği türden yalanlar ve halüsinasyonlar görmedik.

Bunun nedeni, OpenAI’nin ChatGPT’de, modelin kullanıcılardan gelen geri bildirimlere dayalı olarak yanıtlarını iyileştiren, insan geri bildiriminden pekiştirmeli öğrenme adı verilen bir teknik kullanmasıdır. Teknik, insanlardan bir dizi farklı çıktı arasından seçim yapmalarını isteyerek, onları gerçekçilik ve doğruluk gibi çeşitli farklı kriterler açısından sıralamadan önce çalışır. Bazı uzmanlar inanıyor Microsoft, bu iddiayı henüz onaylamamış veya reddetmemiş olsa da, Bing’i başlatmak için bu aşamayı atlamış veya aceleye getirmiş olabilir.

Ama bu yöntem mükemmel değil, Agarwal’a göre. İnsanlara tamamı yanlış olan seçenekler sunulmuş olabilir, sonra en az yanlış olan seçeneği seçmiş olabilir, diyor. Şirket, ChatGPT’yi daha güvenilir hale getirme çabasıyla veri kümesini temizlemeye ve modelin yanlış olan şeyleri tercih ettiği örnekleri kaldırmaya odaklanıyor.

Jailbreak ChatGPT: ChatGPT’nin piyasaya sürülmesinden bu yana insanlar onu “jailbreak” yapmaya çalışıyor, bu da modelin kendi kurallarını çiğnemesini ve ırkçı veya komplocu şeyler üretmesini sağlayacak geçici çözümler bulmak anlamına geliyor. Bu çalışma OpenAI Genel Merkezi’nde dikkatlerden kaçmadı. Agarwal, OpenAI’nin tüm veritabanını incelediğini ve modeli iyileştirmek ve bu nesilleri tekrar etmesini engellemek için istenmeyen içeriğe yol açan istemleri seçtiğini söylüyor.

OpenAI dinlemek istiyor: Şirket, modellerini şekillendirmek için halktan daha fazla geri bildirim almaya başlayacağını söyledi. Lama Ahmad, OpenAI’nin hangi içeriğin tamamen yasaklanması gerektiğini tartışmak için anketler kullanarak veya yurttaş meclisleri kurarak araştırdığını söylüyor. “Örneğin, sanat bağlamında çıplaklık kaba kabul edilen bir şey olmayabilir, ancak sınıftaki ChatGPT bağlamında bunun hakkında ne düşünüyorsunuz” diyor.





Source link