Meta’nın en yeni yapay zeka modeli herkes için ücretsiz
kaputun altında
Al-Dahle, LLaMA 2’yi lansmana hazır hale getirmenin, modeli daha güvenli hale getirmek ve selefine göre zehirli yalanlar yayma olasılığını azaltmak için çok fazla ince ayar yapılması gerektiğini söylüyor.
Meta’nın geçmişte öğreneceği çok sayıda gaf var. Bilime yönelik dil modeli Galactica, yalnızca üç gün sonra çevrimdışına alındı ve yalnızca araştırma amaçlı olan önceki LlaMA modelinin çevrimiçi olarak sızdırılması, Meta’nın ilgili riskleri doğru bir şekilde dikkate alıp almadığını sorgulayan politikacıların eleştirilerine yol açtı. dezenformasyon ve taciz gibi AI dil modelleri ile.
Bu hataların tekrarlanma riskini azaltmak için Meta, yardımseverliği ve güvenliği artırmayı amaçlayan farklı makine öğrenimi tekniklerinin bir karışımını uyguladı.
Yapay zeka girişimi Hugging Face’de araştırmacı olan Sasha Luccioni, Meta’nın LLaMA 2 eğitim yaklaşımının üretken yapay zeka modelleri için normalden daha fazla adım içerdiğini söylüyor.
Model, öncekinden %40 daha fazla veriyle eğitildi. Al-Dahle, iki eğitim verisi kaynağı olduğunu söylüyor: çevrimiçi kazınan veriler ve daha arzu edilir bir şekilde davranmak için insan yorumlayıcılardan gelen geri bildirimlere göre ince ayarlı ve ince ayarlı bir veri seti. Şirket, LLaMA 2’de Meta kullanıcı verilerini kullanmadığını ve çok sayıda kişisel bilgi içerdiğini bildiği sitelerden verileri hariç tuttuğunu söylüyor.
Buna rağmen, LLaMA 2, tıpkı rakip modeller gibi, saldırgan, zararlı ve başka türlü sorunlu bir dil kusuyor. Meta, veri kümesinden zehirli verileri kaldırmadığını, çünkü bu verileri içeride bırakmanın LLaMA 2’nin nefret söylemini daha iyi tespit etmesine yardımcı olabileceğini ve onu kaldırmanın bazı demografik grupları yanlışlıkla filtreleme riskini alabileceğini söylüyor.
Yine de Luccioni, Meta’nın açıklık taahhüdünün heyecan verici olduğunu çünkü kendisi gibi araştırmacıların yapay zeka modellerinin önyargılarını, etiğini ve verimliliğini düzgün bir şekilde incelemesine izin verdiğini söylüyor.
Al-Dahle, LLaMA 2’nin açık kaynaklı bir model olmasının, harici araştırmacıların ve geliştiricilerin onu güvenlik kusurları için araştırmasına izin vereceğini ve bunun da onu özel modellerden daha güvenli hale getireceğini söylüyor.
Liang aynı fikirde. “Bir şeyler denemek için çok heyecanlıyım ve bunun toplum için faydalı olacağını düşünüyorum” diyor.