Daha fazla AI şeffaflığı için tam zamanı
Ama benim için gerçekten öne çıkan şey, Meta’nın kapılarını ne kadar açtığı. Daha geniş AI topluluğunun modeli indirmesine ve düzenlemesine izin verecek. Bu, daha güvenli ve daha verimli olmasına yardımcı olabilir. Ve en önemlisi, AI modellerinin iç işleyişi söz konusu olduğunda şeffaflığın gizliliğe göre faydalarını gösterebilir. Bu daha zamanında ve daha önemli olamazdı.
Teknoloji şirketleri yapay zeka modellerini doğaya salmak için acele ediyor ve üretken yapay zekanın giderek daha fazla ürüne gömülü olduğunu görüyoruz. Ancak OpenAI’nin GPT-4’ü gibi en güçlü modeller, yaratıcıları tarafından sıkı bir şekilde korunmaktadır. Geliştiriciler ve araştırmacılar, bir web sitesi aracılığıyla bu tür modellere sınırlı erişim elde etmek için para ödüyorlar ve iç işleyişinin ayrıntılarını bilmiyorlar.
Geçen hafta bazı söylentilere neden olan hakemli olmayan yeni bir makalede vurgulandığı gibi, bu şeffaflık ileride sorunlara yol açabilir. Stanford Üniversitesi ve UC Berkeley’deki araştırmacılar, GPT-3.5 ve GPT-4’ün matematik problemlerini çözmede, hassas soruları yanıtlamada, kod üretmede ve görsel akıl yürütmede birkaç ay öncesine göre daha kötü performans gösterdiğini buldu.
Princeton bilgisayar bilimi profesörü Arvind Narayanan, değerlendirmesinde, bu modellerin şeffaf olmamasının tam olarak neden olabileceğini söylemeyi zorlaştırıyor, ancak ne olursa olsun, sonuçların bir tutam tuzla alınması gerektiğini yazıyor. OpenAI’nin modelleri daha da kötüleştirdiğinin kanıtlarından çok “yazarların değerlendirmesinin tuhaflıklarından” kaynaklanıyor olmaları muhtemeldir. Araştırmacıların, OpenAI’nin modellerde daha iyi performans gösterecek şekilde ince ayar yaptığını ve bunun istemeden bazı yönlendirme tekniklerinin geçmişte olduğu gibi çalışmamasına neden olduğunu hesaba katmadığını düşünüyor.
Bunun bazı ciddi etkileri var. Hugging Face girişiminde yapay zeka araştırmacısı olan Sasha Luccioni, ürünlerini OpenAI modellerinin belirli bir yinelemesiyle çalışacak şekilde geliştiren ve optimize eden şirketlerin “%100” ürünlerin aniden arızalanıp bozulduğunu görebileceğini söylüyor. OpenAI, modellerinde bu şekilde ince ayar yaptığında, örneğin çok özel istemler kullanılarak oluşturulmuş ürünler, daha önce olduğu gibi çalışmayı durdurabilir. Kapalı modellerin sorumluluktan yoksun olduğunu da ekliyor. “Eğer bir ürününüz varsa ve üründe bir değişiklik yaparsanız, bunu müşterilerinize söylemeniz gerekir.”
LLaMA 2 gibi açık bir model, en azından şirketin modeli nasıl tasarladığını ve hangi eğitim tekniklerini kullandığını netleştirecektir. OpenAI’den farklı olarak Meta, nasıl eğitildiğine, hangi donanımın kullanıldığına, verilere nasıl açıklama eklendiğine ve zararı azaltmak için hangi tekniklerin kullanıldığına ilişkin ayrıntılar da dahil olmak üzere LLaMA 2’nin tüm tarifini paylaştı. Luccioni, araştırma yapan ve modelin üzerinde ürünler geliştiren kişilerin tam olarak ne üzerinde çalıştıklarını bildiklerini söylüyor.
“Modele eriştiğinizde, daha iyi performans elde ettiğinizden veya daha az önyargı elde ettiğinizden veya aradığınız her neyse onu elde ettiğinizden emin olmak için her türlü deneyi yapabilirsiniz” diyor.
Nihayetinde, yapay zeka etrafındaki açık ve kapalı tartışma, kararları kimin verdiğine bağlı. Açık modellerde kullanıcılar daha fazla güce ve kontrole sahip olur. Kapalı modellerle yaratıcılarının insafına kalırsınız.
Meta gibi büyük bir şirketin bu kadar açık, şeffaf bir AI modeli yayınlaması, üretken AI altına hücumda potansiyel bir dönüm noktası gibi geliyor.