BİLİM VE TEKNOLOJİ

Üretken yapay zeka konusunda politika oluşturmaya yönelik erken bir kılavuz


Herhangi bir önerim olup olmadığını öğrenmek istedi ve tüm yeni gelişmelerin milletvekilleri için ne anlama geldiğini düşündüğümü sordu. Birkaç günümü bu konu hakkında düşünerek, okuyarak ve uzmanlarla sohbet ederek geçirdim ve yanıtım bu haber bültenine dönüştü. İşte gidiyor!

GPT-4 standart taşıyıcı olmasına rağmen, son birkaç aydaki birçok yüksek profilli üretken yapay zeka sürümünden yalnızca biri: Google, Nvidia, Adobe ve Baidu hepsi kendi projelerini duyurdu. Kısacası üretken yapay zeka, herkesin bahsettiği şeydir. Ve teknoloji yeni olmasa da, politika üzerindeki etkilerinin anlaşılması için aylar hatta yıllar geçmesi gerekiyor.

OpenAI tarafından geçen hafta piyasaya sürülen GPT-4, bir cümledeki kelimeleri tahmin etmek için derin öğrenmeyi kullanan çok modlu büyük bir dil modelidir. Olağanüstü akıcı metinler üretir ve resimlere olduğu kadar kelime tabanlı komutlara da yanıt verebilir. Ödeme yapan müşteriler için artık GPT-4, zaten ticari uygulamalara dahil edilmiş olan ChatGPT’ye güç verecek.

En yeni yineleme büyük bir ses getirdi ve Bill Gates bu hafta yazdığı bir mektupta bunu “devrimci” olarak nitelendirdi. Bununla birlikte, OpenAI, modelin önyargı için nasıl eğitildiği ve değerlendirildiği konusunda şeffaflık eksikliği nedeniyle de eleştirildi.

Tüm heyecana rağmen, üretken yapay zeka önemli risklerle birlikte gelir. Modeller, internet denen zehirli depo üzerinde eğitiliyor, bu da genellikle ırkçı ve cinsiyetçi çıktılar ürettikleri anlamına geliyor. Ayrıca düzenli olarak bir şeyler uydururlar ve ikna edici bir güvenle ifade ederler. Bu, yanlış bilgilendirme açısından bir kabus olabilir ve dolandırıcılığı daha ikna edici ve üretken hale getirebilir.

Üretken yapay zeka araçları aynı zamanda insanların güvenliğine ve mahremiyetine yönelik potansiyel tehditlerdir ve telif hakkı yasalarına çok az önem verirler. Başkalarının çalışmalarını çalan üretici yapay zeka kullanan şirketlere şimdiden dava açıldı.

Brookings Enstitüsü’nde yönetişim çalışmalarında görevli olan Alex Engler, politika yapıcıların bu konuda nasıl düşünmeleri gerektiğini değerlendirdi ve iki ana risk türü gördü: kötü niyetli kullanımdan kaynaklanan zararlar ve ticari kullanımdan kaynaklanan zararlar. Engler bana gönderdiği bir e-postada, teknolojinin dezenformasyon, otomatik nefret söylemi ve dolandırıcılık gibi kötü niyetli kullanımlarının “içerik denetimiyle pek çok ortak noktası var” dedi ve “bu risklerle başa çıkmanın en iyi yolu muhtemelen platform yönetişimidir.” (Bu konuda daha fazla bilgi edinmek istiyorsanız, Tech Policy Press’in bu haftaki Pazar Programı’nı dinlemenizi tavsiye ederim. üretken AI sistemleri, arama ve öneri algoritmalarına benzer şekilde düzenlenmelidir. İpucu: Bölüm 230.)

Üretken yapay zeka hakkındaki politika tartışmaları şimdiye kadar bu ikinci kategoriye odaklandı: kodlama veya reklamcılık gibi teknolojinin ticari kullanımından kaynaklanan riskler. Şimdiye kadar ABD hükümeti, öncelikle Federal Ticaret Komisyonu (FTC) aracılığıyla küçük ama dikkate değer adımlar attı. FTC, geçen ay şirketlere yapay zekanın yapabileceklerini abartmak gibi kanıtlayamayacakları teknik yetenekler hakkında iddialarda bulunmamalarını isteyen bir uyarı bildirisi yayınladı. Bu hafta, iş blogunda, şirketlerin üretici yapay zekayı kullanırken göz önünde bulundurması gereken riskler hakkında daha güçlü bir dil kullandı.



Source link