BİLİM VE TEKNOLOJİ

AI’ya izin vermemiz gerekiyor


Bu hikaye ilk olarak AI hakkındaki haftalık haber bültenimiz The Algorithm’de yayınlandı. Bunun gibi hikayeleri önce gelen kutunuza almak için buradan kaydolun.

Bu haftanın büyük haberi, Google’da Başkan Yardımcısı ve Mühendislik Üyesi ve modern yapay zekanın kalbindeki en önemli tekniklerden bazılarını geliştiren derin öğrenmenin öncüsü Geoffrey Hinton’un 10 yıl sonra şirketten ayrılması.

Ama önce yapay zekadaki rıza hakkında konuşmamız gerekiyor.

Geçen hafta OpenAI, kullanıcıların konuşma geçmişini kaydetmeyen veya AI dil modeli ChatGPT’yi geliştirmek için kullanmayan bir “gizli” mod başlattığını duyurdu. Yeni özellik, kullanıcıların sohbet geçmişini ve eğitimi kapatmasına ve verilerini dışa aktarmalarına olanak tanır. Bu, insanlara verilerinin bir teknoloji şirketi tarafından nasıl kullanıldığı konusunda daha fazla kontrol sağlama açısından hoş bir hareket.

OpenAI’nin insanların devre dışı kalmasına izin verme kararı, şirketin verileri nasıl kullandığı ve topladığı konusunda Avrupa veri koruma düzenleyicilerinin artan baskısı altında olduğu için geldi.OpenAI’nin İtalya’nın AB’nin katı veri koruma rejimi olan GDPR’ye uyması yönündeki taleplerini kabul etmesi için 30 Nisan’a kadar zamanı vardı. İtalya, OpenAI’nin bir kullanıcı devre dışı bırakma formu ve ChatGPT’de kullanılan kişisel verilere itiraz etme özelliğini kullanıma sunmasının ardından ülkede ChatGPT’ye erişimi yeniden sağladı. Düzenleyici, OpenAI’nin insanların kişisel verilerini rızaları olmadan çaldığını ve nasıl kullanılacağı konusunda onlara herhangi bir kontrol vermediğini iddia etmişti.

OpenAI’nin baş teknoloji sorumlusu Mira Murati, meslektaşım Will Douglas Heaven ile geçen hafta yaptığı bir röportajda, gizli modun şirketin birkaç aydır “yinelemeli olarak adım attığı” bir şey olduğunu ve ChatGPT kullanıcıları tarafından talep edildiğini söyledi. OpenAI, Reuters’e yeni gizlilik özelliklerinin AB’nin GDPR soruşturmalarıyla ilgili olmadığını söyledi.

Murati, “Verilerinin nasıl kullanıldığı söz konusu olduğunda, kullanıcıları sürücü koltuğuna oturtmak istiyoruz” diyor. OpenAI, kötüye kullanım ve kötüye kullanımı izlemek için kullanıcı verilerini 30 gün boyunca saklamaya devam edeceğini söylüyor.

Ancak OpenAI’nin söylediklerinin aksine, dijital haklar grubu Access Now’da kıdemli bir politika analisti olan Daniel Leufer, GDPR’nin ve AB’nin baskısının firmayı yasalara uymaya zorlamada rol oynadığını düşünüyor. Bu süreçte, ürünü dünyadaki herkes için daha iyi hale getirdi.

“İyi veri koruma uygulamaları ürünleri daha güvenli hale getiriyor [and] daha iyi [and] kullanıcılara verileri üzerinde gerçek bir yetki verin”dediTwitter’dan.

Pek çok insan, GDPR’yi inovasyonu boğucu bir sıkıcı olarak görüyor. Ancak Leufer’in işaret ettiği gibi, yasalar şirketlere zorlandıklarında işleri nasıl daha iyi yapabileceklerini gösteriyor. Aynı zamanda, insanlara giderek daha fazla otomatikleşen bir dünyada dijital varlıkları üzerinde bir miktar kontrol sağlayan, şu anda sahip olduğumuz tek araçtır.

Kullanıcılara daha fazla kontrol sağlamak için AI’da yapılan diğer deneyler, bu tür özelliklere yönelik açık bir talep olduğunu göstermektedir.

Geçen yılın sonlarından bu yana, insanlar ve şirketler, görüntü üreten yapay zeka modeli Stable Diffusion’ı eğitmek için kullanılan açık kaynaklı LAION veri setine görüntülerini dahil etmekten vazgeçebildiler.

Spawning adlı bir kuruluşun kurucu ortağı olan Mat Dryhurst, Aralık ayından bu yana yaklaşık 5.000 kişinin ve Art Station ve Shutterstock gibi birkaç büyük çevrimiçi sanat ve görsel platformunun veri setinden 80 milyondan fazla görselin kaldırılmasını istediğini söylüyor. devre dışı bırakma özelliği. Bu, görüntülerinin Stable Diffusion’ın bir sonraki sürümünde kullanılmayacağı anlamına gelir.

Dryhurst, insanların çalışmalarının yapay zeka modellerini eğitmek için kullanılıp kullanılmadığını bilme hakkına sahip olması ve en baştan sistemin bir parçası olmak isteyip istemediklerini söyleyebilmeleri gerektiğini düşünüyor.

“Nihai hedefimiz yapay zeka için bir izin katmanı oluşturmak, çünkü böyle bir şey yok,” diyor.

Derin Öğrenme

Geoffrey Hinton, yapımına yardım ettiği teknolojiden şimdi neden korktuğunu anlatıyor

Geoffrey Hinton, modern yapay zekanın kalbindeki en önemli tekniklerden bazılarının geliştirilmesine yardımcı olan bir derin öğrenme öncüsüdür, ancak Google’da on yıl geçirdikten sonra, artık yapay zeka hakkında sahip olduğu yeni endişelere odaklanmak için görevinden ayrılıyor. MIT Technology Review’un kıdemli yapay zeka editörü Will Douglas Heaven, Google’dan ayrıldığına dair bomba duyurusundan sadece dört gün önce Hinton ile Kuzey Londra’daki evinde buluştu.

GPT-4 gibi yeni büyük dil modellerinin yetenekleri karşısında şaşkına dönen Hinton, başlattığı teknolojiye artık eşlik edebileceğine inandığı ciddi riskler konusunda halkı bilinçlendirmek istiyor.

Ve oh oğlum, söyleyecek çok şeyi var mıydı? “Bu şeylerin bizden daha zeki olup olmayacağı konusundaki görüşlerimi aniden değiştirdim. Bence artık buna çok yakınlar ve gelecekte bizden çok daha zeki olacaklar,” dedi Will’e. “Bundan nasıl sağ çıkacağız?” Will Douglas Heaven’dan daha fazlasını buradan okuyun.

Daha Derin Öğrenme

Sorular soran bir sohbet robotu, anlamsız olduğunda bunu fark etmenize yardımcı olabilir

ChatGPT, Bing ve Bard gibi yapay zeka sohbet robotları genellikle yanlışlıkları gerçekler gibi sunar ve tespit edilmesi zor olabilecek tutarsız mantığa sahiptir. Yeni bir çalışmanın öne sürdüğüne göre, bu sorunu aşmanın bir yolu, yapay zekanın bilgi sunma biçimini değiştirmektir.

Sanal Sokrates:MIT ve Columbia Üniversitesi’nden bir araştırma ekibi, bir chatbot’un bilgileri ifadeler halinde sunmak yerine kullanıcılara sorular sormasını sağlamanın, insanların yapay zekanın mantığının işe yaramadığını fark etmelerine yardımcı olduğunu keşfetti. Soru soran bir sistem aynı zamanda insanların yapay zeka ile alınan kararlarda daha fazla sorumluluk sahibi hissetmelerini sağladı ve araştırmacılar bunun yapay zeka tarafından üretilen bilgilere aşırı bağımlılık riskini azaltabileceğini söylüyor. Benden daha fazlasını buradan okuyun.

Bitler ve Baytlar

Palantir, orduların savaşlarda savaşmak için dil modellerini kullanmasını istiyor
Tartışmalı teknoloji şirketi, kullanıcıların dronları kontrol etmesine ve saldırıları planlamasına izin vermek için mevcut açık kaynaklı AI dil modellerini kullanan yeni bir platform başlattı. Bu korkunç bir fikir. Yapay zeka dil modelleri sıklıkla bir şeyler uydurur ve bunların içine girmek gülünç derecede kolaydır. Bu teknolojileri en riskli sektörlerden birinde kullanıma sunmak, gerçekleşmesini bekleyen bir felaket. (Yardımcısı)

Hugging Face, ChatGPT’ye açık kaynaklı bir alternatif başlattı
HuggingChat, ChatGPT ile aynı şekilde çalışır, ancak kullanımı ücretsizdir ve insanlar üzerinde kendi ürünlerini geliştirebilirler. Popüler yapay zeka modellerinin açık kaynaklı sürümleri piyasada — bu ayın başlarında, görüntü oluşturucu Stable Diffusion’ın yaratıcısı Stability.AI, ayrıca bir yapay zeka sohbet robotu olan StableLM’nin açık kaynaklı bir sürümünü piyasaya sürdü.

Microsoft’un Bing chatbot’u nasıl ortaya çıktı ve bundan sonra nereye gidiyor?
İşte Bing’in doğumunun perde arkası güzel bir bakış. Cevap üretmek için Bing’in her zaman OpenAI’nin GPT-4 dil modelini değil, çalıştırması daha ucuz olan Microsoft’un kendi modellerini kullanmasını ilginç buldum. (Kablolu)

AI Drake, Google için imkansız bir yasal tuzak kurdu
Sosyal medya beslemelerim, Drake gibi popüler sanatçıların tarzlarını kopyalayan yapay zeka tarafından üretilen şarkılarla dolup taştı. Ancak bu parçanın işaret ettiği gibi, bu, yapay zeka tarafından oluşturulan müzik, internetten veri kazıma ve neyin adil kullanımı oluşturduğu konusunda çetrefilli bir telif hakkı savaşının yalnızca başlangıcıdır. (Sınır)





Source link