BİLİM VE TEKNOLOJİ

Yapay zekanın nasıl çalıştığını kimse bilmiyor


Son zamanlarda çok daha büyük ölçekte bazı yapay zeka başarısızlıkları gördük. En son (komik) gafta, Google'ın Gemini'si beyaz insanların, özellikle de beyaz adamların resimlerini oluşturmayı reddetti. Bunun yerine kullanıcılar Siyah papaların ve kadın Nazi askerlerinin resimlerini oluşturabildiler. Google, modelinin çıktılarının daha az önyargılı olmasını sağlamaya çalışıyordu ancak bu geri tepti ve teknoloji şirketi kısa sürede kendisini ABD kültür savaşlarının ortasında buldu; muhafazakar eleştirmenler ve Elon Musk onu “uyanmak”la suçladı. önyargı ve tarihi doğru bir şekilde temsil etmemek. Google özür diledi ve özelliği duraklattı.

Artık meşhur olan başka bir olayda, Microsoft'un Bing sohbeti şunları söyledi: New York Times muhabir karısını terk etti Ve müşteri hizmetleri sohbet robotları şirketlerini her türlü belaya sokmaya devam ediyor. Örneğin Air Canada, yakın zamanda müşteri hizmetleri chatbotunun oluşturduğu bir politikaya uygun olarak bir müşteriye para iadesi yapmak zorunda kaldı. Liste devam ediyor.

Teknoloji şirketleri, kontrol edilmesinin zor olduğuna ve çoğu zaman öngörülemeyen şekillerde davrandığına dair kapsamlı kanıtlara rağmen, yapay zeka destekli ürünleri piyasaya sürmek için acele ediyor. Bu tuhaf davranışın gerçekleşmesinin nedeni, günümüzün yapay zeka patlamasının ardındaki temel teknoloji olan derin öğrenmenin nasıl veya neden işe yaradığını kimsenin tam olarak bilmemesidir. Yapay zekadaki en büyük bulmacalardan biri. Meslektaşım Will Douglas Heaven, konuyu derinlemesine incelediği bir yazı yayınladı.

En büyük gizem, Gemini ve OpenAI'nin GPT-4'ü gibi büyük dil modellerinin, kendilerine öğretilmeyen bir şeyi yapmayı nasıl öğrenebildikleridir. Bir dil modelini İngilizce matematik problemleri konusunda eğitebilir ve ardından ona Fransız edebiyatını gösterebilir ve bundan yola çıkarak matematik problemlerini Fransızca çözmeyi öğrenebilir. Will, bu yeteneklerin, tahmine dayalı modellerin nasıl davranması gerektiğine dair en iyi açıklamaları sağlayan klasik istatistiklere aykırı olduğunu yazıyor. Daha fazlasını buradan okuyun.

Bilgisizliğimizden kaynaklanan algıları sihirle karıştırmak kolaydır. Teknolojinin adı olan yapay zeka bile trajik bir şekilde yanıltıcıdır. Dil modelleri akıllı görünüyor çünkü bir cümledeki sonraki kelimeyi tahmin ederek insan benzeri düzyazı üretiyorlar. Teknoloji gerçekten akıllı değil ve onu adlandırmak beklentilerimizi ustaca değiştiriyor, böylece teknolojiye gerçekte olduğundan daha yetenekliymiş gibi davranıyoruz.

Bu modellerin her şeyi bilen, gerçeklere dayanan, hatta onlardan yapmalarını beklediğimiz işlere neredeyse hazır olduğuna inanarak teknoloji sektörünün pazarlama tuzağına düşmeyin. Tahmin edilemezlikleri, kontrol dışı önyargıları, güvenlik açıkları ve uydurma eğilimleri nedeniyle kullanışlılıkları son derece sınırlıdır. İnsanların beyin fırtınası yapmasına yardımcı olabilirler ve bizi eğlendirebilirler. Ancak bu modellerin ne kadar hatalı ve arızalanmaya yatkın olduğunu bildiğimizden, kredi kartı ayrıntılarınız, hassas bilgileriniz veya herhangi bir kritik kullanım durumu konusunda onlara güvenmek muhtemelen iyi bir fikir değildir.

Will'in makalesindeki bilim adamlarının söylediği gibi, yapay zeka araştırmaları alanında henüz ilk günler. Şu anda OpenAI'nin süper hizalama ekibinde görev yapan, Harvard Üniversitesi'nde bilgisayar bilimcisi olan Boaz Barak'a göre, bu alandaki pek çok kişi bunu, Einstein'ın görelilik teorisini ortaya attığı 20. yüzyılın başındaki fizikle karşılaştırıyor.

Bugün alanın odak noktası, modellerin yaptıkları şeyleri nasıl ürettiğidir, ancak bunu neden yaptıklarına dair daha fazla araştırmaya ihtiyaç vardır. Yapay zekanın iç yapısını daha iyi anlayana kadar, daha tuhaf hatalar ve teknolojinin kaçınılmaz olarak karşılayamayacağı bir sürü abartılı reklam bekliyoruz.



Source link