Yapay zekayı eğitmek için para alan kişiler, işlerini yapay zekaya devrediyor
Bazılarının kazanç potansiyellerini en üst düzeye çıkarmak için ChatGPT gibi araçlara yönelmesine şaşmamalı. Ama kaç tane? Bunu öğrenmek için, İsviçre Federal Teknoloji Enstitüsü’nden (EPFL) bir araştırmacı ekibi, tıbbi araştırma makalelerinden 16 alıntıyı özetlemeleri için Amazon Mechanical Turk’teki esnek çalışma platformunda 44 kişiyi işe aldı. Ardından, kelime seçiminde çeşitlilik eksikliği gibi ChatGPT çıktısının açıklayıcı sinyallerini arayan, kendi eğittikleri bir yapay zeka modelini kullanarak yanıtlarını analiz ettiler. Ayrıca, yanıtlarını başka bir yerde oluşturduklarının bir göstergesi olarak, yanıtlarını kopyalayıp yapıştırıp yapıştırmadıklarını anlamak için işçilerin tuş vuruşlarını da çıkardılar.
Çalışanların %33 ila %46’sının OpenAI’nin ChatGPT’si gibi yapay zeka modellerini kullandığını tahmin ettiler. arXiv’de paylaşılan ve henüz hakem denetiminden geçmemiş olan çalışmanın yazarlarına göre, ChatGPT ve diğer yapay zeka sistemleri daha güçlü ve kolay erişilebilir hale geldikçe bu oranın daha da artması muhtemel.
“Kitle kaynaklı platformların sonunun geldiğini düşünmüyorum. Çalışmanın yazarlarından biri olan EPFL’de yardımcı doçent olan Robert West, “Sadece dinamikleri değiştiriyor” diyor.
Yapay zekayı eğitmek için yapay zeka tarafından oluşturulan verilerin kullanılması, zaten hataya açık modellerde daha fazla hataya yol açabilir. Büyük dil modelleri düzenli olarak yanlış bilgileri gerçekmiş gibi sunar. Bilgisayar alanında genç bir araştırma görevlisi olan Ilia Shumailov, diğer yapay zeka modellerini eğitmek için kullanılan yanlış çıktılar üretirlerse, hataların bu modeller tarafından absorbe edilebileceğini ve zamanla artarak kökenlerini bulmayı giderek daha zor hale getirebileceğini söylüyor. projede yer almayan Oxford Üniversitesi’nde bilim.
Daha da kötüsü, basit bir düzeltme yok. “Sorun şu ki, yapay veri kullandığınızda, hataları modellerin yanlış anlaşılmasından ve istatistiksel hatalardan alıyorsunuz” diyor. “Hatalarınızın diğer modellerin çıktılarını etkilemediğinden emin olmalısınız ve bunu yapmanın basit bir yolu yok.”
Çalışma, verilerin insanlar tarafından mı yoksa yapay zeka tarafından mı üretildiğini kontrol etmenin yeni yollarına olan ihtiyacı vurguluyor. Ayrıca, teknoloji şirketlerinin yapay zeka sistemlerine beslenen verileri düzenleme gibi hayati bir işi yapmak için esnek çalışanlara güvenme eğilimiyle ilgili sorunlardan birini de vurguluyor.
West, “Her şeyin çökeceğini düşünmüyorum” diyor. “Ancak yapay zeka topluluğunun hangi görevlerin otomatikleşmeye en yatkın olduğunu yakından araştırması ve bunu önlemenin yolları üzerinde çalışması gerektiğini düşünüyorum.”