AI işinizi çalmayabilir, ancak değiştirebilir
(Bu makale, MIT Technology Review’ın güç, siyaset ve Silikon Vadisi hakkındaki haftalık teknoloji politikası haber bülteni The Technocrat’tan alınmıştır. Her Cuma gelen kutunuza almak için, buradan kaydol.)
Yapay zekadaki ilerlemeleri, mesleklerle ilgili kaygılar takip etme eğilimindedir. ChatGPT ve OpenAI’nin yeni GPT-4’ü gibi bu son AI modelleri dalgası da farklı değil. İlk olarak sistemlerin lansmanını yaptık. Şimdi otomasyonun tahminlerini görüyoruz.
Bu hafta yayınlanan bir raporda Goldman Sachs, AI ilerlemelerinin küresel iş gücünün yaklaşık %18’ini temsil eden 300 milyon işin bir şekilde otomatikleştirilmesine neden olabileceğini tahmin etti. OpenAI ayrıca kısa bir süre önce Pennsylvania Üniversitesi ile yaptığı ve ChatGPT’nin ABD’deki işlerin %80’inden fazlasını etkileyebileceğini iddia eden kendi çalışmasını yayınladı.
Rakamlar kulağa ürkütücü geliyor, ancak bu raporların ifadeleri sinir bozucu derecede belirsiz olabilir. “Etki” çok çeşitli anlamlara gelebilir ve ayrıntılar belirsizdir.
İşleri dille ilgili olan kişiler, şaşırtıcı olmayan bir şekilde özellikle ChatGPT ve GPT-4 gibi büyük dil modellerinden etkilenebilir. Bir örnek verelim: avukatlar. Son iki haftayı hukuk sektörüne ve yeni AI modellerinden nasıl etkilenme olasılığına bakarak geçirdim ve bulduğum şey, endişe kadar iyimserlik için de neden.
Eski, yavaş hareket eden hukuk endüstrisi, bir süredir teknolojik bozulmaya aday olmuştur. İşgücü açığı olan ve yığınla karmaşık belgeyle uğraşma ihtiyacı olan bir sektörde, metinleri hızla anlayıp özetleyebilen bir teknoloji son derece yararlı olabilir. Peki bu yapay zeka modellerinin hukuk sektörü üzerindeki etkisi hakkında nasıl düşünmeliyiz?
Öncelikle, son yapay zeka gelişmeleri özellikle yasal işler için çok uygundur. GPT-4, kısa bir süre önce avukatlara ruhsat vermek için gereken standart sınav olan Evrensel Baro Sınavını geçti. Ancak bu, yapay zekanın avukat olmaya hazır olduğu anlamına gelmez.
Model, binlerce uygulama testinde eğitilmiş olabilir, bu da onu etkileyici bir sınav katılımcısı yapar, ancak ille de harika bir avukat değildir. (GPT-4’ün eğitim verileri hakkında fazla bir şey bilmiyoruz çünkü OpenAI bu bilgiyi yayınlamadı.)
Yine de sistem, avukatlar için son derece önemli olan metin ayrıştırma konusunda çok iyidir.
“Dil, hukuk endüstrisi ve hukuk alanındaki madeni paradır. Her yol bir belgeye çıkar. GPT-4 sınavını yürüten Chicago-Kent Hukuk Fakültesi’nde hukuk profesörü olan Daniel Katz, ya bir belge okumalı, tüketmeli ya da üretmelisiniz… bu gerçekten insanların ticaret yaptığı para birimidir” diyor.
İkincisi, yasal işlerin otomatikleştirilebilecek birçok tekrar eden görevi vardır. Katz’a göre geçerli yasaları ve davaları araştırmak ve ilgili kanıtları çekmek gibi.
Baro sınav kağıdındaki araştırmacılardan biri olan Pablo Arredondo, bu sonbahardan beri yasal ürünü Casetext’te GPT-4’ü kullanmak için OpenAI ile gizlice çalışıyor. Casetext, web sitesine göre “belge incelemesi, yasal araştırma notları, ifade hazırlama ve sözleşme analizi” yapmak için AI kullanıyor.
Arredondo, GPT-4’ü kullandıkça avukatlara yardımcı olma potansiyeli konusunda giderek daha hevesli olduğunu söylüyor. Teknolojinin “inanılmaz” ve “incelikli” olduğunu söylüyor.
Yine de hukukta AI yeni bir trend değil. Zaten sözleşmeleri incelemek ve yasal sonuçları tahmin etmek için kullanılıyordu ve araştırmacılar yakın zamanda AI’nın yasaların geçmesine nasıl yardımcı olabileceğini araştırdılar. Son zamanlarda, tüketici hakları şirketi DoNotPay, AI tarafından yazılan ve “robot avukat” olarak bilinen bir kulaklık aracılığıyla iletilen bir argümanı kullanarak mahkemede bir davayı savunmayı düşündü. (DoNotPay, dublörü gerçekleştirmedi ve lisanssız avukatlık yapmaktan dava ediliyor.)
Bu örneklere rağmen, bu tür teknolojiler hukuk bürolarında hala yaygın bir şekilde benimsenmemiştir. Bu yeni büyük dil modelleriyle bu değişebilir mi?
Üçüncüsü, avukatlar işleri incelemeye ve düzenlemeye alışkındır.
Büyük dil modelleri mükemmel olmaktan uzaktır ve çıktılarının yakından kontrol edilmesi gerekir ki bu külfetlidir. Ancak avukatlar, başka biri ya da başka bir şey tarafından üretilen belgeleri incelemeye çok alışkındır. Çoğu, belge incelemesi konusunda eğitilmiştir; bu, döngüde bir insan varken daha fazla yapay zeka kullanımının, teknolojinin diğer endüstrilerde benimsenmesine kıyasla nispeten kolay ve pratik olabileceği anlamına gelir.
Asıl soru, avukatların hukuk fakültesinde üç yıl geçirmiş yeni bir avukat yerine bir sisteme güvenmeye ikna edilip edilemeyeceğidir.
Son olarak, sınırlamalar ve riskler vardır. GPT-4 bazen çok inandırıcı ama yanlış metinler oluşturur ve kaynak materyali kötüye kullanır. Arrodondo, GPT-4’ün bir keresinde kendi üzerinde çalıştığı bir davanın gerçeklerinden şüphe duymasına neden olduğunu söylüyor. “Ona dedim ki, Yanılıyorsun. Bu davayı savundum. Ve AI dedi ki, Orada oturup üzerinde çalıştığın davalarla övünebilirsin Pablo ama ben haklıyım ve işte kanıtı. Ve sonra hiçliğe bir URL verdi. Arredondo, “Bu biraz sosyopat” diye ekliyor.
Katz, insanların AI sistemlerini kullanırken döngüde kalmasının çok önemli olduğunu söylüyor ve avukatların doğru olma konusundaki mesleki yükümlülüklerinin altını çiziyor: “Bu sistemlerin çıktılarını alıp incelememeli ve sonra insanlara vermemelisiniz.”
Diğerleri daha da şüpheci. Elektronik Gizlilik Bilgi Merkezi’nin yapay zeka ve insan haklarına ilişkin projelerini yöneten Ben Winters, “Bu, önemli yasal analizlerin güncel ve uygun olduğundan emin olma konusunda güvenebileceğim bir araç değil” diyor. Winters, hukuk alanındaki üretken yapay zeka kültürünü “aşırı kendine güvenen ve sorumsuz” olarak nitelendiriyor. Ayrıca AI’nın ırksal ve cinsiyete dayalı önyargılardan rahatsız olduğu iyi belgelenmiştir.
Uzun vadeli, üst düzey düşünceler de var. Avukatların yasal araştırma yapma konusunda daha az pratiği varsa, bu alandaki uzmanlık ve gözetim için ne anlama geliyor?
Ama bundan biraz uzaktayız – şimdilik.
Bu hafta, meslektaşım ve Tech Review’un genel editörü David Rotman, yeni AI çağının ekonomi, özellikle de istihdam ve üretkenlik üzerindeki etkisini analiz eden bir yazı yazdı.
“İyimser görüş: Genel ekonomiye destek sağlarken, yeteneklerini ve uzmanlıklarını geliştirerek birçok işçi için güçlü bir araç olduğunu kanıtlayacak. Kötümser olan: Şirketler bunu, bir zamanlar otomasyona dayanıklı işler gibi görünen, yaratıcı beceriler ve mantıksal akıl yürütme gerektiren iyi maaşlı işleri yok etmek için kullanacak; birkaç yüksek teknoloji şirketi ve teknoloji seçkinleri daha da zenginleşecek, ancak genel ekonomik büyüme için çok az şey yapacak.
Bu hafta ne okuyorum
Elon Musk, Gary Marcus, Andrew Yang, Steve Wozniak ve 1.500’den fazla kişi de dahil olmak üzere bazı kodamanlar, Future of Life Institute tarafından desteklenen ve büyük AI projelerinde bir moratoryum çağrısı yapan bir mektuba imza attı. Oldukça az sayıda AI uzmanı bu önermeye katılıyor, ancak gerekçe (AI kıyametinden kaçınmak) pek çok eleştiriye maruz kaldı.
New York Times var Twitter doğrulaması için ödeme yapmayacağını duyurdu. Elon Musk’ın Twitter’ı mavi tik ücreti alarak kârlı hale getirme planına bir darbe daha indir.
31 Mart’ta İtalyan düzenleyiciler, gizlilik endişeleri nedeniyle ChatGPT’yi geçici olarak yasakladı. Düzenleyiciler özellikle, OpenAI’nin modeli kullanıcı verileriyle eğitme yönteminin GDPR’yi ihlal edip etmediğini araştırıyorlar.
Son zamanlarda bazı daha uzun kültür hikayelerine çekildim. İşte son favorilerimden bir örnek:
- Meslektaşım Tanya Basu, sanal gerçeklikte platonik bir şekilde birlikte uyuyan insanlar hakkında harika bir hikaye yazdı. Bu, “rahat ama ürkütücü” olarak adlandırdığı yeni bir sanal sosyal davranış çağının parçası.
- New York Times’ta Steven Johnson, tarihteki iklime en çok zarar veren icatlardan ikisini yaratan Thomas Midgley Jr.
- Ve Wired’dan Jason Kehe, Brandon Sanderson’ın zihnine bu keskin ve derin bakışla, muhtemelen adını hiç duymadığınız en popüler bilimkurgu yazarıyla aylarca röportaj yaptı.
Bu hafta ne öğrendim
“Haber atıştırması” -çevrimiçi manşetlere veya tanıtımlara göz atmak- güncel olaylar ve siyasi haberler hakkında bilgi edinmenin oldukça zayıf bir yolu gibi görünüyor. Almanya’daki Amsterdam Üniversitesi ve Macromedia Uygulamalı Bilimler Üniversitesi’ndeki araştırmacılar tarafından yürütülen hakemli bir araştırma, “haberleri diğerlerinden daha fazla ‘atıştıran’ kullanıcıların yüksek düzeyde maruz kalmalarından çok az fayda sağladığını” ve “atıştırmanın” Daha özel haber tüketiminden “önemli ölçüde daha az öğrenme”. Bu, insanların bilgiyi tüketme şeklinin, gördükleri bilgi miktarından daha önemli olduğu anlamına gelir. Çalışma, insanların her gün haberlerle “karşılaşma” sayısı artarken, her karşılaşmada geçirdikleri sürenin azaldığını gösteren önceki araştırmaları ilerletiyor. Görünüşe göre … bu bilgili bir halk için pek iyi değil.