BİLİM VE TEKNOLOJİ

Yapay zeka bilincinin ahlaki ağırlığı


Bilinçli yapay zekanın en azından öngörülebilir gelecekte nispeten olası olmadığını düşünen Seth, yine de yapay zeka bilincinin insanlar için duygusal açıdan ne anlama gelebileceği konusunda endişeleniyor. “Bu, sınırlı kaynaklarımızı önemsemek için nasıl dağıttığımızı değiştirecek” diyor. Bu gelecek için bir sorun gibi görünebilir. Ancak yapay zeka bilinci algısı artık bizimle birlikte: Blake Lemoine bilinçli olduğuna inandığı bir yapay zeka için kişisel bir risk aldı ve işini kaybetti. Kaç kişi cansız bilgisayar sistemleri için zamanını, parasını ve kişisel ilişkilerini feda edebilir?

iki ok ucunun içe doğru işaret ettiği başka bir çizginin üzerinde, her iki ucunda dışa doğru bakan bir ok ucu bulunan bir çizgi
Müller-Lyer illüzyonundaki iki çizginin tamamen aynı uzunlukta olduğunu bilmek, birini diğerinden daha kısa algılamamıza engel değildir. Benzer şekilde, GPT’nin bilinçli olmadığını bilmek, perspektifi, fikirleri ve kişiliği olan bir varlıkla konuştuğunuz yanılsamasını değiştirmez.

Basit sohbet robotları bile esrarengiz bir çekim gücü yaratabilir: 1960’larda konuşma terapisini simüle etmek için oluşturulan ELIZA adlı basit bir program, birçok kullanıcıyı hissetme ve anlama yeteneğine sahip olduğuna ikna etti. Bilincin algısı ve bilincin gerçekliği zayıf bir şekilde hizalanmıştır ve bu tutarsızlık, yapay zeka sistemleri daha gerçekçi konuşmalar yapma becerisine sahip oldukça daha da kötüleşecektir. Seth, “Bazı görsel illüzyonların bizim için bilişsel olarak anlaşılması güç olması gibi, onları da bilinçli deneyimler yaşıyormuş gibi algılamaktan kaçınamayacağız” diyor. Nasıl ki Müller-Lyer illüzyonundaki iki çizginin tamamen aynı uzunlukta olduğunu bilmek birini diğerinden daha kısa algılamamıza engel değilse, GPT’nin bilinçli olmadığını bilmek de bir kişiyle konuştuğunuz yanılsamasını değiştirmez. bir bakış açısına, görüşlere ve kişiliğe sahip olmak.

2015 yılında, bu endişelerin güncel hale gelmesinden yıllar önce, filozoflar Eric Schwitzgebel ve Mara Garza, bu tür risklere karşı korunmayı amaçlayan bir dizi öneri formüle ettiler. “Duygusal Hizalama Tasarım Politikası” olarak adlandırdıkları önerilerinden biri, bilinçsiz herhangi bir yapay zekanın, kullanıcıların bilinçli olduğuna inanmayacak şekilde kasıtlı olarak tasarlanması gerektiğini savundu. Şirketler bu yönde bazı küçük adımlar attı; ChatGPT, bilinçli olup olmadığını sorarsanız, kodlanmış bir inkar cevabı veriyor. Ancak bu tür tepkiler genel yanılsamayı pek bozmaz.

Riverside’daki Kaliforniya Üniversitesi’nde felsefe profesörü olan Schwitzgebel, her türlü belirsizlikten uzak durmak istiyor. 2015 tarihli makalelerinde o ve Garza ayrıca “Hariç Tutulan Orta Politika”yı da önerdiler; eğer bir yapay zeka sisteminin bilinçli olup olmayacağı belli değilse, o sistem inşa edilmemelidir. Uygulamada bu, tüm ilgili uzmanların olası bir yapay zekanın büyük olasılıkla bilinçli olmadığı (mevcut Yüksek Lisanslar için verdikleri karar) veya büyük olasılıkla bilinçli olduğu konusunda hemfikir olmaları gerektiği anlamına gelir. Schwitzgebel, “Yapmak istemediğimiz şey insanların kafasını karıştırmak” diyor.

Tartışmalı bilincin gri bölgesinden kaçınmak, hem bilinçli bir yapay zekaya zarar verme risklerini hem de cansız bir makineye bilinçli muamelesi yapmanın olumsuzluklarını net bir şekilde ortadan kaldırır. Sorun şu ki, bunu yapmak gerçekçi olmayabilir. Fransa’daki Centre Nationale de la Recherche Scientifique’de araştırma direktörü olan ve yakın zamanda küresel bir çalışma alanına sahip bir yapay zeka oluşturmak için finansman elde eden Rufin VanRullen gibi pek çok araştırmacı, artık yapay zekaya bilincin potansiyel temellerini kazandırmak için aktif olarak çalışıyor.

""

STUART BRADFORD

VanRullen, potansiyel olarak bilinçli sistemler oluşturmaya yönelik moratoryumun olumsuz tarafının, yaratmaya çalıştığı sistem gibi sistemlerin mevcut yapay zekadan daha etkili olabilmesi olduğunu söylüyor. “Ne zaman mevcut yapay zeka performansından hayal kırıklığına uğrasak, bunun nedeni her zaman beynin yapabileceklerinin gerisinde kalmasıdır” diyor. “Dolayısıyla amacım mutlaka bilinçli bir yapay zeka yaratmak değil; daha çok, şu anda yapay zekayla uğraşan birçok insanın hedefi, bu gelişmiş muhakeme yeteneklerine doğru ilerlemek.” Bu tür gelişmiş yetenekler gerçek faydalar sağlayabilir: Yapay zeka tarafından tasarlanan ilaçlar halihazırda klinik deneylerde test ediliyor. Gri bölgedeki yapay zekanın hayat kurtarabileceği düşünülemez değil.

VanRullen bilinçli yapay zekanın riskleri konusunda hassastır; Long ve Mudrik ile birlikte makinelerdeki bilincin tespit edilmesiyle ilgili teknik inceleme üzerinde çalıştı. Ancak araştırmasını önemli kılan şeyin tam da bu riskler olduğunu söylüyor. Büyük olasılıkla bilinçli yapay zeka, kendisininki gibi görünür, kamu tarafından finanse edilen bir projeden ilk kez ortaya çıkmayacak; Google veya OpenAI gibi bir şirketin derin ceplerini pekala kaplayabilir. VanRullen, bu şirketlerin bilinçli bir sistemin getireceği etik ikilemleri hoş karşılamayacağını söylüyor. “Bu, laboratuvarda olay meydana geldiğinde, olmamış gibi davrandıkları anlamına mı geliyor? Bu bizim bundan haberimiz olmayacağı anlamına mı geliyor?” diyor. “Bunu oldukça endişe verici buluyorum.”

Kendisi gibi akademisyenlerin, hem insanlarda hem de makinelerde bilincin nasıl çalıştığını daha iyi anlayarak bu riski azaltmaya yardımcı olabileceğini söylüyor. Bu bilgi daha sonra düzenleyicilerin yapay zeka yaratmaya başlama olasılığı en yüksek olan şirketleri daha etkili bir şekilde denetlemesine olanak tanıyabilir. Bilinci ne kadar çok anlarsak, o istikrarsız gri bölge o kadar küçülür ve içinde olup olmadığımızı bilme şansımız da o kadar artar.

Schwitzgebel ise gri bölgeden tamamen uzak durmamızı tercih ediyor. Ancak belirsizliklerin büyüklüğü göz önüne alındığında, bu umudun muhtemelen gerçekçi olmadığını kabul ediyor; özellikle de bilinçli yapay zeka kârlı hale gelirse. Ve bir kez gri bölgeye girdiğimizde -bilinçliliği tartışılabilir varlıkların çıkarlarını ciddiye almamız gerektiğinde- çok daha zorlu arazilerde yol alıyor olacağız, onları nasıl çözeceğimize dair net bir yol haritası olmadan eşi benzeri görülmemiş karmaşıklığa sahip ahlaki sorunlarla mücadele edeceğiz. . Bu haritayı çizmek gibi zorlu bir görevi üstlenmek, filozoflardan sinir bilimcilere ve bilgisayar bilimcilerine kadar araştırmacılara düşüyor.

Grace Huckins, San Francisco’da yaşayan bir bilim yazarıdır.



Source link