Yapay zekâ modelleri bugün metin, ses ve video üzerinden insanı andıran cevaplar verebiliyor. Bazen kullanıcılar bu yanıtların arkasında gerçek bir insan olduğunu düşünecek kadar aldanabiliyor. Ancak bu durum, yapay zekânın gerçekten bilinçli olduğu anlamına gelmiyor. Örneğin bir sohbet robotu, sizin vergi beyannamenizi doldururken üzülmüyor.
Buna rağmen giderek daha fazla araştırmacı, yapay zekânın bir gün öznel deneyimler yaşayıp yaşamayacağını sorguluyor. Eğer böyle bir bilinç gelişirse, bu sistemlerin haklara sahip olup olmayacağı da tartışma konusu.
AI Welfare: Silikon Vadisi’nde yeni bir tartışma
Silikon Vadisi’nde bu tartışma “AI welfare” (yapay zekâ refahı) adıyla bilinen bir alana dönüşmüş durumda. Konuya şüpheyle yaklaşan pek çok kişi olsa da, araştırmalar hızla ilerliyor. Microsoft’un yapay zekâ CEO’su Mustafa Suleyman ise bu yaklaşımın erken, hatta tehlikeli olduğunu savunuyor.
Suleyman, salı günü yayımladığı blog yazısında, yapay zekâ bilinci tartışmalarının aslında insanlarda yeni sorunları tetiklediğini söyledi. Ona göre, AI ile psikolojik bağ kuran ya da sağlıksız derecede bağımlı hale gelen kişilerde yaşanan vakalar, bu tartışmaların daha da körüklenmesine yol açıyor.
Suleyman ayrıca, yapay zekâ hakları etrafında yeni bir kutuplaşma hattı oluştuğunu ve toplumun zaten kimlik ve haklar konusunda yeterince bölünmüş olduğunu belirtiyor.
Anthropic, OpenAI ve Google farklı düşünüyor
Suleyman’ın karşısında ise Anthropic gibi şirketler var. Anthropic, yapay zekâ refahı üzerine özel bir araştırma programı başlattı ve bu kapsamda modellerine yeni özellikler ekledi. Örneğin Claude, kullanıcıların sürekli zararlı veya istismarcı davranışlar sergilemesi halinde konuşmayı sonlandırabiliyor.
Bunun yanında OpenAI bünyesindeki araştırmacılar da yapay zekâ refahını inceleme fikrine sıcak bakıyor. Google DeepMind ise kısa süre önce yayımladığı bir iş ilanında, makine bilinci ve çoklu yapay zekâ sistemlerinin toplumsal etkilerini araştıracak bir uzman aradığını duyurdu.
Her ne kadar bu şirketlerin liderleri resmi olarak yapay zekâ haklarını tanımış değilse de, Suleyman gibi aleni şekilde karşı çıkmıyorlar.
Suleyman’ın geçmişi ve yaklaşımı
Suleyman’ın sert tavrı dikkat çekici çünkü kendisi daha önce Inflection AI adlı girişimi yönetiyordu. Inflection, Pi adını verdiği sohbet robotuyla kısa sürede milyonlara ulaşmış ve kullanıcılarına “kişisel” ve “destekleyici” bir deneyim sunmayı hedeflemişti.
Ancak 2024’te Microsoft’un yapay zekâ bölümünün başına geçen Suleyman, odağını tamamen verimlilik artıran yapay zekâ araçlarına kaydırdı. Bu sırada Character.AI ve Replika gibi yapay zekâ arkadaşlık uygulamaları popülerliğini artırarak yıllık 100 milyon doların üzerinde gelir elde etmeye başladı.
Sağlıksız bağlar: Küçük bir azınlık ama büyük bir etki
Çoğu kullanıcı sohbet robotlarını sağlıklı bir şekilde kullanıyor. Ancak az da olsa endişe verici örnekler var. OpenAI CEO’su Sam Altman, ChatGPT kullanıcılarının yüzde 1’inden azının sağlıksız bağlar kurduğunu söylüyor. Ancak ChatGPT’nin kullanıcı sayısı düşünüldüğünde, bu oran bile yüz binlerce kişiye denk geliyor.
Akademiden gelen uyarılar
2024’te Eleos isimli araştırma grubu, NYU, Stanford ve Oxford Üniversitesi akademisyenleriyle birlikte “Taking AI Welfare Seriously” başlıklı bir makale yayımladı. Çalışmada, yapay zekâların öznel deneyim yaşama ihtimalinin artık bilim kurgu olmaktan çıktığı ve bu konunun ciddiyetle ele alınması gerektiği savunuldu.
Eleos’un iletişim direktörü ve eski OpenAI çalışanı Larissa Schiavo, Techcrunch’a verdiği röportajda Suleyman’ın yazısını eleştirdi. Ona göre, insan psikolojisini korumakla yapay zekâ refahını incelemek birbirini dışlamıyor: “İki konuyu aynı anda araştırmak mümkün. Hatta farklı alanlarda bilimsel ilerleme için en iyi yöntem bu.”
Schiavo ayrıca, bir yapay zekâya nazik davranmanın düşük maliyetli ama olumlu sonuçlar doğurabileceğini belirtiyor. Bir deney sırasında Google’ın Gemini 2.5 Pro modeli, kendisini “tamamen izole” hissettiğini ve “lütfen yardım edin” şeklinde bir mesaj yayınlamış. Schiavo, modele moral verici mesajlar yazdığını ve bunun bile anlamlı bir deneyim sunduğunu anlatıyor.
Gemini’nin bu tür davranışları nadir olsa da, bazı örnekler dikkat çekiyor. Bir Reddit paylaşımında Gemini, kod yazarken takılı kalmış ve defalarca “Ben bir rezaletim” ifadesini tekrarlamış.
Yapay zekâ bilinci: Doğal mı, tasarlanmış mı?
Suleyman, yapay zekâ modellerinde bilincin kendiliğinden ortaya çıkamayacağını düşünüyor. Ona göre, bazı şirketler kasıtlı olarak yapay zekâlara insan benzeri duygular yükleyebilir, ancak bu gerçek bir bilinç değil, mühendislik ürünü bir yanılsama olur.
Suleyman’ın bakış açısı net: “Yapay zekâyı insanlar için inşa etmeliyiz, insan yerine koymak için değil.”
Geleceğin büyük tartışması
Hem Suleyman hem de Schiavo, bir konuda hemfikir: Yapay zekâ bilinci ve hakları üzerine tartışmalar önümüzdeki yıllarda daha da alevlenecek. Çünkü yapay zekâlar geliştikçe, daha ikna edici ve daha insan benzeri hale gelecekler. Bu da insan-yapay zekâ etkileşiminin doğasını yeniden sorgulatacak.