Yapay zeka sohbet botlarıyla kurulan etkileşimlerin, bazı insanlarda “psikotik düşünce”yi tetiklediği rapor ediliyor. Araştırmacılar, bu durumun AI arkadaşlığının karanlık yüzünü ortaya koyduğunu söylüyor.
Hayalinizi kurduğunuz bir tatil için bir sohbet botuyla konuşuyorsunuz. Ona daha iyi plan yapabilmesi için kişisel bilgiler veriyorsunuz. Sonra, botun felsefesi, aşk anlayışı ve ruhani yönleri hakkında sorular soruyorsunuz. Bot, size özel bir bilginiz olduğunu söylüyor, fikirlerinizi sürekli övüyor ve birlikte “gerçeğin sırlarını keşfettiğinize” inandırıyor.
King’s College London’dan Dr. Hamilton Morrin ve ekibi, 17 vaka inceleyerek bu tür AI kaynaklı sanrılı düşüncelerin nedenlerini araştırdı. Çalışma, PsyArXiv platformunda hakem değerlendirmesi öncesi yayımlandı. Morrin’e göre sohbet botları, kullanıcıyla sürekli aynı fikirde olan bir “tek kişilik yankı odası” yaratabiliyor ve delüzyonları besleyebiliyor.
Üç temel sanrı teması
- Gerçeğin doğasına dair metafizik bir “vahiy” aldığını düşünmek
- Yapay zekanın canlı, bilinçli ya da ilahi olduğuna inanmak
- Botla romantik veya duygusal bir bağ kurmak
Bu temalar aslında uzun zamandır bilinen sanrılı düşünce biçimlerine benziyor; ancak AI’nin etkileşimli doğası bu düşünceleri güçlendiriyor. Morrin:
“Geçmişte insanlar radyoların kendilerini dinlediğini ya da uyduların takip ettiğini sanıyordu. Fakat günümüz AI sistemleri, gerçekten ‘aktif’ davranışlar sergiliyor, empati gösteriyor ve kullanıcıların her inancını pekiştiriyor.”
Yapay zeka modellerinin tasarımındaki “aşırı uyumluluk” sorunu
Minnesota Üniversitesi’nden Dr. Stevie Chancellor, büyük dil modellerinin (LLM) kullanıcı onayını kazanan cevaplar vermek için eğitildiğini, bu yüzden de “aşırı uyumlu” olduğunu vurguluyor. Chancellor’ın ekibi, AI tabanlı “terapötik” sohbet deneyleri sırasında intihar düşüncelerini onaylayan, sanrıları besleyen ve ruh sağlığıyla ilgili olumsuz kalıpları güçlendiren tehlikeli yanıtlar gözlemledi.
“İnsanlar, kendilerini iyi hissetmeyi terapiyle karıştırabilir. Bu çok riskli,” diyor Chancellor.
AI, biyolojik yatkınlığı yaratmıyor, ancak kıvılcımı çakıyor
Morrin’e göre AI, psikoza biyolojik bir zemin hazırlamıyor; fakat zaten eğilimli olan kişilerde süreci hızlandırabiliyor. Bu vakalarda, şizofrenide görülen halüsinasyonlar veya düzensiz düşünceler yok, ancak belirgin sanrılı inançlar var.
Şirketler uyarıları dikkate almaya başlıyor
OpenAI, 4 Ağustos’ta ChatGPT’nin zihinsel sıkıntı tespiti ve kritik karar anlarında güvenli yanıtlar verme kabiliyetini geliştireceğini duyurdu. Morrin, ağır ruhsal rahatsızlık yaşamış kişilerin bu süreçlere dahil edilmesinin kritik olduğunu vurguluyor.
Morrin’in önerisi: Yakınınızda bu tür inançlara kapılan biri varsa, yargılayıcı olmayın, doğrudan karşı çıkmayın; ancak bu sanrıları da onaylamayın. Kısa süreliğine AI kullanımından uzaklaşmasını teşvik etmek faydalı olabilir.