Generatif yapay zeka ve büyük dil modelleri (LLM) son yıllarda yalnızca teknoloji dünyasını değil, aynı zamanda ruh sağlığı alanını da hızla dönüştürmeye başladı. Ancak uzmanlara göre bu hızlı yayılım, bilimsel araştırmaların hızını ciddi şekilde geride bırakmış durumda.
Bugün milyonlarca insan ChatGPT, GPT-5, Copilot, Gemini, Claude ve Grok gibi yapay zeka sistemlerini psikolojik destek almak için kullanıyor. Buna rağmen akademik araştırmalar, bu kullanımın toplum üzerindeki gerçek etkilerini anlamakta zorlanıyor.
Uzmanların dikkat çektiği temel sorun ise gerçek dünyadaki kullanım ile bilimsel araştırmalar arasındaki zaman farkı.
Araştırmalar çok daha yavaş ilerliyor
Bilimsel araştırmaların doğası gereği oldukça uzun bir süreçten geçtiği biliniyor. Bir araştırmanın hazırlanması için şu aşamalar gerekiyor:
- sağlam bir araştırma tasarımı oluşturulması
- etik onay ve insan denek protokollerinin uygulanması
- veri toplama ve analiz
- sonuçların yazılması ve yayımlanması
Bu sürecin tamamlanması aylar hatta bazen yıllar sürebiliyor.
Buna karşılık yapay zeka teknolojileri çok daha hızlı gelişiyor ve günlük hayatta anında kullanılmaya başlanıyor. Bu nedenle araştırmalar yayımlandığında incelenen teknoloji çoğu zaman zaten eski bir versiyon haline gelmiş oluyor.
Milyonlarca kişi AI’dan psikolojik destek alıyor
Generatif yapay zekanın ruh sağlığı alanında kullanılmasının arkasında birkaç önemli neden bulunuyor.
En önemli faktörlerden biri erişilebilirlik.
Bugün çoğu yapay zeka sistemi:
- ücretsiz ya da düşük maliyetli
- internet bağlantısı olan her yerden erişilebilir
- günün 24 saati kullanılabilir
Bu özellikler nedeniyle birçok kişi stres, kaygı veya günlük psikolojik sorunları hakkında yapay zekayla konuşmayı tercih ediyor.
Bazı tahminlere göre generatif yapay zeka kullanan insanların yaklaşık üçte biri ruh sağlığıyla ilgili konularda yapay zekaya danışıyor.
Yapay zekanın hem fırsatları hem riskleri var
Uzmanlar, yapay zekanın ruh sağlığı alanında önemli fırsatlar sunabileceğini kabul ediyor. Özellikle şu alanlarda fayda sağlayabileceği düşünülüyor:
- psikolojik destek erişimini artırmak
- terapiye ulaşamayan kişiler için alternatif sunmak
- kişilerin duygusal durumlarını ifade etmelerine yardımcı olmak
Ancak aynı zamanda ciddi riskler de bulunuyor.
Eleştirmenler yapay zekanın bazı durumlarda:
- yanlış psikolojik tavsiyeler verebileceğini
- kullanıcıların düşünce hatalarını güçlendirebileceğini
- zararlı davranışları istemeden teşvik edebileceğini
belirtiyor.
Bu nedenle birçok uzman yapay zekanın bir terapistin yerini tutamayacağını özellikle vurguluyor.
Hukuki düzenlemeler henüz sınırlı
Yapay zekanın ruh sağlığı alanında kullanımı hızla yayılırken, hukuki düzenlemeler henüz oldukça sınırlı.
Bazı eyaletler yapay zekanın psikolojik tavsiye vermesiyle ilgili yeni yasalar çıkarmaya başladı. Ancak daha geniş kapsamlı ulusal düzenlemeler henüz oluşturulmuş değil.
Bu durum politika yapıcıların karar almasını zorlaştırıyor. Çünkü sağlam düzenlemeler oluşturabilmek için güvenilir bilimsel araştırmaların bulunması gerekiyor.
Araştırmalar “dikiz aynası” etkisi yaşıyor
Uzmanların dikkat çektiği önemli bir problem de araştırmaların çoğunun teknolojinin geçmiş versiyonlarına odaklanması.
Örneğin bir araştırma:
- GPT-3 döneminde başlıyor
- çalışma tamamlandığında GPT-4 kullanılıyor
- yayımlandığında ise GPT-5 ortaya çıkmış oluyor
Bu nedenle araştırma sonuçları çoğu zaman güncel teknolojiyi tam olarak yansıtmıyor.
Uzmanlar bu durumu “dikiz aynasından bakarak ilerlemek” şeklinde tanımlıyor.
Yeni araştırma alanın durumunu ortaya koydu
Ruh sağlığı ve yapay zeka üzerine yapılan yeni bir araştırma, alandaki mevcut bilimsel çalışmaların kapsamını inceleyerek önemli sonuçlar ortaya koydu.
Araştırmacılar 132 akademik makaleyi inceleyerek bu çalışmaların yöntemlerini analiz etti.
Araştırmanın ortaya koyduğu bazı dikkat çekici bulgular şöyle:
- Çalışmaların %86’sı doğrudan kullanıcıya yönelik yapay zeka uygulamalarını inceliyor.
- Araştırmaların %68’i insan katılımcılar olmadan yapılmış.
- İnsan katılımcı içeren çalışmaların büyük kısmında örneklem büyüklüğü oldukça küçük.
- Araştırmaların %72’sinde kontrol grubu bulunmuyor.
- Çalışmaların çoğu sonuçları kullanıcı deneyimi geri bildirimlerine dayandırıyor.
Araştırmacılara göre bu durum alanın henüz erken aşamada olduğunu gösteriyor.
Klinik standartlar henüz oluşmadı
Araştırmanın önemli sonuçlarından biri de şu:
Yapay zeka tabanlı ruh sağlığı araçları için henüz standart klinik değerlendirme yöntemleri oluşmuş değil.
Bu nedenle araştırmacılar şu alanlarda daha kapsamlı çalışmalar yapılması gerektiğini vurguluyor:
- geniş katılımlı klinik deneyler
- güvenlik odaklı testler
- standart değerlendirme kriterleri
- uzun vadeli etki analizleri
Bu tür çalışmalar yapılmadan yapay zeka araçlarının klinik olarak güvenli olduğu sonucuna varmak zor olabilir.
Yapay zekayı tamamen yasaklamak çözüm değil
Yapay zekanın ruh sağlığı üzerindeki riskleri nedeniyle bazı kişiler AI sistemlerinin bu alanda tamamen yasaklanması gerektiğini savunuyor.
Ancak uzmanlar bu yaklaşımın aşırı basit bir çözüm olduğunu düşünüyor.
Bunun yerine toplumun riskleri azaltırken faydaları koruyan bir denge kurması gerektiği ifade ediliyor.
Birçok kişi için yapay zeka:
- konuşabilecek bir destek aracı
- duygularını ifade etme yolu
- terapiye erişim olmadığında geçici bir alternatif
olabiliyor.
Büyük bir toplumsal deney yaşanıyor
Bugün dünya genelinde milyonlarca insanın yapay zeka ile psikolojik konular konuşması, bazı uzmanlara göre büyük bir toplumsal deney anlamına geliyor.
Bu deneyin sonuçları henüz tam olarak bilinmiyor.
Yapay zeka:
- bazı insanlar için destekleyici olabilir
- bazı kullanıcılar için ise olumsuz etkiler yaratabilir
Bu nedenle uzmanlar daha hızlı, kapsamlı ve güncel araştırmaların yapılması gerektiğini vurguluyor.
Gelecek araştırmalara bağlı olacak
Ruh sağlığı alanında yapay zekanın nasıl kullanılacağı büyük ölçüde gelecek yıllarda yapılacak bilimsel araştırmalara bağlı.
Uzmanlara göre hedef şu olmalı:
- yapay zekanın risklerini azaltmak
- faydalarını daha güvenli hale getirmek
- etik ve bilimsel standartlar oluşturmak
Yapay zeka hızla gelişirken toplumun da bu teknolojiyi bilimsel veriler ışığında yönlendirmesi gerektiği belirtiliyor.