OpenAI’nin ChatGPT’si gibi yapay zeka sohbet robotları, çalışanların verimliliğini artırabilecek, hatta gelecekte onların yerini alabilecek çığır açan araçlar olarak tanıtılıyor. Ancak şaşırtıcı yeni bir araştırma ChatGPT’nin programlama sorularına %52 oranında yanlış yanıt verdiğini ortaya koydu.
Futurism tarafından bildirilen Purdue Üniversitesi’nin bu araştırması Hawaii’deki Bilgisayar-İnsan Etkileşimi Konferansı’nda sunuldu. Araştırmada Stack Overflow’dan ChatGPT’ye 517 programlama sorusu gönderildi.
Çalışma, “ChatGPT cevaplarının %52‘sinin yanlış bilgi içerdiğini ve sadece %77’sinin ayrıntılı olduğunu” ortaya koydu, ancak katılımcılar yine de kapsamlı ve iyi ifade edilmiş dilleri nedeniyle %35 oranında ChatGPT cevaplarını tercih etti.
Çalışmanın endişe verici bir yönü de programcıların hataları her zaman fark etmemiş olmaması. ChatGPT cevaplarının %39’unda yanlış bilgiyi gözden kaçırıyorlar. Bu durum, ChatGPT yanıtlarındaki yanlış bilgilerin ele alınması ve görünüşte doğru yanıtlarla ilişkili riskler konusunda farkındalık yaratılması ihtiyacını vurguluyor.
Bu çevrimiçi olarak incelenebilen yalnızca bir çalışma olsa da, yapay zeka araçları kullanıcılarının aşina olduğu sorunların altını çiziyor. Meta, Microsoft ve Google gibi büyük teknoloji şirketleri, internet etkileşimimizde devrim yaratmayı hedefleyerek en güvenilir sohbet robotlarını yaratmak için yapay zekaya büyük yatırımlar yapıyor. Yine de, çeşitli zorluklar devam ediyor.
En önemli sorunlardan biri, özellikle benzersiz sorgularda yapay zekanın sık sık güvenilmez olması. Örneğin Google’ın yapay zeka destekli arama özelliği sık sık güvenilir olmayan kaynaklardan bilgi alıyor.
Google bu hataları anomali olarak savunuyor ve bunların nadir sorgulardan kaynaklandığını ve çoğu kullanıcının deneyimlerini yansıtmadığını iddia ediyor.
Yanlış yanıtların yaygın olmayan sorgulardan kaynaklandığını öne süren bu savunma sorgulanabilir. Kullanıcılardan yalnızca sıradan sorular sormalarını beklemek, bu AI araçlarının devrim niteliğindeki vaadiyle çelişiyor.