AB’nin gizlilik gözetmenlerinden oluşan bir görev gücü, OpenAI’nin ChatGPT sohbet robotundan daha az yanlış çıktı üretme çabalarının Avrupa Birliği Veri Kurallarına tam uymadığını belirtti.
Görev gücü Cuma günü web sitesinde yayınladığı bir raporda, “Şeffaflık ilkesine uymak için alınan önlemler ChatGPT’nin çıktısının yanlış yorumlanmasını önlemek için faydalı olsa da, veri doğruluğu ilkesine uymak için yeterli değildir” dedi.
Avrupa’nın ulusal gizlilik gözetmenlerini bir araya getiren kuruluş, İtalya’nın otoritesi liderliğindeki ulusal düzenleyicilerin yaygın olarak kullanılan yapay zeka hizmetiyle ilgili endişelerini dile getirmesinin ardından, geçen yıl ChatGPT ile ilgili bir görev gücü kurdu.
OpenAI, yorum talebine hemen yanıt vermedi.
Raporda bazı üye ülkelerdeki ulusal gizlilik gözetmenleri tarafından başlatılan çeşitli soruşturmaların hâlen devam ettiği belirtildi, bu nedenle sonuçların tam bir açıklamasını yapmanın henüz mümkün olmadığı ifade edildi. Bulgular ulusal makamlar arasında bir ‘ortak payda’ olarak anlaşılmalıdır.
Veri doğruluğu, AB’nin Veri Koruma Kuralları setinin yol gösterici ilkelerinden biridir.
Raporda, “Aslında, sistemin olasılıksal doğası nedeniyle, mevcut eğitimsel yaklaşımı, yanlı veya uydurma çıktılar da üretebilen bir modele yol açmaktadır.” denildi.
“Buna ek olarak, ChatGPT tarafından sağlanan çıktıların, gerçek doğruluklarına bakılmaksızın, bireylerle ilgili bilgiler de dahil olmak üzere, son kullanıcılar tarafından olgusal olarak doğru kabul edilmesi muhtemeldir.”