OpenAI, ChatGPT sohbet botu ve gelişmiş Büyük Dil Modelleri (LLM’ler) ile yapay zeka (AI) alanında öncü konumda, ancak şirketin güvenlik sicili endişeleri artırıyor. Yeni bir rapor, AI firmasının yeni modeller geliştirirken güvenlik ve emniyet protokollerini hızla geçerek ihmal ettiğini iddia ediyor. Raporda, bu ihmallerin OpenAI’nin en son modeli GPT-4 Omni (veya GPT-4o) piyasaya sürülmeden önce gerçekleştiği belirtildi.
Bazı isimsiz OpenAI çalışanları, AI sistemleri oluşturma sürecinde denetim eksikliğine dair endişelerini dile getiren bir açık mektup imzaladı. Dikkate değer bir şekilde, AI firması ayrıca seçilmiş kurul üyeleri ve yöneticilerden oluşan yeni bir Güvenlik ve Emniyet Komitesi kurarak yeni protokoller geliştirmeye ve değerlendirmeye başladı.
OpenAI Güvenlik Protokollerini İhmal Ediyor İddiası
Bununla birlikte, üç isimsiz OpenAI çalışanı, The Washington Post’a, ekibin, “AI sisteminin yıkıcı zararlar vermesini önlemek için tasarlanan yeni test protokolünü hızla geçmesi için OpenAI liderlerinin belirlediği Mayıs lansman tarihine uymak amacıyla baskı altında hissettiklerini” söyledi.
Bu protokoller, AI modellerinin kimyasal, biyolojik, radyolojik ve nükleer (CBRN) silahların nasıl yapılacağına dair zararlı bilgiler vermesini veya siber saldırılar gerçekleştirmesine yardımcı olmasını engellemek için var.
Raporda, şirketin en gelişmiş AI modeli olarak tanıtılan GPT-4o’nun lansmanından önce de benzer bir olayın yaşandığı vurgulandı. “Lansman sonrası partisini, güvenli olup olmadığını bilmeden önce planladılar. Temel olarak süreçte başarısız olduk” dedi raporda bir isimsiz OpenAI çalışanı.
Bu, OpenAI çalışanlarının şirketin güvenlik ve emniyet protokollerine karşı açıkça dikkatsiz davrandığını belirttiği ilk olay değil. Geçen ay, OpenAI ve Google DeepMind’in birkaç eski ve mevcut çalışanı, büyük riskler oluşturabilecek yeni AI sistemleri oluşturma sürecinde denetim eksikliğine dair endişelerini dile getiren bir açık mektup imzalamıştı.
Mektup, hükümet müdahalesi ve düzenleyici mekanizmalar çağrısında bulundu ve işverenler tarafından güçlü muhbir korumalarının sağlanmasını talep etti. AI’nin üç kurucusundan ikisi olan Geoffrey Hinton ve Yoshua Bengio, açık mektubu onayladı.
Mayıs ayında, OpenAI, “OpenAI projeleri ve operasyonları için kritik güvenlik ve emniyet kararları” üzerinde süreçleri ve güvenlik önlemlerini değerlendirmek ve geliştirmekle görevlendirilen yeni bir Güvenlik ve Emniyet Komitesi’nin kurulduğunu duyurdu. Şirket ayrıca, Model Spec olarak adlandırılan sorumlu ve etik bir AI modeli oluşturma yönergelerini de paylaştı.