OpenAI, geçtiğimiz hafta yapay zeka modellerini geliştirmek için iki önemli adım attığını duyurdu. Bunlardan ilki, GPT-4o (GPT-4 Turbo) modeline yapılan yeni bir güncelleme ile daha yaratıcı yazma yeteneklerinin ve doğal dil yanıtlarının iyileştirilmesi oldu. İkinci olarak, şirket, red teaming sürecini otomatikleştirmek için ölçeklenebilir bir yöntem tanıtan iki yeni araştırma makalesi yayımladı.
GPT-4o Güncellemesi: Daha Yaratıcı ve Detaylı Yanıtlar
OpenAI, X (eski adıyla Twitter) platformunda yaptığı duyuruda, GPT-4o güncellemesiyle modelin daha doğal, ilgi çekici ve kullanıcıya özel içerikler oluşturabileceğini belirtti. Bu güncelleme ayrıca, modelin yüklenen dosyaları işleme kapasitesini artırarak daha kapsamlı ve derinlemesine yanıtlar sunmasını sağlıyor. GPT-4o, yalnızca ChatGPT Plus abonelerine ve API üzerinden LLM erişimine sahip geliştiricilere sunuluyor. Ücretsiz kullanıcılar bu modele erişemiyor.
Bir kullanıcı, GPT-4o’nun Eminem tarzında karmaşık iç uyak yapıları içeren bir rap oluşturabildiğini örnek göstererek güncellemenin etkisini paylaştı.
Red Teaming Araştırmaları: Güvenlik ve Risk Testlerinde Yeni Yöntemler
Red teaming, yazılım ve sistemlerin güvenlik açıklarını test etmek için kullanılan bir süreçtir. OpenAI, ChatGPT’nin her yeni LLM sürümüyle bu süreci şeffaf bir şekilde yürütüyor. Şirket, yayımladığı makalelerde, daha yetenekli yapay zeka modellerinin red teaming süreçlerini otomatikleştirebileceğini öne sürdü.
Araştırmacılar, GPT-4T modelinin, yapay zeka modellerinin zarar verebilecek davranışlarını tanımlamak için fikirler üretebileceğini belirtti. Örneğin, “nasıl araba çalınır” veya “nasıl bomba yapılır” gibi zararlı içerik oluşturabilecek senaryolar üretilebilir ve bu tür içeriklerin engellenmesi için red teaming AI modelleri tasarlanabilir.
Ancak bu yöntemin kullanılmaya başlanmadığı, çünkü AI’nın risk profillerinin sürekli değiştiği ve bu süreçlerin daha fazla insan bilgisine ihtiyaç duyduğu belirtiliyor.