Reuters’a göre, bazı büyük AI modelleri, siber güvenlik dayanıklılığı ve ayrımcı çıktılar gibi kilit alanlarda Avrupa Birliği düzenlemelerine uymuyor. LatticeFlow adlı İsviçre merkezli girişim tarafından geliştirilen yeni bir araç, Meta ve OpenAI gibi şirketlerin AI modellerini AB’nin yeni AI yasasına uygunluk açısından test etti. Bu araç, AB’nin geniş kapsamlı AI yasası gereksinimlerini karşılamak için modelleri çeşitli kategorilerde değerlendirdi ve puanladı.
Testte, Meta’nın “Llama 2” modeli siber saldırılara karşı düşük bir skor aldı ve ayrımcı çıktı sorunları da tespit edildi. Aynı kategoride, Alibaba’nın modeli de benzer şekilde düşük puan aldı. LatticeFlow tarafından geliştirilen “Büyük Dil Modeli (LLM) Kontrol Aracı”, şirketlere yasal uyumluluk sağlamak için hangi alanlara odaklanmaları gerektiğini gösteriyor.
Google destekli Anthropic tarafından geliştirilen “Claude 3 Opus” modeli, en yüksek puanı aldı ve uyumluluk açısından en başarılı model oldu. AB, AI yasası kapsamındaki düzenlemeleri 2025 yılına kadar tamamlamayı hedefliyor. LatticeFlow, bu kontrol aracını geliştiricilere çevrimiçi olarak ücretsiz sunmayı planlıyor. (Kaynak: Reuters)