Google, siber güvenlik tarafında dikkat çeken yeni bir olayı duyurdu. Şirketin güvenlik araştırmacıları, ilk kez yapay zekâ yardımıyla geliştirildiğine dair işaretler taşıyan bir zero-day saldırısını tespit edip engellediklerini açıkladı.
Google Threat Intelligence Group (GTIG) tarafından paylaşılan rapora göre saldırının arkasında “önemli siber suç aktörleri” bulunuyordu. Araştırmacılar, saldırganların bu açığı geniş çaplı bir saldırı kampanyasında kullanmaya hazırlandığını belirtiyor.
Hedefte İki Faktörlü Kimlik Doğrulama Vardı
Raporda yer alan bilgilere göre saldırı, ismi açıklanmayan:
- Açık kaynaklı
- Web tabanlı
- Sistem yönetim aracı
üzerine odaklanıyordu.
Saldırganların amacı ise sistemdeki iki faktörlü kimlik doğrulama (2FA) korumasını aşmaktı.
Zero-day saldırıları, geliştiricilerin henüz fark etmediği veya düzeltmediği güvenlik açıklarını hedef aldığı için oldukça kritik kabul ediliyor. Bu tür açıklar, savunma tarafının hazırlıksız yakalanmasına neden olabiliyor.
Google ise bu saldırının daha büyük bir “kitlesel sömürü operasyonu” öncesinde durdurulduğunu söylüyor.
Google, Kod İçinde Yapay Zekâ İzleri Buldu
Olayı farklı hale getiren nokta ise saldırı kodunda bulunan bazı detaylar oldu.
Google araştırmacıları, saldırıda kullanılan Python scripti içinde yapay zekâ kullanımına işaret eden bazı unsurlar tespit etti. Bunlar arasında:
- “Halüsinasyon” içeren bir CVSS puanı
- Aşırı düzenli ve ders kitabı tarzında biçimlendirme
- Büyük dil modellerinin eğitim verilerine benzeyen yapı
yer alıyor.
Özellikle “hallucinated CVSS score” yani gerçekte olmayan veya yanlış oluşturulmuş güvenlik puanlaması dikkat çekti. Yapay zekâ modellerinin bazen yanlış ama gerçekmiş gibi görünen bilgiler üretmesi, sektörde “halüsinasyon” olarak adlandırılıyor.
Araştırmacılara göre kod yapısındaki bazı detaylar, exploit geliştirme sürecinde bir LLM’den yardım alınmış olabileceğini düşündürüyor.
Google: Gemini Kullanılmış Gibi Görünmüyor
Google, olayla ilgili önemli bir noktaya daha değindi. Şirket, saldırının geliştirilmesinde yapay zekâ kullanıldığına dair belirtiler görse de bunun doğrudan Gemini ile yapıldığına inanmadığını belirtti.
Yani saldırganların hangi modeli kullandığı bilinmiyor.
Bununla birlikte Google, saldırganların artık yapay zekâyı:
- Güvenlik açıklarını bulmak
- Açıkları analiz etmek
- Daha etkili exploit üretmek
için giderek daha fazla kullandığını söylüyor.
Bu durum, yapay zekâ araçlarının sadece savunma tarafında değil, saldırı tarafında da aktif biçimde kullanılmaya başladığını gösteriyor.
Saldırı Nasıl Çalışıyordu?
Raporda teknik detaylara da yer verildi. Açığın temelinde:
- Geliştiricinin sisteme “güven varsayımı” yerleştirmesi
- 2FA sisteminde mantıksal bir hata oluşması
bulunuyor.
Araştırmacılar bunu “yüksek seviyeli semantik mantık hatası” olarak tanımlıyor.
Yani saldırganlar klasik bir şifre kırma yöntemi yerine sistemin çalışma mantığındaki bir varsayımdan yararlanıyordu.
Bu tarz açıklar, teknik olarak daha karmaşık olabiliyor çünkü sorun doğrudan kod hatasından değil, sistem tasarımından kaynaklanabiliyor.
Yapay Zekâ Destekli Siber Güvenlik Tartışmaları Büyüyor
Bu olay, son haftalarda büyüyen yapay zekâ ve siber güvenlik tartışmalarının hemen ardından geldi.
Özellikle güvenlik odaklı AI modelleri hakkında ciddi tartışmalar yaşanıyordu. Haberde:
- Anthropic Mythos
- Yapay zekâ yardımıyla keşfedilen Linux güvenlik açığı
gibi örneklerden de bahsediliyor.
Bu gelişmeler, yapay zekânın siber güvenlik alanında ne kadar güçlü hale geldiğini gösteriyor.
Çünkü artık AI modelleri yalnızca kod yazmıyor. Aynı zamanda:
- Güvenlik analizi yapabiliyor
- Açık tespiti gerçekleştirebiliyor
- Exploit mantığını anlayabiliyor
hale geliyor.
Saldırganlar Yapay Zekâyı Manipüle Etmeye Çalışıyor
Google’ın raporunda dikkat çeken bir başka detay da saldırganların kullandığı yöntemler oldu.
Araştırmacılara göre hacker grupları, AI sistemlerini kandırmak için:
- “Persona-driven jailbreaking”
- Rol yapma temelli prompt teknikleri
kullanıyor.
Örneğin saldırganlar, yapay zekâya kendisini bir güvenlik uzmanı gibi davranması gerektiğini söyleyerek güvenlik açıklarını analiz ettirmeye çalışıyor.
Bunun dışında hackerların:
- Büyük güvenlik açığı veri arşivlerini AI modellerine yüklediği
- OpenClaw gibi araçları kontrollü ortamlarda kullandığı
da belirtiliyor.
Bu yöntemlerin amacı, gerçek saldırı öncesinde AI tarafından üretilen exploit kodlarını daha güvenilir hale getirmek.
Yapay Zekâ Artık Hem Araç Hem Hedef
Google’ın raporu, yapay zekânın artık sadece bir araç olmadığını da ortaya koyuyor.
Şirkete göre saldırganlar aynı zamanda:
- AI sistemlerinin bağlantı noktalarını
- Otonom yeteneklerini
- Üçüncü taraf veri bağlantılarını
da hedef almaya başladı.
Yani yapay zekâ sistemleri hem saldırı geliştirmek için kullanılıyor hem de doğrudan saldırı hedefi haline geliyor.
Siber Güvenlikte Yeni Dönem Başlıyor
Google’ın açıkladığı olay, yapay zekâ destekli saldırıların artık teorik olmaktan çıkmaya başladığını gösteriyor.
Her ne kadar şirket bu saldırıyı engellemeyi başarmış olsa da, raporda verilen detaylar gelecekte daha gelişmiş AI destekli exploitlerin ortaya çıkabileceğine işaret ediyor.
Özellikle büyük dil modellerinin kod üretme ve analiz yetenekleri arttıkça, siber güvenlik tarafındaki risklerin de daha karmaşık hale gelmesi bekleniyor.