Ilya Sutskever, OpenAI’nin kurucu ortağı ve eski baş bilimcisi, güvenliğe odaklanan yeni bir AI şirketi kuruyor. Çarşamba günü bir gönderide Sutskever, tek hedefi ve tek ürünü olan Safe Superintelligence Inc. (SSI) adlı girişimini açıkladı.
Açıklama, SSI’yi “güvenlik ve yetenekleri bir arada ele alan” bir startup olarak tanımlıyor, böylece şirket AI sistemini hızla ilerletirken güvenliğe öncelik verebiliyor. Ayrıca OpenAI, Google ve Microsoft gibi şirketlerdeki AI ekiplerinin karşılaştığı dış baskılara da dikkat çekerek, şirketin “tek odak noktasının” yönetim yükü veya ürün döngüleri tarafından “dikkatinin dağılmasını” önlediğini belirtiyor.
“İş modelimiz, güvenlik, emniyet ve ilerlemenin kısa vadeli ticari baskılardan izole edilmesi anlamına geliyor.” diyor açıklamada. “Bu şekilde, huzur içinde büyüyebiliriz.” Sutskever’a ek olarak SSI’nin diğer kurucuları Apple’da eski bir AI lideri olan Daniel Gross ve OpenAI’de teknik ekip üyesi olarak çalışmış olan Daniel Levy.
Geçen yıl Sutskever, OpenAI CEO’su Sam Altman’ın görevden alınmasını teşvik etti. Sutskever, Mayıs ayında OpenAI’den ayrıldı ve yeni bir projeye başlayacağını ima etti. Sutskever’in ayrılmasından kısa bir süre sonra, AI araştırmacısı Jan Leike, “parlak ürünlerin” geri plana itildiği güvenlik süreçlerini gerekçe göstererek OpenAI’den istifa etti. OpenAI’de politika araştırmacısı olan Gretchen Krueger da ayrılışını duyururken güvenlik endişelerini belirtti.
OpenAI, Apple ve Microsoft ile ortaklıklarını sürdürürken, SSI’nin böyle bir şey yapması pek olası görünmüyor. Bloomberg ile yaptığı bir röportajda, Sutskever, SSI’nin ilk ürününün güvenli süper zeka olacağını ve şirketin “o zamana kadar başka hiçbir şey yapmayacağını” söyledi.