Google, Microsoft ve Elon Musk’ın yapay zeka şirketi xAI, yeni modellerini kamuya sunmadan önce ABD hükümetinin erken erişimine açmayı kabul etti. Anlaşma kapsamında modeller, ulusal güvenlik riskleri ve gelişmiş yapay zeka kabiliyetleri açısından değerlendirilecek.

ABD’de yapay zeka sektörüne yönelik denetim tartışmaları büyürken Google, Microsoft ve xAI’dan dikkat çeken bir adım geldi. Üç şirket, geliştirdikleri yeni yapay zeka modellerini kamuya açmadan önce ABD Ticaret Bakanlığı bünyesindeki Center for AI Standards and Innovation’a (CAISI) inceletmeyi kabul etti.

CAISI, bu anlaşmalarla birlikte modeller üzerinde yayın öncesi değerlendirme yapacak, sistemlerin güvenlik açıklarını, riskli kabiliyetlerini ve ulusal güvenlik açısından doğurabileceği sonuçları test edecek. Kuruma göre bu iş birlikleri, gelişmiş yapay zeka modellerinin daha güvenli biçimde değerlendirilmesi için genişletildi.

MODELLER ÖNCEDEN TEST EDİLECEKAnlaşma, yapay zeka şirketlerinin yeni modellerini doğrudan piyasaya sürmeden önce devlet kurumlarıyla paylaşması anlamına geliyor. Böylece modeller, kamuya açılmadan önce siber güvenlik, biyogüvenlik, kimyasal riskler ve kötüye kullanım ihtimalleri gibi başlıklarda test edilebilecek.

CAISI Direktörü Chris Fall, bağımsız ve sıkı ölçüm çalışmalarının ileri seviye yapay zeka sistemlerini ve bunların ulusal güvenlik etkilerini anlamak için kritik olduğunu belirtti. Kurumun daha önce de OpenAI ve Anthropic gibi şirketlerle benzer değerlendirme süreçleri yürüttüğü, şimdi ise Google DeepMind, Microsoft ve xAI’ın da bu halkaya eklendiği aktarıldı.

GÜVENLİK ÖNLEMLERİ DE İNCELENECEKSüreçte yalnızca modellerin normal çalışma biçimi değil, güvenlik önlemleri azaltılmış ya da devre dışı bırakılmış sürümleri de değerlendirilebilecek. Bunun nedeni, modellerin kötü niyetli kullanıcılar tarafından nasıl zorlanabileceğini ve hangi alanlarda tehlikeli kabiliyetler gösterebileceğini daha net görmek.