Notebookcheck Logo

Antropik, Pentagon'un Claude AI'yi insansız silah sistemleri veya kitlesel gözetim kullanımı için açma çabasını engelliyor

Textron Aerosonde Mk. 4.7 UAS drone.
ⓘ Textron Systems
Textron Aerosonde Mk. 4.7 UAS drone.
Anthropic, modellerinin güvenliği ve sosyal sorumluluğu söz konusu olduğunda lider YZ şirketi olmaya devam edecek gibi görünüyor. Tüm potansiyel yansımalarına rağmen, Pentagon'un Claude AI ajanının doğasında bulunan askeri kullanım ve gözetlemeye karşı korkulukları kaldırma talebini geri çevirdi.

Yapay zeka devi Anthropic, Claude modelinin askeri kullanım için tüm güvencelerden arındırılması amacıyla Pentagon tarafından belirlenen 27 Şubat tarihinin geçmesine izin verecek.

Anthropic'in CEO'su Dario Amodei'ye göre, yapay zeka şirketi Claude'u insansız silah sistemlerini çalıştırmak ya da ABD vatandaşlarını kitlesel olarak gözetlemek için "vicdanen" açamaz çünkü bu amaca uyacak kadar güvenli ya da güvenilir olduğu kanıtlanamaz.

Anthropic'in Claude'u aynı anda hem önde gelen yapay zeka ajanlarından biri hem de yapay zeka araçlarının kötü niyetli kullanımına karşı yerleşik korkuluklarıyla en güvenlik odaklı olanıdır. Ancak ABD Savaş Bakanlığı (DoW), taleplerini şöyle sıralıyor satın aldığı yapay zeka modellerinin kendi belirsiz "yasal kullanım" kısıtlamaları dışında hiçbir kısıtlama içermemesi:

Çeşitlilik, Eşitlik ve Kapsayıcılık ve sosyal ideolojinin Savunma Bakanlığında yeri yoktur, bu nedenle kullanıcı istemlerine objektif olarak doğru yanıtlar verme yeteneklerine müdahale eden ideolojik "ayarlama" içeren YZ modellerini kullanmamalıyız

Bakanlık ayrıca yasal askeri uygulamaları sınırlayabilecek kullanım politikası kısıtlamalarından arınmış modeller kullanmalıdır. Bu nedenle, CDAO'yu 90 gün içinde birincil tedarik kriteri olarak model nesnelliği için ölçütler oluşturmaya ve Satın Alma ve Sürdürme için Savaş Bakanı'nı 180 gün içinde YZ hizmetlerinin tedarik edildiği herhangi bir DoW sözleşmesine standart "her türlü yasal kullanım" dilini dahil etmeye yönlendiriyorum.

Pentagon şimdi Anthropic'i bilançosunu etkilemenin ötesine geçen korkunç sonuçlarla tehdit ediyor. Pentagon'a yapay zeka araçları sağlamaya yönelik mevcut 200 milyon dolarlık tavan sözleşmesini tehlikeye atmanın yanı sıra, Anthropic tedarik zinciri riski olarak tanımlanma veya 1950'lerde Kore Savaşı sırasında ulusal güvenlik gerekçesiyle Amerikan şirketlerini uyuma zorlamak için tasarlanan yasa kapsamında Claude'un askeri kullanım için engellerini kaldırması istenme riskiyle karşı karşıya.

Tedarik zinciri riski tanımı genellikle Çin'in Huawei'si veya Rusya'nın Kaspersky'si gibi kötü niyetli devlet aktörleriyle potansiyel bağlantıları olan şirketler için ayrılmıştır, bu nedenle Anthropic'in bu listeye alınması kazanç potansiyeline önemli bir darbe indirebilir. Mevcut Beyaz Saray yönetimi için bir yapay zeka paryası olma riskine rağmen Amodei, mevcut"öncü yapay zeka sistemlerinin tamamen otonom silahlara güç verecek kadar güvenilir olmadığı" konusunda ısrar ederken,"bu sistemleri kitlesel iç gözetim için kullanmak demokratik değerlerle bağdaşmaz" diyor

Anthropic'in Claude'u, hükümet gizli bilgileri elemek için ilk kez yapay zeka araçlarını kullanmak istediğinde başvurulan modeldi ve Venezuela diktatörü Maduro'yu yakalayan baskını planlarken yardımcı oldu, bu nedenle Dario Amodei, Pentagon'un yapay zeka modellerinde kısıtlamaya devam edeceği iki kırmızı çizgi senaryosu konusundaki tutumunu yeniden gözden geçirmesini umduğunu söyledi.

Kaynak(lar)

Please share our article, every link counts!
Mail Logo
> Notebooklar Hakkında Aradığınız Herşey > Haberler > Haber Arşivi > Haber arşivi 2026 02 > Antropik, Pentagon'un Claude AI'yi insansız silah sistemleri veya kitlesel gözetim kullanımı için açma çabasını engelliyor
Daniel Zlatev, 2026-02-27 (Update: 2026-02-27)