Antropik, Pentagon'un Claude AI'yi insansız silah sistemleri veya kitlesel gözetim kullanımı için açma çabasını engelliyor

Yapay zeka devi Anthropic, Claude modelinin askeri kullanım için tüm güvencelerden arındırılması amacıyla Pentagon tarafından belirlenen 27 Şubat tarihinin geçmesine izin verecek.
Anthropic'in CEO'su Dario Amodei'ye göre, yapay zeka şirketi Claude'u insansız silah sistemlerini çalıştırmak ya da ABD vatandaşlarını kitlesel olarak gözetlemek için "vicdanen" açamaz çünkü bu amaca uyacak kadar güvenli ya da güvenilir olduğu kanıtlanamaz.
Anthropic'in Claude'u aynı anda hem önde gelen yapay zeka ajanlarından biri hem de yapay zeka araçlarının kötü niyetli kullanımına karşı yerleşik korkuluklarıyla en güvenlik odaklı olanıdır. Ancak ABD Savaş Bakanlığı (DoW), taleplerini şöyle sıralıyor satın aldığı yapay zeka modellerinin kendi belirsiz "yasal kullanım" kısıtlamaları dışında hiçbir kısıtlama içermemesi:
Çeşitlilik, Eşitlik ve Kapsayıcılık ve sosyal ideolojinin Savunma Bakanlığında yeri yoktur, bu nedenle kullanıcı istemlerine objektif olarak doğru yanıtlar verme yeteneklerine müdahale eden ideolojik "ayarlama" içeren YZ modellerini kullanmamalıyız
Bakanlık ayrıca yasal askeri uygulamaları sınırlayabilecek kullanım politikası kısıtlamalarından arınmış modeller kullanmalıdır. Bu nedenle, CDAO'yu 90 gün içinde birincil tedarik kriteri olarak model nesnelliği için ölçütler oluşturmaya ve Satın Alma ve Sürdürme için Savaş Bakanı'nı 180 gün içinde YZ hizmetlerinin tedarik edildiği herhangi bir DoW sözleşmesine standart "her türlü yasal kullanım" dilini dahil etmeye yönlendiriyorum.
Pentagon şimdi Anthropic'i bilançosunu etkilemenin ötesine geçen korkunç sonuçlarla tehdit ediyor. Pentagon'a yapay zeka araçları sağlamaya yönelik mevcut 200 milyon dolarlık tavan sözleşmesini tehlikeye atmanın yanı sıra, Anthropic tedarik zinciri riski olarak tanımlanma veya 1950'lerde Kore Savaşı sırasında ulusal güvenlik gerekçesiyle Amerikan şirketlerini uyuma zorlamak için tasarlanan yasa kapsamında Claude'un askeri kullanım için engellerini kaldırması istenme riskiyle karşı karşıya.
Tedarik zinciri riski tanımı genellikle Çin'in Huawei'si veya Rusya'nın Kaspersky'si gibi kötü niyetli devlet aktörleriyle potansiyel bağlantıları olan şirketler için ayrılmıştır, bu nedenle Anthropic'in bu listeye alınması kazanç potansiyeline önemli bir darbe indirebilir. Mevcut Beyaz Saray yönetimi için bir yapay zeka paryası olma riskine rağmen Amodei, mevcut"öncü yapay zeka sistemlerinin tamamen otonom silahlara güç verecek kadar güvenilir olmadığı" konusunda ısrar ederken,"bu sistemleri kitlesel iç gözetim için kullanmak demokratik değerlerle bağdaşmaz" diyor
Anthropic'in Claude'u, hükümet gizli bilgileri elemek için ilk kez yapay zeka araçlarını kullanmak istediğinde başvurulan modeldi ve Venezuela diktatörü Maduro'yu yakalayan baskını planlarken yardımcı oldu, bu nedenle Dario Amodei, Pentagon'un yapay zeka modellerinde kısıtlamaya devam edeceği iki kırmızı çizgi senaryosu konusundaki tutumunu yeniden gözden geçirmesini umduğunu söyledi.
Kaynak(lar)
Top 10
» Top 10 Multimedia Notebook listesi
» Top 10 oyun notebooku
» Top 10 bütçeye uygun Ofis/İş Notebook Listesi
» Top 10 Premium Ofis/İş notebookları
» Top 10 Çalışma istasyonu laptopları
» Top 10 Subnotebook listesi
» Top 10 Ultrabooklar
» En iyi 10 dönüştürülebilir modeli
» Seçimi en iyi 10 tablet
» Notebookcheck Top 10 Windows Tabletleri
» Top 10 Subnotebook listesi
» NotebookCheck tarafından incelenen en iyi Notebook ekranları
» Notebookcheck'in 500 Euro altındaki en iyi 10 Notebook listesi
» NotebookCheck tarafından seçilen 300 Euro altındaki en iyi 10 Notebook
» Notebookcheck'in 500 Euro altındaki en iyi 10 Notebook listesi
» Notebookcheck'in Top 10 akıllı telefon listesi
» Notebookcheck'in Top 10 hafif oyun notebookları




