Pentagon, yapay zekalı silah teknolojilerine 2 milyar dolar yatırım yapacak
ABONE OL
Savunma Bakanlığı'nın son teknoloji araştırma kolu, ABD silahlarına yönelik yapay zeka (AI) sistemlerinde bugüne kadarki en büyük yatırımı yapma sözü verdi. Gelecek beş yıl içerisinde 2 milyar dolara ulaşabilecek olan bu yatırım, yapay zekalı sistemleri askeri yetkililer tarafından güvenilir ve kabul edilir hale getirmeyi hedefliyor.
 
 
Savunma İleri Araştırma Projeleri Ajansı (DARPA) direktörü, bu harcama çılgınlığını Washington'da düzenlenen ve altmışıncı yılını kutlayan bir konferansta duyurdu
 
Ajans, asıl rolünü askeri sorunlara yeni teknolojik çözümler getirme olarak görüyor ve Trump yönetiminin teknik şefleri de Rus ve Çin askeri güçleri ile daha iyi rekabet edebilmek için yapay zekaya Amerikan silahlarında daha fazla yer verilmesi fikrini destekliyor.
 
 
DARPA yatırımı, Pentagon harcama standartlarına göre oldukça küçük bir yatırım; nitekim yeni F-35 savaş uçaklarının satın alınması ve sürdürülmesinin maliyetinin trilyon doları aşması bekleniyor. Bu fon Pentagon'a göre küçük olsa da tarihte yapay zeka programlarına ayrılan fonlardan ve 1940'larda nükleer silahlar üreten Manhattan Projesi'nden daha büyük olma özelliğine sahip; gerçi şu anki enflasyon hesaba katılırsa Manhattan Projesi 28 milyar dolara tekabül ediyor.
 
Savunma şirketi Booz Allen Hamilton, önümüzdeki beş yıl içinde, tanımlanmamış yapay zeka programlarıyla çalışmak için 885 milyon dolarlık bir sözleşme imzaladı. Bilgisayarların askeri kullanım için resimlerdeki nesneleri seçme yeteneğini geliştirmeyi amaçlayan tek en büyük askeri AI projesi olan Project Maven için de 2019'da 93 milyon dolarlık fon ayrılacak.
 
 
Askeri analitik işleri ve bazı muhtemel karar verme mekanizmalarını, silahlara yüklenmiş, insanlara karşı şiddet içerikli eylemlerde bulunma kalibiyetine sahip bilgisayarlara ve algoritmalara teslim etmek de tartışmalara yol açan bir konu.
 
Project Maven, departman için Google tarafından yürütülmekteydi; ancak, askeriyenin öldürmesi için hedef seçmesine yardımcı olacak bir yazılımı geliştirmek istemeyen Google çalışanları tarafından düzenlenen bir protesto sonrasında şirket, Haziran ayında kontratının sona ermesi itibariyle çalışmaları durduracağını duyurmuştu.
 
 
Maven ve diğer yapay zeka girişimleri, Pentagon'un silah sistemlerini hedefleri tanımada ve droneların daha etkili çalışmasını sağlamada fayda sağlamış olsalar da, kendi başlarına ölümcül eylemlerde bulunabilen bilgisayarlı sistemlerin kullanımı hala destek gören bir şey değil.
 
Ağustos ayında yayınlanan bir Pentagon strateji dokümanında, teknolojinin gelişimi bu tür silahları mümkün kılacağına yer veriliyor. Pentagon satın alma ve araştırma yetkilileri Kevin Fahey ve Mary Miller taraflarınca imzalanan raporda, "Savunma Bakanlığı şu anda bir operatörün yönlendirmesinden bağımsız bir şekilde arama, tespit etme, izleme, seçme ve müdahale etme kabiliyetlerine sahip olan otonom silahlara sahip değildir." ifadeleri yer alıyor.
 
Rapor ayrıca şu öngörüye de yer veriyor: "İnsansız sistemleri destekleyen teknolojiler, bağımsız bir şekilde hedef seçme ve ölümcül güçle hedefe müdahale etme kabiliyetine sahip otonom sistemlerin geliştirilmesini ve kullanılmasını mümkün kılabilir."
 
 
Rapor, yapay zekalı sistemlerin halihazırda teknik olarak hedef seçme ve silah ateşleme kabiliyetlerine sahip olsa da, komutanların makine muhakemesine duyulan güven eksikliğinden dolayı silah platformlarının kontrolünü özellikle bir makinenin veya onun tasarımcısının daha önce karşılaşmadığı değişkenlerin mevcut olduğu savaş alanlarında bu sistemlere teslim etmekten çekindiklerini belirtiyor.
 
DARPA yöneticisi Steven Walker, yatırım duyurusundan önce basın mensuplarına "Şu an, örneğin bir asker, hedef belirleme platformu gibi bir yapay zekalı sistemden yaptığı seçimi açıklamasını istese, sistem askere yalnızca verdiği karara ilişkin güven tahminini muhtemelen yüzdelik bir değer ile sunabilir" açıklamasında bulundu.
 
Sözlerine devam eden Walker, "Açıklanabilir yapay zeka ile yapmayı hedeflediğimiz şey, makinenin operatöre 'işte cevap, bunun doğru seçenek olduğunu bu yüzden düşünüyorum' diyebilmesi ve cevaba nasıl ulaştığını operatöre açıklayabilmesidir" dedi.
 
 
DARPA yetkilileri, yeni finanse edilen araştırmanın, bilgisayarların savaş alanında insanlara önemli kararları açıklayabilmeleri, bir çatışmanın tüm ihtiyati ve aciliyetleri ile nasıl sonuçlanacağıyla ilgili olarak tam bir fikre sahip değillerdi; ancak bunu yapmanın, yapay zekanın ordudaki geleceği için kritik olduğunu söylediler.
 
Bu engelin üstesinden, AI akıl yürütmesini gerçek zamanlı olarak operatörlere açıklama yöntemiyle çözmek büyük bir zorluk olabilir. İnsanın karar alma kabiliyeti ve rasyonalitesi, makinelerin iyi olduğu kurallara uymaktan çok daha fazlasına bağlı. İnsanların bir ahlaki pusula ve sağduyulu düşünme kabiliyeti geliştirebilmeleri yıllar almakta ki teknoloji uzmanları, dijital makineleri bu özelliklere göre dizayn etmede hala sorun yaşıyorlar.
 
 
DARPA'nın 2005'te sona eren yapay zeka programları için üç yıl yöneticilik yapan Ron Brachman: "Üç yaşındaki bir bireyin yetkinliğine sahip bir AI sistemi oluşturmak için muhtemelen devasa bir Manhattan Projesi'ne ihtiyacımız var. Geçmişte uzman seviyesinde sistemler, çok sağlam robotlar geliştirdik ve devasa fotoğraf veritabanları sayesinde resimleri analiz etme kabiliyetine sahibiz. Ancak tüm bunları, insanların bazen sağduyu olarak adlandırdıkları şeyler de dahil olmak üzere bir araya getirmek hala ulaşılması zor bir hedef."
 
2013 yılında Savunma Sekreterliği Ofisi'nde Pentagon için yapay zeka hususunda çalışmalar yürüten ve şu anda Pensilvanya Üniversitesi'nde profesör olarak görev yapan Michael Horowitz, bir röportajında "Kompleks gerçekliğe ayak uyduramayan ve tahmin edilemez şekillerde işlev bozukluklarına sebebiyet veren yapay zekalı sistemler hususunda çok fazla endişe mevcut. Bir Google araması yapmaktan ve bir silah sisteminden bahsetmek oldukça farklı iki şeyler" dedi.
 
Horowitz ayrıca "eğer yapay zekalı sistemler sağduyu ile hareket edebildiklerini kanıtlarlarsa yöneticiler ve son kullanıcılar bu sistemleri kullanmak isteyeceklerdir" dedi.
 
Yapay zekanın askeriyedeki kullanım alanının genişletilmesi, makinelerin insanlardan daha hızlı aksiyon alabildikleri gerekçesiyle Savunma Bilimi Kurulu tarafından 2016'da onaylanmıştı. Ancak hızlı kararlar, savaş alanında makinelere güvenmek zorunda kalanlar için yeni şüpheler anlamına geliyor.
 
Raporda şu ifadeler yer alıyor: "Komutanlar, otonominin savaşa uyarlanması ile sağlanan daha iyi, organize, daha güncel ve daha hassas bilgilerin faydalı olacağını anlıyor olmalarına rağmen ciddi endişeler taşıyorlar."
 
Yapay zeka araştırmalarına fon sağlayan tek birim DARPA değil tabii ki. Trump yönetimi şu anda Savunma Bakanlığına bağlı tüm yapay zeka programlarının koordine edilmesini sağlayacak bir Ortak Yapay Zeka Merkezi inşa ediyor, ancak DARPA'nın yatırımı, hedeflediği kapsam nedeniyle ön plana çıkmakta.
 
 
DARPA şu anda yapay zekaya odaklı 25 program yürütmekte; ancak yeni fonun bir kısmını yeni Yapay Zeka Keşif Programı'na aktarmayı planlıyor. Temmuz ayında açıklanan bu program, yapay zeka sistemlerinin karmaşık ortamlarda daha etkin bir şekilde faaliyet göstermelerine olanak tanımak için bağlamsal sistemlerin nasıl eğitilebileceğine dair araştırmaların her birine 1 milyon dolara kadar bağış yapacak.
 
Walker, "Yapay zeka sistemlerini savaş senaryolarında etrafları dikkat dağıtıcı unsurlarla çevrili olsalar bile karar verebilecek ve sonrasında bu kararı operatöre açıklayacak hale getirmek kritik derecede önemli" dedi.
 
(Webtekno)