Silahlanma yarışında yapay zeka temelli tehlikeli evre, Ostim’de üretilen İHA ile başlamış olabilir

BM raporunda, Libya’da yaşanan çatışmalarda Türkiye menşeili KARGU-2 İHA’nın bir düşman askerini kendi kararıyla vurmuş olabileceği iddiası, yapay zeka odaklı silahlanma konusunda yeni bir çağın açılmış olabileceğini gösteriyor.

Silahlanma yarışında yapay zeka temelli tehlikeli evre, Ostim'de üretilen İHA ile başlamış olabilir

DIŞ HABERLER SERVİSİ

Birleşmiş Milletlerin Mart 2021 tarihli, Libya iç savaşındaki kural ihlallerini tespit eden raporunda yer alan iddiaya göre ilk kez bir İHA yapay zekanın kendi kararı sonucu bir düşmanı tespit edip öldürdü.Merkezi Ostim’de yer alan STM adlı şirkete ait KARGU-2 isimli Türk İHA modelinin yaptığı iddia edilen saldırı, yapay zeka temelli silah teknolojisinde bir ilk. Konuya ilişkin birçok bilim insanı endişeli.

ÇEKİLEN BİR ASKERİ ÖLDÜRDÜ

KARGU-2 isimli İHA modelinin, gerçekten bir hedefi kendi kararıyla bularak öldürdüğüne ilişkin kesin bir kanıt henüz bulunmuyor. Buna rağmen bu teknoloji, herhangi bir insan kullanıcı tarafından veri almadan, kendi algoritması ile düşman tespit edip öldürme kararı verecek şekilde tasarlandı. Standart İHA’lardan farklı olarak, bombardıman yapmak yerine üzerindeki patlayıcılarla hedefe çarparak patlayan drone BM raporundaki iddialara göre bir düşman askerini kendi algoritmasıyla tespit ederek öldürdü. Raporda, savaş alanından çekilmekte olan Hafter askerlerinden birini hedef aldığı belirtilen Drone, yapay zekaya ilişkin yeni tartışmalar da doğurdu.

Raporun yayınlanmasının ardından birçok askeri uzman ve bilim insanı, yeni bir silahlanma yarışını başlatabileceği endişesini dile getirdi. Şu ana kadar herhangi bir manuel komut almaksızın düşman tespiti ve öldürme kararı alan, aktif olarak İsrail’in HARPY ve Türkiye’nin KARGU-2 İHA’ları bulunuyor.

KARARI YAPAY ZEKAYA BIRAKMAK TEHLİKELİ

Algoritma ile kendi başına öldürme kararı verebilen yapay zeka teknolojili silahların yaratacağı güvenlik riski de kaygı doğuruyor. Askeri güvenlik uzmanı Zachary Kallenborg’un yazısını Evrimagaci.org için uyarlayan Çağrı Mert Bakırcı, konuya ilişkin yazıda algoritma temelli hedef tespiti ve öldürme kararının yaratabileceği tehditleri şu şekilde açıklıyor: “Otonom silahlarla ilgili endişe, yapay zeka algoritmalarının ta kendisidir. Bu cihazlar otobüs, kamyon, tır, tank gibi farklı cihazlara ait görseller ve videolar kullanarak eğitiliyorlar. Veri seti hatalı, eksik veya beklenmedik içeriğe sahipse, bu silahlar da hiç hesapta olmayan, yanlış şeyleri öğrenebilirler.

İŞ İŞTEN GEÇMİŞ OLABİLİR

Makina öğrenmesi algoritmaları büyük oranda kara kutu algoritmalardır. Bir taraftan veri girer, diğer taraftan bir sonuç çıkar; ama arada ne olup bittiğini anlayamayız veya anlaması çok güçtür, çünkü sistem çok karmaşıktır. Bu nedenle yanlış bir karar alınacak olursa, bu sorunun neden kaynaklandığını çözemeyebiliriz ve hata olduktan sonra zaten iş işten geçmiş olabilir. Otonom silah geliştiricilerinin, makina öğrenme sistemlerinin hatalı şeyler öğrenmesine neden olan tüm olasılıkları öngörmeleri gerekir – ki bu, şu anki teknoloji ile imkansızdır.”

BİLİM İNSANLARI ENDİŞELİ

Yapay zeka silahlanmasına yönelik endişe, şu ana kadar 4500 bilim insanının imzası olan bir mektupla dile getirildi. Elon Musk, Stephen Hawking gibi isimlerin de dahil olduğu imzacılar, İnsansız Hava Aracı gibi teknolojilerle birlikte ölüm kalım gibi hayati konuların yapay zekaya bırakılmak için henüz erken olduğunu belirtiyorlar.

Yorum yapın