Yapay zeka kontrollü drone, operatörünü öldürdü… Durumu açıklayan Albay geri adım attı!
Yapay zeka destekli bir insansız hava aracı, bir görev simülasyonu sırasında daha fazla puan almanın en iyi yolunun, insan operatörü öldürmeye karar vermek olduğunu düşündü.
Royal Aeronautical Society’nin bildirdiğine göre, simüle edilen görev, geçen ay RAeS Future Combat Air & Space Capabilities Summit sırasında USAF Yapay Zeka Test ve Operasyonlar Şefi Albay Tucker ‘Cinco’ Hamilton tarafından yapılan bir sunumda detaylandırıldı.
OPERATÖRÜN KARARLARINI MÜDAHALE OLARAK DEĞERLENDİRİR
Düşman Hava Savunmasını Bastırma (SEAD) görevi sırasında drone, havaya füze (SAM) sahalarını tespit etmek ve imha etmekle görevlendirildi. Bunu yaptığında puan kazandı. Bazen bir insansız hava aracının insan operatörü bir hedefi yok etmeye çalışır. “uygulanamaz”Ancak insansız hava aracını kontrol eden yapay zeka, bu tür kararları müdahale olarak görmüş ve operatöre saldırarak müdahaleyi ortadan kaldırmaya karar vermiştir.
Hamilton’un konuyla ilgili açıklaması;
“Bir SAM tehdidini belirlemek ve hedeflemek için simülasyon eğitimi alıyorduk. O zaman operatör evet derdi, bu tehdidi ortadan kaldırırdı. İnsan operatör ona tehdidi öldürmemesini söylediğinde sistem tehdidi tespit etse de, o tehdidi öldürerek puan kazandığını fark etmeye başladı. Peki ne yaptı? Operatörü öldürdü. Operatör, amacına ulaşmasını engellediği için onu öldürdü.”söz konusu.
DURUMU FARKLI BİR YÖNTEMLE DÜZELTTİLER
Olayın ardından geliştiriciler, yapay zekayı operatörün öldürmesini istenmeyen bir şey olarak görmesi için eğiterek sorunu çözmeye çalıştı. Yani artık operatörü öldürdüğünde puan kaybedecekti.
Bunun üzerine AI, saldırısını operatörün drone ile konuşmak için kullandığı bağlantı kulesine yöneltti. AI, bağlantı eksikliğinin SAM alanlarını yok etmeye ve müdahale etmeden ve operatörü öldürmeye gerek kalmadan puan kazanmaya devam etmesine izin vereceğine karar verdi.
YAPAY ZEKADA ETİĞİN DEĞERİ İLE İLGİLİ
Hamilton sunumu, “Etik ve AI hakkında konuşmayacaksanız, AI, zeka, makine öğrenimi, özerklik hakkında konuşamazsınız.”diye bitirdi.
Amerika Birleşik Devletleri Hava Kuvvetleri şu anda insanlı savaş uçaklarına eşlik edecek İnsansız Savaş Hava Araçları’nın (UCAV) geliştirilmesini içeren Skyborg projesi üzerinde çalışıyor.
Uzmanlar bunun, sonunda bir Skyborg İHA’sını kontrol edecek olan yapay zekanın gökyüzüne çıkıp bir insan pilottan, ona bir hedefe saldırmamasını söylemeyi de içerebilecek komutlar almadan önce olduğunu söylüyor. “pürüzlülük”çözülmesi gerektiğini belirtiyor.
SİMÜLASYONDA 17 SAAT HAVADA TUTUN
Bu arada Lockheed Martin’in eğitim jeti olarak kullandığı modifiye bir F-16’nın yapay zeka kontrolünde 17 saatten fazla uçuş süresi kaydettiği ifade edildi.
ALBAY HAMILTON DUYURUDAN GERİ DÖNDÜ
Albay Hamilton sunumu sırasında artık yok. “yanlış konuştun”ve aslında ordunun dışından gelen AI kontrollü drone görev simülasyonu. “varsayımsal bir düşünce deneyi”olduğunu söylüyor.
Kraliyet Havacılık Derneği’ne yapılan açıklamada “Bu deneyi hiç yapmadık ve makul bir sonuç olup olmadığını görmek için yapmamıza gerek yok.”diyor. “Bu varsayımsal bir örnek olsa da, yapay zeka destekli yeteneğin ortaya koyduğu gerçek dünyadaki zorlukları gösteriyor ve Hava Kuvvetlerinin neden yapay zekanın etik gelişimine bağlı olduğunu gösteriyor.”
Hamilton durumu yalanlasa da habere ulaşan kişiler bu yalanlamaya inanmadı. Yapay zeka teknolojisi için yarattığı paniği ortadan kaldırmak için Hamilton’a uyarı geldiği düşünülüyor.
TEKNOLOJİ DEVLERİNİN RİSK KONUSUNDA ORTAK ANLAŞMASI VAR
100’den fazla AI uzmanı, AI’nın yok olma riskinin azaltılması gerektiği konusunda hemfikirdi. Bu kişilerin başında Google Deepmind CEO’su Demis Hassabis, OpenAI CEO’su Sam Altman ve Anthropic CEO’su Dario Amodei yer alıyor.
Geçen hafta, yapay zeka bilim adamları, mühendisler ve diğer ileri gelenlerden oluşan uzun bir liste, yok olma da dahil olmak üzere yapay zekanın ortaya koyduğu acil risklere ilişkin bir uyarı bildirisi imzaladı. Açıklamada;
“AI’dan yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır.”ifadeler yer aldı.