Kiedy pisałem o Andurilu w 2018 roku, firma wyraźnie stwierdziła, że nie będzie produkować śmiercionośnej broni. Teraz budujesz myśliwce, podwodne drony i inną śmiercionośną broń wojenną. Dlaczego zrobiłeś ten obrót?
Odpowiedzieliśmy na to, co zobaczyliśmy, nie tylko w naszej armii, ale także na całym świecie. Chcemy dążyć do zapewniania najlepszych możliwości w możliwie najbardziej etyczny sposób. Alternatywą jest to, że ktoś i tak to zrobi, a my wierzymy, że możemy to zrobić najlepiej.
Czy zanim przekroczyłeś tę granicę, odbyły się głębokie dyskusje?
Toczy się ciągła wewnętrzna dyskusja na temat tego, co zbudować i czy jest to zgodne etycznie z naszą misją. Nie sądzę, że próba ustalenia własnego stanowiska ma jakikolwiek sens, podczas gdy rząd go faktycznie wyznacza. Dali jasne wytyczne co do tego, co zamierza zrobić wojsko. Podążamy za przykładem naszego demokratycznie wybranego rządu, który informuje nas o swoich problemach i o tym, w jaki sposób możemy być pomocni.
Jaka jest właściwa rola autonomicznej sztucznej inteligencji w działaniach wojennych?
Na szczęście Departament Obrony Stanów Zjednoczonych wykonał w tej sprawie więcej pracy niż jakakolwiek inna organizacja na świecie, z wyjątkiem dużych firm zajmujących się podstawowym modelem generatywnej sztucznej inteligencji. Istnieją jasne zasady zaangażowania, dzięki którym ludzie są na bieżąco. Chcesz odciągnąć ludzi od nudnych, brudnych i niebezpiecznych prac oraz usprawnić podejmowanie decyzji, jednocześnie zawsze utrzymując osobę odpowiedzialną na koniec dnia. Taki jest cel całej wprowadzonej polityki, niezależnie od rozwoju sytuacji w zakresie autonomii w ciągu najbliższych pięciu czy dziesięciu lat.
Podczas konfliktu może pojawić się pokusa, aby nie czekać, aż ludzie zaczną działać, gdy cele pojawią się natychmiast, zwłaszcza z bronią taką jak autonomiczne myśliwce.
Program autonomiczny, nad którym pracujemy dla samolotu Fury [a fighter used by the US Navy and Marine Corps] nosi nazwę CCA, Collaborative Combat Aircraft. W samolocie znajduje się człowiek, który kontroluje i dowodzi robotami myśliwskimi oraz decyduje, co mają robić.
A co z dronami, które budujesz, które wiszą w powietrzu, dopóki nie zobaczą celu, a następnie nie rzucą się na niego?
Istnieje klasyfikacja dronów zwanych amunicją krążącą, czyli samolotami, które wyszukują cele, a następnie mają zdolność kinetycznego natarcia na te cele, coś w rodzaju kamikadze. Powtórzę: masz człowieka, który jest odpowiedzialny.
Wojna jest brudna. Czy nie istnieje autentyczna obawa, że zasady te zostaną odrzucone po rozpoczęciu działań wojennych?
Ludzie toczą wojny i ludzie mają wady. Popełniamy błędy. Nawet gdy staliśmy w kolejkach i strzelaliśmy do siebie z muszkietów, istniał proces orzekania o naruszeniu prawa zaangażowania. Myślę, że to się utrzyma. Czy sądzę, że nigdy nie będzie sytuacji, w której jakiś autonomiczny system zostanie poproszony o zrobienie czegoś, co będzie można uznać za rażące naruszenie zasad etycznych? Oczywiście, że nie, ponieważ nadal rządzą ludzie. Czy uważam, że bardziej etyczne jest ściganie niebezpiecznego, chaotycznego konfliktu za pomocą robotów, które są bardziej precyzyjne, bardziej wybredne i rzadziej prowadzą do eskalacji? Tak. Decydowanie nie takie postępowanie oznacza dalsze narażanie ludzi na niebezpieczeństwo.
Jestem pewien, że znasz końcowe przesłanie Eisenhowera na temat niebezpieczeństw związanych z kompleksem wojskowo-przemysłowym, który służy swoim własnym potrzebom. Czy to ostrzeżenie ma wpływ na sposób, w jaki działasz?
To jedno z najwspanialszych przemówień wszechczasów — czytam je przynajmniej raz w roku. Eisenhower formułował kompleks wojskowo-przemysłowy, w którym rząd nie różni się zbytnio od wykonawców takich jak Lockheed Martin, Boeing, Northrop Grumman, General Dynamics. Na wyższych szczeblach tych firm otwierają się drzwi obrotowe i dzięki tym wzajemnym powiązaniom stają się one ośrodkami władzy. Anduril forsuje bardziej komercyjne podejście, które nie opiera się na ściśle powiązanej strukturze motywacyjnej. Mówimy: „Budujmy rzeczy najniższym kosztem, korzystając z gotowych technologii i róbmy to w sposób, w którym bierzemy na siebie duże ryzyko”. Pozwala to uniknąć części potencjalnego napięcia, które zidentyfikował Eisenhower.