Nowa Europa Wschodnia (logo/link)
Moscoviada > Kałasz / 06.07.2023
Anna Wittenberg

Sztuczna inteligencja walczy w Ukrainie. AI pomaga ratować, zabijać i budzi kontrowersje

Sztuczna inteligencja pomaga identyfikować rosyjskich żołnierzy, wyszukiwać cele czy przejmować komunikację przeciwnika. Stanowi również nieodłączny element prowadzenia propagandy i kampanii dezinformacyjnych. To wielozadaniowe narzędzie wzbudza wiele kontrowersji związanych z jego używaniem w warunkach wojennych. Wykorzystywanie AI w trakcie wojny rodzi wiele pytań w związku z międzynarodowym prawem humanitarnym konfliktów zbrojnych.
Foto tytułowe
(Shutterstock)


„W jednym z ukraińskich szpitali znalazł się mężczyzna utrzymujący, że jest naszym żołnierzem. Cierpiał ponoć z powodu szoku wywołanego bombardowaniem. Mówił, że doświadczył traumy i wszystko zapomniał. Lekarz przesłał nam zdjęcie, a my w ciągu zaledwie kilku minut mogliśmy go zidentyfikować. Znaleźliśmy jego profil w sieci społecznościowej i odkryliśmy, że jest Rosjaninem. Oczywiście został pociągnięty do odpowiedzialności” – Myhajło Fedorow, minister transformacji cyfrowej Ukrainy chwali się na stronie internetowej amerykańskiej firmy Clearview AI. Od początku rosyjskiej napaści szuka sposobów, by wykorzystać nowoczesne technologie w służbie swojego kraju. Desperacko potrzebując wsparcia, Ukraina stała się poligonem dla cyfrowych rozwiązań. Chrzest ognia przechodzą tam zwłaszcza te produkty, które w spokojniejszych częściach świata budzą kontrowersje.


Chcemy powiadomić matki, że straciły swoich synów


Tożsamość żołnierza, o którym mówił Fedorow, pomogła ustalić właśnie Clearview AI. Jej narzędzie do rozpoznawania twarzy ma imponujące zdolności – wystarczy wgrać zdjęcie w aplikację, a dzięki zaawansowanym algorytmom dopasuje je ona do jednego z 10 miliardów obrazów znajdujących się w bazie. Aby ją stworzyć, firma przy pomocy specjalnych programów komputerowych w zautomatyzowany sposób pobierała zdjęcia z serwisów: pochodzących z USA Facebooka czy Instagrama, ale też rosyjskich VKontakte i Odnoklassniki. Jak chwali się firma, co piąty obraz w jej zasobach pochodzi właśnie z tych dwóch ostatnich mediów społecznościowych.

Technologia dostarczona przez Clearview AI szybko stała się jednym z ważnych ukraińskich narzędzi cyfrowych. Dziś używa jej siedem różnych agencji, w tym wojsko i straż graniczna, dostęp do bazy ma ponad 900 użytkowników. Łącznie w systemie wykonano już 125 tysięcy wyszukiwań. Jak podają władze Ukrainy, dzięki technologii zidentyfikowano 7,5 tysięcy podejrzanych o przestępstwa, a 125 rosyjskich żołnierzy ma postawione zarzuty. Clearview AI pomagało w łączeniu rodzin, poszukiwaniach zaginionych, wykrywaniu dezinformacji, wzmacnianiu bezpieczeństwa w punktach kontrolnych czy ujawnianiu szpiegów. Stało się także podwaliną jednej z najbardziej spektakularnych operacji w wojnie informacyjnej.

Dzięki algorytmom sztucznej inteligencji Clearview AI może rozpoznawać nawet twarze ze znacznymi urazami. Ukraińcy zaczęli więc przy jego pomocy identyfikować zwłoki zabitych rosyjskich żołnierzy, a następnie kontaktować się z ich rodzinami. „Rozpowszechniamy informację za pośrednictwem mediów społecznościowych. To uprzejmość dla matek, chcemy przynajmniej powiadomić rodziny, że straciły swoich synów, a następnie umożliwić im przybycie po ich ciała” – komentował Fedorow. Inni członkowie jego rządu przekonywali, że mogło to mieć wpływ na powolne postępy mobilizacji w Rosji.


Wszyscy tak robią


Jak Clearview AI trafił na Ukrainę? Firma sama zaproponowała swoje usługi. Na początku marca 2022 roku jej prezes Hoan Ton-That zaoferował ukraińskiemu rządowi nie tylko bezpłatny dostęp do technologii, ale też przeszkolenie z jej obsługi. „Moje serce jest z Ukraińcami, mam nadzieję, że nasza technologia może być użyta, by przeciwdziałać krzywdzie, ratować niewinnych ludzi i ocalić życia” – zapewniał.

Choć Ukraińcy według oficjalnych informacji nie zapłacili za zaawansowany system, w rzeczywistości nie ma nic za darmo. Studium tego przypadku stało się bowiem swoistym wojennym CSR (od ang. corporate social responsibility, społeczna odpowiedzialność biznesu), czyli transakcją wiązaną, w której jedna strona otrzymuje od firmy pomoc, a sama spółka – poprawę wizerunku. To zresztą ze strony internetowej firmy pochodzą wszystkie cytaty ukraińskich oficjeli użyte w tym artykule. Clearview AI było to potrzebne, bo kiedy Ton-That oferował rządowi Ukrainy swoją pomoc, toczyły się wobec niego postępowania europejskich i amerykańskich regulatorów, którzy zarzucali mu rażące naruszenia prywatności internautów. Dane o nich były zbierane z pogwałceniem regulaminów serwisów społecznościowych. Ton-That przekonywał w mediach, że „wszyscy tak robią”.

Krótko po propozycji Ton-Thata złożonej rządowi Ukrainy włoski urząd ochrony danych nałożył na Clearview AI 20 milionów euro kary. To najwyższa możliwa stawka przewidziana przez RODO. W maju brytyjski urząd dodał kolejnych 8 milionów, potem po 20 milionów dodały Grecja i Francja. To dla firmy nie byle co – według branżowego portalu CB Insights łączna wartość wyemitowanych przez spółkę akcji wynosiła 38 milionów dolarów.

A to nie wszystko – polecono również usunięcie z bazy danych fotografii mieszkańców tych krajów i zakazano zbierania ich w przyszłości. W stanie Illinois Clearview AI dostał z kolei zakaz sprzedaży swoich produktów – zarówno służbom, jak i biznesowi – przez kolejnych pięć lat.


Co widać w Palantirze


Inną firmą technologiczną, która świadczy usługi dla ukraińskiej armii, jest Palantir. Spółka, której nazwa nawiązuje do magicznej „widzącej kuli” z Władcy Pierścieni J.R.R. Tolkiena, zajmuje się analityką danych. Jej odbiorcami są m.in. Departament Obrony USA, CIA i FBI.

W Ukrainie Palantir staje się kluczowy dla coraz większej liczby zadań – od udzielania pomocy humanitarnej przez operacje na polu bitwy. Przykłady? Tuż po pełnoskalowej inwazji Rosji na Ukrainę pojawiła się pilna potrzeba, by znaleźć domy dla uciekających przed wojną. Wielka Brytania wezwała na pomoc właśnie amerykańską spółkę. Opierając się na jej oprogramowaniu, uruchomiła aplikację Homes for Ukraine, która miała zapewnić bezpieczne przesiedlenie uchodźców. W ciągu doby od uruchomienia program otrzymał ponad 120 tysięcy ofert zakwaterowania.

Palantir pomaga także dokumentować rosyjskie zbrodnie wojenne – dostarczył prokuratorowi generalnemu kraju oprogramowanie kojarzące domniemane akty przestępstw z rosyjskimi jednostkami wojskowymi. W przyszłości natomiast opracowane przez nią rozwiązania będą kluczowe w odbudowie kraju. Dzięki analizie danych dotyczących rozmieszczenia uczniów ma np. pomóc w podejmowaniu decyzji o lokalizacjach nowych szkół. Inwestorzy nie mają wątpliwości, że będzie to dla firmy intratny biznes – kiedy tylko ogłoszono zapowiedź partnerstwa, wartość akcji Palantira podskoczyła o ponad 10%.


A i to nie koniec, bo w lutym 2023 roku prezes Palantira Alex Karp przyznał, że Ukraińcy wykorzystywali jego technologię także do celów stricte wojskowych – dzięki niej namierzali cele. System, jakiego w tym celu używają Ukraińcy, to MetaConstellation. Opiera się na danych zebranych z komercyjnych satelit, czujników ciepła czy dronów zwiadowczych, ale też na bardziej tradycyjnych źródłach, czyli po prostu szpiegach. Jaka jest skuteczność takiej technologii? Jak w wywiadzie dla „The Timesa” przyznał gen. Richard Barrons, który dowodził brytyjskimi jednostkami w Iraku i Afganistanie, o ile jeszcze dwie dekady temu dowództwo armii było w stanie wskazywać 10 celów dziennie, dziś taka sama jednostka może ich namierzyć 300.

Alex Karp coraz częściej przyrównuje posiadanie zaawansowanych systemów sztucznej inteligencji do broni nuklearnej. Nie on jeden. W lutym tego roku holenderski rząd zwołał pierwszy międzynarodowy szczyt poświęcony odpowiedzialnemu wykorzystaniu sztucznej inteligencji w wojsku. W czasie jego inauguracji takie samo oświadczenie jak prezes Palantira wygłosił wicepremier i minister spraw zagranicznych Holandii Wopke Hoekstra. W szczycie wzięło udział 50 państw, w tym Chiny (Rosja nie została zaproszona). Uczestnicy podpisali deklarację, w której zobowiązali się podjąć współpracę na rzecz odpowiednich zabezpieczeń i ludzkiego nadzoru nad wykorzystaniem systemów opartych na sztucznej inteligencji.

Także w Polsce użycie AI w armii jest przedmiotem dyskusji. W kwietniu tego roku prezydent Andrzej Duda podpisał postanowienie dotyczące głównych kierunków rozwoju Sił Zbrojnych RP na lata 2025–2039. Wśród systemów, w jakie powinno być wyposażone wojsko, na równi z systemami obrony powietrznej wymieniono AI i programy do analizy big data.


Zełenski kapituluje, Putin ogłasza stan wojenny


Sztuczna inteligencja walcząca na Ukrainie to jednak nie tylko wielkie systemy tworzone przez wyspecjalizowane firmy. To także informacyjna partyzantka, która wykorzystuje rozprzestrzeniające się z prędkością błyskawicy narzędzia generatywnej sztucznej inteligencji, jak choćby ChatGPT. Po tym, jak OpenAI udostępniło go publicznie w listopadzie 2022 roku, Ukraina przez blisko pół roku zabiegała, by usługa była dostępna także na jej terytorium (początkowo była tam zablokowana, tak samo jak w Rosji czy Iranie)

Wielkie modele językowe (LLM, od ang. large language models) to zaawansowane systemy sztucznej inteligencji. Są zdolne do generowania tekstów na podstawie ogromnej ilości danych treningowych i mogą być wykorzystywane do różnych zadań, takich jak rozumienie języka naturalnego, tłumaczenie i generowanie treści. Oparte na nich chatboty mogą być potężnym narzędziem w wojnie informacyjnej. Z łatwością stworzą teksty w dowolnym języku, a nawet stylu konkretnego człowieka. Zbudują strony internetowe. Będą analizować dokumenty. Naturalnie mają też ciemną stronę: dane, które do nich wprowadzamy, są przez producentów gromadzone i pomagają w trenowaniu kolejnych generacji algorytmów. Dlatego wiele firm – takich jak choćby Samsung – zakazuje ich użycia, ryzyko ujawnienia tajemnic przedsiębiorstwa jest zbyt wysokie. Nie mówiąc już o tajemnicach wojskowych.

Użycie sztucznej inteligencji w propagandzie to domena obu stron konfliktu. Algorytmy pomagają tworzyć choćby filmy, tzw. deep fake, przedstawiające polityków. Już w marcu 2022 roku Rosjanie wypuścili do internetu nagranie z prezydentem Ukrainy Wołodymyrem Zełenskim, który nawołuje rodaków do złożenia broni. Szybko zostało zidentyfikowane jako nieprawdziwe i usunięte z platform takich jak YouTube czy Facebook. Na początku czerwca tego roku w rosyjskich telewizjach pojawiło się natomiast nagranie, w którym Władimir Putin ogłasza stan wojenny i ostrzega, że zarządzi powszechną mobilizację. Także ono było sfabrykowane. Nie znaleziono jednak autorów akcji.

Chociaż rozprzestrzenianie się dezinformacji nie jest niczym nowym, sztuczna inteligencja oferuje bezprecedensowe możliwości skalowania takich kampanii. Zwłaszcza jeśli połączy się je z zasięgiem oferowanym przez platformy społecznościowe. Sam Telegram, gdzie ze względu na liberalną politykę moderacji treści powszechnie są wymieniane informacje o wojnie, ma miliard użytkowników. W takim środowisku łatwo jest wpuścić do obiegu spreparowane przy użyciu AI kłamstwo.


Gdy dron pomyli cele


Wykorzystanie algorytmów w podejmowaniu decyzji dotyczących wojskowości budzi ogromne kontrowersje. Systemy AI – nawet w zastosowaniach cywilnych – okryte są bowiem nimbem tajemniczości. Choć znane są generalne zasady ich działania, nawet samym twórcom trudno jest prześledzić, dlaczego podejmują takie, a nie inne decyzje. Wyjaśnialność algorytmów jest wciąż przedmiotem zainteresowania naukowców. Na takie analizy grant z Europejskiej Rady ds. Badań Naukowych otrzymał w tym roku prof. Piotr Sankowski z Uniwersytetu Warszawskiego. Jego zdaniem, jeśli ludzie nie będą wiedzieli, dlaczego komputer sugeruje konkretne rozwiązania, nie zdobędzie ich zaufania.

„W wojsku to także ma znaczenie. Sztucznej inteligencji można tu używać dwojako: do wspomagania ludzkich decyzji albo jako podmiotu, który podejmuje decyzje autonomicznie. Pierwsze zastosowanie jest zdecydowanie mniej kontrowersyjne. AI jest wykorzystywane w ten sposób już od lat – przetwarza dane satelitarne, dane wywiadowcze, obraz z kamer. Prawdziwe problemy zaczną się, jeśli armie zdecydują się oddać algorytmom decyzyjność” – mówi mi dr Kaja Kowalczewska, prawniczka z Uniwersytetu Wrocławskiego i autorka publikacji Sztuczna inteligencja na wojnie. Perspektywa międzynarodowego prawa humanitarnego konfliktów zbrojnych.

Co to oznacza? Przykładowo wykorzystanie dronów, które same wyszukują, a następnie likwidują cel. Czyli zabijają człowieka. „Jeśli błędną decyzję podejmie żołnierz, może odpowiedzieć przed sądem. Pociągnięty do odpowiedzialności może być też jego dowódca. A co stanie się, gdy błąd popełni urządzenie? Powinno odpowiedzieć państwo, które go użyło. Ale kto personalnie – nabywca, producent, a może programista, który stworzył niedoskonały algorytm?” – zastanawia się głośno Kowalczewska. Dodaje jednak, że niezależnie od wykorzystywanej technologii, wszystkie strony konfliktów obowiązuje międzynarodowe prawo humanitarne. „Opisane tam zasady muszą być stosowane przez wszystkie strony” – przekonuje.
Anna Wittenberg - jest dziennikarką, pisze w Dzienniku Gazecie Prawnej o wpływie technologii na społeczeństwo. Zajmuje się m.in. tematyką ochrony danych i sztucznej inteligencji. Wcześniej pracowała dla Życia Warszawy, Polskiego Radia i Przekroju. Nominowana do Nagrody im. Romana Czerneckiego za publikacje dotyczące systemu edukacji.

Inne artykuły Anny Wittenberg

Zdaniem Kowalczewskiej trudno będzie uregulować zastosowanie sztucznej inteligencji na szczeblu międzynarodowym. „Państwa dzielą się na te, które mówią, że trzeba tej technologii zakazać, te które mówią, że trzeba wypracować ogólne zasady, i Chiny, których zdaniem nie powinno się używać AI na wojnie, ale można produkować i sprzedawać takie rozwiązania” – mówi prawniczka i dodaje, że jej zdaniem najważniejsze byłoby wprowadzenie zasady, że każdą decyzję AI nadzoruje człowiek.