Północnokoreańscy hakerzy wykorzystują AI do wyłudzania danych wojskowych

Opublikowane przez: Paweł Gilewski

Północnokoreańska grupa hakerska Kimsuky przeprowadziła w ostatnich dniach wyrafinowany atak wymierzony w południowokoreańskie agencje wojskowe, wykorzystując zaawansowane technologie sztucznej inteligencji. Cyberprzestępcy posłużyli się obrazami generowanymi przez AI oraz fałszywymi legitymacjami służbowymi, by podszyć się pod pracowników wojskowych i wyłudzić poufne informacje. Atak wykorzystał złośliwe pliki PDF i SVG, które zawierały ukryty kod, umożliwiający przejęcie kontroli nad urządzeniami ofiar.

  • Północnokoreańska grupa Kimsuky wykorzystała AI do tworzenia fałszywych legitymacji służbowych i przeprowadzenia ataku na południowokoreańskie agencje wojskowe.
  • Hakerzy stosują zaawansowaną inżynierię społeczną, w tym fałszywe profile kandydatów i ukryty złośliwy kod w obrazach AI w plikach PDF i SVG.
  • Ukryty w plikach skrypt (odwrotna powłoka) umożliwia przejęcie kontroli nad urządzeniami ofiar.
  • Ataki phishingowe i kradzież danych uwierzytelniających stanowią znaczącą część udanych włamań, a kradzież plików cookie i tokenów rośnie dynamicznie.
  • Wykorzystanie AI w cyberatakach zwiększa ryzyko wyłudzeń danych wojskowych i wymaga nowych metod ochrony.

Metody zastosowane przez hakerów opierają się na inżynierii społecznej i manipulacji dużymi modelami językowymi, co znacznie utrudnia wykrycie zagrożeń przez tradycyjne systemy bezpieczeństwa. Eksperci ostrzegają, że takie techniki mogą prowadzić do poważnych wyłudzeń danych wojskowych oraz innych wrażliwych informacji, co stanowi istotne wyzwanie dla bezpieczeństwa cybernetycznego w regionie.

Atak grupy Kimsuky na południowokoreańskie agencje wojskowe

W dniu 15 września 2025 roku północnokoreańska grupa hakerska Kimsuky przeprowadziła atak wymierzony w południowokoreańskie agencje wojskowe, wykorzystując obrazy generowane przez sztuczną inteligencję do wyłudzania poufnych danych – podaje Polska Agencja Prasowa. Hakerzy przygotowali fałszywe kopie legitymacji służbowych, które wyglądem nie odbiegały od prawdziwych dokumentów, co pozwoliło im skutecznie podszyć się pod pracowników instytucji wojskowych i zyskać zaufanie ofiar.

Ten incydent jest przykładem rosnącego zastosowania technologii AI w działaniach cyberprzestępczych, co podkreślają eksperci z Palo Alto Networks cytowani przez Polska Agencja Prasowa. Wykorzystanie algorytmów sztucznej inteligencji do tworzenia wiarygodnych obrazów i dokumentów otwiera nowe możliwości dla atakujących, a jednocześnie stawia wyzwania przed obrońcami cyberprzestrzeni.

Zaawansowane techniki inżynierii społecznej i ukryty złośliwy kod

Hakerzy stosują zaawansowane metody inżynierii społecznej, które obejmują tworzenie fałszywych profili kandydatów do pracy, profesjonalnych życiorysów oraz organizację rekrutacji zdalnej, aby uzyskać dostęp do firm i instytucji będących celem ataku – informuje serwis egospodarka.pl. Tego typu działania zwiększają wiarygodność ataków i ułatwiają penetrację zabezpieczeń.

Złośliwy kod jest natomiast ukrywany w obrazach sztucznej inteligencji zapisanych w plikach PDF lub SVG. Na pierwszy rzut oka dokumenty te wyglądają na legalne i nieszkodliwe, co znacznie utrudnia ich wykrycie przez tradycyjne narzędzia bezpieczeństwa – podaje techno-senior.com. W tych plikach umieszczona jest tzw. odwrotna powłoka – czyli skrypt, który daje hakerom zdalną kontrolę nad urządzeniem ofiary, umożliwiając dalsze działania przestępcze.

Manipulacja dużymi modelami językowymi pozwala dodatkowo na tworzenie przekonujących wiadomości oraz podszywanie się pod kluczowych pracowników instytucji, co znacząco zwiększa skuteczność ataków – zauważa egospodarka.pl. Takie podejście łączy możliwości techniczne z psychologicznym oddziaływaniem na ofiary, czyniąc ataki bardziej wyrafinowanymi i trudniejszymi do wykrycia.

Skala zagrożeń i konsekwencje dla cyberbezpieczeństwa

Ataki phishingowe oraz kradzież danych uwierzytelniających stanowią aż 37% wszystkich udanych włamań – wynika z danych przedstawionych przez chip.pl w kontekście rosnących zagrożeń cybernetycznych. To pokazuje, jak skuteczne i powszechne są metody oparte na manipulacji ludźmi oraz przejmowaniu ich danych dostępowych.

W ubiegłym roku zaobserwowano wzrost kradzieży plików cookie i tokenów o 84%, co dodatkowo zwiększa ryzyko nieuprawnionego przejęcia kont oraz dostępu do informacji wrażliwych – podaje chip.pl. Taka dynamika wskazuje na coraz większą skalę zagrożeń i konieczność doskonalenia metod obrony.

Sztuczna inteligencja zmienia zasady gry w cyberatakach, stawiając przed systemami obronnymi zupełnie nowe wyzwania. Żeby skutecznie się przed nimi bronić, trzeba stworzyć świeże strategie i narzędzia, które poradzą sobie z coraz bardziej wyrafinowanymi zagrożeniami. W regionie bezpieczeństwo w sieci wymaga szybkiego i zgranej współpracy zarówno instytucji państwowych, jak i firm prywatnych.

Przeczytaj u przyjaciół: