Ataki socjotechniczne – zagrożenie dla ochrony danych

Autor: Soczko i Partnerzy — w kategorii Komunikaty IOD-y — 13 maja 2023

13

maj
2023

Socjotechnika to rodzaj ataków bazujących na ludzkich interakcjach przeprowadzanych przez
cyberprzestępców w celu złamania procedur bezpieczeństwa i zabezpieczeń organizacji. 

Skutecznie przeprowadzony atak może umożliwić przestępcom osiągnięcie własnych korzyści np. zarobkowych na skutek sprzedaży wrażliwych dla organizacji informacji.

Cyberprzestępca dokonując ataków socjotechnicznych będzie mógł podawać się za:

  • zagubioną, skromną osobę, szanującą innych ludzi;

  • nowego pracownika;

  • pracownika dostawcy zamówionych usług, np. konserwatora budynku, pracownika serwisu technicznego, czy serwisu sprzątającego;

  • przedstawiciela organów ścigania, jednostek rządowych lub instytucji nadzorujących

Atakujący przeprowadzając rozmowy telefoniczne może być w stanie zebrać informacje wystarczające
do przeprowadzenia infiltracji sieci organizacji. Cyberprzestępca może zbierać pożądane informacje
kontaktując się nawet z kilkoma osobami z organizacji i może powoływać się lub polegać na informacjach wcześniej uzyskanych.

Ponadto skutecznie przeprowadzone ataki socjotechniczne często bazują na wywoływaniu różnych
emocji:

  • chciwości – np. oferując wspaniałą promocję, dostępną po kliknięciu w link, znajdujący się w wiadomości mailowej (phishing) lub SMS (smishing);

  • ciekawości – np. udostępniając link do rzekomo sensacyjnych informacji;

  • nerwowości – np. przedstawiając sytuację wymagającą natychmiastowego działania, najczęściej podczas rozmowy telefonicznej (vishing);

  • dobroczynności – np. przestępcy mogą podawać się za organizacje charytatywne, rzekomo zbierające datki dla potrzebujących i wzywające do udzielenia pomocy;

  • strachu – np. przedstawiając informacje o rzekomym dostępie do konta pocztowego lub poufnych danych, które w szczegółach zostaną przekazane po wprowadzeniu danych do logowania lub kliknięciu w link.

TYPOWE CZYNNIKI WSKAZUJĄCE NA PRÓBY PRZEPROWADZENIA ATAKU SOCJOTECHNICZNEGO W KOMUNIKACJI MAILOWEJ

  • bądź czujny i podejrzliwy w każdym przypadku niezamówionych rozmów telefonicznych, wizyt, wiadomości mailowych, w których druga strona próbuje uzyskać informacje na temat pracowników lub organizacji. Jeżeli osoba podaje się za przedstawiciela danej organizacji / instytucji, postaraj się zweryfikować jej tożsamość kontaktując się z właściwą tym podmiotem;
  • nie przekazuj danych osobowych lub innych informacji, zwłaszcza na temat infrastruktury IT, zanim nie będziesz pewny tożsamości osoby, która wnioskuje o ich udostępnienie;
  • w przypadku wystąpienia podejrzeń dotyczących otrzymanej wiadomości lub innej próby kontaktu, nie podejmuj pochopnych działań i zgłoś incydent bezpieczeństwa.

 

JAK UNIKNĄĆ ATAKÓW SOCJOTECHNICZNYCH

  • bądź czujny i podejrzliwy w każdym przypadku niezamówionych rozmów telefonicznych, wizyt,wiadomości mailowych, w których druga strona próbuje uzyskać informacje na temat pracownikówlub organizacji. Jeżeli osoba podaje się za przedstawiciela danej organizacji / instytucji, postaraj sięzweryfikować jej tożsamość kontaktując się z właściwą tym podmiotem;
  • nie przekazuj danych osobowych lub innych informacji, zwłaszcza na temat infrastruktury IT,zanim nie będziesz pewny tożsamości osoby, która wnioskuje o ich udostępnienie;

  • przypadku wystąpienia podejrzeń dotyczących otrzymanej wiadomości lub innej próbykontaktu, nie podejmuj pochopnych działań i zgłoś incydent bezpieczeństwa.

ZAGROŻENIA ZWIĄZANE Z ROZWOJEM SZTUCZNEJ INTELIGENCJI

Rozwój sztucznej inteligencji ma swoje zalety i wady. Niewątpliwie do „minusów” można zaliczyć zagrożenia w postaci ataków socjotechnicznych przy jej wykorzystaniu. Już w 2019 r. portal Sekurak informował, że wystarczy raptem 5 sekund nagrania głosu ofiary, aby zsyntetyzować wypowiedziane rzekomo przez nią fałszywe zdania.

W ostatnich latach można zaobserwować rozwój tzw. deepfake. Jest to technika obróbki obrazu, która polega na animowaniu wizerunków twarzy ludzkich przy użyciu technik sztucznej inteligencji. Przy pomocy deepfake można stworzyć film, na którym spreparowany, niedający się odróżnić od oryginału, awatar będzie wypowiadał zdania, których prawdziwa osoba nigdy nie wypowiedziała. Niedawno mogliśmy zaobserwować w Internecie nagrania stworzone za pomocą tego mechanizmu, które wykorzystywały wizerunki znanych polityków. Nagrania stworzone przy pomocy deepfake mogą mieć charakter humorystyczny, ale za ich pomocą może być również przeprowadzony atak socjotechniczny oraz szerzona dezinformacja.

Amerykańska Agencja DARPA, która działa w strukturach Departamentu Obrony Stanów Zjednoczonych bada technologię deepfake. Angażuje się również w działania mające na celu ograniczenie jej negatywnych skutków. W ramach projektu Semantic Forensics DARPA pracuje nad metodami wykrywania zmanipulowanych treści. Natomiast w ramach projektu Media Forensics planowane są przez agencję działania prewencyjne.

W celu ochrony przed atakami przeprowadzanymi przy użyciu sztucznej inteligencji zaleca się zachowanie szczególnej ostrożności oraz nieufności wobec postaci i przedmiotów, których nie można realnie zobaczyć. Bardzo ważne jest też śledzenie najnowszych doniesień dotyczących cyberbezpieczeństwa. Należy pamiętać, że za pomocą deepfake można spreparować nie tylko wizerunki znanych polityków, ale również innych ludzi. A taka możliwość będzie coraz bardziej dostępna i niebawem może stać się powszechna.

Dołącz do dyskusji

Podanie adresu e-mail jest związane z moderacją treści komentarza, w szczególności z ewentualnym kontaktem z Użytkownikiem, w celu uzgodnienia ostatecznej treści, co stanowi prawnie uzasadniony interes administratora. Po opublikowaniu komentarza widoczna jest jedynie jego treść i data publikacji oraz imię autora, reszta danych jest niezwłocznie usuwana. Szczegóły dotyczące przetwarzania danych osobowych zawarte są w Polityce prywatności.