Sztuczna inteligencja (AI, o której więcej informacji można znaleźć w Komunikacie IOD-y) zrewolucjonizowała wiele sektorów – jest obecna zarówno w przemyśle, transporcie, jak i w medycynie. Niewątpliwie umożliwia ona automatyzację wielu procesów, co z kolei może wiązać się ze zwiększeniem efektywności firm z różnych sektorów gospodarki oraz zmniejszeniem kosztów.
Dlatego narzędzia oparte na AI zrewolucjonizowały wiele branż i ciężko obecnie wyobrazić sobie życia codziennego bez korzystania z nich. Należy jednak pamiętać, że sztuczna inteligencja niesie za sobą nie tylko szanse na rozwój, ale również zagrożenia.
ROSNĄCE RYZYKO NARUSZEŃ
Zagrożenia związane z korzystaniem ze sztucznej inteligencji są widoczne zwłaszcza w kontekście bezpieczeństwa danych osobowych. Wraz z rosnącą ilością informacji gromadzonych i przetwarzanych przez systemy sztucznej inteligencji wzrasta ryzyko naruszeń prywatności. Z kolei nieodpowiednie zarządzanie informacjami może prowadzić do wycieków informacji, nadużyć lub nielegalnego dostępu do poufnych danych.
SZTUCZNA INTELIGENCJA A OCHRONA DANYCH OSOBOWYCH
Wiele osób (zarówno w celach prywatnych, jak i służbowych) niemal bez zastanowienia korzysta z narzędzi opartych na sztucznej inteligencji, udostępniając im przy tym wiele informacji. Wśród nich mogą znaleźć się również dane osobowe lub informacje będące tajemnicą przedsiębiorstwa. Dlatego należy mieć świadomość, że informacje wprowadzone w narzędziach opartych na AI co do zasady nie są przez nie „zapominane”.
Technologie wykorzystujące sztuczną inteligencję w celu rozwijania się muszą być „karmione” danymi, w tym danymi osobowymi. Wiele narzędzi, wprowadzane przez użytkowników informacje, wykorzystuje do automatycznego poprawiania swoich algorytmów na zasadzie zbieranego doświadczenia. Działanie to określane jest mianem uczenia maszynowego. W praktyce można w ten sposób doprowadzić do naruszeń ochrony danych osobowych. Informacje te mogą bowiem trafić do osób nieuprawnionych.
CHAT GPT
Chat GPT jest to zaawansowany duży model językowy (LLM) stworzony przez firmę OpenAI i wytrenowany na ogromnych zbiorach danych tekstowych w modelu uczenia maszynowego. Jego działanie polega na generowaniu tekstu, który ma wyglądać jak napisany przez człowieka. Gdy użytkownik wpisze polecenie lub pytanie (tzw. prompt), Chat GPT zwykle w ciągu kilku sekund wygeneruje odpowiedź. Narzędzie to wykorzystywane jest m.in. w systemach wsparcia klienta, tj. w tzw. chatbotach.
Należy przy tym pamiętać, że dane wprowadzane do narzędzi tego typu mogą być później udostępniane innym użytkownikom. Przykładowo prompt zawierający dane osobowe wpisany do Chata GPT może zostać następnie wykorzystany do udzielenia odpowiedzi innej osobie.
Ponadto do odpowiedzi udzielanych przez Chat GPT i inne podobne narzędzia należy podchodzić z rozwagą. Informacje, na podstawie których generowane są odpowiedzi, pochodzą bowiem z różnych źródeł, takich jak m.in. publikacje zamieszczone w Internecie, które nie zawsze są prawdziwe i aktualne. Na domiar złego, jeśli algorytm Chat GPT nie znajdzie wymaganych informacji, zaczyna zmyślać i podana przez niego odpowiedź nie ma żadnej wartości praktycznej. A jeśli konfabulacja nie zostanie zauważona przez użytkownika, może to doprowadzić do rozprzestrzeniania się dezinformacji. Dlatego do udzielanych odpowiedzi należy podchodzić z pewną dozą nieufności.
JAK UCHRONIĆ ORGANIZACJE PRZED ZAGROŻENIAMI ZWIĄZANYMI ZE SZTUCZNĄ INTELIGENCJĄ
Wiele organizacji decyduje się na wykorzystywanie konkretnych narzędzi opartych na sztucznej inteligencji. Należy jednak najpierw zweryfikować, czy korzystanie z nich jest bezpieczne. Pomocna w tym celu może być wnikliwa analiza regulaminu danego narzędzia. Należy również zweryfikować, czy konieczne jest zawarcie umowy powierzenia przetwarzania danych osobowych z jego dostawcą.
Niezależnie od tego pracownicy mogą samowolnie decydować się na korzystanie z narzędzi opartych na sztucznej inteligencji. Dlatego ważne jest, aby respektować przestrzeganie regulacji wewnętrznych zabraniających korzystania z nieautoryzowanych programów komputerowych. Kierownictwo organizacji powinno również zadbać o podnoszenie świadomości pracowników na temat sztucznej inteligencji, zarówno jej zalet, jak i zagrożeń z nią związanych. M.in. wskazana jest lektura niniejszego Komunikatu IOD-y, w których co jakiś czas będą pojawiać się informacje na temat AI 😊.