Czego szukasz?

Systemy sztucznej inteligencji w kontekście wymagań NIS2

29 Oct 2024

Dyrektywa NIS2 stawia przed podmiotami kluczowymi i ważnymi nowe zadania w zakresie cyberbezpieczeństwa. Wiele organizacji wcześniej nie podlegających wymaganiom ustawy będzie zobowiązane do dołączenia do grona firm, które muszą zadbać o znacznie wyższy poziom bezpieczeństwa, niż obecnie posiadają. Warto przypomnieć, że wymagania dyrektywy zostaną wkrótce transponowane do znowelizowanej ustawy o Krajowym Systemie Cyberbezpieczeństwa (KSC).

Zagrożenia związane z wykorzystaniem sztucznej inteligencji w firmach

Coraz częściej słyszymy o sztucznej inteligencji i jej zastosowaniu w wielu firmach w różnych obszarach działalności. Należy jednak mieć świadomość, że brak krytycznego podejścia do wykorzystania narzędzi AI prowadzi do poważnych zagrożeń. Używanie narzędzi, których poziom ochrony nie spełnia minimalnych wymagań technicznych, naraża organizacje na duże ryzyko w obszarze cyberbezpieczeństwa.

Wiele firm podejmuje działania mające na celu poprawę bezpieczeństwa procesów organizacyjnych, jednak ocena używanych przez nie narzędzi nadal pozostaje daleko w tyle, szczególnie jeśli chodzi o aplikacje wykorzystujące procesy uczenia maszynowego. Często zapomina się o tym i pozwala pracownikom na pełną swobodę w zakresie używania narzędzi zewnętrznych, takich jak Chat GPT, czy niesprawdzonych i niewłaściwie zabezpieczonych repozytoriów modeli AI, które nie tylko mogą agregować przetwarzane informacje i wprowadzać elementy stronniczości, ale także zagrażać wyciekiem danych.

Mówiąc o NIS2, z założenia wiemy, że dążenie do integracji technologii zwiększających cyberbezpieczeństwo obejmuje także sztuczną inteligencję, która potrafi działać na korzyść organizacji, lecz niewłaściwie zastosowana może również zmniejszyć bezpieczeństwo lub wręcz zwiększyć potencjalne zagrożenia w funkcjonowaniu systemów obrony.

Dotychczasowe ataki przeprowadzane przez cyberkryminalistów zyskały nowy wymiar. Konieczne jest więc wdrożenie adekwatnych zabezpieczeń poprzez podmioty, dla których cyberbezpieczeństwo jest jednym z najistotniejszych elementów świadczenia usług.

To, w czym sztuczna inteligencja jest dzisiaj naprawdę dobra, to tworzenie superrealistycznych wiadomości phishingowych, które bezbłędnie naśladują rzeczywiste maile, np. te wysyłane przez najwyższe kierownictwo do swoich pracowników. Potrafią także, z dbałością o najmniejsze detale, stworzyć całą witrynę organizacji, do złudzenia przypominającą rzeczywisty portal wraz z całym backendem. Jest on w stanie przykładowo obsłużyć fikcyjne zamówienia i w ten sposób uwiarygodnić swoje działanie.

Również w zakresie tworzenia nowych „wirusów” i ich wariacji AI nie ma sobie równych, szczególnie jeśli chodzi o szybkość dostosowywania kodu do rzeczywistych potrzeb. W efekcie uzyskuje maksymalny „zwrot z inwestycji” w odniesieniu do czasu i zasobów zainwestowanych w przeprowadzenie ataku.

Incydenty dotyczące prywatności danych

Także podejście do sztucznej inteligencji ze strony ludzi zajmujących się jej zastosowaniem jest niezwykle niebezpieczne. Niedawno, światowa prasa donosiła o bardzo poważnym incydencie dotyczącym prywatności osób. Studenci z Harvardu stworzyli I-XRAY, system łączący inteligentne okulary Ray-Ban firmy Meta z wbudowaną kamerą przesyłającą strumieniowo wideo na Instagram z technologią rozpoznawania twarzy w celu identyfikacji i pozyskiwania danych osób spotykanych w przestrzeni publicznej.

Wcześniej informowano o naruszeniu danych osobowych spowodowanym przez australijską firmę Outabox, zajmującą się rozpoznawaniem twarzy, co wzbudziło poważne obawy dotyczące sposobu zabezpieczenia informacji przez firmy będące w posiadaniu dużych zbiorów wrażliwych danych i skłoniło władze i agencje federalne, do wszczęcia dochodzenia.

To tylko kilka przypadków pokazujących, że AI rozwija się w takim tempie, iż zapomina się o podstawowej higienie i bezpieczeństwie tych systemów. Celem samym w sobie staje się po prostu zbudowanie aplikacji lub narzędzia, które pozwoli na „bycie pierwszym” na rynku. Interesującym źródłem opisującym przypadki takich incydentów jest strona: https://www.aiaaic.org. Osoby odpowiedzialne za bezpieczeństwo systemów powinny na bieżąco monitorować tego typu źródła, by zawczasu umieć rozpoznawać podobne incydenty w swoich organizacjach.

Sztuczna inteligencja w walce z cyberzagrożeniami

Coraz więcej mówi się także o zastosowaniu narzędzi AI do wykrywania zagrożeń i zapobiegania cyberatakom. W tym przypadku AI staje po „niebieskiej stronie” granicy i wykorzystuje uczenie maszynowe do uniknięcia ataku lub przynajmniej zminimalizowania jego skutków. Mam tu na myśli wszystkie zaawansowane narzędzia i urządzenia, takie jak systemy wykrywania włamań oparte na sztucznej inteligencji.

Musimy umieć dostosować się do tej nowej rzeczywistości, ale jednocześnie powinniśmy zadbać o to, by AI było godnym zaufania narzędziem wspomagającym procesy ochrony przed zagrożeniami. Zarówno modele sztucznej inteligencji, jak i ludzie dopiero uczą się wzajemnej koegzystencji, dlatego należy dołożyć starań, by wdrażanie takich narzędzi zawsze łączyło się z oceną ryzyka ich użycia w porównaniu do oczekiwanych korzyści.

ISO/IEC 42001 narzędziem oceny spełnienia wymagań NIS2 

Dyrektywa NIS2 i narzędzia oceny Dyrektywa NIS2 bezwzględnie wymaga wdrożenia mechanizmów, które znacząco zwiększają cyberodporność organizacji podlegających jej przepisom. Spowoduje to wymuszenie zastosowania zasad bezpieczeństwa również w organizacjach świadczących usługi na rzecz podmiotów kluczowych i ważnych. Także one będą musiały przynajmniej częściowo dostosować się do wymagań nakładanych przez NIS2.

Patrząc wstecz na sposoby weryfikacji zgodności z wymaganiami NIS/KSC widać, że audytorzy nie mieli do dyspozycji odpowiednich narzędzi do weryfikacji, czy organizacje podlegające pod ustawę KSC, które używają aplikacji AI, dokonały odpowiedniej oceny takich systemów przed ich implementacją.

Dwa ostatnie lata były szczególne dla prac nad wdrażaniem rozwiązań w zakresie ucywilizowania działań związanych z używaniem sztucznej inteligencji, kwestii legislacyjnych oraz określenia kategorii zakazanych praktyk. Pojawienie się pod koniec 2023 roku pierwszego wydania normy ISO/IEC 42001 (system zarządzania sztuczną inteligencją) oraz wejście w życie AI Act w sierpniu 2024 roku, stworzyło solidne podstawy do oceny rozwiązań AI w organizacjach.

Audytorzy sprawdzający, czy dana organizacja stosuje się do wymagań cyberbezpieczeństwa, będą oczekiwać dowodów na to, że także rozwiązania AI zostały wdrożone zgodnie z najlepszymi praktykami w zakresie implementacji bezpiecznych systemów.

Pamiętajmy o tym, że AI nie jest oddzielnym bytem, ale osadzonym na technicznych rozwiązaniach organizmem, który może doświadczać wielu ataków na różnych poziomach. W związku z tym konieczne jest zadbanie nie tylko o sam model, ale także o infrastrukturę, na której jest on osadzony. Nie możemy więc zapominać o cyberbezpieczeństwie i skupiać się tylko i wyłącznie na zabezpieczaniu modeli na poziomie ich „warstwy aplikacyjnej czy bazodanowej”. Wszystkie obowiązujące przed pojawieniem się AI wektory ataków nadal pozostają aktualne.

Firmy zajmujące się tworzeniem rozwiązań AI będą zobowiązane do implementacji wymagań prawnych narzuconych przez AI Act. W wielu przypadkach będą starały się również udowodnić zgodność swojego funkcjonowania z normą ISO/IEC 42001. Staje się ona bowiem, doskonałym narzędziem wyróżniającym takie organizacje na tle innych producentów zajmujących się tworzeniem podobnych rozwiązań AI. Wyniki takich audytów przełożą się z kolei na zapewnienie, że aplikacje używane przez podmioty kluczowe i ważne będą dużo bezpieczniejsze.

ISO/IEC 42001 co prawda nie ocenia samego produktu, ale aplikacje wytwarzane przez firmy, które wdrożą u siebie system zarządzania sztuczną inteligencją będą znacznie bezpieczniejsze. Wynika to z konieczności dostosowania się do wymagań normy, a także spełnienia wymagań prawnych, które mają zastosowanie w danej organizacji.

W efekcie prac nad wyżej wspomnianymi zmianami legislacyjnymi, obecnie dysponujemy już znacznie bardziej precyzyjnymi narzędziami do oceny organizacji pod kątem spełnienia wymagań w zakresie cyberbezpieczeństwa. Audytorzy przeprowadzając audyt zgodności z założeniami KSC, mogą korzystać nie tylko z normy ISO/IEC 27001 czy ISO 22301, ale także mogą się posiłkować normą ISO/IEC 42001 oraz wymaganiami AI Act jako elementami odniesienia do spełnienia przez firmę wymagań dotyczących funkcjonowania bezpiecznych systemów.

Jednym z bardzo ciekawych narzędzi, które pojawia się w kontekście oceny systemów AI, jest mechanizm AI System Impact Assessment (punkt 8.4) z normy ISO/IEC 42001. W połączeniu ze szczegółową oceną technicznych rozwiązań AI, wyników testów i innych zaawansowanych analiz, pozwoli on na zapewnienie ogólnego bezpieczeństwa w organizacji stosującej nowinki AI w różnych obszarach ich funkcjonowania.

Droga do zgodności z dyrektywą NIS2 i ustawą KSC

Z perspektywy firm i organizacji objętych dyrektywą NIS2 i ustawą KSC, pierwszy krok to podjęcie najprostszych działań w podejściu do kwestii związanych z bezpieczeństwem i spełnieniem ustawowych wymogów. Następnie należy ciągle doskonalić dojrzałość systemu obrony poprzez używanie zaawansowanych, odpowiednio przetestowanych narzędzi. Konieczne jest również poddawanie się okresowym ocenom, które zawsze pozwalają na spojrzenie osób z zewnątrz na to, jakie kwestie należałoby jeszcze poprawić w ramach ciągłego doskonalenia. Można to zrealizować poprzez przeprowadzenie niezależnego audytu lub uzyskanie certyfikatu ISO, który poparty jest także działaniami audytowymi. Podmioty kluczowe i ważne będą też zobowiązane do cyklicznego przeprowadzania audytów KSC.

Jak SGS może pomóc?

SGS jest światowym liderem na rynku usług TIC (Testing-Inspection-Certification). Pierwszy w Polsce, ale jednocześnie też na świecie certyfikat ISO/IEC 42001 został wydany właśnie przez SGS. Nasza sieć cyberlaboratoriów SGS Brightsight: Security Evaluation Lab przoduje na rynku w certyfikacji Common Criteria, skupiając się na nowych metodach testowania różnego rodzaju narzędzi oraz metodach testowania sztucznej inteligencji.

Już dziś warto przygotować i szkolić zespoły w zakresie systemu zarządzania bezpieczeństwem informacji oraz systemu zarządzania sztuczną inteligencją. Nabyte kompetencje pozwolą lepiej zrozumieć zależności między cyberbezpieczeństwem, sztuczną inteligencją oraz wymaganiami NIS2/KSC.

SGS oferuje szereg szkoleń prowadzonych przez kompetentnych praktyków, audytorów i wdrożeniowców w obszarach cyberbezpieczeństwa, ciągłości działania, audytów KSC oraz zarządzania systemami sztucznej inteligencji. Wszystkie szkolenia dostępne są na stronie Akademii SGS.

 

Cezary Zagórski, audytor w SGS Polska

O SGS

Jesteśmy SGS – światowym liderem w dziedzinie badań, inspekcji i certyfikacji. Jesteśmy uznawani za globalny punkt odniesienia w zakresie zrównoważonego rozwoju, jakości oraz rzetelności. Naszych 99 600 pracowników obsługuje sieć 2 600 biur i laboratoriów na całym świecie.

Skontaktuj się z nami

  • SGS Polska - Siedziba główna

Al. Jerozolimskie 146A,

02-305,

Warszawa, Mazowieckie,

Polska