AI i ML rewolucjonizują cyberbezpieczeństwo chmury! 91% firm widzi ich potencjał

Sztuczną inteligencję i uczenie maszynowe (AI i ML) uznaje się za kluczowe elementy przyszłości bezpieczeństwa cybernetycznego chmury. W badaniu przeprowadzonym przez firmę Check Point Software zapytano setki specjalistów, w jaki sposób korzystali dotychczas ze sztucznej inteligencji oraz jaki ma ona priorytet dla organizacji. Aż 91% ankietowanych uważa AI za ważny element dla ich bezpieczeństwa, jednak tylko 61% przyznało, że rozpoczęło planowanie lub wdrażanie tego rozwiązania.

W badaniu firmy Check Point Software, realizowanym przez Cybersecurity Insiders, respondenci pytani byli m.in. o stan sztucznej inteligencji w planach bezpieczeństwa cybernetycznego ich organizacji, w tym o stopień jej wdrożenia i przebieg tego wdrażania. Ich odpowiedzi ukazują obraz branży, która rozwija się powoli i ostrożnie. Wydaje się, że organizacje wciąż oceniają korzyści i ryzyko związane z narzędziami AI i ML, a firmy ostrożnie ustalają najlepsze praktyki, które będą zgodne z odpowiednimi przepisami.

61% respondentów zaznaczyło, że w ich firmach technologia AI i ML w cyberbezpieczeństwie jest na etapie „planowania” lub „rozwoju”.  Niemal ¼ ankietowanych (24%) sklasyfikowało postęp prac jako „dojrzewający” lub „zaawansowany”. Jednocześnie 15% specjalistów IT i bezpieczeństwa przyznało, że ich organizacje w ogóle nie wdrożyły sztucznej inteligencji i uczenia maszynowego w obszarze bezpieczeństwa cybernetycznego.

Badacze zapytali również o funkcje bezpieczeństwa cybernetycznego (w chmurze), na które pozytywnie wpłynęła sztuczna inteligencja i uczenie maszynowe. W odpowiedziach przodowało wykrywanie złośliwego oprogramowania (35%), a tuż za nim wskazywana była analiza zachowań użytkowników i bezpieczeństwo łańcucha dostaw. Najmniej organizacji wykorzystuje sztuczną inteligencję do zarządzania stanem bezpieczeństwa. Dane te pokazują, że indywidualne zastosowania AI i ML w cyberbezpieczeństwie są nadal dalekie od powszechności.

Jednym z powodów, dla których wdrażanie sztucznej inteligencji nie następuje w szybszym tempie, jest wyzwanie związane z poruszaniem się w szybko zmieniającym się krajobrazie regulacyjnym. Przepisy i wytyczne rządowe dotyczące sztucznej inteligencji i bezpieczeństwa cybernetycznego wciąż ewoluują. Firmy nie mogą sobie pozwolić na podejmowanie ryzyka w zakresie zgodności, a nadążanie za zmianami może być skomplikowane i wymagać dużych zasobów.

W jaki sposób organizacje podchodzą do sztucznej inteligencji w celu zapewnienia bezpieczeństwa cybernetycznego?

Pomimo ostrożnego jak dotąd wdrażania sztucznej inteligencji w cyberbezpieczeństwie, powszechnie uważa się ją za ważny priorytet na przyszłość: aż 91% badanych uznało ją za priorytet dla organizacji, a tylko 9% stwierdziło, że ma niski priorytet lub nie w ogóle priorytetem.

Respondenci wyraźnie dostrzegają potencjał sztucznej inteligencji w zakresie automatyzacji powtarzalnych zadań i poprawy wykrywania anomalii i złośliwego oprogramowania, z 48% wskazujących tę dziedzinę jako najbardziej obiecującą. Dodatkowo, 41% widzi potencjał w uczeniu ze wzmocnieniem dla dynamicznego zarządzania postawą bezpieczeństwa za pomocą AI – co jest szczególnie interesujące w porównaniu do zaledwie 18%, którzy obecnie korzystają z AI w tej funkcji. Entuzjazm jest oczywisty, ale na drodze do realizacji tego potencjału stoją wyzwania.

Zapytano również, jakie są największe korzyści z włączenia AI do operacji związanych z cyberbezpieczeństwem. Najczęściej wymienianymi odpowiedziami były ocena podatności i wykrywanie zagrożeń, jednakże jednocześnie najmniej popularną odpowiedzią, na poziomie zaledwie 21%, był efektywność kosztowa. Prawdopodobnie wiąże się to z kosztownym wyzwaniem związanym z zapewnieniem zgodności z regulacjami oraz kosztami wdrożenia. AI nie jest więc obecnie postrzegane jako znaczące narzędzie przynoszące oszczędności.

Obawy i sprzeczne postawy wokół sztucznej inteligencji w cyberbezpieczeństwie

Ankieta uwzględniała również pytania o obawy oraz brak jasności co do niektórych podstaw AI i cyberbezpieczeństwa. Kwestia wpływu AI na pracowników w dziedzinie cyberbezpieczeństwa nadal pozostaje bez jednoznacznych odpowiedzi. 49% respondentów wskazało, że AI wymaga nowych umiejętności, a 35% zauważyło, że role zawodowe zostały na nowo zdefiniowane. Choć 33% osób stwierdziło, że liczba pracowników zmniejszyła się w wyniku wprowadzenia AI, wg 29% uznało, że liczba pracowników faktycznie wzrosła.

Zauważalny był również znaczący podział w odpowiedziach na pytanie: Czy zgadzasz się z następującym stwierdzeniem: „Nasza organizacja byłaby gotowa używać generatywnej AI bez wdrażania jakichkolwiek wewnętrznych kontroli jakości danych i polityk zarządzania” 44% specjalistów nie zgadzało się lub zdecydowanie nie zgadzało się z tym stwierdzeniem, a 37% zgodziło się lub zdecydowanie zgodziło się. Tak znaczący podział w odpowiedziach na pytanie w profesjonalnej ankiecie zdarza się bardzo rzadko. Wskazuje to na brak konsensusu lub brak świadomości dotyczącej znaczenia wewnętrznych kontroli i polityk zarządzania, gdy w grę wchodzi AI.