
AMP: Jedynie 1 na 3 polskie firmy wprowadziły jakiekolwiek formalne zasady dotyczące używania AI.
Z badań polskiej firmy AMP, zajmującej się cyberbezpieczeństwem wynika, że jedynie 1 na 3 polskie firmy wprowadziły jakiekolwiek formalne zasady dotyczące używania AI, a w sektorze publicznym – w samorządach, szpitalach i przychodniach – odsetek ten jest jeszcze niższy. Z analizy wynika także, że 69% pracowników w Polsce korzysta z narzędzi AI bez wiedzy działu IT, a 72% wklejało treści firmowe do ChatGPT lub Gemini bez oceny ryzyka. Największym problemem jest zjawisko Shadow AI, czyli korzystanie z narzędzi AI poza wiedzą i nadzorem organizacji. Niewłaściwe korzystanie z AI przez pracowników może prowadzić do strat finansowych, wycieku poufnych danych a także do przygotowania fałszywych analiz lub porad na podstawie sfałszowanych przez cyberprzestępców danych wykorzystywanych przez sztuczną inteligencję. Jak ustrzec się przed nieodwracalnymi stratami dla firmy- radzi Przemysław Wójcik, Prezes polskiej firmy AMP.
AI może doprowadzić do strat w firmach
Na świecie dostępnych jest ponad 30 tysięcy narzędzi AI. Do 2026 r. ponad 80% pracowników będzie korzystać z AI codziennie – często bez świadomości ryzyka. Tymczasem polskie firmy wciąż nie nadążają za wdrażaniem zabezpieczeń. Jeszcze przed tym, zanim większość polskich firm w ogóle zorientowała się, jak poważnym narzędziem stała się sztuczna inteligencja, pracownicy zaczęli wykorzystywać ją do wszystkiego – także do rzeczy, które nigdy nie powinny trafić poza mury organizacji.
-W jednym z europejskich banków pracownik wkleił do darmowej wersji ChatGPT pełne dane klientów: numery PESEL, salda kont, treści umów. W globalnym koncernie technologicznym – Samsungu – inżynierowie kopiowali fragmenty kodu źródłowego do publicznych modeli AI, aby szybciej diagnozować błędy, nieświadomie udostępniając strategiczne informacje. W firmach przemysłowych pracownicy wpisywali do generatywnych modeli konfiguracje sterowników PLC wraz z hasłami dostępu, co doprowadziło do ataków na infrastrukturę. Zespoły programistyczne wklejały klucze API i loginy, co w jednej z firm zakończyło się przejęciem repozytoriów i paraliżem kilku projektów. To nie są wyjątki – to codzienność.- komentuje Przemysław Wójcik, Prezes polskiej firmy AMP.
Tylko co 3 firma zabezpiecza się przed niewłaściwym użyciem AI
Według danych ESET z pierwszej połowy 2025 roku to właśnie Polska była najczęściej atakowanym krajem w zakresie ransomware, odpowiadając za ok. 6% globalnych incydentów tego typu. Sztuczna inteligencja stała się dostępna szybciej, niż firmy były w stanie wdrożyć jakiekolwiek zabezpieczenia. W ciągu kilku lat powstało ponad 30 tysięcy narzędzi AI, wykorzystywanych zarówno w pracy biurowej, jak i w środowiskach przemysłowych, medycznych czy administracyjnych. Większość z nich działa w chmurze, a darmowe wersje systemów generatywnych przechowują treści użytkowników na serwerach poza UE, często wykorzystując je do dalszego trenowania modeli. Oznacza to, że wszelkie dane, które tam wprowadzimy – konfiguracje, opisy procesów, dane osobowe, dokumentację medyczną, kody źródłowe, wyniki badań, grafiki, analizy – mogą trafić w miejsca, nad którymi organizacje nie mają żadnej kontroli. Wyciek takich danych jest z definicji nieodwracalny.
Według naszych danych aż 69% pracowników w Polsce korzysta z narzędzi AI bez wiedzy działu IT, a 72% wklejało treści firmowe do ChatGPT lub Gemini bez oceny ryzyka. Jednak najbardziej alarmujące jest to, że tylko co trzecia firma w Polsce wdrożyła jakiekolwiek zasady dotyczące korzystania z AI. W sektorze publicznym sytuacja wygląda jeszcze gorzej: samorządy, przychodnie i szpitale – instytucje przetwarzające najbardziej wrażliwe dane – w ogromnej większości nie mają żadnych procedur, narzędzi kontrolnych ani świadomości zagrożeń. A to wszystko dzieje się w czasie, gdy Polska stała się jednym z najbardziej atakowanych cybernetycznie krajów na świecie.- komentuje Przemysław Wójcik, Prezes polskiej firmy AMP.
[fragment artykułu]
Źródło: AMP S.A.
materiał prasowy
