Firma Netskope wprowadza rozwiązanie, które chroni ChatGPT przed cyberprzestępcami

SantaClara-Netskope-ExteriorSign(2)

Firma Netskope wprowadza rozwiązanie, które chroni ChatGPT przed cyberprzestępcami.

Wykorzystanie ChatGPT rośnie każdego miesiąca o 25% w przedsiębiorstwach, co skłania do podejmowania decyzji o zablokowaniu lub wyłączeniu AI w firmie.
Firma Netskope, lider w dziedzinie Secure Access Service Edge (SASE ) oraz cyberbezpieczeństwa wprowadza na rynek kompleksowe rozwiązanie do ochrony danych, które pomaga przedsiębiorstwom bezpiecznie zarządzać korzystaniem przez pracowników z ChatGPT i innych generatywnych aplikacji AI, takich jak Google Bard i Jasper. W ramach wielokrotnie nagradzanej platformy Intelligent Security Service Edge (SSE) Netskope umożliwia bezpieczne korzystanie z generatywnej sztucznej inteligencji dzięki unikalnym, opatentowanym technikom ochrony danych, których nie można znaleźć na innych platformach SSE.

Po incydentach z 2023 r. dotyczących ujawnienia wrażliwych danych przez sztuczną inteligencję, wiele przedsiębiorstw zastanawia się obecnie, czy i jak bezpiecznie korzystać z tych aplikacji oraz wspierać innowacje w zakresie sztucznej inteligencji bez narażania swojej działalności na ryzyko. Z danych Netskope wynika, że obecnie:

  • około 10% organizacji korporacyjnych aktywnie blokuje korzystanie z ChatGPT przez swoich pracowników
  • korzystanie z ChatGPT rośnie wykładniczo w przedsiębiorstwach, obecnie w tempie 25% każdego miesiąca.
  • przynajmniej 1 na 100 pracowników przedsiębiorstw aktywnie korzysta z ChatGPT codziennie, a każdy użytkownik przesyła średnio 8 zapytań dziennie.

Aby sprostać tym wyzwaniom, Netskope Intelligent SSE łączy długoletnie, uznane w branży funkcje ochrony danych z nowo opracowanymi innowacjami specjalnie do klasyfikowania i dynamicznego kontrolowania bezpiecznego korzystania z generatywnych aplikacji AI. Są one dostępne dla klientów Netskope już dziś jako ujednolicone rozwiązanie oferowane przez firmę i jej sieć partnerów handlowych.

Przedsiębiorstwa stoją dziś przed decyzją, czy zablokować dostęp do ChatGPT i innych generatywnych aplikacji AI, aby zmniejszyć ryzyko związane z np. z wyciekiem informacji, czy też zezwolić na korzystanie z nich i czerpać korzyści z wydajności oraz innych zalet, jakie te aplikacje mogą przynieść. Bezpieczne korzystanie z takich rozwiązań przez pracowników firm jest na pewno wymagającym wyzwaniem w zakresie ochrony danych – jednym z tych, które Netskope jest w stanie rozwiązać. Netskope zachęca użytkowników do odpowiedzialnego korzystania z tych coraz bardziej popularnych aplikacji AI przy użyciu odpowiednich mechanizmów kontroli ochrony danych, które pomagają utrzymać bezpieczeństwo oraz efektywność firmypowiedział Krishna Narayanaswamy, współzałożyciel i dyrektor ds. technologii Netskope.

Źródło: Netskope.

Netskope: Czy czeka nas rewolucja w zakresie stosowania sztucznej inteligencji w cyberbezpieczeństwie?

Netskope_Yihua

Ponieważ jesteśmy świadkami rosnącej liczby ataków cybernetycznych i kradzieży danych, zapotrzebowanie na zaawansowane rozwiązania w zakresie bezpieczeństwa cybernetycznego staje się krytyczne. Trudno w tym aspekcie nie brać pod uwagę korzyści jakie niesie ze sobą korzystanie z pomocy sztucznej inteligencji. Z tego rozwiązania korzystają oczywiście firmy chroniące nasze dane, ale z drugiej strony także cyberprzestępcy. Jakie są korzyści, wyzwania i potencjalne zagrożenia związane z wykorzystywaniem AI w cyberbezpieczeństwie analizuje Yihua Liao, Szef Działu Sztucznej Inteligencji firmy Netskope.

Spis treści:
Czy jesteśmy w trakcie rewolucji związanej z wykorzystywaniem AI?
Jakie są korzyści z wykorzystania AI do rozwiązywania problemów związanych z cyberbezpieczeństwem?
Co mogą zaoferować systemy bezpieczeństwa wykorzystujące AI?
Jakie są wyzwania i zagrożenia związane z wykorzystaniem AI?
Czy cyberprzestępcy wykorzystują AI na swoją korzyść?

Czy jesteśmy w trakcie rewolucji związanej z wykorzystywaniem AI?

Prace nad sztuczną inteligencją (AI) pchnęły nas w kierunku rewolucji prowadząc do znacznych postępów w zakresie przetwarzania języka naturalnego, wizji poszerzenia mocy komputerów i możliwości podejmowania decyzji nie przez człowieka. Systemy AI stają się coraz bardziej rozwinięte i konkurencyjne dla ludzi jeśli chodzi o rozwiązywanie zadanych im problemów. Na przykład, niedawno stworzone przełomowe duże modele językowe (LLM) i generatywne AI, takie jak ChatGPT i GPT-4, mogą wykonać niesamowitą pracę pisząc artykuł, tworząc kod aplikacji i dzieła artystyczne, a nawet zdając egzamin adwokacki. Staje się jasne, że takie postępy będą miały głęboki wpływ na nasze społeczeństwo, na cywilizację, w tym potencjał do zrewolucjonizowania świata cyberbezpieczeństwa.

Jakie są korzyści z wykorzystania AI do rozwiązywania problemów związanych z cyberbezpieczeństwem?

Cyberbezpieczeństwo w wielu przypadkach przypomina proces, w czasie którego poszukuje się igieł w stogach siana. Dzięki wdrożeniu sztucznej inteligencji może się on stać bardziej wydajny i skalowalny, ponieważ AI doskonale radzi sobie z identyfikacją wzorców oraz prowadzeniem analizy danych na dużą skalę. Sztuczna inteligencja oferuje różne korzyści w rozwiązywaniu wyzwań związanych z bezpieczeństwem cybernetycznym, w tym:

– Wykrywanie nieznanych dotąd zagrożeń i anomalnych wzorców zachowań, uzupełniając podejścia oparte na heurystyce i sygnaturach

– Automatyczną klasyfikację i wykrywanie wrażliwych danych i zasobów cyfrowych przedsiębiorstwa

– Uproszczenie złożonych konfiguracji polityk i zadań zarządzania, co zmniejsza obciążenie pracą ludzi-specjalistów ds. bezpieczeństwa cybernetycznego

– Identyfikację podejrzanych użytkowników i urządzeń poprzez efektywną analizę dużych ilości alarmów i logów

– Zapewnienie dodatkowego wsparcia w czasie wykrywania niebezpiecznych incydentów i zalecanie skutecznych sposobów reagowania.

Te korzyści wynikające z działającej sztucznej inteligencji prowadzą do bardziej proaktywnego i skutecznego podejścia do utrzymania bezpieczeństwa oraz zmniejszenia ryzyka cyberataków.

Co mogą zaoferować systemy bezpieczeństwa wykorzystujące AI?

Firmy oferują rożne rozwiązania wykorzystujące sztuczną inteligencję do zwalczania cyberprzestępców i ochrony danych. Firma Netskope wykorzystuje najnowsze technologie AI i uczenia maszynowego (ML) do zasilania platformy bezpieczeństwa Netskope Intelligent Security Service Edge (SSE). Rozwiązania ułatwia wiele procesów i stanowi rzeczywiste wsparcie w czasie walki z cyberprzestępcami. Platforma jest w stanie wykryć wrażliwe i osobiste dane w ruchu sieciowym klientów, takie jak dokumenty finansowe i prawne, kod źródłowy oraz obrazy paszportów i kart kredytowych. Pomaga to firmom przestrzegać przepisów dotyczących prywatności i chronić ich cyfrowe aktywa. Dzięki wykorzystaniu wbudowanej analizy zachowań użytkowników i podmiotów zostały wprowadzone modele do rozróżniania normalnych wzorców zachowań od tych, które pochodzą z nieznanych źródeł , zagrożonych kont, ataków polegających na przenoszeniu danych oraz ataków typu ransomware. Sztuczna inteligencja jest wykorzystywana do zasilania wielu silników wykrywających online złośliwe oprogramowanie , ale także w czasie złożonego skanowania opartego na analizie statycznej i dynamicznej systemu ochrony przed zagrożeniami, co zwiększa skuteczność wykrywania złośliwego oprogramowania dla różnych typów plików.

Jakie są wyzwania i zagrożenia związane z wykorzystaniem AI?

AI może czasami nieprawidłowo klasyfikować zagrożenia lub anomalne zachowania, co prowadzi do fałszywych alarmów lub przeoczenia prawdziwych zagrożeń. Koszty takich zachowań mogą być znaczne, stanowiąc poważne wyzwanie dla modeli AI. Sztuczna inteligencja ogólnego przeznaczenia, bez specjalnego szkolenia i dostrojenia, może nie spełnić wymaganych standardów dokładności. Systemy AI potrzebują dostępu do dużych ilości danych, aby trenować i ulepszać swoje algorytmy, co rodzi pytania dotyczące prywatności oraz ochrony danych. Ponadto wykorzystanie AI w cyberbezpieczeństwie często wiąże się z przetwarzaniem wrażliwych i osobistych informacji, z którymi należy obchodzić się ostrożnie, aby zapewnić zgodność z przepisami dotyczącymi prywatności danych. Ostatni incydent z udziałem pracowników Samsunga, w czasie którego przypadkowo wyciekły tajemnice handlowe za pośrednictwem ChatGPT stanowi przestrogę w tym zakresie.

W cyberbezpieczeństwie kluczowe jest zrozumienie, w jaki sposób AI podejmuje decyzje, co pozwala na potwierdzenie, że uzyskane wyniki są wiarygodne i spójne. Jednak niektóre modele tworzone przez sztuczną inteligencję mogą być bardzo złożone i trudne do interpretacji, co utrudnia zespołom ds. bezpieczeństwa zrozumienie, w jaki sposób AI dochodzi do swoich wniosków. Wyzwanie to jest jeszcze większe w przypadku generatywnej sztucznej inteligencji, która może tworzyć bardzo złożone i skomplikowane wzorce trudne do zinterpretowania oraz zrozumienia przez człowieka.

Czy cyberprzestępcy wykorzystują AI na swoją korzyść?

Nie ma wątpliwości, że niektórzy cyberprzestępcy również wykorzystują AI na swoją korzyść. Mogą oni wykorzystywać technologie sztucznej inteligencji do ulepszania swoich strategii ataków i tworzenia bardziej wyrafinowanego złośliwego oprogramowania. Obejmuje to wykorzystanie AI do przyspieszenia procesu wykorzystywania luk w zabezpieczeniach, tworzenia nowego złośliwego oprogramowania i automatyzacji pozyskiwania cennych informacji. Ponadto, cyberprzestępcy mogą wykorzystać narzędzie takie jak ChatGPT do poprawy swoich umiejętności w zakresie socjotechniki. Może ono pomóc im w pisaniu konkretnych tekstów, które byłyby wykorzystywane w e-mailach phishingowych, przekierowując ofiary na złośliwe strony internetowe lub zwabiając je do pobrania załączonego złośliwego oprogramowania. W związku z tym organizacje muszą zachować czujność i przyjąć zaawansowane rozwiązania napędzane przez sztuczną inteligencję, aby wyprzedzić stale ewoluujący krajobraz zagrożeń cybernetycznych.

Jesteśmy obecnie świadkami złotego wieku dla badań i rozwoju AI, ponieważ takie technologie z każdym dniem są coraz lepsze oraz zyskują bezprecedensową moc. Potencjał sztucznej inteligencji w sferze cyberbezpieczeństwa jest ogromny. Organizacje powinny zaakceptować AI i zainwestować w kompleksowe ramy bezpieczeństwa, które obejmują rozwiązania sztucznej inteligencji. Chociaż sztuczna inteligencja może z pewnością przynieść znaczne korzyści w zakresie bezpieczeństwa cybernetycznego, konieczne jest rozpoznanie i podjęcie potencjalnych wyzwań oraz zagrożeń związanych z jej wykorzystaniem, zwłaszcza w dobie generatywnych rozwiązań, chociażby takich jak ChatGPT.

Źródło: Netskope.

Prawnik o ChatGPT w e-commerce

rawpixel-com-594763-unsplashMoment pojawienia się ChatuGPT jest przełomowy. Wiele osób uważa, że AI zastąpi niebawem specjalistów m.in. copywriterów i twórców contentu.

Jednak czy wykorzystanie treści z ChatuGPT w e-commerce jest zgodne z prawem?

– Należy pamiętać, że jest to narzędzie, którego algorytmy bazują również na web scrapingu, a co za tym idzie – efekty jego pracy mogą być plagiatem – wyjaśnia Rafał Malujda, radca prawny IdoSell.

ChatGPT od kilku miesięcy rozpala wyobraźnię. Jest też coraz popularniejszy wśród internautów. I o ile wykorzystywanie narzędzi, które automatyzują rozmaite procesy albo generują różnego rodzaju content (np. translatory) jest już normą, o tyle ich wykorzystanie zawsze budziło wątpliwości. Nie inaczej jest z ChatemGPT.

– Przed jego komercyjnym użyciem, należy zadać kilka pytań – i to niekoniecznie w samym narzędziu ChatGPT: na ile możemy z niego korzystać, czy możemy tam wprowadzać konkretne treści, kto może dysponować wynikiem pracy i jaki jest status prawny efektów pracy tego chatbota? ChatGPT dotyka również bardzo istotnego zagadnienia, czyli web scrapingu – w tym przypadku, na masową skalę – wyjaśnia Rafał Malujda.

Źródło: IdoSell.