Kontakt
Search Icon

Suggested region and language based on your location

    Your current region and language

    Kobieta w okularach rozszerzonej rzeczywistości stojąca na ulicy w nocy i korzystająca ze smartfona
    • Blog
      Zaufanie cyfrowe

    Obrona przed ciemną stroną sztucznej inteligencji

    Zrozumienie, w jaki sposób sztuczna inteligencja może być wykorzystywana do oszukiwania, manipulowania lub szkodzenia organizacjom.

    Chociaż sztuczna inteligencja (AI) jest wciąż nowa i ekscytująca, nie różni się niczym od innych technologii. Jeśli zdecydujesz się na wdrożenie tego rozwiązania w swojej organizacji, upewnij się, że jesteś świadomy potencjalnych zagrożeń.

    Zdajemy sobie sprawę z korzyści płynących ze sztucznej inteligencji, ale biorąc pod uwagę, że 35 procent firm korzysta z niej już teraz, należy skupić się na tym, jak przygotować się na sytuacje, w których coś pójdzie nie tak. Obejmuje to zrozumienie, w jaki sposób sztuczna inteligencja może być wykorzystywana do oszukiwania, manipulowania lub szkodzenia organizacjom, a także poznanie narzędzi pomagających w obronie i ograniczaniu ryzyka.

    Wykorzystywanie sztucznej inteligencji w nieszczery sposób

    Głównym ryzykiem związanym ze sztuczną inteligencją jest zdolność ludzi do udawania kogoś, kim nie są. Na przykład sztuczna inteligencja może sprawić, że CV (lub życiorysy) będą wyglądać fantastycznie, a proces ich tworzenia będzie znacznie szybszy. Na coraz bardziej konkurencyjnym rynku pracy absolwenci korzystają z takich aplikacji jak OpenAI czy ChatGPT do pisania listów motywacyjnych i CV. Choć pomaga to niektórym przejść przez proces rekrutacji, firmy odkrywają, że gdy kandydat zostaje wezwany na rozmowę kwalifikacyjną, pojawiają się rozbieżności między kwalifikacjami na papierze a osobą siedzącą po drugiej stronie biurka.

    Podobnie, instytucje finansowe często korzystają z formularzy online i sztucznej inteligencji w celu ustalenia, czy przyznać komuś pożyczkę lub kredyt. Automatyzacja takich procesów oznacza, że firmy nie zawsze spotykają się z ludźmi twarzą w twarz, co czyni je głównym celem dla tych, którzy chcą wykorzystać system.

    W odróżnieniu od tradycyjnych ataków typu whaling (rodzaj nakierowanego na konkretne osoby ataku typu spear-phishing wymierzonego w kadrę kierowniczą wyższego szczebla), pojawiły się ostatnio doniesienia o oszustach wykorzystujących sztuczną inteligencję do tworzenia w technologii deep-fake poleceń w imieniu Dyrektora Finansowego (CFO).

    Przykłady te podkreślają potrzebę zachowania przez firmy ostrożności, wdrożenia solidnych procesów kontroli i zapewnienia szkoleń dla zainteresowanych stron.

    Nieetyczne praktyki biznesowe

    Sztuczna inteligencja może zmaksymalizować korzyści biznesowe dzięki ulepszonym strategiom dynamicznego ustalania cen online. Dziewięćdziesiąt cztery procent kupujących porównuje ceny produktów podczas zakupów online, a algorytmy monitorują zachowanie użytkowników, aby oferować spersonalizowane ceny w oparciu o nawyki związane z wydatkami. Firmy mogą jednak ulec pokusie angażowania się w oszukańcze strategie cenowe, wykorzystując algorytmy do oceny gotowości konsumentów do zapłaty zamiast oferowania odpowiedniej ceny.

    Manipulacja ta wykracza poza korekty cen. Firmy mogłyby wykorzystywać zaawansowane algorytmy do przewidywania i wpływania na zachowania konsumentów, potencjalnie przekraczając granice etyczne poprzez wykorzystywanie indywidualnych preferencji lub słabości.

    Ryzyko wewnętrzne i ryzyko stron trzecich

    Zagrożenia wewnętrzne dodają kolejną warstwę złożoności, w której niezadowoleni pracownicy z dostępem do algorytmów AI mogą sabotować operacje lub ujawniać poufne dane. Poprzez celowe wprowadzanie poufnych danych do generatywnych systemów sztucznej inteligencji pracownicy mogliby narazić tajemnice organizacji na potencjalne ataki hakerskie, narażając firmy i klientów na poważne ryzyko związane z bezpieczeństwem. Na początku 2023 r. globalna firma elektroniczna zakazała pracownikom korzystania ze sztucznej inteligencji po tym, jak stwierdzono, że poufne informacje wewnętrzne zostały ujawnione przez pracownika korzystającego ze sztucznej inteligencji do celów związanych z pracą.

    Wiele firm polega na dostawcach zewnętrznych w zakresie niezbędnych danych i usług. Takie partnerstwo wiąże się jednak z ryzykiem, ponieważ strona trzecia może mieć różne uprzedzenia i inną tolerancję ryzyka, która nie jest zgodna z oczekiwaniami lub standardami firmy. Takie niedopasowanie może prowadzić do powstania luk w zabezpieczeniach, w tym do pośpiesznej realizacji zadań bez odpowiednich zabezpieczeń i do zwiększonej podatności na manipulacje.

    Obrona przed ryzykiem

    Bezpieczeństwo opiera się na trzech zasadach: poufności, nienaruszalności i dostępności, a wszelkie wprowadzane środki kontroli mają na celu ich ochronę. Wraz z postępem w technikach atakowania tych zasad, obrona musi stać się bardziej zaawansowana. Firmy mogą ograniczać ryzyko poprzez:

    • Kompleksową strategię obrony: ważne jest, aby firmy weryfikowały i monitorowały systemy sztucznej inteligencji, dokonywały oceny wiarygodności udziału stron trzecich i zapewniały wsparcie przed szeroką gamą potencjalnych zagrożeń, w tym tych stwarzanych przez nieuczciwych użytkowników i niewłaściwie działające algorytmy.
    • Odpowiedzialne zarządzanie i informowanie: zagrożenia dla cyberbezpieczeństwa i zagrożenia moralne wymagają wyważonego zarządzania. Brak proaktywnych środków może prowadzić nie tylko do utraty reputacji, ale także do erozji zaufania do całych branż.
    • Odpowiedzialne praktyki AI: od deweloperów po firmy, odpowiedzialne praktyki AI, takie jak skoncentrowane na człowieku podejście podczas opracowywania, poszanowanie prywatności i zapewnienie bezpieczeństwa danych oraz przejrzystość i odpowiedzialność muszą być zakorzenione w każdym ogniwie łańcucha wartości.
    • Zgodność z przepisami: bądź na bieżąco ze zmieniającymi się przepisami i normami związanymi ze sztuczną inteligencją i cyberbezpieczeństwem, takimi jak norma ISO 27001 lub ramy cyberbezpieczeństwa Narodowego Instytutu Norm i Technologii (NIST). Zapewnij zgodność z odpowiednimi przepisami, aby uniknąć ryzyka prawnego i regulacyjnego.

    Transformacyjna moc AI jest niezaprzeczalna. Jednak jej odpowiedzialne działanie wymaga zbiorowego wysiłku i wyważenia między postępem technologicznym a odpowiedzialnością etyczną. Tylko dzięki proaktywnej i solidnej obronie oraz zaangażowaniu całej branży w etyczne praktyki związane ze sztuczną inteligencją, firmy i społeczeństwa mogą w pełni wykorzystać jej potencjał, jednocześnie chroniąc się przed nieodłącznie związanymi z nią zagrożeniami.