Kontakt
Search Icon

Suggested region and language based on your location

    Your current region and language

    Biznesmen rozmawiający z pracownikiem o projekcie rozwojowym
    • Blog
      Zaufanie cyfrowe

    Zapewnienie zaufania do sztucznej inteligencji

    Badanie BSI pod nazwą "Zaufanie do sztucznej inteligencji" ujawnia globalne nastawienie do sztucznej inteligencji w dziewięciu krajach, w tym w Australii, Chinach, Wielkiej Brytanii i Stanach Zjednoczonych.

    Przeprowadzone niedawno przez BSI i obejmujące ponad 10 000 dorosłych osób z dziewięciu krajów (w tym Australii, Chin, Wielkiej Brytanii i Stanów Zjednoczonych) badanie pod nazwą "Zaufanie do sztucznej inteligencji" rzuca światło na obecne nastawienie do sztucznej inteligencji (AI).

    Sztuczna inteligencja nie jest już koncepcją z science fiction. Staje się codziennością, która może zmienić nasz świat i stać się siłą napędową dla dobra całego społeczeństwa. Jednak aby naprawdę się rozwijać, potrzebuje zaufania ze strony społeczności.

    Badanie BSI bada możliwości, jakie sztuczna inteligencja oferuje w zakresie kształtowania lepszej przyszłości i przyspieszenia postępu w kierunku zrównoważonego świata. Przyjrzyjmy się kilku wnioskom z badania:

    Jak Twoim zdaniem sztuczna inteligencja będzie kształtować naszą przyszłość do roku 2030?

    79 procent respondentów uważa, że sztuczna inteligencja pomoże w redukcji emisji dwutlenku węgla, są jednak w tej kwestii sceptyczni.

    Sztuczna inteligencja ma szansę stać się nieodłącznym narzędziem przedsiębiorstw, pozwalającym na efektywne określanie śladu węglowego produktów poprzez umożliwienie szybkiego pomiaru i analizy gazów cieplarnianych. Należy jednak przekonać opinię publiczną, że technologia ta jest naprawdę skuteczna w zapewnianiu korzyści dla środowiska.

    W ankiecie BSI poproszono uczestników o ocenę poziomu zaufania niezbędnego do wykorzystania sztucznej inteligencji w różnych kluczowych branżach. Wyniki pokazują, że 74% respondentów wskazało, iż "potrzebne jest zaufanie" do sztucznej inteligencji w diagnostyce medycznej i leczeniu, a 75% wyraziło to samo w odniesieniu do sztucznej inteligencji w produkcji żywności, co obejmuje takie zadania, jak zamawianie i kategoryzowanie żywności na podstawie daty przydatności do spożycia.

    Odpowiedź ta powtarzała się w przypadku wszystkich branż, przy czym od 72% do 79% konsumentów zgadza się, że zaufanie jest wymagane, aby sztuczna inteligencja mogła być skutecznie wykorzystywana we wszystkich dziedzinach, od cyberbezpieczeństwa po budownictwo i transakcje finansowe.

    38 procent respondentów twierdzi, że w swojej pracy wykorzystuje obecnie codziennie jakąś formę sztucznej inteligencji.
    W niektórych krajach wykorzystanie sztucznej inteligencji jest nawet bardziej zaawansowane. Chiny (70%) i Indie (64%) przodują pod względem codziennego wykorzystania sztucznej inteligencji w pracy, podczas gdy respondenci w Australii (23%) i Wielkiej Brytanii (29%) używają jej najmniej. W Stanach Zjednoczonych 37 procent respondentów twierdzi, że obecnie korzysta ze sztucznej inteligencji w pracy, podczas gdy 46 procent tego nie robi, a około 17 procent nie jest tego pewna. Wśród osób na całym świecie, które obecnie nie wykorzystują sztucznej inteligencji w pracy, prawie połowa nie była pewna, czy w ich miejscu pracy zostanie ona wdrożona do 2030 roku.

    Niepewność co do przyjęcia sztucznej inteligencji istnieje na poziomie organizacyjnym, zwłaszcza w ramach polityki cyberbezpieczeństwa i ryzyka cyfrowego. Dla niektórych organizacji sztuczna inteligencja może być stosunkowo nowa, dlatego zdecydowały się zakazać korzystania z takich narzędzi w systemach korporacyjnych, aby złagodzić postrzegane zagrożenia. W niektórych przypadkach pracownicy znaleźli sposoby na ominięcie tych środków kontroli, używając komputerów domowych do wykonywania swojej pracy.

    Zapewnienie szkoleń w celu zrozumienia, w jaki sposób sztuczna inteligencja może być wykorzystywana w pracy, ma kluczowe znaczenie – co według danych nie jest obecnie powszechne. Na szczęście 55 procent respondentów zgadza się, że powinniśmy szkolić młodych ludzi, jak pracować w świecie wspomaganym przez sztuczną inteligencję.

    61 procent chce, aby międzynarodowe wytyczne umożliwiły bezpieczne korzystanie ze sztucznej inteligencji.
    Wytyczne dotyczące bezpiecznego i odpowiedzialnego użytkowania są potrzebne, aby jeszcze bardziej zwiększyć świadomość zastosowań i zaufanie do technologii AI. Pewną rolę odgrywają tu międzynarodowe normy, takie jak mająca wkrótce się pojawić norma systemu zarządzania sztuczną inteligencją (ISO 42001), oraz regulacje prawne.

    Rządy i agencje regulacyjne także zaczynają zajmować się tą kwestią. Na przykład prezydent Biden wydał niedawno rozporządzenie wykonawcze w sprawie bezpiecznego i godnego zaufania opracowywania i wykorzystywania sztucznej inteligencji, określające podejście rządu USA do "bezpiecznego i odpowiedzialnego zarządzania opracowywaniem i wykorzystywaniem sztucznej inteligencji (AI)".

    Celem unijnego rozporządzenia w sprawie sztucznej inteligencji jest także zapewnienie "ram prawnych mających na celu znaczne wzmocnienie przepisów dotyczących opracowywania i wykorzystywania sztucznej inteligencji". Inne kraje poszły w te same ślady, o czym świadczy szczyt AI Safety Summit 2023 (Szczyt w sprawie bezpieczeństwa AI).

    Obecny brak zrozumienia i niestabilne zaufanie do sztucznej inteligencji stanowią główną przeszkodę, potencjalnie ograniczając jej przyjęcie i czerpanie z niej korzyści. Aby zbudować zaufanie do technologii, organizacje mogą ustanowić bariery regulujące etyczne wykorzystanie sztucznej inteligencji. (Przeczytaj "Rozważania etyczne na temat sztucznej inteligencji w opiece zdrowotnej" autorstwa Shusmy Balaji, naukowca zajmującego się danymi w BSI).

    Byliśmy już świadkami wcześniejszych wpadek rewolucji technologicznych, które przeoczyły zaufanie publiczne, tak jak w przypadku boomu dot-comów i rozwoju mediów społecznościowych. Wraz z nadejściem ery AI, wyposażenie ludzi w odpowiednie narzędzia i wiedzę jest niezbędne do wykorzystania potencjału sztucznej inteligencji przy jednoczesnym uniknięciu błędów z przeszłości.

    Ten artykuł został pierwotnie opublikowany przez Forbes pod tytułem: Jak zapewnić zaufanie do sztucznej inteligencji: Kluczowe dane z badania BSI pod nazwą "Zaufanie do sztucznej inteligencji" z 15 grudnia 2023 r. Dołącz do Marka Browna i zespołu Digital Trust podczas ich prezentacji na konferencji SASIG Przyszłość AI: Przyjaciel czy wróg? 13 lutego 2024 roku.