Przeprowadzone niedawno przez BSI i obejmujące ponad 10 000 dorosłych osób z dziewięciu krajów (w tym Australii, Chin, Wielkiej Brytanii i Stanów Zjednoczonych) badanie pod nazwą "Zaufanie do sztucznej inteligencji" rzuca światło na obecne nastawienie do sztucznej inteligencji (AI).
Sztuczna inteligencja nie jest już koncepcją z science fiction. Staje się codziennością, która może zmienić nasz świat i stać się siłą napędową dla dobra całego społeczeństwa. Jednak aby naprawdę się rozwijać, potrzebuje zaufania ze strony społeczności.
Badanie BSI bada możliwości, jakie sztuczna inteligencja oferuje w zakresie kształtowania lepszej przyszłości i przyspieszenia postępu w kierunku zrównoważonego świata. Przyjrzyjmy się kilku wnioskom z badania:
Jak Twoim zdaniem sztuczna inteligencja będzie kształtować naszą przyszłość do roku 2030?
79 procent respondentów uważa, że sztuczna inteligencja pomoże w redukcji emisji dwutlenku węgla, są jednak w tej kwestii sceptyczni.
Sztuczna inteligencja ma szansę stać się nieodłącznym narzędziem przedsiębiorstw, pozwalającym na efektywne określanie śladu węglowego produktów poprzez umożliwienie szybkiego pomiaru i analizy gazów cieplarnianych. Należy jednak przekonać opinię publiczną, że technologia ta jest naprawdę skuteczna w zapewnianiu korzyści dla środowiska.
W ankiecie BSI poproszono uczestników o ocenę poziomu zaufania niezbędnego do wykorzystania sztucznej inteligencji w różnych kluczowych branżach. Wyniki pokazują, że 74% respondentów wskazało, iż "potrzebne jest zaufanie" do sztucznej inteligencji w diagnostyce medycznej i leczeniu, a 75% wyraziło to samo w odniesieniu do sztucznej inteligencji w produkcji żywności, co obejmuje takie zadania, jak zamawianie i kategoryzowanie żywności na podstawie daty przydatności do spożycia.
Odpowiedź ta powtarzała się w przypadku wszystkich branż, przy czym od 72% do 79% konsumentów zgadza się, że zaufanie jest wymagane, aby sztuczna inteligencja mogła być skutecznie wykorzystywana we wszystkich dziedzinach, od cyberbezpieczeństwa po budownictwo i transakcje finansowe.
38 procent respondentów twierdzi, że w swojej pracy wykorzystuje obecnie codziennie jakąś formę sztucznej inteligencji.
W niektórych krajach wykorzystanie sztucznej inteligencji jest nawet bardziej zaawansowane. Chiny (70%) i Indie (64%) przodują pod względem codziennego wykorzystania sztucznej inteligencji w pracy, podczas gdy respondenci w Australii (23%) i Wielkiej Brytanii (29%) używają jej najmniej. W Stanach Zjednoczonych 37 procent respondentów twierdzi, że obecnie korzysta ze sztucznej inteligencji w pracy, podczas gdy 46 procent tego nie robi, a około 17 procent nie jest tego pewna. Wśród osób na całym świecie, które obecnie nie wykorzystują sztucznej inteligencji w pracy, prawie połowa nie była pewna, czy w ich miejscu pracy zostanie ona wdrożona do 2030 roku.
Niepewność co do przyjęcia sztucznej inteligencji istnieje na poziomie organizacyjnym, zwłaszcza w ramach polityki cyberbezpieczeństwa i ryzyka cyfrowego. Dla niektórych organizacji sztuczna inteligencja może być stosunkowo nowa, dlatego zdecydowały się zakazać korzystania z takich narzędzi w systemach korporacyjnych, aby złagodzić postrzegane zagrożenia. W niektórych przypadkach pracownicy znaleźli sposoby na ominięcie tych środków kontroli, używając komputerów domowych do wykonywania swojej pracy.
Zapewnienie szkoleń w celu zrozumienia, w jaki sposób sztuczna inteligencja może być wykorzystywana w pracy, ma kluczowe znaczenie – co według danych nie jest obecnie powszechne. Na szczęście 55 procent respondentów zgadza się, że powinniśmy szkolić młodych ludzi, jak pracować w świecie wspomaganym przez sztuczną inteligencję.
61 procent chce, aby międzynarodowe wytyczne umożliwiły bezpieczne korzystanie ze sztucznej inteligencji.
Wytyczne dotyczące bezpiecznego i odpowiedzialnego użytkowania są potrzebne, aby jeszcze bardziej zwiększyć świadomość zastosowań i zaufanie do technologii AI. Pewną rolę odgrywają tu międzynarodowe normy, takie jak mająca wkrótce się pojawić norma systemu zarządzania sztuczną inteligencją (ISO 42001), oraz regulacje prawne.
Rządy i agencje regulacyjne także zaczynają zajmować się tą kwestią. Na przykład prezydent Biden wydał niedawno rozporządzenie wykonawcze w sprawie bezpiecznego i godnego zaufania opracowywania i wykorzystywania sztucznej inteligencji, określające podejście rządu USA do "bezpiecznego i odpowiedzialnego zarządzania opracowywaniem i wykorzystywaniem sztucznej inteligencji (AI)".
Celem unijnego rozporządzenia w sprawie sztucznej inteligencji jest także zapewnienie "ram prawnych mających na celu znaczne wzmocnienie przepisów dotyczących opracowywania i wykorzystywania sztucznej inteligencji". Inne kraje poszły w te same ślady, o czym świadczy szczyt AI Safety Summit 2023 (Szczyt w sprawie bezpieczeństwa AI).
Obecny brak zrozumienia i niestabilne zaufanie do sztucznej inteligencji stanowią główną przeszkodę, potencjalnie ograniczając jej przyjęcie i czerpanie z niej korzyści. Aby zbudować zaufanie do technologii, organizacje mogą ustanowić bariery regulujące etyczne wykorzystanie sztucznej inteligencji. (Przeczytaj "Rozważania etyczne na temat sztucznej inteligencji w opiece zdrowotnej" autorstwa Shusmy Balaji, naukowca zajmującego się danymi w BSI).
Byliśmy już świadkami wcześniejszych wpadek rewolucji technologicznych, które przeoczyły zaufanie publiczne, tak jak w przypadku boomu dot-comów i rozwoju mediów społecznościowych. Wraz z nadejściem ery AI, wyposażenie ludzi w odpowiednie narzędzia i wiedzę jest niezbędne do wykorzystania potencjału sztucznej inteligencji przy jednoczesnym uniknięciu błędów z przeszłości.
Ten artykuł został pierwotnie opublikowany przez Forbes pod tytułem: Jak zapewnić zaufanie do sztucznej inteligencji: Kluczowe dane z badania BSI pod nazwą "Zaufanie do sztucznej inteligencji" z 15 grudnia 2023 r. Dołącz do Marka Browna i zespołu Digital Trust podczas ich prezentacji na konferencji SASIG Przyszłość AI: Przyjaciel czy wróg? 13 lutego 2024 roku.