Generacyjna sztuczna inteligencja jest wszędzie – ale nadal brakuje polityki


Generacyjna sztuczna inteligencja (GenAI) pojawia się wszędzie w miejscu pracyale firmy nie dysponują polityką ani szkoleniami zapewniającymi, że wdrożenie nie zakończy się niepowodzeniem.

Jak wynika z badania przeprowadzonego przez organizację zawodową ISACA, pracownicy prawie trzech czwartych europejskich organizacji korzystają już ze sztucznej inteligencji w pracy, ale tylko 17% ma formalną, kompleksową politykę regulującą wykorzystanie takich technologii.

Około połowa (45%) ankietowanych przez ISACA stwierdziła, że ​​korzystanie z GenAI jest dozwolone w ich organizacji, co stanowi znaczny wzrost w porównaniu z 29% zaledwie sześć miesięcy temu.

Wydaje się jednak, że pracownicy naciskają na adopcję dalej niż szefowie może zdać sobie sprawę, gdyż 62% ankietowanych korzysta z GenAI do tworzenia treści pisanych, zwiększania produktywności i automatyzacji powtarzalnych zadań.

Brak zrozumienia AI

Badanie ISACA wykazało, że chociaż 30% organizacji zapewniło pracownikom na stanowiskach związanych z technologią ograniczone szkolenia z zakresu sztucznej inteligencji, 40% nie zapewniło żadnego szkolenia.

Badanie wykazało, że pomimo ogromnego szumu wokół generatywnej sztucznej inteligencji większość specjalistów z branży biznesowej i IT ma ograniczoną świadomość na temat tej technologii, a trzy czwarte (74%) stwierdziło, że zna ją jedynie w niewielkim stopniu lub wcale. Tylko 24% stwierdziło, że zna sztuczną inteligencję bardzo lub bardzo dobrze, a 37% określiło siebie jako początkujących.

Reklama

Nie wydaje się jednak, aby powstrzymywało to pracowników od obaw związanych z potencjalnym negatywnym wpływem sztucznej inteligencji – 61% respondentów przyznało, że bardzo lub bardzo się tym martwi. generatywna sztuczna inteligencja może zostać wykorzystana przez złych aktorów.

Około 89% specjalistów z branży biznesowej i IT ankietowanych przez ISACA uznało dezinformację i dezinformację za największe ryzyko związane ze sztuczną inteligencją, ale zaledwie 21% miało pewność, że ona sama lub ich firma potrafi je wykryć

Jedna czwarta (25%) uważa, że ​​organizacje poświęcają wystarczającą uwagę standardom etycznym sztucznej inteligencji, ale tylko 23% uważa, że ​​organizacje właściwie rozwiązują problemy związane ze sztuczną inteligencją, takie jak prywatność danych i ryzyko stronniczości.

Zdecydowana większość (89%) uznała dezinformację i dezinformację za największe ryzyko związane ze sztuczną inteligencją, ale zaledwie 21% miało pewność, że ona sama lub ich firma potrafi je wykryć.

Chociaż 38% ankietowanych pracowników spodziewało się, że sztuczna inteligencja wyeliminuje wiele stanowisk pracy w ciągu najbliższych pięciu lat, znacznie więcej (79%) stwierdziło, że sztuczna inteligencja zmieni miejsca pracy.

Specjaliści ds. zaufania cyfrowego byli bardziej optymistyczni w stosunku do swoich dziedzin – 82% stwierdziło, że sztuczna inteligencja będzie miała neutralny lub nawet pozytywny wpływ na ich własną karierę. Przyznali jednak, że aby odnieść sukces, potrzebne będą nowe umiejętności, przy czym 86% spodziewa się, że będzie musiało zwiększyć swoje umiejętności i wiedzę w zakresie sztucznej inteligencji w ciągu dwóch lat, aby awansować lub utrzymać pracę.

Na potrzeby tego badania ISACA przeprowadziła ankietę wśród 601 specjalistów ds. biznesu i IT w Europie. Wyniki były zgodne z a większe badanie międzynarodowe również przeprowadził.

Chris Dimitriadis, dyrektor ds. strategii globalnej w ISACA, powiedział, że jest wiele do zrobienia, jeśli chodzi o zrozumienie sztucznej inteligencji w miejscu pracy. „Nie możesz stworzyć wartości, jeśli nie rozumiesz głęboko technologii. Nie można tak naprawdę zaradzić ryzyku, jeśli nie rozumie się technologii” – powiedział.

Dimitriadis dodał, że obecna sytuacja w zakresie sztucznej inteligencji jest taka sama, jak w przypadku poprzednich pojawiających się technologii. „Mamy organizacje, które próbują to rozgryźć, stworzyć swoją politykę i stworzyć zespoły, aby wykształcić umiejętności” – powiedział.

„Jednocześnie jednak przyjęcie tej technologii tak naprawdę nie wymaga czekania, aż wszystkie te rzeczy się wydarzą. Widzimy więc pracowników korzystających z generatywnej sztucznej inteligencji do tworzenia treści pisanych [and] zespoły produktowe próbujące testować nowe partnerstwa z dostawcami sztucznej inteligencji bez umieszczania tego w ramach, które mogą w znaczący sposób pomóc organizacji” – dodał.

Dimitriadis ostrzegł, że chociaż firmom zależało na wykorzystaniu obietnic związanych ze sztuczną inteligencją i tworzeniu wartości, wiele z nich nie traktowało jeszcze poważnie szkoleń ani nie przekwalifikowywało swojego personelu w zakresie bezpiecznego korzystania ze sztucznej inteligencji. „Nasze pragnienie innowacji i tworzenia czegoś nowego czasami przekracza struktury polityki korporacyjnej” – powiedział Computer Weekly.

Na przykład w większej organizacji niektóre poszczególne działy mogą zacząć korzystać ze sztucznej inteligencji, nie informując kierownictwa wyższego szczebla o tej nowej technologii. W innych przypadkach presja związana z czasem wprowadzenia produktu na rynek może sprawić, że wysiłki w zakresie bezpieczeństwa cybernetycznego, zapewnienia bezpieczeństwa i prywatności będą opóźnione – dodał.

Potrzebna edukacja na temat zagrożeń związanych ze sztuczną inteligencją

Jednak za największą przyczynę rozbieżności między wykorzystaniem sztucznej inteligencji a zarządzaniem sztuczną inteligencją uznano brak umiejętności. „Na przykład mamy już ogromną lukę w cyberbezpieczeństwie. Wyobraźcie sobie teraz, że dzięki sztucznej inteligencji ta luka przekształca się w coś znacznie poważniejszego” – powiedział.

Dzieje się tak dlatego, że w szczególności GenAI może generować nowe zagrożenia bezpieczeństwa, w zależności od branży i aplikacji. Firmy przetwarzające dane osobowe muszą zdawać sobie sprawę z ryzyka, że ​​sztuczna inteligencja może wprowadzić na przykład uprzedzenia halucynacje nowe szczegóły do ​​dodania do rekordów.

Istnieje również zagrożenie atakami z zewnątrz, być może polegającymi na tworzeniu żądań, które mogłyby nakłonić systemy sztucznej inteligencji do ujawnienia wrażliwych danych. Kolejnym wyzwaniem jest to, że chociaż w niektórych jurysdykcjach pojawiają się szczegółowe regulacje dotyczące sztucznej inteligencji, osobom niebędącym ekspertami trudno jest dostrzec, jakie zasady mogą łamać ich wykorzystanie sztucznej inteligencji.

Dlatego organizacje muszą zachować szczególną ostrożność, stale audytując sztuczną inteligencję pod kątem jej wyników, aby upewnić się, że działa ona zgodnie z oczekiwaniami użytkownika – stwierdził.

Według Dimitriadisa pierwszym krokiem w kierunku naprawienia braku polityki i nadzoru nad sztuczną inteligencją jest przeszkolenie odpowiednich osób w organizacji.

„Zawsze zaczyna się od ludzi. Jeśli przeszkoliłeś ludzi, będą oni mogli wdrożyć odpowiednie zasady. Najpierw musisz zrozumieć ryzyko, a następnie napisać politykę” – powiedział.

Chodzi także o to, aby świadomość i edukacja na temat sztucznej inteligencji wykraczały poza ekspertów, tak aby pracownicy byli świadomi zagrożeń związanych z korzystaniem ze sztucznej inteligencji i mogli uniknąć niezamierzonych naruszeń, powiedział.

„To dyskusja na forum zarządu, mająca na celu zapewnienie, że wartość, która ma zostać wygenerowana w wyniku przyjęcia sztucznej inteligencji, jest również zrównoważona z ryzykiem” – dodał.

Częścią tego będzie obecność dyrektora ds. bezpieczeństwa informacji (CISO) wraz z przeszkolonymi ekspertami w zakresie prywatności i ryzyka, którzy będą mogli rozmawiać z zarządami o wyzwaniu w kontekście funkcjonowania konkretnej organizacji.

„Jeśli udasz się do zarządu z ogólną historią o zagrożeniach, nigdy nie będzie ona przekonująca, ponieważ nie zostanie umieszczona w kontekście konkretnego strumienia przychodów w firmie” – powiedział. „Wszystko zaczyna się od edukacji ludzi”.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Gdzie zamówić w przedsprzedaży nowy Surface Laptop i Surface Pro firmy Microsoft

Wydaje się, że dostaliśmy nowe laptopy Surface całe wieki temu, ale Microsoft podsumował w tym momencie kilka odświeżeń na rok 2024 wydarzenie sprzętowe...

Lenovo doładowuje komputery Copilot+ najnowszymi modelami Yoga Slim 7x i ThinkPad T14s Gen 6 20 maja 2024 r.

Firma Lenovo wprowadziła na rynek komputery Lenovo Yoga Slim 7x i Lenovo ThinkPad T14s Gen 6, czyli pierwsze komputery PC nowej generacji Copilot+...

Seria Qualcomm Snapdragon X to ekskluzywna platforma do zasilania komputerów z systemem Windows dzięki rozwiązaniu Copilot+

Podczas debiutu Copilot+ firma Microsoft i globalni producenci OEM ogłosili komputery stacjonarne wyposażone w procesory Snapdragon X Elite i Snapdragon X Plus —...
Advertisment