Amazon buduje systemy sztucznej inteligencji (AI) i wykorzystuje uczenie maszynowe od ponad 20 lat. Personalizacja i rekomendacje były jednymi z pierwszych innowacji wprowadzonych w witrynie e-commerce, a te i inne koncepcje technologiczne, takie jak asystent głosowy Alexa, pomagają wprowadzać innowacje w zakresie sztucznej inteligencji w usłudze chmury publicznej Amazon Web Services (AWS). Następnie stają się one dostępne dla klientów IT w przedsiębiorstwach.
Rozpoczęcie pracy ze sztuczną inteligencją może być zniechęcającym zadaniem, biorąc pod uwagę niemal ciągłe rozmowy branżowe, które zdają się dominować w rozmowach IT. Niedawno Computer Weekly omawiał wyzwania związane ze sztuczną inteligencją w przedsiębiorstwie z Francesscą Vasquez, wiceprezes ds. usług profesjonalnych i Centrum Innowacji GenAI dla AWS.
Zapytany o to, w jaki sposób liderzy IT i biznesowi mogą opracować realną strategię sztucznej inteligencji, biorąc pod uwagę cały szum branżowy wokół tej technologii, Vasquez nalega, aby przedsiębiorstwa włączające sztuczną inteligencję do swojej strategii biznesowej, aby zaczęły od rozważenia możliwości swojej infrastruktury IT, która jest potrzebna do zbudowania i trenuj modele fundamentów.
Biorąc pod uwagę wszystko, co dzieje się ze sztuczną inteligencją, Vasquez uważa, że dla wielu organizacji uczenie maszynowe pozostaje bardzo przydatnym narzędziem.
„Niekoniecznie potrzebujesz skomplikowanych danych wejściowych i wyników głębokiego uczenia się, jakie zapewnia generacyjna sztuczna inteligencja [GenAI] zapewnia” – mówi Vasquez, dodając, że firmy priorytetowo traktują przypadki użycia sztucznej inteligencji i uczenia maszynowego, które ich zdaniem są najbardziej znaczące i wpływowe. Jej zdaniem takie projekty zazwyczaj charakteryzują się dobrym zwrotem z inwestycji.
„Zazwyczaj wiążą się z niższym ryzykiem i pozwalają organizacjom szybciej rozpocząć pracę” – mówi Vasquez. Przypomina to trochę wdrażanie automatyzacji w celu rozwiązania tak zwanych „nisko wiszących owoców” nieefektywności, z którymi borykały się organizacje.
Zapewnienie poziomu inteligencji w automatyzacji takich zadań pozwala organizacji działać szybciej, w zakresie usprawniania nieefektywnych kroków w procesach biznesowych.
„To, co najbardziej mnie ekscytuje i myślę, że każdy klient może osiągnąć wymierne rezultaty, to przyglądanie się takim czynnikom, jak sposób, w jaki programiści tworzą oprogramowanie i cały cykl życia tworzenia oprogramowania” – mówi. „To dla mnie świetny przypadek wykorzystania automatyzacji, sztucznej inteligencji i ludzi do zwiększenia wydajności”.
Usługi AI w AWS
Patrząc na ofertę sztucznej inteligencji AWS, Vasquez mówi: „Bardzo dużo inwestujemy we własne rozwiązania obliczeniowe i niestandardowe układy krzemowe”.
Nad sprzętem AWS obsługuje warstwę platformy znaną jako Bedrock dla GenAI. „To tak naprawdę usługi zarządzane, w przypadku których umożliwiamy organizacjom korzystanie z dużych modeli językowych (LLM) i modeli podstawowych” – mówi.
Bedrock oferuje to, co AWS nazywa podstawą do tworzenia i skalowania bezpiecznych aplikacji GenAI. W szczególności ma na celu zapewnienie pojedynczej platformy za pośrednictwem pojedynczego interfejsu programowania aplikacji (API), który według Vasqueza zapewnia dostęp do firmy Titan LLM [large language model] wraz z kilkoma podstawowymi modelami innych firm. Należą do nich modele dostarczane przez AI21 Labs, Cohere, Stability AI czy Anthropic, Meta i Mistral AI.
„To, co naprawdę mnie ekscytuje, to fakt, że na szczycie naszego stosu generatywnej sztucznej inteligencji znajduje się miejsce, w którym pojawiają się innowacje wraz z możliwością tworzenia aplikacji GenAI” – mówi.
Jeden z tych Aplikacje AI to Amazon Q, asystent oparty na GenAI, który może odpowiadać na pytania, dostarczać podsumowania, generować treści i wykonywać zadania w oparciu o dane i informacje w systemach korporacyjnych. AWS twierdzi, że można to wszystko osiągnąć bezpiecznie.
Zarządzanie modelami AI i dostępem do danych
Zawsze istnieje równowaga pomiędzy blokowaniem dostępu do danych w celu zapewnienia zgodności i zapewnieniem przestrzegania rygorystycznych zasad cyberbezpieczeństwa a możliwością wykorzystania danych specyficznych dla firmy do napędzania innowacji i generowania wartości. Istnieje wiele głośnych przykładów niezamierzonego wycieku danych podczas korzystania z publicznych LLM.
Zapytana o rady, których udzieliłaby przedsiębiorstwom rozważającym LLM, Vasquez odpowiada: „Pierwszą rzeczą, którą powiem, jest to, że dane rosną w tempie wykładniczym. Wszyscy powinniśmy się na tym opierać”.
Większość organizacji przechowuje terabajty; niektóre mają petabajty miejsca na dane; a w niektórych rzadkich przypadkach niektóre przechowują eksabajty danych. „Skala informacji rośnie, a tworzenie informacji pojawia się w większej liczbie formatów, wykraczających poza to, co można by uznać za dane strukturalne” – mówi.
Aby Vasquez mógł wykorzystać wszystkie różne magazyny danych organizacji, w których przechowywane są ogromne ilości danych w wielu formatach, firmy potrzebują mocy GenAI. „Większość organizacji będzie musiała najpierw skorzystać z chmury publicznej, aby skorzystać z generatywnej sztucznej inteligencji” – mówi.
Vasquez wyjaśnia: „W AWS, jeśli pomyślę tylko o naszej chmurze, bezpieczeństwo, podobnie jak prywatność danych, jest dość dużym priorytetem”.
Oznacza to, że w miarę opracowywania i udostępniania przez AWS nowych usług bezpieczeństwo nie jest rozważane osobno. „Wierzymy, że wszystkie informacje muszą być szyfrowane i zarządzane” – mówi. „Nadal stosujemy te same konstrukcje wspólnej odpowiedzialności. Trzeba umieć budować aplikacje w wirtualnej chmurze publicznej [VPC]a informacje te nigdy nie opuszczają VPC.”
Według Vasqueza to myślenie ewoluuje, aby wspierać oczekiwania klientów AWS od usług LLM. „Klienci potrzebują silniejszych zabezpieczeń w zakresie kontroli dostępu i zarządzania modelami, które mogą automatycznie odfiltrowywać niechciane koncepcje, wypowiedzi, wulgaryzmy lub rzeczy, których nie chcesz wprowadzać do modelu” – mówi.
Podejście AWS polega na wbudowaniu takich możliwości w Bedrock.
Szkolenie, aby uniknąć nieporozumień
Vasquez przyznaje, że LLM można łatwo pomylić, na przykład gdy: chatbot odpowiada bzdurami na dwuznaczne pytanie. „Kiedy przyjrzymy się, jak te modele są stosowane na całym świecie, staje się to jeszcze ważniejsze” – mówi. „Nie wyobrażamy sobie świata, w którym będzie istniał tylko jeden podstawowy model, który może zrobić wszystko”.
Vasquez nalega, aby firmy wdrażające LLM skupiły się na optymalizacji wykorzystywanych modeli podstawowych. Typowym przykładem jest kontekst uczenia się z wykorzystaniem generowania rozszerzonego wyszukiwania, w którym model dostosowuje się na podstawie dodatkowych pobranych danych.
Niektóre firmy mogą potrzebować wyjść poza samokształcenie. „Uważamy, że niektórzy klienci będą potrzebować możliwości dostrajania, a niektórzy będą chcieli ciągłego wstępnego szkolenia modeli w miarę pojawiania się nowych informacji” – mówi.
Według Vasqueza zawsze będzie istniał element modeli sztucznej inteligencji współpracujący z ludźmi, pozwalający na zrozumienie sytuacji, w których przeszkolenie modelu jest niewystarczające. „W ostatecznym rozrachunku wszystko sprowadza się do rozumowania” – mówi. „Możesz to nazwać ludzką logiką lub ludzką inteligencją”.