Steve Miranda z Oracle: Klienci bliscy punktu zwrotnego dzięki Fusion


Steve’a Mirandy, wiceprezes wykonawczy ds. rozwoju produktów Oracle Applications, rozmawiał z Computer Weekly podczas konferencji Oracle Cloud World 2023 w Las Vegas o tym, co według niego stanowi punkt zwrotny wśród klientów firmy – punkt zwrotny od rozmów opartych na projektach do rozmów biznesowych z dostawca. Mówił także o tym, jak ważna jest generatywna sztuczna inteligencja i jakie będzie ona miała konsekwencje dla Oracle i jej klientów.

Poniżej znajduje się zredagowana i skompresowana wersja tego wywiadu, która regularnie stanowi uzupełnienie strategii Oracle.

Na samym końcu swojego przemówienia wspomniałeś o „punkcie zwrotnym” w sposobie, w jaki klienci korzystają z Twojej witryny Pakiet aplikacji w chmurze Fusion. Zastanawiam się tylko, co chciałeś przez to powiedzieć. I dlaczego teraz?

Odpowiedź „teraz” jest trudniejsza. Jeśli spojrzę wstecz – i myślę, że to jedna z moich frustracji związanych z tymi wydarzeniami, podczas których ludzie skupiają się na tym, „jakie są trzy nowe funkcje?” – ogłosiliśmy, że będziemy budować zupełnie nowy SaaS [software-as-a-service] aplikacja. Cóż, zbudowaliśmy to i zaczynasz zdobywać pierwszych użytkowników, i to trwa.

Obecnie zajmuję się prawdopodobnie trzydziestoma sponsorami klientów, podczas których rozmawiam z klientem co tydzień, co dwa tygodnie, czasem co miesiąc, a czasem co kwartał na temat wdrażania przez niego aplikacji w chmurze. I przede wszystkim w ciągu ostatnich trzech do sześciu miesięcy zauważyłem zmianę. Rozmowy są takie, że albo firma zakończyła wdrażanie, łącznie z wieloma fazami lub rozszerzeniami, albo wdrożenie nie jest ich zmartwieniem numer jeden, wdrożyli już wystarczająco dużo biznesu, więc mają inne rzeczy do przemyślenia .

Zatem rozmowa zeszła na: „Jesteśmy na platformie SaaS i otrzymujemy kwartalne aktualizacje. Otrzymaliśmy pewne korzyści biznesowe. Ale co dalej? Proszę o zabranie mojego DSO [day sales outstanding] od 45 dni do 42 dni. Jak możesz pomóc skrócić moje zamknięcie finansowe od 18 do 16?”

Reklama

Rozmowa ta staje się coraz bardziej biznesowa, a w coraz mniejszym stopniu zorientowana na projekty. Dlatego myślę, że punktem przegięcia jest ten, w którym zmienił się ton.

W 2019 roku rozmawialiśmy o tym, dlaczego Oracle nie używał wymyślnych nazw dla swojego uczenia maszynowego (ML) i sztucznej inteligencji (AI)jak Leonardo, Einstein, Coleman czy Watson. O tym, jak ML był bardziej zapieczony pod kołdrą. Nie byłbym zatem zszokowany, gdyby Larry Ellison w swoim tegorocznym przemówieniu przemówienia powiedział na temat generatywnej sztucznej inteligencji: „Robimy sztuczną inteligencję od lat, nie robimy z tego wielkiego halo”. Ale on powiedział coś zupełnie przeciwnego. W istocie stwierdził, to jest rewolucyjneto zupełnie nowy paradygmat, trochę jak Sputnik pod koniec lat pięćdziesiątych.

Cóż, myślę, że powiedział: „Robimy sztuczną inteligencję od długiego czasu, ale generatywna sztuczna inteligencja jest zupełnie inna”. Powiedziałbym jednak również, że sztuczna inteligencja będzie miała fundamentalne znaczenie w tym, co robimy, a następnie całkowicie zmieni to, co robimy.

Mam wiele pytań, gdy ogłosiliśmy te funkcje AI [in the Fusion applications suite]. „Zamierzasz za mnie pobierać opłaty?” Rozegrajmy to trochę. Załóżmy, że pobieramy opłaty za sztuczną inteligencję. Czy mówimy potencjalnym klientom: „Czy chcesz uzyskać informacje finansowe dotyczące sztucznej inteligencji? A może dane finansowe niezwiązane ze sztuczną inteligencją i wywiadem ludzkim?” Oczywiście masz finanse AI, ale nie jest to dodatkowa rzecz, za którą płacisz.

Biorąc jednak pod uwagę dobrze znane wady generatywnej sztucznej inteligencji – jej halucynacje, pewność, że ma rację, gdy tak nie jest – jakie zabezpieczenia wprowadza Oracle, aby mieć pewność, że ponad 50 narzędzi generatywnej sztucznej inteligencji nie wprowadza użytkowników w błąd ani w inny sposób nie powoduje poważnych błędy? Jak zamierzasz chronić swoich użytkowników?

W naszych 50 przypadkach użycia można wyróżnić kilka kluczowych nawyków związanych z prowadzeniem pojazdu. Po pierwsze, nigdy nie wykorzystujemy danych klientów do szkolenia LLM [large language model]. Powodem tego jest to, że mamy z naszymi klientami umowy dotyczące poziomu usług, które mają na celu ochronę ich danych. Uważamy, że to ich dane. Dopóki nie będziemy w stanie pozwolić klientom na wyrażenie zgody, jeśli tak zdecydują, i w ten sposób udostępnimy tę funkcjonalność, nie będziemy tego robić. To część pierwsza. Po drugie, nigdy nie przechodzimy Dane osobowe [personally identifiable information] do LLM, ponieważ nie chcemy, aby dane umożliwiające identyfikację osób zostały ujawnione. Po trzecie, całą sztuczną inteligencję wygenerowaną dzisiaj możemy przeglądać przez człowieka.

„[The use of cloud applications is] staje się rozmową bardziej biznesową, a mniej zorientowaną na projekt. Myślę, że punktem przegięcia jest ten, w którym zmienił się ton”

Steve Miranda, Wyrocznia

Nie przyjmujemy propozycji sprzedaży wygenerowanej przez AI i nie wysyłamy jej automatycznie do Twojego klienta. Bo masz rację – nadal są halucynacje i pewne rzeczy, których możesz nie chcieć wysyłać klientowi. Można go sprawdzić przez człowieka. Generujemy sztuczną inteligencję, prezentujemy ją człowiekowi, który może ją przeczytać, sprawdzić, a następnie nacisnąć przycisk wysyłania.

Jesteśmy pewni, że z biegiem czasu – mogą to być trzy miesiące, mogą to być trzy lata, [although] Myślę, że to prawdopodobnie bliżej trzech miesięcy – LLM będzie coraz lepszy. I [once that happens we] zacznie modyfikować te zasady. Gdybyś mi powiedział za sześć miesięcy, że znaczna część problemu halucynacji zostanie rozwiązana, nie zdziwiłoby mnie to.

Jeśli chodzi o przypadki użycia generatywnej sztucznej inteligencji w przedsiębiorstwach, czy masz w głowie skalę określającą, do czego jest ona naprawdę przydatna, a do czego jest mniej przydatna w kontekście pakietu aplikacji Fusion?

Myślę, że tam, gdzie generujesz tekst, jest to bardzo przydatne. Ludzie niestety nie piszą zbyt dobrze. A czasami nie lubią pisać i CzatGPT LLM radzą sobie z tym bardzo dobrze. Powiedziałbym także podsumowując. LLM wykonują dziś bardzo dobrą robotę, podsumowując dane, niezależnie od tego, czy jest to talia programu PowerPoint, książka czy film. [If] Jeśli zastosujesz to do przedsiębiorstw i raportowania biznesowego, możesz zrobić wiele rzeczy – dobrze napisane podsumowanie zarządzania byłoby świetną funkcjonalnością dla przedsiębiorstwa.

Zdjęcie Steve'a Mirandy wygłaszającego przemówienie na konferencji Oracle Cloud World 2023
Steve Miranda wygłasza swoje przemówienie w Oracle Cloud World

Możesz też pomyśleć o dowolnym ekranie, tabeli lub czymkolwiek, co można pobrać do arkusza kalkulacyjnego w naszych aplikacjach. Generatywna sztuczna inteligencja świetnie sobie radzi z sumowaniem i dodawaniem. Weź publiczny LLM, taki jak ChatGPT, a następnie weź arkusz kalkulacyjny z krajami, kodem stanowiska i niektórymi wynagrodzeniami i możesz zapytać: „Jaka jest średnia pensja menedżera produktu we Francji?” Tak więc nagle do tego, co zwykliśmy nazywać raportowaniem ad hoc lub tworzeniem raportu, wystarczy pasek tekstowy.

Ale możesz też zapytać: „Jaka jest średnia pensja menedżera produktu w Europie?” I ta kolumna nie musi zawierać „Europy”, zawiera tylko kraje, ponieważ LLM wie, czym jest Europa.

Rozmawiając do tej pory z różnymi menedżerami w ciągu roku i przychodząc na tego typu wydarzenia, kilka razy słyszałem: „To dzieci”. Dzieci dyrektorów wyższego szczebla wracają ze szkoły do ​​domu i mówią: „Naprawdę musisz to sprawdzić”. Zatem projekty, które umieścili w pudełku „zajmijmy się tym za pięć lat”, do których teraz dochodzą, od razu, z poczuciem pilności.

Taka jest wartość naiwności, prawda? Czasami lepiej jest, gdy nie wiesz nic lepszego. Zdecydowanie bym się z tym zgodził.

Rozmawiałem z naszą szefową AI, naprawdę ją naciskając: „Potrzebuję przypadków użycia”. I było naprawdę trudno. Ale wiesz, dostajesz tę prostą, charyzmatyczną i popularną innowację, taką jak LLM. Myślę, że tak można by to opisać trzema słowami. To bardzo proste – każdy może z tego skorzystać. Było bardzo popularne, prawda? I to bardzo charyzmatycznego. Możesz z nim wchodzić w interakcję na dowolnym poziomie. Nawet dziecko mogłoby z nim współdziałać. To nie była matematyczna sztuczna inteligencja. To nie uczenie maszynowe wywodzi się z sztucznej inteligencji, do której mamy dostęp IoT [internet of things]. To nie sztuczna inteligencja była wykorzystywana do kontroli transakcji.

Myślę, że to właśnie spowodowało eksplozję. Bez urazy do technologii, ale fakt, że była charyzmatyczna, prosta i popularna, naprawdę zrobił furorę.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Sztuczna inteligencja Edge Copilot firmy Microsoft nie jest w stanie podsumować każdego filmu na YouTube

Dodano jedną funkcję do AI Copilot firmy Microsoft w przeglądarce Edge w tym tygodniu jest możliwość generowania streszczeń tekstowych filmów. Jednak funkcja...

UE osiąga wstępne porozumienie w sprawie ustawy o sztucznej inteligencji, torując drogę dla prawa

Po rundzie intensywnych negocjacji w tym tygodniu prawodawcy w Brukseli osiągnęli obecnie ok „porozumienie tymczasowe” w sprawie proponowanej przez Unię Europejską ustawy o...

Święta Bożego Narodzenia z Batmanem, nowe filmy z serwisu Netflix i wszystko inne do obejrzenia

Witamy w najbardziej pracowitym sezonie kinowym w roku, kiedy naprawdę warto wybrać się do kin na filmy, a wszystko, co trafia...
Advertisment