Dziś rano Microsoft ustalił datę premiery swojego Drugi pilot zasilany sztuczną inteligencją funkcję i po raz pierwszy pokazał niektóre ze swoich możliwości. Po ogłoszeniu panelu „Odpowiedzialna sztuczna inteligencja” dyrektorzy firmy mówili o niebezpieczeństwie nadmiernego polegania na oprogramowaniu generatywnym, co objawiało się tworzeniem postów na blogach, obrazów i e-maili na podstawie podpowiedzi użytkowników.
Sześć miesięcy po firmie zwolnił drużynę skupiając się na przestrzeganiu zasad odpowiedzialnej sztucznej inteligencji w dostarczanych produktach, kierownictwo próbowało jasno oświadczyć na scenie: Wszystko jest w porządku. Odpowiedzialna sztuczna inteligencja jest nadal aktualna w firmie Microsoft. A drugi pilot nie przyjmie twojej pracy.
„Produkt o nazwie Copilot jest naprawdę zamierzony” – powiedziała Sarah Bird, która kieruje sztuczną inteligencją w firmie Microsoft. „Naprawdę wspaniale się z tobą pracuje. Zdecydowanie nie jest dobrze zastąpić cię.
Bird odniósł się do demonstracji z wydarzenia inauguracyjnego, która pokazała, jak Copilot pisze wiadomość e-mail w imieniu użytkownika. „Chcemy mieć pewność, że ludzie faktycznie sprawdzają, czy treść tych e-maili jest zgodna z tym, co chcą powiedzieć” – powiedział Bird. Paneliści wspomnieli, że czat Bing zawiera cytaty, do których użytkownicy mogą następnie wrócić i zweryfikować.
„Tego rodzaju doświadczenia użytkownika pomagają zmniejszyć nadmierne poleganie na systemie” – powiedział Bird. „Używają go jako narzędzia, ale nie polegają na tym, że zrobi za nich wszystko”.
„Chcemy dać ludziom możliwość weryfikacji treści, tak jakbyś przeprowadzał jakiekolwiek badania” – zapewniła dalej Divya Kumar, dyrektor generalny ds. wyszukiwania i marketingu AI w firmie Microsoft. „Czynnik ludzki będzie bardzo ważny”.
Paneliści przyznali, że Copilot (przynajmniej na tym etapie) będzie podatny na dezinformację i dezinformację – w tym tę, którą mogą stworzyć inne generatywne narzędzia AI. Firma Microsoft nadała priorytet włączeniu narzędzi takich jak cytaty i dane uwierzytelniające treści (które dodają cyfrowy znak wodny do obrazów generowanych przez sztuczną inteligencję w Bing), aby mieć pewność, że ludzie postrzegają pokolenia Copilot jako punkt wyjścia, a nie jako zamienniki własnej pracy.
Paneliści namawiali publiczność, aby nie obawiała się wpływu, jaki mogą mieć narzędzia generatywne. „Mój zespół i ja podchodzimy do tego naprawdę poważnie” – powiedziała Chitra Gopalakrishnan, dyrektor ds. partnerów firmy Microsoft ds. zgodności. „Od opracowania po wdrożenie wszystkie te funkcje przechodzą rygorystyczną analizę etyczną, analizę wpływu, a także ograniczanie ryzyka”.
Paneliści przyznali jednak później, że narzędzia generatywne mogą drastycznie zmienić krajobraz opłacalnych karier.
„Kiedy masz potężne narzędzie do współpracy, musisz zrobić inaczej” – powiedział Bird. „Wiemy, że niektóre stanowiska pracy ulegną zmianie”.