Microsoft zwalnia zespół ds. etyki i społeczeństwa AI


Microsoft zwolnił cały swój zespół ds. etyki i społeczeństwa w ramach organizacji zajmującej się sztuczną inteligencją ostatnie zwolnienia które dotknęły 10 000 pracowników w całej firmie, Platformówka nauczył się.

To posunięcie pozostawia Microsoft bez dedykowanego zespołu, aby zapewnić, że jego zasady AI są ściśle powiązane z projektowaniem produktów w czasie, gdy firma przewodzi opłatom za udostępnianie narzędzi AI dla głównego nurtu, powiedzieli obecni i byli pracownicy.

Microsoft nadal utrzymuje plik active Biuro Odpowiedzialnej AI, którego zadaniem jest tworzenie reguł i zasad rządzących firmowymi inicjatywami AI. Firma twierdzi, że jej ogólne inwestycje w odpowiedzialne prace rosną pomimo niedawnych zwolnień.

„Microsoft jest zaangażowany w opracowywanie produktów i doświadczeń sztucznej inteligencji w sposób bezpieczny i odpowiedzialny, inwestując w ludzi, procesy i partnerstwa, które traktują to jako priorytet” – napisała firma w oświadczeniu. „W ciągu ostatnich sześciu lat zwiększyliśmy liczbę osób w naszych zespołach produktowych oraz w Biurze ds. Odpowiedzialnej Sztucznej Inteligencji, które wraz z nami wszystkimi w firmie Microsoft są odpowiedzialne za wdrażanie naszych zasad sztucznej inteligencji w życie. […] Doceniamy pionierską pracę wykonaną przez Ethics & Society, która pomogła nam w naszej ciągłej odpowiedzialnej podróży AI”.

Jednak pracownicy stwierdzili, że zespół ds. etyki i społeczeństwa odegrał kluczową rolę w zapewnieniu, że odpowiedzialne zasady firmy dotyczące sztucznej inteligencji są rzeczywiście odzwierciedlone w projektach wysyłanych produktów.

„Naszym zadaniem było… stworzenie zasad tam, gdzie ich nie było”.

Reklama

„Ludzie patrzyliby na zasady wychodzące z biura odpowiedzialnej sztucznej inteligencji i mówili:„ Nie wiem, jak to ma zastosowanie ”- mówi jeden z byłych pracowników. „Naszym zadaniem było pokazanie im i stworzenie reguł tam, gdzie ich nie było”.

W ostatnich latach zespół zaprojektował grę fabularną o nazwie Judgement Call, która pomogła projektantom wyobrazić sobie potencjalne szkody, które mogą wynikać ze sztucznej inteligencji, i omówić je podczas opracowywania produktu. Była to część większego „zestaw narzędzi odpowiedzialnej innowacji”, które zespół opublikował publicznie.

Niedawno zespół pracował nad zidentyfikowaniem zagrożeń związanych z przyjęciem przez Microsoft technologii OpenAI w całym pakiecie produktów.

Zespół ds. etyki i społeczeństwa był największy w 2020 r., kiedy liczył około 30 pracowników, w tym inżynierów, projektantów i filozofów. W październiku zespół został zredukowany do około siedmiu osób w ramach reorganizacji.

Podczas spotkania z zespołem po reorganizacji, John Montgomery, wiceprezes ds. sztucznej inteligencji, powiedział pracownikom, że liderzy firmy poinstruowali ich, aby działali szybko. „Presja ze strony [CTO] Kevina [Scott] I [CEO] Satya [Nadella] jest bardzo, bardzo wysoki, aby wziąć te najnowsze modele OpenAI i te, które pojawią się po nich i przekazać je klientom z bardzo dużą prędkością”, powiedział, zgodnie z nagraniem ze spotkania uzyskanym przez Platformówka.

Z powodu tej presji, powiedział Montgomery, większość zespołu miała zostać przeniesiona do innych obszarów organizacji.

Niektórzy członkowie zespołu odepchnęli się. „Będę na tyle odważny, aby poprosić cię o ponowne rozważenie tej decyzji” – powiedział jeden z pracowników podczas rozmowy telefonicznej. „Chociaż rozumiem, że w grę wchodzą kwestie biznesowe… ten zespół zawsze był głęboko zaniepokojony tym, jak wpływamy na społeczeństwo i jaki mamy negatywny wpływ. I są znaczące”.

Montgomery odmówił. „Czy mogę to przemyśleć? Nie sądzę, żebym to zrobił” – powiedział. „Ponieważ niestety presja pozostaje taka sama. Nie masz takiego poglądu jak ja i prawdopodobnie możesz być za to wdzięczny. W kiełbasie jest mielone mnóstwo rzeczy.

Jednak w odpowiedzi na pytania Montgomery powiedział, że zespół nie zostanie wyeliminowany.

„Nie chodzi o to, że odchodzi – chodzi o to, że ewoluuje” – powiedział. „Ewoluuje w kierunku wkładania większej energii w poszczególne zespoły produktowe, które budują usługi i oprogramowanie, co oznacza, że ​​centralne centrum, które wykonywało część pracy, przekazuje swoje umiejętności i obowiązki”.

Większość członków zespołu została przeniesiona w inne miejsce w firmie Microsoft. Później pozostali członkowie zespołu ds. etyki i społeczeństwa powiedzieli, że mniejsza załoga utrudniała realizację ich ambitnych planów.

Ten ruch pozostawia fundamentalną lukę w holistycznym projektowaniu produktów AI, mówi jeden z pracowników

Około pięć miesięcy później, 6 marca, pozostałym pracownikom polecono dołączenie do rozmowy Zoom o 11:30 czasu pacyficznego, aby usłyszeć „krytyczne informacje biznesowe” od Montgomery. Podczas spotkania powiedziano im, że mimo wszystko ich zespół jest eliminowany.

Jeden z pracowników twierdzi, że posunięcie to pozostawia fundamentalną lukę w doświadczeniu użytkownika i holistycznym projektowaniu produktów AI. „Najgorsze jest to, że robiąc to, naraziliśmy firmę na ryzyko i ludzi” – wyjaśnili.

Konflikt podkreśla ciągłe napięcie między gigantami technologicznymi, którzy budują dywizje zajmujące się uczynieniem swoich produktów bardziej odpowiedzialnymi społecznie. W miarę możliwości pomagają zespołom produktowym przewidywać potencjalne nadużycia technologii i naprawiać wszelkie problemy przed wysyłką.

Ale ich zadaniem jest również mówienie „nie” lub „zwolnienie” wewnątrz organizacji, które często nie chcą tego słyszeć — lub określanie zagrożeń, które mogą doprowadzić firmę do prawnego zawrotu głowy, jeśli zostaną wykryte w świetle prawa. Wynikające z tego tarcia czasami przekładają się na widok publiczny.

Google w 2020 r zwolnił etycznego badacza AI, Timnita Gebru po tym, jak opublikowała artykuł krytyczny wobec dużych modeli językowych, które dwa lata później zyskały na popularności. Wynikająca z tego furia doprowadziła do odejścia kilku innych czołowych liderów w dzialei zmniejszyła wiarygodność firmy w odpowiedzialnych kwestiach sztucznej inteligencji.

Microsoft skupił się na dostarczaniu narzędzi AI szybciej niż jego rywale

Członkowie zespołu ds. etyki i społeczeństwa powiedzieli, że generalnie starali się wspierać rozwój produktu. Powiedzieli jednak, że gdy Microsoft skupił się na dostarczaniu narzędzi AI szybciej niż jego rywale, kierownictwo firmy przestało być zainteresowane długoterminowym myśleniem, w którym specjalizuje się zespół.

To dynamika, która wymaga dokładnej analizy. Z jednej strony Microsoft może mieć teraz jedyną w swoim rodzaju szansę na zdobycie znaczącej przewagi nad Google w wyszukiwarce, oprogramowaniu zwiększającym produktywność, przetwarzaniu w chmurze i innych obszarach, w których konkurują giganci. Kiedy ponownie uruchomiła Bing z AI, firma powiedziała to inwestorom każdy 1 procent udziału w rynku, który mógłby odebrać Google w wyszukiwarce, przyniósłby 2 miliardy dolarów rocznych przychodów.

Ten potencjał wyjaśnia, dlaczego Microsoft do tej pory zainwestował 11 miliardów dolarów w OpenAIi jest obecnie wyścigi, aby zintegrować technologię startupu z każdym zakątkiem jego imperium. Wygląda na to, że odniósł pewien wczesny sukces: firma powiedziała w zeszłym tygodniu, że Bing ma teraz 100 milionów aktywnych użytkowników dzienniez czego jedna trzecia była nowa od czasu ponownego uruchomienia wyszukiwarki z technologią OpenAI.

Z drugiej strony wszyscy zaangażowani w rozwój sztucznej inteligencji zgadzają się, że technologia stwarza potężne i prawdopodobnie egzystencjalne zagrożenia, zarówno znane, jak i nieznane. Giganci technologiczni dołożyli wszelkich starań, aby zasygnalizować, że poważnie traktują to ryzyko – tylko Microsoft to zrobił trzy różne grupy pracuje nad tą kwestią, nawet po wyeliminowaniu zespołu ds. etyki i społeczeństwa. Ale biorąc pod uwagę stawkę, wszelkie cięcia w zespołach skupionych na odpowiedzialnej pracy wydają się godne uwagi.

Eliminacja zespołu ds. etyki i społeczeństwa nastąpiła w momencie, gdy pozostali pracownicy grupy skupili się na prawdopodobnie największym dotychczas wyzwaniu: przewidywaniu, co się stanie, gdy Microsoft udostępni globalnym odbiorcom narzędzia oparte na OpenAI.

W zeszłym roku zespół napisał notatkę szczegółowo opisującą ryzyko związane z marką Kreator obrazów Bing, który wykorzystuje system DALL-E firmy OpenAI do tworzenia obrazów na podstawie monitów tekstowych. Narzędzie obrazu uruchomiona w kilku krajach w październikuco czyni ją jedną z pierwszych publicznych współpracy Microsoftu z OpenAI.

Chociaż technologia zamiany tekstu na obraz okazała się niezwykle popularna, badacze Microsoftu słusznie przewidzieli, że może ona również zagrozić źródłom utrzymania artystów, umożliwiając każdemu łatwe kopiowanie ich stylu.

„Podczas testowania Bing Image Creator odkryto, że za pomocą prostego monitu, zawierającego tylko imię artysty i medium (malarstwo, druk, fotografię lub rzeźbę), wygenerowane obrazy były prawie niemożliwe do odróżnienia od oryginalnych prac” — napisali badacze w notatka.

„Ryzyko zniszczenia marki… jest realne i na tyle znaczące, że wymaga zadośćuczynienia”.

Dodali: „Ryzyko zniszczenia marki, zarówno artysty, jak i jego interesariuszy finansowych, oraz negatywny PR wobec Microsoft wynikający ze skarg artystów i negatywnej reakcji opinii publicznej jest na tyle realny i znaczący, że wymaga zadośćuczynienia, zanim zaszkodzi marce Microsoft”.

Ponadto w zeszłym roku OpenAI zaktualizowało swoje warunki świadczenia usług, aby dać użytkownikom „pełne prawa własności do obrazów tworzonych za pomocą DALL-E”. Posunięcie to zaniepokoiło zespół ds. etyki i społeczeństwa firmy Microsoft.

„Jeśli generator obrazów AI matematycznie replikuje obrazy prac, etycznie podejrzane jest sugerowanie, że osoba, która przesłała monit, ma pełne prawa własności do powstałego obrazu” – napisali w notatce.

Badacze firmy Microsoft stworzyli listę strategii ograniczających ryzyko, w tym blokowanie użytkownikom Bing Image Creator możliwości używania imion żyjących artystów jako monitów oraz tworzenie rynku sprzedaży prac artystów, który zostałby ujawniony, gdyby ktoś wyszukał ich nazwisko.

Pracownicy twierdzą, że żadna z tych strategii nie została wdrożona, a Bing Image Creator i tak został uruchomiony w krajach testowych.

Microsoft twierdzi, że narzędzie zostało zmodyfikowane przed uruchomieniem w celu rozwiązania problemów poruszonych w dokumencie i skłoniło do dodatkowej pracy ze strony odpowiedzialnego zespołu ds. sztucznej inteligencji.

Ale kwestie prawne dotyczące technologii pozostają nierozwiązane. w lutym 2023 r. Getty Images złożyło pozew przeciwko Stability AI, twórcy generatora grafiki AI Stable Diffusion. Getty oskarżył startup AI o niewłaściwe wykorzystanie ponad 12 milionów obrazów do szkolenia swojego systemu.

Oskarżenia odzwierciedlały obawy podniesione przez własnych etyków AI Microsoftu. „Prawdopodobnie niewielu artystów zgodziło się na wykorzystanie ich prac jako danych szkoleniowych i prawdopodobnie wielu wciąż nie zdaje sobie sprawy, w jaki sposób technologia generatywna umożliwia tworzenie odmian internetowych obrazów ich pracy w ciągu kilku sekund” – napisali pracownicy w zeszłym roku.



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Czasem nie ma nic złego w przyznaniu się do błędu, Apple

Apple ma problem z przyznaniem się do błędu. W marketingu firmy zawsze chodziło o doskonałość, a przyznanie się, że coś jest nie...

Dlaczego Xenomorph z Alien jest wciąż idealnym złoczyńcą science-fiction

Ta funkcja w Ridley Scott Obcy a franczyza, którą uruchomiła, została pierwotnie opublikowana jako część pakiet poświęcony najbardziej ukochanym złoczyńcom science...

Apple podobno negocjuje z OpenAI w sprawie obsługi funkcji iOS 18

Niektóre raporty z zeszłego miesiąca ujawniły, że Apple prowadził rozmowy z Google na temat wykorzystania Gemini do obsługi nowych funkcji sztucznej inteligencji dostępnych...
Advertisment