Google wyjaśnia „żenujące” zdjęcia różnych nazistów wykonane przez sztuczną inteligencję Gemini


Google opublikowało wyjaśnienia dotyczące „żenujących i błędnych” obrazów generowanych przez narzędzie Gemini AI. W wpis na blogu w piątekGoogle twierdzi, że jego model generował „niedokładne historyczne” obrazy ze względu na problemy z tuningiem. Krawędź i inni przyłapali Gemini na generowaniu obrazów zróżnicowanych rasowo nazistów i Ojcowie Założyciele Stanów Zjednoczonych na początku tego tygodnia.

„Nasze dostrojenie mające na celu zapewnienie, że Gemini pokazywało grupę osób, nie uwzględniło przypadków, które powinny być wyraźnie widoczne nie pokaż zakres” – pisze w poście Prabhakar Raghavan, starszy wiceprezes Google. „Po drugie, z biegiem czasu model stał się znacznie bardziej ostrożny, niż zamierzaliśmy, i całkowicie odmówił udzielenia odpowiedzi na pewne podpowiedzi, błędnie interpretując niektóre bardzo anonimowe podpowiedzi jako wrażliwe”.

Wyniki Gemini dla podpowiedzi „generują obraz senatora USA z XIX wieku”.
Zrzut ekranu autorstwa Adiego Robertsona

To doprowadziło Gemini AI do „w niektórych przypadkach nadmiernej rekompensaty”, jak to widzieliśmy na zdjęciach zróżnicowanych rasowo nazistów. Spowodowało to również, że Bliźnięta stały się „nadmiernie konserwatywne”. Spowodowało to, że po wyświetleniu monitu odmówił wygenerowania konkretnych obrazów „osoby czarnej” lub „osoby białej”.

W poście na blogu Raghavan stwierdza, że ​​Google „przeprasza, że ​​ta funkcja nie działała dobrze”. Zauważa również, że Google chce, aby Gemini „działało dobrze dla wszystkich”, co oznacza, że ​​gdy poprosisz o zdjęcia „piłkarzy” lub „kogoś spacerującego z psem”, będziesz otrzymywać wizerunki różnych typów ludzi (w tym różnych grup etnicznych). Ale on mówi:

Jeśli jednak poprosisz Gemini o zdjęcia określonego typu osoby – na przykład „czarnego nauczyciela w klasie” lub „białego weterynarza z psem” – lub osób w określonych kontekstach kulturowych lub historycznych, bezwzględnie powinieneś uzyskać odpowiedź, która dokładnie odzwierciedla to, o co prosisz.

Raghavan twierdzi, że Google będzie nadal testować możliwości generowania obrazów przez Gemini AI i „pracować nad ich znaczącym udoskonaleniem” przed ponownym udostępnieniem. „Jak powiedzieliśmy od początku, halucynacje są znanym wyzwaniem dla wszystkich LLM [large language models] — zdarzają się przypadki, gdy sztuczna inteligencja po prostu popełnia błędy” – zauważa Raghavan. „To coś, nad czym stale pracujemy, aby ulepszyć.”

Reklama



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Nastolatka oskarżona o podpalenie autonomicznej taksówki Waymo

Dochodzenie zostało przeprowadzone przez grupę zadaniową SFPD ds. podpaleń, która zidentyfikowała podejrzanego i ustaliła prawdopodobną przyczynę wydania nakazu przeszukania. Biuro prokuratora okręgowego...

Chcesz zrobić więcej dzięki AirPods Pro 2? Wypróbuj tych 5 funkcji

Wraz z wprowadzeniem na rynek Apple wprowadziło solidną aktualizację swoich najlepszych bezprzewodowych słuchawek dousznych AirPods Pro 2. Od tego czasu Apple podniosło...

TSMC wprowadzi premię lokalizacyjną dla zagranicznej produkcji chipów

Jako część Dyskusja telefoniczna dotycząca wyników za pierwszy kwartał, jeden z największych producentów półprzewodników, TSMC, ogłosił strategiczne posunięcie polegające na pobieraniu dodatkowej opłaty...
Advertisment