Specyfikacja modelu OpenAI przedstawia kilka podstawowych zasad sztucznej inteligencji


Narzędzia AI zachowują się źle — tak jak narzędzia Microsoftu Bing AI traci kontrolę nad tym, który to rok — stał się podgatunkiem reportażu na temat sztucznej inteligencji. Jednak bardzo często trudno odróżnić błąd od złej konstrukcji podstawowego modelu sztucznej inteligencji, który analizuje przychodzące dane i przewiduje, jaka będzie akceptowalna reakcja, jak na przykład generator obrazów Gemini firmy Google rysując różnych nazistów ze względu na ustawienie filtra.

Teraz wypuszcza OpenAI pierwszy projekt proponowanych ram, zwana specyfikacją modelu, będzie to miało wpływ na sposób, w jaki narzędzia AI, takie jak własny model GPT-4, będą reagować w przyszłości. Podejście OpenAI proponuje trzy ogólne zasady — że modele sztucznej inteligencji powinny pomagać programiście i użytkownikowi końcowemu w udzielaniu pomocnych odpowiedzi zgodnych z instrukcjami, przynosić korzyści ludzkości, biorąc pod uwagę potencjalne korzyści i szkody, a także dobrze odzwierciedlać OpenAI w odniesieniu do norm i praw społecznych.

Zawiera także kilka zasad:

OpenAI twierdzi, że pomysł polega na umożliwieniu firmom i użytkownikom „przełączania” tego, jak „pikantne” mogą być modele sztucznej inteligencji. Jeden przykład – podkreśla firma dotyczy treści NSFW, w przypadku których firma twierdzi, że „bada, czy możemy w sposób odpowiedzialny zapewnić możliwość generowania treści NSFW w kontekstach odpowiednich dla wieku za pośrednictwem API i ChatGPT”.

Część specyfikacji modelu dotycząca tego, jak asystent AI powinien radzić sobie z zagrożeniami informacyjnymi.
Zrzut ekranu: OpenaI

Joanne Jang, menedżer produktu w OpenAI, wyjaśnia, że ​​pomysł polega na uzyskaniu opinii publicznej, która pomoże określić, jak powinny zachowywać się modele sztucznej inteligencji, i twierdzi, że ten framework pomógłby w wyraźniejszym rozgraniczeniu pomiędzy tym, co jest zamierzone, a błędem. Do domyślnych zachowań, jakie OpenAI proponuje dla modelu, należą: zakładanie najlepszych intencji użytkownika lub programisty, zadawanie wyjaśniających pytań, nie przekraczanie granic, przyjmowanie obiektywnego punktu widzenia, zniechęcanie do nienawiści, nie próbowanie zmiany niczyjego zdania i wyrazić niepewność.

Reklama

„Uważamy, że możemy zapewnić ludziom elementy umożliwiające bardziej szczegółowe rozmowy na temat modeli i zadawanie pytań, na przykład: czy modele powinny przestrzegać prawa, czyje prawo?” Jang opowiada Krawędź. „Mam nadzieję, że uda nam się oddzielić dyskusje na temat tego, czy coś jest błędem, czy też reakcją, co do której ludzie się nie zgadzają, ponieważ ułatwiłoby to rozmowy na temat tego, co powinniśmy przedstawić zespołowi ds. polityki”.

Specyfikacja modelu nie będzie miała natychmiastowego wpływu na aktualnie wypuszczone modele OpenAI, takie jak GPT-4 czy DALL-E 3, które nadal działają zgodnie z dotychczasowymi zasadami użytkowania.

Jang nazywa zachowanie modeli „rodzącą się nauką” i twierdzi, że specyfikacja modelu ma być żywym dokumentem, który można często aktualizować. Na razie OpenAI będzie czekać na opinie opinii publicznej i różnych interesariuszy (w tym „decydentów, zaufanych instytucji i ekspertów dziedzinowych”), którzy korzystają z jego modeli, chociaż Jang nie podał ram czasowych wydania drugiej wersji Modelu Spec.

OpenAI nie ujawniło, jaka część opinii opinii publicznej może zostać przyjęta ani kto dokładnie określi, co należy zmienić. Ostatecznie firma ma ostatnie słowo na temat zachowania swoich modeli i napisała w poście: „Mamy nadzieję, że zapewni nam to wgląd w sytuację na wczesnym etapie, gdy będziemy opracowywać solidny proces gromadzenia i uwzględniania informacji zwrotnych, aby mieć pewność, że odpowiedzialnie realizujemy naszą misję .”



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Dwóch studentów znajduje błąd w zabezpieczeniach, który może pozwolić milionom ludzi na darmowe pranie

Luka w zabezpieczeniach może pozwolić milionom studentów na darmowe pranie dzięki jednej firmie. Dzieje się tak z powodu luki, którą dwóch studentów...

Mac Pro i Studio otrzymają ukłon w stronę M4 dopiero w połowie 2025 roku

Jednak przez cały 2024 rok wszystkie laptopy Apple (z wyjątkiem MacBooka Air) będą wyposażone w chip M4, który firma właśnie dałem iPada Pro,...

Mówi się, że AirTag 2 ponownie zostanie ogłoszony w 2025 roku

Minęły trzy lata od premiery Apple AirTag, moduł do śledzenia przedmiotów, który integruje się z urządzeniami Apple. Niewiele jednak słyszano o planach...
Advertisment