Intel dołącza do grupy roboczej ds. bezpieczeństwa AI MLCommons


Dzisiaj firma Intel ogłosiła, że ​​dołącza do nowej grupy roboczej MLCommons AI Safety (AIS) wraz z ekspertami w dziedzinie sztucznej inteligencji z przemysłu i środowiska akademickiego. Jako członek założyciel firma Intel wniesie swoją wiedzę i doświadczenie, aby pomóc w stworzeniu elastycznej platformy dla testów porównawczych mierzących czynniki bezpieczeństwa i ryzyka narzędzi i modeli sztucznej inteligencji. W miarę dojrzewania testów standardowe standardy bezpieczeństwa AI opracowane przez grupę roboczą staną się istotnym elementem podejścia naszego społeczeństwa do wdrażania i bezpieczeństwa AI.

„Firma Intel angażuje się w odpowiedzialny rozwój sztucznej inteligencji i udostępnianie jej każdemu. Do kwestii bezpieczeństwa podchodzimy całościowo i opracowujemy innowacje w sprzęcie i oprogramowaniu, aby umożliwić ekosystemowi budowanie godnej zaufania sztucznej inteligencji. Ze względu na wszechobecność i wszechobecność dużych modeli językowych niezwykle istotne jest współpracować w całym ekosystemie, aby rozwiązać problemy związane z bezpieczeństwem podczas opracowywania i wdrażania sztucznej inteligencji. W tym celu z przyjemnością przyłączamy się do branży w definiowaniu nowych procesów, metod i wzorców w celu ulepszenia sztucznej inteligencji wszędzie” – powiedział Deepak Patil, dyrektor ds. korporacyjnych firmy Intel wiceprezes i dyrektor generalny Data Center AI Solutions.

Odpowiedzialne szkolenie oraz wdrażanie dużych modeli i narzędzi językowych (LLM) mają ogromne znaczenie, jeśli chodzi o pomoc w ograniczaniu zagrożeń społecznych stwarzanych przez te potężne technologie. Firma Intel od dawna uznaje znaczenie implikacji etycznych i praw człowieka związanych z rozwojem technologii, zwłaszcza sztucznej inteligencji.

Ta grupa robocza zapewni system oceny bezpieczeństwa umożliwiający ocenę ryzyka stwarzanego przez nowe, szybko rozwijające się technologie sztucznej inteligencji. Udział firmy Intel w grupie roboczej ds. AIS jest najnowszym zobowiązaniem firmy w wysiłkach na rzecz odpowiedzialnego rozwoju technologii sztucznej inteligencji.

Organizacją grupy roboczej AI Safety zajmuje się MLCommons z udziałem multidyscyplinarnej grupy ekspertów AI. Grupa opracuje platformę i pulę testów od autorów, aby wspierać standardy bezpieczeństwa sztucznej inteligencji dla różnych przypadków użycia.

Intel planuje udostępniać ustalenia dotyczące bezpieczeństwa sztucznej inteligencji oraz najlepsze praktyki i procesy odpowiedzialnego rozwoju, takie jak red-team i testy bezpieczeństwa. Pełną listę uczestniczących członków można znaleźć na stronie internetowej MLCommons.

Początkowym celem grupy roboczej będzie opracowanie wzorców bezpieczeństwa dla LLM w oparciu o prace badaczy z Centrum Badań nad Podstawowymi Modelami Uniwersytetu Stanforda i jego Holistycznej Oceny Modeli Językowych (HELM). Intel udostępni grupie roboczej AIS swoje rygorystyczne, multidyscyplinarne procesy przeglądu stosowane wewnętrznie do opracowywania modeli i narzędzi sztucznej inteligencji, aby pomóc w ustaleniu wspólnego zestawu najlepszych praktyk i wzorców oceny bezpiecznego opracowywania i wdrażania generatywnego narzędzia sztucznej inteligencji wykorzystującego LLM.

Reklama



Source link

Advertisment

Więcej

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Advertisment

Podobne

Advertisment

Najnowsze

Na zdjęciu dysk SSD Corsair MP600 Micro M.2-2242

Corsair zaprezentował MP600 Micro, dysk SSD M.2 NVMe w formacie M.2-2242 (o długości 42 mm), który jest nieco większy od dysku MP600 Mini...

Recenzja EcoFlow Glacier: lodówka, zamrażarka i kostkarka do lodu zasilana energią słoneczną

Nie wiem, komu potrzebna jest zasilana bateryjnie lodówka, zamrażarka i kostkarka do lodu na kółkach, które można ładować za pomocą panelu słonecznego, ale...

Sztuczna inteligencja Edge Copilot firmy Microsoft nie jest w stanie podsumować każdego filmu na YouTube

Dodano jedną funkcję do AI Copilot firmy Microsoft w przeglądarce Edge w tym tygodniu jest możliwość generowania streszczeń tekstowych filmów. Jednak funkcja...
Advertisment