„Firma Intel angażuje się w odpowiedzialny rozwój sztucznej inteligencji i udostępnianie jej każdemu. Do kwestii bezpieczeństwa podchodzimy całościowo i opracowujemy innowacje w sprzęcie i oprogramowaniu, aby umożliwić ekosystemowi budowanie godnej zaufania sztucznej inteligencji. Ze względu na wszechobecność i wszechobecność dużych modeli językowych niezwykle istotne jest współpracować w całym ekosystemie, aby rozwiązać problemy związane z bezpieczeństwem podczas opracowywania i wdrażania sztucznej inteligencji. W tym celu z przyjemnością przyłączamy się do branży w definiowaniu nowych procesów, metod i wzorców w celu ulepszenia sztucznej inteligencji wszędzie” – powiedział Deepak Patil, dyrektor ds. korporacyjnych firmy Intel wiceprezes i dyrektor generalny Data Center AI Solutions.
Odpowiedzialne szkolenie oraz wdrażanie dużych modeli i narzędzi językowych (LLM) mają ogromne znaczenie, jeśli chodzi o pomoc w ograniczaniu zagrożeń społecznych stwarzanych przez te potężne technologie. Firma Intel od dawna uznaje znaczenie implikacji etycznych i praw człowieka związanych z rozwojem technologii, zwłaszcza sztucznej inteligencji.
Ta grupa robocza zapewni system oceny bezpieczeństwa umożliwiający ocenę ryzyka stwarzanego przez nowe, szybko rozwijające się technologie sztucznej inteligencji. Udział firmy Intel w grupie roboczej ds. AIS jest najnowszym zobowiązaniem firmy w wysiłkach na rzecz odpowiedzialnego rozwoju technologii sztucznej inteligencji.
Organizacją grupy roboczej AI Safety zajmuje się MLCommons z udziałem multidyscyplinarnej grupy ekspertów AI. Grupa opracuje platformę i pulę testów od autorów, aby wspierać standardy bezpieczeństwa sztucznej inteligencji dla różnych przypadków użycia.
Intel planuje udostępniać ustalenia dotyczące bezpieczeństwa sztucznej inteligencji oraz najlepsze praktyki i procesy odpowiedzialnego rozwoju, takie jak red-team i testy bezpieczeństwa. Pełną listę uczestniczących członków można znaleźć na stronie internetowej MLCommons.
Początkowym celem grupy roboczej będzie opracowanie wzorców bezpieczeństwa dla LLM w oparciu o prace badaczy z Centrum Badań nad Podstawowymi Modelami Uniwersytetu Stanforda i jego Holistycznej Oceny Modeli Językowych (HELM). Intel udostępni grupie roboczej AIS swoje rygorystyczne, multidyscyplinarne procesy przeglądu stosowane wewnętrznie do opracowywania modeli i narzędzi sztucznej inteligencji, aby pomóc w ustaleniu wspólnego zestawu najlepszych praktyk i wzorców oceny bezpiecznego opracowywania i wdrażania generatywnego narzędzia sztucznej inteligencji wykorzystującego LLM.