IBM ogłasza dostępność modelu AI Mistral typu open source w platformie Watsonx


IBM ogłosił dostępność popularnego modelu wielkojęzykowego Mixtral-8x7B (LLM) o otwartym kodzie źródłowym, opracowanego przez Mistral AI, na platformie Watsonx AI i platformie danych w miarę ciągłego rozszerzania możliwości, aby pomóc klientom wprowadzać innowacje dzięki podstawowym modelom IBM i od wielu dostawców oprogramowania typu open source. IBM oferuje zoptymalizowaną wersję Mixtral-8x7B, która w wewnętrznych testach była w stanie zwiększyć przepustowość, czyli ilość danych, które można przetworzyć w danym okresie, o 50 procent w porównaniu ze zwykłym modelem. Może to potencjalnie zmniejszyć opóźnienia o 35–75 procent, w zależności od wielkości partii, co przyspiesza uzyskiwanie wniosków. Osiąga się to poprzez proces zwany kwantyzacją, który zmniejsza rozmiar modelu i wymagania dotyczące pamięci dla LLM, co z kolei może przyspieszyć przetwarzanie, co pomaga obniżyć koszty i zużycie energii.

Dodanie Mixtral-8x7B rozszerza otwartą, wielomodelową strategię IBM, aby wyjść naprzeciw klientom tam, gdzie się znajdują, i zapewnić im wybór i elastyczność w zakresie skalowania korporacyjnych rozwiązań AI w całej ich firmie. Dzięki trwającym od kilkudziesięciu lat badaniom i rozwojowi sztucznej inteligencji, otwartej współpracy z Meta i Hugging Face oraz partnerstwu z liderami modeli, IBM poszerza katalog modeli watsonx.ai i wprowadza nowe możliwości, języki i modalności. Oferowane przez IBM gotowe do zastosowania w przedsiębiorstwach modele podstawowe oraz platforma Watsonx AI i platformy danych mogą umożliwić klientom korzystanie z generatywnej sztucznej inteligencji w celu uzyskiwania nowych informacji i zwiększania wydajności oraz tworzenia nowych modeli biznesowych opartych na zasadach zaufania. IBM umożliwia klientom wybór odpowiedniego modelu do właściwych zastosowań i celów w zakresie stosunku ceny do wydajności w docelowych obszarach biznesowych, takich jak finanse.

Mixtral-8x7B został zbudowany przy użyciu połączenia modelowania Sparse – innowacyjnej techniki, która znajduje i wykorzystuje tylko najbardziej istotne części danych w celu stworzenia bardziej wydajnych modeli – oraz techniki Mixture-of-Experts, która łączy różne modele („eksperci”) specjalizujących się w różnych częściach problemu i rozwiązujących je. Model Mixtral-8x7B jest powszechnie znany ze swojej zdolności do szybkiego przetwarzania i analizowania ogromnych ilości danych w celu zapewnienia spostrzeżeń odpowiednich dla kontekstu.

„Klienci proszą o wybór i elastyczność we wdrażaniu modeli, które najlepiej odpowiadają ich unikalnym przypadkom użycia i wymaganiom biznesowym” – powiedział dr Kareem Yusuf, starszy wiceprezes ds. zarządzania produktami i rozwoju w oprogramowaniu IBM. „Oferując Mixtral-8x7B i inne modele na platformie Watsonx, nie tylko dajemy im swobodę w zakresie wdrażania sztucznej inteligencji, ale wyposażamy solidny ekosystem twórców sztucznej inteligencji i liderów biznesowych w narzędzia i technologie umożliwiające wprowadzanie innowacji w różnych branżach i domeny.”

W tym tygodniu IBM ogłosił także dostępność ELYZA-japanese-Llama-2-7b, japońskiego modelu LLM udostępnianego na zasadach open source przez ELYZA Corporation, na watsonx. IBM oferuje także modele Meta Llama-2-13B-chat i Llama-2-70B-chat o otwartym kodzie źródłowym, a także inne modele innych firm na platformie Watsonx, a ich więcej będzie dostępnych w ciągu najbliższych kilku miesięcy.



Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Czy Trubbish może być błyszczący w Pokémon Go?

Trubbish, Pokémon w worku na śmieci z Unovy, można znaleźć na wolności w Pokemon Go. Tak, Trubbish może się błyszczeć...

Tak, aplikacja YouTube próbuje teraz przejąć wygaszacz ekranu Apple TV

Jedną z najlepszych funkcji Apple TV jest bogata kolekcja wygaszaczy ekranu Antena. Gdy Apple TV będzie bezczynny przez kilka minut, system tvOS...

Fortnite pozwoli graczom ukryć wredne emotki

Fortnite we wtorek udostępni aktualizację zawierającą nowe ustawienie filtrujące emocje „konfrontacyjne”.. Aktualizacja v29.30 pozwoli graczom „nie widzieć” następujących emotek: „Śmiej się”, „Weź...
Advertisment