Openai wypuszcza dziś dwa nowe modele rozumowania AI: O3, które firma nazywa swoim „najpotężniejszym modelem rozumowania” i O4-Mini, który jest mniejszym i szybszym modelem, który „osiąga niezwykłą wydajność dla swojej wielkości i kosztów”, Według postu na blogu.
Firma twierdzi również, że O3 i O4-Mini będą mogli „myśleć” z obrazami, co oznacza, że „integrują obrazy bezpośrednio z łańcuchem myśli”. Może to być przydatne, jeśli pokazujesz modele takie jak szkice lub tablice. Openai mówi, że modele będą mogły również dostosowywać obrazy, powiększając je lub obracając obraz „w ramach procesu rozumowania”.
Ponadto OpenAI ogłasza, że jego modele rozumowania będą mogły korzystać z wszystkich narzędzi Chatgpt, w tym takich rzeczy, jak przeglądanie stron internetowych i generowanie obrazu. Narzędzia będą dostępne dziś dla użytkowników CHATGPT Plus, Pro i zespołu w O3, O4-Mini i O4-Mini-High, a za „kilka tygodni”. (O1, O3-Mini i O3-Mini-High zostaną wycofane z tych poziomów).
Dzisiejsze ogłoszenia po ujawnieniu Flagowego modelu AI GPT-4.1 w poniedziałekjego następca GPT-4O.