Meta dodaje do swoich inteligentnych okularów sztuczną inteligencję na żywo, tłumaczenia na żywo i Shazam


Meta właśnie ogłosiła, że ​​w inteligentnych okularach Ray-Ban zostaną wprowadzone trzy nowe funkcje: sztuczna inteligencja na żywo, tłumaczenia na żywo i Shazam. Zarówno sztuczna inteligencja na żywo, jak i tłumaczenie na żywo są dostępne wyłącznie dla członków programu wczesnego dostępu Meta, natomiast wsparcie Shazam jest dostępne dla wszystkich użytkowników w USA i Kanadzie.

Po raz pierwszy wyśmiewano zarówno sztuczną inteligencję na żywo, jak i tłumaczenie na żywo MetaPołącz 2024 wcześniej w tym roku. Live AI umożliwia naturalną rozmowę z asystentem AI Meta, który stale obserwuje otoczenie. Na przykład, jeśli przeglądasz sekcję z produktami w sklepie spożywczym, teoretycznie będziesz mógł poprosić sztuczną inteligencję Meta o zasugerowanie przepisów na podstawie składników, które przeglądasz. Meta twierdzi, że użytkownicy będą mogli korzystać z funkcji AI na żywo przez około 30 minut bez przerwy po pełnym naładowaniu.

Tymczasem tłumaczenie na żywo umożliwia okularom tłumaczenie mowy w czasie rzeczywistym między angielskim a hiszpańskim, francuskim lub włoskim. Możesz słuchać tłumaczeń przez same okulary lub przeglądać transkrypcje na telefonie. Musisz wcześniej pobrać pary językowe, a także określić, jakim językiem mówisz w porównaniu z językiem, którym mówi Twój rozmówca.

Obsługa Shazam jest nieco prostsza. Wszystko, co musisz zrobić, to powiadomić Meta AI, gdy usłyszysz piosenkę, a ona powinna być w stanie powiedzieć Ci, czego słuchasz. Możesz zobaczyć, jak dyrektor generalny Meta, Mark Zuckerberg, demonstruje to w tym Rolka na Instagramie.

Jeśli nie widzisz jeszcze tych funkcji, sprawdź, czy na okularach działa oprogramowanie w wersji 11 i czy używasz także wersji 196 aplikacji Meta View. Jeśli nie uczestniczysz jeszcze w programie wczesnego dostępu, możesz złożyć wniosek za pośrednictwem tę witrynę.

Aktualizacje pojawiają się w chwili, gdy Big Tech uznaje asystentów AI za podstawę istnienia inteligentnych okularów. Zaledwie w zeszłym tygodniu Google ogłosił Androida XRnowy system operacyjny dla inteligentnych okularów i specjalnie umiejscowiony jego asystent Gemini AI jako aplikacja zabójcza. Tymczasem dyrektor techniczny Meta Andrew Bosworth właśnie opublikowałem bloga wyrażając opinię, że „2024 był rokiem, w którym okulary AI osiągnęły sukces”. Bosworth twierdzi w nim również, że inteligentne okulary mogą być najlepszą możliwą formą dla „urządzenia prawdziwie natywnego dla sztucznej inteligencji” i pierwszą kategorią sprzętu, która „od początku zostanie całkowicie zdefiniowana przez sztuczną inteligencję”.

Reklama





Source link

Advertisment

Więcej

Advertisment

Podobne

Advertisment

Najnowsze

Recenzja Belkin SoundForm Isolate: słuchawki z redukcją szumów dla osób z ograniczonym budżetem

Na Targi CES 2025firma Belkin rozpoczęła wysyłkę swojego nowego urządzenia Izolat SoundForm słuchawki. To pierwsze bezprzewodowe słuchawki z aktywną redukcją szumów opracowane przez...

Oracle i Microsoft są podobno w rozmowach o przejęcie Tiktok

Oracle i grupa inwestorów, w tym Microsoft, rozmawiają o globalnych operacjach Tiktok, Raporty NPR. Umowa, którą podobno negocjuje Biały Dom, widzi, że BYEDANCE...

Gurman: W przyszłym tygodniu w sklepach Apple Store odbędą się „aktualizacje marketingowe”.

Jak wynika z tweeta z Mark Gurman z Bloombergaw przyszłym tygodniu Apple przeprowadzi w swoich sklepach detalicznych „aktualizacje dotyczące marketingu towarów/marketingu podłogowego”. Chociaż...
Advertisment