Apple wykorzysta Gemini od Google do tworzenia własnych modeli AI offline

4 godzin temu

Apple zyskuje dostęp do modeli Gemini od Google, co pozwala firmie rozwijać własne, mniejsze modele sztucznej inteligencji działające bezpośrednio na urządzeniach.

Kluczowy mechanizm to tzw. destylacja modeli – Apple wykorzystuje odpowiedzi i proces rozumowania Gemini, aby trenować lżejsze modele dopasowane do konkretnych zadań. Dzięki temu mogą one działać lokalnie (on-device), bez potrzeby połączenia z internetem, zachowując wysoką jakość wyników przy znacznie mniejszym zużyciu mocy obliczeniowej.

Apple ma też możliwość modyfikowania zachowania Gemini, aby lepiej pasowało do jego ekosystemu. To jednak nie jest bezproblemowe – model Google był trenowany głównie pod chatboty i programowanie, co nie zawsze odpowiada potrzebom Apple.

Małżeństwo z rozsądku. Apple i Google pokażą nową Siri napędzaną przez Gemini w iOS 26.4 już w przyszłym miesiącu

Technologia ta ma zasilić nową wersję Siri planowaną na iOS 27. Asystent ma oferować funkcje znane z chatbotów: odpowiadanie na pytania, streszczanie treści, analizę dokumentów, tworzenie historii, wsparcie użytkownika czy realizację zadań (np. rezerwacje).

Równolegle Apple rozwija własne modele w ramach zespołu Apple Foundation Models – niezależne od Gemini.

Siri jako osobna aplikacja

Jeśli artykuł Apple wykorzysta Gemini od Google do tworzenia własnych modeli AI offline nie wygląda prawidłowo w Twoim czytniku RSS, to zobacz go na iMagazine.

Idź do oryginalnego materiału