Apple Prepares On-Device AI Revolution for iPhone with iOS 18

Apple przygotowuje się do przełomu w sztucznej inteligencji (AI) na swoich iPhone’ach, integrując Large Language Models (LLM) z funkcjami generatywnej AI bezpośrednio w nadchodzącym systemie iOS 18. Oznacza to znaczący odwrót od przetwarzania w chmurze i obiecuje pakiet narzędzi opartych na AI na poziomie systemu dla szerokiej gamy modeli iPhone’ów.

Nowe informacje, przedstawione w ostatnim biuletynie Power On przez analityka technologicznego Marka Gurmna, sugerują, że ten strategiczny krok demokratyzuje zaawansowane funkcje AI w całej ofercie Apple, potencjalnie włączając starsze modele iPhone’ów, sygnalizując, że możliwości wysokiej klasy mogą nie być wyłączną domeną najnowszych urządzeń. Analiza Gurmna wskazuje, że wysiłki Apple w dziedzinie AI wskazują na wyraźne preferowanie przetwarzania w urządzeniu nad poleganiem na chmurze.

Wykorzystanie LLM lokalnie na iPhone’ach ma na celu poprawę szybkości działania i zwiększenie prywatności użytkownika. Bez konieczności komunikacji z serwerami zdalnymi, użytkownicy mogą doświadczać natychmiastowych odpowiedzi AI i zachowywać zaufanie do bezpieczeństwa swoich danych. Choć ten przesunięcie może doprowadzić do aplikacji AI, które nie są tak wszechstronne jak ich odpowiedniki działające w chmurze, jest to kompromis na rzecz zaostrzonych środków bezpieczeństwa i natychmiastowej interakcji.

Poza przewidywanym postępem Siri z generatywną AI, spekuluje się, że Apple może rozszerzyć możliwości AI w urządzeniu, aby wspierać doświadczenia z aplikacjami innych firm, zapewniając szybsze działanie i płynniejszą interakcję użytkownika. Chociaż Apple może nie wprowadzić funkcji samodzielnego chatbota na miarę ChatGPT w najbliższej przyszłości, szerszy zakres AI firmy może potencjalnie obejmować partnerstwa w dziedzinie obliczeń w chmurze dla bardziej złożonych wymagań. Niemniej jednak, konkretne umowy z gigantami technologicznymi, takimi jak Google czy OpenAI, pozostają nieujawnione.

Ważne pytania i odpowiedzi:

1. Czym jest przetwarzanie w urządzeniu w kontekście AI?
– Przetwarzanie w urządzeniu oznacza dokonywanie obliczeń AI bezpośrednio na urządzeniu użytkownika, a nie wysyłanie ich do serwerów zdalnych. Pozwala to na szybsze czasy odpowiedzi i może zwiększyć prywatność użytkownika, ponieważ dane nie muszą opuszczać urządzenia.

2. Jak przetwarzanie AI w urządzeniu w iOS 18 może wpłynąć na doświadczenie użytkownika?
– AI w urządzeniu ma potencjał, aby sprawić, że iPhone stanie się bardziej responsywny dzięki szybszym funkcjom AI, takim jak tłumaczenia językowe, prognozy tekstowe czy rozpoznawanie obrazów i głosu bez konieczności połączenia z internetem. Może to również zapewnić lepszą prywatność i bezpieczeństwo, gdyż dane są przetwarzane lokalnie.

3. Jakie są wyzwania związane z integracją LLM na urządzeniach mobilnych?
– Główne wyzwania obejmują zapewnienie, że urządzenie ma wystarczającą moc obliczeniową i pamięć do obsługi LLM, optymalizację modeli AI pod kątem efektywnego zużycia energii oraz radzenie sobie z ograniczeniami pamięci, ponieważ LLM mogą być dosyć duże.

4. Czy istnieją kontrowersje związane z tą strategią?
– Mogą istnieć obawy dotyczące tego, czy AI w urządzeniach będzie tak wydajne jak rozwiązania oparte na chmurze. Ponadto niektórzy mogą obawiać się potencjalnie uprzedzonych wyników pochodzących z modeli AI działających bez ciągłego nadzoru i aktualizacji możliwych w konfiguracji chmurowej.

Zalety i Wady:

Zalety:

Prywatność: Lokalne przetwarzanie danych oznacza, że wrażliwe informacje pozostają na urządzeniu, co jest istotne w czasach, gdy prywatność danych stanowi główne zmartwienie.
Szybkość: Omijanie konieczności wysyłania danych do serwerów zdalnych umożliwia szybsze interakcje i zmniejszoną czasochłonność.
Dostępność: Funkcje AI mogą być dostępne nawet bez połączenia internetowego, co sprawia, że są bardziej niezawodne w różnych sytuacjach.

Wady:

Ograniczona Moc: Urządzenia mobilne mają mniejszą moc obliczeniową w porównaniu z serwerami chmurowymi, co może ograniczać złożoność i wydajność aplikacji AI.
Ograniczenia Zasobów: AI w urządzeniu musi być zoptymalizowane pod kątem efektywnego zużycia energii i może napotykać ograniczenia pamięci, co może wpłynąć na wielkość i zakres używanych modeli.
Zarządzanie Aktualizacjami: Utrzymywanie modeli AI w urządzeniu na bieżąco może być trudniejsze bez dynamicznych możliwości aktualizacji dostępnych w rozwiązaniach opartych na chmurze.

Podstawowe Wyzwania:

– Zapewnienie, że modele AI są wystarczająco małe i wydajne do użytku w urządzeniu, jednocześnie zachowując wydajność.
– Zarządzanie balansem między prywatnością a korzyściami wynikającymi z łączności chmurowej dla zadań AI.
– Pokonywanie potencjalnej sceptyczności użytkowników co do wydajności AI w urządzeniu.

Dla zainteresowanych dowiedzeniem się więcej o tym, jak Apple przyspiesza rozwój technologii i innowacji, odwiedzenie oficjalnej strony internetowej Apple’a w celu uzyskania informacji prasowych i dalszych wglądów w firmę byłoby korzystne: Apple.

The source of the article is from the blog exofeed.nl