Apple Prepares On-Device AI Revolution for iPhone with iOS 18

Apple przygotowuje się do przełomu w dziedzinie sztucznej inteligencji (AI) na swoich telefonach iPhone poprzez integrowanie dużej liczby modeli językowych (LLMs) z funkcjami generatywnego AI bezpośrednio w nadchodzącym systemie iOS 18. Oznacza to znaczący zwrot od przetwarzania w chmurze i obiecuje zestaw narzędzi napędzanych AI na poziomie systemu dla szerokiej gamy modeli iPhone’ów.

Świeże informacje, przedstawione w niedawnym biuletynie Power On przez analityka technicznego Marka Gurmankra, sugerują, że ten strategiczny krok demokratyzuje zaawansowane funkcje AI w całej linii produktów Apple, potencjalnie obejmując starsze modele iPhone’ów, sygnalizując, że możliwości najwyższej klasy mogą nie być wyłączną domeną najnowszych urządzeń. Analiza Gurmanka wskazuje, że wysiłki Apple w dziedzinie AI wskazują na wyraźne preferowanie przetwarzania w urządzeniu nad poleganiem na chmurze.

Wykorzystanie LLMs lokalnie na iPhone’ie ma na celu poprawę prędkości działania i zapewnienie większego bezpieczeństwa użytkownika. Bez potrzeby komunikacji z serwerami zdalnymi, użytkownicy mogliby doświadczyć natychmiastowych odpowiedzi AI i zachować pewność co do bezpieczeństwa swoich danych. Choć ten zwrot może skutkować aplikacjami AI, które nie będą tak potężne jak ich odpowiedniki działające w chmurze, jest to kompromis dla bardziej restrykcyjnych środków bezpieczeństwa i natychmiastowej interakcji.

Poza przewidywanym skokiem do przodu Siri z generatywnym AI, spekuluje się, że Apple rozszerzy możliwości AI w urządzeniu, aby wspierać doświadczenia zewnętrznych aplikacji, zapewniając szybsze działanie i bardziej płynną interakcję użytkownika. Choć Apple może nie wprowadzić funkcji chatbota działającego samodzielnie na kształt ChatGPT w najbliższej przyszłości, szerszy zakres działań AI w firmie może potencjalnie obejmować partnerstwa w zakresie obliczeń chmurowych dla bardziej złożonych wymagań. Jednak konkretne umowy z potentatami technologicznymi, takimi jak Google czy OpenAI, pozostają nieujawnione.

Ważne pytania i odpowiedzi:

1. Co oznacza przetwarzanie w urządzeniu w kontekście AI?
– Przetwarzanie w urządzeniu oznacza, że obliczenia AI są wykonywane bezpośrednio na urządzeniu użytkownika, a nie wysyłane do serwerów zdalnych. Pozwala to na szybsze czasy reakcji i może ulepszyć prywatność użytkownika, ponieważ dane nie muszą opuszczać urządzenia.

2. Jak może wpłynąć AI w urządzeniu w systemie iOS 18 na doświadczenie użytkownika?
– AI w urządzeniu ma potencjał, aby sprawić, że iPhone będzie bardziej responsywny z szybszymi funkcjami AI, takimi jak tłumaczenia językowe, predykcje tekstów, czy nawet rozpoznawanie obrazów i głosu bez konieczności połączenia z internetem. Może również zapewnić lepsze bezpieczeństwo i prywatność, ponieważ dane są przetwarzane lokalnie.

3. Jakie są wyzwania związane z integrowaniem LLMs w urządzeniach mobilnych?
– Główne wyzwania obejmują zapewnienie, że urządzenie ma wystarczającą moc obliczeniową i pamięć do obsługi LLMs, optymalizację modeli AI pod kątem efektywnego zużycia energii oraz adresowanie ograniczeń dotyczących pamięci, ponieważ LLMs mogą być dość duże.

4. Czy istnieją kontrowersje związane z tą strategią?
– Mogą istnieć obawy dotyczące tego, czy AI w urządzeniu będzie równie zdolne jak rozwiązania oparte na chmurze. Ponadto niektórzy mogą obawiać się potencjalnych stronniczych wyników z modeli AI działających bez ciągłego nadzoru i aktualizacji możliwych w konfiguracji chmurowej.

Zalety i Wady:

Zalety:

Prywatność: Lokalne przetwarzanie danych oznacza, że wrażliwe informacje pozostają na urządzeniu, co jest istotne w czasach, gdy prywatność danych jest głównym zmartwieniem.
Prędkość: Pomijanie konieczności wysyłania danych do serwerów zdalnych pozwala na szybszą interakcję i zmniejszenie opóźnień.
Dostępność: Funkcje AI mogą być dostępne nawet bez połączenia z internetem, co czyni je bardziej niezawodnymi w różnych sytuacjach.

Wady:

Ograniczona moc obliczeniowa: Urządzenia mobilne mają mniej mocy obliczeniowej w porównaniu z serwerami chmurowymi, co może ograniczyć złożoność i wydajność aplikacji AI.
Ograniczenia zasobów: AI w urządzeniu musi być zoptymalizowane pod kątem efektywności energetycznej i może napotykać ograniczenia dotyczące pamięci, co potencjalnie wpłynie na rozmiar i zakres wykorzystywanych modeli.
Zarządzanie aktualizacjami: Utrzymanie modeli AI aktualnymi w urządzeniu może być trudniejsze bez dynamicznych możliwości aktualizacji, jakie dają rozwiązania oparte na chmurze.

Kluczowe Wyzwania:

– Zapewnienie, że modele AI są wystarczająco małe i efektywne do użytku w urządzeniach, zachowując jednocześnie wydajność.
– Zapanowanie nad równowagą między prywatnością a korzyściami z łączności z chmurą dla zadań AI.
– Pokonanie potencjalnego sceptycyzmu użytkowników co do wydajności AI w urządzeniu.

Dla tych, którzy chcieliby dowiedzieć się więcej na temat postępów Apple w technologii i innowacji, odwiedzenie oficjalnej strony internetowej Apple w celu zapoznania się z komunikatami prasowymi i dalszymi wglądami w firmę byłoby korzystne: Apple.

The source of the article is from the blog radardovalemg.com