Funkcje związane z aktywnością fizyczną i łącznością, a także innowacyjne aplikacje firm zewnętrznych zapewniają kompleksowe wsparcie zarówno podczas treningów, jak i zawodów golfowych
Apple Watch to wszechstronne urządzenie dla golfistów, które pozwala im być w kontakcie ze światem, a do tego żyć zdrowo i aktywnie. Ponadto użytkownicy mają na nim do dyspozycji wspaniałe aplikacje golfowe, które dają im dostęp do narzędzi, informacji o polu golfowym i analiz potrzebnych, by poprawić grę.
Apple Watch to wszechstronne urządzenie dla golfistów, które pozwala im być w kontakcie ze światem, a do tego żyć zdrowo i aktywnie. Ponadto użytkownicy mają na nim do dyspozycji wspaniałe aplikacje golfowe, które dają im dostęp do narzędzi, informacji o polu golfowym i analiz potrzebnych, by poprawić grę.
W systemie watchOS 10 wprowadzono API ruchu o wysokiej częstotliwości, które wykorzystuje najnowszy akcelerometr i żyroskop Apple Watch do rozpoznawania gwałtownych zmian w prędkości i przyspieszeniu. Dzięki temu rozwiązaniu twórcy aplikacji takich jak Golfshot zyskali narzędzia umożliwiające tworzenie nowych, innowacyjnych interakcji pozwalających golfistom doskonalić zamachy i poprawiać swoje wyniki. Już dziś w aplikacji Golfshot pojawiła się nowa funkcja Swing ID On-Range, która wykorzystuje opisane API, by rozpoznawać dokładny moment uderzenia kija w piłkę i za pomocą tej informacji usprawniać ćwiczenie zamachów.
Co więcej, czujniki w Apple Watch kompleksowo analizują zamach kijem od początku do końca ruchu. Użytkownicy niezależnie od umiejętności mogą dokładnie śledzić kluczowe wskaźniki dotyczące zamachów, w tym informacje o tempie, rytmie, chwilach przed uderzeniem piłki, przejściu między zamachem a wymachem i ruchu nadgarstka, i na tej podstawie doskonalić swoją grę.
Użytkownicy niezależnie od zaawansowania mogą dokładnie śledzić na Apple Watch kluczowe wskaźniki dotyczące zamachów, w tym informacje o przejściu między zamachem a wymachem, tempie, rytmie, ruchu nadgarstka i chwilach przed uderzeniem piłki.
Na polu golfowym użytkownicy aplikacji Golfshot mają do dyspozycji takie funkcje jak monitorowanie odległości za pomocą GPS, śledzenie wyników, Auto Shot Tracking, analiza zamachów czy Auto Strokes Gained, a wszystkie te rozwiązania są dostępne na Apple Watch. Dzięki temu golfiści mogą obserwować każde uderzenie i śledzić w czasie rzeczywistym odległość od greenu, przeszkód i celów na ponad 46 000 pól golfowych na świecie.
Oprócz tego Apple Watch zapewnia zautomatyzowany system zbierania danych z pola golfowego, więc po zakończeniu rundy użytkownicy mogą przejrzeć na iPhonie ogólne podsumowania i zaawansowane analizy statystyczne, żeby dalej się doskonalić.
Od chwili premiery pierwszego Apple Watch w 2015 r. w Golfshot zawsze stawialiśmy sobie za cel, by wykorzystywać wszystkie jego możliwości. Innowacyjne funkcje takie jak Auto Shot Tracking i Swing ID – obie oparte na Apple Watch i zaawansowanych mechanizmach uczenia maszynowego – skutecznie pomagają golfistom doskonalić grę, ponieważ dają im dostęp do aktualnych, spersonalizowanych danych na urządzeniu, które już ze sobą mają. –stwierdził Alex Flores, dyrektor ds. rozwoju Golfshot.
Apple zapowiada nowe ułatwienia dostępu, w tym funkcje Eye Tracking, Music Haptics i Vocal Shortcuts
Firma Apple zapowiedziała dziś wprowadzenie jeszcze w tym roku nowych ułatwień dostępu, w tym funkcji Eye Tracking pozwalającej osobom z niepełnosprawnościami fizycznymi na sterowanie iPadem lub iPhonem przy użyciu oczu. Dodatkowo pojawi się udogodnienie Music Haptics zapewniające głuchym i niedosłyszącym użytkownikom nowe sposoby doświadczania muzyki za pomocą znajdującego się w iPhonie sygnalizatora taktylnego. Z kolei funkcja Vocal Shortcuts umożliwi wykonywanie zadań poprzez wygenerowanie specjalnego dźwięku, a Vehicle Motion Cues pomoże złagodzić objawy choroby lokomocyjnej podczas korzystania z iPhone’a lub iPada w jadącym pojeździe. Więcej ułatwień dostępu trafi również do systemu visionOS.
Zapowiedziane funkcje opierają się na połączeniu potężnych możliwości sprzętu i oprogramowania Apple, w tym układu scalonego Apple, a także sztucznej inteligencji i działających na urządzeniu algorytmów uczenia maszynowego. Jednocześnie wpisują się one w realizowane od dekady zobowiązanie firmy Apple do tworzenia produktów dla wszystkich użytkowników.
Jesteśmy głęboko przekonani, że innowacje mogą wpływać na życie ludzi i je wzbogacać. Właśnie dlatego firma Apple już od blisko 40 lat kładzie duży nacisk na inkluzywność swoich produktów, której wyrazem są ułatwiania dostępu wbudowane w DNA naszego sprzętu i oprogramowania. Nieustannie przesuwamy granice technologii, a zapowiadane funkcje odzwierciedlają nasze długoletnie zobowiązanie, żeby zapewniać wszystkim naszym użytkownikom jak najlepsze doświadczenia. – oświadczył Tim Cook, dyrektor generalny Apple.
Co roku dokonujemy przełomu w dziedzinie ułatwień dostępu. Dzięki udostępnieniu nowych sposobów komunikacji, sterowania urządzeniami czy poruszania się w świecie wprowadzane funkcje wpłyną na życie wielu różnych użytkowników. – podsumowuje Sarah Herrlinger, starsza dyrektorka Apple w pionie Accessibility Policy and Initiatives.
Eye Tracking debiutuje na iPadzie i iPhonie
Funkcja Eye Tracking wspierana sztuczną inteligencją oferuje użytkownikom wbudowane rozwiązanie do sterowania iPadem i iPhonem przy użyciu samych oczu. Funkcja Eye Tracking, która została opracowana z myślą o użytkownikach z niepełnosprawnościami fizycznymi, korzysta z przedniego aparatu, by w zaledwie paru sekund wprowadzić ustawienia i wykonać kalibrację. Ponadto działające na urządzeniu algorytmy uczenia maszynowego sprawiają, że wszystkie dane użyte do konfiguracji funkcji i jej sterowania są bezpiecznie przechowywane na urządzeniu bez wysyłania ich do Apple.
Funkcja Eye Tracking działa w aplikacjach z systemem iPadOS i iOS i nie wymaga dodatkowych urządzeń ani akcesoriów. Dzięki Eye Tracking użytkownicy mogą przechodzić pomiędzy elementami aplikacji oraz korzystać z narzędzia Sterowanie zatrzymaniem do aktywacji poszczególnych elementów i uzyskiwania dostępu do dodatkowych funkcji, takich jak fizyczne przyciski czy machnięcia, oraz innych gestów, wyłącznie za pomocą oczu.
Funkcja Music Haptics ułatwia dostęp do piosenek
Funkcja Music Haptics otwiera przed niesłyszącymi lub niedosłyszącymi użytkownikami nowe sposoby doświadczania muzyki odtwarzanej z iPhone’a. Po włączeniu tego ułatwienia dostępu sygnalizator taktylny wbudowany w iPhone’a będzie odtwarzać stuknięcia, teksturę oraz bardziej wyczuwalne wibracje odwzorowujące brzmienie muzyki. Funkcja Music Haptics obsługuje miliony utworów w katalogu Apple Music i zostanie udostępniona deweloperom jako API, tak aby zwiększyć dostępność muzyki w tworzonych przez nich aplikacjach.
Nowe funkcje obsługują więcej sposobów mówienia
Udogodnienie Vocal Shortcuts daje użytkownikom iPhone’a i iPada możliwość przypisania własnych zrozumiałych dla Siri wypowiedzi aktywujących skróty i realizujących złożone zadania. Kolejne nowe ułatwienie, Listen for Atypical Speech, pozwala użytkownikom na rozbudowanie funkcji rozpoznawania mowy o większą liczbę różnych sposobów mówienia. Funkcja Listen for Atypical Speech rozpoznaje wzorce mowy użytkownika za pomocą działających na urządzeniu algorytmów uczenia maszynowego.
Oba ułatwienia powstały z myślą o użytkownikach z trwałymi lub postępującymi schorzeniami upośledzającymi mowę, takimi jak porażenie mózgowe, stwardnienie zanikowe boczne (ALS) lub stany poudarowe, a udostępniany w tych ułatwieniach wyższy poziom personalizacji i sterowania bazuje na rozwiązaniach wprowadzonych w systemie iOS 17 dla osób niemówiących lub zagrożonych utratą mowy.
Sztuczna inteligencja jest w stanie udoskonalić rozpoznawanie mowy milionów ludzi z nietypowym sposobem mówienia i z przyjemnością patrzymy, jak Apple przynosi konsumentom wspierające ten proces nowe ułatwienia dostępu. W swoich założeniach projekt Speech Accessibility Project miał być szerokozakrojonym, wspieranym lokalnie działaniem pomagającym przedsiębiorstwom i uczelniom w usprawnianiu i zwiększaniu skuteczności rozpoznawania mowy, a firma Apple, będąc jednym z orędowników ułatwień dostępu, umożliwiła realizację tych założeń inicjatywy Speech Accessibility Project. – powiedział Mark Hasegawa-Johnson, główny badacz w projekcie Speech Accessibility Project prowadzonym przez Beckman Institute for Advanced Science and Technology na uczelni University of Illinois Urbana-Champaign.
Funkcja Vehicle Motion Cues pomaga złagodzić chorobę lokomocyjną
Vehicle Motion Cues to nowa funkcja wprowadzana na iPhone’a i iPada, która ułatwia łagodzenie objawów choroby lokomocyjnej u osób w jadących pojazdach. Badania pokazują, że choroba lokomocyjna jest zwykle powodowana przez konflikt sensoryczny pomiędzy tym, co osoba widzi, a tym, co czuje. W rezultacie część użytkowników podróżujących pojazdami nie może komfortowo korzystać z iPhone’a lub iPada.
Animowane kropki funkcji Vehicle Motion Cues wyświetlane na krawędzi ekranu pomagają złagodzić konflikt sensoryczny, nie przeszkadzając przy tym użytkownikowi w skupieniu się na głównej treści. Korzystając z czujników wbudowanych w iPhone’a i iPada, Vehicle Motion Cues wykrywa, kiedy użytkownik znajduje się w jadącym pojeździe, i adekwatnie reaguje. Funkcję można skonfigurować tak, by automatycznie wyświetlała się na iPhonie. Można ją też włączać i wyłączać w Centrum sterowania.
CarPlay zyskuje Sterowanie głosowe oraz więcej zaktualizowanych ułatwień dostępu
Ułatwienia dostępu wprowadzane w CarPlay obejmują Sterowanie głosowe, Filtry barwne i Rozpoznawanie dźwięków. Sterowanie głosowe pozwala użytkownikom na poruszanie się w usłudze CarPlay oraz sterowanie aplikacjami tylko za pomocą głosu. Rozpoznawanie dźwięków daje niesłyszącym i niedosłyszącym kierowcom oraz pasażerom możliwość włączenia alertów informujących ich o dźwięku klaksonu i syren.
Użytkownikom mającym trudności w rozpoznawaniu kolorów Filtry barwne uproszczą wizualnie interfejs usługi CarPlay przy użyciu dodatkowych ułatwień dostępu takich jak Pogrubiony tekst i Duża czcionka.
Więcej ułatwień dostępu w visionOS
Udogodnienia pojawiające się w visionOS w tym roku będą obejmować działające w całym systemie Podpisy na żywo ułatwiające każdemu użytkownikowi – w tym osobom niesłyszącym i niedosłyszącym – śledzenie dialogu w rozmowach na żywo oraz w treściach dźwiękowych z aplikacji. Podpisy na żywo w aplikacji FaceTime systemu visionOS, pozwalają większej liczbie użytkowników na przeżycie wyjątkowych wrażeń związanych z kontaktem i współpracą z ich postacią cyfrową.
Apple Vision Pro umożliwi przenoszenie napisów za pomocą paska okna podczas odtwarzania treści w formacie Apple Immersive Video oraz obsługę dodatkowych aparatów słuchowych i procesorów słuchu Cochlear wykonanych w standardzie MFi (Made for iPhone). Ułatwienia dostępu przewidziane dla dysfunkcji wzroku zostaną poszerzone o funkcje Zmniejsz przezroczystość, Odwrócenie inteligentne i Przygaszaj rozbłyski z myślą o osobach niedowidzących lub chcących uniknąć jasnych świateł bądź częstych błysków.
Nowe funkcje poszerzają pulę kilkudziesięciu ułatwień dostępu już dostępnych w Apple Vision Pro, które oferują użytkownikom elastyczne sposoby wprowadzania danych oraz intuicyjny interfejs opracowany z myślą o wielu różnych grupach użytkowników. Funkcje takie jak VoiceOver, Zoom i Filtry barwne dają osobom niewidzącym lub niedowidzącym możliwość korzystania z technologii spatial computing, a funkcje takie jak Dostęp nadzorowany wspierają użytkowników z ograniczeniami kognitywnymi.
Użytkownicy mogą sterować Vision Pro poprzez dowolne połączenie ruchu oczu, rąk oraz głosu, a ułatwienia dostępu takie jak Sterowanie przełącznikami, Czynności dźwiękowe i Sterowanie zatrzymaniem stanowią również pomoc dla osób z niepełnosprawnościami fizycznymi.
Apple Vision Pro jest bez wątpienia najłatwiej dostępną technologią, z jakiej kiedykolwiek miałem okazję korzystać. Sam będąc osobą urodzoną bez rąk oraz niepotrafiącą chodzić, zdaję sobie sprawę, że świat nie został zaprojektowany dla osób takich jak ja. Niesamowite jest więc zobaczyć, co może zrobić system visionOS. Stanowi on potwierdzenie potężnych możliwości oraz istotności projektowania opartego na inkluzywności i łatwości dostępu. – podkreśla Ryan Hudson-Peralta, inżynier produktu z Detroit, konsultant ds. ułatwień dostępu oraz współzałożyciel Equal Accessibility LLC.