Fermer l'annonce

Apple décidé il y a peu de temps pour une grosse surprise. Avec l'introduction de quelques nouveautés pour iOS 19 a décidé de ne pas attendre début juin, mais les a dévoilés maintenant à travers un communiqué de presse publié pour célébrer la Journée mondiale de l'accessibilité. Elle est « célébrée » chaque année le troisième jeudi de mai. Comme vous pouvez probablement le deviner, les nouvelles révélées concernent la Divulgation, qui est sur iPhonecréé spécialement pour les personnes souffrant de diverses formes de handicap. Cependant, certaines fonctions peuvent être utilisées par n'importe qui, et cela s'appliquera bien sûr également aux nouvelles fonctionnalités prévues pour iOS 19 et d'autres versions du système d'exploitation - d'autant plus que dans certains cas, ce sont des choses difficiles à croire. Alors, que pensez-vous du monde ? Apple préparé?

Étiquettes d'accessibilité dans App Store

Sur les pages produits dans App Store Une nouvelle section apparaîtra qui mettra en évidence les fonctionnalités d’accessibilité dans les applications et les jeux. Ces étiquettes offrent aux utilisateurs un nouveau moyen de voir si une application leur sera accessible avant de la télécharger, et aux développeurs de mieux informer et éduquer leurs utilisateurs sur les fonctionnalités prises en charge par leur application. Il s'agit notamment de fonctionnalités telles que VoiceOver, le contrôle vocal, le texte agrandi, le contraste adéquat, la réduction des mouvements, les sous-titres, etc. Les étiquettes nutritionnelles accessibles seront disponibles dans App Store dans le monde entier, et les développeurs auront accès à des conseils supplémentaires sur les critères que les applications doivent respecter avant d'afficher des informations.macsur l'accessibilité sur leurs pages produits.

Une toute nouvelle loupe pour Mac

Loupe sur iPhone et iPadDepuis 2016, u met à disposition des utilisateurs aveugles ou malvoyants des outils permettant de zoomer, de lire du texte et de reconnaître des objets dans leur environnement. Cette année, Lupa vient à Macrendre le monde physique accessible aux utilisateurs malvoyants. Application Loupe pour Mac se connecte à la caméra de l'utilisateur, lui permettant de zoomer sur son environnement, comme un écran ou un tableau blanc. La loupe fonctionne avec l'appareil photo Continuity Camera sur iPhone et avec connexion USB caméras et prend en charge la lecture de documents à l'aide de la fonction Desk View.

Grâce à plusieurs fenêtres de session en direct, les utilisateurs peuvent effectuer plusieurs tâches à la fois : regarder une présentation à l'aide d'une webcam tout en consultant simultanément un livre à l'aide de Desk View. Grâce à des vues personnalisées, les utilisateurs peuvent ajuster la luminosité, le contraste, les filtres de couleur et même la perspective pour rendre le texte et les images plus faciles à voir. Les vues peuvent également être capturées, regroupées et enregistrées pour un ajout ultérieur. Loupe pour Mac Il est également intégré à une autre nouvelle fonctionnalité d'accessibilité, Accessibility Reader, qui convertit le texte du monde physique en un format lisible natif.

Apple fonctionnalités d'accessibilité Loupe activée Mac

Une nouvelle expérience avec le braille

Braille Access est un environnement entièrement nouveau qui transforme iPhone, iPad, Mac a Apple Vision Pro dans un bloc-notes braille à part entière, profondément intégré à l'écosystème AppleGrâce à un lanceur d'applications intégré, les utilisateurs peuvent facilement ouvrir n'importe quelle application en saisissant du texte sur un afficheur braille ou un appareil braille connecté. Avec Braille Access, ils peuvent rapidement prendre des notes en braille et effectuer des calculs avec le braille Nemeth, une police souvent utilisée en mathématiques et en sciences. Les utilisateurs peuvent ouvrir des fichiers au format Braille Ready Format (BRF) directement depuis Braille Access, accédant ainsi à un large éventail de livres et de fichiers créés précédemment sur un appareil de prise de notes braille. De plus, les sous-titres en direct intégrés permettent de retranscrire des conversations en temps réel directement sur les afficheurs braille.

Présentation d'Accessibility Reader

Accessibility Reader est un nouveau mode de lecture système conçu pour faciliter la lecture de texte pour les utilisateurs souffrant de divers types de handicaps, tels que la dyslexie ou la basse vision. Lecteur d'accessibilité, disponible sur les appareils iPhone, iPad, Mac a Apple Vision Pro, offre aux utilisateurs de nouvelles options pour personnaliser le texte et se concentrer sur le contenu qu'ils souhaitent lire, avec de nombreuses options de police, de couleur et d'espacement, ainsi qu'une prise en charge du contenu parlé. Accessibility Reader peut être lancé à partir de n'importe quelle application et est intégré à l'application Magnifier pour iOS, iPadOS a macOS, afin que les utilisateurs puissent interagir avec le texte dans le monde réel, comme dans les livres ou dans les menus.

Apple fonctionnalités d'accessibilité Lecteur d'accessibilité

Sous-titres en direct dans Apple Watch

Pour les utilisateurs sourds ou malentendants, le contrôle de l'écoute en direct est désormais possible. Apple Watch avec un nouvel ensemble de fonctionnalités, notamment des sous-titres en direct en temps réel. La fonction Live Listen transforme iPhone dans un microphone à distance pour diffuser du contenu directement sur le casque AirPods, Fait pour Faite pour sert pour sert à iPhone ou Beats. Lorsqu'une session est active sur l'iPhone, les utilisateurs peuvent écouter l'audio sur leur montre couplée Apple Watch afficher des sous-titres en direct de ce que leur iPhone entend. Montre Apple Watch sert de télécommande pour démarrer ou arrêter une session d'écoute en direct, ou pour revenir à une session pour récupérer quelque chose que vous avez peut-être manqué. Avec une montre Apple Watch Les sessions d'écoute en direct peuvent être contrôlées depuis l'autre bout de la pièce, vous n'avez donc pas besoin de vous lever au milieu d'une réunion ou pendant un cours. Live Listen peut être utilisé en conjonction avec les fonctionnalités de protection auditive disponibles sur AirPods Pro 2, y compris la première fonction d'aide auditive clinique de ce type.

Apple fonctionnalités d'accessibilité Écoute en direct

Vue améliorée avec Apple Vision Pro

Pour les utilisateurs aveugles ou malvoyants, le système sera étendu visionOS fonction permettant de rendre la vision accessible à l'aide d'un système de caméra avancé Apple Vision Pro. Grâce aux puissantes mises à jour de Zoom, les utilisateurs peuvent utiliser la caméra principale pour agrandir tout ce qu’ils voient, y compris leur environnement. Pour les utilisateurs de VoiceOver, il utilise la reconnaissance en direct dans visionOS apprentissage automatique sur l'appareil pour décrire l'environnement, trouver des objets, lire des documents, et plus encore.1 Pour les développeurs d'applications d'accessibilité, la nouvelle API permettra aux applications approuvées d'accéder à la caméra principale pour fournir une assistance d'interprétation visuelle interhumaine en direct dans des applications comme Be My Eyes, offrant aux utilisateurs davantage de moyens de comprendre leur environnement en mains libres.

P02 WWDC 24 vision OS 17

Plus de nouvelles

  • Bruits de fond peut être plus facilement personnalisé grâce aux nouveaux paramètres de l'égaliseur, à la possibilité d'arrêter automatiquement après un certain temps et à de nouvelles actions d'automatisation dans la section Raccourcis. Les sons de fond peuvent aider miniréduire les distractions et augmenter les sentiments de concentration et de relaxation, ce qui peut aider certains utilisateurs souffrant de symptômes d'acouphènes.
  • Pour les utilisateurs risquant de perdre la capacité de parler, la fonctionnalité Voix personnelle plus rapide, plus facile et plus puissant que jamais, en tirant parti des progrès de l'apprentissage automatique et de l'intelligence artificielle intelL'intelligence est directement intégrée à l'appareil et peut créer une voix plus douce et plus naturelle en moins d'une minute, en utilisant seulement 10 phrases enregistrées. Personal Voice ajoutera également la prise en charge de l'espagnol (Mexique).
  • Na Mac la fonction arrive Indices de mouvement du véhicule, qui peut aider à réduire le mal des transports dans un véhicule en mouvement, et de nouvelles façons de personnaliser les points animés sur l'écran de l'iPhone, iPadua Macu.
  • Utilisateurs d'appareils Suivi de l'oeil sur iPhone et iPadVous avez désormais la possibilité d'utiliser un interrupteur à bascule ou un bouton de maintien pour sélectionner. La saisie au clavier à l'aide du suivi oculaire ou du contrôle de commutation est désormais disponible sur iPhone, iPadua Apple Vision Pro plus facile avec des améliorations incluant une nouvelle minuterie de maintien du clavier, des étapes réduites lors de la saisie avec des commutateurs et l'activation de QuickPath pour iPhone a Vision Pro.
  • Utilisation de la fonction Suivi de tête les utilisateurs pourront le contrôler plus facilement iPhone a iPad mouvements de la tête, similaires à l'Eye Tracking.
  • Pour les utilisateurs ayant de graves problèmes de mobilité, il y aura iOS, iPadOS a VisionOS ajout d'un nouveau protocole prenant en charge le contrôle des commutateurs pour Interfaces cerveau-ordinateur (BCI), une nouvelle technologie qui permet aux utilisateurs de contrôler des appareils sans mouvement physique.
  • Caractéristiques Accès assisté ajoute une nouvelle application personnalisée Apple TV avec un lecteur multimédia simplifié. Les développeurs bénéficieront également d’un soutien pour créer des expériences adaptées aux utilisateurs ayant des déficiences intellectuelles et développementales à l’aide de l’API Assistive Access.
  • Tactique musicale sur l'iPhone, il devient plus personnalisable avec la possibilité d'essayer l'haptique pour la chanson entière ou juste les voix, ainsi que la possibilité d'ajuster l'intensité globale des taps, des textures et des vibrations.
  • Fonction de reconnaissance sonore ajoute la reconnaissance du nom, une nouvelle façon pour les utilisateurs sourds ou malentendants de savoir quand leur nom est appelé.
  • Commande vocale introduit un nouveau mode de programmation dans Xcode pour les développeurs de logiciels à mobilité réduite. La commande vocale ajoute également la synchronisation du vocabulaire sur tous les appareils et étend la prise en charge linguistique pour inclure le coréen, l'arabe (Arabie saoudite), le turc, l'italien, l'espagnol (Amérique latine), le chinois mandarin (Taïwan), l'anglais (Singapour) et le russe.
  • Prise en charge des sous-titres en direct sera élargi pour inclure l'anglais (Inde, Australie, Royaume-Uni, Singapour), le chinois mandarin (Chine continentale), le cantonais (Chine continentale, Hong Kong), l'espagnol (Amérique latine, Espagne), le français (France) etancOuzhe (Francc'est-à-dire le Canada), le japonais, l'allemand (Allemagne) et le coréen.
  • mises à jour CarPlay inclure la prise en charge de la fonctionnalité de texte volumineux. Grâce aux mises à jour de la fonction de reconnaissance sonore du système CarPlay Les conducteurs ou passagers sourds ou malentendants peuvent désormais être alertés du bruit d’un bébé qui pleure, en plus des sons extérieurs au véhicule, tels que les klaxons et les sirènes.
  • Partage des paramètres d'accessibilité est une nouvelle façon pour les utilisateurs de partager rapidement et temporairement les paramètres d'accessibilité avec un autre iPhonem ou iPadeux. C'est très pratique lorsque vous empruntez l'appareil d'un ami ou utilisez un appareil public.iosdans un environnement comme un café.

Le plus lu du jour

.