Apple Decidí hace un rato una gran sorpresa. Con la introducción de algunas novedades para iOS 19 decidió no esperar hasta principios de junio, sino que los reveló ahora a través de un comunicado de prensa emitido para celebrar el Día Mundial de la Accesibilidad. Se "celebra" cada año el tercer jueves de mayo. Como probablemente puedas adivinar, la noticia revelada se refiere a la Divulgación, que se encuentra en iPhoneCreado especialmente para personas con diversas formas de discapacidad. Sin embargo, algunas funciones pueden ser utilizadas por cualquier persona, y esto, por supuesto, también se aplicará a las nuevas funciones planificadas para iOS 19 y otras versiones del sistema operativo, especialmente porque en algunos casos son cosas difíciles de creer. Entonces, ¿qué piensas del mundo? Apple ¿preparado?
Etiquetas de accesibilidad en App Store
En las páginas de productos en App Store Aparecerá una nueva sección que resaltará las funciones de accesibilidad en aplicaciones y juegos. Estas etiquetas proporcionan una nueva forma para que los usuarios vean si una aplicación será accesible para ellos antes de descargarla, y para que los desarrolladores informen y eduquen mejor a sus usuarios sobre las características que admite su aplicación. Estos incluyen características como VoiceOver, Control de voz, Texto ampliado, Contraste adecuado, Movimiento reducido, subtítulos y más. Las etiquetas nutricionales de accesibilidad estarán disponibles en App Store en todo el mundo, y los desarrolladores tendrán acceso a orientación adicional sobre los criterios que las aplicaciones deben cumplir antes de mostrar información.macsobre la accesibilidad en sus páginas de productos.
Una nueva lupa para Mac
Lupa en iPhone y iPadDesde 2016, u proporciona a los usuarios ciegos o con discapacidad visual herramientas para hacer zoom, leer texto y reconocer objetos en su entorno. Este año, Lupa viene a MacHacer que el mundo físico sea accesible para usuarios con baja visión. Aplicación de lupa para Mac Se conecta a la cámara del usuario, lo que le permite hacer zoom en su entorno, como una pantalla o una pizarra. La lupa funciona con la cámara. Continuity Camera en iPhone y con el dispositivo conectado USB cámaras y admite la lectura de documentos mediante la función Vista de escritorio.
Con múltiples ventanas de sesión en vivo, los usuarios pueden realizar múltiples tareas a la vez: mirar una presentación usando una cámara web mientras ven simultáneamente un libro usando Desk View. Con vistas personalizadas, los usuarios pueden ajustar el brillo, el contraste, los filtros de color e incluso la perspectiva para que el texto y las imágenes sean más fáciles de ver. Las vistas también se pueden capturar, agrupar y guardar para agregarlas más tarde. Lupa para Mac También está integrado con otra nueva función de accesibilidad, Accessibility Reader, que convierte el texto del mundo físico a un formato legible nativo.

Una nueva experiencia con Braille
Braille Access es un entorno completamente nuevo que transforma iPhone, iPad, Mac a Apple Vision Pro en un bloc de notas braille completo que está profundamente integrado en el ecosistema AppleCon un lanzador de aplicaciones integrado, los usuarios pueden abrir fácilmente cualquier aplicación escribiendo en una pantalla de entrada braille o un dispositivo braille conectado. Con Braille Access, pueden tomar notas rápidamente en braille y realizar cálculos con braille Nemeth, una fuente común en las aulas de matemáticas y ciencias. Pueden abrir archivos con formato Braille Ready (BRF) directamente desde Braille Access, lo que les permite acceder a una amplia gama de libros y archivos creados previamente en un dispositivo para tomar notas braille. Además, los subtítulos en vivo integrados permiten transcribir conversaciones en tiempo real directamente en las pantallas braille.
Presentamos Accessibility Reader
Accessibility Reader es un nuevo modo de lectura del sistema diseñado para facilitar la lectura de textos a usuarios con diversos tipos de discapacidades, como dislexia o baja visión. Lector de accesibilidad, disponible en dispositivos iPhone, iPad, Mac a Apple Vision Pro, ofrece a los usuarios nuevas opciones para personalizar el texto y centrarse en el contenido que desean leer, con amplias opciones de fuente, color y espaciado, así como soporte para contenido hablado. El lector de accesibilidad se puede iniciar desde cualquier aplicación y está integrado en la aplicación Magnifier. iOS, iPadOS a macOS, para que los usuarios puedan interactuar con el texto en el mundo real, como en libros o en menús.

Subtítulos en vivo en Apple Watch
Para usuarios sordos o con dificultades auditivas, el control de escucha en vivo es una opción Apple Watch con un nuevo conjunto de funciones, incluidos subtítulos en vivo en tiempo real. La función Escucha en vivo transforma iPhone en micrófono remoto para transmitir contenido directamente a los auriculares AirPods, Hecho para iPhone o Beats. Cuando una sesión está activa en el iPhone, los usuarios pueden escuchar audio en su reloj emparejado Apple Watch Mostrar subtítulos en vivo de lo que dicen iPhone oye. Mirar Apple Watch sirve como control remoto para iniciar o detener una sesión de escucha en vivo, o para volver a una sesión y capturar algo que quizás te hayas perdido. Con un reloj Apple Watch Las sesiones de escucha en vivo se pueden controlar desde el otro lado de la sala, por lo que no es necesario levantarse en medio de una reunión o durante la clase. Live Listen se puede utilizar junto con las funciones de protección auditiva disponibles en AirPods Pro 2, incluida la primera función de audífono clínico de este tipo.

Vista mejorada con Apple Vision Pro
Para los usuarios ciegos o con discapacidad visual, el sistema se ampliará visionOS Función para hacer accesible la visión mediante un sistema de cámara avanzado Apple Vision Pro. Con las potentes actualizaciones de Zoom, los usuarios pueden usar la cámara principal para ampliar todo lo que ven, incluido su entorno. Para los usuarios de VoiceOver, utiliza reconocimiento en vivo en visionOS aprendizaje automático en el dispositivo para describir el entorno, encontrar objetos, leer documentos y más.1 Para los desarrolladores de aplicaciones de accesibilidad, la nueva API permitirá que las aplicaciones aprobadas accedan a la cámara principal para brindar asistencia de interpretación visual de persona a persona en vivo en aplicaciones como Be My Eyes, brindando a los usuarios más formas de comprender su entorno con manos libres.

Mas noticias
- Sonidos de fondo Se puede personalizar más fácilmente gracias a las nuevas configuraciones del ecualizador, la opción de detenerse automáticamente después de cierto tiempo y nuevas acciones de automatización en la sección Accesos directos. Los sonidos de fondo pueden ayudar minireducir las distracciones y aumentar la sensación de concentración y relajación, lo que puede ayudar a algunos usuarios con síntomas de tinnitus.
- Para los usuarios que corren el riesgo de perder la capacidad de hablar, la función Voz personal Más rápido, más fácil y más potente que nunca, aprovechando los avances en aprendizaje automático e inteligencia artificial. intelinteligencia directamente en el dispositivo y puede crear una voz más suave y con un sonido más natural en menos de un minuto, utilizando solo 10 frases grabadas. Personal Voice también agregará soporte para español (México).
- Na Mac La función está por llegar Señales de movimiento del vehículo, que puede ayudar a reducir el mareo por movimiento en vehículos en movimiento, y nuevas formas de personalizar puntos animados en la pantalla del iPhone, iPadua Macu.
- Usuarios de dispositivos Registro visual en iPhone y iPadAhora tienes la opción de usar un interruptor de palanca o un botón de permanencia para seleccionar. Escribir en el teclado usando Seguimiento ocular o Control por interruptor ahora está disponible en iPhone, iPadua Apple Vision Pro más fácil con mejoras que incluyen un nuevo temporizador de permanencia en el teclado, pasos reducidos al escribir con interruptores y habilitación de QuickPath para iPhone a Vision Pro.
- Usando la función Seguimiento de cabeza Los usuarios podrán controlarlo más fácilmente iPhone a iPad movimientos de la cabeza, similares al seguimiento ocular.
- Para los usuarios con discapacidades de movilidad severas, habrá iOS, iPadOS a VisionOS Se agregó un nuevo protocolo que admite el control del conmutador para Interfaces cerebro-computadora (BCI), una nueva tecnología que permite a los usuarios controlar dispositivos sin movimiento físico.
- Caracteristicas Acceso asistido agrega una nueva aplicación personalizada Apple TV con un reproductor multimedia simplificado. Los desarrolladores también recibirán apoyo para crear experiencias adaptadas a los usuarios con discapacidades intelectuales y de desarrollo utilizando la API de acceso asistida.
- Táctil musical En el iPhone, se vuelve más personalizable con la capacidad de probar la háptica para toda la canción o solo para las voces, así como la capacidad de ajustar la intensidad general de los toques, las texturas y las vibraciones.
- Función de reconocimiento de sonido agrega reconocimiento de nombres, una nueva forma para que los usuarios sordos o con dificultades auditivas sepan cuándo alguien los llama por su nombre.
- Control de voz introduce un nuevo modo de programación en Xcode para desarrolladores de software con movilidad limitada. El control de voz también agrega sincronización de vocabulario entre dispositivos y amplía el soporte de idiomas para incluir coreano, árabe (Arabia Saudita), turco, italiano, español (América Latina), chino mandarín (Taiwán), inglés (Singapur) y ruso.
- Soporte de subtítulos en vivo Se ampliará para incluir inglés (India, Australia, Reino Unido, Singapur), chino mandarín (China continental), cantonés (China continental, Hong Kong), español (América Latina, España), francés (Francia) yancOuzhe (fr.ances decir, Canadá), japonés, alemán (Alemania) y coreano.
- aktualizace CarPlay incluye soporte para la función de texto grande. Gracias a las actualizaciones de la función de reconocimiento de sonido en el sistema CarPlay Los conductores o pasajeros sordos o con dificultades auditivas ahora pueden ser alertados sobre el sonido de un bebé que llora, además de sonidos externos al vehículo, como bocinas y sirenas.
- Compartir la configuración de accesibilidad es una nueva forma para que los usuarios compartan de forma rápida y temporal la configuración de accesibilidad con otros. iPhonem o iPadellos. Esto es genial cuando se toma prestado el dispositivo de un amigo o se usa un teléfono público.iosen un entorno como una cafetería.
Así que nada más. ¿Y dónde está Chequia? ¿Dónde está el verdadero control de voz de todas las funciones del teléfono como si fuera posible? android ¿Por varios años? ¿Dónde está la integración de la IA con el teléfono?onem?
¿Dónde está la fuente más grande para no tener que usar una lupa para leer el ícono?
¿Cómo llegar a la pantalla principal con un clic?
Simplemente empieza a molestarme. AppCazando la ignorancia de los usuarios y la complacencia y el egoísmo de que ellos saben mejor lo que los usuarios quieren molestar