Apple decidi há pouco para uma grande surpresa. Com a introdução de algumas novidades para iOS 19 decidiu não esperar até o início de junho, mas os revelou agora por meio de um comunicado à imprensa emitido para celebrar o Dia Mundial da Acessibilidade. É "celebrado" todo ano na terceira quinta-feira de maio. Como você provavelmente pode imaginar, a notícia revelada diz respeito à Divulgação, que está em iPhonecriado especialmente para pessoas com diversas formas de deficiência. No entanto, algumas funções podem ser utilizadas por qualquer pessoa, e isso também se aplicará, naturalmente, às novas funcionalidades planeadas para iOS 19 e outras versões do sistema operacional - especialmente porque, em alguns casos, essas são coisas difíceis de acreditar. Então, o que você acha do mundo? Apple preparado?
Etiquetas de acessibilidade em App Store
Nas páginas de produtos em App Store Uma nova seção aparecerá destacando recursos de acessibilidade em aplicativos e jogos. Esses rótulos fornecem uma nova maneira para os usuários verem se um aplicativo estará acessível a eles antes de baixá-lo, e para os desenvolvedores informarem e educarem melhor seus usuários sobre os recursos que seu aplicativo suporta. Isso inclui recursos como VoiceOver, Controle de Voz, Texto Ampliado, Contraste Adequado, Movimento Reduzido, legendas e muito mais. Os rótulos nutricionais de acessibilidade estarão disponíveis em App Store em todo o mundo, e os desenvolvedores terão acesso a orientações adicionais sobre os critérios que os aplicativos devem atender antes de exibir informações de acessibilidade em suas páginas de produtos.
Uma nova lupa para Mac
A Lupa no iPhone e iPad oferece a usuários cegos ou com baixa visão ferramentas para ampliar, ler texto e reconhecer objetos ao redor desde 2016. Este ano, a Lupa chega ao Mac para tornar o mundo físico mais acessível a usuários com baixa visão. O app Lupa para Mac se conecta à câmera do usuário, permitindo que ele amplie o ambiente ao seu redor, como uma tela ou um quadro branco. A Lupa funciona com a câmera. Continuity Camera no iPhone, mesmo com câmeras USB conectadas e suporta leitura de documentos usando o recurso Desk View.
Com várias janelas de sessão ao vivo, os usuários podem realizar várias tarefas ao mesmo tempo: assistir a uma apresentação usando a webcam enquanto leem um livro no Desk View. Com visualizações personalizadas, os usuários podem ajustar brilho, contraste, filtros de cor e até mesmo a perspectiva para visualizar melhor o texto e as imagens. As visualizações também podem ser capturadas, agrupadas e salvas para referência posterior. Além disso, o Magnifier para Mac é integrado a outro novo recurso de acessibilidade, o Accessibility Reader, que traduz texto do mundo físico para um formato nativo legível.

Uma nova experiência com Braille
O Braille Access é um ambiente completamente novo que transforma iPhone, iPad, Mac e Apple Vision Pro em um bloco de notas braille completo e profundamente integrado ao ecossistema AppleCom um inicializador de aplicativos integrado, os usuários podem abrir qualquer aplicativo facilmente digitando em um visor de entrada braille ou em um dispositivo braille conectado. Com o Braille Access, os usuários podem fazer anotações em braille rapidamente e realizar cálculos usando a fonte Nemeth Braille, frequentemente usada em salas de aula de matemática e ciências. Os usuários podem abrir arquivos no formato Braille Ready Format (BRF) diretamente do Braille Access, desbloqueando uma ampla gama de livros e arquivos que foram criados anteriormente em um dispositivo de anotações em braille. E as Legendas ao Vivo integradas permitem que os usuários transcrevam conversas em tempo real diretamente nos visores braille.
Apresentando o Leitor de Acessibilidade
O Accessibility Reader é um novo modo de leitura do sistema projetado para facilitar a leitura de texto para usuários com vários tipos de deficiências, como dislexia ou baixa visão. Leitor de Acessibilidade, disponível em dispositivos iPhone, iPad, Mac e Apple Vision Pro, oferece aos usuários novas opções para personalizar o texto e se concentrar no conteúdo que desejam ler, com amplas opções de fonte, cor e espaçamento, bem como suporte para conteúdo falado. O Accessibility Reader pode ser iniciado a partir de qualquer aplicativo e está integrado ao aplicativo Magnifier para iOS, iPadOS e macOS, para que os usuários possam interagir com texto no mundo real, como em livros ou menus.

Legendas ao vivo em Apple Watch
Para usuários surdos ou com deficiência auditiva, o controle de audição ao vivo é essencial Apple Watch com um novo conjunto de recursos, incluindo legendas ao vivo em tempo real. O recurso Live Listen transforma iPhone no microfone remoto para transmitir conteúdo diretamente para os fones de ouvido AirCápsulas, feitas para iPhone ou batidas. Quando uma sessão está ativa no iPhone, os usuários podem ouvir o áudio no relógio pareado Apple Watch exibir legendas ao vivo do que eles iPhone ouve. Assistir Apple Watch serve como um controle remoto para iniciar ou parar uma sessão de escuta ao vivo, ou para retornar a uma sessão para pegar algo que você possa ter perdido. Com um relógio Apple Watch As sessões de Escuta ao Vivo podem ser controladas do outro lado da sala, para que você não precise se levantar no meio de uma reunião ou durante a aula. O Live Listen pode ser usado em conjunto com os recursos de proteção auditiva disponíveis em AirPods Pro 2, incluindo a primeira função clínica de aparelho auditivo desse tipo.

Visão melhorada com Apple Vision Pro
Para usuários cegos ou com deficiência visual, o sistema será expandido visionRecursos do sistema operacional para acessibilidade de visão usando um sistema de câmera avançado Apple Vision Pro. Com atualizações poderosas do Zoom, os usuários podem usar a câmera principal para ampliar tudo o que veem, incluindo os arredores. Para usuários do VoiceOver, ele usa reconhecimento ao vivo em visionAprendizado de máquina do sistema operacional no dispositivo para descrever o ambiente, encontrar objetos, ler documentos e muito mais.1 Para desenvolvedores de aplicativos de acessibilidade, a nova API permitirá que aplicativos aprovados acessem a câmera principal para fornecer assistência de interpretação visual de pessoa para pessoa ao vivo em aplicativos como Be My Eyes, dando aos usuários mais maneiras de entender o ambiente sem usar as mãos.

Mais notícias
- Sons de fundo pode ser personalizado mais facilmente graças às novas configurações do equalizador, à opção de parar automaticamente após um certo tempo e às novas ações de automação na seção Atalhos. Sons de fundo podem ajudar minireduzir distrações e aumentar sentimentos de foco e relaxamento, o que pode ajudar alguns usuários com sintomas de zumbido.
- Para usuários com risco de perder a capacidade de falar, o recurso Voz pessoal Mais rápido, mais fácil e mais poderoso do que nunca, aproveitando os avanços em aprendizado de máquina e inteligência artificial diretamente no seu dispositivo para criar uma voz mais suave e natural em menos de um minuto, usando apenas 10 frases gravadas. O Personal Voice também adicionará suporte para espanhol (México).
- Recurso chegando ao Mac Dicas de movimento do veículo, que pode ajudar a reduzir o enjoo em veículos em movimento, e novas maneiras de personalizar pontos animados na tela do iPhone, iPad e Mac.
- Usuários de dispositivos Eye Tracking no iPhone e iPad agora há a opção de usar um botão de alternância ou de espera para fazer uma seleção. Digitar no teclado enquanto usa o Rastreamento Ocular ou o controle de alternância agora está disponível no iPhone, iPad e Apple Vision Pro mais fácil com melhorias, incluindo um novo temporizador de permanência no teclado, etapas reduzidas ao digitar com interruptores e ativação do QuickPath para iPhone a Vision Pro.
- Usando a função Seguimento de Cabeça os usuários poderão controlá-lo mais facilmente iPhone e movimentos da cabeça do iPad, semelhantes ao rastreamento ocular.
- Para usuários com deficiências graves de mobilidade, haverá iOS, iPadOS e VisionO sistema operacional adicionou um novo protocolo que oferece suporte ao controle de switch para Interfaces cérebro-computador (BCI), uma nova tecnologia que permite aos usuários controlar dispositivos sem movimento físico.
- Funcionalidades Acesso assistido adiciona um novo aplicativo personalizado Apple TV com um media player simplificado. Os desenvolvedores também receberão suporte para criar experiências adaptadas a usuários com deficiências intelectuais e de desenvolvimento usando a API de Acesso Assistivo.
- Háptica musical no iPhone, ele se torna mais personalizável com a capacidade de testar a sensação tátil na música inteira ou apenas nos vocais, além da capacidade de ajustar a intensidade geral dos toques, texturas e vibrações.
- Função de reconhecimento de som adiciona reconhecimento de nome, uma nova maneira para usuários surdos ou com deficiência auditiva saberem quando seu nome está sendo chamado.
- Controle de voz introduz um novo modo de programação em Xcode para desenvolvedores de software com mobilidade limitada. O Controle por Voz também adiciona sincronização de vocabulário entre dispositivos e expande o suporte a idiomas para incluir coreano, árabe (Arábia Saudita), turco, italiano, espanhol (América Latina), mandarim (Taiwan), inglês (Singapura) e russo.
- Suporte para legendas ao vivo será expandido para incluir inglês (Índia, Austrália, Reino Unido, Cingapura), mandarim (China continental), cantonês (China continental, Hong Kong), espanhol (América Latina, Espanha), francês (França) eancOuzhe (Pe.ancou seja, Canadá), japonês, alemão (Alemanha) e coreano.
- atualizações CarPlay incluir suporte para o recurso Texto Grande. Graças às atualizações do recurso de reconhecimento de som no sistema CarPlay Motoristas ou passageiros surdos ou com deficiência auditiva agora podem ser alertados sobre o som de um bebê chorando, além de sons externos ao veículo, como buzinas e sirenes.
- Compartilhando configurações de acessibilidade é uma nova maneira para os usuários compartilharem de forma rápida e temporária as configurações de acessibilidade com outro iPhonem ou iPad. Isso é ótimo ao pegar emprestado o dispositivo de um amigo ou usar um dispositivo públicoiosem um ambiente como um café.
Então, de novo, nada. E onde está a República Tcheca? Onde está o verdadeiro controle de voz de todas as funções do telefone, como o Android já consegue fazer há vários anos? Onde está a integração da IA com o telefone?onem?
Onde a fonte é maior para que eu não precise usar uma lupa para ler o que é o ícone?
Como chegar à tela principal com um clique?
Isso simplesmente começa a me incomodar. Appcaçando a ignorância dos usuários e a complacência e o egoísmo de que eles sabem melhor o que os usuários querem irritar