Google ha anunciado una serie de innovaciones en accesibilidad impulsadas por inteligencia artificial para Android y Chrome, coincidiendo con el Día Mundial de Concienciación sobre la Accesibilidad (GAAD) 2025. El gran protagonista es Gemini, el avanzado modelo de IA de Google, que ahora se integra aún más en el ecosistema Android para transformar la experiencia de usuarios con discapacidad visual y auditiva.
La integración de Gemini en TalkBack, el lector de pantalla de Android, marca un antes y un después. Ahora, las personas ciegas o con baja visión pueden recibir descripciones generadas por IA sobre cualquier imagen, incluso si no tiene texto alternativo. Además, la novedad más destacada es la posibilidad de interactuar con las imágenes: los usuarios pueden hacer preguntas sobre lo que aparece en pantalla, como el modelo y color de un objeto o detalles adicionales de una foto enviada por un amigo. Esta función se extiende a toda la pantalla, permitiendo consultar información sobre cualquier elemento visible, desde productos en una tienda online hasta detalles de una web.
Por otro lado, Chrome para Android también recibe mejoras relevantes, como el ajuste de zoom en páginas que ahora solo aumenta el texto, facilitando la lectura a personas con baja visión. Además, se han potenciado los subtítulos automáticos para captar mejor las emociones en los vídeos, una ayuda clave para personas sordas o con dificultades auditivas.
Estas actualizaciones no solo mejoran la autonomía y la inclusión digital, sino que también ofrecen nuevas herramientas a los desarrolladores que crean soluciones de reconocimiento de voz y accesibilidad. Google reafirma así su compromiso con una tecnología más humana y accesible para todos, integrando la inteligencia artificial en el día a día de millones de usuarios
Fuente: Google