Todo tipo de información sobre accesibilidad en la Web: errores de accesibilidad, ejemplos de páginas inaccesibles, noticias, software, hardware, productos de apoyo, consejos, pautas y guías de accesibilidad, WAI, WCAG, Norma EN 301 549, legislación, etc.
En este trabajo se repasa el trabajo desarrollado por WAI para crear sus tres conjuntos de pautas (ATAG, UAAG, WCAG) y se explican los pasos que se están dando para avanzar en el desarrollo de las futuras pautas.
Mi duda es: ¿Es accesible un captcha con 2 modalidades (imagen y audio) en una web que debe cumplir el nivel AA (de acuerdo a las WCAG 2.0)?
Según tu texto entendí que hay que buscar otra solución, sin embargo la técnica G144 de las WCAG 2.0 habla sobre la opción de incluir dos modalidades para hacer accesible el capcha... He intentado buscar referencias/ejemplos en otras webs accesibles pero no he encontrado nada claro al 100%.
¿Cuál es tu opinión sobre esto? ¿Me recomiendas que use otra opción?
CAPTCHA: If the purpose of non-text content is to confirm that content is being accessed by a person rather than a computer, then text alternatives that identify and describe the purpose of the non-text content are provided, and alternative forms of CAPTCHA using output modes for different types of sensory perception are provided to accommodate different disabilities.
Las pautas hablan de "alternative forms of CAPTCHA", formas alternativas de captcha, pero no indica que dos formas sea suficiente.
En el caso de un captcha visual, que representa un problema para una persona ciega o con baja visión, un captcha auditivo es una alternativa válida. Pero, ¿qué ocurre con una persona sordociega?
Por tanto, un captcha con 2 modalidades (imagen y audio) no garantiza que el captcha sea accesible y que el sitio web lo pueda ser.
En el congreso Web for All 2016 se ha presentado el trabajo WebReader: a screen reader for everyone, everywhere, de Aurelio De Rosa y Donovan Justice. WebReader es:
WebReader is a free and open source JavaScript library developed for modern web browsers. Built using emerging functionality, WebReader can be integrated into any web page.
Underneath, WebReader relies on the Web Speech API to offer speech recognition and speech synthesis functionality.
It integrates a subset of the features provided by classic screen readers.
A major advantage of WebReader is that it does not require any additional software to be installed on a user's machine, apart from a supported web browser.
Estos días estoy en Montreal, asistiendo al congreso Web for All. Este congreso se celebra conjuntamente con el congreso WWW, el congreso más importante sobre la Web. En este congreso estoy presentando el trabajo de tres de mis doctorandas:
Editor for Accessible Images in e-Learning Platforms, Sandra Sanchez-Gordon, Juan Estevez (National Polytechnic School of Ecuador), Sergio Luján-Mora (University of Alicante)
Accessible Map Visualization Prototype, Tania Calle-Jimenez (National Polytechnic School of Ecuador), Sergio Luján-Mora (University of Alicante)
Improving OER Websites for Learners with Disabilities, Rosa Navarette (National Polytechnic School of Ecuador), Sergio Luján-Mora (University of Alicante)
¿Será el fin del texto alternativo manual escrito por el desarrollador de una página web?
No creo, a estos sistemas todavía le queda bastante por mejorar. Además, aunque funcionen y logren describir una imagen con todo lujo de detalles, el texto alternativo de una imagen depende tanto de su contenido como del contexto de uso de la imagen. De cualquier forma, cuando funcione, será una gran ayuda, ya que se podrá utilizar para definir un texto alternativo de emergencia.
Automatic alt text, which is coming to iOS today and later to Android and the web, recognizes objects in photos using machine learning […] While still in its early stages, the technology can reliably identify concepts in categories including transportation (“car,” “boat,” “airplane”), nature (“snow,” “ocean,” “sunset”), sports (“basketball court”), and food (“sushi”). The technology can also describe people (“baby,” “smiling,” beard”), and identify a selfie.
Microsoft ha desarrollado CaptionBot, un sistema de inteligencia artificial que puede describir el contenido de fotografías. Este sistema puede ser útil para generar un texto alternativo automático. Sin embargo, lo he probado y...
Lo he probado con tres fotografías mías y los resultados son bastante curiosos.
La primera fotografía bien, me dice "pienso que es un hombre que lleva un sombrero y está sonriendo". Es verdad:
En la segunda fotografía empieza a desvariar, me dice "pienso que es un hombre con gafas, está posando para la cámara y tiene un gesto serio, pienso que te pareces a Paul Schneider en un 51%". ¿Y quién es Paul Schneider? Un actor:
La tercera fotografía vuelve a desvariar un poco. Me dice que llevo corbata y esta vez me parezco en un 51% a Chris Kirkpatrick:
En el año 2012 escribí sobre un sistema de eye-tracking llamado GT3D desarrollado por investigadores del Imperial College de Londres (Inglaterra): Control del ordenador con la vista.
Eye-tracking, measuring where a person looks, requires serious equipment that costs serious money (approx 30,000 GBP). We built an eye-tracking system using mass-marketed off-the shelf components at 1/1000 of that cost, i.e. for less then 30 GBP.
Desgraciadamente, no parece que el producto se esté vendiendo.
Contribuir a la formación específica de los desarrolladores móviles, capacitándoles para realizar la evaluación de la accesibilidad de una aplicación móvil y acometer la corrección de los problemas que se detecten.
Concienciar a los alumnos de los obstáculos que se encuentran los usuarios con discapacidad cuando utilizan aplicaciones móviles.
Que los alumnos del curso se conviertan en agentes multiplicadores, participando activamente en la capacitación de otros desarrolladores y en la difusión de la necesidad de crear apps accesibles.
Twitter ha anunciado una novedad para su aplicación de iOS y Android por la que los usuarios podrán añadir descripciones a las fotografías que adjunten en los 'tuits' con el fin de que las personas que tienen una deficiencia visual puedan interpretar mejor las imágenes.
La descripción, o texto alterativo, como también lo ha llamado la red de microblogging, permite incorporar un texto a una imagen de tal forma se pueda explicar su contenido. "Puesto que [las imágenes] son claves en la experiencia de nuestra plataforma, es importante que las imágenes que se compartan sean accesibles para todo el mundo, incluidos aquellos que tengan una discapacidad visual", ha explicado el responsable de Ingenieros, Todd Kloots, en un comunicado.
El «Catálogo de productos de apoyo» no se encuentra disponible en la actualidad. Estamos intentando solucionar el problema y esperamos que vuelva a estar operativo a la mayor brevedad posible.
¿Qué ha pasado?
¿Dónde está el catálogo?
En whois podemos encontrar la siguiente información:
¡Ohhhh! El dominio está registrado a nombre de muruka hatanaka, de Japón. Y la fecha de actualización es 18 de febrero de 2016.
En el congreso CSUN16 se ha presentado Accessibility Tools Presentation, una conferencia en la que se analizan cuatro herramientas automáticas de evaluación de la accesibilidad web:
El impacto que tiene la discapacidad cognitiva en el uso de la Web es de los temas de la accesibilidad web que menos ha sido estudiado. La discapacidad cognitiva agrupa diferentes tipos de discapacidades o síndromes que dificultan la sistematización de las soluciones que se deben aplicar.
Muy importante: no se debe confundir discapacidad cognitiva con discapacidad intelectual. Una puede implicar la otra y vice versa, pero no son lo mismo. Algún día lo explicaré...
Por ahora, las principales técnicas que se deben aplicar para garantizar la accesibilidad son:
Use a clear structure with easy to follow sections short paragraphs manageable chunks
Use an easy to follow writing style
Provide rapid and direct feedback
Help the user understand the content and orientate themselves in the content.
Help users complete and check their work by less likely that the user will make mistakes and easy to undo mistakes when they occur
Provide help
Help the user focus and help restore the context if attention is lost
Enable adaptability and personalization, so that symbols text and other features rare familiar and helpful to the user
Minimize the cognitive skills required to use the content and avoid barriers that stop people with cognitive disabilities from using content, such as hard to use security mechanisms.
En esta recomendación se intenta definir el concepto de baja visión:
“Low vision” refers to visual impairments other than blindness. Other terms, such as “partially sighted” and “sight impaired”, are used in different contexts. Some governments and organizations such as the World Health Organization (WHO) define categories of low vision based on specific levels of visual acuity and field of vision. Visual acuity is the clarity or sharpness of vision. Field of vision is the area a person can see when their eyes are fixed in one position.
In many contexts, low vision only includes impairments that are not corrected with regular glasses, contact lenses, medicine, or surgery. For example, an inability to focus on objects close to the viewer but that can be overcome with reading glasses is not considered low vision in some disability rights contexts. In these contexts, low vision is often defined as visual impairment that interferes with a person’s ability to perform everyday activities.
In some contexts, such as social program benefits, people are classified as having low vision or being “legally blind”. Many people who are legally blind have some usable vision, and can read some text when it is displayed optimally for them.
In considering user needs, this document uses a broad scope of low vision to include all visual impairments except significant blindness — including impairments from aging, “color blindness”, and impairments that are often categorized as legally blind yet people have sufficient vision to see user interfaces in some situations. This document does not include all issues that are also relevant for people who are totally blind. It does include several issues that overlap with the needs of some people with cognitive disabilities.
Y se describen cinco categorías de baja visión que influyen en el uso de la Web:
El Modo Lector es una función de Firefox que quita distracciones como botones, publicidades e imágenes de fondo, y cambia el tamaño del texto de la página, su contraste y su diseño para una mejor legibilidad. La configuración del Modo Lector es fácilmente personalizable para cubrir tus necesidades a la hora de leer.
Lo he probado con mi sitio web sobre accesibilidad web, y no funciona.
Aquí está la información oficial sobre Reader view, pero no dice mucho de su funcionamiento.
Según he leído, se emplea un algoritmo para darle un puntaje a cada elemento de la página web, y si el puntaje alcanza cierto valor, se aplica el modo de lectura fácil.
En este blog he hablado varias veces sobre el control del ordenador con la mente (pensamiento). Es algo que ya es posible, pero no de la forma que podríamos esperar. Por ahora, un ordenador no puede leer nuestro pensamiento, pero sí que puede detectar ciertos patrones de actividad eléctrica cerebral que se pueden asociar a acciones programadas.
Researchers will begin developing the engine for Swedish, English, and Arabic, which they aim to complete by September 2017, before expanding it to the other 280 languages in which Wikipedia is available.
Según se dice en el artículo, un 25% de los usuarios de Wikipedia tendrán interés en usar este sistema:
According to Swedish telecommunications regulator PTS, which is financing the project, an estimated 25 percent of Wikipedia users — 125 million users per month — need or prefer speech to text.
Álvaro, un lector de este blog, me ha avisado de la existencia de Photosensitive Epilepsy Analysis Tool (PEAT), una herramienta gratuita que evalúa el riesgo de producir ataques de epilepsia por fotosensibilidad en el contenido web.