Buscador

lunes, 18 de abril de 2016

El futuro de las pautas de accesibilidad

En el congreso Web for All 2016 se ha presentado el trabajo Web Accessibility Guidelines for the 2020, de Michael Cooper. Michael Cooper es un especialista de la Web Accessibility Initiative del W3C.

En este trabajo se repasa el trabajo desarrollado por WAI para crear sus tres conjuntos de pautas (ATAG, UAAG, WCAG) y se explican los pasos que se están dando para avanzar en el desarrollo de las futuras pautas.

viernes, 15 de abril de 2016

¿Es accesible un captcha con 2 modalidades (imagen y audio) en una web que debe cumplir el nivel AA (de acuerdo a las WCAG 2.0)?

Hace unos días recibí esta pregunta:
Hay un tema que no consigo aclarar, y como experto quería consultarte, ya que me ha surgido a partir de este artículo: http://accesibilidadweb.dlsi.ua.es/?menu=que-es-un-captcha-problemas-accesibilidad

Mi duda es: ¿Es accesible un captcha con 2 modalidades (imagen y audio) en una web que debe cumplir el nivel AA (de acuerdo a las WCAG 2.0)?

Según tu texto entendí que hay que buscar otra solución, sin embargo la técnica G144 de las WCAG 2.0 habla sobre la opción de incluir dos modalidades para hacer accesible el capcha... He intentado buscar referencias/ejemplos en otras webs accesibles pero no he encontrado nada claro al 100%.

¿Cuál es tu opinión sobre esto? ¿Me recomiendas que use otra opción?
Mi respuesta:

La técnica G144: Ensuring that the Web Page contains another CAPTCHA serving the same purpose using a different modality indica que si una página web contiene un captcha, se debe proporcionar una alternativa. ¿Cómo? Por ejemplo, si una página contiene el típico captcha de introducir los caracteres que aparecen en una imagen, se debe proporciona una alternativa, como por un ejemplo un captcha auditivo.

¿Por qué?

Porque si una persona es ciega, no puede ver el captcha, pero podrá escuchar el captcha y problema resuelto. ¿Seguro?

En G144 ya no avisan de que hay que llevar cuidado:
Because there are alternate CAPTCHA tasks that use different modalities, a user is more likely to be able to complete one of the tasks successfully.
"A user is more likely", es más probable que un usuario pueda completar una tarea, pero más probable no significa más seguro al 100%.

Y en realidad, en WCAG 2.0 1.1.1 Non-text Content está más claro:
CAPTCHA: If the purpose of non-text content is to confirm that content is being accessed by a person rather than a computer, then text alternatives that identify and describe the purpose of the non-text content are provided, and alternative forms of CAPTCHA using output modes for different types of sensory perception are provided to accommodate different disabilities.
Las pautas hablan de "alternative forms of CAPTCHA", formas alternativas de captcha, pero no indica que dos formas sea suficiente.

En el caso de un captcha visual, que representa un problema para una persona ciega o con baja visión, un captcha auditivo es una alternativa válida. Pero, ¿qué ocurre con una persona sordociega?

Por tanto, un captcha con 2 modalidades (imagen y audio) no garantiza que el captcha sea accesible y que el sitio web lo pueda ser.

La mejor solución es prescindir de los captchas. En el vídeo ¿Qué es un CAPTCHA? Problemas de accesibilidad (2/2) presento algunas alternativas que permiten prescindir de los captchas:


jueves, 14 de abril de 2016

WebReader

En el congreso Web for All 2016 se ha presentado el trabajo WebReader: a screen reader for everyone, everywhere, de Aurelio De Rosa y Donovan Justice. WebReader es:
WebReader is a free and open source JavaScript library developed for modern web browsers. Built using emerging functionality, WebReader can be integrated into any web page.
Underneath, WebReader relies on the Web Speech API to offer speech recognition and speech synthesis functionality.
It integrates a subset of the features provided by classic screen readers.
A major advantage of WebReader is that it does not require any additional software to be installed on a user's machine, apart from a supported web browser.
WebReader está disponible en https://web-reader.digital-detox.co.uk/

miércoles, 13 de abril de 2016

En el congreso Web for All

Estos días estoy en Montreal, asistiendo al congreso Web for All. Este congreso se celebra conjuntamente con el congreso WWW, el congreso más importante sobre la Web. En este congreso estoy presentando el trabajo de tres de mis doctorandas:

  • Editor for Accessible Images in e-Learning Platforms, Sandra Sanchez-Gordon, Juan Estevez (National Polytechnic School of Ecuador), Sergio Luján-Mora (University of Alicante)
  • Accessible Map Visualization Prototype, Tania Calle-Jimenez (National Polytechnic School of Ecuador), Sergio Luján-Mora (University of Alicante)
  • Improving OER Websites for Learners with Disabilities, Rosa Navarette (National Polytechnic School of Ecuador), Sergio Luján-Mora (University of Alicante)

lunes, 11 de abril de 2016

¿El fin del texto alternativo?

En los últimos días he comentado un par de sistemas de reconocimiento automático de imágenes:


Además, hace un par de años hablé del sistema de Google: Dentro de poco me tendré que comer mis propias palabras como si fueran dos pizzas.

¿Será el fin del texto alternativo manual escrito por el desarrollador de una página web?

No creo, a estos sistemas todavía le queda bastante por mejorar. Además, aunque funcionen y logren describir una imagen con todo lujo de detalles, el texto alternativo de una imagen depende tanto de su contenido como del contexto de uso de la imagen. De cualquier forma, cuando funcione, será una gran ayuda, ya que se podrá utilizar para definir un texto alternativo de emergencia.

viernes, 8 de abril de 2016

Facebook también genera un texto alternativo automático

Facebook también ha desarrollado un sistema para generar de forma automática un texto alternativo para las imágenes: Facebook’s iOS app uses AI and VoiceOver to describe the contents of photos to blind users.

¿Qué hace el sistema?
Automatic alt text, which is coming to iOS today and later to Android and the web, recognizes objects in photos using machine learning […] While still in its early stages, the technology can reliably identify concepts in categories including transportation (“car,” “boat,” “airplane”), nature (“snow,” “ocean,” “sunset”), sports (“basketball court”), and food (“sushi”). The technology can also describe people (“baby,” “smiling,” beard”), and identify a selfie.
Más información:

miércoles, 6 de abril de 2016

Microsoft presenta un sistema automático que describe imágenes

Microsoft ha desarrollado CaptionBot, un sistema de inteligencia artificial que puede describir el contenido de fotografías. Este sistema puede ser útil para generar un texto alternativo automático. Sin embargo, lo he probado y...

Lo he probado con tres fotografías mías y los resultados son bastante curiosos.

La primera fotografía bien, me dice "pienso que es un hombre que lleva un sombrero y está sonriendo". Es verdad:


En la segunda fotografía empieza a desvariar, me dice "pienso que es un hombre con gafas, está posando para la cámara y tiene un gesto serio, pienso que te pareces a Paul Schneider en un 51%". ¿Y quién es Paul Schneider? Un actor:



La tercera fotografía vuelve a desvariar un poco. Me dice que llevo corbata y esta vez me parezco en un 51% a Chris Kirkpatrick:



¿Puede ser útil este sistema?

Quizás, hasta cierto punto...

martes, 5 de abril de 2016

Eye tracking de bajo coste

En el año 2012 escribí sobre un sistema de eye-tracking llamado GT3D desarrollado por investigadores del Imperial College de Londres (Inglaterra): Control del ordenador con la vista.

Ahora me he encontrado la página del proyecto GT3D en la que se cuentan más cosas: GT3D - Ultralow cost eyetracking as alternative to BMIs.
Eye-tracking, measuring where a person looks, requires serious equipment that costs serious money (approx 30,000 GBP). We built an eye-tracking system using mass-marketed off-the shelf components at 1/1000 of that cost, i.e. for less then 30 GBP.
Desgraciadamente, no parece que el producto se esté vendiendo.


lunes, 4 de abril de 2016

Curso "Desarrollo de aplicaciones móviles accesibles"

El proyecto Esvial junto con la Universidad de Alcalá organiza el curso gratuito Desarrollo de aplicaciones móviles accesibles.

El curso comienza el 5 de septiembre de 2016.

Los objetivos del curso son:

  • Contribuir a la formación específica de los desarrolladores móviles, capacitándoles para realizar la evaluación de la accesibilidad de una aplicación móvil y acometer la corrección de los problemas que se detecten.
  • Concienciar a los alumnos de los obstáculos que se encuentran los usuarios con discapacidad cuando utilizan aplicaciones móviles.
  • Que los alumnos del curso se conviertan en agentes multiplicadores, participando activamente en la capacitación de otros desarrolladores y en la difusión de la necesidad de crear apps accesibles.
  • Conocimientos previos:

viernes, 1 de abril de 2016

Twitter permite añadir un texto alternativo a las imágenes

Han tardado, pero por fin lo han hecho: Twitter permite añadir descripciones a las imágenes para hacerlas más accesibles. La noticia dice:

Twitter ha anunciado una novedad para su aplicación de iOS y Android por la que los usuarios podrán añadir descripciones a las fotografías que adjunten en los 'tuits' con el fin de que las personas que tienen una deficiencia visual puedan interpretar mejor las imágenes. 
La descripción, o texto alterativo, como también lo ha llamado la red de microblogging, permite incorporar un texto a una imagen de tal forma se pueda explicar su contenido. "Puesto que [las imágenes] son claves en la experiencia de nuestra plataforma, es importante que las imágenes que se compartan sean accesibles para todo el mundo, incluidos aquellos que tengan una discapacidad visual", ha explicado el responsable de Ingenieros, Todd Kloots, en un comunicado.

miércoles, 30 de marzo de 2016

¿Qué ha pasado con el Catálogo de productos de apoyo CEAPAT?

Erase una vez...

El Centro de Referencia Estatal de Autonomía Personal y Ayudas Técnicas (CEAPAT), dependiente del Imserso, tenía un catálogo de productos de apoyo alojado en el dominio catalogo-ceapat.org.

Sorpresa, sorpresa, si ahora se accede a ese dominio aparece la siguiente página web:


¡Una página en japonés!

Cuando hasta finales del año pasado lo que aparecía era esto (copia en Internet Archive):


¿Qué ha pasado?

En la web de CEAPAT, en la página Catálogo de productos de apoyo, podemos leer:


El «Catálogo de productos de apoyo» no se encuentra disponible en la actualidad. Estamos intentando solucionar el problema y esperamos que vuelva a estar operativo a la mayor brevedad posible.

¿Qué ha pasado?

¿Dónde está el catálogo?

En whois podemos encontrar la siguiente información:



¡Ohhhh! El dominio está registrado a nombre de muruka hatanaka, de Japón. Y la fecha de actualización es 18 de febrero de 2016.

¿Qué puede haber pasado?





lunes, 28 de marzo de 2016

Presentación sobre las herramientas automáticas de evaluación de la accesibilidad web

En el congreso CSUN16 se ha presentado Accessibility Tools Presentation, una conferencia en la que se analizan cuatro herramientas automáticas de evaluación de la accesibilidad web:

  • Accessibility Developer Tools Overview
  • AInspector Sidebar Overview
  • aXe Overview
  • WAVE Overview

viernes, 25 de marzo de 2016

Técnicas de accesibilidad para la discapacidad cognitiva

El impacto que tiene la discapacidad cognitiva en el uso de la Web es de los temas de la accesibilidad web que menos ha sido estudiado. La discapacidad cognitiva agrupa diferentes tipos de discapacidades o síndromes que dificultan la sistematización de las soluciones que se deben aplicar.

Muy importante: no se debe confundir discapacidad cognitiva con discapacidad intelectual. Una puede implicar la otra y vice versa, pero no son lo mismo. Algún día lo explicaré...

El W3C acaba de publicar el primer borrador de Techniques for the The Cognitive and Learning Disabilities Accessibility Task Force (COGA). Realmente, no se puede llamar ni borrador, es más bien un esquema de lo que se pretende redactar, muchas de sus secciones están vacías. Sin embargo, es un buen inicio.

Por ahora, las principales técnicas que se deben aplicar para garantizar la accesibilidad son:

  1. Use a clear structure with easy to follow sections short paragraphs manageable chunks
  2. Use an easy to follow writing style
  3. Provide rapid and direct feedback
  4. Help the user understand the content and orientate themselves in the content.
  5. Help users complete and check their work by less likely that the user will make mistakes and easy to undo mistakes when they occur
  6. Provide help
  7. Help the user focus and help restore the context if attention is lost
  8. Enable adaptability and personalization, so that symbols text and other features rare familiar and helpful to the user
  9. Minimize the cognitive skills required to use the content and avoid barriers that stop people with cognitive disabilities from using content, such as hard to use security mechanisms.

miércoles, 23 de marzo de 2016

Requisitos de accesibilidad para las personas con baja visión

Hace una semana, el W3C publicó el primer borrador de Accessibility Requirements for People with Low Vision.

En esta recomendación se intenta definir el concepto de baja visión:
“Low vision” refers to visual impairments other than blindness. Other terms, such as “partially sighted” and “sight impaired”, are used in different contexts. Some governments and organizations such as the World Health Organization (WHO) define categories of low vision based on specific levels of visual acuity and field of vision. Visual acuity is the clarity or sharpness of vision. Field of vision is the area a person can see when their eyes are fixed in one position.
In many contexts, low vision only includes impairments that are not corrected with regular glasses, contact lenses, medicine, or surgery. For example, an inability to focus on objects close to the viewer but that can be overcome with reading glasses is not considered low vision in some disability rights contexts. In these contexts, low vision is often defined as visual impairment that interferes with a person’s ability to perform everyday activities.
In some contexts, such as social program benefits, people are classified as having low vision or being “legally blind”. Many people who are legally blind have some usable vision, and can read some text when it is displayed optimally for them.
In considering user needs, this document uses a broad scope of low vision to include all visual impairments except significant blindness — including impairments from aging, “color blindness”, and impairments that are often categorized as legally blind yet people have sufficient vision to see user interfaces in some situations. This document does not include all issues that are also relevant for people who are totally blind. It does include several issues that overlap with the needs of some people with cognitive disabilities.
Y se describen cinco categorías de baja visión que influyen en el uso de la Web:
  • Visual acuity (clarity)
  • Light sensitivity
  • Contrast sensitivity
  • Field of vision
  • Color vision

lunes, 21 de marzo de 2016

Modo lectura fácil en Mozilla Firefox (Reader View)

Álvaro, un lector de este blog, me ha pasado la siguiente información: Disfruta leyendo páginas web con la Vista de lectura. La descripción dice:
El Modo Lector es una función de Firefox que quita distracciones como botones, publicidades e imágenes de fondo, y cambia el tamaño del texto de la página, su contraste y su diseño para una mejor legibilidad. La configuración del Modo Lector es fácilmente personalizable para cubrir tus necesidades a la hora de leer.
Lo he probado con mi sitio web sobre accesibilidad web, y no funciona.

Lo he probado con mi blog sobre accesibilidad web, y tampoco funciona.

Lo he probado con mi página personal (Sergio Luján Mora), ¡y sí que funciona!

Esta es la vista normal:


Y esta es la vista de lectura fácil:


¿Por qué unas veces funciona y otras veces no?

En la página principal de muchos sitios web no funciona, pero sí funciona en páginas de segundo nivel, como por ejemplo:
He tenido que buscar un poco, pero he encontrado algunas explicaciones:

Según he leído, se emplea un algoritmo para darle un puntaje a cada elemento de la página web, y si el puntaje alcanza cierto valor, se aplica el modo de lectura fácil.

Habrá que seguir investigando...

viernes, 18 de marzo de 2016

Curso Accesibilidad web avanzada: Análisis y corrección de problemas de accesibilidad en páginas y aplicaciones web

La Universidad Alcalá organiza el curso Accesibilidad web avanzada: Análisis y corrección de problemas de accesibilidad en páginas y aplicaciones web.

El curso tiene una duración de 75 horas y es gratuito. Su temario es:
  • Tema 1. Estándares y legislación sobre accesibilidad web.
  • Tema 2. Pautas de accesibilidad para el contenido web (WCAG 2.0)
  • Tema 3. Evaluación de la accesibilidad de sitios web (WCAG-EM 1.0)
  • Tema 4. Accesibilidad web avanzada (WAI-ARIA 1.0 y ATAG 2.0).


miércoles, 16 de marzo de 2016

Ejemplo de control mental del ordenador: componer música

Un lector de este blog me ha pasado la noticia Violinista minusválido hace música por primera vez en 27 años usando sus ondas cerebrales.

En este blog he hablado varias veces sobre el control del ordenador con la mente (pensamiento). Es algo que ya es posible, pero no de la forma que podríamos esperar. Por ahora, un ordenador no puede leer nuestro pensamiento, pero sí que puede detectar ciertos patrones de actividad eléctrica cerebral que se pueden asociar a acciones programadas.



martes, 15 de marzo de 2016

Wikipedia está desarrollando una plataforma de síntesis de voz

En Wikipedia is developing a speech engine for visually impaired users se explica que se está desarrollando una plataforma de síntesis de voz para 300 idiomas mediante crowdsourcing:
Researchers will begin developing the engine for Swedish, English, and Arabic, which they aim to complete by September 2017, before expanding it to the other 280 languages in which Wikipedia is available.
Según se dice en el artículo, un 25% de los usuarios de Wikipedia tendrán interés en usar este sistema:
According to Swedish telecommunications regulator PTS, which is financing the project, an estimated 25 percent of Wikipedia users — 125 million users per month — need or prefer speech to text.

lunes, 14 de marzo de 2016

Herramienta para analizar el riesgo de epilepsia por fotosensibilidad

Hace un tiempo comenté una pauta de las Pautas de accesibilidad para el Contenido Web 2.0 (WCAG 2.0) que es un poco "extraña":

Pauta 2.3 Convulsiones: No diseñar contenido de un modo que se sepa podría provocar ataques, espasmos o convulsiones.

En mi entrada No diseñar contenido de un modo que se sepa podría provocar ataques, espasmos o convulsiones comenté el famoso caso de la serie de dibujos animados Pokemon.

Álvaro, un lector de este blog, me ha avisado de la existencia de Photosensitive Epilepsy Analysis Tool (PEAT), una herramienta gratuita que evalúa el riesgo de producir ataques de epilepsia por fotosensibilidad en el contenido web.

viernes, 11 de marzo de 2016

¿Microsoft Edge el navegador más accesible?

En Is Microsoft changing the game for accessible browsers? cuentan que Microsoft está desarrollando una nueva API para su navegador Edge.

La información se basa en el artículo publicado en un blog de Microsoft, Making Microsoft products more accessible: Our path forward:
We’re also working hard on our new browser, Microsoft Edge. By the end of 2016, the browser will have improved browsing and reading experiences not just for those using our built-in assistive technologies, such as Narrator and Magnifier, but also for people who use other commercial assistive technology.