¿Tiene que ser la accesibilidad web perfecta? Este es un tema muy controvertido que lo he visto planteado en muchas ocasiones.
Desde un punto de vista legal o desde el punto de vista de las pautas del WAI del W3C, la accesibilidad web sí que tiene que ser perfecta o "casi perfecta": los niveles de conformidad de WCAG 1.0 o WCAG 2.0 exigen que se cumplan todos los puntos de verificación de un nivel de prioridad (1, 2 y 3) para lograr un nivel de conformidad (A, AA y AAA). Si no se cumple un punto de verificación de un nivel de prioridad, ya es imposible lograr el nivel de conformidad correspondiente... aunque el impacto de ese punto de verificación en la accesibilidad web de la página sea mínimo o incluso nulo.
Muchas voces critican esta situación, diciendo que es demasiado rigurosa y que muchas veces produce que los desarrolladores no intenten mejorar la accesibilidad web porque como no se va a reconocer (no se va a alcanzar el siguiente nivel de conformidad), no vale la pena.
En la última edición de CSUN (The 27th Annual International Technology & Persons with Disabilities Conference CSUN 2012) hubo una sesión titulada Does Accessibility Have to be Perfect? dedicada a este tema.
Se han publicado las notas de esa sesión, en la que se oyeron muchas opiniones... pero de la que no se puede sacar ninguna conclusión definitiva.
Todo tipo de información sobre accesibilidad en la Web: errores de accesibilidad, ejemplos de páginas inaccesibles, noticias, software, hardware, productos de apoyo, consejos, pautas y guías de accesibilidad, WAI, WCAG, Norma EN 301 549, legislación, etc.
Buscador
domingo, 8 de abril de 2012
sábado, 7 de abril de 2012
Curso Experto Universitario en Accesibilidad y Usabilidad
La Facultad Regional Buenos Aires de la Universidad Tecnológica Nacional (UTN) en Argentina organiza el curso Experto Universitario en Accesibilidad y Usabilidad.
El curso tiene una duración de 150 horas mediante modalidad presencial, comienza en breve, el 10 de abril, y posee los siguientes contenidos:
El curso tiene una duración de 150 horas mediante modalidad presencial, comienza en breve, el 10 de abril, y posee los siguientes contenidos:
- Diseño universal y centrado en el usuario.
- Discapacidad. Legislación. Ayudas técnicas.
- Pautas de accesibilidad al contenido 2.0. Principios: Perceptible. Operable. Comprensible. Robusto
- Aplicación en tecnologías HTML, CSS, JavaScript y ARIA.
- Elementos semánticos. Contenido textual. Imágenes. Multimedia. Navegación. Tablas. Formularios. Scripts. Estilos.
- Aseguramiento de accesibilidad: Herramientas de desarrollo, metodologías y herramientas de evaluación.
- Estrategias para establecer la accesibilidad y la usabilidad en una organización.
- Investigación de Usuarios: Entrevistas contextuales. Mapeo Conceptual. Personajes. Escenarios
- Arquitectura de información. Ordenamiento de tarjetas.
- Diseño de Interacción: Principios. Pautas. Patrones. Prototipado
- Evaluación de usabilidad: Pruebas con usuarios: Diseño de experimento, ejecución, análisis e informes. Evaluación heurística. Tests remotos. Eye-tracking.
- Exploración de usabilidad y accesibilidad en dispositivos móviles, videojuegos y tv digital interactiva.
miércoles, 4 de abril de 2012
La Ley de Transparencia, Acceso a la Información Pública y Buen Gobierno empieza mal, muy mal
Anoche recibí este interesante correo electrónico:
Pero además, ¿dónde están las aportaciones que han podido haber hecho otros ciudadanos como yo? ¿Por qué no se permite un debate abierto? ¿Por qué no se puede verificar si las sugerencias que han hecho los ciudadanos se han tenido en cuenta en la modificación de la ley? Tal como está montado este sistema, la transparencia y el acceso a la información es nula.
Y por último, si nos ponemos a analizar la ley, parece que no es tan bonita como parece: La futura Ley de Transparencia propone el silencio administrativo para dilatar plazos.
Buenas Noches.Y le he contestado:
He estado visitando su blog Accesibilidad en la Web, por cuyo contenido le expreso mi reconocimiento.
Soy una persona con ceguera total y, de entre los muchos ejemplos con que me he tropezado en cuanto a problemas de accesibilidad en la web, en estos días visité la página de consulta pública relacionada con el Proyecto de Ley de Transparencia y Buen Gobierno, www.leydetransparencia.gob.es que cuenta en su sección de envío de sugerencias al proyecto de ley con un CAPTCHA exclusivamente visual, lo cual impide mi acceso como Vd. bien conoce.
La web de consulta pública de este proyecto de ley carece de dirección electrónica para cuestiones técnicas. He difundido esta anomalía por twitter y voy a intentar ponerme en contacto con el Ministerio de la Presidencia para darles a conocer el problema, con el fin de que pueda solucionarse durante la vigencia del período de consulta.
Le ruego que me oriente sobre alguna vía de denuncia y, sobre todo, de solución para el presente problema.
Agradeciendo su interés y felicitándole por su trabajo, le saluda.
José Antonio...
Hola José Antonio.¿Qué es la Ley de Transparencia, Acceso a la Información Pública y Buen Gobierno? Suena bien, según nos cuentan en su página web ¿Qué es?:
Había leído sobre esta iniciativa en los periódicos, pero no había entrado al sitio web. Tremendo, tienes razón sobre lo del captcha. Hoy voy a escribir una entrada en mi blog sobre ello y lo voy a publicar en un par de listas de distribución.
En enero de este año escribí dos entradas sobre el tema de las denuncias sobre accesibilidad en mi blog:
- ¿Denunciar la falta de accesibilidad? Inútil en España: http://accesibilidadenlaweb.blogspot.com.es/2012/01/denunciar-la-falta-de-accesibilidad.html
En la última entrada podrás leer que en España existen varios organismos (yo no tengo claro el límite entre uno y otro). Te sugiero que pruebes con la Oficina Permanente Especializada, cuya dirección es http://www.oficinape.mspsi.es/
- A quién denunciar la falta de accesibilidad: http://accesibilidadenlaweb.blogspot.com.es/2012/01/quien-denunciar-la-falta-de.html
Muchas gracias por tu correo y para cualquier sugerencia, ya sabes donde encontrarme.
Un saludo.
El amplio programa de reformas que ha puesto en marcha el Gobierno de la Nación para impulsar la creación de empleo, la recuperación económica y el bienestar social, requiere un marco institucional sólido y solvente en el que los ciudadanos puedan confiar.Un poco más y me pongo a llorar de la alegría. Pero, pero, pero, no nos emocionemos demasiado. Destaquemos algunas frases del texto anterior:
Restaurar la confianza de la sociedad española exige ampliar su capacidad para conocer cualquier aspecto relativo a la gestión de los asuntos y recursos públicos, y para comprobar que esta gestión se ajusta completamente a los principios democráticos, jurídicos y éticos que deben inspirar en todo caso la acción de Gobierno.
Por esta razón, y porque queremos hacer de la transparencia y la responsabilidad ejes rectores de nuestro Gobierno, presentamos esta Ley de Transparencia, Acceso a la Información Pública y Buen Gobierno.
Esta norma incorpora una innovación radical en nuestro ordenamiento jurídico y una importante contribución a la calidad de nuestra democracia, ya que supone un ambicioso refuerzo de los derechos de los ciudadanos y las obligaciones de los gestores públicos.
Por un lado, ampliamos y garantizamos el derecho de acceso a la información pública, sometiendo toda la información relativa a la actividad administrativa al escrutinio del ciudadano y haciendo de la transparencia una exigencia activa de publicidad y permeabilidad de la gestión pública. Por otro, imponemos una mayor responsabilidad a los gestores públicos, articulando, con rango legal, una serie de exigencias éticas generales y también de obligaciones de actuación concretas para todos los altos cargos de la Administración General del Estado y de las entidades del sector público estatal.
En coherencia con el propio sentido de apertura, transparencia y lealtad democrática que anima esta Ley, abrimos este trámite de consulta pública.
Queremos que los beneficiarios de esta Ley se sientan involucrados en su gestación y les ofrecemos, de esta forma, la posibilidad de que realicen las apreciaciones, sugerencias y críticas que consideren oportunas para mejorar el texto del Anteproyecto. Damos, en todo caso, la bienvenida a la aportación de los ciudadanos y animamos a todos a participar en este trámite, con la voluntad de que la Ley de Transparencia, Acceso a la Información Pública y Buen Gobierno refleje fielmente el espíritu con el que nace, que no es otro que fortalecer la confianza de los españoles.
- "...ya que supone un ambicioso refuerzo de los derechos de los ciudadanos y las obligaciones de los gestores públicos".
- "...ampliamos y garantizamos el derecho de acceso a la información pública, sometiendo toda la información relativa a la actividad administrativa al escrutinio del ciudadano..."
- "...abrimos este trámite de consulta pública".
- "Queremos que los beneficiarios de esta Ley se sientan involucrados en su gestación y les ofrecemos, de esta forma, la posibilidad de que realicen las apreciaciones, sugerencias y críticas que consideren oportunas..."
- "Damos, en todo caso, la bienvenida a la aportación de los ciudadanos y animamos a todos a participar en este trámite..."
¿Es verdad lo que dicen? Pues no, rotundamente no. Afirmaciones falsas y leyes incumplidas, todo endulzado con bonitas palabras para encandilar a los ciudadanos.
En primer lugar, como me apuntaba José Antonio en su correo, el formulario que permite la consulta pública no es accesible porque contiene el siguiente captcha sin alternativa accesible:
Una vez más, la administración pública se salta sus propias leyes (que ya son unas cuantas) en materia de accesibilidad web.
Pero además, ¿dónde están las aportaciones que han podido haber hecho otros ciudadanos como yo? ¿Por qué no se permite un debate abierto? ¿Por qué no se puede verificar si las sugerencias que han hecho los ciudadanos se han tenido en cuenta en la modificación de la ley? Tal como está montado este sistema, la transparencia y el acceso a la información es nula.
Y por último, si nos ponemos a analizar la ley, parece que no es tan bonita como parece: La futura Ley de Transparencia propone el silencio administrativo para dilatar plazos.
martes, 3 de abril de 2012
Encuesta de eAccess+
eAccess+, una red de organizaciones que promocionan y apoyan la accesibilidad de las tecnologías de la información y la comunicación y que está financiada por la Comisión Europea, ha publicado una encuesta online destinada a las personas que trabajan en accesibilidad web y en especial para aquellas que promueven su uso.
Los resultados de esta encuesta serán transmitidos a la Comisión Europea y se harán también públicos. La encuesta es anónima, aunque se puede introducir el correo electrónico para recibir más información, y no se tarda más de 15 minutos en contestarla.
Sólo está disponible en inglés a través de la siguiente dirección: http://goo.gl/hHKUv
Los resultados de esta encuesta serán transmitidos a la Comisión Europea y se harán también públicos. La encuesta es anónima, aunque se puede introducir el correo electrónico para recibir más información, y no se tarda más de 15 minutos en contestarla.
Sólo está disponible en inglés a través de la siguiente dirección: http://goo.gl/hHKUv
lunes, 2 de abril de 2012
Sistema háptico para que las personas ciegas puedan sentir los gráficos
Las imágenes siempre han sido un foco de problemas de accesibilidad en las páginas web. Recordemos que para hacer las imágenes accesibles existen el atributo alt y el atributo longdesc. Pero quizás en un futuro ya no sean necesarios...
La tecnología háptica se refiere al conjunto de interfaces tecnológicos que interaccionan con el ser humano mediante el sentido del tacto. En la actualidad, se están desarrollando muchos dispositivos hápticos que se integran en sistemas de realidad virtual.
Según el artículo Student's idea gives graphic details to visually impaired scientists, en la University of Reading (situada al oeste de Londres en Inglaterra) una estudiante ha desarrollado un sistema que permite a las personas ciegas "sentir y oír un gráfico virtual".
La propuesta se basa en el empleo de un sistema háptico de baso coste, una especie de brazo robot controlado por el ordenador que responde al movimiento y al tacto, que permite sentir la forma de un gráfico.
La tecnología háptica se refiere al conjunto de interfaces tecnológicos que interaccionan con el ser humano mediante el sentido del tacto. En la actualidad, se están desarrollando muchos dispositivos hápticos que se integran en sistemas de realidad virtual.
El sistema está inicialmente pensado para ser usado por los científicos ciegos o con graves problemas de visión que necesiten visualizar grandes volúmenes de datos, pero sin duda alguna también puede ser usado por cualquier tipo de usuario.
Sin duda es un gran avance, ya que en el caso de los gráficos de datos complejos, aunque se proporcione mediante el atributo longdesc una descripción extensa del gráfico o incluso los datos que se han usado para confeccionarlo, no se puede sustituir el valor y el poder que tiene un gráfico para condensar los datos y a la vez permitir descubrir información nueva que puede quedar oculta entre los números.
Etiquetas:
Ayudas técnicas,
Háptico,
Hardware,
Software
jueves, 29 de marzo de 2012
El coche que conduce sólo de Google y los vídeos accesibles
Desde hace un par de años, Google está trabajando en el desarrollo de un coche que conduzca por el solo. ¿Ciencia ficción? No, ya es una realidad. En el artículo How Google's Self-Driving Car Works (octubre 2011) nos explican cómo es posible este milagro de la inteligencia artificial:
Vídeo con audio descripción:
En el vídeo con descripción podemos comprobar cómo se explica lo que podemos ver en la imagen, como que una persona sale de la puerta principal de su casa con un jersey marrón y unos pantalones color caqui para dirigirse a un coche con los logos de Google.
- El sistema emplea un láser montado en el techo del coche para crear un mapa 3D del entorno cercano.
- Estas medidas se combinan con mapas de alta resolución para crear modelos del mundo que se emplean para tomar las decisiones de conducción.
- Además, también se emplean otros tipos de sensores: 4 rádares, montados por delante y por detrás; una cámara para detectar los semáforos; un GPS y una unidad de medición inercial para medir la posición; y un codificador en las ruedas para controlar su movimiento.
Pero todo el sistema tiene una pequeña trampa: para que el coche realice una ruta de forma autónoma, Google necesita enviar antes uno o varios coches conducidos de forma manual para que adquieran información detallada sobre la ruta.
El coche de Google ha sido capaz de conducir más de 300.000 km sin que se tenga constancia de ningún accidente provocado por él. Sí que tuvo un accidente, pero parece que fue causado por un humano: Google self-driving car crash caused by human.
Este tema de los coches autónomos se lo toman muy en serio en Estados Unidos. En febrero de este año apareció la noticia de que el estado de Nevada era el primero que aprobaba una legislación sobre los coches que conducen por ellos mismos: Nevada Approves Self-Driving Cars after Google Lobbying Push.
En realidad, el origen de todo esto está en el ejército de los Estados Unidos y en su agencia para el desarrollado de proyectos avanzados DARPA (Defense Advanced Research Projects Agency) . Desde el año 2004, DARPA organiza el Gran Challenge, un concurso/carrera que tiene como objetivo lograr el desarrollo de vehículos autónomos para el ejército.
Volviendo al coche que conduce solo de Google, acaban de publicar un vídeo en el que una "persona ciega conduce el coche". En realidad, han publicado dos vídeos, con idéntico contenido, pero uno de ellos con audio descripción destinado a las personas ciegas que no pueden ver el vídeo.
Vídeo sin audio descripción:
Vídeo con audio descripción:
En el vídeo con descripción podemos comprobar cómo se explica lo que podemos ver en la imagen, como que una persona sale de la puerta principal de su casa con un jersey marrón y unos pantalones color caqui para dirigirse a un coche con los logos de Google.
Lástima que no hayan incluido también subtítulos para las personas sordas, aunque quizás lo hayan hecho porque YouTube ofrece un servicio de audio transcripción automática desde hace tiempo que evita el tener que añadir los subtítulos de forma manual, aunque por ahora sólo está disponible en inglés y su exactitud no es muy buena.
Etiquetas:
Audiodescripción,
inteligencia artificial,
Vídeos
Nueva encuesta del WebAIM sobre el uso de lectores de pantalla
Durante los últimos años, el WebAIM ha realizado varias encuestas online destinadas a analizar los hábitos de uso de los lectores de pantalla:
- Screen Reader User Survey #3 Results (Diciembre 2010)
- Screen Reader User Survey #2 Results (Octubre 2009)
- Survey of Preferences of Screen Reader Users (Diciembre 2008)
Etiquetas:
Encuesta,
Lector de pantalla,
WebAIM
miércoles, 28 de marzo de 2012
A11ybuzz
A11ybuzz es un sitio web muy interesante que "vigila" la Web para buscar noticias, artículos, recursos y tweets relacionados con la accesibilidad web (recordemos que A11y es una forma abreviada de referirse a accessibility).
En la página principal podemos encontrar:
En la página principal podemos encontrar:
- Los temas más populares
- Las entradas más populares
- Las entradas más recientes
- El feed de Twitter
Por ejemplo, en los temas más populares podemos encontrar HTML5 con algunas entradas interesantes, como por ejemplo:
- HTML5: Techniques for providing useful text alternatives, un documento del W3C con numerosos ejemplos de cómo definir el texto alternativo para distintos tipos de imágenes.
- Accessibility of HTML5 and Rich Internet Applications, presentación realizada en la última conferencia CSUN 2012 en la que se muestran ejemplos de accesibilidad con ARIA y jQuery.
lunes, 26 de marzo de 2012
Nuevo sistema de subtitulado
El sistema tradicional de subtitulado que se emplea hoy en día apareció en la década de los setenta. Desde entonces, el sistema prácticamente no ha cambiado: en la parte inferior de la imagen aparecen una o dos líneas de texto que permiten a las personas sordas, o a todas las personas cuando el sonido está apagado o cuando se subtitula en otro idioma, seguir las conversaciones del vídeo.
Este sistema tiene un problema muy importante: a veces no se sabe quién está hablando (por ejemplo, porque hay muchas personas juntas hablando a la vez). Para reducir este problema, a cada persona se le puede asignar un color distinto que se emplea en el texto de los subtítulos, pero este sistema no es la solución perfecta (además, recordemos que basarse sólo en el color para transmitir información no es una buena práctica).
Según el artículo Researches revolutionize closed captioning, investigadores de la Hefei University of Technology en China han desarrollado un novedoso sistema de subtitulado de vídeos. Esta sistema consiste en mostrar el texto en "burbujas" (bocadillos) transparentes cerca de la persona que está hablando. Además, también sincronizan la visualización del texto con la velocidad a la que habla la persona, de una forma similar a como se hace en un karaoke.
En la siguiente imagen se puede ver una comparativa de los sistemas tradicionales (de la letra "a" a la "d"), llamados subtitulados estáticos, frente al nuevo sistema (letra "e") llamado subtitulado dinámico.
De 60 personas que probaron el nuevo sistema, 53 prefirieron el nuevo sistema frente al tradicional.
El sistema es totalmente automático y no necesita ninguna intervención manual, ya que a partir de la transcripción de los diálogos (con su correspondiente marca de tiempo), el sistema detecta quién está hablando mediante la detección del movimiento de los labios. Además, el sistema también detecta automáticamente cuál es el mejor sitio para situar las "burbujas de texto". Cuando la persona que habla está fuera de la imagen, el texto se muestra en la parte inferior como con los subtítulos tradicionales.
Por último, según la noticia, en el mundo existen más de 66 millones de personas con problemas de audición.
[Actualización 26/03/2012]
Se puede encontrar información detallada sobre el sistema en los siguientes artículos (de pago):
Este sistema tiene un problema muy importante: a veces no se sabe quién está hablando (por ejemplo, porque hay muchas personas juntas hablando a la vez). Para reducir este problema, a cada persona se le puede asignar un color distinto que se emplea en el texto de los subtítulos, pero este sistema no es la solución perfecta (además, recordemos que basarse sólo en el color para transmitir información no es una buena práctica).
Según el artículo Researches revolutionize closed captioning, investigadores de la Hefei University of Technology en China han desarrollado un novedoso sistema de subtitulado de vídeos. Esta sistema consiste en mostrar el texto en "burbujas" (bocadillos) transparentes cerca de la persona que está hablando. Además, también sincronizan la visualización del texto con la velocidad a la que habla la persona, de una forma similar a como se hace en un karaoke.
En la siguiente imagen se puede ver una comparativa de los sistemas tradicionales (de la letra "a" a la "d"), llamados subtitulados estáticos, frente al nuevo sistema (letra "e") llamado subtitulado dinámico.
De 60 personas que probaron el nuevo sistema, 53 prefirieron el nuevo sistema frente al tradicional.
El sistema es totalmente automático y no necesita ninguna intervención manual, ya que a partir de la transcripción de los diálogos (con su correspondiente marca de tiempo), el sistema detecta quién está hablando mediante la detección del movimiento de los labios. Además, el sistema también detecta automáticamente cuál es el mejor sitio para situar las "burbujas de texto". Cuando la persona que habla está fuera de la imagen, el texto se muestra en la parte inferior como con los subtítulos tradicionales.
Por último, según la noticia, en el mundo existen más de 66 millones de personas con problemas de audición.
[Actualización 26/03/2012]
Se puede encontrar información detallada sobre el sistema en los siguientes artículos (de pago):
- Dynamic Captioning: Video Accessibility Enhancement for Hearing Impairment (Proceedings of the international conference on Multimedia 2010)
- Video Accessibility Enhancement for Hearing Impaired Users (ACM Transactions on Multimedia Computing, Communications, and Applications 2011)
martes, 20 de marzo de 2012
Indra Tecnologías Accesibles
Indra, la multinacional española de tecnologías de la información y la comunicación, mantiene el sitio web Indra Tecnologías Accesibles en el que difunde su participación en diferentes proyectos que tienen como objetivo desarrollar tecnologías accesibles para todos los usuarios.
Entre los proyectos que desarrolla, destacan:
También destacan los proyectos REM (Relative Eye Mouse Device) y DIUWA 2.0 (Diseño de Interfaces de Usuario Web 2.0 accesibles), pero la información proporcionada no es muy útil.
Desgraciadamente, este sitio web tiene algunos problemas de accesibilidad. Ya se sabe, en casa del herrero, cuchara de palo. Por ejemplo, en la página Innovación como herramienta de integración podemos encontrar la siguiente imagen:
Desgraciadamente, esta imagen en la que aparecen diferentes mensajes (Tecnología, Educación Accesible, Accesibilidad) y diferentes entidades con las que parece que colabora Indra (Universidad de Lleida, Universidad Politécnica de Madrid, Universidad de Castilla-La Mancha) sólo tiene como texto alternativo "La innovación nos une".
Entre los proyectos que desarrolla, destacan:
- HeadMouse, un ratón que se mueve con el movimiento de la cabeza y que sustituye al ratón convencional. Está pensado para personas con movilidad reducida o que no puedan utilizar un ratón convencional.
- VirtualKeyboard, un teclado virtual en pantalla pensado para personas con movilidad reducida o con problemas en la utilización de teclados convencionales.
- Ganas, un intérprete virtual que convierte un texto en lengua de signos español para personas con discapacidad auditiva.
También destacan los proyectos REM (Relative Eye Mouse Device) y DIUWA 2.0 (Diseño de Interfaces de Usuario Web 2.0 accesibles), pero la información proporcionada no es muy útil.
Desgraciadamente, este sitio web tiene algunos problemas de accesibilidad. Ya se sabe, en casa del herrero, cuchara de palo. Por ejemplo, en la página Innovación como herramienta de integración podemos encontrar la siguiente imagen:
Desgraciadamente, esta imagen en la que aparecen diferentes mensajes (Tecnología, Educación Accesible, Accesibilidad) y diferentes entidades con las que parece que colabora Indra (Universidad de Lleida, Universidad Politécnica de Madrid, Universidad de Castilla-La Mancha) sólo tiene como texto alternativo "La innovación nos une".
jueves, 15 de marzo de 2012
¿Qué es mejor, Flash o HTML5?
¿Qué es mejor, Flash o HTML5? La pregunta no debería tener respuesta, porque es como comparar naranjas y limones, pero hay mucha gente que se hace este tipo de preguntas.
Hace unos días recibí la siguiente consulta:
Últimamente he estado introduciéndome en el mundo de la accesibilidad, y, aunque ahora no me dedico a ello, es un tema que siempre tengo en cuenta.
Ahora mismo, trabajo creando cursos en Moodle, y me surge la duda de qué tecnología o herramientas usar para ello. Los últimos años se ha plagado los cursos de eLearning de contenidos hechos en Flash y subidos como paquetes SCORM. Pero dado que Flash está en extinción, y viendo todos los inconvenientes que tiene, entre ellos, los referentes a accesibilidad, me estaba preguntando si HTML5 sería la mejor elección para los contenidos de los cursos de eLearning.
Sé que tu especialidad es la accesibilidad, pero te agradecería enormemente si me dieras tu opinión acerca de esto. He leído los artículos de tu blog acerca de HTML5 y de Flash. No tengo dudas de abandonar completamente el Flash, la duda es si además de HTML5 hay alguna otra tecnología para crear contenidos accesibles, multiplataforma, etc. En definitiva, si hay más tecnologías que puedan ser tan accesibles (hablando ya en un sentido más general, tanto a nivel humano como del dispositivo que uses) como HTML5. También me preocupa desarrollar ya contenidos en HTML5 y que haya problemas para verlos dependiendo del navegador.
Y mi respuesta fue:
Flash no tenía características de accesibilidad desde el principio. Posteriormente se añadieron, pero por necesidad, porque lo pidió la gente. Incluso así, aunque se utilicen las características de accesibilidad de Flash, los objetos hechos en Flash siempre han tenido un problema: en algunos navegadores no se puede acceder a ellos directamente con el teclado (nosotros no nos damos cuenta de ello porque lo usamos con ratón). Una persona ciega o una persona con problemas de movilidad que utilice sólo el teclado, tendrá graves problemas de accesibilidad con los objetos hechos en Flash.
HTML siempre ha tenido en cuenta la accesibilidad. Puede ser mejor o peor, aún tiene muchas cosas por solucionar, pero se tiene el compromiso de ello. Por tanto, entre Flash y HTML5, sin duda HTML5 es mejor. Aquí puedes encontrar algo de información interesante sobre HTML5 y la accesibilidad: http://html5accessibility.com/
Un problema importante para que HTML5 triunfe es la falta de buenas herramientas de autor. Flash siempre ha tenido buenos (o malos) entornos de desarrollo, pero por ahora HTML5 carece de ello. Sin embargo, todo es cuestión de tiempo. Incluso Adobe está desarrollando su propia herramienta, Edge (http://labs.adobe.com/technologies/edge/) o Wallaby
(http://labs.adobe.com/technologies/wallaby/), su propio conversor de Flash a HTML5.
Yo no conozco otra tecnología que permita crear contenidos accesibles, multiplataforma, etc. HTML5 no es perfecto, pero es la única tecnología estándar que tenemos por el momento, y eso es un gran avance.
Sobre lo de crear ya contenidos en HTML5, el W3C anima a ello, no hay que esperar a que HTML5 sea una recomendación (lo cual se espera que ocurra en el año 2014). Pero hay que saber usar HTML5 con cuidado y ser consciente de lo que funciona en la mayoría de los últimos navegadores. En el caso de los contenidos educativos no veo ningún problema, porque es muy normal en los cursos online exigir unos requisitos mínimos de software a los alumnos, así que se puede exigir a los alumnos que utilicen unos navegadores concretos.
Hoy en día, las últimas versiones de los navegadores de verdad (Firefox, Opera, Chrome y Safari) implementan ya muchas de las nuevas características de HTML5. Para saber el nivel de compatibilidad con HTML5 te recomiendo la página The HTML5 test, en el apartado Other browsers hay una comparativa. A día de hoy, el navegador más compatible es Google Chrome 17:
- Google Chrome 17.0: 374 puntos
- Mozilla Firefox 10.0: 332 puntos
- Opera 11.60: 329 puntos
- Apple Safari 5.1: 302 puntos
- Microsoft Internet Explorer 9: 141 puntos
miércoles, 14 de marzo de 2012
Traductor portátil de la lengua de signos
Según la noticia Technology that translates sign language into text aims to empower sign language user, en la Universidad de Aberdeen (Escocia) han desarrollado un traductor portátil de la lengua de signos llamado Portable Sign Language Translator (PSLT).
La noticia dice que este software es el primero de su tipo a nivel mundial: con este software y con un dispositivo que tenga una cámara de vídeo (por ejemplo, un teléfono móvil moderno, una tableta o una webcam conectada a un ordenador), un usuario que se comunique mediante la lengua de signos se puede comunicar con cualquier persona, ya que el sistema traduce sus signos a texto.
El sistema está en desarrollo, pero promete revolucionar totalmente la comunicación entre personas sordas y no sordas. Según la noticia, el número de personas en el Reino Unido cuya primera lengua es la Lengua Británica de Signos se estima entre 50.000 y 70.000 personas.
Esta noticia me recuerda el proyecto GANAS (Generador de Animaciones para el Lenguaje de Signos) desarrollado en la Universidad de Castilla-La Mancha y que tiene como objetivo justo lo contrario: desarrollar un avatar tridimensional que traduzca un texto a la lengua de signos.
La noticia dice que este software es el primero de su tipo a nivel mundial: con este software y con un dispositivo que tenga una cámara de vídeo (por ejemplo, un teléfono móvil moderno, una tableta o una webcam conectada a un ordenador), un usuario que se comunique mediante la lengua de signos se puede comunicar con cualquier persona, ya que el sistema traduce sus signos a texto.
El sistema está en desarrollo, pero promete revolucionar totalmente la comunicación entre personas sordas y no sordas. Según la noticia, el número de personas en el Reino Unido cuya primera lengua es la Lengua Británica de Signos se estima entre 50.000 y 70.000 personas.
Esta noticia me recuerda el proyecto GANAS (Generador de Animaciones para el Lenguaje de Signos) desarrollado en la Universidad de Castilla-La Mancha y que tiene como objetivo justo lo contrario: desarrollar un avatar tridimensional que traduzca un texto a la lengua de signos.
Etiquetas:
Ayudas técnicas,
Hardware,
Noticias
martes, 13 de marzo de 2012
El Día Mundial del Glaucoma
Ayer lunes 12 de marzo se celebró el Día Mundial del Glaucoma. El glaucoma es una enfermedad crónica que puede afectar muy gravemente a la visión. Puede llegar a causar ceguera y es considerada la segunda causa de ceguera en el mundo occidental.
En el artículo Un día para la ceguera que no duele, nos dicen que unos 500.000 españoles padecen glaucoma y un 5% de los casos puede derivar en ceguera:
En Internet podemos encontrar varios ejemplos y simuladores de glaucoma y otros problemas de visión:
En el artículo Un día para la ceguera que no duele, nos dicen que unos 500.000 españoles padecen glaucoma y un 5% de los casos puede derivar en ceguera:
Esta patología, que afecta a unos 60 millones de personas en el mundo, se caracteriza por una degeneración del nervio óptico causada por un aumento de la presión dentro del ojo. Un millón de españoles la padece, aunque la mitad de ellos lo desconoce. Con un diagnóstico a tiempo, puede iniciarse un tratamiento dirigido a frenar su progresión. Sin este tratamiento temprano, el 5% de los casos de glaucoma puede derivar en ceguera.
En Internet podemos encontrar varios ejemplos y simuladores de glaucoma y otros problemas de visión:
En mi sitio web sobre accesibilidad web tengo la página Simuladores de personas con discapacidad visual en la que comento varias herramientas que permiten simular diferentes problemas de visión. De todas ellas recomiendo Web Accessibility Toolbar, que posee un apartado con diferentes simulaciones: retinopatía diabética, cataratas, degeneración macular, glaucoma, ceguera al color y contraste reducido.
lunes, 12 de marzo de 2012
El W3C dice que HTML5 transformará la Web
La semana pasada, del 6 al 10 del marzo, se celebró el CeBIT en Hannover (Alemania). El nombre CeBIT (Centrum der Büro-und Informationstechnik) significa Centro para la Tecnología de la Información y de la Oficina. El CeBIT está considerada la feria de exposición de ordenadores, tecnologías de la información, telecomunicaciones, software y servicios más importante del mundo.
En la noticia W3C CEO calls HTML5 as transformative as easly Web nos cuentan cómo fue la participación de Jeff Jaffe, directivo del W3C. Según este directivo, HTML5 será una tecnología disruptiva con tanto poder y efecto como los que ocurrió durante los primeros años de la Web:
Jeff Jaffe recordó que HTML5 no será un estándar hasta el año 2014. También reconoció que algunas críticas sobre el rendimiento de HTML5 y sobre su nivel de madurez para sustituir otras tecnologías (por ejemplo, Flash) tienen un fundamento real. Sin embargo, explicó que es algo normal en cualquier tecnología cuando se introduce por primera vez. Preguntado por el dilema aplicación nativa o aplicación web, Jeff Jaffe contestó que no lo veía como una competición, pero se decantó por las aplicaciones web debido a la gran diversidad de dispositivos que existen y a la necesidad creciente, por cuestión de costes, de disponer de una plataforma estándar.
En la noticia W3C CEO calls HTML5 as transformative as easly Web nos cuentan cómo fue la participación de Jeff Jaffe, directivo del W3C. Según este directivo, HTML5 será una tecnología disruptiva con tanto poder y efecto como los que ocurrió durante los primeros años de la Web:
We’re about to experience a generational change in Web technology, and just as the Web transformed every business, (HTML5) will lead to another transformation.Jeff Jaffe también destacó que HTML5 ofrecerá nuevas posibilidades para mejorar la accesibilidad de los sitios web.
Jeff Jaffe recordó que HTML5 no será un estándar hasta el año 2014. También reconoció que algunas críticas sobre el rendimiento de HTML5 y sobre su nivel de madurez para sustituir otras tecnologías (por ejemplo, Flash) tienen un fundamento real. Sin embargo, explicó que es algo normal en cualquier tecnología cuando se introduce por primera vez. Preguntado por el dilema aplicación nativa o aplicación web, Jeff Jaffe contestó que no lo veía como una competición, pero se decantó por las aplicaciones web debido a la gran diversidad de dispositivos que existen y a la necesidad creciente, por cuestión de costes, de disponer de una plataforma estándar.
sábado, 10 de marzo de 2012
Uso de tabletas táctiles para ayudar a los estudiantes ciegos a aprender matemáticas
En la Wikipedia podemos encontrar la definición de tecnología háptica:
Puede parecer sorprendente, pero los teléfonos con pantalla táctil han supuesto una gran revolución para las personas con problemas de visión. El teléfono iPhone destaca entre los demás por su lector de pantallas, VoiceOver, y por su nuevo asistente, Siri.
En el artículo App turns tablet into math aid for visually impaired students nos cuentan que en la Vanderbilt University (Estados Unidos) han desarrollado una aplicación para tabletas basadas en el sistema operativo Android que permite sentir con los dedos figuras geométricas. El objetivo es ayudar a los estudiantes con problemas de visión para que puedan entender mejor los conceptos matemáticos, como la geometría, que tienen un alto componente visual.
En la noticia se comenta que el coste de los dispositivos que se emplea en el proyecto ha disminuido enormemente, lo cual es una gran ventaja para que se difunda su uso y acabe siendo una realidad para miles de usuarios: cuando comenzó el proyecto hace 18 meses se empleaba un modelo industrial que costaba $2,500, mientras que ahora se emplean tabletas domésticas que cuestan $300.
Y a continuación, un vídeo (en inglés) en el que podemos ver una demostración de su uso:
Más información:
La tecnología háptica se refiere al conjunto de interfaces tecnológicos que interaccionan con el ser humano mediante el sentido del tacto. Se trata de una tecnología emergente desde los 90 que está evolucionando prometedoramente en algunos campos de aplicación.Todo aquel que haya jugado alguna vez con una consola moderna, como una PlayStation 2 o una XBox 360, ya ha probado una interfaz háptica: la vibración del mando. En realidad, el modo vibrador de un teléfono móvil también es una interfaz háptica.
Puede parecer sorprendente, pero los teléfonos con pantalla táctil han supuesto una gran revolución para las personas con problemas de visión. El teléfono iPhone destaca entre los demás por su lector de pantallas, VoiceOver, y por su nuevo asistente, Siri.
En el artículo App turns tablet into math aid for visually impaired students nos cuentan que en la Vanderbilt University (Estados Unidos) han desarrollado una aplicación para tabletas basadas en el sistema operativo Android que permite sentir con los dedos figuras geométricas. El objetivo es ayudar a los estudiantes con problemas de visión para que puedan entender mejor los conceptos matemáticos, como la geometría, que tienen un alto componente visual.
En la noticia se comenta que el coste de los dispositivos que se emplea en el proyecto ha disminuido enormemente, lo cual es una gran ventaja para que se difunda su uso y acabe siendo una realidad para miles de usuarios: cuando comenzó el proyecto hace 18 meses se empleaba un modelo industrial que costaba $2,500, mientras que ahora se emplean tabletas domésticas que cuestan $300.
Y a continuación, un vídeo (en inglés) en el que podemos ver una demostración de su uso:
Más información:
- BrailleTouch para iPhone e iPad (22/02/2012)
- La accesibilidad de los móviles con pantalla táctil (28/11/2011)
- Mejora de la accesibilidad del nuevo iPhone 4S (17/10/2011)
Etiquetas:
Ayudas técnicas,
Háptico,
Hardware,
Software
viernes, 9 de marzo de 2012
Textos claros y fáciles de leer: Visual-Syntactic Text Formatting
La legibilidad
es una característica o propiedad que define la facilidad de lectura y comprensión de un texto. Que un texto sea legible ayuda a que sea más fácil de leer para todos y en especial para las personas con problemas de lectura y/o discapacidades cognitivas. Por tanto, la legibilidad de los textos es un aspecto esencial en la accesibilidad web. Desgraciadamente, muchas veces se olvida.
Recordemos que las Pautas de Accesibilidad al Contenido en la Web 1.0 dedican la pauta 14 "Asegúrese de que los documentos sean claros y simples" a este tema:
Hace unos días comentaba con unos compañeros de departamento lo mal que escriben nuestros alumnos, incluso cuando intentan escribir bien. Y no me estoy refiriendo a cuando nos escriben como si fuese un SMS. En concreto, estuvimos hablando sobre el uso de los signos de puntuación y las frases "kilométricas" que a veces escriben algunos alumnos.
Acabo de encontrar un par de artículos sobre Visual-Syntactic Text Formatting (VSTF), que se puede traducir como "Formateo del texto visual y sintáctico". Es una propuesta muy interesante, aunque quizás con poco futuro por lo innovadora que es, que permite escribir textos más fáciles de leer.
El sistema consiste en emplear la sintaxis de los textos para transformar su presentación visual en un "modelo en cascada" o jerárquico. Más o menos, es lo mismo que hacemos cuando programamos o escribimos código HTML y utilizamos el tabulador (la sangría) para indicar la estructura jerárquica del código. Veamos un ejemplo que aparece en los artículos que he consultado.
La siguiente imagen contiene el texto de la primera frase que aparece en la Declaración de Independencia de los Estados Unidos:
La propuesta VSTF transformaría la presentación visual del texto en esto otro:
Y aquí otro ejemplo, primero el texto original:
Y después el texto transformado según el sistema VSTF:
Cómo he dicho antes, muy parecido a la forma de escribir el código cuando se programa o cuando se escribe un documento HTML. Según los datos presentados por sus autores, la comprensión de los textos aumenta al emplear esta presentación de los textos.
No creo que este sistema sea útil para todo el mundo. Pero sí que sería interesante implantarlo en algunas tecnologías de apoyo destinadas a personas con problemas de lectura y/o discapacidades cognitivas.
Por último, por si alguien los quiere consultar, estos son los dos artículos que he encontrado sobre VSTF:
Recordemos que las Pautas de Accesibilidad al Contenido en la Web 1.0 dedican la pauta 14 "Asegúrese de que los documentos sean claros y simples" a este tema:
- 14.1 Utilice el lenguaje apropiado más claro y simple para el contenido de un sitio. [Prioridad 1]
- 14.2 Complemente el texto con presentaciones gráficas o auditivas cuando ello facilite la comprensión de la página. [Prioridad 3]
- 14.3 Cree un estilo de presentación que sea coherente para todas las páginas. [Prioridad 3]
Hace unos días comentaba con unos compañeros de departamento lo mal que escriben nuestros alumnos, incluso cuando intentan escribir bien. Y no me estoy refiriendo a cuando nos escriben como si fuese un SMS. En concreto, estuvimos hablando sobre el uso de los signos de puntuación y las frases "kilométricas" que a veces escriben algunos alumnos.
Acabo de encontrar un par de artículos sobre Visual-Syntactic Text Formatting (VSTF), que se puede traducir como "Formateo del texto visual y sintáctico". Es una propuesta muy interesante, aunque quizás con poco futuro por lo innovadora que es, que permite escribir textos más fáciles de leer.
El sistema consiste en emplear la sintaxis de los textos para transformar su presentación visual en un "modelo en cascada" o jerárquico. Más o menos, es lo mismo que hacemos cuando programamos o escribimos código HTML y utilizamos el tabulador (la sangría) para indicar la estructura jerárquica del código. Veamos un ejemplo que aparece en los artículos que he consultado.
La siguiente imagen contiene el texto de la primera frase que aparece en la Declaración de Independencia de los Estados Unidos:
La propuesta VSTF transformaría la presentación visual del texto en esto otro:
Y aquí otro ejemplo, primero el texto original:
Y después el texto transformado según el sistema VSTF:
Cómo he dicho antes, muy parecido a la forma de escribir el código cuando se programa o cuando se escribe un documento HTML. Según los datos presentados por sus autores, la comprensión de los textos aumenta al emplear esta presentación de los textos.
No creo que este sistema sea útil para todo el mundo. Pero sí que sería interesante implantarlo en algunas tecnologías de apoyo destinadas a personas con problemas de lectura y/o discapacidades cognitivas.
Por último, por si alguien los quiere consultar, estos son los dos artículos que he encontrado sobre VSTF:
Finalmente, en la categoría Legibilidad de este blog se pueden encontrar más entradas sobre este tema, como por ejemplo:
- Herramientas para evaluar la legibilidad (3/1/2012)
- Cómo escribir textos accesibles para la Web (2/7/2011)
miércoles, 7 de marzo de 2012
Mejoras en el sistema para controlar el ordenador con la lengua
El artículo Tongue Drive System Goes Inside the Mouth to Improve Performance and User Comfort nos cuenta que en el Georgia Institute of Technology han desarrollado un sistema para controlar el ordenador u otros dispositivos, como una silla de ruedas, con el movimiento de la lengua. Este tipo de sistema está destinado para personas que han sufrido un gran daño en la médula espinal y que sufren de tetraplejia.
El nuevo sistema que se ha presentado mejora el que previamente existía que consistía en un casco que detectaba el movimiento de un imán que estaba implantado en la lengua del usuario a modo de piercing. El nuevo sistema emplea una especie de protector dental con una serie de detectores, tal como podemos ver en la siguiente imagen.
Este nuevo sistema es más cómodo que el existente, ya que en el sistema antiguo basado en el casco, éste se podía mover y había que realizar un proceso de calibración cada vez que se usaba. Además, al estar los sensores más cerca del imán, se mejora la relación señal-ruido y, por tanto la precisión.
Este sistema presenta una gran ventaja frente a otros sistemas como los de pulsadores o los de inspiración-espiración, ya que permite una mayor variedad de combinaciones.
A continuación un vídeo donde podemos ver el uso del sistema antiguo. Desgraciadamente, según el vídeo, aún se está lejos de poder comercializar este sistema.
Más información:
- Otro sistema para controlar el ordenador con la lengua (5/12/2010)
- Control del ordenador con la lengua (17/07/2008)
Etiquetas:
Ayudas técnicas,
Hardware,
Noticias
martes, 6 de marzo de 2012
Encuesta: ¿Está cambiando la prioridad en realizar una web accesible, en España, por la crisis?
Alan Chuter, organizador del encuentro Madrid Accesibilidad TICs ha creado una encuesta online para apoyar una de las discusiones que tendrá lugar en el próximo encuentro: ¿Está cambiando la prioridad en realizar una web accesible, en España, por la crisis?
La explicación a la pregunta que plantea es:
La explicación a la pregunta que plantea es:
Por tu propia experiencia, si trabajas en una empresa o en la administración pública o una ONG, ¿ha afectado la crisis los proyectos en que trabajas? ¿Ha mejorado o ha empeorado el nivel de accesibilidad? El resultado de la encuesta nos servirá para el debate la semana que viene.Y las posibles respuestas son:
- Se ha reducido el esfuerzo en cuanto a la accesibilidad
- Ha aumentado
- No noto ningún cambio
Nuevo encuentro Madrid Accesibilidad TICs en marzo
El miércoles 14 de marzo habrá un nuevo encuentro de Madrid Accesibilidad TICs. Por ahora, los temas a tratar están por determinar y los organizadores aceptan que cualquiera pueda realizar una charla u organice una tertulia.
Para los que no pudieron asistir a los dos primeros encuentros, Rosana Naveira ha publicado un resumen de cada uno de ellos:
[Actualización 06/03/2012]
El encuentro tendrá lugar en el lugar de costumbre, la Sala Ciball en la calle Corredera Baja de San Pablo, 41, en Madrid.
lunes, 5 de marzo de 2012
Juegos controlados con la vista para niños con discapacidad
La noticia Eye-controlled computer games for disabled children nos cuenta que el Centre for Computational Intelligence de la De Montfort University, una universidad situada en Leicester (Reino Unido), están empleando sistemas de eye tracking (seguimiento del ojo) para que niños con movilidad limitada puedan jugar con videojuegos. Además, el sistema también les permite moverse por entornos virtuales y, por qué no, por entornos reales.
Según dice la noticia, el sistema que están desarrollando es de bajo coste. En el siguiente vídeo se puede ver una demostración de uso de este sistema. En el vídeo aparece el proceso de calibración (acelerado) que requieren los sistemas de eye tracking.
Más información:
Según dice la noticia, el sistema que están desarrollando es de bajo coste. En el siguiente vídeo se puede ver una demostración de uso de este sistema. En el vídeo aparece el proceso de calibración (acelerado) que requieren los sistemas de eye tracking.
Más información:
Etiquetas:
Ayudas técnicas,
Eye tracking,
Hardware,
Noticias,
Software,
Vídeos
Suscribirse a:
Entradas (Atom)