Buscador

lunes, 11 de abril de 2016

¿El fin del texto alternativo?

En los últimos días he comentado un par de sistemas de reconocimiento automático de imágenes:


Además, hace un par de años hablé del sistema de Google: Dentro de poco me tendré que comer mis propias palabras como si fueran dos pizzas.

¿Será el fin del texto alternativo manual escrito por el desarrollador de una página web?

No creo, a estos sistemas todavía le queda bastante por mejorar. Además, aunque funcionen y logren describir una imagen con todo lujo de detalles, el texto alternativo de una imagen depende tanto de su contenido como del contexto de uso de la imagen. De cualquier forma, cuando funcione, será una gran ayuda, ya que se podrá utilizar para definir un texto alternativo de emergencia.

viernes, 8 de abril de 2016

Facebook también genera un texto alternativo automático

Facebook también ha desarrollado un sistema para generar de forma automática un texto alternativo para las imágenes: Facebook’s iOS app uses AI and VoiceOver to describe the contents of photos to blind users.

¿Qué hace el sistema?
Automatic alt text, which is coming to iOS today and later to Android and the web, recognizes objects in photos using machine learning […] While still in its early stages, the technology can reliably identify concepts in categories including transportation (“car,” “boat,” “airplane”), nature (“snow,” “ocean,” “sunset”), sports (“basketball court”), and food (“sushi”). The technology can also describe people (“baby,” “smiling,” beard”), and identify a selfie.
Más información:

miércoles, 6 de abril de 2016

Microsoft presenta un sistema automático que describe imágenes

Microsoft ha desarrollado CaptionBot, un sistema de inteligencia artificial que puede describir el contenido de fotografías. Este sistema puede ser útil para generar un texto alternativo automático. Sin embargo, lo he probado y...

Lo he probado con tres fotografías mías y los resultados son bastante curiosos.

La primera fotografía bien, me dice "pienso que es un hombre que lleva un sombrero y está sonriendo". Es verdad:


En la segunda fotografía empieza a desvariar, me dice "pienso que es un hombre con gafas, está posando para la cámara y tiene un gesto serio, pienso que te pareces a Paul Schneider en un 51%". ¿Y quién es Paul Schneider? Un actor:



La tercera fotografía vuelve a desvariar un poco. Me dice que llevo corbata y esta vez me parezco en un 51% a Chris Kirkpatrick:



¿Puede ser útil este sistema?

Quizás, hasta cierto punto...

martes, 5 de abril de 2016

Eye tracking de bajo coste

En el año 2012 escribí sobre un sistema de eye-tracking llamado GT3D desarrollado por investigadores del Imperial College de Londres (Inglaterra): Control del ordenador con la vista.

Ahora me he encontrado la página del proyecto GT3D en la que se cuentan más cosas: GT3D - Ultralow cost eyetracking as alternative to BMIs.
Eye-tracking, measuring where a person looks, requires serious equipment that costs serious money (approx 30,000 GBP). We built an eye-tracking system using mass-marketed off-the shelf components at 1/1000 of that cost, i.e. for less then 30 GBP.
Desgraciadamente, no parece que el producto se esté vendiendo.


lunes, 4 de abril de 2016

Curso "Desarrollo de aplicaciones móviles accesibles"

El proyecto Esvial junto con la Universidad de Alcalá organiza el curso gratuito Desarrollo de aplicaciones móviles accesibles.

El curso comienza el 5 de septiembre de 2016.

Los objetivos del curso son:

  • Contribuir a la formación específica de los desarrolladores móviles, capacitándoles para realizar la evaluación de la accesibilidad de una aplicación móvil y acometer la corrección de los problemas que se detecten.
  • Concienciar a los alumnos de los obstáculos que se encuentran los usuarios con discapacidad cuando utilizan aplicaciones móviles.
  • Que los alumnos del curso se conviertan en agentes multiplicadores, participando activamente en la capacitación de otros desarrolladores y en la difusión de la necesidad de crear apps accesibles.
  • Conocimientos previos:

viernes, 1 de abril de 2016

Twitter permite añadir un texto alternativo a las imágenes

Han tardado, pero por fin lo han hecho: Twitter permite añadir descripciones a las imágenes para hacerlas más accesibles. La noticia dice:

Twitter ha anunciado una novedad para su aplicación de iOS y Android por la que los usuarios podrán añadir descripciones a las fotografías que adjunten en los 'tuits' con el fin de que las personas que tienen una deficiencia visual puedan interpretar mejor las imágenes. 
La descripción, o texto alterativo, como también lo ha llamado la red de microblogging, permite incorporar un texto a una imagen de tal forma se pueda explicar su contenido. "Puesto que [las imágenes] son claves en la experiencia de nuestra plataforma, es importante que las imágenes que se compartan sean accesibles para todo el mundo, incluidos aquellos que tengan una discapacidad visual", ha explicado el responsable de Ingenieros, Todd Kloots, en un comunicado.

miércoles, 30 de marzo de 2016

¿Qué ha pasado con el Catálogo de productos de apoyo CEAPAT?

Erase una vez...

El Centro de Referencia Estatal de Autonomía Personal y Ayudas Técnicas (CEAPAT), dependiente del Imserso, tenía un catálogo de productos de apoyo alojado en el dominio catalogo-ceapat.org.

Sorpresa, sorpresa, si ahora se accede a ese dominio aparece la siguiente página web:


¡Una página en japonés!

Cuando hasta finales del año pasado lo que aparecía era esto (copia en Internet Archive):


¿Qué ha pasado?

En la web de CEAPAT, en la página Catálogo de productos de apoyo, podemos leer:


El «Catálogo de productos de apoyo» no se encuentra disponible en la actualidad. Estamos intentando solucionar el problema y esperamos que vuelva a estar operativo a la mayor brevedad posible.

¿Qué ha pasado?

¿Dónde está el catálogo?

En whois podemos encontrar la siguiente información:



¡Ohhhh! El dominio está registrado a nombre de muruka hatanaka, de Japón. Y la fecha de actualización es 18 de febrero de 2016.

¿Qué puede haber pasado?





lunes, 28 de marzo de 2016

Presentación sobre las herramientas automáticas de evaluación de la accesibilidad web

En el congreso CSUN16 se ha presentado Accessibility Tools Presentation, una conferencia en la que se analizan cuatro herramientas automáticas de evaluación de la accesibilidad web:

  • Accessibility Developer Tools Overview
  • AInspector Sidebar Overview
  • aXe Overview
  • WAVE Overview

viernes, 25 de marzo de 2016

Técnicas de accesibilidad para la discapacidad cognitiva

El impacto que tiene la discapacidad cognitiva en el uso de la Web es de los temas de la accesibilidad web que menos ha sido estudiado. La discapacidad cognitiva agrupa diferentes tipos de discapacidades o síndromes que dificultan la sistematización de las soluciones que se deben aplicar.

Muy importante: no se debe confundir discapacidad cognitiva con discapacidad intelectual. Una puede implicar la otra y vice versa, pero no son lo mismo. Algún día lo explicaré...

El W3C acaba de publicar el primer borrador de Techniques for the The Cognitive and Learning Disabilities Accessibility Task Force (COGA). Realmente, no se puede llamar ni borrador, es más bien un esquema de lo que se pretende redactar, muchas de sus secciones están vacías. Sin embargo, es un buen inicio.

Por ahora, las principales técnicas que se deben aplicar para garantizar la accesibilidad son:

  1. Use a clear structure with easy to follow sections short paragraphs manageable chunks
  2. Use an easy to follow writing style
  3. Provide rapid and direct feedback
  4. Help the user understand the content and orientate themselves in the content.
  5. Help users complete and check their work by less likely that the user will make mistakes and easy to undo mistakes when they occur
  6. Provide help
  7. Help the user focus and help restore the context if attention is lost
  8. Enable adaptability and personalization, so that symbols text and other features rare familiar and helpful to the user
  9. Minimize the cognitive skills required to use the content and avoid barriers that stop people with cognitive disabilities from using content, such as hard to use security mechanisms.

miércoles, 23 de marzo de 2016

Requisitos de accesibilidad para las personas con baja visión

Hace una semana, el W3C publicó el primer borrador de Accessibility Requirements for People with Low Vision.

En esta recomendación se intenta definir el concepto de baja visión:
“Low vision” refers to visual impairments other than blindness. Other terms, such as “partially sighted” and “sight impaired”, are used in different contexts. Some governments and organizations such as the World Health Organization (WHO) define categories of low vision based on specific levels of visual acuity and field of vision. Visual acuity is the clarity or sharpness of vision. Field of vision is the area a person can see when their eyes are fixed in one position.
In many contexts, low vision only includes impairments that are not corrected with regular glasses, contact lenses, medicine, or surgery. For example, an inability to focus on objects close to the viewer but that can be overcome with reading glasses is not considered low vision in some disability rights contexts. In these contexts, low vision is often defined as visual impairment that interferes with a person’s ability to perform everyday activities.
In some contexts, such as social program benefits, people are classified as having low vision or being “legally blind”. Many people who are legally blind have some usable vision, and can read some text when it is displayed optimally for them.
In considering user needs, this document uses a broad scope of low vision to include all visual impairments except significant blindness — including impairments from aging, “color blindness”, and impairments that are often categorized as legally blind yet people have sufficient vision to see user interfaces in some situations. This document does not include all issues that are also relevant for people who are totally blind. It does include several issues that overlap with the needs of some people with cognitive disabilities.
Y se describen cinco categorías de baja visión que influyen en el uso de la Web:
  • Visual acuity (clarity)
  • Light sensitivity
  • Contrast sensitivity
  • Field of vision
  • Color vision

lunes, 21 de marzo de 2016

Modo lectura fácil en Mozilla Firefox (Reader View)

Álvaro, un lector de este blog, me ha pasado la siguiente información: Disfruta leyendo páginas web con la Vista de lectura. La descripción dice:
El Modo Lector es una función de Firefox que quita distracciones como botones, publicidades e imágenes de fondo, y cambia el tamaño del texto de la página, su contraste y su diseño para una mejor legibilidad. La configuración del Modo Lector es fácilmente personalizable para cubrir tus necesidades a la hora de leer.
Lo he probado con mi sitio web sobre accesibilidad web, y no funciona.

Lo he probado con mi blog sobre accesibilidad web, y tampoco funciona.

Lo he probado con mi página personal (Sergio Luján Mora), ¡y sí que funciona!

Esta es la vista normal:


Y esta es la vista de lectura fácil:


¿Por qué unas veces funciona y otras veces no?

En la página principal de muchos sitios web no funciona, pero sí funciona en páginas de segundo nivel, como por ejemplo:
He tenido que buscar un poco, pero he encontrado algunas explicaciones:

Según he leído, se emplea un algoritmo para darle un puntaje a cada elemento de la página web, y si el puntaje alcanza cierto valor, se aplica el modo de lectura fácil.

Habrá que seguir investigando...

viernes, 18 de marzo de 2016

Curso Accesibilidad web avanzada: Análisis y corrección de problemas de accesibilidad en páginas y aplicaciones web

La Universidad Alcalá organiza el curso Accesibilidad web avanzada: Análisis y corrección de problemas de accesibilidad en páginas y aplicaciones web.

El curso tiene una duración de 75 horas y es gratuito. Su temario es:
  • Tema 1. Estándares y legislación sobre accesibilidad web.
  • Tema 2. Pautas de accesibilidad para el contenido web (WCAG 2.0)
  • Tema 3. Evaluación de la accesibilidad de sitios web (WCAG-EM 1.0)
  • Tema 4. Accesibilidad web avanzada (WAI-ARIA 1.0 y ATAG 2.0).


miércoles, 16 de marzo de 2016

Ejemplo de control mental del ordenador: componer música

Un lector de este blog me ha pasado la noticia Violinista minusválido hace música por primera vez en 27 años usando sus ondas cerebrales.

En este blog he hablado varias veces sobre el control del ordenador con la mente (pensamiento). Es algo que ya es posible, pero no de la forma que podríamos esperar. Por ahora, un ordenador no puede leer nuestro pensamiento, pero sí que puede detectar ciertos patrones de actividad eléctrica cerebral que se pueden asociar a acciones programadas.



martes, 15 de marzo de 2016

Wikipedia está desarrollando una plataforma de síntesis de voz

En Wikipedia is developing a speech engine for visually impaired users se explica que se está desarrollando una plataforma de síntesis de voz para 300 idiomas mediante crowdsourcing:
Researchers will begin developing the engine for Swedish, English, and Arabic, which they aim to complete by September 2017, before expanding it to the other 280 languages in which Wikipedia is available.
Según se dice en el artículo, un 25% de los usuarios de Wikipedia tendrán interés en usar este sistema:
According to Swedish telecommunications regulator PTS, which is financing the project, an estimated 25 percent of Wikipedia users — 125 million users per month — need or prefer speech to text.

lunes, 14 de marzo de 2016

Herramienta para analizar el riesgo de epilepsia por fotosensibilidad

Hace un tiempo comenté una pauta de las Pautas de accesibilidad para el Contenido Web 2.0 (WCAG 2.0) que es un poco "extraña":

Pauta 2.3 Convulsiones: No diseñar contenido de un modo que se sepa podría provocar ataques, espasmos o convulsiones.

En mi entrada No diseñar contenido de un modo que se sepa podría provocar ataques, espasmos o convulsiones comenté el famoso caso de la serie de dibujos animados Pokemon.

Álvaro, un lector de este blog, me ha avisado de la existencia de Photosensitive Epilepsy Analysis Tool (PEAT), una herramienta gratuita que evalúa el riesgo de producir ataques de epilepsia por fotosensibilidad en el contenido web.

viernes, 11 de marzo de 2016

¿Microsoft Edge el navegador más accesible?

En Is Microsoft changing the game for accessible browsers? cuentan que Microsoft está desarrollando una nueva API para su navegador Edge.

La información se basa en el artículo publicado en un blog de Microsoft, Making Microsoft products more accessible: Our path forward:
We’re also working hard on our new browser, Microsoft Edge. By the end of 2016, the browser will have improved browsing and reading experiences not just for those using our built-in assistive technologies, such as Narrator and Magnifier, but also for people who use other commercial assistive technology.

miércoles, 9 de marzo de 2016

¿Cuántas personas sordociegas hay en España?

Hace tiempo me hice la pregunta ¿Cuántas personas sordociegas hay en el mundo? La respuesta que obtuve es que debe haber 1.100.000 personas sordociegas.

Ahora me he hecho la misma pregunta respecto a España y he encontrado la respuesta en Gennet Corcuera, primera sordociega que estudiará en una universidad española. Según el artículo del año 2003:

Como ella, Gennet espera convertirse en un referente para los 6.000 sordociegos españoles y está segura de que su caso "va a animarles a hacer" lo que ella y a "abrir la sociedad a la sordoceguera, como hicieron conmigo en el instituto", apunta.

lunes, 7 de marzo de 2016

Recomendación de información breve sobre usabilidad

Un compañero me ha escrito con esta solicitud:
Hola Sergio:
Te escribo por si tú conoces alguna página que describa brevemente todos o casi todos los puntos que una web debe cumplir para tener buena usabilidad.
Gracias.
Difícil, difícil... algo breve, algo rápido, yo me suelo "demorar" en lo que es importante :-)

Mi respuesta fue:

¿Usabilidad o accesibilidad? Te lo pregunto porque la mayoría de la gente lo confunde.

Usabilidad: la usabilidad es bastante subjetiva y se suele definir en base a un perfil de usuario. Sin embargo, sí que existe esta norma ISO:

ISO 9241-151:2008 Ergonomics of human-system interaction -- Part 151: Guidance on World Wide Web user interfaces

http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=37031

La norma es de pago.

Pero como me pides algo breve, te recomiendo los artículos de Nielsen, en su blog hay cientos, algunos por los que puedes empezar:

https://www.nngroup.com/articles/usability-101-introduction-to-usability/

https://www.nngroup.com/articles/ten-usability-heuristics/

https://www.nngroup.com/articles/top-10-mistakes-web-design/


Accesibilidad: está la recomendación del W3C, que se convirtió en norma ISO:

ISO/IEC 40500:2012 Information technology -- W3C Web Content Accessibility Guidelines (WCAG) 2.0

http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=58625

Aquí la tienes gratis:

https://www.w3.org/TR/WCAG20/

Pero como me pides algo breve, te comiendo esto:

http://webaim.org/resources/designers/

viernes, 4 de marzo de 2016

Java Jive

No hay mucha información sobre ello, pero he descubierto que en el año 1997 se desarrolló un lector de pantalla con el lenguaje de programación Java llamado Java Jive. Algunas referencias sobre ello:

miércoles, 2 de marzo de 2016

Así funciona la voz de Stephen Hawking

En Así funciona la voz de Stephen Hawking: “Me apoyo en la tecnología para comunicarme y vivir” se explica cómo funciona el producto de apoyo desarrollado por Intel que emplea Stephen Hawking para comunicarse.

En el artículo podemos leer:
La responsable de que sus palabras sigan llegando hasta nosotros en la actualidad es Lama Nachman, directora del Experience Technology Lab de Intel. Su trabajo consiste en conseguir que Stephen Hawking, a pesar de sus limitadísimas capacidades motoras, pueda manejar el ordenador que siempre le acompaña. La plataforma diseñada por el equipo de Nachman se denomina ACAT e incorpora sensores de velocidad, acelerómetros, una cámara 3D y un software de predicción de palabras muy sofisticado que reduce las pulsaciones necesarias para escribir. Además Intel ha decidido abrir su código, por lo que todos los desarrolladores del mundo pueden incorporar nuevos elementos. Un ejemplo de trabajo colaborativo para hacer mejor la vida de las personas con discapacidad y conseguir que, tal y como se escuchaba al propio Hawking afirmar en la canción de Pink Floyd, puedan “seguir hablando”.