Buscador

Mostrando entradas con la etiqueta Noticias. Mostrar todas las entradas
Mostrando entradas con la etiqueta Noticias. Mostrar todas las entradas

martes, 6 de noviembre de 2012

Ya he visto la nueva web del Senado de España

Y también los periodistas... Me han dado un acceso a la nueva web, igual que a los medios de comunicación, para que hagamos comentarios y propongamos mejoras.

Estoy muy liado preparando vídeos para idesweb.es y para ixml.es, pero ahí van unos comentarios sobre lo que he visto en 5 minutos:

  1. DTD HTML 4.01 Transitional.
  2. Ni una etiqueta meta (y por supuesto, nada de charset).
  3. Alguna etiqueta script con atributo language en vez de type.
  4. No está el atributo lang para identificar el idioma principal.
  5. Mezcla de caracteres escritos directamente o como referencias de entidad.
  6. El carácter mayor que (>) escrito directamente, cuando lo mejor es escribirlo como referencia de entidad.
  7. Sobreaccesibilidad: enlaces con el atributo title que repiten el texto del enlace, imágenes con texto alternativo que no necesitan texto alternativo.
  8. Y a mitad del código de la página me encuentro con esto, una declaración de documento XML por ahí perdida:


Bueno, vamos a darle un voto de confianza, es una versión beta...

Y lo que comentan los medios de comunicación:


Mañana, más :-)

jueves, 2 de agosto de 2012

Entrevista para el periódico UOC.elPeriódico

Hace poco más de un mes, una alumna del posgrado Periodismo Digial UOC-El Periódico me entrevistó para el periódico digital que editan los alumnos de dicho posgrado: Sergio Luján Mora, doctor en Informática: "Los diarios digitales se enfrentan con diversos retos que dificultan la accesibilidad". La entrevista no estará ahí para siempre, así que también la tengo en formato PDF y a continuación incluyo una copia:

El profesor de la Universidad de Alicante afirma que la mayoría de periódicos digitales españoles suspenden en materia de accesibilidad, pues sus versiones adaptadas no aseguran que los individuos con alguna diversidad funcional puedan acceder a la información como cualquier otro ciudadano.

Gracias a los diarios digitales, es posible informarse de lo que sucede en el muendo en cualquier momento y desde cualquier lugar. Pero, ¿este avance es así para todos? ¿Pueden personas con problemas auditivos o visuales informase a través de Internet? Sergio Luján Mora, doctor en Informática y profesor titular del Departamento de Lenguajes y Sistemas Informáticos de Universidad de Alicante, es experto en accesibilidad web, y tiene muy claro que los diarios digitales españoles aún deben trabajar mucho para  ser accesibles. En su blog Accesibilidad en la Web, reflexiona y analiza diversos temas relacionados con la accesibilidad y, sobre todo, lucha para que el mundo virtual sea un espacio donde, gracias a diseños adecuados, las personas con alguna diversidad funcional puedan percibir, entender, navegar e interactuar con la Web, aportando a su vez contenidos.

¿Cree que las personas con alguna discapacidad pueden hoy informarse en los principales diarios digitales como cualquier otro ciudadano?

Bajo el término discapacidad se engloba una variedad tan amplia de condiciones (muchas personas con discapacidad prefieren que no se utilice este término, sino el nuevo término “diversidad funcional”) que contestar con un simple “sí o no” sería muy simplista. Los diarios digitales se enfrentan con diversos retos que dificultan que sean totalmente accesibles. Por ejemplo, un método común de crear la edición digital de un diario es a partir de la edición normal en papel mediante un proceso de exportación/conversión. Como la edición normal en papel no necesita incorporar características accesibles, la posterior edición digital tampoco las posee a no ser que se le añadan a posteriori.

¿Qué otros aspectos hacen que los diarios digitales no sean accesibles?

Suelen hacer un mal uso de las etiquetas o marcas del lenguaje HTML, el lenguaje en el que se escriben las páginas web. Por ejemplo, en HTML existen unas etiquetas para definir encabezados y estructurar el contenido de una página en apartados, lo que permite una navegación rápida de una parte a otra de parte de la página. Sin embargo, muchos diarios digitales emplean esas etiquetas simplemente para cuestiones estéticas, por lo que desperdician una gran oportunidad para mejorar la accesibilidad de sus páginas.

Además, los diarios digitales cada vez incluyen más elementos multimedia, como infografías, gráficos animados o vídeos, que requieren un especial cuidado para lograr que sean accesibles. Por ejemplo, los diarios digitales suelen incluir vídeos con las noticias que publican, pero rara vez, por no decir nunca, los vídeos están subtitulados o se incluye la transcripción completa del audio del vídeo.

Existen varias normativas y metodologías que los medios digitales podrían implementar para mejorar su accesibilidad. ¿Podría citar brevemente las medidas más básicas que deberían implementar?

En la actualidad, las normas y métodos sobre accesibilidad web que establece el World Wide Web Consortium (W3C) son consideradas como las más efectivas y correctas. En muchos países se han llegado a incorporar a la legislación oficial en materia de accesibilidad web.

Estas normas se pueden resumir en una regla de oro: “ofrece un contenido alternativo y comprensible”. Por ejemplo, para una imagen, que no puede ser percibida por una persona con problemas de visión, el contenido alternativo es la descripción textual de la imagen, que sí que puede escuchar gracias a un lector de pantallas que es el software que emplea para utilizar un ordenador. O para un vídeo con una locución, que no puede ser percibida por una persona con problemas de audición, el contenido alternativo son los subtítulos con audiodescripción o la transcripción del audio.

Algunos medios sí han trabajado la accesibilidad, aunque de modos distintos. El Mundo, por ejemplo, estrenó una web para personas con discapacidad motriz y sensitiva. ¿Cree que es una buena idea que los medios creen webs independientes para las personas con discapacidad?

Absolutamente no. Crear una versión distinta para las personas con discapacidad está absolutamente desaconsejado por diferentes razones. En el caso de El Mundo, la versión accesible que conozco es un completo error, y por eso realicé y publiqué un estudio sobre ella hace unos meses.

¿Cómo solucionan otros medios la accesibilidad?

En el caso de 20 Minutos, la accesibilidad que ofrecen no consiste en proporcionar una versión distinta para las personas con discapacidad, sino en ofrecer un software llamado Inclusite, incorporado en su página web, que ofrece soluciones para distintos tipos de discapacidad, con lo que se logra una mejora en la manipulación y percepción de la página web, pero la versión es la misma. En este caso la solución sí que es adecuada, aunque habría que estudiar con detalle si la página web presenta problemas de accesibilidad que no se pueden resolver con ese software.

¿Es caro para un medio volverse accesible? ¿Pueden ser útiles herramientas como Inclusite?

Como en la vida real, si la accesibilidad se tiene en cuenta desde el principio, la accesibilidad no tiene que ser cara. Por ejemplo, si se construye un edificio teniendo en cuenta que sus usuarios pueden presentar algún tipo de discapacidad como puede ser el moverse en silla de ruedas, el que tenga el edificio un ascensor, una rampa o un ancho adecuado en las puertas y pasillos no tiene que suponer un sobre coste. Es más, un ascensor o una rampa no sólo es una ayuda para una persona en silla de ruedas, sino que también es una gran ayuda para una persona con un carro de la compra, con un cochecito de bebé o que realice una mudanza.

Una herramienta como Inclusite puede ser una ayuda, pero no es la solución definitiva. Inclusite ayuda a mitigar ciertos problemas de accesibilidad que pueden existir en las páginas web, pero no hace milagros.

¿Algún medio español aprueba la asignatura de la accesibilidad?

Sería necesario realizar un análisis muy exhaustivo. Pero en base a una exploración rápida que he realizado, los resultados no son muy positivos.

La BBC cuenta con contenidos específicos para acercar la actualidad a las personas con dificultades de aprendizaje. Y es que cuando se habla de accesibilidad siempre suele relacionarse con personas con barreras visuales o auditivas, pero no contamos con las que presentan alguna discapacidad intelectual. ¿Cree que los medios digitales deberían contemplar la accesibilidad para este grupo de personas?

La discapacidad intelectual, también llamada algunas veces mental o cognitiva, es la gran desconocida, tanto, que a veces se confunde con la discapacidad psíquica. Para lograr la máxima accesibilidad hay que intentar ponerse en la piel de la otra persona con el fin de enfrentarse con las mismas barreras que esas personas sufren. Es difícil ponerse en la piel de una persona ciega o sorda, pero se puede simular en parte, por ejemplo, apagando la pantalla del ordenador o desconectando el sonido del ordenador. Sin embargo, simular la discapacidad intelectual es muy difícil. Además, el término discapacidad intelectual es una especie de cajón de sastre que encierra un conjunto de condiciones muchas veces muy diferentes.

Sí que sería positivo que los medios digitales contemplasen también la mejora de la accesibilidad de cara a este tipo de usuarios. Por ejemplo, se podrían crear versiones específicas (y en este caso, aunque antes haya dicho que no se debe crear una versión alternativa, no hay otra solución) para las personas con dificultad lectora o de comprensión. Esto se podría lograr de forma automática o semiautomática aplicando todas las tecnologías que existen para el procesamiento del lenguaje humano, como puede ser la creación automática de resúmenes.

viernes, 27 de julio de 2012

Un fármaco permite que ratones con la retina lesionada vean parcialmente de forma temporal

En el periódico El País ha salido publicada la noticia Luz para roedores ciegos:
Un fármaco ha devuelto parcial y temporalmente la visión a ratones ciegos a través de un experimento que plantea una nueva vía en los intentos de regenerar la retina, el tejido que se encuentra en la parte posterior interna del ojo. En este caso, los esfuerzos no vienen de la mano del uso de células madre ni de prótesis electrónicas. La esperanza de combatir la ceguera llega en forma de una molécula compuesta de nombre complejo (acrilamida-azobenceno-amonio cuaternario, AAQ) que inyectada en pequeñas cantidades en el vítreo (la sustancia gelatinosa que se encuentra en el interior de los ojos) consigue devolver transitoriamente la sensibilidad a la luz a animales de experimentación.
La noticia es esperanzadora para las personas que han perdido la visión por un daño en la retina, pero hay que tomarla como mucha cautela, ya que lo que parece que han recuperado los ratones es la sensibilidad a la luz (los ratones abrían y cerraban la pupila al ser expuestos a una fuente de luz), pero lo que se dice "ver" no se ha podido comprobar, ya que por ahora no se le puede preguntar a los ratones.

Así que, por ahora, todos debemos de seguir haciendo páginas web accesibles.

lunes, 23 de julio de 2012

Guante musical ayuda a las personas con lesión medular

En el artículo Musical Glove Improves Sensation, Mobility for People with Spinal Cord Injury se presenta un  guante inalámbrico musical llamado Mobile Music Touch (MMT) desarrollado por Georgia Tech en Estados Unidos.

Según el artículo, este guante puede mejorar la sensación y las habilidades motoras en las personas con parálisis debido a una lesión medular. El guante se usa con un teclado de piano y vibra los dedos del usuario para indicar las teclas que se deben tocar. Los investigadores creen que la vibración podría estar provocando la activación en la corteza cerebral encargada de las sensaciones de la mano.

A continuación, un vídeo con una pequeña explicación:

lunes, 16 de julio de 2012

Investigadores de la Universidad Autónoma de Barcelona desarrollan un GPS para ciegos

Según la noticia Researchers Create the First GPS for the Blind (21/6/2012), un grupo de investigadores de la Universidad Autónoma de Barcelona ha desarrollado el primer GPS para ciegos.

El sistema, llamado OnTheBus, es una aplicación Android para viajar alrededor de las grandes ciudades. OnTheBus cuenta con una brújula y un acelerómetro, y soporte para GPS, reconocimiento de voz, redes 3G y wi-fi.

El funcionamiento es muy sencillo: la aplicación proporciona una lista de rutas óptimas, el usuario selecciona una y, a continuación, la aplicación guía al usuario hasta la parada de autobús más cercana e indica la cantidad de tiempo que hay que esperar hasta que llegue el próximo autobús. Una vez en el autobús, la aplicación informa al usuario del número de paradas hasta el destino, avisa de cuando hay que pulsar el botón de "parada" y sigue guiando al usuario hasta su destino.

Por cierto, lo de "el primer GPS para ciegos" es relativo, porque he encontrado la noticia La ONCE participa en el proyecto HaptiMap para hacer accesibles mapas y GPS en dispositivos móviles, que habla de un proyecto similar y está fechada el 27 de febrero de 2012.

miércoles, 11 de julio de 2012

Control del ordenador con gestos y una webcam

En el periódico La Vanguardia han publicado la noticia Un programa permite a discapacitados controlar el ordenador con una webcam. El sistema, llamado Switch Viacam, es descrito por sus propios autores como:
Switch Viacam (sViacam) es un emulador libre de conmutador basado en webcam. Utilizando una cámara web, puede configurar una área concreta dentro de la cual se detecta movimiento, lo que dispara un clic del ratón o la pulsación de una tecla. Al no basarse en la detección de formas o características particulares, los eventos pueden ser disparados usando casi cualquier parte del cuerpo u objeto que se mueva delante de la cámara. Actualmente permite emular hasta dos conmutadores virtuales.
El programa es gratuito y ha sido desarrollado por la Asociación de Parálisis Cerebral de Tarragona (APPC).

Y un vídeo en el que nos explican cómo se usa y los beneficios que aporta en algunos usuarios:

martes, 10 de julio de 2012

Guantes que traducen la lengua de signos en habla

En TechCrunch han publicado una noticia muy interesante: Ukrainian Students Develop Gloves That Translate Sign Language Into Speech (Estudiantes ucranianos desarrollan unos guantes que traducen la lengua de signos en habla). Esta noticia también acaba de aparecer en el periódico El Mundo, Ucrania gana la Imagine Cup con un guante que traduce la lengua de signos en letras.

El proyecto, llamado Enable Talk, ha sido presentado en la Imagine Cup organizada por Microsoft que se está celebrando estos días en Sidney. Los guantes están dotados de sensores flexibles, sensores de tacto, giroscopios y acelerómetros. Los guantes se conectan a un teléfono inteligente (smartphone) mediante Bluetooth. El teléfono, mediante un software text-to-speech, es capaz de convertir los gestos de la lengua de signos en habla.

Según la noticia, el coste de este sistema está sobre los $75, mientras que otros sistemas parecidos cuestan más de $1000. ¿Lo podremos comprar dentro de poco?

A continuación un vídeo en el que se explica el proyecto y se puede ver en funcionamiento:



[Actualización 16/07/2012]
Más información en App that allows deaf people to verbally communicate wins Imagine Cup.

lunes, 2 de julio de 2012

Sistema para controlar un ordenador con la mente de la Universidad de Maastricht

El tema del control del ordenador con la mente aparece muy a menudo en los medios de comunicación. Seguramente será porque a muchas personas les puede parecer verdadera ciencia ficción. Y aunque por ahora, sí que es verdadera ciencia ficción ir a la tienda y comprar un aparato que nos permita controlar el ordenador con el pensamiento, en los laboratorios de investigación (esos que nunca tendremos gracias a los recortes de nuestros gobernantes) ya es una realidad.

Sobre este tema he escrito muchas veces, tantas que puedes encontrar todo lo que he escrito bajo la etiqueta control mental.

Hace unos días se publicó la noticia Un dispositivo permite a personas con parálisis gestionar una conversación. En la noticia nos cuentan que un equipo de investigadores de la Universidad de Maastricht ha desarrollado un dispositivo que puede permitir a las personas que son completamente incapaces de hablar o moverse, gestionar una conversación. La clave para esta comunicación en silencio y en tiempo real, es el primer dispositivo ortográfico de escaneo cerebral en tiempo real.


Esta noticia la podemos encontrar replicada en numerosos sitios, como de costumbre, y en algunos utilizan titulares como Científicos crean primer sistema de escritura a través de nuestro pensamiento a tiempo real. Triste, muy triste, porque no es ni el primero, ni el segundo, ni el tercero, desde hace años existen sistemas que permiten escribir con la mente. Lo que sí que tiene de novedoso este sistema es que utiliza la resonancia magnética nuclear funcional, mientras que los sistemas anteriores utilizaban electroencefalogramas (EEG). Pero no me imagino un aparato de resonancia magnética nuclear de varios millones de euros en el salón de mi casa... Pero ya se sabe lo que dijo Julio Verne, "lo que un hombre imagine, otro lo construirá".

domingo, 1 de julio de 2012

La sordoceguera

Ayer se publicó en el periódico El País el artículo El mundo en las manos. El artículo está dedicado a Gennet Corcuera, la primera titulada universitaria sordociega de España. ¿Sordociega?

En la Wikipedia podemos encontrar la siguiente definición de sordoceguera:
La sordoceguera es una única discapacidad que combina dos deficiencias: la deficiencia visual y la deficiencia auditiva.

Esta discapacidad se caracteriza por razón de que las personas sordociegas solo conocen su entorno más próximo: el que pueden tocar, oler o sentir.

Para comunicarse, los sordociegos lo hacen a través del tacto: lengua de signos apoyada, dactilológico en palma, escritura en mayúsculas en su mano, Braille.

Si no se hace nada para evitarlo, estas personas están resignadas al aislamiento, ya que no les resulta fácil acceder a los medios de comunicación (televisión, prensa convencional o radio), por lo que la sociedad debe concienciarse con el objetivo de entender y solucionar los problemas de este colectivo.

Para comunicarse con personas que no conozcan su sistema de comunicación, se conoce la figura del guía-intérprete, que además de guiarlo en lugares no conocidos o peligrosos, interpretará las interacciones de la persona sordociega con otras personas.
¿Cómo es la vida de un sordociego? Recomiendo el visionado del vídeo La sordoceguera, según Millás (Juan José Millás, el famoso periodista y escritor). Es un vídeo que vale la pena verlo más de una vez.

Volviendo a Gennet Corcuera, la primera titulada universitaria sordociega de España, en el artículo hay varias referencias a los productos de apoyo que utiliza en su día a día:
Gennet tiene además otras cualidades. Aunque no habla —porque no oye ni puede aprender visualmente a hacerlo— Gennet maneja varios idiomas: el de signos apoyado para conversar, el Braille para leer y el alfabeto normal para escribir en el teclado de su ordenador. Sobre sus hombros su mochila siempre va llena con todos los aparatos que necesita para comunicarse: un portátil, un móvil, una línea Braille que le lee todo lo que aparece en la pantalla de ambos aparatos y una tablilla con el alfabeto en relieve por si necesita decir algo y no va acompañada de un mediador. Busca las letras con los dedos y señala “h-o-l-a” para enseñar cómo funciona. A su izquierda normalmente está Almudena.
Y lo que supone para ella el poder acceder a Internet:
Su mayor ventana al mundo, sin embargo, es Internet. “Me interesa estar conectada”. En la Red chatea, envía y recibe correos y lee. “Sé que España juega la final de la Eurocopa”, pone de ejemplo. “Y la ola de calor que estamos sufriendo me tiene muy preocupada”, añade.
¿Y qué ayudas técnicas o productos de apoyo emplean las personas sordociegas? No hay mucha información disponible en Internet sobre este tema. En la página de la ONCE Ayudas técnicas para personas con sordoceguera se muestran diversos productos que usan para todo tipo de actividades. En cuanto al manejo del ordenador, emplean un teclado y una línea braille con un lector de pantallas.

lunes, 28 de mayo de 2012

El bolígrafo vibrador de Apple (y no va de sexo)

Seguro que más de uno llegará a esta entrada por haber buscado las palabras vibrador y sexo, y si encima ve la palabra Apple, entonces pensará que es la leche, que es el invento del siglo en cuanto a diversión sexual, pero no, desgraciadamente no va de eso. Quizás la próxima vez toque hablar de eso...

Acabo de leer la noticia What Apple's Vibrating Pen Tells Us About the Future of Everything. Según nos cuentan, Apple ha presentado una solicitud de patente para su iPen, un bolígrafo vibrado y sonoro que Apple piensa hacer compatible con todos sus dispositivos táctiles (iPhone, iPad y lo que venga después).

La tecnología háptica se refiere al conjunto de interfaces tecnológicos que interaccionan con el ser humano mediante el sentido del tacto. En la actualidad, se están desarrollando muchos dispositivos hápticos que se integran en sistemas de realidad virtual.

El vibrador que incorporan la mayoría de los teléfonos móviles es un sistema primitivo de sistema háptico. El iPhone con iOS 5 incorpora un sistema mucho más avanzado, que casi nadie conoce, Custom Vibrations, que permite al usuario crear sus propios patrones de vibraciones. Puede parecer inútil, pero es una buena forma de saber quién te llama cuando tienes el teléfono en modo silencioso sin tener que mirar la pantalla del teléfono.

Volviendo al bolígrafo vibrador y con altavoz (sí, también lleva un pequeño altavoz), las aplicaciones de cara a la accesibilidad web son múltiples y, por ejemplo, se puede emplear en la educación de personas ciegas. Por ejemplo, el bolígrafo puede vibrar en función del color o de la textura de lo que se esté mostrando en la pantalla del dispositivo.

domingo, 20 de mayo de 2012

Hacer Facebook accesible está tirado, con perdón

El 17 de mayo se celebró el Día Mundial de Internet. Aprovechando la celebración, la Organización Nacional de Ciegos Españoles (ONCE) publicó una nota de prensa para reivindicar la accesibilidad de la redes sociales: Las personas ciegas también quieren tener "amigos" y "seguidores" en las redes sociales. Esta nota de prensa apareció en numerosos medios de comunicación, como la revista Consumer (La ONCE reivindica la accesibilidad de las redes sociales para las personas ciegas) o el periódico La razón (La ONCE denuncia que las redes sociales son inaccesibles para los ciegos):
La ONCE, desde que se instauró el día 17 de mayo como Día de Internet, aprovecha la jornada para acercar a las personas ciegas o con discapacidad visual grave a las nuevas tecnologías y para reivindicar su derecho a acceder en igualdad de condiciones a la sociedad de la información, la comunicación y el conocimiento.

En esta ocasión, la Organización reivindica la accesibilidad de las redes sociales, para evitar que una parte de la población se quede sin las opciones que ofrecen. Las personas ciegas también quieren tener amigos y seguidores en las redes sociales y poder utilizarlas en sus relaciones sociales y/o laborales.

Una sociedad en la que la tecnología de última generación e Internet se han convertido en la principal vía de acceso a la Comunicación y a la Información, es necesario eliminar aquellas barreras que todavía existen en los entornos de páginas web, contenidos digitales, herramientas tecnológicas, etc.
Esta noticia me ha recordado una intervención que se produjo en la mesa redonda "Accesibilidad en Internet" en el Foro de la Gobernanza de Internet en España el pasado 10 de mayo. Esta intervención la podemos ver y escuchar en el vídeo aproximadamente en el minuto 24:
"Hacer Facebook accesible está tirado, con perdón", dice una persona que se identifica como ingeniero y miembro del Departamento de Ingeniería de Sistemas Telemáticos de la Universidad Politécnica de Madrid.
"Ah,¿sí?", contesta Javier Romañach, del Foro de Vida Independiente (¡qué gran tipo!).
"Sí", contesta el ingeniero.
Sea fácil o difícil, la verdad es que las redes sociales presentan numerosos problemas de accesibilidad y, por tanto, no son tan sociales para millones y millones de personas por todo el mundo. Hace unos meses comenté un estudio que se había realizado sobre la accesibilidad de las redes sociales, y el resultado no era muy positivo. Por ejemplo, en el caso de Facebook, lo más accesible es su logo, que es azul, porque su creador Mark Zuckerberg es daltónico y el texto blanco sobre fondo azul es el tono que mejor distingue.

miércoles, 18 de abril de 2012

¿Por qué el logo de Facebook es azul?

Hace unos días, en el artículo La historia del logo más famoso del siglo publicado en el periódico El País nos contaron la razón:
Más de 800 millones de usuarios lo ven cada día en sus móviles, sus tabletas y sus ordenadores y otros cuantos millones más lo reconocen. El logotipo de Facebook, una nítida pastilla azul con el nombre de la red social inscrito en blanco en una variante de la tipografía Klavika, es probablemente el más ubicuo de los nacidos en lo que va de siglo.

[...]

El color, en cambio, ese característico azul Facebook, lo escogió Zuckerberg, porque es daltónico y es el tono que mejor distingue.
En este blog he escrito varias veces sobre el daltonismo (también llamado ceguera al color) y sobre herramientas que se pueden emplear para elegir una buena paleta de colores que no cause problemas a las personas daltónicas. Algunas de las entradas más interesantes son:

martes, 10 de abril de 2012

Control del ordenador con la lengua y Kinect

Kinect es un controlador de juegos desarrollado por Microsoft para su consola Xbox 360. Kinect permite a los usuarios controlar e interactuar con la consola sin necesidad de tener contacto físico con un controlador de videojuegos tradicional, mediante una interfaz natural de usuario que reconoce gestos, comandos de voz, y objetos e imágenes. Fue lanzado al mercado en noviembre de 2010 e inicialmente Microsoft no tenía la idea de proporcionar un kit de desarrollo de software (SDK) para que pudiese ser usado en otras plataformas. Sin embargo, después de las numerosas críticas que recibieron porque mucha gente veía las enormes posibilidades que podía ofrecer (en especial, investigadores), en junio de 2011 Microsoft publicó un kit de desarrollo. Desde entonces, se han desarrollado numerosas aplicaciones basadas en Kinect.

En la noticia Tongue interface using the Kinect nos cuentan que un grupo de investigadores de The University of Electro-Communications en Japón están desarrollando un interfaz hombre-ordenador basado en la detección del movimiento de la lengua con Kinect. En la noticia nos dicen que han desarrollado el sistema para rehabilitación, para el entrenamiento de los músculos de la boca, que incluyen la lengua, para personas que tienen trastornos de la función motora que afectan a su capacidad para hablar o tragar.

Sin embargo, me ha venido a la mente el sistema para controlar el ordenador con la lengua que están desarrollando en el Georgia Institute of Technology. El Kinect se podría usar exactamente para lo mismo, para que personas con movilidad reducida (por ejemplo, tetraplejia) puedan controlar el ordenador con el movimiento de la lengua. Un sistema basado en Kinect ofrecería numerosas ventajas: sería mucho más económico (tecnología que se puede comprar en cualquier tienda) y mucho más higiénico, ya que no requiere ningún tipo de implante en la lengua.

A continuación, un vídeo demostrativo de cómo se utiliza (puede ser gracioso, pero es útil):


lunes, 26 de marzo de 2012

Nuevo sistema de subtitulado

El sistema tradicional de subtitulado que se emplea hoy en día apareció en la década de los setenta. Desde entonces, el sistema prácticamente no ha cambiado: en la parte inferior de la imagen aparecen una o dos líneas de texto que permiten a las personas sordas, o a todas las personas cuando el sonido está apagado o cuando se subtitula en otro idioma, seguir las conversaciones del vídeo.

Este sistema tiene un problema muy importante: a veces no se sabe quién está hablando (por ejemplo, porque hay muchas personas juntas hablando a la vez). Para reducir este problema, a cada persona se le puede asignar un color distinto que se emplea en el texto de los subtítulos, pero este sistema no es la solución perfecta (además, recordemos que basarse sólo en el color para transmitir información no es una buena práctica).

Según el artículo Researches revolutionize closed captioning, investigadores de la Hefei University of Technology en China han desarrollado un novedoso sistema de subtitulado de vídeos. Esta sistema consiste en mostrar el texto en "burbujas" (bocadillos) transparentes cerca de la persona que está hablando. Además, también sincronizan la visualización del texto con la velocidad a la que habla la persona, de una forma similar a como se hace en un karaoke.

En la siguiente imagen se puede ver una comparativa de los sistemas tradicionales (de la letra "a" a la "d"), llamados subtitulados estáticos, frente al nuevo sistema (letra "e") llamado subtitulado dinámico.


De 60 personas que probaron el nuevo sistema, 53 prefirieron el nuevo sistema frente al tradicional.

El sistema es totalmente automático y no necesita ninguna intervención manual, ya que a partir de la transcripción de los diálogos (con su correspondiente marca de tiempo), el sistema detecta quién está hablando mediante la detección del movimiento de los labios. Además, el sistema también detecta automáticamente cuál es el mejor sitio para situar las "burbujas de texto". Cuando la persona que habla está fuera de la imagen, el texto se muestra en la parte inferior como con los subtítulos tradicionales.

Por último, según la noticia, en el mundo existen más de 66 millones de personas con problemas de audición.

[Actualización 26/03/2012]
Se puede encontrar información detallada sobre el sistema en los siguientes artículos (de pago):

El sistema no parece que tenga un nombre. En la actualidad no se comercializa, sólo es un producto en fase de investigación y desarrollo, ya que por ahora tiene una tasa de error que impide que puede ser comercializado.

miércoles, 14 de marzo de 2012

Traductor portátil de la lengua de signos

Según la noticia Technology that translates sign language into text aims to empower sign language user, en la Universidad de Aberdeen (Escocia) han desarrollado un traductor portátil de la lengua de signos llamado Portable Sign Language Translator (PSLT).

La noticia dice que este software es el primero de su tipo a nivel mundial: con este software y con un dispositivo que tenga una cámara de vídeo (por ejemplo, un teléfono móvil moderno, una tableta o una webcam conectada a un ordenador), un usuario que se comunique mediante la lengua de signos se puede comunicar con cualquier persona, ya que el sistema traduce sus signos a texto.

El sistema está en desarrollo, pero promete revolucionar totalmente la comunicación entre personas sordas y no sordas. Según la noticia, el número de personas en el Reino Unido cuya primera lengua es la Lengua Británica de Signos se estima entre 50.000 y 70.000 personas.

Esta noticia me recuerda el proyecto GANAS (Generador de Animaciones para el Lenguaje de Signos) desarrollado en la Universidad de Castilla-La Mancha y que tiene como objetivo justo lo contrario: desarrollar un avatar tridimensional que traduzca un texto a la lengua de signos.

martes, 13 de marzo de 2012

El Día Mundial del Glaucoma

Ayer lunes 12 de marzo se celebró el Día Mundial del Glaucoma. El glaucoma es una enfermedad crónica que puede afectar muy gravemente a la visión. Puede llegar a causar ceguera y es considerada la segunda causa de ceguera en el mundo occidental.

En el artículo Un día para la ceguera que no duele, nos dicen que unos 500.000 españoles padecen glaucoma y un 5% de los casos puede derivar en ceguera:
Esta patología, que afecta a unos 60 millones de personas en el mundo, se caracteriza por una degeneración del nervio óptico causada por un aumento de la presión dentro del ojo. Un millón de españoles la padece, aunque la mitad de ellos lo desconoce. Con un diagnóstico a tiempo, puede iniciarse un tratamiento dirigido a frenar su progresión. Sin este tratamiento temprano, el 5% de los casos de glaucoma puede derivar en ceguera.

En Internet podemos encontrar varios ejemplos y simuladores de glaucoma y otros problemas de visión:

En mi sitio web sobre accesibilidad web tengo la página Simuladores de personas con discapacidad visual en la que comento varias herramientas que permiten simular diferentes problemas de visión. De todas ellas recomiendo Web Accessibility Toolbar, que posee un apartado con diferentes simulaciones: retinopatía diabética, cataratas, degeneración macular, glaucoma, ceguera al color y contraste reducido.

lunes, 12 de marzo de 2012

El W3C dice que HTML5 transformará la Web

La semana pasada, del 6 al 10 del marzo, se celebró el CeBIT en Hannover (Alemania). El nombre CeBIT (Centrum der Büro-und Informationstechnik) significa Centro para la Tecnología de la Información y de la Oficina. El CeBIT está considerada la feria de exposición de ordenadores, tecnologías de la información, telecomunicaciones, software y servicios más importante del mundo.

En la noticia W3C CEO calls HTML5 as transformative as easly Web nos cuentan cómo fue la participación de Jeff Jaffe, directivo del W3C. Según este directivo, HTML5 será una tecnología disruptiva con tanto poder y efecto como los que ocurrió durante los primeros años de la Web:
We’re about to experience a generational change in Web technology, and just as the Web transformed every business, (HTML5) will lead to another transformation.
Jeff Jaffe también destacó que HTML5 ofrecerá nuevas posibilidades para mejorar la accesibilidad de los sitios web.

Jeff Jaffe recordó que HTML5 no será un estándar hasta el año 2014. También reconoció que algunas críticas sobre el rendimiento de HTML5 y sobre su nivel de madurez para sustituir otras tecnologías (por ejemplo, Flash) tienen un fundamento real. Sin embargo, explicó que es algo normal en cualquier tecnología cuando se introduce por primera vez. Preguntado por el dilema aplicación nativa o aplicación web, Jeff Jaffe contestó que no lo veía como una competición, pero se decantó por las aplicaciones web debido a la gran diversidad de dispositivos que existen y a la necesidad creciente, por cuestión de costes, de disponer de una plataforma estándar.

miércoles, 7 de marzo de 2012

Mejoras en el sistema para controlar el ordenador con la lengua

El artículo Tongue Drive System Goes Inside the Mouth to Improve Performance and User Comfort nos cuenta que en el Georgia Institute of Technology han desarrollado un sistema para controlar el ordenador u otros dispositivos, como una silla de ruedas, con el movimiento de la lengua. Este tipo de sistema está destinado para personas que han sufrido un gran daño en la médula espinal y que sufren de tetraplejia.

El nuevo sistema que se ha presentado mejora el que previamente existía que consistía en un casco que detectaba el movimiento de un imán que estaba implantado en la lengua del usuario a modo de piercing. El nuevo sistema emplea una especie de protector dental con una serie de detectores, tal como podemos ver en la siguiente imagen.


Este nuevo sistema es más cómodo que el existente, ya que en el sistema antiguo basado en el casco, éste se podía mover y había que realizar un proceso de calibración cada vez que se usaba. Además, al estar los sensores más cerca del imán, se mejora la relación señal-ruido y, por tanto la precisión.

Este sistema presenta una gran ventaja frente a otros sistemas como los de pulsadores o los de inspiración-espiración, ya que permite una mayor variedad de combinaciones.

A continuación un vídeo donde podemos ver el uso del sistema antiguo. Desgraciadamente, según el vídeo, aún se está lejos de poder comercializar este sistema.



Más información:

lunes, 5 de marzo de 2012

Juegos controlados con la vista para niños con discapacidad

La noticia Eye-controlled computer games for disabled children nos cuenta que el Centre for Computational Intelligence de la De Montfort University, una universidad situada en Leicester (Reino Unido), están empleando sistemas de eye tracking (seguimiento del ojo) para que niños con movilidad limitada puedan jugar con videojuegos. Además, el sistema también les permite moverse por entornos virtuales y, por qué no, por entornos reales.

Según dice la noticia, el sistema que están desarrollando es de bajo coste. En el siguiente vídeo se puede ver una demostración de uso de este sistema. En el vídeo aparece el proceso de calibración (acelerado) que requieren los sistemas de eye tracking.



Más información:

jueves, 2 de febrero de 2012

La nueva web de Madrid 2020

Hace unos días se presentó el nuevo logotipo y la nueva web de la candidatura de Madrid para organizar los juegos olímpicos de 2020 (y ya van unos cuantos intentos). Como de costumbre, en la presentación sobresalieron algunas "chapuzas", como la confusión que crea el logotipo que parece que pone "20020", que hayan puesto "madríd" con tilde o que se les haya olvidado el color negro (¿Madrid 2020 o 20020?). Y ya puestos, el logo se parece mucho al de una empresa que vende juguetes (Una empresa que fabrica muñecos gays dice que Madrid 2020 les copió). Bueno, hoy en día no creo que alguien sea tan tonto como para copiar tan descaradamente, porque más tarde o temprano se descubrirá. Pero lo que sí que es de tonto integral es no realizar una búsqueda previa de imágenes y diseños para comprobar que no pasen estas cosas. Y también es de tonto el declarar que no se va a cambiar nada de nada (El polémico logo olímpico no se cambia).

Respecto a la web de Madrid 2020 (¿o tengo que escribir madríd 2020?), en diversas noticias se afirma que es "accesible, multimedia y participativa".

¿Accesible? ¿Alguien ha intentado utilizar este sitio web con el teclado? Yo no consigo saber dónde estoy. Para un usuario que acceda con el teclado, la página principal es totalmente inaccesible.

[Actualización 10/02/2012]
Los problemas con el logo de Madrid 2020 continúan: Madrid 2020, obligada a indemnizar a un artista por robarle su 'tipografía'.