Buscador

Mostrando entradas con la etiqueta Ayudas técnicas. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ayudas técnicas. Mostrar todas las entradas

martes, 25 de septiembre de 2012

Avances y desafíos en ojos biónicos

Muy interesante el artículo Avances y desafíos en ojos biónicos que publicaron ayer en Microsiervos.

¿Está próximo el día que la gente sustituya sus ojos por ojos biónicos que le ofrezcan mejores prestaciones que sus propios ojos? Ese día está lejano todavía, pero seguro que llegará. Es muy probable que los transplantes de ojos que aparecían en la película "Minority Report" no se lleguen a realizar nunca: llegará un momento que será mucho mejor realizar un transplante de un ojo artificial que un ojo biológico.

Según el artículo, por ahora ya existen ojos artificiales con una resolución de 24x24 píxeles y se está trabajando con resoluciones de hasta 72x72. Sin embargo, existe un problema importante: no se sabe bien cómo conectar los sensores al nervio óptico y traducir la luz que recibe el sensor en señales nerviosas que interprete correctamente el cerebro.

jueves, 20 de septiembre de 2012

Excesskey, ¿qué atajos de teclado hay en una página web?

Joe Clark, tiene dos frases geniales en su libro Building Accessible Websites:
If you add accesskey, then, you are really coding for a future utopia...
Y la otra frase:
accesskey is something of a secret for nearly every web-surfer.
Y la traducción al castellano puede ser:
Si añades accesskey, entonces, realmente estás codificando para un futuro utópico.
Y:
accesskey es algo como un secreto para casi cualquier usuario de la Web.
Desgraciadamente es así, el atributo accesskey es un gran desconocido, debido en una gran parte a que los navegadores web no ofrecen un mecanismo para conocer los atajos de teclado que hay en una página web.

Pero ese problema ahora está resuelto, por lo menos en Opera, gracias al complemento Excesskey que muestra un aviso cuando en una página hay atajos de teclado y muestra una lista con los atajos que contiene la página.


sábado, 8 de septiembre de 2012

La Web: al final todo está conectado

Hoy es 8 de septiembre. Seguro que se celebran y cumplen muchas cosas. Seguro que alguno que lea esto hoy celebra su cumpleaños (¡felicidades!). Pero hoy se celebra algo muy especial, el Día Internacional de la Alfabetización, instituido por la Asamblea General de las Naciones Unidas. Según la Wikipedia, la alfabetización "es la habilidad de usar texto para comunicarse a través del espacio y el tiempo".

En el sitio web oficial del Día Internacional de la Alfabetización de la ONU podemos leer que "desde hace más de 40 años, la UNESCO viene celebrando el Día Internacional de la Alfabetización, en el que recuerda a la comunidad mundial que la alfabetización es un derecho humano y constituye la base de todo aprendizaje". El poder leer y escribir es una "herramienta" increíble que ha sido clave para el desarrollo de la humanidad. Y a nivel individual, te abre todo un mundo de conocimiento.

Desgraciadamente, no solemos pararnos a pensar en lo maravilloso que es poder leer y escribir. Y no pensamos en los millones de personas que no lo pueden hacer. Según las estadísticas de la ONU, casi un 17% de la población mundial adulta, más de 700 millones de personas adultas, es analfabeta.

¿Cómo podemos pensar que esas personas pueden usar un ordenador o Internet, si no pueden usar ni un libro?

Pues sí, si es posible, aunque parezca algo imposible.

La World Wide Web Foundation es una organización creada por Tim Berners-Lee, el padre de la Web, en el año 2009 que tiene como objetivo principal derribar los principales obstáculos que impiden lograr la visión de Tim Berners-Lee de una Web abierta disponible, fácil de usar y que ofrezca un valor a todo el mundo.

Uno de sus proyectos, llamado Voice Browsing, busca proporcionar los medios necesarios para que las personas puedan acceder e interactuar con la Web, con su contenido, sus servicios y aplicaciones, usando sólo la voz y teléfonos móviles básicos. Básicamente, se busca desarrollar soluciones de bajo coste de text-to-speech (síntesis de voz) y speech recognition (reconocimiento de voz). De esta forma, una persona que no sepa ni leer ni escribir, podrá navegar por la Web: el sintetizador de voz le leerá el contenido de las páginas web, y el reconocimiento de voz le permitirá navegar por la Web con la voz.

¡Pero si esto es lo mismo que hacen muchas personas con discapacidad!

Exacto, una vez más, las soluciones que se aplican a las personas con discapacidad no sólo ayudan a las personas con discapacidad. Lo que es bueno para ellos, es bueno para todos.

Por un lado, las personas ciegas usan unos programas especiales llamados lectores de pantalla para navegar por las páginas web: mediante la síntesis de voz, un lector de pantallas le lee a la persona ciega el contenido de la página web.

Por otro lado, algunas personas con problemas de movilidad, emplean programas de reconocimiento de voz para controlar el ordenador y navegar por la Web mediante comandos de voz.

En la Web, al final todo está conectado, hay que darle las gracias al hipertexto y a los enlaces.

viernes, 31 de agosto de 2012

Proyecto Horus

A través de Twitter, uno de sus autores me ha informado del Proyecto Horus:
El proyecto Horus es un prototipo de sistema tiflotecnologico elaborado en un principio por dos estudiantes del programa de Ingeniería de Sistemas y Computación de la Universidad Tecnológica de Pereira (Colombia) y que actualmente cuenta con algunos colaboradores.
Es un proyecto social que surge como alternativa a las necesidades de acceso a la información digital a la que común mente se ve enfrentada la población con limitaciones visuales de países en vía de desarrollo y que por lo general no disponen de grandes posibilidades económicas para acceder a los sistemas comerciales elaborados para este fin. 
Actualmente soñamos con la posibilidad de conformar una comunidad libre a nivel mundial, que desarrolle aplicaciones, mejoras de hardware y software para el dispositivo. Con el único fin de que todas las personas que puedan beneficiarse de él, alrededor del mundo lo puedan hacer sin ningún tipo de restricciones.
Este sistema tiflotecnologico busca representar información textual (archivos en formato .txt) mediante el sistema braille e imágenes a través de patrones de relieves en una superficie dinámica creada especialmente para ello.

Este proyecto me ha recordado el sistema Siafu, una propuesta de superficie o tableta braille para personas ciegas. Desgraciadamente, Siafu no se puede comprar, sino que es una "prueba de concepto", por lo que iniciativas como el Proyecto Horus, de bajo coste y factibles de llevarse a cabo, son muy interesantes.

Desde aquí, animo a los estudiantes que han realizado este proyecto a que sigan con él.

En el siguiente vídeo se proporciona una explicación y demostración del sistema:

jueves, 30 de agosto de 2012

Otra silla de ruedas que se controla con el pensamiento

En el artículo Brain Power: The Australian wheelchair you can move with your thoughts nos hablan de una silla de ruedas que se puede controlar con el pensamiento. Esto no es nuevo, en este blog ya he escrito varias veces sobre noticias parecidas. Por ejemplo, en Control mental, a la española, me hacía eco de un sistema similar en el año 2009.

En realidad, este artículo que cito, del 21 de agosto de 2012, no es ninguna novedad, ya que el artículo Mind-controlled wheelchair aims to make life easier for disabled habla del mismo equipo de investigación, pero es de octubre de 2010.

Supongo que en Australia, aunque no sea verano, también están faltos de noticias y necesitan hacer refritos de noticias de vez en cuando.


miércoles, 29 de agosto de 2012

Fleksy, un teclado mágico para iOS pensado para personas ciegas

En microsiervos han publicado la anotación Fleksy, un teclado para iOS que funciona como debería funcionar un teclado táctil:
Fleksy (en la App Store, gratuito) es un teclado en pantalla para iPhone pensado para que personas ciegas y con discapacidades visuales puedan utilizar este tipo de dispositivos con mayor facilidad y rapidez: no hace falta acertar en las teclas para que funcione (de hecho, se puede teclear en cualquier parte de la pantalla), aprovecha gestos para acceder a las palabras sugeridas y del corrector y va dictando las palabras que se teclean y enunciando por voz acciones como el borrado o la selección de símbolos de puntuación.
 La verdad es que el vídeo de demostración que incluyo a continuación te deja con la boca abierta:

miércoles, 22 de agosto de 2012

Handy-Potter, un nuevo interfaz que se podría utilizar para las personas con discapacidad

Acabo de leer el artículo New design tool nixes mouse; users create shapes with hands only, en el que se presenta un nuevo interfaz de usuario desarrollado por la Purdue University que permite crear objetos en tres dimensiones simplemente con el movimiento de las manos, más o menos, tal como se modela la arcilla para crear una vasija.

El sistema se basa en el empleo de Microsoft Kinect y algoritmos avanzados que permiten reconocer el movimiento de las manos del usuario. En el artículo se apuntan varios usos de este nuevo sistema, pero no se propone nada orientado a las personas con discapacidad y la accesibilidad. Este tipo de sistemas pueden ser útiles para los usuarios con movilidad reducida, ya que se podría adaptar para reconocer el movimiento de la cabeza o de cualquier otra parte del cuerpo en la que se tenga movilidad controlada, como un hombro.

A continuación, un vídeo en el que se muestra su funcionamiento:

martes, 21 de agosto de 2012

EyeRing, un sistema que permite a los ciegos oír información sobre el mundo

En el artículo EyeRing helps visually impaired point, press, and hear information se presenta el sistema EyeRing desarrollado por investigadores del MIT.

Este sistema que se basa en el uso de un teléfono inteligente o smartphone, permite a las personas ciegas identificar elementos que se encuentran en su entorno. El sistema dispone de diferentes modos de trabajo. Por ejemplo, en un modo permite identificar los colores de los objetos, mientras que en otro modo permite identificar el valor de los billetes.

En el siguiente vídeo se puede ver y oír el sistema en funcionamiento:

lunes, 20 de agosto de 2012

The Eye Tribe, sistema de eye tracking

Según la Wikipedia, un sistema de eye tracking o seguimiento de ojos "es el proceso de evaluar, bien el punto donde se fija la mirada (donde estamos mirando), o el movimiento del ojo en relación con la cabeza. Este proceso es utilizado en la investigación en los sistemas visuales, en psicología, en lingüística cognitiva y en diseño de productos. Existen diversos sistemas para determinar el movimiento de los ojos. La variante más popular utiliza imágenes de vídeo a partir de la cuales se extrae la posición del ojo. Otros métodos utilizan "search coil" o están basados en electrooculogramas".

Dentro de la accesibilidad y la usabilidad se emplea principalmente con dos fines:
  • Para realizar los test de usuario, y también los de accesibilidad: un sistema de eye tracking permite detectar las zonas de una página web que más llaman la atención de un usuario, o al contrario, las zonas que no originan mucho interés.
  • Como ayuda técnica para controlar el ordenador: un sistema de eye tracking permite sustituir el ratón del ordenador y permite que el usuario maneje el ordenador simplemente con su mirada.
Acabo de descubrir el sitio web de The Eye Tribe, un sistema de eye tracking bastante prometedor, que sólo necesita la cámara de una tableta para permitir que el usuario controle el movimiento del cursor del ratón con la mirada.

Desgraciadamente, parece que por ahora es sólo un prototipo, porque en la página web pone que saldrá al mercado en el año 2013. En el siguiente vídeo podemos ver una demostración de su uso:

lunes, 6 de agosto de 2012

Control del ordenador con el movimiento de un dedo

En Microsoft Tech to Control Computers With a Flex of a Finger podemos leer que Microsoft está trabajando en el desarrollo de un nuevo interfaz de usuario que permitirá controlar el ordenador con el movimiento de un dedo. El sistema se basa en el uso de una técnica llamada electromiografía, que permite medir las señales eléctricas que reciben los músculos cuando "ordenamos que se muevan".

Por ahora parece que se trata sólo de una patente que ha presentado Microsoft, pero en el siguiente vídeo podemos ver que Microsoft ya lleva un tiempo trabajando en ello.

lunes, 30 de julio de 2012

Aplicación para iOS ayuda a los niños con problemas para hablar

En el artículo Speech-impaired kids get a voice with Proloquo2go iOS app nos cuentan que Proloquo2go es una aplicación para iOS desarrollada por la empresa AssistiveWare que ayuda a las personas con problemas para hablar, como por ejemplo personas con autismo, parálisis cerebral, síndrome de Down, o esclerosis lateral amiotrófica como Stephen Hawking.

Proloquo2go incorpora un sintetizador de voz, un sistema text-to-speech que convierte el texto en voz. Pero había un problema para ser usado por los niños: las voces que existían eran de adultos. Puede parecer una tontería, pero escuchar a un niño "hablando" con una voz de adulto queda poco natural y causa rechazo.

Crear una voz nueva es una tarea costosa y que requiere mucho, mucho tiempo. Sin embargo, la compañía ha añadido cuatro nuevas voces a su aplicación, dos de inglés americano y otras dos de inglés británico.

viernes, 27 de julio de 2012

Aplicación para Android que ayuda a las personas con problemas de visión

En el artículo Una aplicación mejora la accesibilidad a discapacitados visuales nos explican que se ha desarrollado una aplicación llamada Georgie para dispositivos móviles Android que ayuda a las personas ciegas o con deficiencias visuales a realizar diversas actividades, como por ejemplo, desplazarse en autobús por la ciudad. Según la noticia:
La aplicación permite hacer llamadas o enviar mensajes de texto pero también proporciona tecnología de localización, lo que permite saber a los usuarios, por ejemplo, cuando llegará el próximo autobús, qué dirección están tomando o la posibilidad de establecer recordatorios basados en la localización.
A continuación un vídeo disponible en Georgie app offers up Android features and voice-guided menus for the blind: we go hands-on en el que se explica su funcionamiento:

   

lunes, 23 de julio de 2012

Guante musical ayuda a las personas con lesión medular

En el artículo Musical Glove Improves Sensation, Mobility for People with Spinal Cord Injury se presenta un  guante inalámbrico musical llamado Mobile Music Touch (MMT) desarrollado por Georgia Tech en Estados Unidos.

Según el artículo, este guante puede mejorar la sensación y las habilidades motoras en las personas con parálisis debido a una lesión medular. El guante se usa con un teclado de piano y vibra los dedos del usuario para indicar las teclas que se deben tocar. Los investigadores creen que la vibración podría estar provocando la activación en la corteza cerebral encargada de las sensaciones de la mano.

A continuación, un vídeo con una pequeña explicación:

viernes, 20 de julio de 2012

Control del ordenador con la vista

En el artículo Controlling your computer with your eyes se presenta un sistema de eye-tracking llamado GT3D desarrollado por investigadores del Imperial College de Londres (Inglaterra).

Este sistema permite controlar un ordenador con la vista y está destinado a usuarios que sufran esclerosis múltiple, Parkinson, distrofia muscular, daños en la médula espinal o pérdida de las extremidades superiores.

El sistema no es muy novedoso en el concepto, desde hace años existen sistemas similares, pero sí que es nuevo su precio, ya que según el artículo, su precio es inferior a 40 libras, ya que emplea dos videocámaras de consola que tienen un precio inferior a las 20 libras cada una.

A continuación un vídeo en el que se muestra su uso:

lunes, 16 de julio de 2012

Investigadores de la Universidad Autónoma de Barcelona desarrollan un GPS para ciegos

Según la noticia Researchers Create the First GPS for the Blind (21/6/2012), un grupo de investigadores de la Universidad Autónoma de Barcelona ha desarrollado el primer GPS para ciegos.

El sistema, llamado OnTheBus, es una aplicación Android para viajar alrededor de las grandes ciudades. OnTheBus cuenta con una brújula y un acelerómetro, y soporte para GPS, reconocimiento de voz, redes 3G y wi-fi.

El funcionamiento es muy sencillo: la aplicación proporciona una lista de rutas óptimas, el usuario selecciona una y, a continuación, la aplicación guía al usuario hasta la parada de autobús más cercana e indica la cantidad de tiempo que hay que esperar hasta que llegue el próximo autobús. Una vez en el autobús, la aplicación informa al usuario del número de paradas hasta el destino, avisa de cuando hay que pulsar el botón de "parada" y sigue guiando al usuario hasta su destino.

Por cierto, lo de "el primer GPS para ciegos" es relativo, porque he encontrado la noticia La ONCE participa en el proyecto HaptiMap para hacer accesibles mapas y GPS en dispositivos móviles, que habla de un proyecto similar y está fechada el 27 de febrero de 2012.

jueves, 12 de julio de 2012

Aplicación con inteligencia artificial para ayudar a las personas ciegas

La Imagine Cup 2012 que organiza Microsoft está dando muy buenos resultados en cuanto a la accesibilidad y las personas con discapacidad. Y bueno, quizás sea por el tema que tenía este año: Imagina un mundo en el que la tecnología ayuda a resolver los problemas más difíciles.

Hace unos días escribí la entrada Guantes que traducen la lengua de signos en habla en la que me hacía eco de los ganadores de la competición que habían inventado un guante que traduce la lengua de signos en habla.

Ahora acabo de leer el artículo Artificial intelligence app helps blind people en el que se comenta que uno de los finalistas, un grupo de estudiantes de la Universidad de Auckland y la Universidad Tecnológica de Auckland (Australia), han desarrollado un aplicación para teléfonos móviles inteligentes (smarphones) que permite a las personas ciegas percibir lo que tienen alrededor.

La aplicación permite tomar una fotografía y mediante inteligencia artificial se intenta reconocer lo que contiene la fotografía, como formas, colores, texturas y objetos. En aquellos casos en que la inteligencia artificial no sea capaz de reconocer la fotografía, se la envía a un amigo o un voluntario para que realice la descripción de forma manual.

miércoles, 11 de julio de 2012

Control del ordenador con gestos y una webcam

En el periódico La Vanguardia han publicado la noticia Un programa permite a discapacitados controlar el ordenador con una webcam. El sistema, llamado Switch Viacam, es descrito por sus propios autores como:
Switch Viacam (sViacam) es un emulador libre de conmutador basado en webcam. Utilizando una cámara web, puede configurar una área concreta dentro de la cual se detecta movimiento, lo que dispara un clic del ratón o la pulsación de una tecla. Al no basarse en la detección de formas o características particulares, los eventos pueden ser disparados usando casi cualquier parte del cuerpo u objeto que se mueva delante de la cámara. Actualmente permite emular hasta dos conmutadores virtuales.
El programa es gratuito y ha sido desarrollado por la Asociación de Parálisis Cerebral de Tarragona (APPC).

Y un vídeo en el que nos explican cómo se usa y los beneficios que aporta en algunos usuarios:

domingo, 8 de julio de 2012

vozMe

vozMe es un servicio gratuito que podemos incorporar en una página web y que permite generar un fichero de audio en formato MP3 en el que se escucha todo o parte del texto que contiene la página.

Esta función, mediante otros sistemas similares, la ofrecen muchos sitios web, como el periódico El Mundo en su apartado Herramientas:


o el periódico 20 Minutos con su versión accesible ofrecida por Inclusite.

En la página Añade voz a tu web se explica cómo incorporar este servicio en los sistemas de blog más conocidos o en cualquier página web.

miércoles, 6 de junio de 2012

Tactus Layer, sistema para crear pantallas táctiles dinámicas

Impresionante la tecnología de la compañía Tactus Technology: Tactile Layer es un sistema para crear superficies dinámicas (por ejemplo botones que aparecen o desaparecen) en superficies planas. Este sistema puede superponerse como una película transparente sobre las pantallas táctiles actuales.

No he encontrado ninguna referencia a la accesibilidad en este sitio web (sólo he encontrado una referencia a la "navegación ciega", pero no para ciegos, sino para cualquier persona que quiera teclear sin mirar la pantalla), pero es indudable que se puede aprovechar para mejorar la accesibilidad de muchos dispositivos. Y ya puestos, incluso se podría crear una línea braille utilizando este material, que seguro que sería mucho más barata que las líneas braille actuales que emplean sistemas electromecánicos.

domingo, 3 de junio de 2012

Crean unas gafas que señalan los obstáculos a las personas con discapacidad visual

Interesante proyecto el que podemos leer en Crean unas gafas que señalan los obstáculos a las personas con discapacidad visual. Se trata de un proyecto realizado en la Universidad Carlos III de Madrid por el Grupo de Displays y Aplicaciones Fotónicas.

El proyecto consiste en el desarrollo de sistema integrado en unas gafas de realidad virtual que ayuda a las personas con discapacidad visual moderada a moverse por su entorno, ya que el sistema permite detectar los objetos en movimiento que hay en el entorno del usuario.

Este sistema está destinado a personas con discapacidad visual moderada derivada de problemas en la retina, como gente que tenga disminución en su capacidad visual, principalmente en la visión periférica. Es decir, este sistema no lo puede utilizar una persona totalmente ciega.

A continuación, un vídeo en el que se explica y se muestra cómo funciona este sistema: