Buscador

Mostrando entradas con la etiqueta Ayudas técnicas. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ayudas técnicas. Mostrar todas las entradas

lunes, 14 de noviembre de 2011

Ayudas técnicas y tecnologías de apoyo

La Norma UNE 139802:2003 Aplicaciones informáticas para personas con discapacidad. Requisitos de accesibilidad al ordenador. Software define el concepto de ayuda técnica:
Cualquier producto, instrumento, equipo o sistema técnico utilizado por una persona minusválida, fabricado especialmente o disponible en el mercado para prevenir, compensar, mitigar o neutralizar la deficiencia, incapacidad o discapacidad. (UNE-EN ISO 9999). Incluye tanto productos hardware como software.
Posteriormente, la Norma UNE-EN ISO 9999:2007:Productos de apoyo para personas con discapacidad. Clasificación y terminología (ISO 9999:2007) establece que ya no se debe llamar ayuda técnica, sino producto de apoyo:
Cualquier producto (incluyendo dispositivos, equipo, instrumento, tecnología y software) fabricado especialmente o disponible en el mercado, para prevenir, compensar, controlar, mitigar o neutralizar deficiencias, limitaciones en la actividad y restricciones en la participación.

NOTA: En esta edición el término "Productos de apoyo" reemplaza al término "Ayudas técnicas" usado en ediciones anteriores.
Acabo de encontrar la página web de la empresa EnableMart que ofrece un catálogo de productos de apoyo. Desgraciadamente, no parece que comercialice sus productos en España o en Europa, sólo en Estados Unidos.


viernes, 4 de noviembre de 2011

El vídeo musical de las WCAG

Bueno, el vídeo WCAG 2.0 Theme Song Web Content Accessibility Guidelines - Disability es un poco "inclasificable", aunque si se ve con una mente abierta puede llegar a ser gracioso.

Lo más interesante del vídeo es que se pueden ver algunos usuarios con sus tecnologías de apoyo (ayudas técnicas).

jueves, 27 de octubre de 2011

Inclusite

Inclusite es un sistema desarrollado por una empresa española radicada en Valencia que permite dotar a un sitio web de interfaces accesibles que se adaptan a las necesidades de diferentes usuarios. La principal ventaja de este sistema es que se puede emplear desde cualquier ordenador sin tener que instalar ningún tipo de software adicional.

El sistema funciona modificando de forma transparente el etiquetado de una página web al incorporar una serie de etiquetas y atributos propios que luego son interpretados en el navegador para ofrecer un interfaz mejorado.

Hoy se ha anunciado que la web de Radiotelevisión Valenciana se ha hecho completamente accesible gracias a este sistema: La web de Radiotelevisión Valenciana logra hacerse completamente accesible. Habrá que ver si es verdad, porque, por ejemplo, me pregunto si todos los vídeos que contiene esta web han sido subtitulados y se ha incluido su transcripción a texto. Porque, si no es así, entonces no se puede decir que la web sea completamente accesible.


El siguiente vídeo explica con más detalle qué y cómo se utiliza Inclusite:

martes, 25 de octubre de 2011

Otro centro en el que investigan el control mental del ordenador

Cada vez aparecen en los medios de comunicación más noticias sobre avances para lograr un sistema que permita controlar el ordenador con la mente o el pensamiento. Es un tema del que he escrito muchas veces, como por ejemplo Situación actual del control mental del ordenador, Otros que se apuntan al control mental del ordenador. Para las personas con algunos tipos de discapacidad, un sistema así les podrá cambiar completamente la vida.

Ahora acabo de leer el artículo Mind Reading Computer System May Help People With Locked-in Syndrome. Según la noticia, en el Center of Excellence for Learning in Education, Science and Technology (CELEST), están desarrollando un prototipo que permite a personas sin movilidad controlar un cursor en la pantalla de un ordenador.

Además, la noticia también está acompañada de un vídeo (en inglés):


lunes, 17 de octubre de 2011

Mejora de la accesibilidad del nuevo iPhone 4S

El año pasado escribí la entrada El iPhone 4 mejora su accesibilidad en la que comentaba las mejoras que incorporaba el nuevo iPhone 4 que mejoraban su accesibilidad. Para muchas personas, puede parecer bastante sorprendente que un teléfono con pantalla táctil pueda ser accesible para las personas ciegas, pero es así.

Hace poco ha salido a la luz el nuevo iPhone 4S y, al igual que el año pasado, las características accesibles han vuelto a mejorar. En el artículo New iPhone a breakthrough for blind people nos cuentan algunas de sus mejoras.

Según la noticia, el iPhone es el único teléfono que puede ser usado por los usuarios ciegos directamente, tal como viene de fábrica, sin tener que instalar ningún software adicional. El iPhone 3GS, que salió a la venta en el año 2009, incorporaba por primera vez el lector de pantallas VoiceOver.

El nuevo iPhone 4S incorpora el asistente Siri que permite al usuario emplear comando de voz para controlar el teléfono.

Además, existen numerosas aplicaciones (apps) que ofrecen funciones ingeniosas que pueden ayudar a las personas con discapacidad. Por ejemplo, la aplicación LookTel Money Reader es capaz de identificar el tipo y el valor de casi cualquier billete de banco: sencillamente, el billete se pone delante de la cámara de vídeo y este software de reconocimiento visual identifica el tipo y el valor del billete.

En el siguiente vídeo lo podemos ver en funcionamiento, realmente asombroso:

jueves, 6 de octubre de 2011

Unos monos "mueven y sienten" objetos virtuales utilizando sólo el cerebro

En este blog he escrito varias veces sobre este tema (la úlitma fue Situación actual del control mental del ordenador): controlar el ordenador (y cualquier otra cosa que se pueda controlar a través de un ordenador, es decir, casi cualquier cosa) con el pensamiento.

Acabo de leer el artículo Monkeys "Move and Feel" Virtual Objects Using Only Their Brains. Un paso más: ahora, además de poder realizar ciertas acciones solo con el pensamiento, en el artículo se presenta la primera demostración de interacción bidireccional entre un cerebro y un elemento virtual, ya que además de realizar la acción, también reciben una respuesta directamente en el cerebro. En concreto, en este experimento unos monos movían el brazo virtual de un avatar y recibían una respuesta que indicaba la textura de los elementos por lo que pasaba el brazo virtual.

En la noticia podemos leer:
"Someday in the near future, quadriplegic patients will take advantage of this technology not only to move their arms and hands and to walk again, but also to sense the texture of objects placed in their hands, or experience the nuances of the terrain on which they stroll with the help of a wearable robotic exoskeleton," said study leader Miguel Nicolelis, MD, PhD, professor of neurobiology at Duke University Medical Center and co-director of the Duke Center for Neuroengineering.

"This is the first demonstration of a brain-machine-brain interface (BMBI) that establishes a direct, bidirectional link between a brain and a virtual body," Nicolelis said.

martes, 27 de septiembre de 2011

Accesibilidad en primera persona

Interesante vídeo de una presentación que realizó una persona ciega en la Universitat Jaume I de Castellón:


Accesibilidad en primera persona from decharlas.com on Vimeo.

viernes, 26 de agosto de 2011

Nuevo dispositivo para ver con las manos

En el periódico El País han publicado la noticia Ver con las manos. La noticia dice:


Tocar vale más que mil palabras. Así lo sienten ocho de los 18 ciegos que probaron el dispositivo táctil creado por un grupo de 13 investigadores (médicos, ingenieros y psicólogos) de la Universidad Complutense de Madrid. El producto, en el que ya se han invertido 1.460.000 euros, estará en el mercado en seis meses y costará entre 2.000 y 3.000 euros. Unos 80.000 ciegos españoles y más de 40 millones en el mundo podrán beneficiarse.Se trata de unas gafas de sol y un estimulador táctil similar a una cajita del tamaño de la palma de la mano, que pesa 200 gramos. En medio de las gafas hay una microcámara con un chip. Este transmite las imágenes al estimulador, que está cubierto de bolitas que se levantan coordinadamente, produciendo un relieve que, sobre la palma de la mano, emula las siluetas captadas por la grabadora. "Evoco las imágenes, las veo simplificadas y en blanco y negro, como si me las dibujaran sobre una pizarra", describe Enrique, de 52 años, uno de los invidentes que participa en el estudio desde su inicio.

[...]

Todos los objetivos se cumplieron. Los ciegos pueden reconocer objetos a ocho o 10 metros de distancia y el 40% siente que ve cuando recibe el estímulo táctil mientras que el 100% (incluidos un grupo de 10 videntes) reconoce los objetos a través del dispositivo. Gracias a esta nueva herramienta, las personas que padecen problemas severos de visión pueden ahora calcular la distancia a la que se encuentran los objetos aunque la percepción todavía no incluye colores y volúmenes. "En la calle es fantástico porque detecta cosas que el bastón no, como los toldos. Por eso hay muchas personas ciegas con marcas en la frente", subraya Enrique con humor. "Al principio era un poco escéptico, pero pasé de sentir cosquillas en la mano a delimitar la costa de Galicia, donde vivo", cuenta fascinado por las posibilidades que le abre el dispositivo. El objetivo a largo plazo es, según el investigador Tomás Ortiz, "reemplazar al bastón y a los perros guía".
En la noticia no se comenta, pero yo también le encuentro utilidad como dispositivo para manejar el ordenador e interactuar con elementos gráficos.

jueves, 28 de julio de 2011

Publicada la versión candidata de NVDA 2011.2

Se acaba de publicar la versión candidata del lector de pantallas gratuito NVDA: NVDA 2011.2rc1 Released. Las novedades que incorpora esta versión las podemos encontrar en la página What's New in NVDA.

jueves, 21 de julio de 2011

La tecnología de eye tracking puede ayudar al aprendizaje de los niños con discapacidad

Un sistema de "seguimiento de los ojos" (eye tracking) es un sistema que permite detectar el punto donde un sujeto de estudio está situando su mirada. Estos sistemas se emplean en diversas áreas, como el márketing y la publicidad, el diseño de objetos, la psicología, etc.

Dentro de la accesibilidad y la usabilidad se emplea principalmente con dos fines:
  • Para realizar los test de usuario, y también los de accesibilidad: un sistema de eye tracking permite detectar las zonas de una página web que más llaman la atención de un usuario, o al contrario, las zonas que no originan mucho interés.
  • Como ayuda técnica para controlar el ordenador: un sistema de eye tracking permite sustituir el ratón del ordenador y permite que el usuario maneje el ordenador simplemente con su mirada.

En el artículo Eye-tracking technology could benefit disabled children nos cuentan otra aplicación de los sistemas de eye tracking: se pueden emplear para mejorar el aprendizaje de los niños con discapacidad:
The team has been working alongside the charity SpecialEffect to design a computer program that uses an eye-tracker to find out exactly how eye movements correspond with the participant’s preferences.
Once a pattern of eye-movements is identified for the user, algorithms manipulate designs on the screen so that they gradually evolve to match each person’s preferences.

miércoles, 20 de julio de 2011

Situación actual del control mental del ordenador

Ya he escrito varias veces sobre el control mental, la última el pasado 5 de junio: Otros que se apuntan al control mental del ordenador.

Acabo de encontrar un artículo del 2 de julio de 2011 que resume muy bien la situación actual del control mental: Mind-Controlled, publicado en el volumen 180, número 1, de la revista ScienceNews. El artículo es un poco largo, pero explica muy bien los distintos tipos de dispositivos que existen hoy en día y lo que es realidad y lo que es mito hoy en día.

jueves, 9 de junio de 2011

Otro sistema para controlar el ordenador con los ojos

aAcabo de leer la noticia Virtual mouse, an invention to help the disabled, publicada el pasado 5 de junio de 2011. Según la noticia, un estudiante de Khalifa University (Emiratos Árabes Unidos) ha desarrollado un sistema que permite controlar el ratón del ordenador con la vista: una webcam vigila el movimiento de lo ojos y mueve el ratón al punto donde esté mirando el usuario. Además, las pulsaciones de los dos botones del ratón se controlan mediante el parpadeo de los ojos.

Este sistema no es original, ya existen otros sistemas que comenté en el pasado, pero es muy interesante que lo haya desarrollado un estudiante como proyecto final de carrera y con coste cero, utilizando hardware estándar.

Algunos artículos relacionados sobre este tema:

domingo, 5 de junio de 2011

Otros que se apuntan al control mental del ordenador


Son muchos los centros a lo largo del mundo que están investigando en el control mental o cerebral del ordenador (cómo controlar el ordenador con la mente). Ya he escrito sobre este tema en numerosas ocasiones anteriores:
En la Ben-Gurion University of the Negev también están trabajando en ello. Según podemos leer en la noticia Mind-controlled computing for the disabled, unos estudiantes de dicha universidad han desarrollado un sistema que permite escribir textos en un ordenador con la mente. El sistema emplea el hardware Emotiv, un interfaz que inicialmente nació para controlar videojuegos con la mente, pero que también se está empleando para realizar investigación.

Aunque la noticia es prometedora, habrá que esperar a ver un sistema realmente práctico: por ahora, para escribir un correo electrónico de 12 caracteres, los sujetos de los experimentos (especialmente entrenados para la tarea) tardaron ¡7 minutos!

In a series of experiments, able-bodied subjects learned a new action in eight seconds and then typed a 12-character email in about seven minutes. However, Puzis believes that trained users could finish sending a sentence as simple and significant as "I love you, Mom" in as few as four minutes, using only -- you guessed it -- their mind.

martes, 3 de mayo de 2011

Un sistema que permite a una persona ciega percibir una imagen

Que una persona ciega pueda ver una imagen es, por definición, imposible hoy en día. Habrá que esperar a que los ojos artificiales sean una realidad factible (ya ha habido algunos experimentos prometedores, como Implante de un ojo artificial en un ciego) para que una persona ciega pueda realmente "ver".

Mientras tanto, se están desarrollando soluciones alternativas para que una persona ciega pueda "percibir" una imagen. Hace un par de meses escribí la entrada Un programa permite que los ciegos toquen cualquier imagen, un sistema que permite crear una imagen táctil de una fotografía. El sistema es muy sencillo: el sistema detecta los trazos principales de una imagen (este sistema está en principio orientado a fotografías de caras) e imprime en relieve esos trazos para que una persona ciega los pueda percibir. Este sistema tiene el inconveniente de que es estático, lento y costoso, ya que hay que imprimir la imagen.

En la noticia New device puts vision impaired in the picture explican que en la Faculty of Information and Technology de la Monash University (Australia) han desarrollado un sistema llamado GraVVITAS que permite a una persona ciega percibir una imagen mediante un tablet PC, avisos sonoros y vibraciones. Lo que no está claro por la noticia es si se puede emplear con cualquier imagen (lo dudo) o la imagen tiene que cumplir ciertos requisitos o incluso debe estar "descrita" previamente. La noticia dice:

The device, called GraVVITAS, is a standard tablet PC with touch screen technology that uses vibration and sounds to guide the visually impaired user around a diagram.
It is designed to enable the user to build a picture of the entire graphic in their mind.
[...]
The device, which is currently a prototype, has small external vibrating motors that attach to the user’s fingers. These motors buzz when an object displayed on the screen is touched.
Cagatay Goncu said voice prompts and sounds also help to guide the user to read the diagram.
“The basic idea is to guide the user to find the object by using sound. Touching the object causes the sound to stop and a voice explains what that object is and any other information associated with it,” Mr. Goncu said.
“If it’s something on the left side, you will hear something in your left ear and vice-versa.”

sábado, 23 de abril de 2011

Software gratuito que ayuda a las personas con discapacidad motora a controlar el cursor del ratón

A través de la noticia Free software makes computer mouse easier for people with disabilities he descubierto dos programas que ayudan a controlar el cursor del ratón a las personas con discapacidad motora.

El primero, llamado Pointing Magnifier, permite realizar un zoom de una parte de la pantalla para lograr una mayor precisión en el manejo del cursor.



El segundo, llamado Angle Mouse, ajusta la resolución del movimiento del cursor en función de cómo de coherente (recto) o divergente (anguloso) es el movimiento del cursor. Cuando el cursor se mueve recto, el movimiento es rápido, pero cuando cambia de dirección abruptamente, normalmente cerca del destino del movimiento, el movimiento es más lento, aumentando la precisión.

viernes, 22 de abril de 2011

Interfaz neuronal que permite hablar al ordenador

El tema del control del ordenador con el pensamiento ha aparecido numerosas veces en este blog, como por ejemplo Un interfaz neuronal sigue funcionando después de 1000 días o En Francia también investigan sobre el control del ordenador con la mente (por citar solamente las dos más recientes).

La noticia Technique for letting brain talk to computers now tunes in speech explica que científicos de la Washington University School of Medicine in St. Louis han desarrollado un implante (necesita cirujía cerebral) que situado en zonas del cerebro que controlan el habla permiten "hablar" al ordenador con el pensamiento por primera vez (¿por primera vez?), pudiendo controlar un cursor en la pantalla del ordenador simplemente pensando en un sonido.
“We can distinguish both spoken sounds and the patient imagining saying a sound, so that means we are truly starting to read the language of thought,” he says. “This is one of the earliest examples, to a very, very small extent, of what is called ‘reading minds’ — detecting what people are saying to themselves in their internal dialogue.”
The next step, which Leuthardt and his colleagues are working on, is to find ways to distinguish what they call “higher levels of conceptual information.”
“We want to see if we can not just detect when you’re saying dog, tree, tool or some other word, but also learn what the pure idea of that looks like in your mind,” he says. “It’s exciting and a little scary to think of reading minds, but it has incredible potential for people who can't communicate or are suffering from other disabilities.”

jueves, 7 de abril de 2011

Microsoft anuncia herramientas gratuitas de accesibilidad

La noticia Microsoft Announces Free Accessibility Tools and Training for Developers nos cuenta que Microsoft ha publicado Microsoft Accessibility Tools & Training, un conjunto de herramientas, seminarios de formación y otros recursos disponibles de forma gratuita en la Web.

Lo más interesante que he encontrado en esta web hasta ahora es:

martes, 29 de marzo de 2011

Un interfaz neuronal sigue funcionando después de 1000 días

A muchas personas el tema del control mental del ordenador o la unión hombre-máquina les puede parecer de ciencia ficción, sacado de las películas Robocop o Terminator, pero es un tema que se está investigando y desarrollando en la actualidad.

Estos avances técnicos pueden ayudar a muchas personas con discapacidad física a paliar sus problemas. Sobre el control del ordenador con la mente ya he escrito en numerosas ocasiones (Una noticia sobre investigación en control mental del ordenador en Tailandia).

Ahora acabo de leer la noticia BrainGate neural interface system reaches 1,000-day performance milestone. En la Brown University (Rhode Island, Estados Unidos), implantaron a una mujer con tetraplejia un sistema llamado BrainGate. 1000 días después, la mujer todavía puede controlar un cursor en el ordenador con el pensamiento (pensaba en mover el cursor con la mano), con un porcentaje de éxito superior al 90%.

Por ahora, las tareas que se pueden realizar son muy limitadas y no funciona a la perfección, pero la investigación sigue avanzando y es posible que en pocos años existan sistemas comerciales.

sábado, 19 de febrero de 2011

Una Web que habla

Acabo de leer el artículo A World Wide Web that talks. El artículo habla del proyecto Spoken Web de IBM, que intenta recrear las características y funciones de la Web textual para personas con un nivel de alfabetización y de cultura digital bajo. El público objetivo de este sistema son las personas sin educación de regiones en desarrollo.

Sin embargo, este sistema me ha recordado otro que comenté hace un par de años en la entrada Navegación mediante un teléfono móvil, que tenía características similares, pero que en ese caso estaba destinado a ser usado por personas ciegas o con graves problemas de visión.

viernes, 18 de febrero de 2011

Un programa permite que los ciegos toquen cualquier imagen

El artículo Printed Photos the Blind Can 'See' describe un programa que permite crear una imagen táctil a partir de una fotografía. De esta forma, una persona ciega puede "ver" una imagen. Por ahora el sistema esta desarrollado para fotografías de caras, pero es de esperar que se generalizará para cualquier tipo de imagen.

En la siguiente imagen podemos ver un ejemplo de este sistema: en primer lugar, la fotografía original; en segundo lugar, los trazos principales de la fotografía (los bordes); y en tercer y último lugar,
la impresión en relieve de los trazos principales de la fotografía para que una persona ciega los pueda sentir/ver.


[Actualización 28/02/2011]
Otro artículo que trata el mismo tema: Researchers help blind 'see' Facebook photos.