Buscador

Mostrando entradas con la etiqueta Ayudas técnicas. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ayudas técnicas. Mostrar todas las entradas

sábado, 2 de junio de 2012

Artículo sobre t-learning para personas con discapacidad

En el último número de la Revista Iberoamericana de Tecnologías del Aprendizaje (IEEE-RITA), volumen 7, número 2 de mayo de 2012, se ha publicado el artículo "T-Learning para Personas con Discapacidad", que se puede descargar de forma gratuita.

En el artículo se describe la adaptación de una plataforma de aprendizaje en línea (e-learning) para que ajuste a las necesidades de personas con discapacidad. No se ha buscado desarrollar nuevas herramientas, por lo que en el proyecto se ha optado por proporcionar un nuevo enfoque a los medios y herramientas ya existentes.

Por ejemplo, en vez de desarrollar un Learning Management System (LMS) propio que sea accesible, se ha optado por adaptar Moodle, ya que es uno de los más populares. Por otro lado, a la vista de los hábitos y comportamientos de las personas con discapacidad analizadas en el estudio, se ha optado por utilizar la televisión como elemento tecnológico de acceso a un sistema de aprendizaje electrónico para personas con discapacidad. Debido a este uso de la televisión surge el término t-learning que aparece en el título del artículo.

El sistema desarrollado es muy interesante, ya que permite la interacción del usuario con diferentes dispositivos, como el mando WiiMote de Nintendo:


o el sistema Kinect de Microsoft:


lunes, 28 de mayo de 2012

El bolígrafo vibrador de Apple (y no va de sexo)

Seguro que más de uno llegará a esta entrada por haber buscado las palabras vibrador y sexo, y si encima ve la palabra Apple, entonces pensará que es la leche, que es el invento del siglo en cuanto a diversión sexual, pero no, desgraciadamente no va de eso. Quizás la próxima vez toque hablar de eso...

Acabo de leer la noticia What Apple's Vibrating Pen Tells Us About the Future of Everything. Según nos cuentan, Apple ha presentado una solicitud de patente para su iPen, un bolígrafo vibrado y sonoro que Apple piensa hacer compatible con todos sus dispositivos táctiles (iPhone, iPad y lo que venga después).

La tecnología háptica se refiere al conjunto de interfaces tecnológicos que interaccionan con el ser humano mediante el sentido del tacto. En la actualidad, se están desarrollando muchos dispositivos hápticos que se integran en sistemas de realidad virtual.

El vibrador que incorporan la mayoría de los teléfonos móviles es un sistema primitivo de sistema háptico. El iPhone con iOS 5 incorpora un sistema mucho más avanzado, que casi nadie conoce, Custom Vibrations, que permite al usuario crear sus propios patrones de vibraciones. Puede parecer inútil, pero es una buena forma de saber quién te llama cuando tienes el teléfono en modo silencioso sin tener que mirar la pantalla del teléfono.

Volviendo al bolígrafo vibrador y con altavoz (sí, también lleva un pequeño altavoz), las aplicaciones de cara a la accesibilidad web son múltiples y, por ejemplo, se puede emplear en la educación de personas ciegas. Por ejemplo, el bolígrafo puede vibrar en función del color o de la textura de lo que se esté mostrando en la pantalla del dispositivo.

martes, 10 de abril de 2012

Control del ordenador con la lengua y Kinect

Kinect es un controlador de juegos desarrollado por Microsoft para su consola Xbox 360. Kinect permite a los usuarios controlar e interactuar con la consola sin necesidad de tener contacto físico con un controlador de videojuegos tradicional, mediante una interfaz natural de usuario que reconoce gestos, comandos de voz, y objetos e imágenes. Fue lanzado al mercado en noviembre de 2010 e inicialmente Microsoft no tenía la idea de proporcionar un kit de desarrollo de software (SDK) para que pudiese ser usado en otras plataformas. Sin embargo, después de las numerosas críticas que recibieron porque mucha gente veía las enormes posibilidades que podía ofrecer (en especial, investigadores), en junio de 2011 Microsoft publicó un kit de desarrollo. Desde entonces, se han desarrollado numerosas aplicaciones basadas en Kinect.

En la noticia Tongue interface using the Kinect nos cuentan que un grupo de investigadores de The University of Electro-Communications en Japón están desarrollando un interfaz hombre-ordenador basado en la detección del movimiento de la lengua con Kinect. En la noticia nos dicen que han desarrollado el sistema para rehabilitación, para el entrenamiento de los músculos de la boca, que incluyen la lengua, para personas que tienen trastornos de la función motora que afectan a su capacidad para hablar o tragar.

Sin embargo, me ha venido a la mente el sistema para controlar el ordenador con la lengua que están desarrollando en el Georgia Institute of Technology. El Kinect se podría usar exactamente para lo mismo, para que personas con movilidad reducida (por ejemplo, tetraplejia) puedan controlar el ordenador con el movimiento de la lengua. Un sistema basado en Kinect ofrecería numerosas ventajas: sería mucho más económico (tecnología que se puede comprar en cualquier tienda) y mucho más higiénico, ya que no requiere ningún tipo de implante en la lengua.

A continuación, un vídeo demostrativo de cómo se utiliza (puede ser gracioso, pero es útil):


lunes, 2 de abril de 2012

Sistema háptico para que las personas ciegas puedan sentir los gráficos

Las imágenes siempre han sido un foco de problemas de accesibilidad en las páginas web. Recordemos que para hacer las imágenes accesibles existen el atributo alt y el atributo longdesc. Pero quizás en un futuro ya no sean necesarios...

Según el artículo Student's idea gives graphic details to visually impaired scientists, en la University of Reading (situada al oeste de Londres en Inglaterra) una estudiante ha desarrollado un sistema que permite a las personas ciegas "sentir y oír un gráfico virtual".

La propuesta se basa en el empleo de un sistema háptico de baso coste, una especie de brazo robot controlado por el ordenador que responde al movimiento y al tacto, que permite sentir la forma de un gráfico.

La tecnología háptica se refiere al conjunto de interfaces tecnológicos que interaccionan con el ser humano mediante el sentido del tacto. En la actualidad, se están desarrollando muchos dispositivos hápticos que se integran en sistemas de realidad virtual.

El sistema está inicialmente pensado para ser usado por los científicos ciegos o con graves problemas de visión que necesiten visualizar grandes volúmenes de datos, pero sin duda alguna también puede ser usado por cualquier tipo de usuario.

Sin duda es un gran avance, ya que en el caso de los gráficos de datos complejos, aunque se proporcione mediante el atributo longdesc una descripción extensa del gráfico o incluso los datos que se han usado para confeccionarlo, no se puede sustituir el valor y el poder que tiene un gráfico para condensar los datos y a la vez permitir descubrir información nueva que puede quedar oculta entre los números.

martes, 20 de marzo de 2012

Indra Tecnologías Accesibles

Indra, la multinacional española de tecnologías de la información y la comunicación, mantiene el sitio web Indra Tecnologías Accesibles en el que difunde su participación en diferentes proyectos que tienen como objetivo desarrollar tecnologías accesibles para todos los usuarios.

Entre los proyectos que desarrolla, destacan:

  • HeadMouse, un ratón que se mueve con el movimiento de la cabeza y que sustituye al ratón convencional. Está pensado para personas con movilidad reducida o que no puedan utilizar un ratón convencional.
  • VirtualKeyboard, un teclado virtual en pantalla pensado para personas con movilidad reducida o con problemas en la utilización de teclados convencionales.
  • Ganas, un intérprete virtual que convierte un texto en lengua de signos español para personas con discapacidad auditiva.

También destacan los proyectos REM (Relative Eye Mouse Device) y DIUWA 2.0 (Diseño de Interfaces de Usuario Web 2.0 accesibles), pero la información proporcionada no es muy útil.

Desgraciadamente, este sitio web tiene algunos problemas de accesibilidad. Ya se sabe, en casa del herrero, cuchara de palo. Por ejemplo, en la página Innovación como herramienta de integración podemos encontrar la siguiente imagen:


Desgraciadamente, esta imagen en la que aparecen diferentes mensajes (Tecnología, Educación Accesible, Accesibilidad) y diferentes entidades con las que parece que colabora Indra (Universidad de Lleida, Universidad Politécnica de Madrid, Universidad de Castilla-La Mancha) sólo tiene como texto alternativo "La innovación nos une".

miércoles, 14 de marzo de 2012

Traductor portátil de la lengua de signos

Según la noticia Technology that translates sign language into text aims to empower sign language user, en la Universidad de Aberdeen (Escocia) han desarrollado un traductor portátil de la lengua de signos llamado Portable Sign Language Translator (PSLT).

La noticia dice que este software es el primero de su tipo a nivel mundial: con este software y con un dispositivo que tenga una cámara de vídeo (por ejemplo, un teléfono móvil moderno, una tableta o una webcam conectada a un ordenador), un usuario que se comunique mediante la lengua de signos se puede comunicar con cualquier persona, ya que el sistema traduce sus signos a texto.

El sistema está en desarrollo, pero promete revolucionar totalmente la comunicación entre personas sordas y no sordas. Según la noticia, el número de personas en el Reino Unido cuya primera lengua es la Lengua Británica de Signos se estima entre 50.000 y 70.000 personas.

Esta noticia me recuerda el proyecto GANAS (Generador de Animaciones para el Lenguaje de Signos) desarrollado en la Universidad de Castilla-La Mancha y que tiene como objetivo justo lo contrario: desarrollar un avatar tridimensional que traduzca un texto a la lengua de signos.

sábado, 10 de marzo de 2012

Uso de tabletas táctiles para ayudar a los estudiantes ciegos a aprender matemáticas

En la Wikipedia podemos encontrar la definición de tecnología háptica:
La tecnología háptica se refiere al conjunto de interfaces tecnológicos que interaccionan con el ser humano mediante el sentido del tacto. Se trata de una tecnología emergente desde los 90 que está evolucionando prometedoramente en algunos campos de aplicación.
Todo aquel que haya jugado alguna vez con una consola moderna, como una PlayStation 2 o una XBox 360, ya ha probado una interfaz háptica: la vibración del mando. En realidad, el modo vibrador de un teléfono móvil también es una interfaz háptica.

Puede parecer sorprendente, pero los teléfonos con pantalla táctil han supuesto una gran revolución para las personas con problemas de visión. El teléfono iPhone destaca entre los demás por su lector de pantallas, VoiceOver, y por su nuevo asistente, Siri.

En el artículo App turns tablet into math aid for visually impaired students nos cuentan que en la Vanderbilt University (Estados Unidos) han desarrollado una aplicación para tabletas basadas en el sistema operativo Android que permite sentir con los dedos figuras geométricas. El objetivo es ayudar a los estudiantes con problemas de visión para que puedan entender mejor los conceptos matemáticos, como la geometría, que tienen un alto componente visual.

En la noticia se comenta que el coste de los dispositivos que se emplea en el proyecto ha disminuido enormemente, lo cual es una gran ventaja para que se difunda su uso y acabe siendo una realidad para miles de usuarios: cuando comenzó el proyecto hace 18 meses se empleaba un modelo industrial que costaba $2,500, mientras que ahora se emplean tabletas domésticas que cuestan $300.

Y a continuación, un vídeo (en inglés) en el que podemos ver una demostración de su uso:



Más información:

miércoles, 7 de marzo de 2012

Mejoras en el sistema para controlar el ordenador con la lengua

El artículo Tongue Drive System Goes Inside the Mouth to Improve Performance and User Comfort nos cuenta que en el Georgia Institute of Technology han desarrollado un sistema para controlar el ordenador u otros dispositivos, como una silla de ruedas, con el movimiento de la lengua. Este tipo de sistema está destinado para personas que han sufrido un gran daño en la médula espinal y que sufren de tetraplejia.

El nuevo sistema que se ha presentado mejora el que previamente existía que consistía en un casco que detectaba el movimiento de un imán que estaba implantado en la lengua del usuario a modo de piercing. El nuevo sistema emplea una especie de protector dental con una serie de detectores, tal como podemos ver en la siguiente imagen.


Este nuevo sistema es más cómodo que el existente, ya que en el sistema antiguo basado en el casco, éste se podía mover y había que realizar un proceso de calibración cada vez que se usaba. Además, al estar los sensores más cerca del imán, se mejora la relación señal-ruido y, por tanto la precisión.

Este sistema presenta una gran ventaja frente a otros sistemas como los de pulsadores o los de inspiración-espiración, ya que permite una mayor variedad de combinaciones.

A continuación un vídeo donde podemos ver el uso del sistema antiguo. Desgraciadamente, según el vídeo, aún se está lejos de poder comercializar este sistema.



Más información:

lunes, 5 de marzo de 2012

Juegos controlados con la vista para niños con discapacidad

La noticia Eye-controlled computer games for disabled children nos cuenta que el Centre for Computational Intelligence de la De Montfort University, una universidad situada en Leicester (Reino Unido), están empleando sistemas de eye tracking (seguimiento del ojo) para que niños con movilidad limitada puedan jugar con videojuegos. Además, el sistema también les permite moverse por entornos virtuales y, por qué no, por entornos reales.

Según dice la noticia, el sistema que están desarrollando es de bajo coste. En el siguiente vídeo se puede ver una demostración de uso de este sistema. En el vídeo aparece el proceso de calibración (acelerado) que requieren los sistemas de eye tracking.



Más información:

jueves, 23 de febrero de 2012

Recopilación de entradas sobre el control mental del ordenador

Ayer tuve una reunión con un grupo que hemos formado para plantear proyectos relacionados con la mejora de la calidad de vida de las personas mayores. Uno de los temas que estamos contemplando es la inclusión de los grandes dependientes y una de las posibilidades que nos hemos planteado es la aplicación de algún sistema de control mental para que puedan utilizar el ordenador.

El control mental (mind control en inglés) es la posibilidad de controlar un dispositivo simplemente con el pensamiento. Para ello se emplean interfaces cerebro-ordenador (brain-computer interfaces).

En el siguiente vídeo podemos ver un ejemplo de control mental de un brazo robótico por parte de una persona que ha perdido un brazo: no es exactamente un control mental completo, ya que este tipo de control mental se aprovecha de los nervios que controlaban el movimiento del brazo que perdió.



El control mental completo es el que podemos ver en el siguiente vídeo en el que un mono controla con su pensamiento un brazo robótico. Aunque no se puede ver, pero se puede intuir, el mono tiene un implante dentro de su cerebro al cual se conectan unos cables que transmiten sus señales eléctricas cerebrales a un ordenador que las procesa. Este sistema es invasivo, porque requiere de una cirugía cerebral que entraña grandes riesgos. Comercialmente, estos sistemas no tienen mucho futuro. Pero son el primer paso.



En la actualidad, lo que se intenta desarrollar es un sistema no invasivo, a modo de casco que se pueda quitar o poner el usuario en cualquier momento. Por ahora, los sistemas no invasivos obtienen peores resultados que los sistemas invasivos (los sensores captan mucho "ruido cerebral"), pero todo es cuestión de tiempo.

Ya existe algún sistema comercial que se puede comprar "en la tienda", como el sistema Emotiv Epoc. El precio de venta actual son $299, lo cual es una ganga si realmente se puede hacer lo que promete (que lo dudo). En el siguiente vídeo nos lo explican y nos lo muestran en funcionamiento.



El objetivo final de todo esto es poder utilizar el ordenador con la mente en vez de con el teclado y el ratón. Del avance más prometedor me hice eco el año pasado en la entrada Otros que se apuntan al control mental del ordenador (05/06/2011). En la Universidad Ben-Gurion de Negev, han logrado que una persona pueda escribir un correo electrónico de 12 caracteres en 7 minutos, pero después de que la persona haya recibido un entrenamiento específico para ello.

En estos últimos años he escrito varias entradas sobre este tema. Todas ellas se encuentran disponibles en la etiqueta control mental, pero a continuación resumo algunas de las más importantes:

Universidades españolas


Universidades extranjeras que investigan en control mental

Productos comerciales



miércoles, 22 de febrero de 2012

BrailleTouch para iPhone e iPad

El artículo Georgia Tech Develops Braille-Like Texting App presenta un prototipo de aplicación gratuita para móvil con pantalla táctil que permite convertirlo en un teclado braille. Por ahora se trata de un prototipo para iPhone y iPad, pero ya están trabajando también en la versión para Android.

Un teclado braille es un dispositivo de entrada que permite representar cualquier carácter mediante la pulsación simultánea de unas pocas teclas, lo que permite alcanzar una gran velocidad de escritura. Los teclados braille suelen poseer 6 u 8 teclas principales, más una serie de teclas auxiliares. En el caso de BrailleTouch, el teclado es la pantalla táctil del móvil y está compuesta por 6 teclas que pueden pulsarse simultáneamente.

En principio, parece que lo han desarrollado para todo el público, no sólo para los usuarios ciegos, pero los usuarios ciegos se pueden beneficiar enormemente ya que un iPhone con este software puede sustituir a aparatos más caros y pesados como el PAC Mate Omni.

Un vídeo donde se explica su uso y se hace una demostración (incluye subtítulos en inglés que se pueden traducir automáticamente al castellano):


jueves, 26 de enero de 2012

Simplext, sistema automático de simplificación de textos

Hace unos años escribí la entrada Simplificar los textos. Esa entrada la escribí cuando descubrí que las personas sordas de nacimiento tienen problemas para comprender los textos escritos complejos, ya que sus esquemas mentales y su forma de entender el idioma es distinta. Por eso hay algunos sitios web que ofrecen explicaciones mediante vídeos con la lengua de signos. Pero no solamente las personas sordas se benefician de la simplificación de los textos: las personas con problemas cognitivos o de aprendizaje y las personas extranjeras que no tengan un gran conocimiento del idioma que se emplea también se benefician.

La Pauta 14 Asegúrese de que los documentos sean claros y simples de WCAG 1.0 nos indica que hay que emplear un lenguaje claro y sencillo porque algunos usuarios con discapacidades cognitivas o de aprendizaje pueden tener problemas para entender textos largos y complejos.

La Pauta 3.1 Legible: Hacer que los contenidos textuales resulten legibles y comprensibles de WCAG 2.0 nos indica que hay que evitar las palabras inusuales, hay que proporcionar mecanismos para identificar y expandier las abreviaturas y hay que escribir textos con un nivel de lectura adecuado.

Acabo de encontrar Simplext, un proyecto español que tiene como objetivo desarrollar un sistema automático de simplificación de textos. Según pone en la página web del proyecto:
Simplext favorece la inclusión tecnológica de personas con capacidades cognitivas limitadas a través de la simplificación automática de contenidos utilizando el paradigma de la fácil lectura.
En el proyecto Simplext aúna los esfuerzos de dos campos de investigación bien definidos, como son el procesamiento computacional del lenguaje natural y la investigación lingüística en la simplificación, así como las tendencias tecnológicas en accesibilidad para la obtención de un producto de apoyo ubicuo e interoperable.
El proyecto está liderado por Technosite, empresa tecnológica de Grupo Fundosa y dependiente de Fundación ONCE. Technosite es muy conocida en el mundo de la accesibilidad web, entre otras cosas, porque auditan y certifican la accesibilidad web.

lunes, 23 de enero de 2012

Programa Social Inclusite

Hace unos meses escribí sobre Inclusite, un sistema desarrollado por una empresa española radicada en Valencia que permite dotar a un sitio web de interfaces accesibles que se adaptan a las necesidades de diferentes usuarios. La principal ventaja de este sistema es que se puede emplear desde cualquier ordenador sin tener que instalar ningún tipo de software adicional.

Ahora me ha llegado la noticia de que han puesto en marcha el Programa Social Inclusite. En este programa participan dos tipos de organizaciones: las organizaciones donantes o colaboradoras y las organizaciones beneficiarias.

Las organizaciones donantes, que son las que contratan alguno de los servicios de Inclusite, podrán seleccionar, si así lo desean,  la entidad a la que quieren destinar la donación, que disfrutarán del servicio de Inclusite de forma totalmente gratuita.

Para ser una organización beneficiaria, se debe ser una organización sin ánimo de lucro, de tamaño moderado y tener una web que cumpla determinados requisitos.

Una idea interesante, esperemos que funcione y muchos sitios web se beneficien de ella.

jueves, 5 de enero de 2012

Dónde comprar productos de apoyo en España

Hoy he recibido un correo electrónico con la siguiente pregunta:

El motivo de enviarle este correo es el siguiente: mi padre padece degeneración macular en ambos ojos y llevamos tiempo buscando un teclado especial que le pueda ayudar a manejar algo mejor el ordenador.
A través de internet hemos visto en su web el  teclado de la empresa VISIKEY que pensamos le podría servir.
Nos gustaría nos informara de la posibilidad de adquirir uno de estos teclados.
El correo hace referencia a un teclado con las teclas sobredimensionadas y de alto contraste que aparece en el apartado de productos de apoyo de mi sitio sobre accesibilidad web.


Recordemos que las ayudas técnicas, tecnologías de apoyo o productos de apoyo (que es el nombre "correcto" según la Norma UNE-EN ISO 9999:2007: Productos de apoyo para personas con discapacidad. Clasificación y terminología) son "cualquier producto, instrumento, equipo o sistema técnico utilizado por una persona minusválida, fabricado especialmente o disponible en el mercado para prevenir, compensar, mitigar o neutralizar la deficiencia, incapacidad o discapacidad". Esta definición incluye tanto productos hardware como software.

En España, el Centro de Referencia Estatal de Autonomía Personal y Ayudas Técnicas (CEAPAT) ofrece el Catálogo de Productos de Apoyo, en el que se puede encontrar información sobre todo tipo de productos de apoyo (no solamente relacionados con el uso del ordenador), con información sobre los fabricantes y vendedores. Según dicen, ofrecen "el catálogo de productos de apoyo más completo con 2.994 productos y 588 empresas".

En este catálogo, en las categorías:

  • Productos de apoyo para la comunicación y la información
  • Dispositivos de entrada para ordenadores
  • Teclados
Podemos encontrar algunos teclados con las teclas de gran tamaño. Algunos de los fabricantes que los ofrecen son:


martes, 20 de diciembre de 2011

Los interfaces cerebro-máquina disponibles en cinco años

Varias veces he hecho referencia al control del ordenador (u otros dispositivos) con la mente. Por ejemplo:
Los interfaces cerebro-máquina (en inglés Brain-Computer Interfaces, BCI), son sistemas de comunicación que permiten transmitir al ordenador instrucciones simplemente con el pensamiento. Como es de imaginar, para muchos usuarios con discapacidad, el empleo de estos sistemas supondrá una mejora considerable de su calidad de vida.

Por ahora son un poco "ciencia ficción": son lentos, necesitan un período de entranamiento bastante largo para que aprendan a interpretar los pensamientos de los usuarios y el porcentaje de acierto no está muy cerca del 100%.

Sin embargo, todo es cuestión de tiempo. ¿Cuánto? 5 años, o al menos eso es lo que predice IBM y podemos leer comentado en el artículo El futuro, de cinco en cinco:
3. Lectura de la mente. Es la que más me cuesta aceptar porque por ahora todos los sistemas que he probado en esta línea de investigación son bastante poco fiables pero según IBM en los próximos años avanzaremos considerablemente en los interfaces cerebro-máquina, permitiendo manejar dispositivos tan sólo pensando en las acciones que deben realizar.
[Actualización 21/12/2011]
El artículo original de IBM, con algunos vídeos y extensas explicaciones: The IBM 5 in 5: Our Forecast of Five Innovations That Will Alter the Tech Landscape Within Five Years.

miércoles, 14 de diciembre de 2011

TecnoAccesible

TecnoAccesible es un portal de información sobre tecnologías de apoyo (ayudas técnicas), accesibilidad de los productos tecnológicos de consumo y sobre herramientas informáticas de accesibilidad web. Además, publica noticias e información sobre las tecnologías de la información y la comunicación (TIC) aplicables a la diversidad funcional de las personas.

TecnoAccesible ofrece un extenso catálogo sobre tecnologías de apoyo: dispositivos apuntadores, pulsadores, teclados, etc.

martes, 13 de diciembre de 2011

Ratón facial eViacam

Enable Viacam (eViacam) es un programa de ordenador que sustituye la funcionalidad del ratón permitiendo mover el puntero a partir del movimiento de la cabeza. Funciona en un ordenador PC equipado con una cámara web, sin elementos adicionales. Está disponible para Linux y para Microsoft Windows (2000/XP/Vista/7). eViacam se proporciona de forma gratuita bajo licencia GNU/GPL.

Las instrucciones de uso dicen:

Primero hace falta haber instalado y configurar correctamente la cámara web. Es muy importante configurar la cámara en modo de exposición manual y ajustar este parámetro por obtener 25 fps o más de velocidad de captura. La mayoría de cámaras modernas proporcionan hasta 30 fps. Consulte el manual de la cámara en caso necesario.
Una vez instalado ejecute evicam (evicam.exe para Windows). El programa debe abrirse, detectar automáticamente la cámara y mostrar la imagen en tiempo real.
Sitúe la cámara por obtener una imagen frontal de su rostro. La anchura de este, a la imagen, debe ser aproximadamente un tercio de la anchura del cuadro. Hace falta centrar el rectángulo de seguimiento (azulado) alrededor de su rostro moviendo la cámara o desplazando el cuadro con el ratón (clic en la esquina).
Active la opción por iniciar la función de control desde el menú Archivo. Pruebe a mover la cabeza y observe el resultado. Puede ajustar la sensibilidad (velocidad ejes X e Y) a través del diálogo de configuración. Debe poder hacer llegar el puntero a cualquier lugar de la pantalla.
Para hacer clic sólo hace falta parar el puntero sobre la localización deseada. En unos instantes se generará un clic de forma automática (este tiempo de espera se puede ajustar desde el diálogo de configuración). Utilice la ventana encastada de la parte superior para escoger entre los diferentes tipos de clic.

miércoles, 30 de noviembre de 2011

MaGUI, un magnificador de pantalla hecho en España

Elena Ballesteros, alumna del Máster en Interacción Persona - Ordenador de la Universidad de Lleida ha desarrollado un magnífico trabajo final de máster: un magnificador de pantalla.

Por un lado, nos ofrece una versión del magnificador gratuito y de código abierto MaGUI, que trabaja con las últimas versiones de Windows. Según su autora:

MaGUI es un desarrollo basado en código abierto, para el que cualquier ayuda es bienvenida, así que si como profesional o usuario te interesa colaborar y participar, no lo dudes, toda la ayuda es bienvenida.
Por otro lado, hace un tiempo realizó una encuesta sobre el uso de los magnificadores de pantalla. Los resultados de esta encuesta forman parte de la memoria del Trabajo Final de Máster.

Además, la autora también propone la estandarización de la configuración en los magnificadores de pantalla, ya que puede crear dificultades entre sus potenciales usuarios.

¡Enhorabuena!

lunes, 28 de noviembre de 2011

La accesibilidad de los teléfonos móviles con pantalla táctil

¿Un usuario con problemas de visión graves o ceguera total puede utilizar un teléfono móvil con pantalla táctil? Sí, no hay ningún problema en ello, siempre que las aplicaciones nativas o las páginas web que visite estén correctamente realizadas y proporcionen características de accesibilidad.

Por ejemplo, el sistema operativo iOS de Apple proporciona numerosas características de accesibilidad, por lo que sus teléfonos iPhone o sus tabletas iPad pueden ser utilizadas por una persona ciega, como podemos ver en los siguientes vídeos:
Las últimas versiones del sistema operativo Android también son accesibles. En la última versión, Android 4.0, se han mejorado bastante las características de accesibilidad. En el canal de Youtube de Google Nexus se pueden visualizar varios vídeos en los que se explican cómo funcionan las características de accesibilidad. Por ejemplo, el vídeo Android 4.0 Accessibilty: Turning on Accessibility explica cómo una persona ciega puede activar las características de accesibilidad desde el principio, nada más encender el dispositivo, algo muy importante, ya que no tiene mucho sentido ofrecer un sistema accesible que para porderlo activar sea necesaria la ayuda de otra persona.

martes, 22 de noviembre de 2011

Comparativa de navegadores, sistemas operativos y lectores de pantalla

El artículo Rough Guide: browsers, operating systems and screen reader support proporciona una comparativa de soporte de los principales navegadores, sistemas operativos y lectores de pantalla.

De este estudio no se pueden sacar muchas conclusiones, ya que hay navegadores que no están disponibles para todos los sistemas operativos. Pero si se tiene claro qué sistema operativo se va a utilizar, esta comparativa sí que ayuda a seleccionar el navegador más adecuado para trabajar con un lector de pantallas. Por ejemplo, en Windows se pueden emplear Mozilla Firefox y Microsoft Internet Explorer con el lector de pantallas JAWS, mientras que en Mac OS X el navegador Safari es el único compatible con el lector de pantallas VoiceOver.