Buscador

Mostrando entradas con la etiqueta Hardware. Mostrar todas las entradas
Mostrando entradas con la etiqueta Hardware. Mostrar todas las entradas

miércoles, 18 de octubre de 2017

Productos de HIMS

HIMS es una empresa norteamericana especializada en productos de apoyo.

En su catálogo podemos encontrar Smart Beetle, una línea y teclado braille de 14 celdas por $1.345:


BrailleSense Polaris, una línea y teclado braille, que también es anotador, por $5.295:


Y Braille Sense U2 QWERTY, una línea braille con teclado estándar por $5.595:




miércoles, 15 de mayo de 2013

Catorce productos de apoyo para las personas con discapacidad

En la página web 14 tech tools that enhance computing for the disabled se muestran 14 productos o tecnologías de apoyo para las personas con discapacidad.


Algunos sistemas no los conocía, como el SmartNav 4, un ratón controlado con el movimiento de la cabeza; el NoHands Mouse, un ratón que se controla sin manos, con los pies; y Lomak, un teclado y ratón manejado por luz mediante un puntero láser colocado en la cabeza del usuario. El teclado de este sistema es bastante curioso, parece la consola de mando de una nave espacial.


martes, 16 de abril de 2013

EyeTouch, teclado braille para teléfonos móviles

Gracias a un mensaje a través de Twitter me ha llegado la noticia Investigadores de la Universidad Pontificia de Salamanca han desarrollado una aplicación que permite a los ciegos escribir en pantallas táctiles.

En la noticia nos explican que han desarrollado un sistema llamado EyeTouch que incorpora un teclado braille táctil en teléfonos móviles tipo Windows Phone, pero se adaptará en breve a teléfonos iPhone y Android.


Por cierto, esta noticia me ha recordado el sistema BrailleTouch del cual hablé hace unos meses.

lunes, 4 de febrero de 2013

Interfaz táctil para sordociegos

Hace unos días leí el artículo Un nuevo sistema ayuda a los sordociegos a comunicarse en el que me enteré de que en la Universidad Politécnica de Valencia (en concreto en Alcoy) están desarrollando un proyecto llamado TacTIC que es una interfaz táctil para sordociegos. La descripción del proyecto dice:
El principal objetivo del proyecto es desarrollar una forma de comunicación y de acceso a contenidos, tanto a través de Internet como en las actividades de la vida diaria, para personas con sordoceguera.
Para conseguir este objetivo, se pretende diseñar e implementar un dispositivo de estimulación táctil sobre un guante, que supondrá la base física de la solución. Así mismo se actuará tanto a nivel de desarrollo de interfaces entre el dispositivo con el ordenador y las aplicaciones necesarias, como a nivel de comunicaciones para garantizar la ubicuidad, comodidad y libertad de utilización del dispositivo, tanto para el acceso e interacción con los contenidos, como para la comunicación con las personas.
Y en la siguiente fotografías podemos ver algunos de los dispositivos desarrollados:


Este sistema emplea una forma de comunicación que se llama "lenguaje Malossi" y que consiste en que diferentes partes de la mano corresponden a diferentes letras.

Este no es el primer sistema de este tipo que se desarrolla, en Una mano amiga para los sordos y ciegos nos muestran un sistema similar desarrollado en el año 2006 en Italia.

lunes, 24 de diciembre de 2012

Cinco innovaciones que iban a cambiar 2012

Se acaba el año 2012 y es un buen momento para echar una pequeña mirada a las típicas predicciones que se hacen cada año...

El artículo 5 Exciting Innovations That Will Change Computing in 2012, del mes de marzo, presentaba cinco dispositivos de control que se supone que iban (o van) a revolucionar la interacción con el ordenador:

  1. Control con la vista.
  2. Control con gestos.
  3. Control táctil avanzado.
  4. Dispositivo de entrada "que se lleva".
  5. Control por voz.

Lo que más me interesa de estos dispositivos es que mientras que algunos se pueden utilizar como productos de apoyo para ciertas discapacidades, la generalización de algunos de ellos como dispositivo estándar de entrada se puede convertir en una barrera de accesibilidad.

sábado, 22 de diciembre de 2012

Sistema para que niños discapacitados puedan usar tabletas

En la universidad Georgia Tech han desarrollado un sistema "que se lleva" (wearable device) que ayuda a los niños con movilidad reducida que no pueden realizar movimientos complicados y precisos a utilizar la miríada de dispositivos táctiles que nos rodean: Device helps children with disabilities access tablets.


El sistema emplea un conjunto de sensores que traducen los movimiento físicos en gestos precisos que permiten controlar un tableta táctil.


El sistema emplea uno sensores que miden la presión y convierten los cambios de presión en señales eléctricas que se analizan y traducen en gestos para controlar una tableta.

martes, 18 de diciembre de 2012

Una mujer paralítica controla una mano robótica con su pensamiento

Ayer se publicó en el periódico El Mundo la noticia Una mujer paralítica consigue controlar una mano robótica con su pensamiento.

Afortunadamente, esta vez la noticia no dice "por primera vez", como en muchas otras ocasiones que aparecen noticias sobre estos avances. Este tipo de investigación, el control con la mente o el pensamiento de un ordenador, o en este caso, de un robot, ya tiene muchos años.

Si te fijas en la foto que acompaña a la noticia, podrás ver que tiene enchufado "algo" a la cabeza. Según dice la noticia:
Los científicos le implantaron dos microelectrodos en el centro motor del cerebro. Estos fueron conectados a un brazo robótico con una mano y dedos artificiales.
Lo más interesante de esta noticia es lo que dice al final:
El próximo paso será que la mano robótica pueda enviar impulsos sensoriales a las personas, según el informe de 'The Lancet'.
En la noticia publicada en El País, Una mujer tetrapléjica domina un brazo robot de última generación con la mente, se proporciona información más interesante.

Y en la siguiente noticia en inglés, se da mucha más información: Mind-controlled robotic arm has skill and speed of human limb.

martes, 25 de septiembre de 2012

Avances y desafíos en ojos biónicos

Muy interesante el artículo Avances y desafíos en ojos biónicos que publicaron ayer en Microsiervos.

¿Está próximo el día que la gente sustituya sus ojos por ojos biónicos que le ofrezcan mejores prestaciones que sus propios ojos? Ese día está lejano todavía, pero seguro que llegará. Es muy probable que los transplantes de ojos que aparecían en la película "Minority Report" no se lleguen a realizar nunca: llegará un momento que será mucho mejor realizar un transplante de un ojo artificial que un ojo biológico.

Según el artículo, por ahora ya existen ojos artificiales con una resolución de 24x24 píxeles y se está trabajando con resoluciones de hasta 72x72. Sin embargo, existe un problema importante: no se sabe bien cómo conectar los sensores al nervio óptico y traducir la luz que recibe el sensor en señales nerviosas que interprete correctamente el cerebro.

martes, 10 de julio de 2012

Guantes que traducen la lengua de signos en habla

En TechCrunch han publicado una noticia muy interesante: Ukrainian Students Develop Gloves That Translate Sign Language Into Speech (Estudiantes ucranianos desarrollan unos guantes que traducen la lengua de signos en habla). Esta noticia también acaba de aparecer en el periódico El Mundo, Ucrania gana la Imagine Cup con un guante que traduce la lengua de signos en letras.

El proyecto, llamado Enable Talk, ha sido presentado en la Imagine Cup organizada por Microsoft que se está celebrando estos días en Sidney. Los guantes están dotados de sensores flexibles, sensores de tacto, giroscopios y acelerómetros. Los guantes se conectan a un teléfono inteligente (smartphone) mediante Bluetooth. El teléfono, mediante un software text-to-speech, es capaz de convertir los gestos de la lengua de signos en habla.

Según la noticia, el coste de este sistema está sobre los $75, mientras que otros sistemas parecidos cuestan más de $1000. ¿Lo podremos comprar dentro de poco?

A continuación un vídeo en el que se explica el proyecto y se puede ver en funcionamiento:



[Actualización 16/07/2012]
Más información en App that allows deaf people to verbally communicate wins Imagine Cup.

miércoles, 6 de junio de 2012

Tactus Layer, sistema para crear pantallas táctiles dinámicas

Impresionante la tecnología de la compañía Tactus Technology: Tactile Layer es un sistema para crear superficies dinámicas (por ejemplo botones que aparecen o desaparecen) en superficies planas. Este sistema puede superponerse como una película transparente sobre las pantallas táctiles actuales.

No he encontrado ninguna referencia a la accesibilidad en este sitio web (sólo he encontrado una referencia a la "navegación ciega", pero no para ciegos, sino para cualquier persona que quiera teclear sin mirar la pantalla), pero es indudable que se puede aprovechar para mejorar la accesibilidad de muchos dispositivos. Y ya puestos, incluso se podría crear una línea braille utilizando este material, que seguro que sería mucho más barata que las líneas braille actuales que emplean sistemas electromecánicos.

domingo, 3 de junio de 2012

Crean unas gafas que señalan los obstáculos a las personas con discapacidad visual

Interesante proyecto el que podemos leer en Crean unas gafas que señalan los obstáculos a las personas con discapacidad visual. Se trata de un proyecto realizado en la Universidad Carlos III de Madrid por el Grupo de Displays y Aplicaciones Fotónicas.

El proyecto consiste en el desarrollo de sistema integrado en unas gafas de realidad virtual que ayuda a las personas con discapacidad visual moderada a moverse por su entorno, ya que el sistema permite detectar los objetos en movimiento que hay en el entorno del usuario.

Este sistema está destinado a personas con discapacidad visual moderada derivada de problemas en la retina, como gente que tenga disminución en su capacidad visual, principalmente en la visión periférica. Es decir, este sistema no lo puede utilizar una persona totalmente ciega.

A continuación, un vídeo en el que se explica y se muestra cómo funciona este sistema:

martes, 10 de abril de 2012

Control del ordenador con la lengua y Kinect

Kinect es un controlador de juegos desarrollado por Microsoft para su consola Xbox 360. Kinect permite a los usuarios controlar e interactuar con la consola sin necesidad de tener contacto físico con un controlador de videojuegos tradicional, mediante una interfaz natural de usuario que reconoce gestos, comandos de voz, y objetos e imágenes. Fue lanzado al mercado en noviembre de 2010 e inicialmente Microsoft no tenía la idea de proporcionar un kit de desarrollo de software (SDK) para que pudiese ser usado en otras plataformas. Sin embargo, después de las numerosas críticas que recibieron porque mucha gente veía las enormes posibilidades que podía ofrecer (en especial, investigadores), en junio de 2011 Microsoft publicó un kit de desarrollo. Desde entonces, se han desarrollado numerosas aplicaciones basadas en Kinect.

En la noticia Tongue interface using the Kinect nos cuentan que un grupo de investigadores de The University of Electro-Communications en Japón están desarrollando un interfaz hombre-ordenador basado en la detección del movimiento de la lengua con Kinect. En la noticia nos dicen que han desarrollado el sistema para rehabilitación, para el entrenamiento de los músculos de la boca, que incluyen la lengua, para personas que tienen trastornos de la función motora que afectan a su capacidad para hablar o tragar.

Sin embargo, me ha venido a la mente el sistema para controlar el ordenador con la lengua que están desarrollando en el Georgia Institute of Technology. El Kinect se podría usar exactamente para lo mismo, para que personas con movilidad reducida (por ejemplo, tetraplejia) puedan controlar el ordenador con el movimiento de la lengua. Un sistema basado en Kinect ofrecería numerosas ventajas: sería mucho más económico (tecnología que se puede comprar en cualquier tienda) y mucho más higiénico, ya que no requiere ningún tipo de implante en la lengua.

A continuación, un vídeo demostrativo de cómo se utiliza (puede ser gracioso, pero es útil):


lunes, 2 de abril de 2012

Sistema háptico para que las personas ciegas puedan sentir los gráficos

Las imágenes siempre han sido un foco de problemas de accesibilidad en las páginas web. Recordemos que para hacer las imágenes accesibles existen el atributo alt y el atributo longdesc. Pero quizás en un futuro ya no sean necesarios...

Según el artículo Student's idea gives graphic details to visually impaired scientists, en la University of Reading (situada al oeste de Londres en Inglaterra) una estudiante ha desarrollado un sistema que permite a las personas ciegas "sentir y oír un gráfico virtual".

La propuesta se basa en el empleo de un sistema háptico de baso coste, una especie de brazo robot controlado por el ordenador que responde al movimiento y al tacto, que permite sentir la forma de un gráfico.

La tecnología háptica se refiere al conjunto de interfaces tecnológicos que interaccionan con el ser humano mediante el sentido del tacto. En la actualidad, se están desarrollando muchos dispositivos hápticos que se integran en sistemas de realidad virtual.

El sistema está inicialmente pensado para ser usado por los científicos ciegos o con graves problemas de visión que necesiten visualizar grandes volúmenes de datos, pero sin duda alguna también puede ser usado por cualquier tipo de usuario.

Sin duda es un gran avance, ya que en el caso de los gráficos de datos complejos, aunque se proporcione mediante el atributo longdesc una descripción extensa del gráfico o incluso los datos que se han usado para confeccionarlo, no se puede sustituir el valor y el poder que tiene un gráfico para condensar los datos y a la vez permitir descubrir información nueva que puede quedar oculta entre los números.

miércoles, 14 de marzo de 2012

Traductor portátil de la lengua de signos

Según la noticia Technology that translates sign language into text aims to empower sign language user, en la Universidad de Aberdeen (Escocia) han desarrollado un traductor portátil de la lengua de signos llamado Portable Sign Language Translator (PSLT).

La noticia dice que este software es el primero de su tipo a nivel mundial: con este software y con un dispositivo que tenga una cámara de vídeo (por ejemplo, un teléfono móvil moderno, una tableta o una webcam conectada a un ordenador), un usuario que se comunique mediante la lengua de signos se puede comunicar con cualquier persona, ya que el sistema traduce sus signos a texto.

El sistema está en desarrollo, pero promete revolucionar totalmente la comunicación entre personas sordas y no sordas. Según la noticia, el número de personas en el Reino Unido cuya primera lengua es la Lengua Británica de Signos se estima entre 50.000 y 70.000 personas.

Esta noticia me recuerda el proyecto GANAS (Generador de Animaciones para el Lenguaje de Signos) desarrollado en la Universidad de Castilla-La Mancha y que tiene como objetivo justo lo contrario: desarrollar un avatar tridimensional que traduzca un texto a la lengua de signos.

sábado, 10 de marzo de 2012

Uso de tabletas táctiles para ayudar a los estudiantes ciegos a aprender matemáticas

En la Wikipedia podemos encontrar la definición de tecnología háptica:
La tecnología háptica se refiere al conjunto de interfaces tecnológicos que interaccionan con el ser humano mediante el sentido del tacto. Se trata de una tecnología emergente desde los 90 que está evolucionando prometedoramente en algunos campos de aplicación.
Todo aquel que haya jugado alguna vez con una consola moderna, como una PlayStation 2 o una XBox 360, ya ha probado una interfaz háptica: la vibración del mando. En realidad, el modo vibrador de un teléfono móvil también es una interfaz háptica.

Puede parecer sorprendente, pero los teléfonos con pantalla táctil han supuesto una gran revolución para las personas con problemas de visión. El teléfono iPhone destaca entre los demás por su lector de pantallas, VoiceOver, y por su nuevo asistente, Siri.

En el artículo App turns tablet into math aid for visually impaired students nos cuentan que en la Vanderbilt University (Estados Unidos) han desarrollado una aplicación para tabletas basadas en el sistema operativo Android que permite sentir con los dedos figuras geométricas. El objetivo es ayudar a los estudiantes con problemas de visión para que puedan entender mejor los conceptos matemáticos, como la geometría, que tienen un alto componente visual.

En la noticia se comenta que el coste de los dispositivos que se emplea en el proyecto ha disminuido enormemente, lo cual es una gran ventaja para que se difunda su uso y acabe siendo una realidad para miles de usuarios: cuando comenzó el proyecto hace 18 meses se empleaba un modelo industrial que costaba $2,500, mientras que ahora se emplean tabletas domésticas que cuestan $300.

Y a continuación, un vídeo (en inglés) en el que podemos ver una demostración de su uso:



Más información:

miércoles, 7 de marzo de 2012

Mejoras en el sistema para controlar el ordenador con la lengua

El artículo Tongue Drive System Goes Inside the Mouth to Improve Performance and User Comfort nos cuenta que en el Georgia Institute of Technology han desarrollado un sistema para controlar el ordenador u otros dispositivos, como una silla de ruedas, con el movimiento de la lengua. Este tipo de sistema está destinado para personas que han sufrido un gran daño en la médula espinal y que sufren de tetraplejia.

El nuevo sistema que se ha presentado mejora el que previamente existía que consistía en un casco que detectaba el movimiento de un imán que estaba implantado en la lengua del usuario a modo de piercing. El nuevo sistema emplea una especie de protector dental con una serie de detectores, tal como podemos ver en la siguiente imagen.


Este nuevo sistema es más cómodo que el existente, ya que en el sistema antiguo basado en el casco, éste se podía mover y había que realizar un proceso de calibración cada vez que se usaba. Además, al estar los sensores más cerca del imán, se mejora la relación señal-ruido y, por tanto la precisión.

Este sistema presenta una gran ventaja frente a otros sistemas como los de pulsadores o los de inspiración-espiración, ya que permite una mayor variedad de combinaciones.

A continuación un vídeo donde podemos ver el uso del sistema antiguo. Desgraciadamente, según el vídeo, aún se está lejos de poder comercializar este sistema.



Más información:

lunes, 5 de marzo de 2012

Juegos controlados con la vista para niños con discapacidad

La noticia Eye-controlled computer games for disabled children nos cuenta que el Centre for Computational Intelligence de la De Montfort University, una universidad situada en Leicester (Reino Unido), están empleando sistemas de eye tracking (seguimiento del ojo) para que niños con movilidad limitada puedan jugar con videojuegos. Además, el sistema también les permite moverse por entornos virtuales y, por qué no, por entornos reales.

Según dice la noticia, el sistema que están desarrollando es de bajo coste. En el siguiente vídeo se puede ver una demostración de uso de este sistema. En el vídeo aparece el proceso de calibración (acelerado) que requieren los sistemas de eye tracking.



Más información:

jueves, 23 de febrero de 2012

Recopilación de entradas sobre el control mental del ordenador

Ayer tuve una reunión con un grupo que hemos formado para plantear proyectos relacionados con la mejora de la calidad de vida de las personas mayores. Uno de los temas que estamos contemplando es la inclusión de los grandes dependientes y una de las posibilidades que nos hemos planteado es la aplicación de algún sistema de control mental para que puedan utilizar el ordenador.

El control mental (mind control en inglés) es la posibilidad de controlar un dispositivo simplemente con el pensamiento. Para ello se emplean interfaces cerebro-ordenador (brain-computer interfaces).

En el siguiente vídeo podemos ver un ejemplo de control mental de un brazo robótico por parte de una persona que ha perdido un brazo: no es exactamente un control mental completo, ya que este tipo de control mental se aprovecha de los nervios que controlaban el movimiento del brazo que perdió.



El control mental completo es el que podemos ver en el siguiente vídeo en el que un mono controla con su pensamiento un brazo robótico. Aunque no se puede ver, pero se puede intuir, el mono tiene un implante dentro de su cerebro al cual se conectan unos cables que transmiten sus señales eléctricas cerebrales a un ordenador que las procesa. Este sistema es invasivo, porque requiere de una cirugía cerebral que entraña grandes riesgos. Comercialmente, estos sistemas no tienen mucho futuro. Pero son el primer paso.



En la actualidad, lo que se intenta desarrollar es un sistema no invasivo, a modo de casco que se pueda quitar o poner el usuario en cualquier momento. Por ahora, los sistemas no invasivos obtienen peores resultados que los sistemas invasivos (los sensores captan mucho "ruido cerebral"), pero todo es cuestión de tiempo.

Ya existe algún sistema comercial que se puede comprar "en la tienda", como el sistema Emotiv Epoc. El precio de venta actual son $299, lo cual es una ganga si realmente se puede hacer lo que promete (que lo dudo). En el siguiente vídeo nos lo explican y nos lo muestran en funcionamiento.



El objetivo final de todo esto es poder utilizar el ordenador con la mente en vez de con el teclado y el ratón. Del avance más prometedor me hice eco el año pasado en la entrada Otros que se apuntan al control mental del ordenador (05/06/2011). En la Universidad Ben-Gurion de Negev, han logrado que una persona pueda escribir un correo electrónico de 12 caracteres en 7 minutos, pero después de que la persona haya recibido un entrenamiento específico para ello.

En estos últimos años he escrito varias entradas sobre este tema. Todas ellas se encuentran disponibles en la etiqueta control mental, pero a continuación resumo algunas de las más importantes:

Universidades españolas


Universidades extranjeras que investigan en control mental

Productos comerciales



miércoles, 22 de febrero de 2012

BrailleTouch para iPhone e iPad

El artículo Georgia Tech Develops Braille-Like Texting App presenta un prototipo de aplicación gratuita para móvil con pantalla táctil que permite convertirlo en un teclado braille. Por ahora se trata de un prototipo para iPhone y iPad, pero ya están trabajando también en la versión para Android.

Un teclado braille es un dispositivo de entrada que permite representar cualquier carácter mediante la pulsación simultánea de unas pocas teclas, lo que permite alcanzar una gran velocidad de escritura. Los teclados braille suelen poseer 6 u 8 teclas principales, más una serie de teclas auxiliares. En el caso de BrailleTouch, el teclado es la pantalla táctil del móvil y está compuesta por 6 teclas que pueden pulsarse simultáneamente.

En principio, parece que lo han desarrollado para todo el público, no sólo para los usuarios ciegos, pero los usuarios ciegos se pueden beneficiar enormemente ya que un iPhone con este software puede sustituir a aparatos más caros y pesados como el PAC Mate Omni.

Un vídeo donde se explica su uso y se hace una demostración (incluye subtítulos en inglés que se pueden traducir automáticamente al castellano):


martes, 20 de diciembre de 2011

Los interfaces cerebro-máquina disponibles en cinco años

Varias veces he hecho referencia al control del ordenador (u otros dispositivos) con la mente. Por ejemplo:
Los interfaces cerebro-máquina (en inglés Brain-Computer Interfaces, BCI), son sistemas de comunicación que permiten transmitir al ordenador instrucciones simplemente con el pensamiento. Como es de imaginar, para muchos usuarios con discapacidad, el empleo de estos sistemas supondrá una mejora considerable de su calidad de vida.

Por ahora son un poco "ciencia ficción": son lentos, necesitan un período de entranamiento bastante largo para que aprendan a interpretar los pensamientos de los usuarios y el porcentaje de acierto no está muy cerca del 100%.

Sin embargo, todo es cuestión de tiempo. ¿Cuánto? 5 años, o al menos eso es lo que predice IBM y podemos leer comentado en el artículo El futuro, de cinco en cinco:
3. Lectura de la mente. Es la que más me cuesta aceptar porque por ahora todos los sistemas que he probado en esta línea de investigación son bastante poco fiables pero según IBM en los próximos años avanzaremos considerablemente en los interfaces cerebro-máquina, permitiendo manejar dispositivos tan sólo pensando en las acciones que deben realizar.
[Actualización 21/12/2011]
El artículo original de IBM, con algunos vídeos y extensas explicaciones: The IBM 5 in 5: Our Forecast of Five Innovations That Will Alter the Tech Landscape Within Five Years.