Buscador

Mostrando entradas con la etiqueta Hardware. Mostrar todas las entradas
Mostrando entradas con la etiqueta Hardware. Mostrar todas las entradas

lunes, 14 de noviembre de 2011

Ayudas técnicas y tecnologías de apoyo

La Norma UNE 139802:2003 Aplicaciones informáticas para personas con discapacidad. Requisitos de accesibilidad al ordenador. Software define el concepto de ayuda técnica:
Cualquier producto, instrumento, equipo o sistema técnico utilizado por una persona minusválida, fabricado especialmente o disponible en el mercado para prevenir, compensar, mitigar o neutralizar la deficiencia, incapacidad o discapacidad. (UNE-EN ISO 9999). Incluye tanto productos hardware como software.
Posteriormente, la Norma UNE-EN ISO 9999:2007:Productos de apoyo para personas con discapacidad. Clasificación y terminología (ISO 9999:2007) establece que ya no se debe llamar ayuda técnica, sino producto de apoyo:
Cualquier producto (incluyendo dispositivos, equipo, instrumento, tecnología y software) fabricado especialmente o disponible en el mercado, para prevenir, compensar, controlar, mitigar o neutralizar deficiencias, limitaciones en la actividad y restricciones en la participación.

NOTA: En esta edición el término "Productos de apoyo" reemplaza al término "Ayudas técnicas" usado en ediciones anteriores.
Acabo de encontrar la página web de la empresa EnableMart que ofrece un catálogo de productos de apoyo. Desgraciadamente, no parece que comercialice sus productos en España o en Europa, sólo en Estados Unidos.


miércoles, 9 de noviembre de 2011

El futuro de los interfaces de usuario

Me acaba de llegar el artículo The Future of Human Computer Interfaces que muestra 10 prototipos o ideas  que están desarrollando en el MIT Media Lab. Desgraciadamente, todos ellos me parecen muy visuales, muy gestuales, y con problemas de accesibilidad para diferentes grupos de usuarios. No he visto ningún dispositivo que ayude claramente a mejorar la accesibilidad.

martes, 25 de octubre de 2011

Otro centro en el que investigan el control mental del ordenador

Cada vez aparecen en los medios de comunicación más noticias sobre avances para lograr un sistema que permita controlar el ordenador con la mente o el pensamiento. Es un tema del que he escrito muchas veces, como por ejemplo Situación actual del control mental del ordenador, Otros que se apuntan al control mental del ordenador. Para las personas con algunos tipos de discapacidad, un sistema así les podrá cambiar completamente la vida.

Ahora acabo de leer el artículo Mind Reading Computer System May Help People With Locked-in Syndrome. Según la noticia, en el Center of Excellence for Learning in Education, Science and Technology (CELEST), están desarrollando un prototipo que permite a personas sin movilidad controlar un cursor en la pantalla de un ordenador.

Además, la noticia también está acompañada de un vídeo (en inglés):


lunes, 17 de octubre de 2011

Mejora de la accesibilidad del nuevo iPhone 4S

El año pasado escribí la entrada El iPhone 4 mejora su accesibilidad en la que comentaba las mejoras que incorporaba el nuevo iPhone 4 que mejoraban su accesibilidad. Para muchas personas, puede parecer bastante sorprendente que un teléfono con pantalla táctil pueda ser accesible para las personas ciegas, pero es así.

Hace poco ha salido a la luz el nuevo iPhone 4S y, al igual que el año pasado, las características accesibles han vuelto a mejorar. En el artículo New iPhone a breakthrough for blind people nos cuentan algunas de sus mejoras.

Según la noticia, el iPhone es el único teléfono que puede ser usado por los usuarios ciegos directamente, tal como viene de fábrica, sin tener que instalar ningún software adicional. El iPhone 3GS, que salió a la venta en el año 2009, incorporaba por primera vez el lector de pantallas VoiceOver.

El nuevo iPhone 4S incorpora el asistente Siri que permite al usuario emplear comando de voz para controlar el teléfono.

Además, existen numerosas aplicaciones (apps) que ofrecen funciones ingeniosas que pueden ayudar a las personas con discapacidad. Por ejemplo, la aplicación LookTel Money Reader es capaz de identificar el tipo y el valor de casi cualquier billete de banco: sencillamente, el billete se pone delante de la cámara de vídeo y este software de reconocimiento visual identifica el tipo y el valor del billete.

En el siguiente vídeo lo podemos ver en funcionamiento, realmente asombroso:

jueves, 6 de octubre de 2011

Unos monos "mueven y sienten" objetos virtuales utilizando sólo el cerebro

En este blog he escrito varias veces sobre este tema (la úlitma fue Situación actual del control mental del ordenador): controlar el ordenador (y cualquier otra cosa que se pueda controlar a través de un ordenador, es decir, casi cualquier cosa) con el pensamiento.

Acabo de leer el artículo Monkeys "Move and Feel" Virtual Objects Using Only Their Brains. Un paso más: ahora, además de poder realizar ciertas acciones solo con el pensamiento, en el artículo se presenta la primera demostración de interacción bidireccional entre un cerebro y un elemento virtual, ya que además de realizar la acción, también reciben una respuesta directamente en el cerebro. En concreto, en este experimento unos monos movían el brazo virtual de un avatar y recibían una respuesta que indicaba la textura de los elementos por lo que pasaba el brazo virtual.

En la noticia podemos leer:
"Someday in the near future, quadriplegic patients will take advantage of this technology not only to move their arms and hands and to walk again, but also to sense the texture of objects placed in their hands, or experience the nuances of the terrain on which they stroll with the help of a wearable robotic exoskeleton," said study leader Miguel Nicolelis, MD, PhD, professor of neurobiology at Duke University Medical Center and co-director of the Duke Center for Neuroengineering.

"This is the first demonstration of a brain-machine-brain interface (BMBI) that establishes a direct, bidirectional link between a brain and a virtual body," Nicolelis said.

viernes, 26 de agosto de 2011

Nuevo dispositivo para ver con las manos

En el periódico El País han publicado la noticia Ver con las manos. La noticia dice:


Tocar vale más que mil palabras. Así lo sienten ocho de los 18 ciegos que probaron el dispositivo táctil creado por un grupo de 13 investigadores (médicos, ingenieros y psicólogos) de la Universidad Complutense de Madrid. El producto, en el que ya se han invertido 1.460.000 euros, estará en el mercado en seis meses y costará entre 2.000 y 3.000 euros. Unos 80.000 ciegos españoles y más de 40 millones en el mundo podrán beneficiarse.Se trata de unas gafas de sol y un estimulador táctil similar a una cajita del tamaño de la palma de la mano, que pesa 200 gramos. En medio de las gafas hay una microcámara con un chip. Este transmite las imágenes al estimulador, que está cubierto de bolitas que se levantan coordinadamente, produciendo un relieve que, sobre la palma de la mano, emula las siluetas captadas por la grabadora. "Evoco las imágenes, las veo simplificadas y en blanco y negro, como si me las dibujaran sobre una pizarra", describe Enrique, de 52 años, uno de los invidentes que participa en el estudio desde su inicio.

[...]

Todos los objetivos se cumplieron. Los ciegos pueden reconocer objetos a ocho o 10 metros de distancia y el 40% siente que ve cuando recibe el estímulo táctil mientras que el 100% (incluidos un grupo de 10 videntes) reconoce los objetos a través del dispositivo. Gracias a esta nueva herramienta, las personas que padecen problemas severos de visión pueden ahora calcular la distancia a la que se encuentran los objetos aunque la percepción todavía no incluye colores y volúmenes. "En la calle es fantástico porque detecta cosas que el bastón no, como los toldos. Por eso hay muchas personas ciegas con marcas en la frente", subraya Enrique con humor. "Al principio era un poco escéptico, pero pasé de sentir cosquillas en la mano a delimitar la costa de Galicia, donde vivo", cuenta fascinado por las posibilidades que le abre el dispositivo. El objetivo a largo plazo es, según el investigador Tomás Ortiz, "reemplazar al bastón y a los perros guía".
En la noticia no se comenta, pero yo también le encuentro utilidad como dispositivo para manejar el ordenador e interactuar con elementos gráficos.

jueves, 21 de julio de 2011

La tecnología de eye tracking puede ayudar al aprendizaje de los niños con discapacidad

Un sistema de "seguimiento de los ojos" (eye tracking) es un sistema que permite detectar el punto donde un sujeto de estudio está situando su mirada. Estos sistemas se emplean en diversas áreas, como el márketing y la publicidad, el diseño de objetos, la psicología, etc.

Dentro de la accesibilidad y la usabilidad se emplea principalmente con dos fines:
  • Para realizar los test de usuario, y también los de accesibilidad: un sistema de eye tracking permite detectar las zonas de una página web que más llaman la atención de un usuario, o al contrario, las zonas que no originan mucho interés.
  • Como ayuda técnica para controlar el ordenador: un sistema de eye tracking permite sustituir el ratón del ordenador y permite que el usuario maneje el ordenador simplemente con su mirada.

En el artículo Eye-tracking technology could benefit disabled children nos cuentan otra aplicación de los sistemas de eye tracking: se pueden emplear para mejorar el aprendizaje de los niños con discapacidad:
The team has been working alongside the charity SpecialEffect to design a computer program that uses an eye-tracker to find out exactly how eye movements correspond with the participant’s preferences.
Once a pattern of eye-movements is identified for the user, algorithms manipulate designs on the screen so that they gradually evolve to match each person’s preferences.

miércoles, 20 de julio de 2011

Situación actual del control mental del ordenador

Ya he escrito varias veces sobre el control mental, la última el pasado 5 de junio: Otros que se apuntan al control mental del ordenador.

Acabo de encontrar un artículo del 2 de julio de 2011 que resume muy bien la situación actual del control mental: Mind-Controlled, publicado en el volumen 180, número 1, de la revista ScienceNews. El artículo es un poco largo, pero explica muy bien los distintos tipos de dispositivos que existen hoy en día y lo que es realidad y lo que es mito hoy en día.

domingo, 5 de junio de 2011

Otros que se apuntan al control mental del ordenador


Son muchos los centros a lo largo del mundo que están investigando en el control mental o cerebral del ordenador (cómo controlar el ordenador con la mente). Ya he escrito sobre este tema en numerosas ocasiones anteriores:
En la Ben-Gurion University of the Negev también están trabajando en ello. Según podemos leer en la noticia Mind-controlled computing for the disabled, unos estudiantes de dicha universidad han desarrollado un sistema que permite escribir textos en un ordenador con la mente. El sistema emplea el hardware Emotiv, un interfaz que inicialmente nació para controlar videojuegos con la mente, pero que también se está empleando para realizar investigación.

Aunque la noticia es prometedora, habrá que esperar a ver un sistema realmente práctico: por ahora, para escribir un correo electrónico de 12 caracteres, los sujetos de los experimentos (especialmente entrenados para la tarea) tardaron ¡7 minutos!

In a series of experiments, able-bodied subjects learned a new action in eight seconds and then typed a 12-character email in about seven minutes. However, Puzis believes that trained users could finish sending a sentence as simple and significant as "I love you, Mom" in as few as four minutes, using only -- you guessed it -- their mind.

viernes, 22 de abril de 2011

Interfaz neuronal que permite hablar al ordenador

El tema del control del ordenador con el pensamiento ha aparecido numerosas veces en este blog, como por ejemplo Un interfaz neuronal sigue funcionando después de 1000 días o En Francia también investigan sobre el control del ordenador con la mente (por citar solamente las dos más recientes).

La noticia Technique for letting brain talk to computers now tunes in speech explica que científicos de la Washington University School of Medicine in St. Louis han desarrollado un implante (necesita cirujía cerebral) que situado en zonas del cerebro que controlan el habla permiten "hablar" al ordenador con el pensamiento por primera vez (¿por primera vez?), pudiendo controlar un cursor en la pantalla del ordenador simplemente pensando en un sonido.
“We can distinguish both spoken sounds and the patient imagining saying a sound, so that means we are truly starting to read the language of thought,” he says. “This is one of the earliest examples, to a very, very small extent, of what is called ‘reading minds’ — detecting what people are saying to themselves in their internal dialogue.”
The next step, which Leuthardt and his colleagues are working on, is to find ways to distinguish what they call “higher levels of conceptual information.”
“We want to see if we can not just detect when you’re saying dog, tree, tool or some other word, but also learn what the pure idea of that looks like in your mind,” he says. “It’s exciting and a little scary to think of reading minds, but it has incredible potential for people who can't communicate or are suffering from other disabilities.”

martes, 29 de marzo de 2011

Un interfaz neuronal sigue funcionando después de 1000 días

A muchas personas el tema del control mental del ordenador o la unión hombre-máquina les puede parecer de ciencia ficción, sacado de las películas Robocop o Terminator, pero es un tema que se está investigando y desarrollando en la actualidad.

Estos avances técnicos pueden ayudar a muchas personas con discapacidad física a paliar sus problemas. Sobre el control del ordenador con la mente ya he escrito en numerosas ocasiones (Una noticia sobre investigación en control mental del ordenador en Tailandia).

Ahora acabo de leer la noticia BrainGate neural interface system reaches 1,000-day performance milestone. En la Brown University (Rhode Island, Estados Unidos), implantaron a una mujer con tetraplejia un sistema llamado BrainGate. 1000 días después, la mujer todavía puede controlar un cursor en el ordenador con el pensamiento (pensaba en mover el cursor con la mano), con un porcentaje de éxito superior al 90%.

Por ahora, las tareas que se pueden realizar son muy limitadas y no funciona a la perfección, pero la investigación sigue avanzando y es posible que en pocos años existan sistemas comerciales.

miércoles, 24 de noviembre de 2010

Una noticia sobre investigación en control mental del ordenador en Tailandia

Lo del control del ordenador mediante el pensamiento parece que se está convirtiendo en una "obsesión" en este blog, pero nada más lejos de la realidad. Ya he escrito sobre este tema en numerosas ocasiones anteriores:
Lo que en realidad ocurre es que hay mucha gente investigando en ello y, como es algo bastante sorprendente, los medios de comunicación se hacen eco constantemente de los pequeños avances que se producen. Porque por ahora, estamos bastante lejos de tener un sistema que funcione correctamente y que sea una realidad comercial.

Acabo de leer en el periódico Bangkok Post la noticia Technology puts mind over body. En esta ocasión, se trata de un sistema llamado iThink2 desarrollado en la Mahidol University de Tailandia.

En la siguiente imagen podemos ver en que consiste este dispositivo: una especie de gorra con sensores que detecta las señales eléctricas del cerebro (obtiene un electroencefalograma, o EEG) y aplicando algoritmos de reconocimiento de patrones, logra traducir los "pensamientos" en acciones en el ordenador.

jueves, 18 de noviembre de 2010

Investigación sobre el control del ordenador con la mente en Israel

El control del ordenador con la mente tiene el propósito de desarrollar un interfaz que sea capaz de captar las señales eléctricas que producen las neuronas en el cerebro, analizarlas e interpretarlas, para así poder controlar un ordenador, dar órdenes a un robot, etc. Este tipo de interfaz sería un gran avance y una gran ayuda para todo el mundo, pero mucho más para las personas que sufren problemas de movilidad.

Hace unos días, se publicó en el periódico The Jerusalem Post la noticia Israeli researchers pursue brain-operated computing, donde se comenta que científicos de la Universidad de Tel Aviv están trabajando en este campo, además de en el desarrollo de una retina electrónica.

En varias ocasiones anteriores he escrito sobre este tema:

lunes, 1 de noviembre de 2010

Control del ordenador con la mente

En numerosas ocasiones he escrito sobre las investigaciones que se están realizando para controlar el ordenador con la mente (Comunicarse con la mente), ya que de lograrse, sería una gran ayuda para todo el mundo y en especial para las personas con discapacidad.

En el periódico El País acaban de publicar la noticia Máquinas que obedecen a la mente, que se hace eco de la investigación que se está desarrollando en la Escuela Politécnica Federal de Lausana (EPFL, Suiza):
En los últimos años ha habido numerosos intentos de dar con esta tecnología. Algunos, incluso, ya están a la venta. Pero el EPFL ha conseguido algo nuevo: descifrar señales cerebrales al instante. "Hasta hace poco había que repetir la orden mental cada medio segundo, constantemente. Esto fatigaba a la persona", dice José. "Hemos sido los primeros en dar con un sistema de bajo coste que reconoce a la primera el pensamiento".
Como siempre, hay obstáculos. El tibio interés de las grandes compañías por comercializar el programa es uno. "Quienes más se beneficiarían serían los discapacitados y es un mercado muy pequeño". El número limitado de comandos cerebrales que el software reconoce (no más de cuatro) y la incomodidad de tener que llevar casco, aunque sea inalámbrico, son otras dudas en el horizonte.
Y para terminar, una verdad como un templo:

Millán, que ha desarrollado su carrera académica entre España, Italia, Suiza y EE UU (Universidad de Stanford), calcula otros dos años más hasta que esta tecnología madure. Bajo su mando seguirán trabajando investigadores de universidades de media Europa aunque, curiosamente, ninguna española.
"Escojo a los mejores centros y los españoles no están entre ellos". ¿Qué falla? "Medios. Los políticos se llenan la boca diciendo que la innovación es el futuro del país, pero a la hora de la verdad siempre recortan del mismo sitio, del I+D".

viernes, 10 de septiembre de 2010

Comunicarse con la mente

Ya he comentado varias veces en este blog los avances que se están desarrollando en el área de controlar el ordenador con la mente (En la próxima década llegará el control telepático de los ordenadores).

En el periódico El País se ha publicado la noticia Un experimento traduce señales cerebrales a palabras. La noticia dice:
Es el viejo sueño de comunicarse con la mente sin abrir la boca. Un equipo de científicos de la Universidad de Utah ha dado un nuevo paso al demostrar la viabilidad de traducir las señales cerebrales correspondientes a palabras pensadas en palabras escritas en un ordenador. Han utilizado dos mallas de 16 microelectrodos implantados bajo el cráneo y encima del cerebro, sin penetrarlo. Es tan solo una promesa, el método es invasivo y necesitará muchas mejoras y ensayos clínicos antes de convertirse en un traductor para pacientes gravemente paralizados y sin capacidad de hablar (por infarto cerebral, trauma o esclerosis lateral amiotrófica), explica Bradley Greger , profesor adjunto de Bioingeniería de la citada universidad.

Los investigadores colocaron unos nuevos minúsculos electrodos -microECoG- sobre el centro cerebral del habla (en el área que controla los movimientos faciales y la gran desconocida área de Wernicke, ligada al lenguaje y comprensión de la lengua) de un voluntario con ataques epilépticos severos durante cuatro días.

Son una versión reducida de los grandes electrodos empleados en electrocorticografía, desarrollados hace medio siglo. Separados por un milímetro, no necesitan penetrar en el cerebro y se consideran seguros para colocarlos en el centro del habla. Hasta ahora, en experimentos para controlar ordenadores o brazos artificiales, los electrodos convencionales se tenían que implantar en el interior del cerebro, con la desventaja añadida de que registran demasiadas señales cerebrales para una correcta descodificación.

Mientras el paciente leía varias veces cada una de las 10 palabras que podrían ser útiles a una persona con parálisis (sí, no, caliente, frío, hambriento, sediento, hola, adiós, más y menos) se registraron débiles señales cerebrales generadas por unas pocas miles de neuronas. Los investigadores observaron las señales del cerebro que representaban cada una de las 10 palabras. Al comparar pares de palabras (sí y no) pudieron distinguir la señal empleada por cada una de las palabras entre el 76% y el 90% de ocasiones. Cuando se examinaron simultáneamente 10 patrones de las señales, los aciertos fueron de entre el 28% y el 40%, casi cuatro veces mejor que el azar. No son resultados "suficientemente buenos para que un dispositivo traduzca los pensamientos de una persona con parálisis", afirma Greger. Estos pacientes suelen comunicarse con leves movimientos de pestañas o dedos.

El trabajo se publica en la revista científica Journal of Neural Engineering. El equipo de Greger prepara nuevos experimentos con mallas de mayor tamaño y de 121 microelectrodos para obtener más datos y, por tanto, más palabras, así como mejor precisión.

lunes, 5 de julio de 2010

El iPhone 4 mejora su accesibilidad

El otro día escribí la entrada Las personas zurdas tendrán que dejar de ser zurdas si quieren usar el nuevo iPhone. El título era un poco exagerado, pero reflejaba los comentarios y soluciones que se habían dado frente a un problema de recepción que tiene el nuevo iPhone 4.

Sin embargo, no todo son noticias malas sobre este nuevo teléfono, ya que según leo en Apple iPhone 4 Shows New Accessibility Features y he podido comprobar en la web oficial de Apple dedicada a la accesibilidad del iPhone 4, ofrece una serie de características que son envidiables y que no creo que ofrezca ningún otro teléfono actual. La información también está disponible en la web de Apple en español.

Las principales características que ofrece son:
  • Lectura de pantalla con VoiceOver: En lugar de memorizar comandos de teclado o presionar teclas de cursor pequeñas, el iPhone 4 permite que se toque la pantalla para escuchar una descripción del elemento que está tocando el dedo.VoiceOver habla 21 idiomas y funciona con todas las aplicaciones incorporadas en el iPhone 4.
  • Soporte para displays de Braille inalámbricos y para múltiples tablas de Braille: El nuevo iPhone 4 es compatible con más de 30 dispositivos braille inalámbricos bluetooth sin necesidad de software adicional. Además, el iPhone 4 incluye tablas braille para más de 25 idiomas.
  • Mejoras de escritura: Touch Typing es un nuevo método opcional, tanto para las personas ciegas como para las personas con deficiencias visuales de escribir con el teclado en pantalla. Con Touch Typing se puede mover el dedo por encima del teclado y escuchar con VoiceOver cada letra en voz alta: al llegar a la letra que se desea, hay que levantar el dedo para seleccionarla.
  • Zoom y ampliación: La opción Zoom en el iPhone permite ampliar toda la pantalla de cualquier aplicación hasta cinco veces su tamaño normal.
  • Blanco sobre negro para mayor contraste: El iPhone 4 permite cambiar la pantalla a blanco sobre negro para obtener un mayor contraste, una excelente opción para los usuarios con un resto visual.
  • Soporte para subtítulos: iPhone soporta la reproducción con distintos formatos de subtítulos. Los títulos aparecen en la pantalla al igual que los subtítulos se ven en la televisión.

viernes, 2 de julio de 2010

Otra empresa que se apunta al control mental

Acabo de leer en el periódico El País la noticia Que la fuerza acompañe a los videojuegos. La noticia dice:
En Gamelab, la feria del Videojuego y el Ocio Interactivo que se celebra desde ayer y hasta mañana en el palacio de Congresos de Gijón, el protagonista es Neurosky, una empresa californiana que bien podría transformar al usuario en un guerrero Jedi. Su software único y casi telepático pretende revolucionar el mercado. "Se basa en sensores que captan y convierten los impulsos eléctricos cerebrales del jugador en acción en la pantalla del ordenador", cuenta David Westendorf, vicepresidente de Neurosky. "Mide los impulsos eléctricos cerebrales, pero también, cómo se mueven tus ojos o cómo reaccionan tus músculos".
Si se consulta la web de la empresa fabricante, parece que por ahora su dispositivo sólo permite medir el nivel de atención y concentración del usuario, aunque parece que en la última versión también permite detectar si el usuario parpadea los ojos.

No es la primera vez que aparecen noticias sobre el control mental del ordenador y ya he escrito varias entradas sobre ello, como Otra noticia más sobre el control mental del ordenador (1/2/2010) y Control mental: ya lo podemos comprar (30/12/2009).

Además de la empresa de esta noticia, Neurosky, la empresa emotiv también vende un casco para controlar un juego de ordenador. Todos estos dispositivos se podrían emplear como ayudas técnicas (tecnologías de apoyo) para que algunas personas con discapacidad puedan controlar fácilmente y con un costo reducido el ordenador. Sin embargo, todavía no he leído que haya gente investigando en el uso de estos dispositivos para ello.

¿Se convertirán estos dispositivos en el interfaz estándar para controlar el ordenador para todo el mundo? A corto plazo lo veo difícil. Por ahora, estos dispositivos requieren que el usuario se concentre, lo cuál impide que el usuario haga varias tareas a la vez. ¿Quién no ha estado hablando por teléfono, mientras escribía en el ordenador con una mano y con la otra se rascaba la cabeza?

lunes, 14 de junio de 2010

Un mono controla el brazo de un robot con su mente

La noticia Monkey Controls Advanced Robot Using Its Mind nos cuenta que investigadores de la Universidad de Pittsburg en Estados Unidos han enseñado a un mono a controlar el brazo de un robot con el pensamiento.

Además, he encontrado el siguiente vídeo:

 

miércoles, 19 de mayo de 2010

Un ojo cibernético

Acabo de leer en El País la noticia El pintor que oye colores. Según la noticia, Neil Harbisson ve el mundo en blanco y negro porque padece acromatopsia, una afección hereditaria e irreversible que le impide ver los colores: sólo son percibidos los colores blanco y negro. Según esta persona:
Yo no veo los colores, los oigo. Mi eyeborg convierte cada color y cada matiz en una nota musical, así que para mí la percepción del color es una experiencia sonora y no visual.

martes, 18 de mayo de 2010

En la próxima década llegará el control telepático de los ordenadores

Acabo de leer en el periódico El País la noticia En la próxima década llegará el control telepático de los ordenadores. Ya he escrito en otras ocasiones sobre este tema:
En este nueva noticia, Michio Kaku, catedrático de Física Teórica de la Universidad de Nueva York, augura que:
[...] en la década de 2020 puede llegar la era del control telepático de los ordenadores. Ya existen algunos interfaces cerebrales que permiten ciertas acciones básicas, pero Michio Kaku espera que en los próximos años sea posible fotografiar los sueños mediante imágenes funcionales del cerebro.

El control telepático o mediante la mente del ordenador supondrá una gran ayuda para todo el mundo y en especial para algunos grupos de usuarios con discapacidad que no pueden emplear los dispositivos usuales como el teclado o el ratón.