Buscador

Mostrando entradas con la etiqueta Noticias. Mostrar todas las entradas
Mostrando entradas con la etiqueta Noticias. Mostrar todas las entradas

sábado, 7 de enero de 2012

¿Denunciar la falta de accesibilidad? Inútil en España

Hace unos días, en mi entrada Lista de denuncias contra sitios web no accesibles en Estados Unidos, comenté que yo sólo conocía dos casos de denuncias sobre accesibilidad web en España, realizadas por el CERMI, pero que desde que se habían producido en el año 2009, no sabía en qué habían quedado. Félix Zapata dejó un par de comentarios al respecto, en los que comentaba las dificultades que había tenido para recabar información sobre el tema en los ministerios relacionados con el tema.

Acabo de encontrar la noticia CERMI Madrid denuncia que la Dirección General de Vivienda de la Comunidad de Madrid no ha impuesto ninguna sanción por incumplimiento de las leyes de accesibilidad. La noticia se refiere a la accesibilidad al medio físico, pero el escenario poco esperanzador que describe también se puede aplicar a la accesibilidad web:
La Dirección General de Vivienda de la Comunidad de Madrid, órgano de coordinación competente en la aplicación del régimen sancionador en materia de accesibilidad, no ha hecho efectiva ninguna sanción por incumplimiento de la Ley desde su entrada en vigor hace ya doce años por falta de voluntad.
[...]
A pesar de que desde el Ejecutivo Regional se escuchan con frecuencia voces que indican lo mucho que se está avanzando en materia de accesibilidad, la realidad es que el organismo competente dentro de la Comunidad de Madrid, (Dirección General de Vivienda) que ha de mostrar una actitud proactiva y beligerante respecto del incumplimiento de la norma mediante la aplicación, en su caso, de las correspondientes sanciones, hace dejación de sus funciones y mantiene fuera de efecto las propias leyes que el Gobierno Regional aprueba.
[...]
Desde 1999, año de entrada en vigor del Reglamento que regula el Régimen Sancionador de la Ley de Supresión de Barreras de la Comunidad de Madrid, de los 333 expedientes abiertos, no se ha impuesto ni una sola sanción a los infractores, llegando incluso a prescribir, en algún caso, el hecho denunciado, lo que resulta inconcebible ante la autoproclamada misión por parte de los referidos organismos de promover, impulsar y fomentar la adopción de medidas adecuadas en materia de accesibilidad, en favor de la inclusión y en contra de toda discriminación.
¿Para qué tantas leyes, regímenes sancionadores y órganos competentes que deben vigilar su cumplimiento? Luego se dice que sobra administración pública, y con razón, porque mucha no sirve para absolutamente nada.

miércoles, 21 de diciembre de 2011

El Centro de Referencia en Accesibilidad Web de Argentina

A través de la noticia El Centro de Referencia en Accesibilidad Web cumple un año de vida, me he enterado de la existencia del Centro de Referencia en Accesibilidad Web (CRAW) dependiente de la Oficina Nacional de Tecnologías de Información (ONTI) de Argentina.

La misión principal del CRAW es "permitir que las páginas web pertenecientes al Estado Nacional, puedan ser accedidas por un mayor número de personas, independientemente de sus propias limitaciones o de las derivadas de su entorno". Para ello, "el CRAW validará el grado de cumplimiento de estándares de accesibilidad web. Asimismo, ofrecerá servicios de capacitación a la Administración Pública Nacional y dispondrá de un observatorio tendiente al cumplimiento de la legislación vigente en materia de la Sociedad de la Información y accesibilidad web universal de las personas con capacidades diferentes a fin de garantizar la igualdad de oportunidades y la no discriminación".

Recordemos que en Argentina a finales de noviembre de 2010, fue aprobada la Ley 26.653 de Accesibilidad de Información en las Páginas, que "compromete al Estado nacional a respetar en el diseño de sus páginas Web las normas y requisitos sobre accesibilidad de la información que faciliten el acceso a sus contenidos a todas las personas con discapacidad, con el objeto de garantizarles la igualdad real de oportunidades y trato, evitando así todo tipo de discriminación".

La Resolución 69/2011 aprueba la "Guía de Accesibilidad para Sitios Web del Sector Público Nacional", que es una transposición directa de las Pautas de Accesibilidad al Contenido en la Web 1.0 del W3C.

martes, 20 de diciembre de 2011

Los interfaces cerebro-máquina disponibles en cinco años

Varias veces he hecho referencia al control del ordenador (u otros dispositivos) con la mente. Por ejemplo:
Los interfaces cerebro-máquina (en inglés Brain-Computer Interfaces, BCI), son sistemas de comunicación que permiten transmitir al ordenador instrucciones simplemente con el pensamiento. Como es de imaginar, para muchos usuarios con discapacidad, el empleo de estos sistemas supondrá una mejora considerable de su calidad de vida.

Por ahora son un poco "ciencia ficción": son lentos, necesitan un período de entranamiento bastante largo para que aprendan a interpretar los pensamientos de los usuarios y el porcentaje de acierto no está muy cerca del 100%.

Sin embargo, todo es cuestión de tiempo. ¿Cuánto? 5 años, o al menos eso es lo que predice IBM y podemos leer comentado en el artículo El futuro, de cinco en cinco:
3. Lectura de la mente. Es la que más me cuesta aceptar porque por ahora todos los sistemas que he probado en esta línea de investigación son bastante poco fiables pero según IBM en los próximos años avanzaremos considerablemente en los interfaces cerebro-máquina, permitiendo manejar dispositivos tan sólo pensando en las acciones que deben realizar.
[Actualización 21/12/2011]
El artículo original de IBM, con algunos vídeos y extensas explicaciones: The IBM 5 in 5: Our Forecast of Five Innovations That Will Alter the Tech Landscape Within Five Years.

miércoles, 9 de noviembre de 2011

El futuro de los interfaces de usuario

Me acaba de llegar el artículo The Future of Human Computer Interfaces que muestra 10 prototipos o ideas  que están desarrollando en el MIT Media Lab. Desgraciadamente, todos ellos me parecen muy visuales, muy gestuales, y con problemas de accesibilidad para diferentes grupos de usuarios. No he visto ningún dispositivo que ayude claramente a mejorar la accesibilidad.

domingo, 30 de octubre de 2011

Control mental en la Universidad de Minnesota

En el periódico El Mundo han publicado la noticia Piensa a dónde quieres que vaya y allí ira. Según la noticia:
Científicos de la Universidad de Minnesota (EEUU) han diseñado un interfaz cerebro-ordenador que permite controlar el vuelo de un helicóptero con la mente.

[...]

El sistema no es invasivo -se trata de un 'gorro' que recoge las ondas cerebrales- y que el control de la nave se realizó en tres dimensiones.

"Un interfaz ordenador-cerebro es un sistema que interpreta los pensamientos del usuario para producir comandos que controlen un ordenador o un dispositivo", explican los responsables del estudio.

[...]

La teoría dice que gracias a estos sistemas se podrían mover objetos con la mente, como una prótesis, una silla de ruedas o un helicóptero.
De momento, las cosas no están tan avanzadas como para hacer que nuestra vida funcione mientras estamos sentados en el sofá, pero ya ha habido pequeñas conquistas en este ámbito del control mental. Por ejemplo, DARPA -una división del Pentágono que se dedica a la ciencia más cercana a la ficción- tiene un programa bastante avanzado de control de prótesis.

Lo más reseñable, según los investigadores, son los esfuerzos para hacer que los sistemas no invasivos se aproximen lo más posible a los invasivos, que "presentan varios grados de riesgo asociados con su implantación [en el cerebro]" y que hacen que sean "practicables sólo en casos en los que la habilidad motora está muy limitada y otros métodos de comunicación son inviables".

[...]

El interfaz diseñado por su equipo consta de un sistema montado en una especie de gorro que lee el ritmo sensoriomotor del cerebro, que después es interpretado y calibrado para controlar los movimientos del helicóptero en una pantalla. Gracias a él, las participantes 'pilotaron' el aparato de forma ininterrumpida a través de los aros virtuales con un éxito del 85%.

Más información: Continuous Three-Dimensional Control of a Virtual Helicopter Using a Motor Imagery Based Brain-Computer Interface.

jueves, 27 de octubre de 2011

Inclusite

Inclusite es un sistema desarrollado por una empresa española radicada en Valencia que permite dotar a un sitio web de interfaces accesibles que se adaptan a las necesidades de diferentes usuarios. La principal ventaja de este sistema es que se puede emplear desde cualquier ordenador sin tener que instalar ningún tipo de software adicional.

El sistema funciona modificando de forma transparente el etiquetado de una página web al incorporar una serie de etiquetas y atributos propios que luego son interpretados en el navegador para ofrecer un interfaz mejorado.

Hoy se ha anunciado que la web de Radiotelevisión Valenciana se ha hecho completamente accesible gracias a este sistema: La web de Radiotelevisión Valenciana logra hacerse completamente accesible. Habrá que ver si es verdad, porque, por ejemplo, me pregunto si todos los vídeos que contiene esta web han sido subtitulados y se ha incluido su transcripción a texto. Porque, si no es así, entonces no se puede decir que la web sea completamente accesible.


El siguiente vídeo explica con más detalle qué y cómo se utiliza Inclusite:

sábado, 22 de octubre de 2011

Diccionario informático en lengua de signos española

La Universidad Politécnica de Madrid ha creado el primer Diccionario informático en lengua de signos española.

En agosto de 2011 ya se presentó este diccionario en la Universidad Internacional Menéndez Pelayo (El primer diccionario de informática para sordos), pero parece que aquello fue un adelanto y ahora sí que ha sido presentado definitivamente: Primer diccionario español de informática para sordos signantes.

Por último, la misma noticia contada en Diario Signo, La informática es más accesible para las personas sordas, que incluye vídeo con explicación en lengua de signos.

lunes, 17 de octubre de 2011

Mejora de la accesibilidad del nuevo iPhone 4S

El año pasado escribí la entrada El iPhone 4 mejora su accesibilidad en la que comentaba las mejoras que incorporaba el nuevo iPhone 4 que mejoraban su accesibilidad. Para muchas personas, puede parecer bastante sorprendente que un teléfono con pantalla táctil pueda ser accesible para las personas ciegas, pero es así.

Hace poco ha salido a la luz el nuevo iPhone 4S y, al igual que el año pasado, las características accesibles han vuelto a mejorar. En el artículo New iPhone a breakthrough for blind people nos cuentan algunas de sus mejoras.

Según la noticia, el iPhone es el único teléfono que puede ser usado por los usuarios ciegos directamente, tal como viene de fábrica, sin tener que instalar ningún software adicional. El iPhone 3GS, que salió a la venta en el año 2009, incorporaba por primera vez el lector de pantallas VoiceOver.

El nuevo iPhone 4S incorpora el asistente Siri que permite al usuario emplear comando de voz para controlar el teléfono.

Además, existen numerosas aplicaciones (apps) que ofrecen funciones ingeniosas que pueden ayudar a las personas con discapacidad. Por ejemplo, la aplicación LookTel Money Reader es capaz de identificar el tipo y el valor de casi cualquier billete de banco: sencillamente, el billete se pone delante de la cámara de vídeo y este software de reconocimiento visual identifica el tipo y el valor del billete.

En el siguiente vídeo lo podemos ver en funcionamiento, realmente asombroso:

sábado, 10 de septiembre de 2011

En el Congreso y en el Senado siguen haciendo las cosas fatal

Acabo de leer en el periódico El Mundo el artículo de opinión Transparencia, pero no accesibilidad. Me ha llamado la atención esta noticia, claro está, por la palabra accesibilidad.

Desgraciadamente el artículo no es sobre la accesibilidad en general, ni mucho menos sobre la accesibilidad web. El artículo es sobre la publicación de bienes y rentas de los congresistas y senadores españoles. El artículo comenta la mala forma en que ha sido publicada esta información.

Entre los problemas que describe, sí que hay uno que está totalmente relacionado con la accesibilidad web, el problema de los PDF no accesibles:
Si lo anterior parece grave, lo es mucho más que la información se publicase como un PDF de imagen -un formato inaccesible para el análisis de datos- y diputado a diputado.
Efectivamente, un PDF que contiene una imagen escaneada no es accesible. Para que un PDF sea accesible tiene que contener texto y además tiene que estar etiquetado (tagged).

Pero bueno, ya sabemos que en el Congreso y en el Senado de España no saben muy bien cómo usar las nuevas tecnologías, como ya comenté hace unos meses en El Senado se gastará 350.000 euros al año en traducciones, pero es incapaz de tener una página web accesible. La página del Senado de España sigue sin ser accesible a día de hoy (y lo que le queda...)

viernes, 26 de agosto de 2011

Nuevo dispositivo para ver con las manos

En el periódico El País han publicado la noticia Ver con las manos. La noticia dice:


Tocar vale más que mil palabras. Así lo sienten ocho de los 18 ciegos que probaron el dispositivo táctil creado por un grupo de 13 investigadores (médicos, ingenieros y psicólogos) de la Universidad Complutense de Madrid. El producto, en el que ya se han invertido 1.460.000 euros, estará en el mercado en seis meses y costará entre 2.000 y 3.000 euros. Unos 80.000 ciegos españoles y más de 40 millones en el mundo podrán beneficiarse.Se trata de unas gafas de sol y un estimulador táctil similar a una cajita del tamaño de la palma de la mano, que pesa 200 gramos. En medio de las gafas hay una microcámara con un chip. Este transmite las imágenes al estimulador, que está cubierto de bolitas que se levantan coordinadamente, produciendo un relieve que, sobre la palma de la mano, emula las siluetas captadas por la grabadora. "Evoco las imágenes, las veo simplificadas y en blanco y negro, como si me las dibujaran sobre una pizarra", describe Enrique, de 52 años, uno de los invidentes que participa en el estudio desde su inicio.

[...]

Todos los objetivos se cumplieron. Los ciegos pueden reconocer objetos a ocho o 10 metros de distancia y el 40% siente que ve cuando recibe el estímulo táctil mientras que el 100% (incluidos un grupo de 10 videntes) reconoce los objetos a través del dispositivo. Gracias a esta nueva herramienta, las personas que padecen problemas severos de visión pueden ahora calcular la distancia a la que se encuentran los objetos aunque la percepción todavía no incluye colores y volúmenes. "En la calle es fantástico porque detecta cosas que el bastón no, como los toldos. Por eso hay muchas personas ciegas con marcas en la frente", subraya Enrique con humor. "Al principio era un poco escéptico, pero pasé de sentir cosquillas en la mano a delimitar la costa de Galicia, donde vivo", cuenta fascinado por las posibilidades que le abre el dispositivo. El objetivo a largo plazo es, según el investigador Tomás Ortiz, "reemplazar al bastón y a los perros guía".
En la noticia no se comenta, pero yo también le encuentro utilidad como dispositivo para manejar el ordenador e interactuar con elementos gráficos.

jueves, 21 de julio de 2011

La tecnología de eye tracking puede ayudar al aprendizaje de los niños con discapacidad

Un sistema de "seguimiento de los ojos" (eye tracking) es un sistema que permite detectar el punto donde un sujeto de estudio está situando su mirada. Estos sistemas se emplean en diversas áreas, como el márketing y la publicidad, el diseño de objetos, la psicología, etc.

Dentro de la accesibilidad y la usabilidad se emplea principalmente con dos fines:
  • Para realizar los test de usuario, y también los de accesibilidad: un sistema de eye tracking permite detectar las zonas de una página web que más llaman la atención de un usuario, o al contrario, las zonas que no originan mucho interés.
  • Como ayuda técnica para controlar el ordenador: un sistema de eye tracking permite sustituir el ratón del ordenador y permite que el usuario maneje el ordenador simplemente con su mirada.

En el artículo Eye-tracking technology could benefit disabled children nos cuentan otra aplicación de los sistemas de eye tracking: se pueden emplear para mejorar el aprendizaje de los niños con discapacidad:
The team has been working alongside the charity SpecialEffect to design a computer program that uses an eye-tracker to find out exactly how eye movements correspond with the participant’s preferences.
Once a pattern of eye-movements is identified for the user, algorithms manipulate designs on the screen so that they gradually evolve to match each person’s preferences.

jueves, 9 de junio de 2011

Otro sistema para controlar el ordenador con los ojos

aAcabo de leer la noticia Virtual mouse, an invention to help the disabled, publicada el pasado 5 de junio de 2011. Según la noticia, un estudiante de Khalifa University (Emiratos Árabes Unidos) ha desarrollado un sistema que permite controlar el ratón del ordenador con la vista: una webcam vigila el movimiento de lo ojos y mueve el ratón al punto donde esté mirando el usuario. Además, las pulsaciones de los dos botones del ratón se controlan mediante el parpadeo de los ojos.

Este sistema no es original, ya existen otros sistemas que comenté en el pasado, pero es muy interesante que lo haya desarrollado un estudiante como proyecto final de carrera y con coste cero, utilizando hardware estándar.

Algunos artículos relacionados sobre este tema:

domingo, 5 de junio de 2011

Otros que se apuntan al control mental del ordenador


Son muchos los centros a lo largo del mundo que están investigando en el control mental o cerebral del ordenador (cómo controlar el ordenador con la mente). Ya he escrito sobre este tema en numerosas ocasiones anteriores:
En la Ben-Gurion University of the Negev también están trabajando en ello. Según podemos leer en la noticia Mind-controlled computing for the disabled, unos estudiantes de dicha universidad han desarrollado un sistema que permite escribir textos en un ordenador con la mente. El sistema emplea el hardware Emotiv, un interfaz que inicialmente nació para controlar videojuegos con la mente, pero que también se está empleando para realizar investigación.

Aunque la noticia es prometedora, habrá que esperar a ver un sistema realmente práctico: por ahora, para escribir un correo electrónico de 12 caracteres, los sujetos de los experimentos (especialmente entrenados para la tarea) tardaron ¡7 minutos!

In a series of experiments, able-bodied subjects learned a new action in eight seconds and then typed a 12-character email in about seven minutes. However, Puzis believes that trained users could finish sending a sentence as simple and significant as "I love you, Mom" in as few as four minutes, using only -- you guessed it -- their mind.

martes, 3 de mayo de 2011

Un sistema que permite a una persona ciega percibir una imagen

Que una persona ciega pueda ver una imagen es, por definición, imposible hoy en día. Habrá que esperar a que los ojos artificiales sean una realidad factible (ya ha habido algunos experimentos prometedores, como Implante de un ojo artificial en un ciego) para que una persona ciega pueda realmente "ver".

Mientras tanto, se están desarrollando soluciones alternativas para que una persona ciega pueda "percibir" una imagen. Hace un par de meses escribí la entrada Un programa permite que los ciegos toquen cualquier imagen, un sistema que permite crear una imagen táctil de una fotografía. El sistema es muy sencillo: el sistema detecta los trazos principales de una imagen (este sistema está en principio orientado a fotografías de caras) e imprime en relieve esos trazos para que una persona ciega los pueda percibir. Este sistema tiene el inconveniente de que es estático, lento y costoso, ya que hay que imprimir la imagen.

En la noticia New device puts vision impaired in the picture explican que en la Faculty of Information and Technology de la Monash University (Australia) han desarrollado un sistema llamado GraVVITAS que permite a una persona ciega percibir una imagen mediante un tablet PC, avisos sonoros y vibraciones. Lo que no está claro por la noticia es si se puede emplear con cualquier imagen (lo dudo) o la imagen tiene que cumplir ciertos requisitos o incluso debe estar "descrita" previamente. La noticia dice:

The device, called GraVVITAS, is a standard tablet PC with touch screen technology that uses vibration and sounds to guide the visually impaired user around a diagram.
It is designed to enable the user to build a picture of the entire graphic in their mind.
[...]
The device, which is currently a prototype, has small external vibrating motors that attach to the user’s fingers. These motors buzz when an object displayed on the screen is touched.
Cagatay Goncu said voice prompts and sounds also help to guide the user to read the diagram.
“The basic idea is to guide the user to find the object by using sound. Touching the object causes the sound to stop and a voice explains what that object is and any other information associated with it,” Mr. Goncu said.
“If it’s something on the left side, you will hear something in your left ear and vice-versa.”

lunes, 2 de mayo de 2011

Software libre para crear documentos PDF accesibles

Acabo de encontrar en el periódico El Mundo la noticia Las fotos se autodescriben para invidentes. La noticia dice:

El Inteco (Instituto Nacional de Tecnologías de la Comunicación), ubicado en León, ha desarrollado un software libre en internet que es una aplicación que permite transformar cualquier documento en un pdf completamente accesible a cualquier usuario.

El Inteco ha ido más allá del problema y pretende simplificar pasos y hacer accesible documentos al alcance de personas no expertas en tecnología. El medio: internet. Su innovación radica en crear una solución sencilla para cualquier usuario. Su herramienta traduce el archivo en voz. Permite a los invidentes 'leer' el texto y escuchar la descripción de las imágenes y el resto de elementos gráficos como un logotipo del PDF que esté en internet.
El funcionamiento es sencillo, entras en la página web y vas cargando los documentos que quieres convertir en accesibles y de forma automática se van subiendo y transformando. El sistema es compatible con Word (doc, docx), html, etc.

¿Alguien conoce cómo se llama esta herramienta? ¿Dónde se puede encontrar?

sábado, 23 de abril de 2011

Software gratuito que ayuda a las personas con discapacidad motora a controlar el cursor del ratón

A través de la noticia Free software makes computer mouse easier for people with disabilities he descubierto dos programas que ayudan a controlar el cursor del ratón a las personas con discapacidad motora.

El primero, llamado Pointing Magnifier, permite realizar un zoom de una parte de la pantalla para lograr una mayor precisión en el manejo del cursor.



El segundo, llamado Angle Mouse, ajusta la resolución del movimiento del cursor en función de cómo de coherente (recto) o divergente (anguloso) es el movimiento del cursor. Cuando el cursor se mueve recto, el movimiento es rápido, pero cuando cambia de dirección abruptamente, normalmente cerca del destino del movimiento, el movimiento es más lento, aumentando la precisión.

viernes, 22 de abril de 2011

Interfaz neuronal que permite hablar al ordenador

El tema del control del ordenador con el pensamiento ha aparecido numerosas veces en este blog, como por ejemplo Un interfaz neuronal sigue funcionando después de 1000 días o En Francia también investigan sobre el control del ordenador con la mente (por citar solamente las dos más recientes).

La noticia Technique for letting brain talk to computers now tunes in speech explica que científicos de la Washington University School of Medicine in St. Louis han desarrollado un implante (necesita cirujía cerebral) que situado en zonas del cerebro que controlan el habla permiten "hablar" al ordenador con el pensamiento por primera vez (¿por primera vez?), pudiendo controlar un cursor en la pantalla del ordenador simplemente pensando en un sonido.
“We can distinguish both spoken sounds and the patient imagining saying a sound, so that means we are truly starting to read the language of thought,” he says. “This is one of the earliest examples, to a very, very small extent, of what is called ‘reading minds’ — detecting what people are saying to themselves in their internal dialogue.”
The next step, which Leuthardt and his colleagues are working on, is to find ways to distinguish what they call “higher levels of conceptual information.”
“We want to see if we can not just detect when you’re saying dog, tree, tool or some other word, but also learn what the pure idea of that looks like in your mind,” he says. “It’s exciting and a little scary to think of reading minds, but it has incredible potential for people who can't communicate or are suffering from other disabilities.”

jueves, 7 de abril de 2011

Microsoft anuncia herramientas gratuitas de accesibilidad

La noticia Microsoft Announces Free Accessibility Tools and Training for Developers nos cuenta que Microsoft ha publicado Microsoft Accessibility Tools & Training, un conjunto de herramientas, seminarios de formación y otros recursos disponibles de forma gratuita en la Web.

Lo más interesante que he encontrado en esta web hasta ahora es:

martes, 29 de marzo de 2011

Un interfaz neuronal sigue funcionando después de 1000 días

A muchas personas el tema del control mental del ordenador o la unión hombre-máquina les puede parecer de ciencia ficción, sacado de las películas Robocop o Terminator, pero es un tema que se está investigando y desarrollando en la actualidad.

Estos avances técnicos pueden ayudar a muchas personas con discapacidad física a paliar sus problemas. Sobre el control del ordenador con la mente ya he escrito en numerosas ocasiones (Una noticia sobre investigación en control mental del ordenador en Tailandia).

Ahora acabo de leer la noticia BrainGate neural interface system reaches 1,000-day performance milestone. En la Brown University (Rhode Island, Estados Unidos), implantaron a una mujer con tetraplejia un sistema llamado BrainGate. 1000 días después, la mujer todavía puede controlar un cursor en el ordenador con el pensamiento (pensaba en mover el cursor con la mano), con un porcentaje de éxito superior al 90%.

Por ahora, las tareas que se pueden realizar son muy limitadas y no funciona a la perfección, pero la investigación sigue avanzando y es posible que en pocos años existan sistemas comerciales.

domingo, 27 de marzo de 2011

¿Por qué la gente no subtitula los vídeos?

En el periódico El País iniciaron hace dos semanas una iniciativa muy interesante: El desafío de la semana. El desafío consiste en resolver un problema matemático. El desafío se plantea mediante un vídeo en el que una persona plantea el problema.



En el vídeo de esta semana he podido leer lo siguiente:
NOTA IMPORTANTE: Por si queda alguna duda de la formulación del problema y a petición también de los lectores sordos, incluimos aquí el enunciado por escrito.
Y entonces me he preguntado: ¿por qué son tan chapuceros? ¿Por qué no subtitulan el vídeo? El vídeo dura poco más de 3 minutos, en menos de una hora puede estar subtitulado. Lo que han hecho está bien, proporcionar la transcripción del vídeo, pero les ha faltado subtitularlo.