Buscador

jueves, 29 de marzo de 2012

El coche que conduce sólo de Google y los vídeos accesibles

Desde hace un par de años, Google está trabajando en el desarrollo de un coche que conduzca por el solo. ¿Ciencia ficción? No, ya es una realidad. En el artículo How Google's Self-Driving Car Works (octubre 2011) nos explican cómo es posible este milagro de la inteligencia artificial:
  • El sistema emplea un láser montado en el techo del coche para crear un mapa 3D del entorno cercano.
  • Estas medidas se combinan con mapas de alta resolución para crear modelos del mundo que se emplean para tomar las decisiones de conducción.
  • Además, también se emplean otros tipos de sensores: 4 rádares, montados por delante y por detrás; una cámara para detectar los semáforos; un GPS y una unidad de medición inercial para medir la posición; y un codificador en las ruedas para controlar su movimiento.
Pero todo el sistema tiene una pequeña trampa: para que el coche realice una ruta de forma autónoma, Google necesita enviar antes uno o varios coches conducidos de forma manual para que adquieran información detallada sobre la ruta.

El coche de Google ha sido capaz de conducir más de 300.000 km sin que se tenga constancia de ningún accidente provocado por él. Sí que tuvo un accidente, pero parece que fue causado por un humano: Google self-driving car crash caused by human.

Este tema de los coches autónomos se lo toman muy en serio en Estados Unidos. En febrero de este año apareció la noticia de que el estado de Nevada era el primero que aprobaba una legislación sobre los coches que conducen por ellos mismos: Nevada Approves Self-Driving Cars after Google Lobbying Push.

En realidad, el origen de todo esto está en el ejército de los Estados Unidos y en su agencia para el desarrollado de proyectos avanzados DARPA (Defense Advanced Research Projects Agency) . Desde el año 2004, DARPA organiza el Gran Challenge, un concurso/carrera que tiene como objetivo lograr el desarrollo de vehículos autónomos para el ejército.

Volviendo al coche que conduce solo de Google, acaban de publicar un vídeo en el que una "persona ciega conduce el coche". En realidad, han publicado dos vídeos, con idéntico contenido, pero uno de ellos con audio descripción destinado a las personas ciegas que no pueden ver el vídeo.

Vídeo sin audio descripción:


Vídeo con audio descripción:


En el vídeo con descripción podemos comprobar cómo se explica lo que podemos ver en la imagen, como que una persona sale de la puerta principal de su casa con un jersey marrón y unos pantalones color caqui para dirigirse a un coche con los logos de Google.

Lástima que no hayan incluido también subtítulos para las personas sordas, aunque quizás lo hayan hecho porque YouTube ofrece un servicio de audio transcripción automática desde hace tiempo que evita el tener que añadir los subtítulos de forma manual, aunque por ahora sólo está disponible en inglés y su exactitud no es muy buena.

Nueva encuesta del WebAIM sobre el uso de lectores de pantalla

Durante los últimos años, el WebAIM ha realizado varias encuestas online destinadas a analizar los hábitos de uso de los lectores de pantalla:
WebAIM ha realizado un llamamiento público para recibir comentarios y sugerencias para preparar su cuarto estudio. Quien quiera colaborar, lo puede hacer contactando con WebAIM.

miércoles, 28 de marzo de 2012

A11ybuzz

A11ybuzz es un sitio web muy interesante que "vigila" la Web para buscar noticias, artículos, recursos y tweets relacionados con la accesibilidad web (recordemos que A11y es una forma abreviada de referirse a accessibility).

En la página principal podemos encontrar:

  • Los temas más populares
  • Las entradas más populares
  • Las entradas más recientes
  • El feed de Twitter
Por ejemplo, en los temas más populares podemos encontrar HTML5 con algunas entradas interesantes, como por ejemplo:

lunes, 26 de marzo de 2012

Nuevo sistema de subtitulado

El sistema tradicional de subtitulado que se emplea hoy en día apareció en la década de los setenta. Desde entonces, el sistema prácticamente no ha cambiado: en la parte inferior de la imagen aparecen una o dos líneas de texto que permiten a las personas sordas, o a todas las personas cuando el sonido está apagado o cuando se subtitula en otro idioma, seguir las conversaciones del vídeo.

Este sistema tiene un problema muy importante: a veces no se sabe quién está hablando (por ejemplo, porque hay muchas personas juntas hablando a la vez). Para reducir este problema, a cada persona se le puede asignar un color distinto que se emplea en el texto de los subtítulos, pero este sistema no es la solución perfecta (además, recordemos que basarse sólo en el color para transmitir información no es una buena práctica).

Según el artículo Researches revolutionize closed captioning, investigadores de la Hefei University of Technology en China han desarrollado un novedoso sistema de subtitulado de vídeos. Esta sistema consiste en mostrar el texto en "burbujas" (bocadillos) transparentes cerca de la persona que está hablando. Además, también sincronizan la visualización del texto con la velocidad a la que habla la persona, de una forma similar a como se hace en un karaoke.

En la siguiente imagen se puede ver una comparativa de los sistemas tradicionales (de la letra "a" a la "d"), llamados subtitulados estáticos, frente al nuevo sistema (letra "e") llamado subtitulado dinámico.


De 60 personas que probaron el nuevo sistema, 53 prefirieron el nuevo sistema frente al tradicional.

El sistema es totalmente automático y no necesita ninguna intervención manual, ya que a partir de la transcripción de los diálogos (con su correspondiente marca de tiempo), el sistema detecta quién está hablando mediante la detección del movimiento de los labios. Además, el sistema también detecta automáticamente cuál es el mejor sitio para situar las "burbujas de texto". Cuando la persona que habla está fuera de la imagen, el texto se muestra en la parte inferior como con los subtítulos tradicionales.

Por último, según la noticia, en el mundo existen más de 66 millones de personas con problemas de audición.

[Actualización 26/03/2012]
Se puede encontrar información detallada sobre el sistema en los siguientes artículos (de pago):

El sistema no parece que tenga un nombre. En la actualidad no se comercializa, sólo es un producto en fase de investigación y desarrollo, ya que por ahora tiene una tasa de error que impide que puede ser comercializado.

martes, 20 de marzo de 2012

Indra Tecnologías Accesibles

Indra, la multinacional española de tecnologías de la información y la comunicación, mantiene el sitio web Indra Tecnologías Accesibles en el que difunde su participación en diferentes proyectos que tienen como objetivo desarrollar tecnologías accesibles para todos los usuarios.

Entre los proyectos que desarrolla, destacan:

  • HeadMouse, un ratón que se mueve con el movimiento de la cabeza y que sustituye al ratón convencional. Está pensado para personas con movilidad reducida o que no puedan utilizar un ratón convencional.
  • VirtualKeyboard, un teclado virtual en pantalla pensado para personas con movilidad reducida o con problemas en la utilización de teclados convencionales.
  • Ganas, un intérprete virtual que convierte un texto en lengua de signos español para personas con discapacidad auditiva.

También destacan los proyectos REM (Relative Eye Mouse Device) y DIUWA 2.0 (Diseño de Interfaces de Usuario Web 2.0 accesibles), pero la información proporcionada no es muy útil.

Desgraciadamente, este sitio web tiene algunos problemas de accesibilidad. Ya se sabe, en casa del herrero, cuchara de palo. Por ejemplo, en la página Innovación como herramienta de integración podemos encontrar la siguiente imagen:


Desgraciadamente, esta imagen en la que aparecen diferentes mensajes (Tecnología, Educación Accesible, Accesibilidad) y diferentes entidades con las que parece que colabora Indra (Universidad de Lleida, Universidad Politécnica de Madrid, Universidad de Castilla-La Mancha) sólo tiene como texto alternativo "La innovación nos une".

jueves, 15 de marzo de 2012

¿Qué es mejor, Flash o HTML5?

¿Qué es mejor, Flash o HTML5? La pregunta no debería tener respuesta, porque es como comparar naranjas y limones, pero hay mucha gente que se hace este tipo de preguntas.

Hace unos días recibí la siguiente consulta:
Últimamente he estado introduciéndome en el mundo de la accesibilidad, y, aunque ahora no me dedico a ello, es un tema que siempre tengo en cuenta.

Ahora mismo, trabajo creando cursos en Moodle, y me surge la duda de qué tecnología o herramientas usar para ello. Los últimos años se ha plagado los cursos de eLearning de contenidos hechos en Flash y subidos como paquetes SCORM. Pero dado que Flash está en extinción, y viendo todos los inconvenientes que tiene, entre ellos, los referentes a accesibilidad, me estaba preguntando si HTML5 sería la mejor elección para los contenidos de los cursos de eLearning.

Sé que tu especialidad es la accesibilidad, pero te agradecería enormemente si me dieras tu opinión acerca de esto. He leído los artículos de tu blog acerca de HTML5 y de Flash. No tengo dudas de abandonar completamente el Flash, la duda es si además de HTML5 hay alguna otra tecnología para crear contenidos accesibles, multiplataforma, etc. En definitiva, si hay más tecnologías que puedan ser tan accesibles (hablando ya en un sentido más general, tanto a nivel humano como del dispositivo que uses) como HTML5. También me preocupa desarrollar ya contenidos en HTML5 y que haya problemas para verlos dependiendo del navegador.
Y mi respuesta fue:
Flash no tenía características de accesibilidad desde el principio. Posteriormente se añadieron, pero por necesidad, porque lo pidió la gente. Incluso así, aunque se utilicen las características de accesibilidad de Flash, los objetos hechos en Flash siempre han tenido un problema: en algunos navegadores no se puede acceder a ellos directamente con el teclado (nosotros no nos damos cuenta de ello porque lo usamos con ratón). Una persona ciega o una persona con problemas de movilidad que utilice sólo el teclado, tendrá graves problemas de accesibilidad con los objetos hechos en Flash.

HTML siempre ha tenido en cuenta la accesibilidad. Puede ser mejor o peor, aún tiene muchas cosas por solucionar, pero se tiene el compromiso de ello. Por tanto, entre Flash y HTML5, sin duda HTML5 es mejor. Aquí puedes encontrar algo de información interesante sobre HTML5 y la accesibilidad: http://html5accessibility.com/

Un problema importante para que HTML5 triunfe es la falta de buenas herramientas de autor. Flash siempre ha tenido buenos (o malos) entornos de desarrollo, pero por ahora HTML5 carece de ello. Sin embargo, todo es cuestión de tiempo. Incluso Adobe está desarrollando su propia herramienta, Edge (http://labs.adobe.com/technologies/edge/) o Wallaby
(http://labs.adobe.com/technologies/wallaby/), su propio conversor de Flash a HTML5.
Yo no conozco otra tecnología que permita crear contenidos accesibles, multiplataforma, etc. HTML5 no es perfecto, pero es la única tecnología estándar que tenemos por el momento, y eso es un gran avance.

Sobre lo de crear ya contenidos en HTML5, el W3C anima a ello, no hay que esperar a que HTML5 sea una recomendación (lo cual se espera que ocurra en el año 2014). Pero hay que saber usar HTML5 con cuidado y ser consciente de lo que funciona en la mayoría de los últimos navegadores. En el caso de los contenidos educativos no veo ningún problema, porque es muy normal en los cursos online exigir unos requisitos mínimos de software a los alumnos, así que se puede exigir a los alumnos que utilicen unos navegadores concretos.

Hoy en día, las últimas versiones de los navegadores de verdad (Firefox, Opera, Chrome y Safari) implementan ya muchas de las nuevas características de HTML5. Para saber el nivel de compatibilidad con HTML5 te recomiendo la página The HTML5 test, en el apartado Other browsers hay una comparativa. A día de hoy, el navegador más compatible es Google Chrome 17:
  • Google Chrome 17.0: 374 puntos
  • Mozilla Firefox 10.0: 332 puntos
  • Opera 11.60: 329 puntos
  • Apple Safari 5.1: 302 puntos
  • Microsoft Internet Explorer 9: 141 puntos

miércoles, 14 de marzo de 2012

Traductor portátil de la lengua de signos

Según la noticia Technology that translates sign language into text aims to empower sign language user, en la Universidad de Aberdeen (Escocia) han desarrollado un traductor portátil de la lengua de signos llamado Portable Sign Language Translator (PSLT).

La noticia dice que este software es el primero de su tipo a nivel mundial: con este software y con un dispositivo que tenga una cámara de vídeo (por ejemplo, un teléfono móvil moderno, una tableta o una webcam conectada a un ordenador), un usuario que se comunique mediante la lengua de signos se puede comunicar con cualquier persona, ya que el sistema traduce sus signos a texto.

El sistema está en desarrollo, pero promete revolucionar totalmente la comunicación entre personas sordas y no sordas. Según la noticia, el número de personas en el Reino Unido cuya primera lengua es la Lengua Británica de Signos se estima entre 50.000 y 70.000 personas.

Esta noticia me recuerda el proyecto GANAS (Generador de Animaciones para el Lenguaje de Signos) desarrollado en la Universidad de Castilla-La Mancha y que tiene como objetivo justo lo contrario: desarrollar un avatar tridimensional que traduzca un texto a la lengua de signos.

martes, 13 de marzo de 2012

El Día Mundial del Glaucoma

Ayer lunes 12 de marzo se celebró el Día Mundial del Glaucoma. El glaucoma es una enfermedad crónica que puede afectar muy gravemente a la visión. Puede llegar a causar ceguera y es considerada la segunda causa de ceguera en el mundo occidental.

En el artículo Un día para la ceguera que no duele, nos dicen que unos 500.000 españoles padecen glaucoma y un 5% de los casos puede derivar en ceguera:
Esta patología, que afecta a unos 60 millones de personas en el mundo, se caracteriza por una degeneración del nervio óptico causada por un aumento de la presión dentro del ojo. Un millón de españoles la padece, aunque la mitad de ellos lo desconoce. Con un diagnóstico a tiempo, puede iniciarse un tratamiento dirigido a frenar su progresión. Sin este tratamiento temprano, el 5% de los casos de glaucoma puede derivar en ceguera.

En Internet podemos encontrar varios ejemplos y simuladores de glaucoma y otros problemas de visión:

En mi sitio web sobre accesibilidad web tengo la página Simuladores de personas con discapacidad visual en la que comento varias herramientas que permiten simular diferentes problemas de visión. De todas ellas recomiendo Web Accessibility Toolbar, que posee un apartado con diferentes simulaciones: retinopatía diabética, cataratas, degeneración macular, glaucoma, ceguera al color y contraste reducido.

lunes, 12 de marzo de 2012

El W3C dice que HTML5 transformará la Web

La semana pasada, del 6 al 10 del marzo, se celebró el CeBIT en Hannover (Alemania). El nombre CeBIT (Centrum der Büro-und Informationstechnik) significa Centro para la Tecnología de la Información y de la Oficina. El CeBIT está considerada la feria de exposición de ordenadores, tecnologías de la información, telecomunicaciones, software y servicios más importante del mundo.

En la noticia W3C CEO calls HTML5 as transformative as easly Web nos cuentan cómo fue la participación de Jeff Jaffe, directivo del W3C. Según este directivo, HTML5 será una tecnología disruptiva con tanto poder y efecto como los que ocurrió durante los primeros años de la Web:
We’re about to experience a generational change in Web technology, and just as the Web transformed every business, (HTML5) will lead to another transformation.
Jeff Jaffe también destacó que HTML5 ofrecerá nuevas posibilidades para mejorar la accesibilidad de los sitios web.

Jeff Jaffe recordó que HTML5 no será un estándar hasta el año 2014. También reconoció que algunas críticas sobre el rendimiento de HTML5 y sobre su nivel de madurez para sustituir otras tecnologías (por ejemplo, Flash) tienen un fundamento real. Sin embargo, explicó que es algo normal en cualquier tecnología cuando se introduce por primera vez. Preguntado por el dilema aplicación nativa o aplicación web, Jeff Jaffe contestó que no lo veía como una competición, pero se decantó por las aplicaciones web debido a la gran diversidad de dispositivos que existen y a la necesidad creciente, por cuestión de costes, de disponer de una plataforma estándar.

sábado, 10 de marzo de 2012

Uso de tabletas táctiles para ayudar a los estudiantes ciegos a aprender matemáticas

En la Wikipedia podemos encontrar la definición de tecnología háptica:
La tecnología háptica se refiere al conjunto de interfaces tecnológicos que interaccionan con el ser humano mediante el sentido del tacto. Se trata de una tecnología emergente desde los 90 que está evolucionando prometedoramente en algunos campos de aplicación.
Todo aquel que haya jugado alguna vez con una consola moderna, como una PlayStation 2 o una XBox 360, ya ha probado una interfaz háptica: la vibración del mando. En realidad, el modo vibrador de un teléfono móvil también es una interfaz háptica.

Puede parecer sorprendente, pero los teléfonos con pantalla táctil han supuesto una gran revolución para las personas con problemas de visión. El teléfono iPhone destaca entre los demás por su lector de pantallas, VoiceOver, y por su nuevo asistente, Siri.

En el artículo App turns tablet into math aid for visually impaired students nos cuentan que en la Vanderbilt University (Estados Unidos) han desarrollado una aplicación para tabletas basadas en el sistema operativo Android que permite sentir con los dedos figuras geométricas. El objetivo es ayudar a los estudiantes con problemas de visión para que puedan entender mejor los conceptos matemáticos, como la geometría, que tienen un alto componente visual.

En la noticia se comenta que el coste de los dispositivos que se emplea en el proyecto ha disminuido enormemente, lo cual es una gran ventaja para que se difunda su uso y acabe siendo una realidad para miles de usuarios: cuando comenzó el proyecto hace 18 meses se empleaba un modelo industrial que costaba $2,500, mientras que ahora se emplean tabletas domésticas que cuestan $300.

Y a continuación, un vídeo (en inglés) en el que podemos ver una demostración de su uso:



Más información:

viernes, 9 de marzo de 2012

Textos claros y fáciles de leer: Visual-Syntactic Text Formatting

La legibilidad es una característica o propiedad que define la facilidad de lectura y comprensión de un texto. Que un texto sea legible ayuda a que sea más fácil de leer para todos y en especial para las personas con problemas de lectura y/o discapacidades cognitivas. Por tanto, la legibilidad de los textos es un aspecto esencial en la accesibilidad web. Desgraciadamente, muchas veces se olvida.

Recordemos que las Pautas de Accesibilidad al Contenido en la Web 1.0 dedican la pauta 14 "Asegúrese de que los documentos sean claros y simples" a este tema:
  • 14.1 Utilice el lenguaje apropiado más claro y simple para el contenido de un sitio. [Prioridad 1]
  • 14.2 Complemente el texto con presentaciones gráficas o auditivas cuando ello facilite la comprensión de la página. [Prioridad 3]
  • 14.3 Cree un estilo de presentación que sea coherente para todas las páginas. [Prioridad 3]

Hace unos días comentaba con unos compañeros de departamento lo mal que escriben nuestros alumnos, incluso cuando intentan escribir bien. Y no me estoy refiriendo a cuando nos escriben como si fuese un SMS. En concreto, estuvimos hablando sobre el uso de los signos de puntuación y las frases "kilométricas" que a veces escriben algunos alumnos.

Acabo de encontrar un par de artículos sobre Visual-Syntactic Text Formatting (VSTF), que se puede traducir como "Formateo del texto visual y sintáctico". Es una propuesta muy interesante, aunque quizás con poco futuro por lo innovadora que es, que permite escribir textos más fáciles de leer.

El sistema consiste en emplear la sintaxis de los textos para transformar su presentación visual en un "modelo en cascada" o jerárquico. Más o menos, es lo mismo que hacemos cuando programamos o escribimos código HTML y utilizamos el tabulador (la sangría) para indicar la estructura jerárquica del código. Veamos un ejemplo que aparece en los artículos que he consultado.

La siguiente imagen contiene el texto de la primera frase que aparece en la Declaración de Independencia de los Estados Unidos:


La propuesta VSTF transformaría la presentación visual del texto en esto otro:


Y aquí otro ejemplo, primero el texto original:


Y después el texto transformado según el sistema VSTF:


Cómo he dicho antes, muy parecido a la forma de escribir el código cuando se programa o cuando se escribe un documento HTML. Según los datos presentados por sus autores, la comprensión de los textos aumenta al emplear esta presentación de los textos.

No creo que este sistema sea útil para todo el mundo. Pero sí que sería interesante implantarlo en algunas tecnologías de apoyo destinadas a personas con problemas de lectura y/o discapacidades cognitivas.

Por último, por si alguien los quiere consultar, estos son los dos artículos que he encontrado sobre VSTF:
Finalmente, en la categoría Legibilidad de este blog se pueden encontrar más entradas sobre este tema, como por ejemplo:

miércoles, 7 de marzo de 2012

Mejoras en el sistema para controlar el ordenador con la lengua

El artículo Tongue Drive System Goes Inside the Mouth to Improve Performance and User Comfort nos cuenta que en el Georgia Institute of Technology han desarrollado un sistema para controlar el ordenador u otros dispositivos, como una silla de ruedas, con el movimiento de la lengua. Este tipo de sistema está destinado para personas que han sufrido un gran daño en la médula espinal y que sufren de tetraplejia.

El nuevo sistema que se ha presentado mejora el que previamente existía que consistía en un casco que detectaba el movimiento de un imán que estaba implantado en la lengua del usuario a modo de piercing. El nuevo sistema emplea una especie de protector dental con una serie de detectores, tal como podemos ver en la siguiente imagen.


Este nuevo sistema es más cómodo que el existente, ya que en el sistema antiguo basado en el casco, éste se podía mover y había que realizar un proceso de calibración cada vez que se usaba. Además, al estar los sensores más cerca del imán, se mejora la relación señal-ruido y, por tanto la precisión.

Este sistema presenta una gran ventaja frente a otros sistemas como los de pulsadores o los de inspiración-espiración, ya que permite una mayor variedad de combinaciones.

A continuación un vídeo donde podemos ver el uso del sistema antiguo. Desgraciadamente, según el vídeo, aún se está lejos de poder comercializar este sistema.



Más información:

martes, 6 de marzo de 2012

Encuesta: ¿Está cambiando la prioridad en realizar una web accesible, en España, por la crisis?

Alan Chuter, organizador del encuentro Madrid Accesibilidad TICs ha creado una encuesta online para apoyar  una de las discusiones que tendrá lugar en el próximo encuentro: ¿Está cambiando la prioridad en realizar una web accesible, en España, por la crisis?

La explicación a la pregunta que plantea es:
Por tu propia experiencia, si trabajas en una empresa o en la administración pública o una ONG, ¿ha afectado la crisis los proyectos en que trabajas? ¿Ha mejorado o ha empeorado el nivel de accesibilidad? El resultado de la encuesta nos servirá para el debate la semana que viene.
Y las posibles respuestas son:
  • Se ha reducido el esfuerzo en cuanto a la accesibilidad
  • Ha aumentado
  • No noto ningún cambio

Nuevo encuentro Madrid Accesibilidad TICs en marzo

El miércoles 14 de marzo habrá un nuevo encuentro de Madrid Accesibilidad TICs. Por ahora, los temas a tratar están por determinar y los organizadores aceptan que cualquiera pueda realizar una charla u organice una tertulia.

Para los que no pudieron asistir a los dos primeros encuentros, Rosana Naveira ha publicado un resumen de cada uno de ellos:
El encuentro tendrá lugar en el lugar de costumbre, la Sala Ciball en la calle Corredera Baja de San Pablo, 41, en Madrid.

lunes, 5 de marzo de 2012

Juegos controlados con la vista para niños con discapacidad

La noticia Eye-controlled computer games for disabled children nos cuenta que el Centre for Computational Intelligence de la De Montfort University, una universidad situada en Leicester (Reino Unido), están empleando sistemas de eye tracking (seguimiento del ojo) para que niños con movilidad limitada puedan jugar con videojuegos. Además, el sistema también les permite moverse por entornos virtuales y, por qué no, por entornos reales.

Según dice la noticia, el sistema que están desarrollando es de bajo coste. En el siguiente vídeo se puede ver una demostración de uso de este sistema. En el vídeo aparece el proceso de calibración (acelerado) que requieren los sistemas de eye tracking.



Más información:

jueves, 1 de marzo de 2012

HTML5: situación actual y futuro

HTML5 es "el milagro, la piedra filosofal, el Dorado del desarrollo web". Los que llevamos muchos años en el desarrollo web la estábamos esperando desde hacía tiempo: una tecnología estándar, compatible con todos los dispositivos y con las suficientes características que nos permitan hacer todo lo que queramos sin tener que depender de terceras tecnologías. Una tecnología que nos permita construir desde un "Smart a un Hummer", desde un "Lada a un Lamborghini". Desgraciadamente, por ahora es un espejismo.

El artículo HTML5 still taking shape nos cuenta algunas cosas interesantes sobre la situación actual de HTML5 y sobre las expectativas que se han creado a su alrededor. Además, plantea el dilema entre desarrollar una aplicación nativa para cada dispositivo o el desarrollo de una aplicación web compatible con todos los dispositivos. A continuación, la traducción de los párrafos más interesantes:
Hoy en día, hay pocas dudas de que la industria ha adoptado HTML5 como la mejor solución para el desarrollo y distribución de aplicaciones ricas (rich applications) compatibles con múltiples navegadores y dispositivos. Somos testigos de la desaparición de Flex, del reposicionamiento de Flash, y del anuncio de Microsoft de que Silverlight 5 será la última versión para navegador.

[...]

"Esto no tiene precedentes en nuestra industria", dijo [Todd Anglin]. "Cada uno ha querido construir y poseer la plataforma, pero con la explosión de dispositivos en el mercado, ahora quieren ser dueños de las herramientas y los servicios".

¿Puede que todo esto se remonte a la decisión de Apple de no permitir plugi-ns y entornos de ejecución en su iPhone? En parte. Pero también se debe al creciente número de nuevos dispositivos que salen al mercado, cada uno con diferentes sistemas operativos. "Los plug-ins simplemente no se pueden mantener al día con el rápido aumento de todos estos dispositivos", dijo Anglin. "Incluso si se les permitiese, no podrían mantener el ritmo".

Jacobs citó un estudio que declaraba que dos mil millones de teléfonos móviles con navegadores estarán en circulación en dos años a partir de ahora, y todos esos navegadores afirman soportar los desarrollos basados en HTML5.

Pero es demasiado pronto para declarar a HTML5 el ganador en el desarrollo de aplicaciones web, afirman los expertos. De acuerdo con el sitio web builtwith.com, sólo el 8% de los principales 100.000 sitios web tienen algo de HTML5 detrás de ellos, y sólo el 14% de los principales 10.000 sitios tienen algo de HTML5, aunque sólo sea el empleo de Canvas. Además, sólo el 46% de los usuarios de Internet actuales tienen un navegador compatible con HTML5.

El problema, según Anthony Franco, presidente y cofundador de la empresa de desarrollo de software EffectiveUI, es que HTML5 aún no es un estándar. "Sólo porque alguien dice que su navegador es compatible con HTML5 no quiere decir que sea un estándar. Todos los navegadores soportan la recomendación del W3C [por HTML5] de diferentes formas", dijo.

[...]

Por lo tanto, ¿ha llegado HTML5 al nivel de Flash y Silverlight? La mayoría de los expertos dicen que todavía no, pero se está camino de ello.

[...]

También dijo el Grupo de Trabajo de Aplicaciones Web del W3C está trabajando en una nueva iniciativa para hacer frente "al acceso universal a las aplicaciones web mediante una amplia gama de dispositivos y por una gran diversidad de usuarios".

[...]

Uno de estos debates gira en torno a las necesidades del usuario y la experiencia del usuario. Montones de investigaciones muestran que los usuarios abandonan un sitio web si es lento en responder o no puede ofrecer lo que el usuario desea. Así que, una decisión a la que los desarrolladores web se deben enfrentar es la de escribir una aplicación que es nativa para un dispositivo, o utilizar los estándares web para llegar a más dispositivos.
[...]

¿Qué aproximación se debe adoptar?¿Flash? ¿Silverlight? ¿HTML5/JavaScript/CSS3/SVG?

Anthony Franco, presidente y cofundador de la empresa de desarrollo de software EffectiveUI, dijo que se debe contestar una serie de preguntas antes de elegir la plataforma de desarrollo:
  1. ¿Cuál es la duración esperada de la aplicación? ¿Con qué frecuencia se volverá a rescribir?
  2. ¿Cuál es el conjunto de habilidades de los desarrolladores? Las estadísticas muestran que hay cerca de 5 millones de desarrolladores web en el mundo, mientras que hay menos de 200.000 desarrolladores de Objective-C (para escribir aplicaciones nativas de iOS).
  3. ¿Dónde tiene que residir la aplicación?
  4. ¿Cómo de "rica" necesita ser la aplicación?
  5. ¿Cómo de integrada en los sistemas software actuales necesita estar?
  6. ¿Cuánto está dispuesto a poner en peligro las características de la aplicación en función de la plataforma elegida?
Más información:

miércoles, 29 de febrero de 2012

Donación a Médicos Sin Fronteras

Hace unos meses organicé el curso Introducción a la accesibilidad web en la Universidad de Alicante. El importe íntegro de la matrícula del curso se destinó a una donación para Médicos Sin Fronteras. La donación fue de 2.400€: se matricularon 8 alumnos y el importe de la matrícula era de 300€.

Acabo de recibir una carta de Médicos Sin Fronteras en la que se certifica que la donación ha sido efectiva:
[...] 
2. Que con fecha 16/12/2011 hemos recibido un total de 2400,00 Euros de UNIVERSIDAD DE ALICANTE DTO DE LENGUAJES Y SISTEMAS INFORMATICOS con domicilio social en CAMPUS DE SANT VICENT DEL RASPEIG AP. 99 en SANT VICENT DEL RASPEIG (ALICANTE) en concepto de donación irrevocable destinada a apoyar los proyectos de Médicos Sin Fronteras.
2.400€ nos puede parecer poco dinero, "un vaso de agua para millones de bocas sedientas", pero en los países a los que se destina la ayuda de Médicos Sin Fronteras, 2.400€ puede salvar muchas vidas.

jueves, 23 de febrero de 2012

Recopilación de entradas sobre el control mental del ordenador

Ayer tuve una reunión con un grupo que hemos formado para plantear proyectos relacionados con la mejora de la calidad de vida de las personas mayores. Uno de los temas que estamos contemplando es la inclusión de los grandes dependientes y una de las posibilidades que nos hemos planteado es la aplicación de algún sistema de control mental para que puedan utilizar el ordenador.

El control mental (mind control en inglés) es la posibilidad de controlar un dispositivo simplemente con el pensamiento. Para ello se emplean interfaces cerebro-ordenador (brain-computer interfaces).

En el siguiente vídeo podemos ver un ejemplo de control mental de un brazo robótico por parte de una persona que ha perdido un brazo: no es exactamente un control mental completo, ya que este tipo de control mental se aprovecha de los nervios que controlaban el movimiento del brazo que perdió.



El control mental completo es el que podemos ver en el siguiente vídeo en el que un mono controla con su pensamiento un brazo robótico. Aunque no se puede ver, pero se puede intuir, el mono tiene un implante dentro de su cerebro al cual se conectan unos cables que transmiten sus señales eléctricas cerebrales a un ordenador que las procesa. Este sistema es invasivo, porque requiere de una cirugía cerebral que entraña grandes riesgos. Comercialmente, estos sistemas no tienen mucho futuro. Pero son el primer paso.



En la actualidad, lo que se intenta desarrollar es un sistema no invasivo, a modo de casco que se pueda quitar o poner el usuario en cualquier momento. Por ahora, los sistemas no invasivos obtienen peores resultados que los sistemas invasivos (los sensores captan mucho "ruido cerebral"), pero todo es cuestión de tiempo.

Ya existe algún sistema comercial que se puede comprar "en la tienda", como el sistema Emotiv Epoc. El precio de venta actual son $299, lo cual es una ganga si realmente se puede hacer lo que promete (que lo dudo). En el siguiente vídeo nos lo explican y nos lo muestran en funcionamiento.



El objetivo final de todo esto es poder utilizar el ordenador con la mente en vez de con el teclado y el ratón. Del avance más prometedor me hice eco el año pasado en la entrada Otros que se apuntan al control mental del ordenador (05/06/2011). En la Universidad Ben-Gurion de Negev, han logrado que una persona pueda escribir un correo electrónico de 12 caracteres en 7 minutos, pero después de que la persona haya recibido un entrenamiento específico para ello.

En estos últimos años he escrito varias entradas sobre este tema. Todas ellas se encuentran disponibles en la etiqueta control mental, pero a continuación resumo algunas de las más importantes:

Universidades españolas


Universidades extranjeras que investigan en control mental

Productos comerciales



miércoles, 22 de febrero de 2012

BrailleTouch para iPhone e iPad

El artículo Georgia Tech Develops Braille-Like Texting App presenta un prototipo de aplicación gratuita para móvil con pantalla táctil que permite convertirlo en un teclado braille. Por ahora se trata de un prototipo para iPhone y iPad, pero ya están trabajando también en la versión para Android.

Un teclado braille es un dispositivo de entrada que permite representar cualquier carácter mediante la pulsación simultánea de unas pocas teclas, lo que permite alcanzar una gran velocidad de escritura. Los teclados braille suelen poseer 6 u 8 teclas principales, más una serie de teclas auxiliares. En el caso de BrailleTouch, el teclado es la pantalla táctil del móvil y está compuesta por 6 teclas que pueden pulsarse simultáneamente.

En principio, parece que lo han desarrollado para todo el público, no sólo para los usuarios ciegos, pero los usuarios ciegos se pueden beneficiar enormemente ya que un iPhone con este software puede sustituir a aparatos más caros y pesados como el PAC Mate Omni.

Un vídeo donde se explica su uso y se hace una demostración (incluye subtítulos en inglés que se pueden traducir automáticamente al castellano):


martes, 21 de febrero de 2012

El proceso de estandarización del W3C

Ayer escribí la entrada De los estándares, normas, recomendaciones y otras "tonterías" en la que quise explicar lo importante que son los estándares en nuestras vidas y los beneficios que nos aportan. Aunque no nos demos cuenta, estamos rodeados de estándares por todas partes: el tamaño del papel que tengo encima de mi mesa, el casquillo de la bombilla que ilumina mi oficina, el conector USB del teclado y del ratón que estoy usando ahora mismo, la disposición de las teclas en el teclado que estoy usando ahora mismo para escribir este texto, etc., todo eso y mucho más está basado en estándares internacionales que nos hacen la vida un poco más sencilla. Sin los estándares, la vida podría ser un auténtico caos.

Y por supuesto, el lenguaje HTML, CSS, DOM y JavaScript con el que está creado Blogger y que me permite usarlo con cualquier navegador, lo que me evita el tener que tener un navegador concreto que me exija Google para poder usar Blogger. Mejor no imaginemos qué pasaría si no hubiese estándares en el desarrollo web...

Los estándares (también llamados normas) se pueden clasificar de diferentes formas. Así, por ejemplo, podemos hablar de:
  • Estándar cerrado, abierto o libre.
  • Estándar legal (de iure) o de hecho (de facto).
  • Estándar nacional, internacional o industrial.
Los estándares normalmente son creados por organizaciones, públicas o privadas, como puede ser AENOR en España, DIN en Alemania, ANSI en Estados Unidos o ISO a nivel internacional. Estos estándares pueden estar oficialmente respaldados en el ordenamiento jurídico de un país, es decir, son de obligado cumplimiento por ley.

El World Wide Web Consortium (W3C) es un consorcio internacional e independiente que fue fundado en octubre de 1994. Está formado por empresas, organizaciones gubernamentales y no gubernamentales, que tiene como misión guiar la Web hacia su máximo potencial. Para ello, el W3C promueve la evolución e interoperatividad de la Web desarrollando especificaciones, protocolos y recomendaciones.

En la actualidad, el W3C no tiene el mismo peso legal que tiene, por ejemplo, ISO. Supongo que por ello, las especificaciones y protocolos que crea el W3C se llaman "recomendaciones", aunque en el mundo del desarrollo web reciben la misma consideración que cualquier estándar en otra industria. Las recomendaciones del W3C son estándares de hecho: estándares no oficiales, pero que debido a su enorme penetración y aceptación en el mercado, tienen el mismo peso que un estándar oficial.

Desgraciadamente, un estándar no es siempre la mejor opción posible entre todas las existentes, y muchas veces se tarda mucho en desarrollar un estándar porque hay que encontrar un consenso entre muchas partes, cada una con sus propios intereses (no creamos que W3C es una organización tan independiente como se pueda pensar, ya que está formada principalmente por personas de las empresas y organizaciones que más intereses tienen en el tema, como Microsoft, Google, Apple, Opera y Mozilla). Es el precio que hay que pagar para luego poder tener una serie de beneficios.

Para lograr el consenso entre todas las partes implicadas, el W3C tiene definido un proceso (World Wide Web Consortium Process Document). Este proceso consta de siete pasos:
  1. Submission: un miembro del W3C puede enviar una propuesta de estándar al W3C.
  2. Note: a menudo, la propuesta se convierte en una nota que se hace pública. Una nota es simplemente la exposición pública de una propuesta. No supone en ningún modo que tenga el apoyo del W3C, no supone que se haya iniciado ningún trabajo de estandarización y el único propósito es crear un foro de discusión.
  3. Working Group: cuando el W3C reconoce que una propuesta tiene interés y se debe desarrollar, se establece un grupo de trabajo. El grupo de trabajo establece un calendario de trabajo y publica un primer borrador con la propuesta que se quiere estandarizar.
  4. Working Draft: un borrador de trabajo es un documento que se expone públicamente para mostrar el progreso en el desarrollo de una nueva recomendación. Junto con su publicación se establece un calendario para que el público pueda participar y enviar comentarios y correcciones. Un borrador de trabajo nunca se debería emplear como material de referencia, porque puede ser actualizado, reemplazado o incluso declarado como obsoleto en cualquier momento.
  5. Candidate Recommendation: una recomendación candidata es un borrador de trabajo que ha alcanzado un alto nivel de madurez, pero que también puede ser actualizado, reemplazado o incluso declarado como obsoleto en cualquier momento, como cualquier otro borrador de trabajo. El propósito de la recomendación candidata es que sea implementada y probada para comprobar que su uso es factible.
  6. Proposed Recommendation: después de que todas las características de la recomendación candidata hayan sido implementadas, se publica la propuesta de recomendación que representa la última etapa previa a la publicación definitiva de la recomendación.
  7. Recommendation: una vez que la propuesta de recomendación haya recibido el apoyo suficiente, se publica la recomendación, que ya tiene el carácter de documento estable. A partir de ese momento, el W3C sí que apoya y fomenta su uso y difusión.
Posteriormente, una recomendación puede ser actualizada para corregir errores y clarificar algunos aspectos que puedan ser confusos o ambiguos. Pero esto no se convierte en una nueva recomendación, sino que es una nueva edición de la recomendación ya existente. Por ejemplo, XML 1.0 ya va por su quinta edición (26 de noviembre de 2008), aunque la primera edición fue publicada el 10 de febrero de 1998.

Evidentemente, algunas especificaciones son más complejas que otras, y pueden requerir más tiempo, más pruebas y la participación de más gente. Por ejemplo, WCAG 2.0 fue publicada el 11 de diciembre de 2008. Pero podemos encontrar un borrador de trabajo del 25 de enero de 2001.

Y algunas no llegan nunca a ser recomendación. Por ejemplo, el W3C estuvo trabajando en XHTML 2.0 más de ocho años (existe un borrador de trabajo del 5 de agosto de 2002) para nada, ya que su desarrollo fue cerrado el 17 de diciembre de 2010 en favor de HTML5.

Por tanto, como podemos intuir por todo lo anterior, crear una recomendación dentro del W3C no es el resultado de "cinco amiguetes que se reúnen dos tardes y escriben un documento". Es el resultado de un largo y laborioso proceso.