Buscador

Mostrando entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas

viernes, 16 de junio de 2023

Aplicaciones de la inteligencia artificial para la accesibilidad

En  Accessibility and Artificial Intelligence comentas algunas aplicaciones de la inteligencia artificial para la accesibilidad.

Básicamente, las dos situaciones que comenta son de sobra conocida: la generación automática de subtítulos en los vídeos y la generación automática de texto alternativo en las imágenes.

miércoles, 14 de junio de 2023

Los peligros de la inteligencia artificial para la accesibilidad web

En Five accessibility bugs GitHub Copilot offers to create explican los peligros de confiar en la inteligencia artificial en cuanto a la accesibilidad de una página web:

I like GitHub Copilot, at least for the narrow range of purposes I mentioned earlier. At the time I'm writing this up, there have been announcements about the next version of Copilot. Perhaps the next version will be fix some of these issues.

The danger here is that developers accept code suggestions, assuming that they're good. The 'wisdom of the crowd' could suggest that code based on millions of lines of code won't contain bugs. As demonstrated, this is not true.

Filtering the output, as it currently does to remove "offensive output", is possible. That probably wouldn't work better than current automatic accessibility testing and linting. So it would be an improvement, but not an absolute fix.

In my opinion, the responsibility always rests with the developer using the tool.

You shouldn't accept code suggestions from GitHub Copilot if you don't understand them. If you're expecting a certain type of suggestion, and you get one with extra attributes, you need to look them up. Don't use the code until you understand what every part of it does.

This could have a positive side. Maybe. It's possible that Copilot suggests accessibility considerations that people would otherwise have missed. Making people consider how to incorporate accessibility into their work normalizes it.

Adrian Roselli tampoco confía mucho en la inteligencia artificial para resolver los problemas de accesibilidad. En  No, ‘AI’ Will Not Fix Accessibility explica:

Large language models are habitual liars. Meanwhile, automated image descriptions aren’t much better. To give them the benefit of the doubt, perhaps these tools simply lack context.

As image tools get better at describing every detail of a picture, as language models do a better job of conveying an emoji-laden tweet in actual words, they are still not the authors of that content. They have no sense of why it was created. They cannot tell you that a series of vertical lines is meant to signify a wall in a meme.

lunes, 16 de noviembre de 2020

Una crítica a los sistemas que prometen accesibilidad web con una sola línea

 Según Eric Eggert, los accessibility overlay basados en inteligencia artificial no cumplen lo que prometen. Lo cuenta en su vídeo 5 False Claims 1-Line “AI” Accessibility Script Vendors Make:

Y el inicio de la transcripción:

They claim to be the be-all and end-all of all accessibility worries: “AI” accessibility tools. They say they provide “100% WCAG 2.1 compliance”. They say it only takes one line of JavaScript to “fix your website for accessibility”.

Who are “they”? VC-backed companies that promise affordable, effortless compliance for your website. If you think “that sounds too good to be true”, you’re right. It is indeed quite the opposite of true.

Here are five claims that “AI” accessibility script vendors make that are misleading or completely untrue.

(Intro.)

I’m Eric Eggert, a Web Accessibility Expert. You can follow me as @yatil — Y-A-T-I-L — on social media. If you have questions about this or other videos, or want to propose a topic, ask in the comments, or use the hashtag #askYatil on Twitter.

Before we get into it, whenever I say AI, please imagine the most expressive air-quotes gesture possible.

Okay!


viernes, 2 de octubre de 2020

Cuidado con las herramientas automáticas de revisión de la accesibilidad web

En Use Caution with Automated Tools that Promise 100% Accessibility Compliance se explica:
Automated accessibility testing tools, powered by artificial intelligence (AI) and code-scanning technology, can be an important part of an accessibility testing plan — but, they must remain just a part. Automated testing on its own should not replace manual testing by an accessibility expert and should not be used as the only way to show compliance.
Y avisa del peligro del texto alternativo generado de forma automática mediante inteligencia artificial:
As technology advances, there are even image-recognition programs that can with some accuracy guess what an image depicts and generate alt text. On one hand, it's incredible that this technology exists. On the other, it presents an additional layer of review required by human beings. The real purpose of an image in the context of a web page, the real feeling somebody is supposed to be exposed to, the real information conveyed by an image can't be decided by a machine — at least not yet.

lunes, 19 de febrero de 2018

Sistema de subtitulado y audiodescripción en la televisión digital

En Nueva tecnología para hacer más accesible la televisión a personas con discapacidad visual y auditiva se explica:
El grupo de investigación SoftLab de la Universidad Carlos III de Madrid (UC3M) y el Grupo Lavinia estrechan su colaboración para conseguir una televisión más accesible a todas las personas que presentan algún tipo de discapacidad visual y/o auditiva.
Se han desarrollado tres sistemas:
  • El sistema de subtitulado a tiempo real es posible gracias a la inteligencia artificial. El sistema es válido para programas en directo con "voz limpia", es decir, sin música u otros ruidos cuando se esté hablando.
  • El sistema de audiodescripción permite emitir el texto de la audiodescripción en un nuevo canal de subtítulos y en tiempo real. La audiodescripción sólo la escucha la persona interesada y no interfiere con el resto de espectadores.
  • Por último, la tecnología Pervasive permite el acceso a la televisión a la personas sordociegas.



miércoles, 6 de abril de 2016

Microsoft presenta un sistema automático que describe imágenes

Microsoft ha desarrollado CaptionBot, un sistema de inteligencia artificial que puede describir el contenido de fotografías. Este sistema puede ser útil para generar un texto alternativo automático. Sin embargo, lo he probado y...

Lo he probado con tres fotografías mías y los resultados son bastante curiosos.

La primera fotografía bien, me dice "pienso que es un hombre que lleva un sombrero y está sonriendo". Es verdad:


En la segunda fotografía empieza a desvariar, me dice "pienso que es un hombre con gafas, está posando para la cámara y tiene un gesto serio, pienso que te pareces a Paul Schneider en un 51%". ¿Y quién es Paul Schneider? Un actor:



La tercera fotografía vuelve a desvariar un poco. Me dice que llevo corbata y esta vez me parezco en un 51% a Chris Kirkpatrick:



¿Puede ser útil este sistema?

Quizás, hasta cierto punto...

jueves, 12 de julio de 2012

Aplicación con inteligencia artificial para ayudar a las personas ciegas

La Imagine Cup 2012 que organiza Microsoft está dando muy buenos resultados en cuanto a la accesibilidad y las personas con discapacidad. Y bueno, quizás sea por el tema que tenía este año: Imagina un mundo en el que la tecnología ayuda a resolver los problemas más difíciles.

Hace unos días escribí la entrada Guantes que traducen la lengua de signos en habla en la que me hacía eco de los ganadores de la competición que habían inventado un guante que traduce la lengua de signos en habla.

Ahora acabo de leer el artículo Artificial intelligence app helps blind people en el que se comenta que uno de los finalistas, un grupo de estudiantes de la Universidad de Auckland y la Universidad Tecnológica de Auckland (Australia), han desarrollado un aplicación para teléfonos móviles inteligentes (smarphones) que permite a las personas ciegas percibir lo que tienen alrededor.

La aplicación permite tomar una fotografía y mediante inteligencia artificial se intenta reconocer lo que contiene la fotografía, como formas, colores, texturas y objetos. En aquellos casos en que la inteligencia artificial no sea capaz de reconocer la fotografía, se la envía a un amigo o un voluntario para que realice la descripción de forma manual.

jueves, 29 de marzo de 2012

El coche que conduce sólo de Google y los vídeos accesibles

Desde hace un par de años, Google está trabajando en el desarrollo de un coche que conduzca por el solo. ¿Ciencia ficción? No, ya es una realidad. En el artículo How Google's Self-Driving Car Works (octubre 2011) nos explican cómo es posible este milagro de la inteligencia artificial:
  • El sistema emplea un láser montado en el techo del coche para crear un mapa 3D del entorno cercano.
  • Estas medidas se combinan con mapas de alta resolución para crear modelos del mundo que se emplean para tomar las decisiones de conducción.
  • Además, también se emplean otros tipos de sensores: 4 rádares, montados por delante y por detrás; una cámara para detectar los semáforos; un GPS y una unidad de medición inercial para medir la posición; y un codificador en las ruedas para controlar su movimiento.
Pero todo el sistema tiene una pequeña trampa: para que el coche realice una ruta de forma autónoma, Google necesita enviar antes uno o varios coches conducidos de forma manual para que adquieran información detallada sobre la ruta.

El coche de Google ha sido capaz de conducir más de 300.000 km sin que se tenga constancia de ningún accidente provocado por él. Sí que tuvo un accidente, pero parece que fue causado por un humano: Google self-driving car crash caused by human.

Este tema de los coches autónomos se lo toman muy en serio en Estados Unidos. En febrero de este año apareció la noticia de que el estado de Nevada era el primero que aprobaba una legislación sobre los coches que conducen por ellos mismos: Nevada Approves Self-Driving Cars after Google Lobbying Push.

En realidad, el origen de todo esto está en el ejército de los Estados Unidos y en su agencia para el desarrollado de proyectos avanzados DARPA (Defense Advanced Research Projects Agency) . Desde el año 2004, DARPA organiza el Gran Challenge, un concurso/carrera que tiene como objetivo lograr el desarrollo de vehículos autónomos para el ejército.

Volviendo al coche que conduce solo de Google, acaban de publicar un vídeo en el que una "persona ciega conduce el coche". En realidad, han publicado dos vídeos, con idéntico contenido, pero uno de ellos con audio descripción destinado a las personas ciegas que no pueden ver el vídeo.

Vídeo sin audio descripción:


Vídeo con audio descripción:


En el vídeo con descripción podemos comprobar cómo se explica lo que podemos ver en la imagen, como que una persona sale de la puerta principal de su casa con un jersey marrón y unos pantalones color caqui para dirigirse a un coche con los logos de Google.

Lástima que no hayan incluido también subtítulos para las personas sordas, aunque quizás lo hayan hecho porque YouTube ofrece un servicio de audio transcripción automática desde hace tiempo que evita el tener que añadir los subtítulos de forma manual, aunque por ahora sólo está disponible en inglés y su exactitud no es muy buena.

jueves, 13 de noviembre de 2008

El reconocimiento de voz cada vez mejor

Acabo de leer en El País la noticia Yo hablo y tú escribes. Según la noticia, los sistemas de reconocimiento de voz cada vez son mejores y ya casi logran una exactitud perfecta. Un gran beneficio para todos los usuarios y en especial para algunos usuarios con discapacidad que emplean estos sistemas para interactuar con el ordenador.

Para el que quiera saber algo más sobre el tema, en la Wikipedia se explica qué es el Reconocimiento del habla:
El Reconocimiento Automático del Habla (RAH) o Reconocimiento Automático de voz es una parte de la Inteligencia Artificial que tiene como objetivo permitir la comunicación hablada entre seres humanos y computadoras electrónicas. El problema que se plantea en un sistema de RAH es el de hacer cooperar un conjunto de informaciones que provienen de diversas fuentes de conocimiento (acústica, fonética, fonológica, léxica, sintáctica, semántica y pragmática), en presencia de ambigüedades, incertidumbres y errores inevitables para llegar a obtener una interpretación aceptable del mensaje acústico recibido.