martes, 15 de diciembre de 2015

Una máquina logra aprender con la habilidad de los seres humanos

  • ·  Un programa consigue adquirir conceptos nuevos a partir de un único ejemplo
  • ·  El sistema permite a un ordenador escribir 'a mano' de forma indistinguible de las personas


Un ordenador ha reproducido por primera vez la habilidad humana de aprender un concepto-en concreto, un símbolo alfabético - a partir de un sólo ejemplo. Así lo revela un artículo publicado en la revista 'Science' por investigadores de Estados Unidos y Canadá. Los científicos han programado la máquina para llevar a cabo una tarea hasta ahora exclusiva de los humanos. Le han presentado al programa y a unos voluntarios letras de los 50 alfabetos del mundo escritas a mano. Tanto el algoritmo como los voluntarios consiguen reproducirlas tras observar un solo ejemplo de cada letra, de manera que un juez externo no sabe distinguir lo que ha escrito el ordenador de las letras de los humanos. La máquina lleva a cabo también tareas más complejas, como partir los caracteres en trozos o generar caracteres ficticios que parecen reales, con una habilidad igual a la humana.

Investigadores no implicados en el trabajo concuerdan que es un resultado impactante. “Es pronto para decir que es una revolución, pero es realmente prometedor”, afirma Arturo Ribes, científico del Instituto de Investigación de Inteligencia Artificial (IIIA-CSIC) de Barcelona. “Es un avance muy importante: han abierto una brecha”, comenta Ulises Cortés, investigador de la Universitat Politècnica de Catalunya (UPC) y del Barcelona Supercomputing Centre (BSC).

INTELIGENCIA ARTIFICIAL

Sus aplicaciones podrían ir desde transcribir manuscritos antiguos de forma automática hasta identificar distintas variantes de la firma de un cliente de un banco. El sistema podría también acabar definitivamente con los 'capcha': sistemas de internet que comprueban que un usuario es humano pidiéndole que transcriba unas letras borrosas.

Pero su perspectiva más prometedora sería la generalización a símbolos más complejos que las letras: palabras del lenguaje oral o de signos, gestos, o movimientos de danza. Esto tendría aplicaciones en sistemas automáticos de visión, como los que detectan la presencia de peatones delante de los coches.

BASTA UNA VEZ

A los humanos les basta con mirar una vez un objeto para hacerse una idea de ello, reconocerlo si los vuelven a ver, identificar sus partes, compararlo con otros objetos. Los autores del trabajo toman el ejemplo de los vehículos 'segway': la primera vez que aparecieron en la ciudad, todo el mundo entendió enseguida su función y naturaleza. Las mismas tareas son enormemente complicadas para un ordenador, incluso con objetos más sencillos, como una letra de alfabeto.

“Que una máquina reconociera un carácter escrito en una pizarra es uno de los cuatro retos de la inteligencia artificial planteados por su fundador, Marvin Minsky, en 1956”, explica Cortés. Actualmente, las máquinas ya son capaces de leer automáticamente: por ejemplo, un ordenador puede leer los números escritos a mano en un cheque. Sin embargo, para conseguir ese resultado necesita entrenarse con millares de muestras.

APRENDIZAJE PROFUNDO

En los últimos cinco años, se ha disparado el interés de empresas como Google por el “aprendizaje profundo” (deep learning). “Esta tecnología aprovecha enormes bases de datos, por ejemplo todas las imágenes de perros subidas a internet, para entrenar programas que reconocen un perro en una imagen nueva”, explica Darío García investigador del BSC.

El nuevo sistema cambia este enfoque. Ya no se necesitan muchos datos: con uno o pocos ejemplos, el sistema ya aprende como un humano, en el sentido que unos jueces son incapaces de distinguir los caracteres escritos por humanos y los escritos por el programa. Es más, los investigadores han retado su sistema con tareas más complejas, como separar el carácter en trozos, agrupar letras parecidas o generar símbolos ficticios pero parecidos a los reales. El sistema ha superado todas estas pruebas.

TEORÍA DE LA PROBABILIDAD

El truco es un sistema de programación llamado “aprendizaje de programa bayesiano”. Con los métodos anteriores, el ordenador aprende comparando los rasgos de todas las imágenes (letras, fotos de perros etc.) que se le proporcionan para entrenarse. Al contrario, en el corazón del nuevo sistema hay unos pequeños programas informáticos (“modelos generativos”) que intentan inferir el proceso con el cual se ha generado la imagen. Para hacerlo, usan la teoría de la probabilidad y una información básica previa: por ejemplo, que todas las letras están hechas de un conjunto de trazos rectos y curvos.
“Esta ventaja es también una limitación: el sistema podría extenderse a otros símbolos hechos de elementos primitivos, como el habla o el baile. Pero le resultaría difícil interpretar objetos más abstractos”, apunta Arturo Ribes. No obstante, García está emocionado ante estos avances. “Tanto el aprendizaje profundo como la programación bayesiana van revolucionar en los próximos cualquier tarea que implique textos o imágenes”, concluye.

No hay comentarios:

Publicar un comentario