Una máquina logra aprender con la habilidad de los seres humanos
- · Un programa consigue adquirir conceptos nuevos a partir de un único ejemplo
- · El sistema permite a un ordenador escribir 'a mano' de forma indistinguible de las personas
Un ordenador ha
reproducido por primera vez la habilidad humana de aprender un concepto-en concreto, un símbolo alfabético - a partir de un sólo ejemplo.
Así lo revela un artículo publicado en la revista 'Science' por investigadores de Estados Unidos y
Canadá. Los científicos han
programado la máquina para llevar a cabo una tarea hasta ahora exclusiva de los
humanos. Le han presentado al programa y a unos voluntarios letras de los 50
alfabetos del mundo escritas a mano. Tanto el algoritmo como los voluntarios consiguen reproducirlas tras observar un solo
ejemplo de cada letra, de manera que un juez externo no sabe distinguir lo que
ha escrito el ordenador de las letras de los humanos. La máquina lleva a
cabo también tareas más complejas, como partir los caracteres en trozos o
generar caracteres ficticios que parecen reales, con una habilidad igual a la
humana.
Investigadores
no implicados en el trabajo concuerdan que es un resultado impactante. “Es
pronto para decir que es una revolución, pero es realmente prometedor”, afirma
Arturo Ribes, científico del Instituto de
Investigación de Inteligencia Artificial (IIIA-CSIC) de Barcelona. “Es un avance muy importante: han abierto una
brecha”, comenta Ulises Cortés, investigador de la Universitat
Politècnica de Catalunya (UPC) y
del Barcelona
Supercomputing Centre (BSC).
INTELIGENCIA ARTIFICIAL
Sus aplicaciones podrían ir desde transcribir manuscritos antiguos
de forma automática hasta identificar distintas variantes de la firma de un
cliente de un banco. El sistema podría también acabar definitivamente con los 'capcha': sistemas de internet que comprueban que un usuario es humano pidiéndole que transcriba
unas letras borrosas.
Pero
su perspectiva más prometedora sería la generalización a símbolos más complejos
que las letras: palabras del lenguaje oral o de
signos, gestos, o movimientos de danza. Esto tendría aplicaciones en sistemas automáticos
de visión, como los que
detectan la presencia de peatones delante de los coches.
BASTA UNA VEZ
A
los humanos les basta con mirar una vez un objeto para hacerse una idea de
ello, reconocerlo si los vuelven a ver, identificar sus partes, compararlo con
otros objetos. Los autores del trabajo toman el ejemplo de los vehículos 'segway':
la primera vez que aparecieron en la ciudad, todo el mundo entendió enseguida
su función y naturaleza. Las mismas tareas son enormemente complicadas para un
ordenador, incluso con objetos más sencillos, como una letra de alfabeto.
“Que una máquina
reconociera un carácter escrito en una pizarra es uno de los cuatro retos de la
inteligencia artificial planteados por su fundador, Marvin Minsky, en 1956”,
explica Cortés. Actualmente, las máquinas ya son capaces de leer
automáticamente: por ejemplo, un ordenador puede leer los números escritos a
mano en un cheque. Sin embargo, para conseguir ese resultado
necesita entrenarse con millares de muestras.
APRENDIZAJE PROFUNDO
En
los últimos cinco años, se ha disparado el interés de empresas como Google por el “aprendizaje
profundo” (deep learning). “Esta
tecnología aprovecha enormes bases de datos, por ejemplo todas las imágenes de
perros subidas a internet, para entrenar programas que reconocen un perro en
una imagen nueva”, explica Darío García investigador del BSC.
El nuevo sistema cambia este
enfoque. Ya no se necesitan muchos datos: con uno o pocos ejemplos, el sistema
ya aprende como un humano, en el sentido que unos jueces son incapaces de distinguir
los caracteres escritos por humanos y los escritos por el programa. Es más, los
investigadores han retado su sistema con tareas más complejas, como separar el
carácter en trozos, agrupar letras parecidas o generar símbolos ficticios pero
parecidos a los reales. El sistema ha superado todas estas pruebas.
TEORÍA DE LA PROBABILIDAD
El
truco es un sistema de programación llamado “aprendizaje de
programa bayesiano”. Con los métodos anteriores, el ordenador
aprende comparando los rasgos de todas las imágenes (letras, fotos de perros
etc.) que se le proporcionan para entrenarse. Al contrario, en el corazón del
nuevo sistema hay unos pequeños programas informáticos (“modelos generativos”)
que intentan inferir el proceso con el cual se ha generado la imagen. Para
hacerlo, usan la teoría de la
probabilidad y una información básica previa: por ejemplo, que
todas las letras están hechas de un conjunto de trazos rectos y curvos.
“Esta ventaja es también una
limitación: el sistema podría extenderse a otros símbolos hechos de elementos
primitivos, como el habla o el baile. Pero le resultaría difícil interpretar
objetos más abstractos”, apunta Arturo Ribes. No obstante, García
está emocionado ante estos avances. “Tanto el aprendizaje profundo como la
programación bayesiana van revolucionar en los próximos cualquier tarea que
implique textos o imágenes”, concluye.
No hay comentarios:
Publicar un comentario