Un equipo de científicos de EE UU y Canadá ha desarrollado un algoritmo que captura nuestra capacidad de aprendizaje y permite a los ordenadores reconocer y extraer conceptos visuales sencillos de la forma en la que lo hacen las personas. Los resultados del estudio se publican esta semana en la revista Science.
Según destaca Brenden Lake, autor principal e investigador de Moore-Sloan Data Science en la Universidad de Nueva York, el trabajo “acorta el proceso computacional de aprendizaje de nuevos conceptos y amplía la aplicación de las máquinas a tareas más creativas”.
Cuando los seres humanos afrontan un nuevo concepto –por ejemplo, descifrar cómo funciona un electrodoméstico, aprender un nuevo paso de baile o una letra de un alfabeto diferente– necesitan solo unos pocos ejemplos para entender su funcionamiento y reconocer nuevos casos. En cambio, los ordenadores actuales necesitan cientos o miles de instrucciones para operar con una precisión similar.
Para aproximarse a la manera humana de aprender, los investigadores han desarrollado un programa bayesiano de aprendizaje (BLP, por sus siglas en inglés), en el que los conceptos se representan como programas informáticos sencillos.
Por ejemplo, la letra ‘A’ está representada por un código que genera ejemplos de esa letra cuando se ejecuta. Sin embargo, no se requiere un programador durante el proceso de aprendizaje, ya que el algoritmo se programa a sí mismo construyendo código para producir la letra que ve.
También, a diferencia de los programas estándar de ordenador que producen el mismo resultado cada vez que se ejecutan, estos programas probabilísticos producen diferentes salidas en cada ejecución. Esto les permite captar cómo varían las manifestaciones de un mismo concepto, por ejemplo, las diferentes maneras en que dos personas dibujan la letra ‘A’.
Mientras que los algoritmos de reconocimiento de patrones estándar representan conceptos como configuraciones de píxeles o colecciones de características, el enfoque BPL aprende ‘modelos generativos’ de procesos reales, lo que permite utilizar los datos de manera más eficiente.
El modelo también ‘aprende a aprender’. Por ejemplo, utiliza el conocimiento del alfabeto latino para aprender las letras del alfabeto griego. Los autores aplicaron su modelo a más de 1.600 tipos de caracteres escritos a mano en 50 de los sistemas de escritura del mundo, e incluso incluyeron letras de alfabetos inventados como los de la serie de televisión Futurama.
Además de probar la capacidad del algoritmo para reconocer nuevos ejemplos de un concepto, los investigadores pidieron tanto a los voluntarios como a los ordenadores que reprodujeran una serie de caracteres escritos a mano después de haber mostrado un solo ejemplo de cada uno, o en algunos casos, para crear nuevos símbolos.
Después, los científicos compararon los resultados de los participantes y las máquinas mediante test visuales de Turing. A los evaluadores humanos se les suministraron pares de ejemplos tanto de los participantes como de máquinas, junto con el símbolo original, y se les pidió identificar cuál de los símbolos había sido producido por el ordenador.
Los resultados mostraron que menos del 25% de los evaluadores tuvieron un desempeño significativamente mejor que el azar para determinar si un determinado conjunto de símbolos había sido producido por un humano o una máquina.
“Antes de entrar en la guardería, los niños ya saben reconocer nuevos conceptos a partir de un solo ejemplo, y pueden imaginar nuevos ejemplos que nunca han visto”, señala Joshua Tenenbaum, profesor de Brains, Minds and Machines del MIT y coautor del estudio.
Según Tenenbaum, “todavía estamos lejos de construir máquinas tan inteligentes como un niño, pero esta es la primera vez que hemos logrado que una computadora sea capaz de aprender y usar un gran número de conceptos del mundo real, incluidos conceptos visuales simples como caracteres escritos a mano”.
Fuente: Agencia Sinc
Sé parte de la conversación