X
Privacidad y Cookies

Utilizamos Cookies propias y de terceros para ofrecer un mejor servicio y experiencia de usuario.

¿Permites el uso de tus datos privados de navegación en este sitio web?

Escena del cortometraje 'Sunspring', escrito por un algoritmo de inteligencia artificial.

El MIT desarrolla un sistema para entrenar redes neuronales en tiempo récord

El organismo científico ha creado un algoritmo que trabaja hasta 200 veces más rápido que lo que consiguen los métodos tradicionales

En el momento de nacer, el ser humano tiene aproximadamente 100.000 millones de neuronas, que apenas se relacionan entre ellas. Gracias a los estímulos que recibe en sus primeras etapas de crecimiento, el bebé irá desarrollando un sinfín dea conexiones neuronales, cerca del doble de las que tendrá cuando sea adulto, ya que durante la infancia y la adolescencia eliminará aquellas que sean prescindibles.

Este proceso, que se desarrolla durante toda nuestra vida, es el punto de partida de las redes neuronales con los que trabaja la inteligencia artificial. Estas redes pueden crearse por medio de un sistema que se define como búsqueda de arquitectura neuronal (NAS, por sus siglas en inglés). El problema es que su proceso de formación difiere mucho del que tenemos las personas; estos sistemas requieren una ingente capacidad de procesamiento, lleva mucho tiempo desarrollarlos y no son especialmente baratos.

Un algoritmo desarrollado recientemente por Google tardó 48.000 horas en producir una red neuronal que utiliza para la clasificación de imágenes. El gigante tecnológico tiene capacidad para ejecutar cientos de unidades de procesamiento gráfico (GPU, por sus siglas en inglés) al mismo tiempo y cuenta con un hardware que haría las delicias de muchos. Pero son muy pocas las empresas que participan de forma activa en el desarrollo de inteligencia artificial y cuentan con recursos de estas dimensiones.

Con esto en mente, el MIT ha desarrollado un algoritmo capaz de diseñar modelos de aprendizaje automático 200 veces más rápido de lo que consiguen los métodos tradicionales. Defienden que su modelo es capaz de realizar este trabajo con tan solo 200 horas de GPU cuando se ejecutan en un conjunto de datos de imágenes masivas.

Los investigadores del organismo científico confían en que esta nueva técnica de entrenamiento de sistemas de aprendizaje automático ayude considerablemente a democratizar la inteligencia artificial. El ahorro de tiempo y costes que conlleva su modelo puede acercar el diseño de redes neuronales a empresas y centros de investigación con pocos recursos y allanar el camino para que esta tarea deje de ser patrimonio exclusivo de las grandes multinacionales tecnológicas.

Queremos permitir que expertos y legos en inteligencia artificial puedan diseñar eficientemente redes neuronales

Song Han, profesor e investigador del MIT

"Queremos permitir que tanto los expertos en inteligencia artificial como los no expertos diseñen eficientemente arquitecturas de redes neuronales con una solución de botón que se ejecuta rápidamente en un hardware específico", explica a la oficina de noticias del MIT Song Han, coautor de este estudio y profesor asistente de ingeniería eléctrica y ciencias de la computación, además de investigador en los Laboratorios de Tecnología de Microsistemas de la institución.

El avance que supone este algoritmo no implica la sustitución de ingenieros humanos por máquinas en el desarrollo de sistemas de aprendizaje automático. Su objetivo es, más bien, automatizar el trabajo más repetitivo que afecta al diseño y refinamiento de las arquitecturas de redes neuronales. Para ello, el MIT buscó la manera de eliminar componentes innecesarios en el diseño de redes neuronales, optimizar los tiempos de computación y utilizar una fracción de la memoria del hardware necesaria para ejecutar el algoritmo.