Algoritmos

Aviso a navegantes: los algoritmos también se ponen farrucos

Otras cuatro historias de algoritmos que se amotinaron contra sus creadores

Nos gusta imaginar la rebelión de las máquinas como un violento apocalipsis de androides, ordenadores, coches, lavadoras y televisores asesinos. Este escenario es tierra fértil para el cultivo de blockbusters. ¿Nos va a matar un cortacésped? Quién sabe. ¿Podrán desafiar a sus creadores nuestros robots inteligentes? Pues no queremos estropearte el día, pero los algoritmos ya se están poniendo farrucos.

Lo hemos hablado. Lo demostraron Joel Lehman, Jeff Clune y Dusan Misevic en el estudio La sorprendente creatividad de la evolución digital: "Las interacciones con el software moderno, explícitamente diseñado para ser predecible, podrían transmitirnos la expectativa de que la innovación y la sorpresa no pueden capturarse en un algoritmo informático". Pero sí. Los algoritmos pueden salirse por la tangente. El diseño meticuloso del conjunto de instrucciones aparentemente inequívocas los componen puede dejar espacio para las trampas. Y en la selección natural de las criaturas virtuales gana la que menos se esfuerce.

  • Spideralgoritmo

Los hechos ocurrieron durante el desarrollo de NERO, el primer videojuego donde personajes que no eran el jugador podían evolucionar en tiempo real, conforme avanzaba la partida. La idea era que los propios jugadores entrenasen los cerebros artificiales de su ejército de robots a través de diferentes tareas y, una vez listos, los enfrentasen a otras tropas en competiciones online.

Una de estos entrenamientos consistía en poner paredes a su alrededor, para enseñarles a navegar entre ellas. ¿Qué hace un humano cuando topa con una pared? Rodearla. ¿Qué hicieron los robots de NERO? Seguir andando, subirse por ella y bajar por el otro lado. Chúpate esa, Newton.

  • Más vale fuerza que maña

Los protagonistas de esta historia son un brazo robótico y una caja. El objetivo de los diseñadores de esta simulación era explorar las posibles interacciones entre ambos. Para ello, asignaban al brazo la tarea de mover el cubo sobre una mesa, asirlo e incluso lanzarlo al interior de una cesta. En una fase posterior, se desactivó la movilidad de la mano, de tal manera que sujetar el objeto no fuese una opción.

El plan era que el brazo se sumiera en la impotencia y empujase torpemente la caja con su muñón robótico. "Esta caja la voy a coger yo a hostias", debió de pensar el algoritmo. Y eso hizo. Encontró la manera de golpear el objeto con la fuerza y los ángulos perfectos para acabar cazándolo en su pinza.

  • ¿Los algoritmos levitan?

Imagina una criatura de seis patas nacida en el mundo virtual y pensada para moverse como lo haría una hormiga. Esto es lo que creó un grupo de científicos que estaba estudiando la capacidad de los robots dañados para adaptarse a su entorno, como lo haría un animal.

Para medir la velocidad de estas criaturas, tomaron como referencia el tiempo que cada una de sus seis patas estaba en contacto con el suelo. Cuanto más breve el instante, mayor la rapidez. Lo que no esperaba el equipo era topar con una criatura cuyas patas tocaban el suelo durante un 0% del tiempo. En su afán por cumplir las reglas y reducir al máximo este porcentaje, la criatura se había dado la vuelta y estaba avanzando patas arriba, andando sobre sus codos.

  • Juego sucio

En una simulación diseñada para estudiar la evolución de la comunicación, se crearon robots con ruedas equipados con luces azules que debían utilizar para dialogar con sus congéneres. La tarea de estos bichitos era buscar comida y evitar venenos. Si lo lograban, serían recompensados.

Al cabo de varias generaciones de robots, algunos robots avisaban a los demás encendiendo sus luces cuando encontraban comida. Todo muy bonito, si exceptuamos el hecho de que hubo otros que aprendieron a encender sus luces cuando encontraban veneno para eliminar a sus rivales.

"Esta lista ofrece ejemplos concretos de lo difícil que es anticipar el comportamiento óptimo creado y fomentado por ciertos esquemas de incentivos", señala el estudio. De acuerdo con sus autores, el estudio de estos fenómenos y de sus causas puede ayudarnos a avanzar en el desarrollo de teorías más firmes sobre cómo diseñar sistemas de recompensas más seguros para agentes de inteligencia artificial. Para que no se nos rebelen las máquinas, vaya.

Más información

Retina

23/07/2018
Normas