Así va a combatir Apple con Google y Microsoft en inteligencia artificial

Así va a combatir Apple con Google y Microsoft en inteligencia artificial

Apple se abre a la comunidad científica y dará herramientas a los desarrolladores para que hagan apps inteligentes

Del puñado de grandes nombres que pueblan el ecosistema tecnológico internacional, Apple parecía ser el que más atrás se había quedado en el desarrollo de proyectos de inteligencia artificial. Y eso, a pesar de contar con 260.000 millones de dólares de caja para invertir. 

Google ha tomado la delantera, al menos de cara a la opinión pública, con empresas como Deep Mind, que ha dado sonoros golpes sobre la mesa como la victoria de su máquina AlphaGo sobre dos de los grandes jugadores de este milenario juego.  

El pasado lunes, la compañía celebró su conferencia de desarrolladores, la WWDC (aquí tienes el resumen que hizo Rosa Jiménez Cano). El nuevo iOS 11 y el altavoz Home Pod, además del iMac pro, con procesador de 18 núcleos a 4.999 dólares, coparon los titulares. Pero, además, esta puesta de largo sirvió para demostrar la renovada apuesta de la compañía por la inteligencia artificial, la que, probablemente, sea la principal revolución tecnológica (con el permiso de blockchain) de cuantas se están produciendo en estos momentos. 

En la presentación, Apple quiso dejar claro que el aprendizaje automático (machine learning en el idioma original de estas cosas) está en la raíz de todos los productos que ha puesto en el mercado, y que ha abierto de par en par las puertas a los desarrolladores para que usen IA en sus aplicaciones pensadas para iOs. La principal aportación en este sentido pasó de puntillas por el escenario. Fue un conjunto de modelos y API's llamado Core ML. Este es un marco de trabajo que se usará en todos los productos de la compañía, incluida la cámara o Siri, que promete una "integración con aprendizaje automático"  que permitirá el desarrollo de apps con prestaciones inteligentes usando solo unas pocas líneas de código". Es, en la práctica, la herramienta para que los desarrolladores introduzcan el aprendizaje automático en sus apps. 

Apple ha querido dejar claro que el aprendizaje automático está en la raíz de todos los productos que ha puesto en el mercado.

Core ML facilitará supuestamente la visión artificial (detección de texto, detección facial, detección de rectángulos o trackeo de objetos), el procesamiento de lenguaje natural (para convertirlo en órdenes binarias). 

Apple ha sido tradicionalmente restrictiva con sus productos y sus plataformas. Ahora abre la puerta para que los desarrolladores puedan usar desarrollos de redes neuronales de terceros como Caffe, desarrollado por la Universidad de California o Keras.  Tampoco hay que pasarse con la apertura: por ahora no es compatible con Tensorflow, el producto open source de Google. 

Ejemplos de machine learning en apps de Apple

Todo lo que parta de un iPhone será analizado por algoritmos de aprendizaje automático que interactuan a la hora de sacar una foto (reconocimieno facial), introducir un evento en el calendario. Según apunta Quartz, antes, la voz de Siri se basaba en mensajes pregrabados que se iban mezclando. Ahora, en cambio, proviene enteramente de inteligencia artificial, que le da más flexibilidad y naturalidad y que le permitirá en un futuro sonar como un humano

No solo todo lo anterior. Hasta ahora, todas las investigaciones de APppel respecto a inteligencia artificial eran secretas, Ahora, sus investigadores (supuestamente, pueden publicar papers en publicaciones y dar charlas explicando sus puntos de vista. Solo se ha publicado uno hasta ahora. Es este, que versaba sobre cómo entrenar una máquina para el reconocimiento facial. Además, destacados trabajadores de la compañía, como el responsable de investigación de IA Ruslan Salakhutdinov, se han incorporado al circuito de charlas. 

Retina

20/09/2017
Normas
Entra en EL PAÍS