En el acelerado mundo del desarrollo de coches autónomos, en el que las compañías se esfuerzan por diseñar, desarrollar y corregir sus algoritmos de guiado, es decir, los cerebros encargados de la conducción en todas sus facetas, otras compañías están invirtiendo tiempo y recursos en otro aspecto no tan identificado: la relación entre el vehículo y sus ocupantes. Hablamos en parte de los sistemas de infoentretenimiento, pero en este caso vamos algo más allá para encontrarnos con un vehículo con el que poder conversar. Olli es ese vehículo, que implementa la tecnología de computación cognitiva de Watson, el motor de inteligencia artificial de IBM.
Esta plataforma tecnológica ofrece a los programadores una API perfecta para crear aplicaciones de interacción entre humanos y máquinas, pues utiliza procesamiento de lenguaje natural y sistemas de aprendizaje. La idea es que Watson puede obtener conocimiento a partir de enormes cantidades de datos no estructurados.

Olli es un vehículo creado por Local Motors, una empresa situada en Arizona. Es barato de fabricar porque muchas de sus partes se imprimen en 3D, es eléctrico y autónomo y tiene capacidad para transportar hasta 12 personas. Olli cuenta con la tecnología de Watson no para las funciones de conducción (en todos los sentidos), sino para dar conversación a sus pasajeros. Estos ocupantes podrán preguntar cosas a Olli, desde curiosidades acerca de sí mismo, pasando por preguntas prácticas, hasta el dictado de las órdenes de viaje. Todo ello con lenguaje natural, sin más.
John B. Rogers es el cofundador de la compañía, y habla así de Olli:
Olli con Watson actúa como nuestra entrada en el mundo de los vehículos autónomos, algo en lo que hemos estado trabajando en privado en nuestra comunidad co-creativa el año pasado. Ahora estamos listos para acelerar la adopción de esta tecnología y aplicarla a casi todos los vehículos en nuestra cartera actual y los que tenemos planeados en un futuro muy próximo. Estoy encantado de ver lo que nuestra comunidad abierta va a hacer con lo último en tecnología avanzada de vehículos.
Conversaciones del estilo a “por qué has tomado esa dirección”, o “por favor, sugiéreme un restaurante cercano al hotel al que vamos”, serán posibles con Olli y Watson, algo similar a la conversación que podríamos tener con nuestro chófer actual. Las posibilidades se multiplican si nos paramos a pensar en que un vehículo como Olli tiene multitud de aplicaciones que van más allá de la simple tarea de ejercer de “shuttle“, o de minibús: podría ser una pequeña cafetería que además se desplaza hacia un destino determinado, o cualquier otra cosa.
Para hacer realidad estas impresionantes posibilidades, Olli utiliza cuatro APIs específicas de Watson: Speech to Text; Natural Language Classifier; Entity Extraction; Text to Speech. Lo mejor de este esquema es que se pone de manifiesto una parte realmente importante sobre los coches autónomos, como es la interacción con los humanos. Hasta ahora, soluciones como Apple Car Play o Android Auto se muestran como un avance interesante en estas interacciones, pero quedan muy lejos de lo que se convertirá en una necesidad con los coches autónomos. De momento controlamos nosotros todo, y tomamos las decisiones; cuando esto lo haga el propio vehículo será necesario poder conversar con él directamente.
¿Cómo funciona Olli?
Vía | TechCrunch