Cuando la inteligencia artificial explica lo que ve, lo que hay que hacer y el porqué, todo es más seguro
Desde hace tiempo se sabe que en el desarrollo en la inteligencia artificial se debe procurar incluir algunas cuestiones que en principio quedan fuera de la búsqueda directa de las soluciones, que es lo que básicamente hacen los algoritmos más sencillos.
Eso incluye, entre otras cuestiones:
- La detección y clasificación de escenas y objetos, que permite determinar qué está viendo e interpretando la IA en una situación o escena determinada.
- La inteligencia artificial explicable, donde las máquinas son capaces de justificar a los expertos el porqué de su toma de decisiones.
- La interacción en lenguaje natural para complementar todo lo anterior de forma rápida y segura, por ejemplo, mediante un asistente que transmite las instrucciones por voz y explicando qué hay que hacer.
Un estupendo ejemplo de esta nueva interacción entre personas y máquinas puede verse en el vídeo de los Laboratorios MERL de Mitsubushi Electric, en lo que han denominado interacción dependiente de las situaciones (técnicamente, «escenas»). La IA básicamente analiza la situación mediante los diferentes sensores habituales de los automóviles (cámaras, micrófonos, LiDAR) e interactúa con ese entendimiento según los principios anteriores, empleando el lenguaje natural.
El resultado es que instrucciones que hoy en día consideramos normales, del estilo «En 100 metros, gire a la derecha», pueden reemplazarse por otras mucho más humanas y fáciles de entender, del tipo «Sigue al coche negro que gira a la derecha» o «Gira a la izquierda en el edificio que tiene un anuncio».
Esta forma de interactuar es para todos nosotros más natural, intuitiva y cómoda. Pero sobre todo es más efectiva y, en cierto modo, humana. Pero tan importante como todo lo anterior es que también resulta más segura pues evita las explicaciones «robóticas» difíciles de entender, adaptándolas al nivel conversacional, a cómo lo explicaría cualquier copiloto humano.