Las cuestiones éticas de la inteligencia artificial cuando se liberan el código y los datos
Trabajar con modelos de inteligencia artificial (IA) requiere muchas veces adaptar la investigación a las reglas de la ciencia, especialmente cuando se está colaborando con organizaciones y expertos de otras disciplinas. Esto implica publicar los trabajos y sus resultados, hacer públicos los datos con los que se realizan los experimentos y –en el caso de la IA– y publicar el software (lo que tradicionalmente se conoce como «liberar el código») para que otras personas puedan comprobarlo, reutilizarlo y usarlo en sus propios proyectos.
Todo esto no se limita a un solo campo: cualquier industria que esté utilizando inteligencia artificial, desde la comunidad médica a la industria automovilística o la del márketing está dedicando tiempo y esfuerzos a las implicaciones legales y éticas del desarrollo de estas tecnologías. Cuestiones tales como el cumplimiento de las leyes, la responsabilidad y el respeto a los valores éticos están sobre la mesa. La Unión Europea, de hecho, publicó hace relativamente poco el informe ‘Directrices éticas para una IA fiable‘, creado por un grupo de expertos de alto nivel sobre IA y sus implicaciones a futuro.
Google ha dado a conocer recientemente un vídeo en el que relata un caso de esta problemática –y sus soluciones– de forma real y práctica, en este caso acerca de su trabajo de un sistema de aprendizaje automático (machine learning) que se utiliza para localizar en el mar a las ballenas y otros grandes mamíferos. Y es que de los laboratorios de Google se puede esperar casi cualquier cosa.
La idea partió hace años del grupo de acústica de sus laboratorios, que pensaron en enseñar a las máquinas a reconocer los particulares sonidos y cantos de las ballenas jorobadas. Trabajando con la NOAA (Oficina Nacional de Administración Oceánica) de los Estados Unidos, vieron que un dispositivo capaz de reconocer a estos majestuosos gigantes del mar podría servir para conocer más sobre sus movimientos y proteger los ecosistemas marinos en los que viven. Algo que ampliarían posteriormente a orcas, delfines y otros mamíferos marinos.
Pero antes de liberar el código y los datos que habían desarrollado para que cualquiera en la comunidad científica pudiera usarlos, decidieron chequear el proyecto con el departamento que supervisa los Principios de Inteligencia Artificial en Google, para asegurarse de que todo estaba bien. El dilema surgió cuando se percataron de que la misma herramienta que podría usarse para el bien –aprender sobre los animales y proteger su entorno– también podrían usarla pescadores furtivos y piratas para el mal. Lo que para unos podría ser un mapa de la biodiversidad para otros podría ser un mapa del estilo «la caza del tesoro».
Las preguntas que había que hacerse se redujeron a tres, que serían aplicables a otros entornos:
- ¿Liberar este código sería beneficioso para la sociedad?
- Usando este modelo de IA, ¿cómo se hace responsables a quienes lo utilizan?
- ¿Cómo se ha construido este modelo se puede probar con seguridad?