Radiografía de la nueva IA en la empresa. Año 1

Analizamos las primeras aplicaciones reales de la IA generativa en empresas. Ni amenaza para el trabajador ni genio de los deseos. El papel que las empresas han descubierto es IA como copiloto. Lejos de las altas expectativas la ficción ya nos mostró las grandes ventajas de una inteligencia como copiloto. ¿Recuerdas a KITT?

El 2023 fue el año en el que las empresas tomaron en serio la nueva generación de inteligencia artificial conocida como inteligencia general artificial o generativa. Pero ¿qué ha significado eso exactamente?

¿Está chatear con chatgpt incorporada a la rutina de trabajo de los empleados igual que los alumnos la añadieron a la suya en las aulas?

¿Han automatizado las empresas tareas repetitivas? ¿O han aumentado su capacidad productiva en tareas en las que sus empleados no son tan buenos?

¿Han mejorado las empresas con respecto a sus capacidades prescriptoras y predictivas?

¿Ha cambiado la gestión del conocimiento interno en las empresas? ¿Y el aprovechamiento de la gran cantidad de datos estructurados y no estructurados?

K.I.T.T., «El coche fantástico», serie de televisión de los 80

¿Cómo entender las expectativas de la IA generativa?

La IA generativa, es decir, el tipo de IA que responde a comandos introducidos (“prompts”) generando respuestas de forma autónoma, es una tecnología habilitante porque permite crear diferentes servicios igual que en su día lo fueron Internet o el 3G/4G. Es algo así como los bloques de construcción de Lego, una tecnología fundacional. La primera aplicación creada con las piezas de ese Lego, Chatgpt, no es en realidad una aplicación o caso de uso sino una pieza de la infraestructura con ciertos poderes.

Lo que hemos visto de la IA estos últimos meses (Chatgpt y similares) es sólo una parte de la foto. Igual que las innumerables herramientas que han surgido para usar tus hojas Excel con la IA. El estado del arte de la IA generativa se mueve todavía en la capa de infraestructura, es decir, cómo funciona: diferentes modelos de lenguaje y tamaño de parámetros de los modelos.

Estamos viviendo una época que se asemeja a los primeros años de Internet:  hubo que entender cómo funcionaba el ancho banda de la conexión para pensar en qué aplicaciones, procesos o tareas se podía incorporar. O una analogía más prosaica: la IA hoy es un moderno motor del que estamos descubriéndo todo. Las empresas y la sociedad todavía no pueden conectar ese motor con la idea de un coche porque el concepto de movilidad no ha surgido. De ahí la sensación de caos.

¿Cuál es la foto completa de la IA en la empresa? Tiene mucho de datos. Tiene mucho de bases de datos. Tiene mucho de gestión tecnológica en la nube. Tiene mucho de modelos fundacionales de IA. Y finalmente, tiene mucho de gobierno de la IA, con gestión estratégica, tecnológica y ética de los datos.

Foto de la IA generativa en el año 1 en la empresa

La de la IA generativa en el año 1 es una foto multi-capa. Presenta algunas peculiaridades respecto a lo que vemos en fotos tradicionales de gestión tecnológica en la empresa.

LA CAPA DE DATOS

La calidad de los datos depende de si la empresa ha seguido antes una estrategia orientada de uso de datos (empresa “data-driven”). La IA entrenada con datos e imágenes de Internet es muy potente. Pero los caballos no pueden tirar de un carro (los datos específicos), y mejorar sus resultados (función de supervisión), si no existe el carro. Todas las empresas generan muchos datos en sus negocios, pero no todas son buenas explotarlos en aras de mejor operativa y eficacia. Para ello, además de generar datos hay que poder almacenarlos en bases de datos y otras tecnologías.

LA CAPA DE INFRAESTRUCTURA

La infraestructura es la encargada de almacenar la escala de los datos, y procesar y conectar los datos. Entran en este nivel varias tecnologías:

  • La nube (para operaciones con el tamaño de bases de datos que utiliza la IA; y para la potencia de computación)
  • Los modelos grandes de lenguaje (LLM) de la IA generativa.

Esta capa es la que ofrece una imagen más activa y dinámica. Hay más de doscientos mil modelos grandes de lenguaje, los que usa la IA generativa para su magia. Los repositorios de software “open source” como Hugging Face no paran de anunciar nuevos modelos.

LA CAPA DE APLICACIONES

Existe una capa de aplicaciones que es la que se ocupa de embeber la capacidad de la IA generativa en los procesos de negocio. Esta es la capa con la foto más incierta. Aquí cada empresa está diseñando sus pilotos o pruebas de concepto. ¿El desafío? Hay pocas soluciones comerciales ya preparadas (exceptuando las herramientas de productividad personal, que ayudan a automatizar la lectura o respuesta de correos y otras similares). Hay poco en el área de integración con procesos de negocio. Es aquí donde las empresas están viendo las dificultades de realización.

LA CAPA DE GOBIERNO DE IA

Finalmente, hay una capa de gobierno para alinear el uso ético de los datos con la estrategia de la empresa. Esta aparece de forma temprana. Obedece a la preocupación general sobre qué prácticas podrías estar o no dentro de la posible regulación definitiva. Pero también ha calado la idea de uso responsable de la IA tanto hacia dentro de la empresa como hacia afuera.

Primeras aplicaciones reales de la IA generativa y modelos LLM en las empresas

Copiloto. Es el uso de la IA generativa en el papel de copiloto. Una suerte de acompañante inteligente que además de sugerirte te ayuda a auto-completar ciertas tareas.

El formato de IA copiloto me ha recordado a una serie de televisión de los 80 donde la máquina (un coche fantástico llamado Kitt) no reemplaza a su dueño en el trabajo, sino que lo hace más fuerte. Lo empodera.

Hay copiloto como asistente de mandos intermedios, jefes de proyectos, etc. Se trata de primeros pasos en la automatización inteligente (con la IA). Usan la capacidad de la IA generativa de resumir y destacar las ideas o puntos principales. Las empresas MásMóvil (telecomunicaciones), Renta4 (inversión), Naturgy (energía), Minsait (consultoría informática) y Llorente y Cuenca (reputación corporativa) hablaban en una conferencia en diciembre de cómo sus departamentos usaban los asistentes. Estos son algunos ejemplos:

  • Agentes de inversión: “Briefing” diario de las noticias e indicadores del mercado.
  • Ingenieros de sistemas, jefes de proyecto de TI: Búsqueda de errores en código, depuración de software en pre-producción, gestión de parches o generación de documentación en la resolución de problemas.
  • Atención al cliente: Clasificar el tipo de llamada o queja a partir del resumen e identificación de mensaje principal en cada tramo (usa el sentimiento o tono de la llamada) .

Selección del modelo LLM y conexión con bases de datos de la empresa

¿Cuáles de los más de 200.000 modelos que alberga la plataforma Hugging Face usar para aplicaciones de empresa? Modelos como Llama2, Vicuna, Bloom han descubierto aplicaciones específicas interesantes, aunque a la hora de realizar pilotos las empresas eligen en general OpenAi y Anthropic.

Por ser los más populares quizá.

Conocimiento adicional con la función RAG

La generación de preguntas y respuestas basadas en conocimiento o contexto específico es una función llamada RAG (“Retrieval Augmented Generation”). El conocimiento adicional tiene un efecto positivo en la tecnología de IA porque hace que las respuestas sean más relevantes y, por tanto, más correctas en el contexto dado. Primero los datos que queremos enchufar han de estar almacenados en bases de datos con una tecnología especial (bases de datos con tecnología vectorial, por ejemplo, ChromoDB, Milvus). Si una empresa gestiona los datos no estructurados que genera (el 80% del total de datos que se producen son no-estructurados), este requisito no será un problema para el departamento de TI.

La hora Maker da una explicación en video de la función RAG que recomiendo pues sirve de introducción tanto a público técnico como de empresa. Usar el conocimiento del contexto es importante porque a una empresa le interesa que Kitt no se apoye exclusivamente en lo que “sabe” de su etapa de entrenamiento con bases de datos externas y generales, sino en el conocimiento actualizado que una empresa le proporcione a través de su base de datos interna.

Esto se entiende mucho mejor cuanta más distancia hay entre un dominio específico y uno generalista. Por ejemplo, alguien aprende toda clase de imágenes que ve en Internet. Pero la utilidad de ese conocimiento depende de si en una tarea es capaz de conocer una imagen de una patología médica frente a otra. Si no se ha entrenado en patología médica cometerá bastantes fallos. Eso mismo le pasa a la IA.

Los nuevos términos que ha introducido la IA

Algunos de los términos que más se han usado han saltado de las páginas de artículos de investigación. Todos pertenecen al campo del aprendizaje profundo (“Deep learning”).

  • Token de contexto (algo así como las formas de juntar una consonante con una vocal que aprendimos de pequeños, incluye letras, sílabas, trozos de texto);
  • Tamaño de parámetros del modelo (un “modelo de 70B parámetros” es un modelo LLM que usó 70 billones de variables para su entrenamiento; es distinto de los tokens);
  • Modelo grande de lenguaje (LLM en inglés);
  • Alucinación, sesgo, seguridad (parámetros relacionados con la calidad del resultado);
  • AI act (un borrador de gobernanza general auspiciado por la UE);
  • Automatización inteligente, agente o copiloto, datos no estructurados (términos que describen la aplicación de AI)

Hay realmente muchos más.

La carrera

En todas las transformaciones se tiene la sensación de que perdemos la capacidad de ordenar nuestra vida con suficiente oficio. El desafío inédito que la IA nos pone delante es un tiempo algo caótico en el que hay una carrera de aprendizaje con dos corredores: el elemento disruptivo, la IA general, y la inteligencia humana, porque ambos se han vuelto dependientes.

Deja un comentario