Imprevisibles tendencias tecnológicas en 2024

La omnipresente IA añade confusión a la lista de tendencias. Viabilidad empresarial y de huella energética serán clave. También la transformación de los centros de datos hiperescala. O qué pasa con las Apple Vision Pro

Hubo un tiempo en que las tendencias tecnológicas venían marcadas por el hardware. En 1982 el primer ordenador. En 2007 el primer smartphone potente. En 2023 fue el software, la IA en todo. También el ruido. El ruido del exceso de triunfalismo, el ruido del pesimismo apocalíptico. En “Un mundo feliz” Aldous Huxley escribió: “El siglo XX es la era del ruido. El ruido real, el ruido mental, el ruido del deseo: para cada uno de ellos hemos alcanzado récords históricos. Y esto no resulta sorprendente, puesto que todas las proezas de la tecnología moderna contribuyen a luchar contra el silencio”. En 2023 encontramos plusmarcas históricas.

Imagen creada por el laboratorio de Both Rocks y generada por IA.

En la lista del 2024 no cambia la tendencia omnipresente de la IA, pero digamos que baja el concepto a tierra. La viabilidad técnica, empresarial, de huella energética serán clave. También la transformación de los centros de datos hiperescala. Entre los temas no IA, un hardware, las gafas de realidad aumentada, tendrá que demostrar si tiene sentido.

  1. La IA generativa en boxes. Optimizar el lado técnico antes de escalar el de negocio.
  2. La batalla de códigos. Código abierto o código propietario.
  3. La selección natural de las aplicaciones de IA generativa. En busca del uso de IA de alto valor. Más allá de los chatbots.
  4. Centros de datos hiperescala. La huella energética de la IA.
  5. Ordenadores para la cara.

1. La IA generativa en boxes. Optimizar el lado técnico antes de escalar el de negocio

El problema de la IA generativa es resultado de una paradoja. Aunque la mayor parte de la teoría se conoce desde los 90 tardó mucho tiempo en llegar porque antes de la nube los experimentos eran muy costosos. Y ahora que llegó lo hizo demasiado pronto: los modelos grandes de lenguaje LLM usan para su operativa demasiado hardware y demasiado poder computacional. La capa de infraestructura es ahora mismo su talón de Aquiles porque el consumo que hacen de recursos no está optimizado.

Demasiado pronto para casos de uso.

En 2024 podemos esperar ver:

  • ¿Cuántos de los modelos y compañías van a sobrevivir? ¿Cuántas van a tener dinero para optimizar sus modelos? ¿Cuántas de las que queden van a poder hacer dinero?
  • Más modelos LLM de menos parámetros. Una de las razones del alto coste en hardware y computación de un modelo de trillones de parámetros es que necesita cargar todo el arsenal para poder responder. Con un modelo más pequeño el balance en tiempo de respuesta, afinación y costes parece posible.
  • Modelos para tareas más específicas. Los modelos LLM generalistas como Chatgpt (para cualquier tipo de tarea) tienen costes varios órdenes de magnitud superiores a los modelos para tareas específicas (ej. Buscador web).
  • Entender mejor la diferencia entre un modelo LLM general mejorado con datos de empresa (RAG) y un modelo LLM abierto entrenado directamente con datos de empresa.

La disponibilidad de la IA a coste cero se ha confundido con la hipótesis de coste cero de la IA generativa.

El incremento de costes de la versión de pago de OpenAI respecto a su versión gratuita ya intuye el problema. Los gastos de capital (coste de entrenamiento) del modelo más avanzado de OpenAI, chatgpt 4, es de 63 millones de dólares frente a los 5 millones de su predecesor. Este coste se explica por el incremento espectacular en el tamaño de parámetros y tokens de contexto. El coste de operación (coste de inferir las respuestas) multiplica esas cifras cada semana de uso. Es decir, el problema no es crear el modelo sino usarlo.

Ninguna de estas cifras es pública. Lo que sí es conocido es el cambio en el rendimiento de chatgpt en los últimos meses.

Las especulaciones han sido constantes. ¿Se vuelve chatgpt más “tonto” con el uso o es un “tone down” deliberado? Hay evidencia de lo segundo: la AI de OpenAi necesita más tiempo para responder a ciertas tareas que hace unos meses; además se vuelve vago (ej., responde que lo hagas tú). ¿Está utilizando menos hardware y recursos de computación? ¿Responde a una estrategia para reducir costes?

2. La batalla de códigos. Código abierto o código propietario

El código abierto tiene la ventaja de la transparencia y la posibilidad de que las contribuciones se circunscriban a un rango mayor de usos. Pero ¿qué modelo es mejor para los datos internos de la empresa que usa AI generativa?

En 2024 podemos esperar ver:

  • Aplicaciones de LLM para problemas de la sociedad más allá de un chatbot. Por ejemplo a través de AI Alliance, el consorcio de empresas impulsado por IBM.
  • Más casos de empresas en Microsoft Azure GPT Api que a través de OpenAi.

Donde se necesite un contrato de servicio que garantice a la empresa gobernanza sobre sus datos y seguridad, es probable que gane el código propietario.

3. La selección natural de las aplicaciones de IA generativa. En busca del uso de IA de alto valor. Más allá de los chatbots

En 2023 el ruido del triunfalismo llegó a estimar saltos de productividad del 40 % (datos del Banco Mundial). Experimentos del uso más común de la IA generativa (copiloto o asistente virtual) se quedan muy por debajo: un 14 % en tareas específicas. Por ejemplo, el experimento de Erik Brynjolfsson (Universidad de Stanford) midió el rendimiento de un sistema de atención al cliente tuneado (basado en histórico de conversaciones con agentes reales). La tarea: responder con simpatía a los clientes (pymes americanas) de una gran empresa de software estadounidense cuyos 5.000 agentes trabajan principalmente desde Filipinas. La cifra de productividad es ilustrativa porque demuestra el uso de la IA generativa como suplemento, ya que es el agente es el que ve las sugerencias y puede usarlas o no.

En 2024 podemos esperar ver:

  • Aplicaciones de alto valor más allá de los chatbots.
  • Modelos LLMs más útiles para las empresas cuando se conectan a otros software.

4. Centros de datos hiperescala. La huella energética de la IA

¿Recuerdas las críticas a la tecnología de blockchain por el uso de energía? La IA generativa también tiene un alto consumo de energía. Esto puede llevar a novedosas colaboraciones con empresas energéticas. Por ejemplo, Microsoft usará energía nuclear. Ha firmado un acuerdo de compra de energía con la startup Helion para usar su electricidad.

En 2024 podemos esperar ver:

  • Centros de datos sólo para IA.
  • Centros de datos para la nube general.
  • Críticas a la huella de consumo energético de la IA.  Uso responsable de una tecnología que consume mucha energía y, por tanto, las empresas prioricen casos de uso de valor en lugar de aplicaciones que no aportan nada (todos los días se llenas nuestras pantallas de estas últimas).
  • Nuevas formas de alimentar los centros de datos.

5. Ordenadores para la cara

Si la IA tiene muchos deberes que hacer en 2024, el hardware que pretende ser el futuro del ordenador personal / smartphone no se queda atrás. Me estoy refiriendo a las Apple Vision Pro.

Seis meses preguntándonos para qué sirve un hardware de consumo hace revivir lo que ocurrió hace diez años con Google glass. ¿Pasará igual con las gafas de realidad virtual de Apple?

¿Hay casos para usarlas como una forma superior de acceso a Internet que no ofrezca actualmente un smartphone?

Hasta ahora la recepción ha sido fría y extraña.

Deja un comentario