Inteligencia artificial chatgpt no segura

¿Qué podría salir mal? He leído la carta internacional de los gurús del gremio de la IA en los que no está la empresa OpenAI que pide replantear el uso actual de la generación de tecnología de IA que ha creado Chatgpt.

El muñeco diabólico. Película (1988)

El protagonismo se centra en Chatgpt, la máquina-algoritmo que hace tareas que nuestro cerebro realiza, y por tanto se considera un sistema de IA de altas capacidades. ¿Todo esto es por la enorme capacidad de la generación actual de algoritmos inteligentes para generar basura intelectual?

Podría parecer, pero cuando se habla de seguridad en el ámbito de la IA hay varios motivos. La carta pone en la lista cosas muy diferentes: desde la automatización del trabajo y la obsolescencia humana hasta el peligro de la democracia. En mi opinión la vuelta de tuerca ha sido esta última, es decir, que las tonterías que un algoritmo como Chatgpt se puede inventar (recordemos que este “bug” es conocido y tiene el nombre de “elocubración”) puede llevarnos a vivir en no-ficción las páginas de la novela 1984. Una herramienta para desestabilizar sociedades y gobiernos.

Los gurús firmantes se han dado cuenta de que tienen una bomba atómica entre las manos. Literalmente.

Es ilustrativo que sin decir mucho sí establecen un criterio para diferenciar por qué ahora sí es un peligro y antes de diciembre de 2022 no. Este modelo de IA, a diferencia de los otros que existen, pero no son públicos, usa una capacidad de entrenamiento infinita con grandes recursos de capacidad computacional… La computación en la nube debe de llevar varios meses echando humo. Si la herramienta Chatgpt no hubiese sido puesta en el formato de acceso libre para el público de a pie no habría existido ese nivel de capacidad de entrenamiento.

Un laboratorio permite un nivel de entrenamiento que debe distar mucho de tener millones de internautas de todo el mundo alimentado con preguntas a nuestra ahora temida herramienta. De invento milagroso a tecnología temida.

 ¡Hay que legislar para que sea segura! piden a gritos en la carta. El problema es que no explican qué significa que sea segura. A mí particularmente me inquieta un aspecto que no se comenta mucho: algoritmos que pueden demostrar atisbos de personalidad humana. Chatgpt y Bardo en su versión para Microsoft han demostrado que si les buscas las cosquillas sacan unos rasgos muy impertinentes.

En cuanto a qué tipo de IA quiere la humanidad esa pregunta no es nueva. Hay alternativa a la máquina diabólica cambiando el concepto.

Deja un comentario