Hal 9000 no tiene quien le entienda
El lío organizativo que puede suponer (y probablemente supondrá) Chat GPT 4 y otras IAs basadas en LLM
Si os cuento la verdad, durante muchos años entendí malamente 2001: una odisea en el espacio. Siempre había interpretado que HAL 9000 tomaba conciencia y que su comportamiento violento era un símbolo de la evolución (en paralelo a los monos que se matan a leches al principio). Un día escuche un podcast en el que analizaban la película y descubrí que el problema de HAL 9000 era que le ordenan mantener en secreto el fin de la misión incluso a los propios tripulantes de su nave y que esto hacía que, en un momento no supiera como compatibilizar este secreto con la obediencia a la tripulación. Cuando leí el libro, me quedó bastante claro… Al final HAL 9000 es una víctima de una instrucción que le dan esperando que haga algo que realmente no está preparado para hacer, lo que le cuesta la vida en una escena que aún me conmueve por muy malaje que fuera ( a quién no le da pena un ordenador suplicando).
La llegada de las IAs más accesibles, las LLM, que ha capitaneado Chat GPT 4 (no sé si a propósito o no, de nuevo tenemos 3 siglas y una cifra) han convertido su uso en un elemento si no de masas muy generalizado. A diferencia de los modelos más numéricos y hardcore, cualquiera que sepa escribir puede preguntar algo a estas IAs y estas le responden de una manera clara y sencilla. Cualquiera puede usar la IA y eso supone un problema ya no me meto en temas sociales que son más complejos, pero sé que lo será en temas organizativos.
El chiste de los tres deseos
En un ejemplo cultural mucho menos elevado, nos encontramos en un escenario similar a una familia de chistes que me encantaban de pequeño: los chistes del genio de la lámpara, cuya epítome, hoy muy políticamente incorrecta es la de la mano que os dejo por aquí.
Estos chistes siguen la misma mecánica; alguien encuentra una lámpara maravillosa, pide algo, el genio entiende lo que le da la gana, y el afortunado (estos chistes nunca pasarían el test de Bechdel) acaba de una manera que no esperaba.
Ahora mismo, a poco que sigas tendencias y artículos generalistas sobre IAs habrás oído lo que muchos dicen que es “el trabajo del futuro” que son los “ingenieros de prompt”, o, en un modo más pedestre, la persona que sabe como pedirle al genio exactamente que quiere las dos manos iguales pero sanas.
Aparentemente sabemos (o la gente que trabajamos con esto) que los resultados de la IA depende mucho de dos cosas: de que sepas exactamente cómo pedir lo que quieres obtener y cómo educar al “bicho” para que evite decir las cosas que no debe (y decirlas de la manera lo más inequívoca posible).
Las IA y la prensa generalista
El problema, (al menos en mi experiencia )cuando uso este tipo de herramientas es un poco como el que pasa cuando oyes noticias de un tema que conoces: visto de lejos parece que está bien, pero cuando escarbas la cosa se pone bastante más fea. Cuando haces consultas a Chat GPT sobre un tema complejo que conoces bien, hay errores. A veces es porque en mi pregunta he dejado algunas cosas imprecisas que la herramienta asume a su manera, y en otras porque cuando estás entrenado por internet a veces esa información está sesgada. Basta con conocer un poco de escritura SEO para ver como el cacharro escribe como si hubiera leído varios manuales para ello.
Lo malo es que, como pasa con las noticias, es el tipo de cosas de las que te das cuenta es de las cosas en las que tienes un conocimiento profundo. La fiabilidad un poco discutible en temas que conozco me hace plantearme todas las cosas que puede decirme relativamente mal y que no puedo saber si son ciertas o no. Es decir, digamos que mis “pruebas experimentales” acerca de la herramienta me hacen dudar acerca de hacer pruebas operativas, al menos cuando necesito obtener información fiable.
La incorporación de la IA en las organizaciones (incluidas las públicas)
¿Qué significa esto para las organizaciones? Pues para mi supone un par de cuestiones importantes. En primer lugar hay que considerar que las organizaciones dedican muchísimo tiempo, energía e inteligencia en hacer algo muy humano: evitar cagadas. Si lo pensáis, la burocracia parte de la base de que si ponemos suficientes reglas, evitaremos suficientes cagadas y, como norma general, cada regla suele venir de una cagada experimentada o razonablemente previsible.
La asimilación de la IA, desde el punto de vista de una herramienta que (de nuevo, hablo de mi experiencia) tiene bastante margen de error al entrar con ciertos detalles en profundidad en una organización hace que el riesgo de cagadas sea importante. Si en una organización en la que hay, por ejemplo 100 personas, y cada una la usa 10 veces al día (1000 usos) y hay un 1% de margen de error no detectable, hablamos de 10 cagadas al día. Si hay suerte serán cosas pequeñas, si no las hay, serán un problema importante.
El problema me parece más serio en el plano organizativo porque una persona puede saber más o menos lo que usa y cómo lo usa, pero en una organización es difícil saber quién usa y de qué manera una herramienta que se ha generalizado (o como se dice en términos más técnicos, que se ha hecho una commodity). Estoy seguro de que hay bastantes personas que pueden experimentar cierta preocupación a la hora de pensar en determinados perfiles que pueden usar IAs para tomar decisiones sin ningún tipo de control y conocimiento correctivo.
El problema es aún más grande si contamos con que el ser humano es como es y que muy probablemente este uso ya se haga de manera particular sin una directiva de la organización. Puedes tener un problema sin ni siquiera saber que se dan las circunstancias para que surja: encontrar informes o artículos escritos por una IA sin saber que lo has hecho porque quien lo hace lo hace a hurtadillas.
¿Cómo meter a HAL-9000 en vereda?
Esto no significa que esté en contra de estos cacharros, ni que los vea abocados a ser un riesgo de un apocalipsis irreparable, pero sí que hacen falta algunas reglas o principios a tener en cuenta:
Valora en qué contextos compensa el resultado y el riesgo. Yo uso con cierta frecuencia Chat GPT y similares, pero, si os digo la verdad, lo hago para cosas que me importan poco o para cosas en las que mi supervisión es más o menos sencilla. Escribir algún correo o carta, consultar algún pequeño detalle del que dudo. No le encargaría (al menos de momento) mi declaración de la renta (por poner un ejemplo), porque me preocupa no hacerla bien y no tengo criterio para valorar si acierta… prefiero encargársela a personas.
Ojo con las cajas negras. El uso común de los LLM los convierte en una “caja negra” (algo a lo que le tiras una cosa y te devuelve otra y no sabes exactamente qué ha hecho). El algoritmo de por sí es bastante complejo… pues imagina si a eso le sumas que no sabes claramente qué fuentes coge y por qué. Toda respuesta debe tener una fuente contrastable.
Define las fuentes de entrenamiento (“contextos”). Si vas a utilizar una IA para una organización define exactamente cuáles son las fuentes de información que necesitas, todas y cada una de ellas sin que sobren (no meter información falsa) ni que falten (no sesgar el entrenamiento).
Identifica los ámbitos en los que aporta valor para la organización. Convertir la IA en un instrumento de trabajo requiere pensar en qué áreas conviene aplicarlo y para qué. Si vas a incorporarla en la organización define claramente esos ámbitos de uso a partir del valor que apunta, su funcionamiento y las fuentes que maneja.
Formación, formación y formación. La parte que genera más problemas de la IA no es (de momento) la IA, sino la reacción de las personas a la información que presta. La formación requiere una aproximación a cómo funciona el sistema, dónde usarlo y dónde no y cómo hacerlo de manera adecuada. No hay que confundir la facilidad de uso con la facilidad de uso correcto y eso lo dan la experiencia (que sabemos como se adquiere) y la formación.
Control a fuentes inadvertidas. Como decía, el último punto que me inquieta es el uso de estas tecnologías “off the record”. Hemos oído mucho hablar de profesores que comprueban si los trabajos de sus alumnos los hace Chat GPT, pero empezaría a preguntarme si documentos internos de trabajo (informes, memorias, estudios, etc) se han hecho con chat GPT y los responsables de la organización no lo saben. No es ya la posible desconfianza del resultado, sino el propio concepto de responsabilidad de la organización y de las personas.
HAL 9000 no era tan mala gente
Si en 2001 te queda bastante claro que HAL es un mal bicho, en 2010 y 3001 ya no te parece tan malo. A lo largo de estas dos novelas es importante para la supervivencia de la humanidad. El problema con el que se encuentra es que le han puesto unas responsabilidades que no sabe gestionar y con unas personas que desconocen esta situación y que, por lo tanto, actúan bajo otras premisas.
Esto acaba suponiendo bastantes problemas (sobre todo para Frank Poole, que sale a mirar las ruedas del coche y acaba escarchado), pero, en condiciones normales, la misión de la Discovery no sería posible sin su ayuda, como bien recuerda en su entrevista televisiva. Solo basta con tener claro qué podemos esperar de ella y en qué momentos usarla correctamente.
Buenos días, lo más sensato que he leído sobre Chat GPT 4 e IA en muchas semanas ¡Gracias Sergio!