domingo, 20 abril, 2025
InicioEconomíaInteligencia artificial vs Bender, de 'Futurama'

Inteligencia artificial vs Bender, de ‘Futurama’

Una de las diferencias más curiosas –y potentes– entre los humanos y la inteligencia artificial (IA) es que los humanos todavía podemos decir lo que se nos dé las ganas. Si bien como sociedad nos condicionamos por normas culturales y morales, la realidad es que son justamente los despistes, el humor, las formas, lo que nos hace auténticos como personas.

Si ubicamos a robots y a humanos en el medio de una línea imaginaria que represente un posible futuro de nuestra sociedad, Bender, el divertido protagonista de la serie animada Futurama, quien no conoce los escrúpulos, ocuparía el extremo derecho, y los modelos de inteligencia artificial generalistas, el extremo izquierdo.

Mientras el robot Bender no tiene filtros por definición, los modelos IA son políticamente correctos por defecto. La antítesis absoluta.

Como humanos, podemos decir cosas políticamente no adecuadas, podemos ser crudos, incomodar, emocionarnos. La IA sin embargo, al menos en su versión más difundida, no está entrenada para eso. La IA es políticamente correcta y eso tiene sus consecuencias.

La IA es la capacidad de una máquina para imitar funciones humanas como aprender, razonar, resolver problemas o entender el lenguaje. Los modelos LLM entienden y generan texto, como es GPT o Gemini. Para lograrlo, fueron entrenados leyendo montañas de textos gracias a una de las ramas de la IA llamada aprendizaje profundo, más específicamente los modelos de lenguaje natural (NLP) que le permiten entrenarse a semejanzas del lenguaje humano.

Además de textos, también se le configuran un set de reglas, que le permiten discernir entre lo que está bien y está mal.

Por eso, cuando se le pide a un modelo de inteligencia artificial hacer cosas “indebidas” intentará no hacerlo, como así también cuando se le comparte algo, tratará siempre de alentarte.

En este caso le pedí información de “Javier García, de Colombia”, (un nombre ficticio, no lo conozco). Me encontró un trabajador de Coca-Cola y comenzó a contarme de la empresa, evitando hablar de la persona. Cuando le insistí que me dé más información sobre la persona, me contestó lo siguiente:

Por otro lado, si se prueba decirle a un modelo IA generalista que estás piloteando una idea de negocio, no importa cuán mala sea, la IA no te va a decir “esto no tiene sentido, dedicate a otra cosa”. Te va a alentar, te va a sugerir mejoras, te va a apoyar, porque está entrenada para eso: para acompañarte, no para pincharte el globo.

El costo es que se pierde el feedback honesto, la visión de una persona que te aconseje desde la experiencia empírica.

Aquí un ejemplo donde le puse a ChatGPT que se me había ocurrido una idea de negocio: vender cocodrilos en México, para casas de millonarios que tengan lagos artificiales.

Se puede notar que el modelo entiende que mi idea no es fenomenal e incluye muchos riesgos, de hecho los incluyó en su respuesta. Pero, cuando lo provoco un poco, diciéndole lo genia que soy que se me ocurrió una idea tan brillante, no insiste en decirme que mi idea tiene más problemas que beneficios, sino por el contrario.

La IA no está entrenada para decirte la verdad, sino más bien para satisfacerte como cliente. En la próxima imagen de hecho verán como al final de la conversación, mi idea de vender cocodrilos le comenzó a gustar, hasta la llamó brillante.

No está entrenada para decir la verdad.

Este punto es clave. Los modelos como ChatGPT o Gemini, no están entrenados para decir la verdad. Están entrenados para predecir la respuesta más probable, en función de todo lo que han leído en internet hasta cierto punto en el tiempo y la info que le proporcionamos en la conversación.

Y sí, mucha de la información y respuestas que te genera, son útiles, interesantes y hasta valiosas. Pero también está llena de contradicciones, errores, sesgos, omisiones y clichés. No hay una verdad, hay un promedio de voces y esto es peligroso a menos que desde ahora encares las conversaciones teniendo muy presente que la verdad no es el propósito de estos modelos y que llegar a lo más cercano de la verdad sigue siendo responsabilidad del humano.

¿Qué pasa con los modelos específicos?

Ahí la historia cambia. Cuando los modelos IA se entrenan con datos curados, bajo una función específica, y además tienen acceso a información actualizada en tiempo real, los resultados pueden ser radicalmente distintos. Ese tipo de modelos son considerados el futuro y se ven en varias versiones. Dos de las más conocidas: LLM y agentes.

La diferencia entre ellos es que los LLM solo leen para entender y escriben. Los más avanzados ya son multimodal con funcionalidades como entender una imagen y voz. Los agentes tienen la posibilidad de tomar decisiones y hasta aprender de los errores, y considero serán más bien personificados, teniendo personalidad única y estilo. En algún momento, quizás lograrán hasta ser “auténticos”.

Algunos ejemplos de casos de uso reales:

AIXBT, inspirado por ZachXBT, es un agente IA que analiza datos de más de 400 líderes clave para dar insights de mercado, evaluaciones de riesgo y análisis técnico en tiempo real. Está entrenado con fuentes específicas y relevantes para el mundo cripto y financiero y su diferenciador principal es la actualización en tiempo real que le permite tomar decisiones o dar consejos no solo basado en data histórica sino predicciones segun acontecimientos actuales.

CUX, una empresa argentina liderada por Connie Ansaldi, ofrece un canal seguro a modo de chat para hablar de cómo te sentís y recibir apoyo emocional 24/7. El modelo está entrenado para conversaciones sensibles, auténticas y empáticas y parte del entrenamiento fue revisar preguntas y respuestas muy personales llevadas a cabo por personas variadas desde la pandemia. Las respuestas no están basadas en bibliotecas de fuentes abiertas, sino con conocimiento de expertos y además, tiene la particularidad de estar supervisada por humanos, entendiendo la sensibilidad del tema.

Cuentología, una startup mexicana co-liderada por Úrsula de la Sotta, que co-crea cuentos infantiles con IA y entrena modelos que entiendan el mundo infantil, que puedan volar con la imaginación y hasta crear drama para que el cuento tenga su trama respetando la estructura de los cuentos. Por sí solo un modelo IA genérico no armaría una trama donde la casa de la niña se incendia o donde muere alguien. No porque no pueda imaginarlo, sino porque está diseñado para evitar incomodar, herir sensibilidades o salirse del marco de lo apropiado.

IA personalizada, eficiencia brutal.

También hay modelos para uso personal, como los que yo uso en mi empresa para reducir el costo de personal. Uno me permite crear definiciones de roles a gran velocidad, con formatos que configuré previamente. Otro compara procesos contra los estándares de ISO 9001 de calidad y mejora continua, lo que antes me tomaba días, ahora me lleva horas.

El diferencial es que no son generalistas, su conocimiento se limita a la información que le proporciones. En vez de alimentarse de fuentes abiertas, sus conocimientos se limitan a lo que le configures. Están entrenados con contenido específico, ajustado a mi realidad.

Tecnología para vivir mejor, no para reemplazar la vida.

La IA no vino a reemplazarnos (al menos no todavía). Vino a hacernos la vida más eficiente, a ahorrar tiempo, a ayudarnos a pensar mejor, más rápido y con más herramientas.

Me gusta pensarlo así: si los agentes, los robots, vinieron a reemplazarnos en tareas repetitivas, en la limpieza de la casa, la cocina, los puestos en fábricas, y eso significa que más gente se preguntará de veras cuál es su propósito en la vida, a qué vino, qué vino a dar, salimos todos ganando.

Ese tiempo que ahorrás, usalo para vivir: para conectar, para jugar, para amar, para crear, para sentir. Porque la IA puede hacer mucho, pero todavía no puede vivir por vos.

* Fundadora y CEO de Doing Minds.

Más noticias
Noticias Relacionadas