Las corporaciones están descubriendo la IA generativa a golpes. Martillazos dados por tecnólogos que no son capaces de aplicar una visión global de lo que significa, e implica, el uso de esta tecnología.
Lo veo una y otra vez: la reacción instintiva ante la GenAI es desarrollar soluciones internas o comprar herramientas para montar un par de pilotos vistosos y enseñar un dashboard al comité de dirección. Si el gráfico sube, éxito. Si no sube, ya se buscará otra moda. Entre tanto, nadie ha hablado en serio de políticas de uso, gobierno, consecuencias legales o formación real a los empleados.
Es el enfoque clásico del “tenemos un martillo, busquemos clavos”. Se instala una plataforma de GenAI, se habilitan cuatro copilots y se piensa que, por arte de magia, el negocio se va a transformar. El problema es que la realidad no funciona así: sin reglas claras y sin entender cómo trabajan las personas, ese martillo acaba golpeando cosas que no debería.
Lo técnico es cómodo. Hay proveedores, demos, fichas de producto. Hay incluso ROI “estimado” en Excel. Lo incómodo es lo otro:
- Definir qué datos se pueden usar y cuáles no.
- Decidir quién es responsable de revisar los outputs.
- Determinar qué pasa si alguien sube información confidencial a una herramienta pública.
- Ver cómo se alinea todo esto con el AI Act y con el RGPD.
- Entender qué sucede cuando desarrollo código (IP) fuera de mi entorno de trabajo.
Y, sobre todo, cómo se lo explicas a la gente de manera que lo entienda, lo asuma y lo use.
Muchas compañías están empezando “por el cómo” en lugar de “por el qué”. Antes de preguntarse para qué quieren GenAI y bajo qué reglas, ya tienen un stack técnico montado. Luego llegan los problemas: shadow AI descontrolada, equipos que no adoptan las herramientas corporativas porque son lentas o inútiles, riesgo legal difuso y una sensación general de “esto es humo”.
La alternativa exige más humildad:
- Escuchar al usuario interno. Entender dónde pierde tiempo, qué procesos son un infierno, qué decisiones requieren mejor información.
- Definir una política de uso de GenAI y shadow AI: sencilla, clara, con ejemplos concretos de “esto sí / esto no”.
- Establecer un modelo de gobierno: quién prioriza casos de uso, quién aprueba, quién supervisa y qué se mide.
- Formar de verdad a los empleados, no solo en la herramienta, sino en las implicaciones éticas, legales y regulatorias.
- Construir o adaptar herramientas a partir de ahí, no al revés.
En mis propias experiencias, he visto demasiadas veces el síndrome del Ferrari: montamos una solución brillante, sofisticada y cara… cuando el negocio, y los usuarios, solo necesitaban un Seat Ibiza fiable que arrancara cada mañana. Con GenAI está pasando lo mismo: proyectos excesivos, desconectados del día a día, que luego nadie usa.
La GenAI no va de tener el modelo más grande ni el prompt más ingenioso. Va de entender cómo trabajan las personas, proteger los datos y crear reglas de juego que permitan innovar sin cortocircuitar la organización.
Mientras las corporaciones sigan abordando la IA generativa a martillazos, seguirán rompiendo cosas: confianza, tiempo, dinero y, a veces, la ley. El verdadero avance llegará cuando empecemos por el usuario, por el gobierno y por el para qué… y dejemos que la tecnología sea, simplemente, la herramienta adecuada.
