CONSECUENCIAS

SHADOW AI · CUMPLIMIENTO · RIESGO LEGAL

CONSECUENCIAS

La Shadow AI no es solo un incumplimiento de política interna. Es la puerta de entrada a riesgos reales: RGPD, AI Act, contratación pública, propiedad intelectual y secretos empresariales.

Marzo 2026 · 10 min lectura · David Lanau · DLANPER

Creemos que la Shadow AI empieza en los innumerables comités que se forman en las grandes compañías para tomar decisiones más o menos estratégicas.

No es así.

Empieza con un empleado cansado.

Empieza con un abogado que pega una cláusula en ChatGPT para ir más rápido. O que sube la estrategia de la compañía a NotebookLM para sacar presentaciones vistosas y mapas mentales con el mínimo esfuerzo, porque está quemado y solo quiere tiempo libre para mirar InfoJobs.

Empieza con una comercial que resume propuestas en una herramienta no homologada, analiza pliegos con Perplexity y prepara ofertas con toda la propiedad intelectual de su empresa en Gemini 2.5 Pro para intentar abarcar más mercado y sobrevivir a unos objetivos asfixiantes.

Empieza con un departamento de operaciones tan sobrepasado que uno de sus miembros decide montarse un tablero Kanban con Lovable. O con un equipo técnico que programa con Claude Opus o con cualquier copiloto cloud que la matriz nunca aprobó, y que además desarrolla soluciones con modelos externos de código abierto sin licencia clara, sin evaluación de impacto, sin securización interna, sin validación legal y sin trazabilidad mínima.

¿Podría estar sucediendo ya en alguna compañía?

Esa es la pregunta correcta. Porque aquí es donde la Shadow AI deja de ser una pequeña trampa operativa para convertirse en un problema legal, contractual y reputacional.

1. El error de base: pensar que si funciona, ya está bien

Lo primero que conviene decir con claridad es esto: no toda Shadow AI es automáticamente ilegal, pero sí puede convertirse muy rápido en un problema de protección de datos, cumplimiento del AI Act, contratación pública, propiedad intelectual, secretos empresariales y responsabilidad contractual.

Ahí está la trampa de esta etapa tecnológica. Muchas organizaciones siguen creyendo que el riesgo de la IA está en la gran distopía futura, cuando el riesgo real ya está en producción: herramientas no registradas, modelos no aprobados, decisiones sin supervisión efectiva y desarrollos entregados a clientes sin una cadena de cumplimiento mínimamente sólida.

El problema no es solo usar IA fuera del marco oficial. El problema es que, cuando eso ocurre de forma sistemática, la organización deja de saber qué usa, con qué datos opera, qué proveedor real hay debajo y qué obligaciones está asumiendo sin darse cuenta.

Y cuando una empresa pierde esa visibilidad, ya ha empezado a perder el control.

2. Qué puede denunciarse en España y ante quién

A. Si hay datos personales: AEPD

Si la Shadow AI implica subir datos personales a herramientas no autorizadas, usar datos de clientes o empleados sin base adecuada, hacer transferencias internacionales sin garantías suficientes o tratar datos sensibles sin medidas y análisis previos, el canal natural de reclamación es la Agencia Española de Protección de Datos (AEPD).

Las sanciones del RGPD siguen siendo las grandes cifras que de verdad asustan: hasta 10 millones de euros o el 2% del volumen global anual, o hasta 20 millones o el 4%, según el tipo de infracción (Reglamento (UE) 2016/679, art. 83) [1]. Esto incluye vulneraciones de principios, base jurídica, derechos de los interesados o transferencias internacionales.

Es decir: una mala decisión aparentemente «productiva» de un empleado puede acabar conectando a la empresa con uno de los regímenes sancionadores más severos del entorno digital europeo.

B. Si entra el AI Act: AESIA y autoridades sectoriales

El AI Act ya está en vigor, pero su calendario importa mucho. Las prácticas prohibidas y las obligaciones de alfabetización en IA ya empezaron a desplegarse; las obligaciones para modelos de propósito general tienen su propio calendario; y el régimen general será plenamente aplicable a partir de 2026, con excepciones posteriores (Reglamento (UE) 2024/1689, art. 113) [2].

En España, el Gobierno ha señalado que, con carácter general, la autoridad competente será la AESIA, junto con otras autoridades específicas según el sector o el ámbito.

35M€ / 7%

por prácticas prohibidas [2]

15M€ / 3%

por incumplimiento de obligaciones [2]

7,5M€ / 1%

por información inexacta a autoridades [2]

La conversación sobre Shadow AI deja de ser menor cuando entra en contacto con este terreno. Porque ya no se trata solo de si el equipo va más rápido o más lento, sino de si la empresa está poniendo en producción sistemas que pueden caer dentro de obligaciones regulatorias que ni siquiera ha identificado.

C. Si hay contratación pública: tribunales de recursos contractuales

Cuando una empresa entrega a una administración una solución desarrollada con modelos, datasets, licencias o componentes que no cumplen lo exigido por el pliego —o que no se explican con transparencia suficiente— el problema ya no es solo técnico: puede convertirse en un problema de contratación pública.

La Ley 9/2017 de Contratos del Sector Público (Ley 9/2017, de 8 de noviembre) [3] prevé el recurso especial en materia de contratación para determinados actos y decisiones, y atribuye su resolución a los órganos competentes. El riesgo puede traducirse en: anulación, recurso, suspensión, revisión del expediente, daños y perjuicios o reproches de fiscalización.

D. Si hay licencias o contenidos sin cobertura: propiedad intelectual

Si una compañía desarrolla o entrega proyectos con componentes, salidas o cadenas de uso que no respetan licencias o invaden derechos de propiedad intelectual, la vía habitual no es un regulador de IA, sino la jurisdicción civil. La Ley de Propiedad Intelectual [4] permite al titular de derechos exigir el cese de la actividad ilícita y reclamar indemnización por daños materiales y morales.

El riesgo está en toda la cadena:

  • Con qué dataset o repositorios se ha entrenado o afinado algo
  • Qué licencias tenían los componentes utilizados
  • Si el copiloto cloud retiene prompts o sugerencias
  • Si el entregable final incorpora código con restricciones incompatibles con el contrato

E. Si se expone know-how del cliente: secretos empresariales

Cuando se sube a herramientas externas código fuente, arquitectura, documentación interna, pipelines, pliegos no publicados, pricing o know-how, además del ángulo RGPD aparece otro: la Ley de Secretos Empresariales [5]. Esta ley permite ejercitar acciones civiles para declarar la violación, exigir la cesación y reclamar indemnización de daños y perjuicios.

Aquí es donde muchas empresas descubren demasiado tarde que no solo han tenido un problema de uso de herramientas, sino un problema de exposición de activos críticos.

3. El caso más infravalorado: proyectos con modelos cloud no aprobados

Este es uno de los ejemplos más peligrosos, porque todavía se normaliza demasiado. Imagina una consultora que desarrolla software para un cliente usando un copiloto cloud o un LLM externo que no está aprobado por la matriz, no ha pasado una evaluación de impacto de protección de datos (RGPD, art. 35) [1], no ha sido evaluado en términos de riesgos fundamentales cuando la solución entra en categorías de alto riesgo (AI Act, art. 27) [2], y no tiene resuelta la ubicación del dato, la retención de prompts o la compatibilidad de licencias.

El problema es haber construido un activo contractual con una cadena de cumplimiento rota.

Y una cadena rota no se arregla con una demo bonita ni con una cláusula de última hora.

4. EIPD, FRIA y la gran confusión de mercado

Muchas empresas hablan de «PIA» y «FRIA» como si fueran casillas cosméticas de compliance. No lo son.

En España y bajo RGPD, la figura clave es la EIPD (Reglamento (UE) 2016/679, art. 35) [1]. La AEPD recuerda que el RGPD la introduce para tratamientos de alto riesgo y que existen listas orientativas sobre los supuestos en los que debe realizarse.

La FRIA del AI Act, por su parte, no es universal. Se aplica en determinados supuestos y para ciertos sistemas de IA de alto riesgo, especialmente cuando el despliegue afecta a entidades públicas, servicios públicos o ámbitos especialmente sensibles (Reglamento (UE) 2024/1689, art. 27) [2].

No hacer una EIPD o una FRIA cuando toca no es un simple defecto documental. Es una señal de que nadie ha pensado seriamente el riesgo.

5. Qué pasa con los pliegos y la administración

Aquí hay una zona especialmente delicada: la administración pública todavía no siempre sabe preguntar bien por la IA, y algunos proveedores se aprovechan de ese vacío.

Puede ocurrir que un pliego no exija con precisión: identificación del modelo, condiciones de licencia, localización del dato, retención de prompts, uso posterior para entrenamiento, trazabilidad del proveedor, medidas de seguridad y gobierno, o si la solución entra en categorías de alto riesgo.

Cuando eso pasa, hay dos errores simétricos: administraciones que compran sin ver toda la cadena tecnológica real, y proveedores que entregan más opacidad de la que deberían. El resultado es riesgo jurídico, reputacional, operativo y de dependencia tecnológica.

6. Más ejemplos reales de riesgo

Legal ops con IA externa

Abogados o equipos de compliance que pegan contratos, escritos o informes con datos sensibles en herramientas no aprobadas. Si hay datos personales, confidenciales o secretos empresariales, el problema deja de ser teórico.

RR. HH. y selección

Equipos que usan IA para cribar CV, resumir entrevistas o redactar evaluaciones sin análisis serio de datos, sesgos ni supervisión humana suficiente. Si la herramienta entra en ámbitos de empleo o decisiones sobre personas, el riesgo regulatorio sube de nivel.

Preventa y pliegos

Respuestas a RFP, RFI o licitaciones redactadas con herramientas externas introduciendo pricing, arquitectura, diferenciadores y materiales del cliente. A veces, el primer sitio donde una empresa filtra su ventaja competitiva no es un ciberataque: es un prompt.

7. Lo que supone todo esto realmente

Supone que muchas compañías están intentando ganar velocidad con IA, pero sin cadena de responsabilidad suficiente. No porque toda IA no aprobada vaya a acabar necesariamente en una sanción —aunque a veces sí—, sino porque la organización entra en una zona en la que no sabe bien qué usa, no sabe con qué datos opera, no sabe qué proveedor real hay debajo, no sabe qué derechos está comprometiendo, y no sabe quién responderá cuando algo falle.

La Shadow AI no es solo un incumplimiento de política interna. Es la puerta de entrada a un conjunto de riesgos que ya existen en el Derecho español y europeo: protección de datos, AI Act, contratación pública, propiedad intelectual, secretos empresariales y responsabilidad contractual.

El problema no es que tus empleados usen IA.

El problema es que quizá ya la están usando para construir, vender y entregar cosas que tu empresa ni entiende ni gobierna.

Bibliografía

  1. Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (RGPD). Arts. 35 y 83.
  2. Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial / AI Act). Arts. 27, 99 y 113.
  3. Ley 9/2017, de 8 de noviembre, de Contratos del Sector Público, por la que se transponen al ordenamiento jurídico español las Directivas del Parlamento Europeo y del Consejo 2014/23/UE y 2014/24/UE, de 26 de febrero de 2014.
  4. Real Decreto Legislativo 1/1996, de 12 de abril, por el que se aprueba el texto refundido de la Ley de Propiedad Intelectual.
  5. Ley 1/2019, de 20 de febrero, de Secretos Empresariales.

Publicaciones Similares

  • DLANPER TECH & IA

    DLANPER TECH & IA En DLANPER TECH trabajamos con IA porque, después de años construyendo sistemas de identidad, seguridad y deep tech, hemos llegado a una conclusión simple: la Inteligencia Artificial se va a convertir en una capa estructural de las organizaciones, igual que lo fueron en su momento las redes, los ERPs o internet….

  • |

    ¿ESTÁ MUERTO BLOCKCHAIN?

    ¿ESTÁ MUERTO BLOCKCHAIN? Durante años, blockchain fue la palabra mágica que abría puertas, levantaba rondas y llenaba titulares. Todo tenía que ser “on-chain”: identidades, contratos, logística, votaciones, venta de pisos, cuadros de monos y hasta cafeterías de barrio con su propio token. Después del subidón, llegó lo inevitable: desplome, reguladores, fraudes, proyectos vacíos… y la…