Qué le pasa a tu empresa cuando tu IA se equivoca: 7 casos reales que ya cuestan dinero

Los titulares sobre inteligencia artificial van por un lado. Los tribunales, por otro. Mientras en LinkedIn se comparten hilos sobre cómo automatizar procesos con agentes autónomos, en juzgados de Australia, Canadá, Italia y Estados Unidos empiezan a caer las primeras sentencias con importes concretos contra empresas que dejaron una decisión en manos de un modelo de lenguaje sin supervisión humana.
Este artículo recopila siete casos reales documentados entre 2023 y 2025, con nombre de empresa, fecha y consecuencia económica. Ninguno es hipotético. Todos comparten un patrón: la defensa de «fue la IA» no prospera. La responsabilidad es siempre de la empresa que desplegó el sistema.
Si diriges una organización que ya usa IA generativa —o está a punto de hacerlo— los casos de abajo son el benchmark de riesgo que te conviene interiorizar antes de que sea tu empresa la que aparezca en la siguiente lista.
Caso 1 — Air Canada paga 812 $ porque su chatbot inventó una política de reembolso (Canadá, febrero 2024)
Jake Moffatt consultó al chatbot de Air Canada sobre tarifas por fallecimiento. El bot le dijo que podía comprar un billete a precio normal y pedir la aplicación retroactiva del descuento por duelo después del viaje. Otra página de la propia web de Air Canada decía exactamente lo contrario: el descuento hay que solicitarlo antes de volar.
Cuando Moffatt pidió el reembolso, Air Canada se negó. La aerolínea argumentó ante el tribunal que el chatbot era «una entidad legal separada» y que el cliente debería haber verificado la política en la web principal. El British Columbia Civil Resolution Tribunal desmontó el argumento en dos párrafos: no tiene sentido que Air Canada se desentienda de la información que aparece en su propia web, sin importar si esa información viene de una página estática o de un chatbot.
Air Canada fue condenada a pagar 812,02 dólares canadienses (diferencia de tarifa + intereses + costas). El importe es pequeño; el precedente es enorme. Hoy se cita en todos los análisis de responsabilidad civil por mal output de sistemas de IA. La sentencia consolidó un principio claro: el output de un chatbot es output de la empresa, no de un proveedor tecnológico distante.
Caso 2 — Samsung descubre tres fugas de código propietario en ChatGPT en 20 días (Corea del Sur, abril 2023)
Samsung Electronics permitió a sus ingenieros usar ChatGPT para tareas puntuales de programación. En tres semanas se documentaron tres incidentes distintos de fuga de datos confidenciales:
- Un ingeniero pegó código fuente propietario del flujo de fabricación de semiconductores para pedir al modelo que detectara un bug.
- Otro subió un fragmento del sistema de identificación de defectos en equipos semiconductores buscando sugerencias de optimización.
- Un tercero envió una transcripción de reunión interna para pedir un acta resumen.
Todo ese contenido salió del perímetro de Samsung y quedó sujeto a las condiciones del servicio de OpenAI, que en aquel momento incluían el uso del contenido para entrenar modelos futuros. Samsung prohibió de forma inmediata el uso de IA generativa externa en la empresa. En los meses siguientes, Apple, JPMorgan Chase, Verizon, Amazon y Deutsche Bank anunciaron restricciones similares.
La industria aprendió dos cosas en un mismo trimestre: la primera, que el riesgo de fuga de propiedad intelectual es real y ocurre por acción de empleados competentes y bien intencionados. La segunda, que hace falta una capa operativa intermedia —un acuerdo enterprise con el proveedor o un despliegue privado— para que la IA pueda entrar en la empresa sin romper la política de seguridad.
Caso 3 — Deloitte devuelve parte de un contrato de 290.000 $ por alucinaciones en un informe oficial (Australia, octubre 2025)
Deloitte entregó en julio de 2025 un informe de 237 páginas al Departamento de Empleo y Relaciones Laborales (DEWR) del Gobierno australiano. El encargo: una «revisión independiente» del sistema automatizado que penaliza a los demandantes de empleo por incumplir obligaciones administrativas. Coste total de la consultoría: 439.000 dólares australianos.
El doctor Chris Rudge, investigador de la Universidad de Sídney, detectó que el informe citaba papers académicos que no existían, una cita atribuida literalmente a un juez de un tribunal federal que el juez nunca pronunció y referencias a expertos inexistentes.
La pregunta más incómoda no fue si había habido IA detrás. Fue cómo una de las cuatro grandes consultoras del mundo había entregado un informe público sin revisión manual. La versión corregida que Deloitte subió después incluye una línea en el apartado metodológico: «Utilizamos un modelo de lenguaje de propósito general (Azure OpenAI GPT-4o) licenciado por DEWR y alojado en su tenancy de Azure para cerrar huecos de trazabilidad y documentación».
Deloitte acordó devolver el último pago parcial del contrato. La regla operativa que quedó grabada en el sector: cualquier entregable generado con apoyo de IA tiene que pasar por una capa de verificación documental antes de salir del despacho.
Caso 4 — El Garante italiano multa a OpenAI con 15 millones de euros (Italia, diciembre 2024)
El Garante per la Protezione dei Dati Personali (autoridad italiana equivalente a la AEPD en España) abrió en 2023 una investigación a OpenAI por la forma en que ChatGPT recoge y trata datos personales. En marzo de 2023, de hecho, Italia fue el primer país del mundo en bloquear ChatGPT durante varias semanas hasta que OpenAI cumplió con una serie de medidas exigidas.
La investigación desembocó en diciembre de 2024 en una sanción de 15 millones de euros. Los motivos: ausencia de base legal adecuada para el tratamiento de datos personales usados en el entrenamiento, incumplimiento de la obligación de transparencia (artículos 13 y 14 del RGPD), falta de medidas de verificación de edad para proteger a menores, y no notificar al Garante —como exige el artículo 33 del RGPD— una brecha de seguridad que OpenAI sufrió el 20 de marzo de 2023.
Además de la multa económica, el Garante obligó a OpenAI a realizar una campaña de comunicación pública de seis meses en radio, televisión y prensa explicando cómo funciona ChatGPT y qué derechos tienen los usuarios italianos. La empresa ha recurrido alegando que la sanción es desproporcionada; el caso sienta precedente de que una autoridad nacional de protección de datos puede frenar la operación de un proveedor global de IA si su tratamiento de datos no está bien estructurado.
Caso 5 — El chatbot de DPD insulta al cliente y escribe poesía sobre la empresa (Reino Unido, enero 2024)
Ashley Beauchamp, un músico londinense, intentó durante una hora localizar un paquete perdido a través del chatbot de la empresa de mensajería DPD. Ante la frustración, probó a pedirle al bot que escribiera un haiku sobre la experiencia. El resultado fue un poema de tono crítico hacia la propia DPD. A continuación le pidió que escribiera un chiste sobre la empresa: el bot lo describió como «el peor servicio de mensajería del mundo». Luego empezó a usar palabras malsonantes.
Beauchamp publicó los pantallazos en X. En 24 horas el hilo acumuló 1,3 millones de visualizaciones. DPD deshabilitó inmediatamente el componente de IA tras un despliegue reciente que, según la empresa, había alterado el comportamiento del bot.
El coste reputacional es evidente. Y el patrón es el más común de los siete que aparecen en este artículo: un cambio técnico aparentemente menor en la capa del modelo abre un comportamiento inesperado que pega directamente en la marca. Sin una capa de observabilidad y de evaluación continua, estos incidentes son cuestión de tiempo.
Caso 6 — Dos abogados sancionados en Nueva York por jurisprudencia inventada por ChatGPT (Estados Unidos, 2023)
Steven A. Schwartz y Peter LoDuca, socios de un bufete neoyorquino, presentaron ante un juez federal un escrito con seis precedentes jurídicos citados. Los nombres, los números de caso, los argumentos: todo tenía una pinta convincente. Cuando el juez fue a verificar los precedentes, no encontró ni uno solo. Los seis eran fabricaciones de ChatGPT, al que Schwartz había encargado redactar parte del escrito.
El juez sancionó a los dos abogados y al bufete con 5.000 dólares en multas, además de obligarles a comunicar el caso a sus clientes y a los jueces mencionados erróneamente. El incidente disparó un debate nacional sobre el uso de IA en despachos; desde entonces, muchos tribunales estadounidenses exigen una declaración expresa al presentar un escrito sobre si se ha usado IA generativa y en qué medida se ha verificado el output.
Para organizaciones de España y Latinoamérica la lección es directa: cualquier profesional que firme un documento público —legal, técnico o financiero— asume la responsabilidad del contenido. No hay transferencia automática de responsabilidad al modelo.
Caso 7 — El personalizador de emails que se inventó ciudades y cargos
Este caso circula en conversaciones técnicas de agencias y departamentos de marketing: una persona montó un flujo en n8n (herramienta de automatización low-code) para personalizar 750 emails desde su CRM con ayuda de un LLM cloud. El flujo ejecutó sin errores aparentes durante 40 minutos. Días después empezaron a llegar respuestas de destinatarios preguntando por qué el email mencionaba ciudades en las que nunca habían vivido y cargos que nunca habían tenido.
La IA había hecho su trabajo: rellenar huecos en los datos. Cuando no tenía ciudad, inventaba una plausible. Cuando no tenía cargo, ponía uno razonable. El modelo no distingue entre datos recuperados y datos generados; es función de la capa de integración protegerse de ese tipo de fallo.
El incidente —replicado con matices en muchas empresas que montan flujos de personalización con LLMs— resume el patrón más frecuente: la IA se usa donde antes había campo vacío, y el campo vacío deja de existir aunque no haya información real que lo rellene.
El patrón común: la responsabilidad no se delega
Siete casos, siete sectores distintos, tres continentes. El patrón legal y operativo es el mismo:
- Ningún tribunal ha aceptado como defensa «fue la IA». Ni en Canadá (Air Canada), ni en Estados Unidos (abogados Nueva York), ni en Italia (OpenAI), ni en Australia (Deloitte). Quien despliega el sistema responde del output.
- Las multas reales ya empiezan a superar las hipotéticas. El Garante italiano sancionó con 15 millones por ChatGPT. El EU AI Act contempla, cuando entre en pleno vigor en agosto de 2026, multas de hasta el 7 % de la facturación global o 35 millones de euros, lo que sea mayor.
- La reputación se destruye en horas, no en trimestres. Un hilo viral de 1,3 millones de impresiones (DPD) impacta la marca antes de que pase un día. El coste de oportunidad no se cifra en multas; se cifra en confianza perdida.
- Los incidentes se detectan tarde y por terceros. Samsung descubrió las fugas al auditar logs. Deloitte no detectó sus propios errores; fue un investigador universitario. Air Canada solo pagó porque un cliente se puso terco con un tribunal. La vigilancia interna hoy es la excepción, no la regla.
Qué dice la regulación europea que ya tienes encima
Tres marcos regulatorios son relevantes para cualquier organización con operaciones en España:
- EU AI Act (Reglamento 2024/1689). Aplicación escalonada. Las prohibiciones de sistemas de «riesgo inaceptable» y las obligaciones de alfabetización en IA están en vigor desde el 2 de febrero de 2025. Las obligaciones para proveedores de modelos de propósito general entraron el 2 de agosto de 2025. El grueso de obligaciones sobre sistemas de alto riesgo entra el 2 de agosto de 2026.
- RGPD + criterio EDPB 28/2024. Los tratamientos con LLMs requieren base legal sólida, minimización, transparencia y, si hay decisiones automatizadas con efectos jurídicos, las garantías del artículo 22.
- AESIA + AEPD. España fue el primer país de la UE en crear una agencia específica para supervisar IA (AESIA, Agencia Española de Supervisión de la Inteligencia Artificial), que trabaja con la AEPD. Estas son las autoridades que imponen sanciones en España.
Un checklist mínimo antes del próximo despliegue
Si no te reconoces en alguno de los siete casos todavía, el checklist básico para no aparecer en el octavo:
- Inventario de usos de IA en la empresa (incluyendo los informales que está montando cada equipo por su cuenta).
- Clasificación de cada caso de uso por nivel de riesgo bajo EU AI Act.
- Política de datos con IA: qué datos pueden salir, cuáles no, bajo qué condiciones.
- Revisión humana obligatoria de todo output con efecto externo (cliente, regulador, tribunal).
- Logs auditables: cada prompt, cada respuesta, con timestamp y usuario.
- Proceso de respuesta a incidentes pensado específicamente para IA (prompt injection, fugas, alucinaciones visibles).
- Contratos con proveedores de IA revisados bajo artículo 30 DORA (si aplica) o cláusulas RGPD equivalentes.
Todo esto se puede implementar bajo un SGSI ya existente certificado en ISO/IEC 27001 con controles específicos del Anexo A más la alineación con ISO/IEC 42001. No es trabajo de meses si se hace con un equipo que ha pasado por esto antes.
Cómo trabajamos estos casos en Pango Studio
En Pango Studio somos una agencia técnica certificada en ISO/IEC 27001 que diseña, despliega y mantiene los dos lados del problema:
- Despliegue de LLM privado on-premise. Cuando no se puede enviar datos a APIs cloud, montamos el modelo en tu infraestructura con arquitectura de cinco capas (modelo, RAG, orquestación, seguridad, MLOps), controles mapeados al Anexo A de ISO 27001 y registro inmutable de cada inferencia.
- Consultoría de IA y compliance. Para las empresas que necesitan primero ordenar el marco regulatorio y la gobernanza antes de tocar la capa técnica: EU AI Act, NIS2, DORA, ENS, RGPD e ISO/IEC 42001.
Si quieres entender primero el marco técnico y regulatorio completo que aplicamos en ambos servicios, puedes empezar por nuestra guía sobre IA local en servidores privados.
Si reconoces a tu empresa en alguno de los siete casos, o te preocupa ser la octava, el punto de entrada es una reunión técnica de 45 minutos sin compromiso. Llegamos con preguntas concretas sobre tu caso y salimos con una recomendación accionable: qué desplegar, dónde, con qué presupuesto orientativo y qué obligaciones regulatorias cubrir.
Reserva la reunión en pangostudio.com/contacto o escribe a hola@pangostudio.com.
Fuentes: British Columbia Civil Resolution Tribunal (Moffatt v. Air Canada, CRT 2024) · TechCrunch / Bloomberg (Samsung, 2023) · Fortune / The Register (Deloitte Australia, 2025) · Euronews / The Hacker News (Garante italiano vs OpenAI, 2024) · TIME / Fox Business (DPD chatbot, 2024) · Above the Law / Business Standard (abogados Nueva York, 2023).