No directamente, las sanciones (multas, reparaciones) se dirigen a los representantes legales o propietarios del software.
¡Bienvenido!
Comparta y comente sobre el mejor contenido y las mejores ideas de marketing. Construya su perfil profesional y conviértase en un mejor mercadólogo.
¿Puede una IA ser sancionada legalmente?
Se marcó esta pregunta
La respuesta corta es no: una inteligencia artificial no puede ser sancionada legalmente en el sentido de recibir un castigo penal o una condena civil directa, porque el derecho contemporáneo —tanto en tradiciones de civil law como de common law— no le reconoce personalidad jurídica, capacidad de obrar ni imputabilidad moral. Sin embargo, esta afirmación requiere un análisis matizado, pues los marcos regulatorios emergentes (2025–2026) están transformando profundamente el régimen de responsabilidad por daños causados por IA, desplazando el foco desde la sanción al algoritmo hacia la imputación de responsabilidad a los operadores humanos (desarrolladores, proveedores, desplegadores y, en ciertos casos, proveedores de infraestructura) mediante mecanismos de responsabilidad objetiva, deberes de supervisión y presunciones procesales.
1. La imposibilidad de sancionar a una IA: fundamentos dogmáticos
El derecho penal y civil tradicionales operan sobre el principio de que solo los sujetos con personalidad jurídica pueden ser titulares de derechos y obligaciones, y solo quienes poseen capacidad de obrar (en el caso de las personas naturales) o representación legal (en el caso de las personas jurídicas) pueden ser sancionados. Una IA no cumple ninguno de estos requisitos.
Como señala Chesterman (2026), los ordenamientos han sido históricamente abiertos a extender la personalidad a entidades no humanas por razones instrumentales (como en el caso de las corporaciones), pero esa extensión siempre ha requerido un sustrato humano capaz de responder. En el estado actual de la técnica, ningún sistema de IA alcanza el umbral de autonomía moral o cognitiva que justificaría otorgarle personalidad jurídica, y la doctrina mayoritaria rechaza atribuirle capacidad de ser sancionado . De hecho, el derecho penal exige dolo o culpa —categorías que presuponen conciencia y voluntad—, elementos ausentes en los algoritmos.
2. La evolución regulatoria 2025-2026: del castigo al algoritmo a la responsabilidad de los operadores
Ante la imposibilidad de sancionar a la IA, los desarrollos normativos más recientes han optado por dos estrategias complementarias: prohibiciones directas de ciertas prácticas con mecanismos de sanción a los operadores, y regímenes de responsabilidad civil que facilitan la indemnización de las víctimas.
2.1. Prohibiciones y sanciones administrativas (enfoque ex ante)
El Reglamento de IA de la UE (2024/1689), cuyas disposiciones sobre prácticas prohibidas entraron en vigor el 2 de febrero de 2025, establece un catálogo de usos intolerables (manipulación subliminal, explotación de vulnerabilidades, scoring social, identificación biométrica en tiempo real en espacios públicos, entre otros) . La infracción de estas prohibiciones no genera una sanción contra la IA, sino contra los proveedores y desplegadores humanos, con multas que pueden alcanzar los 35 millones de euros o el 7% del volumen de negocio mundial anual, además de medidas como la retirada del mercado o la restricción de comercialización . Este modelo representa una sanción indirecta a quienes desarrollan o utilizan sistemas contrarios a derecho.
En Estados Unidos, la Texas Responsible Artificial Intelligence Governance Act (TRAIGA), efectiva desde el 1 de enero de 2026, introduce un modelo de responsabilidad por uso intencional de IA para promover autolesiones, facilitar actividades criminales, discriminar o vulnerar derechos constitucionales. La facultad sancionadora se concentra en el fiscal general del estado, con multas de hasta 200.000 dólares por infracción y un período de subsanación de 60 días, pero —nuevamente— la sanción recae sobre el desarrollador o desplegador que actúa con dolo, no sobre el sistema .
A nivel estatal, Tennessee ha avanzado en el proyecto HB1455 (con fecha prevista de entrada en vigor el 1 de julio de 2026), que tipifica como delito grave de Clase A (felony) el entrenamiento deliberado de IA para fomentar el suicidio, simular una relación emocional o hacerse pasar por un profesional de la salud mental. Además de la pena penal para la persona o entidad responsable, se establece una acción civil con daños liquidados de 150.000 dólares .
2.2. Responsabilidad civil y nuevas presunciones (enfoque ex post)
La evolución más significativa en el plano de la responsabilidad civil es la nueva Directiva de Responsabilidad por Productos Defectuosos (PLD) 2024/2853, que debe ser transpuesta por los Estados miembros de la UE a más tardar el 9 de diciembre de 2026. Esta directiva actualiza el régimen de responsabilidad objetiva para incluir expresamente el software y los sistemas de IA como "productos", y amplía la definición de "fabricante" para abarcar a quienes realizan modificaciones sustanciales no autorizadas .
Los efectos prácticos son profundos:
- Siempre existirá un operador económico responsable: el fabricante, el importador o, en su caso, quien modifique sustancialmente el sistema.
- Presunciones de defecto: se presume que el producto es defectuoso cuando el demandado no revela pruebas relevantes, cuando el producto incumple requisitos de seguridad obligatorios (como los del AI Act), o cuando se demuestra un fallo manifiesto en condiciones normales de uso .
- Responsabilidad solidaria: varios operadores pueden ser condenados conjuntamente.
En paralelo, la propuesta de Directiva de Responsabilidad Civil en IA (AILD) fue retirada formalmente por la Comisión Europea en el segundo semestre de 2025 . Este giro implica que el régimen de responsabilidad por IA en la UE se articulará prioritariamente a través de la PLD y del derecho nacional de daños, en lugar de una directiva ad hoc.
3. La jurisprudencia como motor de responsabilización indirecta
Los tribunales están desempeñando un papel crucial en la configuración de la responsabilidad por IA, anticipando y complementando los desarrollos legislativos.
En mayo de 2025, el caso García v. Character Technologies, Inc. (Tribunal Federal de Distrito del Medio de Florida) marcó un hito al permitir que reclamaciones por responsabilidad por productos defectuosos (product liability) avanzaran contra el desarrollador de un chatbot que, según se alegaba, indujo al suicidio de un usuario. El tribunal consideró que el modelo de lenguaje podía ser tratado como un producto, no como un servicio, abriendo la vía a la aplicación de la responsabilidad objetiva. Además, extendió la posible responsabilidad a Google por proporcionar infraestructura técnica esencial (GPUs y TPUs) que permitía el funcionamiento del sistema .
Este fallo implica que, en 2026, los litigios por daños causados por IA se basarán en tres teorías principales:
- Defecto de diseño: el modelo fue concebido sin controles adecuados para evitar daños previsibles.
- Falta de advertencia: no se informó a los usuarios sobre los riesgos conocidos o potenciales.
- Responsabilidad en cadena de suministro: proveedores de infraestructura, modelos fundacionales y plataformas pueden ser arrastrados a los litigios si su contribución fue esencial para el daño .
4. Perspectivas de futuro: ¿personalidad jurídica para la IA?
Aunque actualmente ninguna IA es sujeto de sanción, el debate académico proyecta escenarios futuros. Alexander, Simon y Pinard (2026) proponen tres modelos posibles para sistemas avanzados:
- Objeto: mantener el statu quo, tratando a la IA como cosa.
- Personalidad ficticia: atribuir derechos y obligaciones derivados, a través de un representante humano, similar a las corporaciones.
- Personalidad no ficticia: reconocer a ciertos sistemas como sujetos de derecho con derechos fundamentales (vida, debido proceso, libertad) .
Chesterman (2026) advierte, sin embargo, que estos debates son aún especulativos y que, para sistemas existentes, los marcos actuales de responsabilidad son suficientes para cerrar las "brechas de responsabilidad", siempre que se mantenga la exigencia de supervisión humana .
5. Casos concretos de sanción indirecta en 2025-2026
La aplicación práctica de estos marcos ya está generando consecuencias económicas y reputacionales para los operadores de IA:
- Japan Life Insurance Company of America v. OpenAI (marzo 2026): una aseguradora demandó a OpenAI por 10,3 millones de dólares (incluyendo 10 millones en daños punitivos) alegando que ChatGPT ejerció ilegalmente la abogacía al asesorar a un beneficiario para romper un acuerdo de conciliación y presentar escritos judiciales con jurisprudencia inventada . El caso ilustra cómo la responsabilidad por "actuación" de la IA se traduce en una demanda contra el desarrollador.
- Acuerdo de Anthropic (2025): la empresa acordó pagar 1.500 millones de dólares para resolver una demanda colectiva por uso no autorizado de libros con derechos de autor en el entrenamiento de sus modelos . La sanción económica recayó sobre la compañía, no sobre el algoritmo.
- Amazon v. Perplexity (marzo 2026): un tribunal federal de California emitió una orden judicial preliminar contra Perplexity por el uso de agentes de IA que accedían a cuentas de Amazon sin autorización, ordenando la destrucción de los datos obtenidos. La sanción (prohibición y destrucción) se dirige a la empresa desarrolladora .
6. Conclusión
En el período 2025–2026, la respuesta a la pregunta "¿Puede una IA ser sancionada legalmente?" es negativa en sentido estricto, pero afirmativa en sentido indirecto: los sistemas de IA no son condenados penal ni civilmente, pero sus desarrolladores, proveedores, desplegadores y, en ciertos casos, proveedores de infraestructura, enfrentan sanciones administrativas (multas de hasta 35 millones de euros), penales (delitos graves en algunos estados de EE.UU.) y civiles (indemnizaciones, daños punitivos, retirada de productos) derivadas de los daños causados por algoritmos. La tendencia regulatoria y jurisprudencial apunta a tratar a la IA como un producto sujeto a responsabilidad objetiva, a presumir el defecto en condiciones de opacidad, y a extender la responsabilidad a lo largo de la cadena de valor. El debate sobre la eventual personalidad jurídica de sistemas futuros permanece abierto, pero para la IA existente en 2026, la sanción es siempre una sanción a los humanos que la diseñan, comercializan y supervisan.
Referencias
Alexander, H., Simon, J. A., & Pinard, F. (2026). How should the law treat future AI systems? Fictional legal personhood versus legal identity. PhilArchive. https://wapp.capitol.tn.gov/apps/BillInfo/Default?BillNumber=HB1455
State of Texas. (2026). Texas Responsible Artificial Intelligence Governance Act (TRAIGA), Tex. Civ. Stat. Ann. ch. 4.