¡Bienvenido!

Comparta y comente sobre el mejor contenido y las mejores ideas de marketing. Construya su perfil profesional y conviértase en un mejor mercadólogo.

Registrarse

This question has been flagged
1 Reply
6 Views

Porque el derecho tradicional asume que solo los seres humanos (o sus organizaciones) tienen voluntad propia para causar daños.

Avatar
Discard
Best Answer

El derecho tradicional ha estructurado históricamente la responsabilidad civil y penal sobre un pilar antropocéntrico: la voluntad como atributo exclusivo de la persona humana (o de entes colectivos que derivan su personalidad de aquella). Esta construcción no es arbitraria, sino que responde a una evolución filosófica, teológica y práctica que ahora enfrenta tensiones profundas ante la irrupción de sistemas de inteligencia artificial autónomos. A continuación, se analizan las razones de este supuesto, sus excepciones históricas y los desafíos contemporáneos que imponen repensar el dogma.

1. Fundamentos filosóficos del nexo voluntad-responsabilidad

La tradición jurídica occidental bebe del derecho romano (damnum iniuria datum) y, más influyente aún, de la escolástica y la ilustración. Immanuel Kant (1797) estableció en la Metafísica de las costumbres que la responsabilidad moral y legal presupone un sujeto capaz de autonomía: un agente que pueda conocer la norma y decidir libremente actuar en contra de ella. Sin capacidad de elección racional, no hay imputabilidad.

Este supuesto se trasladó al derecho civil a través de la teoría del acto ilícito: para que nazca la obligación de reparar, se requiere una conducta voluntaria (dolo o culpa). El artículo 1382 del Código Civil francés (y sus equivalentes en la tradición romano-germánica) consagró que “todo hecho cualquiera del hombre que cause daño a otro obliga a aquel por cuya culpa sucedió a repararlo”. La voluntad —o su ausencia negligente— es la llave que abre la responsabilidad.

En el derecho penal, el principio nullum crimen, nulla poena sine culpa refuerza que solo quien actúa con dolo o imprudencia puede ser sancionado. La imputabilidad requiere capacidad de comprender la ilicitud y de autodeterminarse conforme a esa comprensión (artículo 20 del Código Penal español, por ejemplo). Personas jurídicas, animales o cosas carecen de esta capacidad, y por tanto no son sujetos de responsabilidad penal en la teoría clásica (aunque se han creado excepciones para las personas jurídicas por vía de responsabilidad vicaria o administrativa).

2. La “voluntad” como construcción técnica, no solo ontológica

Es importante destacar que el derecho no asume que solo los humanos posean efectivamente voluntad en sentido psicológico; lo que construye es una presunción normativa. Los menores de edad o personas con discapacidad intelectual pueden carecer de voluntad plena, pero el derecho les atribuye responsabilidades diferenciadas, no por voluntad real sino por imputación social (representación, capacidad progresiva). Asimismo, las personas jurídicas (corporaciones) no tienen conciencia, pero el derecho les atribuye “voluntad colectiva” como ficción para hacerlas responsables. Esta ficción descansa en la idea de que existe un órgano humano (directorio, asamblea) que expresa la voluntad de la entidad.

En consecuencia, la afirmación “el derecho tradicional asume que solo los seres humanos (o sus organizaciones) tienen voluntad propia para causar daños” es matizable: el derecho atribuye capacidad de obrar a entes no humanos por construcción técnica, pero siempre anclada en la existencia de un sustrato humano que decide y controla. Cuando un algoritmo autónomo causa un daño sin que exista una decisión humana específica que pueda calificarse de culposa o dolosa, la construcción tradicional entra en crisis.

3. Excepciones históricas: responsabilidad objetiva y por el hecho de las cosas

El derecho no ha sido completamente ajeno a la idea de que daños pueden originarse sin voluntad culpable. La responsabilidad objetiva (sin culpa) existe desde hace siglos: por ejemplo, el responsabilidad por el hecho de las cosas en el artículo 1242 del Código Civil francés (“se es responsable no solo del daño que se causa por su propio hecho, sino también del que se causa por el hecho de las personas de quienes se debe responder, o de las cosas que se tienen bajo su cuidado”). La teoría del riesgo del siglo XX, desarrollada por Josserand y Saleilles, introdujo la noción de que quien se beneficia de una actividad riesgosa debe responder por los daños que esta genere, independientemente de su culpa.

Sin embargo, incluso en estos supuestos, la responsabilidad se imputa a un sujeto humano (físico o jurídico) que tiene el dominio o la guarda de la cosa. La cosa en sí misma (un animal, una máquina, un algoritmo) no es responsable. El derecho tradicional resuelve la aparición de nuevas tecnologías mediante la extensión analógica de estas figuras: un vehículo autónomo sería una “cosa” bajo la guarda de un propietario o fabricante, aplicándose responsabilidad objetiva por productos defectuosos (Directiva 85/374/CEE) o por el hecho de las cosas.

4. El desafío de los sistemas autónomos: ¿agotamiento del modelo?

La novedad de la IA radica en que el sistema toma decisiones no determinísticas que no pueden reducirse a una instrucción humana previa ni a un defecto de diseño identificable. En estos casos, la ficción de la “guarda de la cosa” se tensa porque no existe una persona que haya tenido el control efectivo en el momento del daño. Autores como Pagallo (2013) y Matthias (2004) hablan de una “brecha de responsabilidad” (responsibility gap): si ni el desarrollador, ni el usuario, ni el fabricante actuaron con culpa, y el sistema no es sujeto de derecho, el daño quedaría sin reparación.

Frente a esto, el derecho está evolucionando hacia modelos que desacoplan la responsabilidad de la voluntad individual culpable. El Reglamento de IA de la UE (2024) no atribuye personalidad a los algoritmos, pero impone obligaciones estrictas a proveedores y usuarios, combinando responsabilidad por producto defectuoso, deberes de supervisión humana y regímenes de responsabilidad objetiva para sistemas de alto riesgo. La propuesta de AI Liability Directive (2022) introduce presunciones de causalidad y facilita la inversión de la carga de la prueba, de modo que la ausencia de voluntad no impida la indemnización.

5. Perspectiva comparada y evolución doctrinal

En Estados Unidos, la Restatement (Third) of Torts ha avanzado hacia una responsabilidad basada en el riesgo más que en la culpa para productos complejos. En el ámbito penal, aunque ningún sistema penal ha atribuido responsabilidad directa a una IA, académicos como Hildebrandt (2015) discuten la posibilidad de “responsabilidad penal distribuida” o de reconocer a ciertos sistemas un estatus intermedio que permita su aseguramiento obligatorio.

Un punto crucial es que atribuir “voluntad” a una IA sería una ficción peligrosa si no se acompaña de capacidad de sufrir sanciones, de ser disuasivo y de cumplir funciones retributivas. Por ello, la tendencia dominante no es otorgar personalidad, sino construir un régimen de responsabilidad compleja que combine:

  • Responsabilidad por producto defectuoso (diseño, información, fabricación).
  • Responsabilidad del operador por incumplimiento del deber de supervisión.
  • Seguros obligatorios con cobertura para daños causados por IA.
  • Fondos de compensación para supuestos de opacidad no atribuible a culpa específica.

6. Conclusión: hacia un pluralismo de fuentes de imputación

La premisa del derecho tradicional no es una verdad ontológica sobre quién “tiene voluntad”, sino una decisión normativa funcional: para que el sistema de responsabilidad cumpla sus fines (reparación, disuasión, justicia correctiva), se necesita un sujeto susceptible de ser demandado y sancionado, que además tenga capacidad patrimonial y capacidad de modificar su conducta. Durante siglos, ese sujeto fue exclusivamente el humano o sus organizaciones controladas por humanos.

La irrupción de sistemas autónomos no ha llevado a abandonar este modelo, sino a expandir sus mecanismos (responsabilidad objetiva, seguros, presunciones) y a reforzar los deberes de los actores humanos a lo largo de la cadena de valor. El derecho sigue asumiendo, por razones pragmáticas y de coherencia con sus principios fundacionales, que la voluntad no se encuentra en el algoritmo sino en quienes lo diseñan, comercializan y despliegan con obligaciones de supervisión. La alternativa —reconocer voluntad artificial— abriría interrogantes sobre su capacidad de ser disuadida o de cumplir funciones punitivas, y es rechazada por la mayoría de los marcos regulatorios actuales.

Referencias

Hildebrandt, M. (2015). Smart technologies and the end(s) of law: Novel entanglements of law and technology. Edward Elgar Publishing.

Kant, I. (1797). Metaphysik der Sitten (Metafísica de las costumbres). (M. Gregor, Trad.). Cambridge University Press, 1996.

Matthias, A. (2004). The responsibility gap: Ascribing responsibility for the actions of learning automata. Ethics and Information Technology, *6*(3), 175–183. https://doi.org/10.1007/s10676-004-3422-1

Pagallo, U. (2013). The laws of robots: Crimes, contracts, and torts. Springer.

European Commission. (2022). Proposal for a Directive of the European Parliament and of the Council on adapting non-contractual civil liability rules to artificial intelligence (AI Liability Directive). COM(2022) 496 final.

European Commission. (2024). *Regulation (EU) 2024/… of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act)*. Official Journal of the European Union.

Restatement (Third) of Torts: Products Liability. (1998). American Law Institute.

Avatar
Discard