Legalmente, la responsabilidad recae en humanos o instituciones, no en el algoritmo, dependiendo del caso, puede ser:
El desarrollador (por diseño defectuoso).
La empresa que lo implementa (por mala supervisión).
El usuario profesional (si lo aplica incorrectamente).
La organización que lo comercializa.
Por ejemplo, en la Unión Europea, el marco regulatorio de la AI Act establece obligaciones claras según el nivel de riesgo del sistema. La responsabilidad no se traslada a la IA como “agente autónomo”, sino a los actores humanos involucrados.
El punto clave aunque un sistema pueda:
Tomar decisiones autónomas
Aprender de datos
Simular emociones
Conversar fluidamente
y los que no tiene:
Intencionalidad moral
Experiencia subjetiva
Comprensión consciente
Por eso, jurídicamente y éticamente hoy se mantiene el principio que la IA es un instrumento sofisticado cuya responsabilidad siempre recae en humano.