REGULACIÓN DE LA INTELIGENCIA ARTIFICIAL Y RESPONSABILIDAD JURÍDICA
FACULTAD DE DERECHO Y CIENCIAS
POLÍTICAS
REGULACIÓN DE LA INTELIGENCIA
ARTIFICIAL Y RESPONSABILIDAD JURÍDICA: Vacíos normativos en la atribución de
responsabilidad por daños causados por sistemas autónomos
Línea de investigación: Criterios
para determinar la imputabilidad en accidentes con vehículos autónomos o
sistemas médicos basados en IA
INTEGRANTES:
Arianna Del Pilar Delgado
Vilca
Abril Micaela Cotrado Mamani
Jimena Britney Lopez Benito
Yovana Velasquez Canaza
Jacqueline Shirley
Rospigliosi Huapaya
ASIGNATURA:
Derecho Informático
DOCENTE:
Dr. Carlos Alberto Pajuelo Beltrán
Tacna – Perú
2025
RESUMEN
La presente monografía analiza los vacíos normativos que dificultan la atribución de responsabilidad por daños causados por sistemas autónomos basados en inteligencia artificial (IA), con especial atención a dos áreas críticas: vehículos autónomos y sistemas médicos con apoyo de IA. A partir de una metodología doctrinal, normativa y de comparación internacional (Unión Europea, Estados Unidos, organismos internacionales) se identifican problemas probatorios, lagunas en la regulación peruana y principios jurídicos útiles para construir criterios de imputabilidad. Se propone una regla híbrida —combinando responsabilidad objetiva en supuestos de riesgo anormal para fabricantes/proveedores y responsabilidad por culpa para operadores y profesionales—, junto con medidas probatorias (logs, auditorías) y principios regulatorios que respeten derechos constitucionales y faciliten la reparación. La monografía termina con una propuesta concreta de criterios aplicaciones al derecho civil, penal y constitucional peruano, y un análisis de casos (hipotético y análogo) que ilustra la aplicación práctica de los criterios propuestos.
Palabras
clave: inteligencia
artificial, responsabilidad civil, imputabilidad, vehículos autónomos, IA
médica, Perú.
ÍNDICE
2.1 Inteligencia
artificial y sistemas autónomos: definiciones y características
2.3 Sistemas médicos
basados en IA
2.4 Imputabilidad en el
derecho
2.5 Responsabilidad
jurídica: civil, penal y administrativa
2.6 Modelos
internacionales de regulación de la IA: UE, EE. UU. y organismos
internacionales
3. DESARROLLO DE LA
INVESTIGACIÓN
3.1 Regulación de la
inteligencia artificial
3.1.3 Problemáticas en
materia civil, penal y administrativa respecto de la IA médica
3.2 Regulación de los
sistemas autónomos
3.2.3 Problemáticas en
materia civil, penal y administrativa respecto de vehículos autónomos
3.3 Necesidad de un marco
legal especializado
3.3.1 Argumentos
jurídicos y técnicos
3.3.2 Principios para una
regulación integral
4. CRITERIOS DE
IMPUTABILIDAD EN CASOS DE DAÑOS POR IA
4.1 Experiencias
internacionales (países con legislación más avanzada)
4.2 Propuesta de
criterios aplicables en Perú
4.2.1 Según el Código
Civil (responsabilidad civil)
5. ESTUDIO DE CASOS EN EL
CONTEXTO PERUANO
5.1 Caso hipotético:
accidente de vehículo autónomo en Lima
5.2 Caso real o análogo:
uso de IA en el sector salud
5.3 Análisis jurídico:
atribución de responsabilidad
5.4 Implicancias éticas,
sociales y jurídicas para el Perú
INTRODUCCIÓN
El desarrollo acelerado de la inteligencia artificial (IA) y de los
sistemas autónomos ha transformado sectores críticos como el transporte y la
salud, replanteando la gestión del riesgo y la responsabilidad. A nivel
internacional, han surgido marcos regulatorios como la AI Act de la Unión
Europea (Regulation (EU) 2024/1689) y las recomendaciones de la OCDE (2019),
que buscan equilibrar innovación con seguridad, transparencia y reparación. Sin
embargo, los regímenes jurídicos tradicionales —como la imputabilidad, la
negligencia o la responsabilidad por producto— fueron diseñados para actos
humanos, no para agentes algorítmicos capaces de aprender y actuar de manera
autónoma. Ello plantea dos desafíos principales: la prueba de la causalidad y
la atribución de responsabilidad cuando el agente decisorio es un algoritmo.
En este contexto,
la investigación busca responder a la pregunta: ¿qué criterios jurídicos
permiten una imputación justa y eficaz de responsabilidad por daños causados
por sistemas autónomos en el Perú? La ausencia de reglas claras genera
inseguridad jurídica tanto para las víctimas como para los desarrolladores y
puede frenar la innovación responsable. Esto resulta especialmente grave en
ámbitos como la salud y el transporte, donde los daños afectan bienes jurídicos
fundamentales como la vida y la integridad.
El objetivo
general es diagnosticar los vacíos normativos en el marco peruano,
contrastarlos con modelos internacionales y proponer criterios jurídicos
aplicables en nuestro país, apoyados en estudios de caso que permitan ilustrar
su relevancia práctica. Para ello se recurre a la revisión doctrinal y
jurisprudencial, al análisis comparado de normas internacionales y nacionales
—como la AI Act y la Ley N.º 31814—, así como a informes técnicos y literatura
académica (Calo, 2015; Wachter, Mittelstadt & Floridi, 2017).
2. MARCO TEÓRICO Y CONCEPTUAL
2.1 Inteligencia
artificial y sistemas autónomos: definiciones y características
La IA se describe, de forma operativa, como técnicas que permiten a
sistemas informáticos realizar tareas que requieren capacidades cognitivas
humanas (aprendizaje, razonamiento, percepción) (OECD, 2019). Un sistema
autónomo es aquél que puede tomar decisiones y ejecutar acciones sin
supervisión humana en tiempo real; su riesgo se valora según el impacto
potencial en bienes jurídicos (vida, salud, patrimonio) y el grado de autonomía
(Regulation (EU) 2024/1689).
2.2 Vehículos
autónomos
Los vehículos autónomos se tipifican por niveles de autonomía (SAE 0-5).
Aun en niveles elevados, los incidentes muestran que la mera presencia de un
“operador” humano no garantiza supervisión eficaz; la experiencia del accidente
de Tempe (2018) ilustra que el sistema “detectó” a la víctima con antelación
pero no actuó correctamente, y que la supervisión humana falló (NTSB, 2019).
“el sistema detectó por primera vez a la
peatona 5.6 segundos antes del impacto”. (National Transportation Safety Board,
2019, p. 12).
Esta frase resume la tensión probatoria: el sistema registró detección,
pero esa información no bastó para evitar el daño ni para atribuir
responsabilidad de manera automática.
2.3 Sistemas médicos
basados en IA
La IA en salud abarca desde ayudas al diagnóstico hasta recomendaciones
terapéuticas. Casos documentados muestran fallos relevantes: investigaciones
periodísticas y técnicas han señalado que sistemas comerciales (por ejemplo,
Watson for Oncology) en ocasiones entregaron recomendaciones erróneas o no
apropiadas para contextos locales (Ross & Swetlitz, 2018). En dichos
escenarios confluyen responsabilidad del proveedor tecnológico, del
establecimiento de salud y de los profesionales que usan las herramientas.
STAT reportó
documentos internos que identificaron “múltiples ejemplos de recomendaciones de
tratamiento inseguras e incorrectas” en Watson for Oncology (Ross &
Swetlitz, 2018).
2.4 Imputabilidad en
el derecho
En derecho penal,
la imputabilidad exige atribuir una conducta típica y una actitud culpable
(dolo o culpa) a un sujeto humano. La noción clásica no admite que la “máquina”
sea sujeto de delito; por tanto, la imputación recae en personas físicas o
jurídicas implicadas en diseño, puesta en servicio o uso (Calo, 2015). En
derecho civil, existe una mayor plasticidad: la doctrina y la jurisprudencia
han usado categorías como responsabilidad por producto defectuoso, teoría del
riesgo creado, o responsabilidad por culpa para resolver daños causados por
tecnologías complejas.
2.5 Responsabilidad
jurídica: civil, penal y administrativa
Civil: posibilidades de aplicar responsabilidad objetiva (riesgo creado) o
responsabilidad por culpa. El derecho comparado sugiere que para ciertos
sistemas de alto riesgo resulta apropiado imponer responsabilidad objetiva a
fabricantes o proveedores, combinado con mecanismos contractuales y de seguro.
(OECD, 2019; Regulation (EU) 2024/1689).
Penal: la
responsabilidad penal requiere conducta humana imputable. Sin embargo, la
legislación puede sancionar a personas jurídicas o a responsables concretos
(directores técnicos) cuando exista omisión grave de deberes de seguridad.
(Calo, 2015).
Administrativa:
regímenes sectoriales (salud, transporte) pueden imponer obligaciones de
certificación, registro, auditoría y sanciones administrativas que faciliten la
reparación y prevención.
2.6 Modelos
internacionales de regulación de la IA: UE, EE. UU. y organismos
internacionales
La UE ha adoptado
un enfoque basado en riesgo, imponiendo exigencias especiales para sistemas de
“alto riesgo” (Regulation (EU) 2024/1689). La OCDE estableció principios
orientadores (2019) que combinan innovación y confianza. En EE. UU. predomina
un enfoque sectorial y de agencias (NHTSA, NTSB en transporte), con una mezcla
de lineamientos y acciones administrativas (OECD, 2019; NTSB, 2019).
3. DESARROLLO DE LA
INVESTIGACIÓN
3.1 Regulación de la
inteligencia artificial
3.1.1 Panorama
internacional
La AI Act europea
establece obligaciones de evaluación de riesgo, transparencia y vigilancia
post-comercialización para sistemas de alto riesgo, lo que facilita tanto
prevención como prueba y eventual sanción en caso de daño (European Parliament
& Council, 2024). La OCDE propone principios (transparencia,
explicabilidad, evaluación de riesgos) que sirven de guía para marcos
nacionales (OECD, 2019).
3.1.2 Estado actual en
Perú
Perú ha avanzado
legislativamente con la Ley N.º 31814 (2023), que promueve el uso de IA para el
desarrollo económico y social y plantea principios de privacidad,
responsabilidad humana y rendición de cuentas (Congreso de la República del
Perú, 2023). Recientemente el Reglamento de la ley estableció obligaciones de
gobernanza y puso el énfasis en la autoridad rectora (PCM), así como en la
necesidad de lineamientos sectoriales (Reglamento, 2025). No obstante, falta
especificidad sobre responsabilidad por daños —por ejemplo, no existe aún un
régimen claro de conservación obligatoria de logs o de responsabilidad objetiva
aplicable a fabricantes en casos de riesgo anormal (Congreso de la República
del Perú, 2023; proyecto de reglamento y fuentes secundarias, 2025).
3.1.3 Problemáticas en
materia civil, penal y administrativa respecto de la IA médica
Entre las problemáticas más relevantes figuran: (i) falta de estándares de
certificación previos al despliegue; (ii) dudas sobre si la recomendación
errónea configura negligencia profesional o defecto de producto; (iii)
problemas probatorios por opacidad algorítmica; y (iv) desigualdad de acceso a
peritajes técnicos costosos por parte de las víctimas. Por eso la regulación
debe combinar estándares técnicos, obligaciones de transparencia y mecanismos
que faciliten peritajes independientes (WHO, 2024; Ross & Swetlitz, 2018).
3.2 Regulación de los
sistemas autónomos
3.2.1 Panorama
internacional
Los incidentes
con vehículos autónomos han impulsado iniciativas regulatorias y
recomendaciones de seguridad (NTSB, 2019). La práctica internacional incluye
exigencias de pruebas controladas, certificación técnica, y reglas específicas
sobre supervisión humana y responsabilidad de empresas. El AI Act incluye
disposiciones aplicables a sistemas de transporte de alto riesgo, obligando a
documentación técnica y registros operativos (European Parliament &
Council, 2024).
3.2.2 Estado actual en
Perú
En el Perú no
existe un régimen integral para pruebas en vía pública ni estándares homogéneos
para certificación de vehículos autónomos; la regulación es fragmentaria y
depende de normas sectoriales o de iniciativas técnicas de institutos
especializados (ITS Perú, artículos y análisis). Ello produce vacíos que
dificultan la atribución de responsabilidad en caso de siniestros.
3.2.3 Problemáticas en
materia civil, penal y administrativa respecto de vehículos autónomos
Los problemas clave son: (i) determinar si procede responsabilidad objetiva
del fabricante por riesgo anormal; (ii) valorar la diligencia del operador
humano cuando la supervisión falla; (iii) decidir estándares mínimos para
autorizaciones de pruebas y despliegue; y (iv) distribuir la carga probatoria
cuando los datos técnicos se encuentran bajo control de empresas privadas.
3.3 Necesidad de un
marco legal especializado
3.3.1 Argumentos
jurídicos y técnicos
Desde una perspectiva jurídica-política se sostienen tres motivos para un
marco especializado: (a) protección de víctimas (reparación efectiva); (b)
certeza regulatoria para innovadores; y (c) garantías democráticas
(transparencia, control). Técnicamente, la heterogeneidad de modelos (black-box
vs. white-box), la dependencia de datos y la dificultad de reproducibilidad
aconsejan obligaciones de documentación, conservación de logs y auditoría
independiente (OECD, 2019; WHO, 2024).
3.3.2 Principios para
una regulación integral
Se proponen principios orientadores: proporcionalidad normativa basada en
riesgo; deber de diligencia y «due process» técnico; transparencia y
explicabilidad razonable; acceso a evidencia y auditorías; y protección de
derechos fundamentales (privacidad, no discriminación). Estos principios
derivan de la AI Act y las recomendaciones de organismos internacionales
(European Parliament & Council, 2024; OECD, 2019; WHO, 2024).
4. CRITERIOS DE
IMPUTABILIDAD EN CASOS DE DAÑOS POR IA
4.1 Experiencias
internacionales (países con legislación más avanzada)
Unión Europea: regula por riesgo; exige documentación técnica, evaluación
previa y vigilancia; facilita la atribución al imponer obligaciones a
proveedores y usuarios de sistemas de alto riesgo (Regulation (EU) 2024/1689).
Estados Unidos:
combina investigaciones de agencias (NTSB, NHTSA) con régimen de
responsabilidad de producto y negligencia que se aplica caso por caso; la
práctica pone énfasis en investigación técnica independiente (NTSB, 2019).
Organismos
internacionales (OCDE, WHO): ofrecen principios y guías prácticas para
armonizar políticas nacionales (OECD, 2019; WHO, 2024).
4.2 Propuesta de
criterios aplicables en Perú
A continuación se
proponen criterios concretos, adaptando principios internacionales al derecho
peruano.
4.2.1 Según el Código
Civil (responsabilidad civil)
Responsabilidad
objetiva por riesgo creado (fabricante/proveedor): cuando el daño provenga de
un riesgo anormal creado por el diseño, desarrollo o comercialización del
sistema autónomo (defecto de diseño, falta de pruebas o ausencia de
mitigaciones razonables), debería aplicarse responsabilidad objetiva o
semiactiva a favor de la víctima. Este criterio protege la reparación y obliga
a internalizar el costo del riesgo (Código Civil aplicable supletoriamente;
doctrina comparada).
Responsabilidad
por culpa (operador, profesional): cuando exista actuación u omisión humana
(supervisión negligente, incumplimiento de protocolos), habrá lugar a
responsabilidad por culpa. La valoración exigirá peritaje técnico que distinga
entre fallo del producto y error humano.
Responsabilidad
contractual: contratos de servicio o suministro (salud, transporte) deberán
contener cláusulas de garantía y previsión de seguros, sin perjuicio de
derechos de terceros.
4.2.2 Según el Código
Penal
Imputación penal
directa: solo cabe si puede acreditarse conducta humana dolosa o culposa
atribuible a una persona física o, en su caso, a personas jurídicas conforme a
reglas sobre responsabilidad penal empresarial. La mera falla algorítmica no
constituye delito sin la antítesis de una conducta humana imputable (Calo,
2015).
Delitos por
negligencia grave: si la conducta del responsable técnico o del directivo
implicó omisión deliberada de estándares de seguridad, podrá considerarse
culpable conforme al delito correspondiente del Código Penal.
4.2.3 Según la
Constitución
Cualquier
criterio debe respetar los derechos fundamentales (vida, integridad, debido
proceso, protección de datos). El Estado tiene obligación de protección y, por
ende, la regulación debe garantizar mecanismos eficaces de reparación y control
estatal (Constitución Política del Perú, interpretación constitucional).
5. ESTUDIO DE CASOS EN
EL CONTEXTO PERUANO
5.1 Caso hipotético:
accidente de vehículo autónomo en Lima
Hechos: vehículo
autónomo nivel 4 circula en Miraflores; en horario nocturno no detecta
correctamente a un ciclista y lo atropella; el ciclista sufre lesiones graves.
Los registros del vehículo muestran detección temprana, pero el módulo de
frenado del ADS no ejecutó maniobra y el operador humano no tomó control.
Aplicación de
criterios:
Responsabilidad
civil: solicitar peritaje sobre (i) diseño (sensores, algoritmos); (ii)
integración del sistema de frenado; (iii) manuales de operación y advertencias;
y (iv) conducta del operador (supervisión). Si se demuestra que el diseño
omitió mitigaciones razonables o que el módulo de frenado no fue certificado,
procede responsabilidad objetiva del fabricante; si la supervisión humana fue
inexcusable, procede responsabilidad por culpa concurrente.
Prueba y medidas
procesales: exigencia normativa de conservación obligatoria de logs (black
box), registro de software y políticas de actualización, para asegurar
capacidad probatoria.
Sanciones
administrativas: autoridad de transporte podría imponer multas y suspensiones
de autorización si se incumplieron requisitos de prueba.
5.2 Caso real o
análogo: uso de IA en el sector salud
Hechos análogos:
un algoritmo de apoyo al diagnóstico (clasificación de imágenes) sugiere un
tratamiento incorrecto que, siguiendo la decisión clínica, causa empeoramiento
del paciente.
Aplicación de
criterios:
Responsabilidad
del establecimiento: si la implementación del sistema no incluyó validación
clínica local ni protocolos de uso, el establecimiento puede responder por
supervisión deficiente.
Responsabilidad
del proveedor: si el sistema presenta defectos, falta de pruebas o
entrenamiento con datos inadecuados, se configura responsabilidad por producto
defectuoso.
Obligación de
información: el paciente debe ser informado sobre el uso de IA como apoyo,
salvando el deber de consentimiento y la obligación de supervisión profesional.
5.3 Análisis jurídico:
atribución de responsabilidad
Ambos supuestos
muestran la necesidad de un enfoque mixto: responsabilidad objetiva para
garantizar reparación cuando el riesgo proviene del diseño o comercialización y
responsabilidad por culpa cuando el actor humano incumple deberes de
diligencia. Además, la regulación debe imponer medidas probatorias (logs,
auditorías) y mecanismos de acceso a peritajes para las víctimas.
5.4 Implicancias
éticas, sociales y jurídicas para el Perú
o
Ética: proteger
la dignidad humana y el principio de precaución en aplicaciones críticas
(salud, transporte).
o
Social: evitar
desigualdades en acceso a justicia (costos de peritajes).
o
Jurídicas:
necesidad de formación técnica de jueces y peritos, y de mecanismos
administrativos de supervisión sectorial.
CONCLUSIONES
El análisis realizado muestra que, a pesar de ciertos avances normativos,
en el Perú aún existen vacíos significativos en materia de responsabilidad por
daños causados por sistemas autónomos. La falta de un marco detallado dificulta
la reparación de las víctimas y genera incertidumbre tanto para operadores como
para proveedores.
La experiencia
internacional ofrece criterios valiosos que pueden servir de referencia, como
la categorización de sistemas según el nivel de riesgo, la obligación de
documentar y supervisar el funcionamiento de la tecnología y la exigencia de
transparencia en su implementación. Estos elementos pueden ser adaptados al
contexto peruano para fortalecer la seguridad jurídica y fomentar la innovación
responsable.
En este sentido,
resulta pertinente plantear un modelo que combine la responsabilidad objetiva
de fabricantes y proveedores en casos de riesgo anormal con la responsabilidad
por culpa de operadores y profesionales. Este esquema debe complementarse con
mecanismos de prueba, como la conservación de registros y auditorías
independientes, además de una supervisión administrativa adecuada.
Finalmente, es
necesaria una reforma transversal que incluya modificaciones en el Código
Civil, en las normas administrativas sectoriales —especialmente en salud y
transporte— y en el ámbito penal. Solo a través de un sistema coherente será
posible garantizar reparación a las víctimas, prevenir riesgos y promover un
desarrollo tecnológico responsable.
BIBLIOGRAFÍA
Congreso
de la República del Perú. (2023). Ley N.° 31814: Ley que promueve el uso de la
inteligencia artificial en favor del desarrollo económico y social del país (5
de julio de 2023). Recuperado de https://leyes.congreso.gob.pe/Documentos/2021_2026/ADLP/Texto_Consolidado/31814-TXM.pdf
National
Transportation Safety Board. (2019). Collision Between Vehicle Controlled by
Developmental Automated Driving System and Pedestrian, Tempe, Arizona, March
18, 2018 (Highway Accident Report NTSB/HAR-19/03). Washington, DC: NTSB. https://www.ntsb.gov/investigations/accidentreports/reports/har1903.pdf
Regulation
(EU) 2024/1689 of the European Parliament and of the Council (13 June 2024)
laying down harmonised rules on artificial intelligence (Artificial
Intelligence Act). Official Journal of the European Union (12.7.2024).
Recuperado de https://eur-lex.europa.eu/eli/reg/2024/1689/oj
Organisation
for Economic Co-operation and Development (OECD). (2019). Recommendation of
the Council on Artificial Intelligence. Paris: OECD. Recuperado de https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449
World
Health Organization (WHO). (2024, 18 de enero). WHO releases AI ethics and
governance guidance for large multi-modal models (nota de prensa). Recuperado
de https://www.who.int/news/item/18-01-2024-who-releases-ai-ethics-and-governance-guidance-for-large-multi-modal-models
Ross,
C., & Swetlitz, I. (2018, 25 de julio). IBM’s Watson supercomputer
recommended ‘unsafe and incorrect’ cancer treatments, internal documents show.
STAT. Recuperado de https://www.statnews.com/2018/07/25/ibm-watson-recommended-unsafe-incorrect-treatments/
Calo,
R. (2015). Robotics and the lessons of cyberlaw. California Law Review, 103,
513–563. Recuperado de https://digitalcommons.law.uw.edu/faculty-articles/23/
Wachter,
S., Mittelstadt, B., & Floridi, L. (2017). Why a right to explanation of
automated decision-making does not exist in the General Data Protection
Regulation. International Data Privacy Law, 7(2), 76–99. https://doi.org/10.1093/idpl/ipx005
ITS
Perú / publicaciones técnicas sobre vehículos autónomos (artículos y
análisis). Recuperado de https://itsperu.org
Fuentes
secundarias sobre reglamentación en Perú (reglamento de la Ley N.° 31814 y
notas analíticas, 2025). Ejemplos: Cuatrecasas (2025), Infobae (2025), y
boletines jurídicos que resumen el Decreto Supremo N.° 115-2025-PCM
(publicación del reglamento en El Peruano, septiembre de 2025).
Comentarios
Publicar un comentario