REGULACIÓN DE LA INTELIGENCIA ARTIFICIAL Y RESPONSABILIDAD JURÍDICA

 

UNIVERSIDAD PRIVADA DE TACNA

FACULTAD DE DERECHO Y CIENCIAS POLÍTICAS


 

REGULACIÓN DE LA INTELIGENCIA ARTIFICIAL Y RESPONSABILIDAD JURÍDICA: Vacíos normativos en la atribución de responsabilidad por daños causados por sistemas autónomos

Línea de investigación: Criterios para determinar la imputabilidad en accidentes con vehículos autónomos o sistemas médicos basados en IA

 

INTEGRANTES:

Arianna Del Pilar Delgado Vilca

Abril Micaela Cotrado Mamani

Jimena Britney Lopez Benito

Yovana Velasquez Canaza

Jacqueline Shirley Rospigliosi Huapaya

ASIGNATURA:

Derecho Informático

DOCENTE:

Dr. Carlos Alberto Pajuelo Beltrán

Tacna – Perú

2025

RESUMEN

La presente monografía analiza los vacíos normativos que dificultan la atribución de responsabilidad por daños causados por sistemas autónomos basados en inteligencia artificial (IA), con especial atención a dos áreas críticas: vehículos autónomos y sistemas médicos con apoyo de IA. A partir de una metodología doctrinal, normativa y de comparación internacional (Unión Europea, Estados Unidos, organismos internacionales) se identifican problemas probatorios, lagunas en la regulación peruana y principios jurídicos útiles para construir criterios de imputabilidad. Se propone una regla híbrida —combinando responsabilidad objetiva en supuestos de riesgo anormal para fabricantes/proveedores y responsabilidad por culpa para operadores y profesionales—, junto con medidas probatorias (logs, auditorías) y principios regulatorios que respeten derechos constitucionales y faciliten la reparación. La monografía termina con una propuesta concreta de criterios aplicaciones al derecho civil, penal y constitucional peruano, y un análisis de casos (hipotético y análogo) que ilustra la aplicación práctica de los criterios propuestos. 

Palabras clave: inteligencia artificial, responsabilidad civil, imputabilidad, vehículos autónomos, IA médica, Perú.

  

ÍNDICE

INTRODUCCIÓN.. 1

2. MARCO TEÓRICO Y CONCEPTUAL.. 2

2.1 Inteligencia artificial y sistemas autónomos: definiciones y características. 2

2.2 Vehículos autónomos. 2

2.3 Sistemas médicos basados en IA.. 2

2.4 Imputabilidad en el derecho. 3

2.5 Responsabilidad jurídica: civil, penal y administrativa. 3

2.6 Modelos internacionales de regulación de la IA: UE, EE. UU. y organismos internacionales  4

3. DESARROLLO DE LA INVESTIGACIÓN.. 4

3.1 Regulación de la inteligencia artificial 4

3.1.1 Panorama internacional 4

3.1.2 Estado actual en Perú. 4

3.1.3 Problemáticas en materia civil, penal y administrativa respecto de la IA médica. 5

3.2 Regulación de los sistemas autónomos. 5

3.2.1 Panorama internacional 5

3.2.2 Estado actual en Perú. 5

3.2.3 Problemáticas en materia civil, penal y administrativa respecto de vehículos autónomos  6

3.3 Necesidad de un marco legal especializado. 6

3.3.1 Argumentos jurídicos y técnicos. 6

3.3.2 Principios para una regulación integral 6

4. CRITERIOS DE IMPUTABILIDAD EN CASOS DE DAÑOS POR IA.. 7

4.1 Experiencias internacionales (países con legislación más avanzada) 7

4.2 Propuesta de criterios aplicables en Perú. 7

4.2.1 Según el Código Civil (responsabilidad civil) 7

4.2.2 Según el Código Penal 8

4.2.3 Según la Constitución. 8

5. ESTUDIO DE CASOS EN EL CONTEXTO PERUANO.. 8

5.1 Caso hipotético: accidente de vehículo autónomo en Lima. 8

5.2 Caso real o análogo: uso de IA en el sector salud. 9

5.3 Análisis jurídico: atribución de responsabilidad. 10

5.4 Implicancias éticas, sociales y jurídicas para el Perú. 10

CONCLUSIONES. 10

BIBLIOGRAFÍA.. 11

INTRODUCCIÓN

El desarrollo acelerado de la inteligencia artificial (IA) y de los sistemas autónomos ha transformado sectores críticos como el transporte y la salud, replanteando la gestión del riesgo y la responsabilidad. A nivel internacional, han surgido marcos regulatorios como la AI Act de la Unión Europea (Regulation (EU) 2024/1689) y las recomendaciones de la OCDE (2019), que buscan equilibrar innovación con seguridad, transparencia y reparación. Sin embargo, los regímenes jurídicos tradicionales —como la imputabilidad, la negligencia o la responsabilidad por producto— fueron diseñados para actos humanos, no para agentes algorítmicos capaces de aprender y actuar de manera autónoma. Ello plantea dos desafíos principales: la prueba de la causalidad y la atribución de responsabilidad cuando el agente decisorio es un algoritmo.

En este contexto, la investigación busca responder a la pregunta: ¿qué criterios jurídicos permiten una imputación justa y eficaz de responsabilidad por daños causados por sistemas autónomos en el Perú? La ausencia de reglas claras genera inseguridad jurídica tanto para las víctimas como para los desarrolladores y puede frenar la innovación responsable. Esto resulta especialmente grave en ámbitos como la salud y el transporte, donde los daños afectan bienes jurídicos fundamentales como la vida y la integridad.

El objetivo general es diagnosticar los vacíos normativos en el marco peruano, contrastarlos con modelos internacionales y proponer criterios jurídicos aplicables en nuestro país, apoyados en estudios de caso que permitan ilustrar su relevancia práctica. Para ello se recurre a la revisión doctrinal y jurisprudencial, al análisis comparado de normas internacionales y nacionales —como la AI Act y la Ley N.º 31814—, así como a informes técnicos y literatura académica (Calo, 2015; Wachter, Mittelstadt & Floridi, 2017).

2. MARCO TEÓRICO Y CONCEPTUAL

2.1 Inteligencia artificial y sistemas autónomos: definiciones y características

La IA se describe, de forma operativa, como técnicas que permiten a sistemas informáticos realizar tareas que requieren capacidades cognitivas humanas (aprendizaje, razonamiento, percepción) (OECD, 2019). Un sistema autónomo es aquél que puede tomar decisiones y ejecutar acciones sin supervisión humana en tiempo real; su riesgo se valora según el impacto potencial en bienes jurídicos (vida, salud, patrimonio) y el grado de autonomía (Regulation (EU) 2024/1689).

2.2 Vehículos autónomos

Los vehículos autónomos se tipifican por niveles de autonomía (SAE 0-5). Aun en niveles elevados, los incidentes muestran que la mera presencia de un “operador” humano no garantiza supervisión eficaz; la experiencia del accidente de Tempe (2018) ilustra que el sistema “detectó” a la víctima con antelación pero no actuó correctamente, y que la supervisión humana falló (NTSB, 2019).

 “el sistema detectó por primera vez a la peatona 5.6 segundos antes del impacto”. (National Transportation Safety Board, 2019, p. 12).

Esta frase resume la tensión probatoria: el sistema registró detección, pero esa información no bastó para evitar el daño ni para atribuir responsabilidad de manera automática.

2.3 Sistemas médicos basados en IA

La IA en salud abarca desde ayudas al diagnóstico hasta recomendaciones terapéuticas. Casos documentados muestran fallos relevantes: investigaciones periodísticas y técnicas han señalado que sistemas comerciales (por ejemplo, Watson for Oncology) en ocasiones entregaron recomendaciones erróneas o no apropiadas para contextos locales (Ross & Swetlitz, 2018). En dichos escenarios confluyen responsabilidad del proveedor tecnológico, del establecimiento de salud y de los profesionales que usan las herramientas.

STAT reportó documentos internos que identificaron “múltiples ejemplos de recomendaciones de tratamiento inseguras e incorrectas” en Watson for Oncology (Ross & Swetlitz, 2018).

2.4 Imputabilidad en el derecho

En derecho penal, la imputabilidad exige atribuir una conducta típica y una actitud culpable (dolo o culpa) a un sujeto humano. La noción clásica no admite que la “máquina” sea sujeto de delito; por tanto, la imputación recae en personas físicas o jurídicas implicadas en diseño, puesta en servicio o uso (Calo, 2015). En derecho civil, existe una mayor plasticidad: la doctrina y la jurisprudencia han usado categorías como responsabilidad por producto defectuoso, teoría del riesgo creado, o responsabilidad por culpa para resolver daños causados por tecnologías complejas.

2.5 Responsabilidad jurídica: civil, penal y administrativa

Civil: posibilidades de aplicar responsabilidad objetiva (riesgo creado) o responsabilidad por culpa. El derecho comparado sugiere que para ciertos sistemas de alto riesgo resulta apropiado imponer responsabilidad objetiva a fabricantes o proveedores, combinado con mecanismos contractuales y de seguro. (OECD, 2019; Regulation (EU) 2024/1689).

Penal: la responsabilidad penal requiere conducta humana imputable. Sin embargo, la legislación puede sancionar a personas jurídicas o a responsables concretos (directores técnicos) cuando exista omisión grave de deberes de seguridad. (Calo, 2015).

 

Administrativa: regímenes sectoriales (salud, transporte) pueden imponer obligaciones de certificación, registro, auditoría y sanciones administrativas que faciliten la reparación y prevención.

2.6 Modelos internacionales de regulación de la IA: UE, EE. UU. y organismos internacionales

La UE ha adoptado un enfoque basado en riesgo, imponiendo exigencias especiales para sistemas de “alto riesgo” (Regulation (EU) 2024/1689). La OCDE estableció principios orientadores (2019) que combinan innovación y confianza. En EE. UU. predomina un enfoque sectorial y de agencias (NHTSA, NTSB en transporte), con una mezcla de lineamientos y acciones administrativas (OECD, 2019; NTSB, 2019).

3. DESARROLLO DE LA INVESTIGACIÓN

3.1 Regulación de la inteligencia artificial

3.1.1 Panorama internacional

La AI Act europea establece obligaciones de evaluación de riesgo, transparencia y vigilancia post-comercialización para sistemas de alto riesgo, lo que facilita tanto prevención como prueba y eventual sanción en caso de daño (European Parliament & Council, 2024). La OCDE propone principios (transparencia, explicabilidad, evaluación de riesgos) que sirven de guía para marcos nacionales (OECD, 2019).

3.1.2 Estado actual en Perú

Perú ha avanzado legislativamente con la Ley N.º 31814 (2023), que promueve el uso de IA para el desarrollo económico y social y plantea principios de privacidad, responsabilidad humana y rendición de cuentas (Congreso de la República del Perú, 2023). Recientemente el Reglamento de la ley estableció obligaciones de gobernanza y puso el énfasis en la autoridad rectora (PCM), así como en la necesidad de lineamientos sectoriales (Reglamento, 2025). No obstante, falta especificidad sobre responsabilidad por daños —por ejemplo, no existe aún un régimen claro de conservación obligatoria de logs o de responsabilidad objetiva aplicable a fabricantes en casos de riesgo anormal (Congreso de la República del Perú, 2023; proyecto de reglamento y fuentes secundarias, 2025).

3.1.3 Problemáticas en materia civil, penal y administrativa respecto de la IA médica

Entre las problemáticas más relevantes figuran: (i) falta de estándares de certificación previos al despliegue; (ii) dudas sobre si la recomendación errónea configura negligencia profesional o defecto de producto; (iii) problemas probatorios por opacidad algorítmica; y (iv) desigualdad de acceso a peritajes técnicos costosos por parte de las víctimas. Por eso la regulación debe combinar estándares técnicos, obligaciones de transparencia y mecanismos que faciliten peritajes independientes (WHO, 2024; Ross & Swetlitz, 2018).

3.2 Regulación de los sistemas autónomos

3.2.1 Panorama internacional

Los incidentes con vehículos autónomos han impulsado iniciativas regulatorias y recomendaciones de seguridad (NTSB, 2019). La práctica internacional incluye exigencias de pruebas controladas, certificación técnica, y reglas específicas sobre supervisión humana y responsabilidad de empresas. El AI Act incluye disposiciones aplicables a sistemas de transporte de alto riesgo, obligando a documentación técnica y registros operativos (European Parliament & Council, 2024).

3.2.2 Estado actual en Perú

 

En el Perú no existe un régimen integral para pruebas en vía pública ni estándares homogéneos para certificación de vehículos autónomos; la regulación es fragmentaria y depende de normas sectoriales o de iniciativas técnicas de institutos especializados (ITS Perú, artículos y análisis). Ello produce vacíos que dificultan la atribución de responsabilidad en caso de siniestros.

3.2.3 Problemáticas en materia civil, penal y administrativa respecto de vehículos autónomos

Los problemas clave son: (i) determinar si procede responsabilidad objetiva del fabricante por riesgo anormal; (ii) valorar la diligencia del operador humano cuando la supervisión falla; (iii) decidir estándares mínimos para autorizaciones de pruebas y despliegue; y (iv) distribuir la carga probatoria cuando los datos técnicos se encuentran bajo control de empresas privadas.

3.3 Necesidad de un marco legal especializado

3.3.1 Argumentos jurídicos y técnicos

Desde una perspectiva jurídica-política se sostienen tres motivos para un marco especializado: (a) protección de víctimas (reparación efectiva); (b) certeza regulatoria para innovadores; y (c) garantías democráticas (transparencia, control). Técnicamente, la heterogeneidad de modelos (black-box vs. white-box), la dependencia de datos y la dificultad de reproducibilidad aconsejan obligaciones de documentación, conservación de logs y auditoría independiente (OECD, 2019; WHO, 2024).

3.3.2 Principios para una regulación integral

Se proponen principios orientadores: proporcionalidad normativa basada en riesgo; deber de diligencia y «due process» técnico; transparencia y explicabilidad razonable; acceso a evidencia y auditorías; y protección de derechos fundamentales (privacidad, no discriminación). Estos principios derivan de la AI Act y las recomendaciones de organismos internacionales (European Parliament & Council, 2024; OECD, 2019; WHO, 2024).

4. CRITERIOS DE IMPUTABILIDAD EN CASOS DE DAÑOS POR IA

4.1 Experiencias internacionales (países con legislación más avanzada)

Unión Europea: regula por riesgo; exige documentación técnica, evaluación previa y vigilancia; facilita la atribución al imponer obligaciones a proveedores y usuarios de sistemas de alto riesgo (Regulation (EU) 2024/1689).

Estados Unidos: combina investigaciones de agencias (NTSB, NHTSA) con régimen de responsabilidad de producto y negligencia que se aplica caso por caso; la práctica pone énfasis en investigación técnica independiente (NTSB, 2019).

Organismos internacionales (OCDE, WHO): ofrecen principios y guías prácticas para armonizar políticas nacionales (OECD, 2019; WHO, 2024).

4.2 Propuesta de criterios aplicables en Perú

A continuación se proponen criterios concretos, adaptando principios internacionales al derecho peruano.

4.2.1 Según el Código Civil (responsabilidad civil)

Responsabilidad objetiva por riesgo creado (fabricante/proveedor): cuando el daño provenga de un riesgo anormal creado por el diseño, desarrollo o comercialización del sistema autónomo (defecto de diseño, falta de pruebas o ausencia de mitigaciones razonables), debería aplicarse responsabilidad objetiva o semiactiva a favor de la víctima. Este criterio protege la reparación y obliga a internalizar el costo del riesgo (Código Civil aplicable supletoriamente; doctrina comparada).

 

Responsabilidad por culpa (operador, profesional): cuando exista actuación u omisión humana (supervisión negligente, incumplimiento de protocolos), habrá lugar a responsabilidad por culpa. La valoración exigirá peritaje técnico que distinga entre fallo del producto y error humano.

Responsabilidad contractual: contratos de servicio o suministro (salud, transporte) deberán contener cláusulas de garantía y previsión de seguros, sin perjuicio de derechos de terceros.

4.2.2 Según el Código Penal

Imputación penal directa: solo cabe si puede acreditarse conducta humana dolosa o culposa atribuible a una persona física o, en su caso, a personas jurídicas conforme a reglas sobre responsabilidad penal empresarial. La mera falla algorítmica no constituye delito sin la antítesis de una conducta humana imputable (Calo, 2015).

Delitos por negligencia grave: si la conducta del responsable técnico o del directivo implicó omisión deliberada de estándares de seguridad, podrá considerarse culpable conforme al delito correspondiente del Código Penal.

4.2.3 Según la Constitución

Cualquier criterio debe respetar los derechos fundamentales (vida, integridad, debido proceso, protección de datos). El Estado tiene obligación de protección y, por ende, la regulación debe garantizar mecanismos eficaces de reparación y control estatal (Constitución Política del Perú, interpretación constitucional).

5. ESTUDIO DE CASOS EN EL CONTEXTO PERUANO

5.1 Caso hipotético: accidente de vehículo autónomo en Lima

Hechos: vehículo autónomo nivel 4 circula en Miraflores; en horario nocturno no detecta correctamente a un ciclista y lo atropella; el ciclista sufre lesiones graves. Los registros del vehículo muestran detección temprana, pero el módulo de frenado del ADS no ejecutó maniobra y el operador humano no tomó control.

Aplicación de criterios:

Responsabilidad civil: solicitar peritaje sobre (i) diseño (sensores, algoritmos); (ii) integración del sistema de frenado; (iii) manuales de operación y advertencias; y (iv) conducta del operador (supervisión). Si se demuestra que el diseño omitió mitigaciones razonables o que el módulo de frenado no fue certificado, procede responsabilidad objetiva del fabricante; si la supervisión humana fue inexcusable, procede responsabilidad por culpa concurrente.

Prueba y medidas procesales: exigencia normativa de conservación obligatoria de logs (black box), registro de software y políticas de actualización, para asegurar capacidad probatoria.

Sanciones administrativas: autoridad de transporte podría imponer multas y suspensiones de autorización si se incumplieron requisitos de prueba.

5.2 Caso real o análogo: uso de IA en el sector salud

Hechos análogos: un algoritmo de apoyo al diagnóstico (clasificación de imágenes) sugiere un tratamiento incorrecto que, siguiendo la decisión clínica, causa empeoramiento del paciente.

Aplicación de criterios:

Responsabilidad del establecimiento: si la implementación del sistema no incluyó validación clínica local ni protocolos de uso, el establecimiento puede responder por supervisión deficiente.

Responsabilidad del proveedor: si el sistema presenta defectos, falta de pruebas o entrenamiento con datos inadecuados, se configura responsabilidad por producto defectuoso.

 

Obligación de información: el paciente debe ser informado sobre el uso de IA como apoyo, salvando el deber de consentimiento y la obligación de supervisión profesional.

5.3 Análisis jurídico: atribución de responsabilidad

Ambos supuestos muestran la necesidad de un enfoque mixto: responsabilidad objetiva para garantizar reparación cuando el riesgo proviene del diseño o comercialización y responsabilidad por culpa cuando el actor humano incumple deberes de diligencia. Además, la regulación debe imponer medidas probatorias (logs, auditorías) y mecanismos de acceso a peritajes para las víctimas.

5.4 Implicancias éticas, sociales y jurídicas para el Perú

o   Ética: proteger la dignidad humana y el principio de precaución en aplicaciones críticas (salud, transporte).

o   Social: evitar desigualdades en acceso a justicia (costos de peritajes).

o   Jurídicas: necesidad de formación técnica de jueces y peritos, y de mecanismos administrativos de supervisión sectorial.

CONCLUSIONES

El análisis realizado muestra que, a pesar de ciertos avances normativos, en el Perú aún existen vacíos significativos en materia de responsabilidad por daños causados por sistemas autónomos. La falta de un marco detallado dificulta la reparación de las víctimas y genera incertidumbre tanto para operadores como para proveedores.

La experiencia internacional ofrece criterios valiosos que pueden servir de referencia, como la categorización de sistemas según el nivel de riesgo, la obligación de documentar y supervisar el funcionamiento de la tecnología y la exigencia de transparencia en su implementación. Estos elementos pueden ser adaptados al contexto peruano para fortalecer la seguridad jurídica y fomentar la innovación responsable.

En este sentido, resulta pertinente plantear un modelo que combine la responsabilidad objetiva de fabricantes y proveedores en casos de riesgo anormal con la responsabilidad por culpa de operadores y profesionales. Este esquema debe complementarse con mecanismos de prueba, como la conservación de registros y auditorías independientes, además de una supervisión administrativa adecuada.

Finalmente, es necesaria una reforma transversal que incluya modificaciones en el Código Civil, en las normas administrativas sectoriales —especialmente en salud y transporte— y en el ámbito penal. Solo a través de un sistema coherente será posible garantizar reparación a las víctimas, prevenir riesgos y promover un desarrollo tecnológico responsable.

BIBLIOGRAFÍA

Congreso de la República del Perú. (2023). Ley N.° 31814: Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país (5 de julio de 2023). Recuperado de https://leyes.congreso.gob.pe/Documentos/2021_2026/ADLP/Texto_Consolidado/31814-TXM.pdf

National Transportation Safety Board. (2019). Collision Between Vehicle Controlled by Developmental Automated Driving System and Pedestrian, Tempe, Arizona, March 18, 2018 (Highway Accident Report NTSB/HAR-19/03). Washington, DC: NTSB. https://www.ntsb.gov/investigations/accidentreports/reports/har1903.pdf

Regulation (EU) 2024/1689 of the European Parliament and of the Council (13 June 2024) laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union (12.7.2024). Recuperado de https://eur-lex.europa.eu/eli/reg/2024/1689/oj

Organisation for Economic Co-operation and Development (OECD). (2019). Recommendation of the Council on Artificial Intelligence. Paris: OECD. Recuperado de https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449

World Health Organization (WHO). (2024, 18 de enero). WHO releases AI ethics and governance guidance for large multi-modal models (nota de prensa). Recuperado de https://www.who.int/news/item/18-01-2024-who-releases-ai-ethics-and-governance-guidance-for-large-multi-modal-models

Ross, C., & Swetlitz, I. (2018, 25 de julio). IBM’s Watson supercomputer recommended ‘unsafe and incorrect’ cancer treatments, internal documents show. STAT. Recuperado de https://www.statnews.com/2018/07/25/ibm-watson-recommended-unsafe-incorrect-treatments/

Calo, R. (2015). Robotics and the lessons of cyberlaw. California Law Review, 103, 513–563. Recuperado de https://digitalcommons.law.uw.edu/faculty-articles/23/

Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation. International Data Privacy Law, 7(2), 76–99. https://doi.org/10.1093/idpl/ipx005

ITS Perú / publicaciones técnicas sobre vehículos autónomos (artículos y análisis). Recuperado de https://itsperu.org

Fuentes secundarias sobre reglamentación en Perú (reglamento de la Ley N.° 31814 y notas analíticas, 2025). Ejemplos: Cuatrecasas (2025), Infobae (2025), y boletines jurídicos que resumen el Decreto Supremo N.° 115-2025-PCM (publicación del reglamento en El Peruano, septiembre de 2025).

 

Comentarios

Entradas más populares de este blog