Invitation only —Learn more

Registro

volver

Artículos académicos

Responsabilidad Penal y Extrapenal de las Personas Jurídicas por Delitos Relacionados con la Inteligencia Artificial: Vías de Intervención Legal y Principales Obstáculos

Comentar

I. Introducción

Algoritmos de alta complejidad, vehículos sin conductor, robots “humanoides”, sistemas de armas autónomos y letales, y mucho más, ya no son sólo material para guionistas y autores de libros de ciencia ficción. Sin duda alguna, hemos entrado en la era de la inteligencia artificial (en adelante también denominada “IA”), que probablemente se convertirá en la tecnología más importante del siglo XXI, gracias a los extraordinarios avances impulsados por el aumento exponencial de los datos digitales y las capacidades computacionales1. El carácter histórico de tales logros técnicos-científicos explica que observadores atentos vislumbren una cuarta revolución industrial2 y, en perspectiva, “el mayor acontecimiento de la historia de nuestra civilización”3. Sus posibles repercusiones afectarán – y, en cierta medida, ya han afectado – a todos los ámbitos de la vida social, tanto en contextos de paz como de guerra, de trabajo o de ocio: medicina, industria, finanzas, tráfico rodado, asistencia, recaudación de impuestos, entretenimiento, funcionalidad de los hogares (la llamada domótica), conflictos armados, etc.4.

1.

Véase, en la doctrina penal, por ejemplo, F. Basile, Intelligenza artificiale e…

2.

Schwab, La cuarta revolución industrial, Barcelona, 2016, passim.

3.

Según la opinión del gran físico, cosmólogo y matemático Stephen Hawking, fallecido…

4.

Sobre algunas de estas aplicaciones y sus repercusiones jurídicas, véanse las contribuciones…

Por lo tanto, los ordenamientos jurídicos están llamados a hacer frente a las ambivalentes repercusiones de las llamadas máquinas inteligentes de última generación, que, por un lado, representan un factor de mejora de las condiciones de vida de naciones y pueblos enteros, al ser capaces de fomentar el crecimiento humano y social, y, por otro, constituyen una fuente de riesgos potencialmente desmesurados.

Por estas razones, la IA se ha convertido en un campo de investigación muy estimulante también para los estudiosos del Derecho penal, como revela un considerable número de investigaciones y estudios en toda Europa y en todo el mundo. En este contexto, destacan las investigaciones sobre la responsabilidad penal o administrativa de las personas jurídicas u otras entidades colectivas y, en particular, de las sociedades mercantiles, que figuran entre los mayores usuarios de las nuevas tecnologías. Esto se debe a dos razones, que afectan tanto al aspecto relativo a la prevención como a la represión de delitos.  

La primera razón es que las técnicas de inteligencia artificial, en combinación con la denominada blockchain, probablemente cambiarán radicalmente los métodos y prácticas de cumplimientopenal y el diseño de sistemas de control interno en las empresas. En el contexto general de lo que puede designarse como el “mundo RegTech”5, las empresas, utilizando sofisticados sistemas informáticos, pueden disparar señales de alarma (red flags) que de otro modo no se hubieran podido identificar a través de las técnicas clásicas de análisis y supervisión. Además, pueden construir sistemas de toma de decisiones transparentes y fiables, en los que sea más complicado ocultar actividades ilícitas6.

5.

El término hace referencia a la “tecnología reguladora”, es decir, el uso…

6.

Sobre este tema, incluido el uso de la tecnología no sólo como…

Obviamente, todo lo dicho hasta aquí pertenece al mundo de las aspiraciones; la realidad podría ser menos idílica, ya que el nuevo hito de la digital compliance también presenta grandes incógnitas y riesgos que hay que gestionar. Entre las cuestiones que exigen atención, podemos mencionar, por ejemplo: la calidad de los datos en los que se basan los sistemas de inteligencia artificial7; el impacto sobre la protección de los datos personales y los derechos de los trabajadores, con innegables implicaciones de carácter ético; el papel de la ciberseguridad en la salvaguarda de los datos sensibles objeto de los procesos de cumplimiento digital; las disparidades en el acceso a los recursos digitales; o los efectos macroeconómicos sobre el empleo y la organización del trabajo, que requieren una cuidadosa consideración de las implicaciones sociales y políticas. De todo ello se deduce que, incluso desde la perspectiva de la “conformidad” legal, la regulación y gestión de las herramientas de IA aconsejan la adopción de un enfoque holístico que tenga en cuenta los aspectos tecnológicos, éticos, jurídicos, de seguridad y sociales.

7.

En una conferencia celebrada el 22 de junio en la Universidad de…

La segunda razón del especial interés que los instrumentos de IA hoy suscitan entre los juristas, incluidos los penalistas, es aún más relevante desde la óptica del impacto social: su uso en el contexto de una empresa puede ocasionar peligros o daños de diversa índole, significativos desde el punto de vista de la comisión de delitos (dolosos o culposos). Piénsese en los sectores, ya de gran importancia y actualidad, de los coches de conducción autónoma (self-driving cars)8 9, la robótica y los sistemas de diagnóstico médico, el trading financiero o la gestión logística mediante algoritmos.

8.

A nivel monográfico, exhaustivamente, M. Lanzi, Self-driving cars e responsabilità penale. La…

9.

Pensemos en los robots que se utilizan desde hace tiempo en operaciones…

Como ya se ha dicho, el problema se ve amplificado por el siguiente dato fáctico: gran parte de los sistemas de IA son producidos o utilizados por personas, en particular, con forma societaria. A este respecto, la cuestión jurídica clave es si las personas jurídicas involucradas pueden de iure condito o deben de iure condendo ser llamadas a responder en procedimientos penales o para-penales (por ejemplo: en el ordenamiento jurídico italiano, en virtud del Decreto Legislativo nº 231 de 8 de junio de 2001; en sistema penal español, en virtud de los artículos 31-bis y siguientes del Código penal) por delitos relacionados con el uso de IA.

En este artículo pretendemos centrarnos en esta última perspectiva, explorando, en primer lugar, la posibilidad de que una organización pueda ser considerada responsable de la comisión de delitos de diversa índole vinculados al uso de dispositivos o algoritmos de IA. Para ello examinaremos el marco normativo actual10, exploraremos las técnicas jurídicas que parecen en abstracto viables para responsabilizar a las personas jurídicas en estas peculiares esferas de riesgo, y abordaremos los posibles obstáculos y argumentos que se oponen a tal enfoque jurídico11. Por último, extraeremos conclusiones de las consideraciones realizadas12.

10.

Véase el párrafo 2.

11.

Véase el párrafo 3.

12.

Véase el párrafo 4.

II. Los regímenes de responsabilidad penal (o para-penal) de las empresas a nivel internacional y los delitos relacionados con la IA: el escenario actual

Ante el dilema de si una persona jurídica puede ser considerada responsable de un delito caracterizado, en la fase de preparación o de ejecución, por el uso de herramientas de IA, hay que distinguir entre los sistemas informáticos no autónomos y los sistemas que pueden tomar decisiones totalmente autónomas, que los propios programadores o usuarios finales son incapaces, en todo o en parte, de prever13.

13.

Para una visión general véase. S. Beck, The Problem of Ascribing Legal…

1. Sistemas de IA no autónomos y sistemas autónomos utilizados intencionalmente para cometer delitos

Partiendo de la primera constelación de casos, los sistemas no autónomos no parecen plantear problemas adicionales a los abordados tradicionalmente en el Derecho penal de las personas físicas o en el Derecho punitivo de las entidades pluripersonales.

Tales dispositivos, de hecho, se limitan a ejecutar instrucciones recibidas del programador humano o, en cualquier caso, operan bajo el control directo de una o varias personas físicas. En consecuencia, pueden activarse las vías “ordinarias” o usuales de enforcement e imputación de responsabilidad penal a la persona física y, eventualmente, también a la persona jurídica14.

14.

Sobre este tema, véase también B. Panattoni, AI and Criminal Law: the…

En efecto, tanto en los casos en que la herramienta tecnológica se utilice con el propósito específico de cometer un delito contra la vida, la seguridad, la privacidad personal, el patrimonio ajeno, etc., como en las situaciones en que el uso del sistema cause un daño involuntario (es decir, imputable a título de imprudencia) y susceptible de constituir una infracción penal15, la responsabilidad podrá ser invocada sobre la base de los principios y regulas habituales en los diferentes ordenamientos jurídicos. Podrán ser considerados responsables del delito, según el caso, el productor, el distribuidor o el usuario final del sistema16, así como la persona jurídica o las personas jurídicas según corresponda. Respecto a la entidad colectiva, los modelos de imputación varían desde las formas basadas en la responsabilidad vicaria (vicarious liability) o en la responsabilidad objetiva (strict liability), hasta las centradas en la culpa de organización (organizational fault) o en la falta de prevención de delitos específicos (failure to prevent model)17.

15.

Caldwell et al., AI-enabled future crime, en 9 Crime Science, 2020, 14,…

16.

En la literatura italiana, véase C. Piergallini, Intelligenza artificiale: da ‘mezzo’ ad…

17.

Sobre este punto véase también Fe. Mazzacuva, The Impact of AI on…

Obviamente, incluso entre estos casos más “sencillos», pueden surgir, en la práctica, cuestiones delicadas de atribución de responsabilidad, tanto desde el punto de vista del autor o cómplice individual como de la organización a la que pertenecen. Como ya se ha mencionado, estas dificultades aplicativas no suelen diferir de las que se plantean normalmente en los casos de responsabilidad por productos defectuosos18. Sin embargo, los problemas tradicionales de imputación se ven agravados, en el contexto que nos concierne, por la incidencia en la dinámica fáctica de tecnologías complejas como las de la IA, especialmente en lo que respecta a los métodos utilizados en la fabricación y la marcada complejidad técnica del output de la producción.

18.

C. Piergallini, Inteligencia artificial, cit., 1753. En idioma español, en general y…

En particular, desde la perspectiva de la responsabilidad individual, se amplían – para mencionar sólo las más evidentes – las cuestiones dogmáticas relacionadas con la identificación de los responsables y las causas penalmente relevantes del resultado, la distinción entre acción y omisión, las fuentes legales y la delimitación de las posiciones de garantía de los distintos actores en el proceso de producción, programación y comercialización de la máquina, la previsibilidad ex ante del eventual carácter defectuoso del producto, los requisitos de la cooperación imprudente y la acumulación de culpas, el papel del principio de confianza en Derecho penal.

También tiene trascendencia la tendencia a distribuir el proceso productivo en cadenas de suministro extremadamente fragmentadas: un aspecto que no sólo caracteriza a la industria de la IA, sino que aquí se eleva a la máxima potencia. La figura del “productor” se descompone en una miríada de operadores económicos, distribuidos nacional y globalmente, para cada componente del producto final. Esto complica la reconstrucción de las posiciones de garantía y los eslabones causales, y agrava las dificultades de previsión de los efectos del conjunto por parte de cada uno de los participantes en la cadena causal. Pero incluso cuando el proceso de producción se concentra en una única organización, la imagen monolítica del “fabricante” o “diseñador” corresponde a un uso sincopado del lenguaje, dado que en los procesos de construcción de máquinas inteligentes intervienen multitud de técnicos que aportan su contribución al proyecto unitario.

Además, pueden surgir problemas de jurisdicción, debido a la división nacional e incluso mundial de los diferentes segmentos productivos19. Desde este último punto de vista, la relación entre vendedor y consumidor también puede estar profundamente fragmentada geográficamente. Baste considerar que hoy en día cualquiera puede comprar en línea herramientas de IA – drones, por ejemplo – a vendedores que residen en terceros países.

19.

Sobre el impacto de la globalización económica en la aplicación de la…

En cuanto a la concreta cuestión de la posible imputación de responsabilidad a una entidad colectiva, también deben tenerse en cuenta las peculiaridades de los distintos regímenes normativos. Sólo a título de ejemplo, considérese el caso en que la puesta en circulación de un vehículo autónomo bajo la supervisión de un conductor humano lleve a la comisión de un homicidio imprudente y, sin embargo, las normas aplicables en materia de responsabilidad de las empresas no incluyan este delito entre los que pueden dar lugar a la responsabilidad de la societas. Evidentemente, este problema de aplicación sólo puede plantearse en los sistemas legales nacionales basados en un “catálogo cerrado” (numerus clausus) de delitos de los que puedan responder las personas jurídicas20.

20.

Como es el caso de nuestro Decreto Legislativo nº 231 de 8…

Los resultados de esta primera fase de nuestro análisis también pueden reproducirse sin demasiada dificultad con respecto a los sistemas de IA que son completamente autónomos pero que han sido diseñados desde el principio con el objetivo de cometer delitos y causar intencionadamente daños a terceros, por ejemplo, con fines terroristas o de desestabilización de gobiernos legítimos.

En estos casos, las aplicaciones de IA actúan como una especie de longa manus de quienes pretenden perpetrar hechos delictivos21. Por consiguiente, la responsabilidad penal podrá atribuirse – como se ha subrayado anteriormente – a las personas físicas que utilicen la herramienta con intenciones criminales, así como a la persona jurídica a la que pertenezcan, cuando la legislación vigente lo permita.

21.

Sobre este tema, véase también I. Salvadori, Agenti artificiali, opacità tecnologica e…

Además, en caso de condena de la persona física y/o jurídica, el dispositivo lesivo puede, por regla general, ser decomisado como instrumentum sceleris, es decir,como instrumento utilizado para cometer el delito, en el ordenamiento jurídico español según el art. 127 del código penal y en el ordenamiento jurídico italiano en virtud del art. 240 del código penal.

2. Sistemas de IA completamente autónomos y no programados/utilizados para cometer delitos

Como se ha anticipado, los que se acaban de reseñar son los casos más sencillos, los easy cases, como diría Herbert Hart.

La cuestión se vuelve mucho más nebulosa y compleja en relación con los sistemas de IA completamente autónomos que no se programan ni se utilizan para cometer delitos. Estos son los verdaderos hard cases, los que más ocuparán a los tribunales tan pronto como los escenarios que hoy tememos comiencen a convertirse en una posibilidad más realista. Nos referimos a herramientas digitales estructuradas by design  para aprender automáticamente y actuar “solas”, es decir, capaces de percibir su entorno, interactuar con él, analizar datos, hacer previsiones, tomar decisiones y provocar modificaciones en la realidad externa con total independencia tanto del productor del sistema como del usuario22.

22.

Sobre este punto, desde la perspectiva específica de las armas autónomas y…

En la literatura científica se habla de machine learning (aprendizaje automático), cuya última evolución son las sofisticadas técnicas de deep learning (aprendizaje profundo)23. La máquina, en este caso, es un sistema abierto24 que aprende de forma continua y automática, con la consecuente modificación de las conexiones entre neuronas artificiales, por lo que desde este prisma lo que se pretende es imitar, en la medida de lo posible, la “plasticidad” del cerebro humano y el cambio incesante de las redes neuronales que lo componen25.

23.

Cf. T. Sejnowski, The Deep Learning Revolution, Cambridge, 2018.

24.

Véase también B. Magro, Robot, cyborg e intelligenze artificiali, en Cybercrime, en…

25.

Las redes neuronales artificiales están «compuestas por elementos interconectados que funcionan sincrónicamente…

Desde la perspectiva del Derecho penal, el problema más delicado que suscitan estos avances tecnológicos es precisamente la imposibilidad de predecir, al menos en su totalidad, el funcionamiento futuro del sistema, ergo todas las decisiones que, en las infinitas situaciones de la vida real, el dispositivo de IA podrá tomar independientemente de la instrucción o autorización de una guía humana.

Si las máquinas inteligentes estuvieran totalmente automatizadas, este problema no se plantearía, ya que por definición se puede automatizar todo lo que es predecible. Por el contrario, los dispositivos de última generación capaces de autoaprendizaje toman decisiones a través del contacto con el entorno externo y los datos almacenados en el cloud, “un potente hub computacional capaz de almacenar, procesar y proporcionar enormes cantidades de datos26, de los cuales extraer continuamente para las actualizaciones, los upgrades27. La consecuencia es que ni el diseñador, ni el programador, ni el usuario final pueden conocer exactamente de antemano el pattern decomportamiento que la máquina elegirá, una y otra vez, al interpretar las infinitas situaciones de la vida real28.

26.

Se habla, en este sentido, de big data.

27.

R. Bodei, Dominio e sottomissione, cit., 315.

28.

Sobre la cuestión de la imprevisibilidad tecnológica de las “máquinas inteligentes”, véase,…

En algunos aspectos, una dosis de imprevisibilidad está incluso “preordenada”, ya que el objetivo del fabricante de estos dispositivos avanzados no es instruir y regular de antemano cualquier elección de la máquina, sino hacer que la tecnología “pensante” funcione y tome sus decisiones de una manera que se espera que sea lo más eficaz posible. Ésta es también la única declinación concebible del principio de confianza en la relación hombre-máquina inteligente. Pero la principal novedad, frente a las versiones clásicas del principio de confianza en la teoría del delito imprudente, es que en este caso no se trata de confiar en una persona humana de la que se tienen razones para creer que tiene la suficiente experiencia, formación y prudencia para realizar determinadas tareas, sino en una máquina que aprende, hipotéticamente dispuesta a un continuo proceso de aprendizaje basado en la experiencia y perfeccionamiento de sus “habilidades”. Aquí, como se ha dicho, reside el punctum dolens penal de las tecnologías en cuestión.

Es evidente entonces cómo, a través de esta inédita dimensión empírica, se pasa del peligro previsible y en todo o en parte cuantificable, que representa el dominio de la prevención, al riesgo desconocido, que se sitúa, electivamente, en el dominio de la llamada precaución. De hecho, la idea de prevención está marcada por el conocimiento científicamente corroborado. El principio de precaución, en cambio,a se refiere a los ámbitos de riesgo caracterizados por una considerable incertidumbre científica, de modo que se refiere a lo que se supone que pueda ocurrir, pero no se sabe si – y en qué términos – ocurrirá.

En una sociedad que tiende a rechazar la idea de lo “fortuito”, es fácil predecir una enérgica demanda de justicia por parte de las víctimas ante cualquier fallo del algoritmo presuntamente “inteligente”.  Sin embargo, según la opinión doctrinal dominante, en la fundamentación de la responsabilidad por imprudencia no cabe recurrir al principio de precaución como fuente jurídica supletoria del deber de cuidado.

En puridad,  este criterio de imputación subjetiva “requiere, ante todo, la violación de reglas de cautela con fundamento nomológico, orientadas a la prevención de resultados previsibles (y no meramente hipotéticos) ex ante: sobre la base, por tanto, del patrimonio cognitivo disponible (para el agente modelo de referencia o, al menos, para el agente concreto que por azar posee conocimientos superiores) en el momento de la conducta, cuya naturaleza contraria a deber no puede ser afirmada de manera retroactiva”29.

29.

D. Castronuovo, Principio di precauzione e diritto penale. Paradigmi dell’incertezza nella struttura…

La perspectiva orientada por el principio de precaución se convierte así en un método de buena gestión administrativa del riesgo hipotético, que puede incluso aconsejar, en casos límite, la prohibición absoluta de actividades o del uso de tecnologías de las que se teme que puedan generar peligros aún no corroborados científicamente, pero que parecen previsiblemente insostenibles en cuanto a su gravedad y potencial difusión.

Una vez definido el marco conceptual de nuestra reflexión, no se puede excluir que las decisiones tomadas autónomamente por un sistema de IA puedan constituir, al menos desde un punto de vista material-objetivo, conductas penalmente típicas.  Nos vienen a la mente ejemplos de abusos de mercado llevados a cabo mediante software de IA capaz de gestionar de forma autónoma transacciones bursátiles o financieras30, o daños a la integridad física – homicidio o lesiones imprudentes – causados por robots/sistemas de IA dotados igualmente de autonomía operativa31.

30.

Véase F. Consulich, Il nastro di Mobius. Intelligenza artificiale e imputazione penale…

31.

Véase, por ejemplo, R. Crootof, War Torts, cit., 1347 y ss.; así…

A veces, la experimentación sobre el terreno de una determinada máquina (por ejemplo, un dispositivo de diagnóstico o uno utilizado en intervenciones quirúrgicas) o los feedback de los clientes pueden permitir al fabricante y/o al usuario tomar conciencia de que un determinado tipo de IA se desviará, en un cierto porcentaje de casos (aunque no sea exactamente cuantificable), de las funciones programadas, desencadenando cursos causales potencialmente dañinos que no pueden neutralizarse con medidas preventivas adecuadas, en el estado de los conocimientos científicos. En estos casos, podemos hablar de un mínimo riesgo conocido, que puede llevar a la autoridad estatal a la decisión jurídico-política de tolerarlo, cuando el efecto secundario adverso parezca de poca relevancia, o, por el contrario, a prohibirlo como riesgo jurídicamente inadmisible y por esto no permitido.

Sin embargo, en el escenario característico del machine learning y, más aún, del deep learning, el conocimiento científico-experimental, por regla general, ni permite afirmar que el uso de un determinado sistema de IA pueda causar peligros o daños específicos incontrolables, ni excluirlos categóricamente.

En este contexto, la responsabilidad penal individual está expuesta a grandes incertidumbres y dudas potencialmente irresolubles. Pero lo mismo sucede con la cuestión relativa a la responsabilidad penal de las organizaciones empresariales implicadas, que sitúa  al jurista ante un dilema difícil de resolver de modo unívoco. En todo caso, antes de responder a esta última cuestión, parece necesario abordar una hipótesis que, no obstante su carácter fantasioso, surge recurrentemente en el debate científico: la idea de atribuir personalidad jurídica a los sistemas de inteligencia artificial como tales y castigar directamente a la máquina32, en presencia de un mal funcionamiento que genere perjuicios a intereses jurídicamente protegidos, penalmente trascendentes. Esta sugerencia evoca los juicios medievales contra los animales o incluso el animismo de los pueblos primitivos33, que pasa por atribuir propiedades espirituales a realidades físico-materiales.

32.

Véase, por ejemplo, el pensamiento del penalista israelí G. Hallevy, Liability for…

33.

Cf. H. Kelsen, Teoría pura del derecho (1960),  trad. esp., México, 1966,…

Es evidente, sin embargo, que la solución a los problemas jurídicos aquí abordados no puede venir, en el estado actual de modernidad hipertecnológica que nos rodea, de la exhumación del pensamiento arcaico más irracional y, por tanto, de una regresión – por decir lo menos grotesco – a las fases primitivas del desarrollo social; de hecho, hasta la fecha, ninguna legislación (al menos que sepamos) prevé medidas o sanciones penales directamente aplicables a las herramientas informáticas o dispositivos de IA34.

34.

Véase el General Report de L. Picotti, en Traditional Criminal Law Categories…

En el estado actual de los conocimientos técnico-científicos, hay consenso unánime en que estos instrumentos supuestamente inteligentes carecen de capacidad de autodeterminación y, por tanto, de verdadera autoconciencia o identidad personal, entendida – al menos a partir del padre del empirismo moderno John Locke – como la conciencia que una persona tiene de su permanencia a través del tiempo y de las fracturas de la experiencia35. La autoconciencia es indispensable para fundar la responsabilidad penal stricto sensu, y de ella depende también la posibilidad de que cualquier medida punitiva (independientemente de su calificación) pueda motivar psicológicamente al destinatario a cumplir la norma. En definitiva, un dispositivo de IA, “aun siendo “inteligente”, no deja de ser siempre una máquina”36. El propio uso del término “inteligencia” refleja un lenguaje metafórico con el que atribuimos al dispositivo cualidades de las que, en realidad, carece37.

35.

De  hecho, tal enfoque de la “personalidad”, en el pensamiento filosófico, se…

36.

Mensaje del Santo Padre Francisco para la 57ª Jornada Mundial de la…

37.

Bodei, Dominio e sottomissione, cit., 300.

En contra podría decirse que: muchos ordenamientos jurídicos nacionales ya admiten la responsabilidad penal de las personas jurídicas, en sí mismas carentes de consistencia psicofísica38. Sin embargo, la comparación no se sostiene: un algoritmo no sólo carece de self-consciousness,sino también del sustrato propio de una colectividad humana. En cambio, una legal person (persona jurídica) no es sólo una abstracción jurídica, sino una organización de personas y recursos, y por tanto también una colectividad de individuos de carne y hueso (como los directivos, empleados y colaboradores de una sociedad mercantil), motivados por un precepto normativo (mandato o prohibición) y la amenaza de sanciones por su incumplimiento.

38.

Así, en efecto, S. Gless, E. Silverman y T. Weigend, If Robots…

Queda entonces por abordar la cuestión de si, frente a delitos en cuya dinámica causal hayan intervenido herramientas de IA completamente autónomas, la persona jurídica que – a través de sus miembros – haya hecho uso de esa tecnología, o que haya diseñado, producido, distribuido o vendido el dispositivo, también puede ser castigada.

Para ello son necesarias algunas aclaraciones preliminares. En primer lugar, conviene considerar que, a nivel internacional, la responsabilidad penal de las empresas está, por regla general, indisolublemente vinculada a la comisión de un delito por parte de una persona física (el denominado “hecho de conexión”; en alemán Anknüpfungstat)39. Sin embargo, en los casos mencionados anteriormente, es difícil – y la mayoría de las veces imposible – afirmar la responsabilidad penal de una persona física.

39.

Véase, entre otros, European Developments in Corporate Criminal Liability, editado por J….

Para empezar, puede resultar imposible la demostración judicial de la existencia del tipo objetivo del delito (en inglés, actus reus), por ejemplo, en lo que respecta al nexo causal entre el resultado final ofensivo y un error de diseño cometido por un individuo, teniendo en cuenta además que muchas personas – y a veces variadas galaxias empresariales y multiempresariales – cooperan para crear y lanzar determinados productos al mercado.

Pero aparte de ello, el verdadero e insuperable obstáculo suele ser la prueba del tipo subjetivo (mens rea), ya que, en los casos en cuestión, no es posible imputar la responsabilidad penal a un individuo del que resulta descartada la intención de cometer un delito y que ni siquiera podía prever el comportamiento del sistema informático, salvo la simple y abstracta posibilidad de que algo negativo pudiera salir mal: pero en este caso estaríamos volviendo no al campo de la prevención, sino al de la precaución40 o, a lo sumo, al de una genérica e inconsistente previsibilidad de la imprevisibilidad. Como ya hemos señalado, de hecho, estos dispositivos inteligentes toman decisiones autónomas e impredecibles, a la vez que los mecanismos por los que aprenden y toman determinadas decisiones son a menudo desconocidos (el nodo de la llamada “black-box”)41.

40.

Sobre la imposibilidad de aplicar el principio de precaución para integrar normativamente…

41.

Sobre estos aspectos, véase C. Grandi, Positive obligations (Garantestellung) grounding the criminal…

En resumen, la imposibilidad – ya sea teórica o práctica – de responsabilizar penalmente a un ser humano (por la vía del dolo, la imprudencia o hipótesis intermedias como la recklessness inglesa), significa que tampoco se podrá responsabilizar y castigar a una corporation.

Esto es indudablemente cierto en el caso de los modelos de heterorresponsabilidad, es decir, aquellos en los que la persona jurídica responde indirectamente por el delito cometido por una persona física dentro del marco de la relación que lo une a la organización y en el interés de esta. El tradicional mecanismo estadounidense de imputación, conocido como vicarious liability (responsabilidad vicaria)42, implica, de hecho, que las corporaciones sólo pueden ser consideradas culpables y castigadas cuando sea posible identificar a una persona física que ha realizado una conducta que cumple todos los requisitos objetivos y subjetivos del delito relevante43.

42.

Observa que los modelos vicariales anglosajones como el estadounidense tienen, en todo…

43.

Véase V.P. Nanda, Corporate Criminal Liability in the United States: Is a…

Algunos estudiosos han reflexionado sobre la posible extensión de la corporate mind – en la que fundamentar una imputación de responsabilidad – también a los fallos algorítmicos que contribuyen a causar daños a terceros, argumentando la posibilidad de imaginar ilícitos “cometidos” por sistemas digitales y considerarlos ilícitos corporativos (corporate wrongs), similares a los perpetrados por empleados44.

44.

Se hace referencia en particular al trabajo de M.E. Diamantis, The Extended…

Se trata de construcciones claramente artificiosas porque comparan datos empíricos objetivamente incomparables. Partiendo de esta incongruente asimilación, este planteamiento consideraría al algoritmo como un agent de la organización y, sobre todo, le atribuiría una culpabilidad/mens rea que luego imputaría a la persona jurídica. El planteamiento es inasumible, debido a la mencionada imposibilidad de captar un elemento de Gewissen (conciencia moral), o más sencillamente autoconciencia, en la máquina.

La respuesta a tal cuestión sólo puede ser negativa, y ello es así aun asumiendo el recurso a un modelo diferente de responsabilidad, basado en la teoría de la identificación, también de origen anglosajón (identification doctrine), aunque también con ascendientes en la teoría del órgano propia del derecho público de matriz continental45. En su caso, conllevaría el problema adicional de cómo concebir el algoritmo como la “directing mind and will of the company46.

45.

V. Mongillo, La responsabilità penale tra individuo ed ente collettivo, cit., espec….

46.

Véanse: C. Wells, Corporate Criminal Liability in England and Wales: Past, Present…

Por último, los resultados no cambian al dirigir nuestra atención a los ordenamientos jurídicos en los que la responsabilidad de la persona jurídica se basa en un requisito de “culpa de organización”47 o, de forma similar, se construye en términos de no prevención del delito (failure to prevent). La idea que subyace a estas disciplinas es que las organizaciones pueden ser consideradas responsables por no haber implementado compliance programs o procedimientos adecuados para prevenir la comisión de delitos específicos.

47.

Con referencia a la experiencia italiana, véase V. Mongillo, El defecto de…

No se ignora cómo, en determinadas condiciones, muchos de estos regímenes de responsabilidad empresarial admiten la posibilidad de declararla de forma “autónoma”, es decir, prescindiendo de la identificación material del autor del delito (la llamada “culpabilidad anónima”o anonymous guilt). En este paradigma “autonomista” podemos situar, sin duda, el art. 8 del Decreto Legislativo italiano nº 231/200148 o el art. 31-ter, párrafo 1, del Código penal español. Sin embargo, incluso estos modelos de responsabilidad siguen anclados en la necesidad de determinar la comisión de un delito en todos sus elementos esenciales, objetivos y subjetivos, o al menos los factores objetivos de la conducta humana y del resultado, permitiendo como mucho que la autoridad judicial prescinda de la identificación del autor individual concreto49.

48.

Sobre los problemas de aplicación que plantea esta disposición, véase V. Mongillo,…

49.

Sobre las normas que rigen la responsabilidad penal de las empresas, véase,…

III. Las perspectivas de futuro: ¿hacer responsables a las personas jurídicas por delitos relacionados con la IA?

Ha llegado el momento de reflexionar, de manera concisa, sobre las técnicas legislativas que podrían adoptarse, en el futuro próximo, para fundamentar la responsabilidad de una empresa por delitos determinados por el uso de sistemas de IA, y en particular, de aquellos completamente autónomos. Además, es necesario entender si las diversas estrategias político-criminales son adecuadas y justas o no.

Nuestra primera tesis es que este problema no debe abordarse desde una perspectiva unilateral y monista. Especialmente en relación con las nuevas tecnologías de IA, cualquier decisión de política criminal debería ser el último peldaño de un proceso más amplio y articulado de regulación pública, dentro del cual el legislador debería encargarse también de establecer las “reglas del juego” y los límites del denominado erlaubtes Risiko (“riesgo permitido”)50.

50.

Sobre la importancia de este aspecto, véase también A. Fiorella, Responsabilità penale…

Las instituciones de la UE, recientemente, han adoptado importantes medidas en la dirección auspiciada, entre las que destaca el Reglamento sobre inteligencia artificial (la llamada “Ley europea de Inteligencia Artificial”), publicado en el Diario Oficial de la Unión Europea el 12 de julio 202451. Las Organizaciones Internacionales también podrían adoptar iniciativas normativas similares, a escala global, mediante la celebración de acuerdos multilaterales y la coordinación de su aplicación e implementación52.

51.

Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de…

52.

Como también pide el Santo Padre Francisco en su Mensaje para la…

El instrumento europeo que acaba de ser adoptado tiene como objetivo introducir normas comunes en el mercado único para garantizar la circulación de herramientas de IA seguras, prohibiendo las prácticas más peligrosas – incluyendo algunas formas muy controvertidas de predictive policing 53– y estableciendo medidas específicas de cumplimiento normativo, con inclusión de la supervisión del producto tras su comercialización, o la obligación de adoptar todas las medidas correctivas adecuadas para garantizar el buen funcionamiento del sistema de IA, su eventual retirada del mercado o su posible reintroducción en el mismo dentro del plazo que pueda prescribir la autoridad de supervisión del mercado, según la lógica de la reactive fault o del ilícito por omisión de reacción (véase, por ejemplo, los arts. 20 y 79, párrafo 3, del Reglamento)54. Los operadores que deseen comercializar software de IAde alto riesgo deberán cumplir de manera efectiva con estas prescripciones, y se impondrán obligaciones similares a los operadores para la distribución de los diversos dispositivos. El instrumento normativo de la UE también prevé que los Estados miembros (EM) establezcan o designen autoridades nacionales responsables de garantizar la aplicación de estas normas y que establezcan (véase el art. 99) “el régimen de sanciones” – que deberán ser “efectivas, proporcionadas y disuasorias” – “y otras medidas de ejecución, como advertencias o medidas no pecuniarias, aplicable a las infracciones del presente Reglamento que cometan los operadores […]”. Por último, se especifica que los Estados miembros deberán adoptar  “todas las medidas necesarias” para garantizar una correcta y eficaz aplicación del referido Reglamento. En consecuencia, el texto deja un amplio margen de apreciación y decisión a los Estados miembros sobre los tipos de medidas sancionadoras a adoptar (así como sobre su contenido), más allá de los requisitos esenciales establecidos por el Reglamento55.

53.

La versión final de la Ley de IA incluye entre las prácticas…

54.

Sobre el concepto de reactive fault, véase, en la pionera doctrina australiana,…

55.

De hecho, el artículo 99 del Reglamento también establece lo siguiente: “[…]3….

En nuestra opinión, antes de considerar cualquier medida penal o punitiva de aplicación directa a las empresas que producen o utilizan herramientas de IA, los Estados – incluso fuera de la UE y, por tanto, no sujetos a disposiciones europeas directamente aplicables – deberían contar con una legislación que regule la producción y venta de tales dispositivos tecnológicos y otras actividades en el sector. Dicha legislación debería, como mínimo, identificar qué productos están permitidos, establecer las reglas de compliance que deben observarse para introducir estos dispositivos en el mercado de forma segura e imponer formas de seguimiento posterior a la comercialización, indicando también la autoridad pública encargada de los controles.

El segundo paso que hay que dar consiste en reflexionar detenidamente sobre el papel que el recurso penal puede desempeñar en esta materia, en particular, en lo que se refiere a las acciones de enforcement dirigidas contra las empresas en relación con los delitos vinculados a la utilización de la IA.

Teóricamente, podrían considerarse y desarrollarse tres estrategias sancionadoras.

1) La primera estrategia consiste en la previsión de sanciones penales/punitivas aplicables al sistema de IA como tal, es decir, como autor directo de un delito, a condición, por supuesto, del reconocimiento de su personalidad jurídica. Desde este enfoque, también debería considerarse la posibilidad de activar las normas ordinarias sobre la responsabilidad penal o ex crimine de las personas jurídicas, vigentes en las distintas jurisdicciones, en caso de que las infracciones penales relacionadas con la IA se cometan en el contexto de una organización empresarial.

2) El segundo modelo de intervención podría contemplar la adopción de sanciones penales/punitivas directas contra la empresa que haya producido o utilizado un sistema de IA, causando daños a terceros y/o realizando los elementos constitutivos de un delito. Según este mecanismo de imputación, la responsabilidad autónoma y directa de la entidad empresarial podría basarse en la falta de adopción de medidas de cumplimiento normativo de carácter preventivo, con anterioridad a la producción del resultado dañoso derivado del mal funcionamiento de la IA. Se trataría, por tanto, de un supuesto de responsabilidad empresarial basado en la culpa o el defecto de organización de la empresa.

3) La tercera solución consiste en la imposición de sanciones punitivas a las empresas, independientemente de la constatación de daños y/o delitos, en consideración a la mera violación de los requisitos y obligaciones de cumplimiento normativo que deben respetarse en la introducción de herramientas de IA en el mercado y la supervisión posterior a su distribución y venta. Como ya se ha mencionado, esta estrategia presupone la previa adopción de una regulación pública que aborde de forma integral el fenómeno en cuestión.

Dicho esto, los tres modelos no parecen igualmente plausibles.

En cuanto a la primera hipótesis normativa (responsabilidad directa de los algoritmos), ya hemos expresado las razones por las que la idea de que machina delinquere potest no es convincente ni practicable. Como se ha explicado, el estado actual de los conocimientos científicos hace imposible captar en el funcionamiento de las herramientas de IA una free will o autoconciencia y capacidad reales de ser motivadas por la amenaza de un mal futuro56. Legitimar una responsabilidad de este tenor sería una fictio insensata, sin perjuicio de la posibilidad de “atacar” materialmente al instrumento de IA en función de su objetiva peligrosidad comprobada.

56.

Sobre este punto, véase, en la literatura italiana: F. Basile, Intelligenze artificiali…

La segunda solución es, en principio, viable. No obstante, también requiere algunas aclaraciones y advertencias. Introducir una disposición por la que se castigue la no prevención del delito-resultado derivado del mal funcionamiento del sistema de IA, en ausencia de una regulación pública que establezca, de manera precisa, los estándares aplicables a la producción y venta de tales instrumentos tecnológicos, equivaldría a confiar – de manera irracional y, por tanto, injusta – a las empresas la tarea de gestionar todos los riesgos (y las cuestiones de responsabilidad correlativas) asociados con la producción y utilización de estos dispositivos.

Por lo tanto, como ya hemos señalado anteriormente, de acuerdo con un principio general de política jurídica racional, la introducción de sanciones – formalmente o sustancialmente – penales contra las empresas debería constituir el último recurso en el contexto de una estrategia más amplia y articulada de regulación pública.

Además, al menos en determinados escenarios que no son en absoluto remotos, es cuestionable que pueda legitimarse – en términos dogmáticos y político-criminales – una disposición que introduzca la responsabilidad penal de las empresas por la causación material de resultados negativos imprevisibles, generados por sistemas capaces de tomar decisiones de forma completamente autónoma57. En otras palabras, cabe dudar mucho de la posibilidad de probar en juicio que una organización es culpable si ni siquiera con toda la diligencia abstractamente concebible habría podido prever y, por lo tanto, evitar el daño causado por el “fallo” de un sistema de IA cuyo funcionamiento resulte – total o al menos en parte – inescrutable58. Es evidente que, en este caso, la única posibilidad real de evitar el acontecimiento imprevisible sería renunciar por completo a la producción y/o uso del sistema de IA, acogiéndose a una regla de abstención basada en el principio de precaución.

57.

Véase también B. Panattoni, AI and Criminal Law, cit., 125 y ss….

58.

Sobre la evaluación del defecto de organización de las empresas en el…

Teniendo en cuenta el conjunto de estos aspectos, la tercera solución podría consistir, al menos en las fases iniciales del proceso de regulación normativa que la materia reclama, en un compromiso equilibrado para evitar, por un lado, injustas imputaciones de responsabilidad y, por otro, una sustancial paralización de la investigación y la producción en el campo de la IA, con un indeseable chilling effect. Como ya hemos subrayado, para desarrollar mejor esta política, el primer paso debe ser la introducción de una legislación que, en línea con el nuevo Reglamento europeo antes mencionado, establezca las “reglas del juego” y todos los requisitos de conformidad asociados a la comercialización y supervisión de los instrumentos de IA. Esta opción también parece más respetuosa con el principio de ultima ratio, según el cual el Derecho penal debería activarse sólo tras haber verificado la capacidad de otras formas de responsabilidad, empezando por la responsabilidad civil y administrativa – para garantizar una protección adecuada de los intereses en juego, teniendo en cuenta asimismo la novedad del fenómeno que debe gestionarse y los riesgos a enfrentar. A este respecto, cabe mencionar también la Resolución del Parlamento de la UE de 16 de febrero de 2017, que contiene recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, la cual, entre otras cosas, había sugerido el establecimiento de un “régimen de seguro obligatorio” para los posibles daños producidos en tales contextos, así como un “fondo para garantizar la compensación de los daños y perjuicios en los supuestos en los que no exista una cobertura de seguro”59.

59.

El texto de la Resolución está disponible en el siguiente enlace: https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52017IP0051&from=EN….

Por lo tanto, sólo después de haber elaborado un corpus normativo exhaustivo, capaz de ordenar de manera adecuada el fenómeno examinado, sería razonable prever sanciones dirigidas a la entidad colectiva, que desplacen el focus de las actividades de enforcement relativas a las personas jurídicas desde la causación de daños a terceros60 a la violación de los requisitos de compliance relativos a  la introducción segura en el mercado y la supervisión postventa de las herramientas de IA.

.

Este sector, como ya se ha dicho, podría estar cubierto al menos…

De este modo, tales medidas sancionatorias permitirían garantizar la correcta aplicación de la normativa pública por parte de los operadores económicos y se orientarían a proteger el respeto de tales (esenciales) disposiciones. En aplicación del principio de precaución, la regulación pública del sector también podría establecer prohibiciones absolutas de producir y comercializar técnicas específicas que no ofrezcan unas garantías mínimas de fiabilidad y que se consideren demasiado arriesgadas por los daños que podrían causar.

En este contexto, sería deseable una estrategia sancionadora articulada, compuesta de medidas punitivas clásicas y medidas “programáticas” dirigidas a la adopción de específicas acciones preventivas  o correctivas por parte de la empresa.

Desde el primer punto de vista, deberían introducirse sanciones pecuniarias por infringir las normas de producción/comercialización/uso de productos de IA o por incumplir el deber de informar a las autoridades en caso de incidentes nocivos o peligrosos. Desde el segundo punto de vista, debería otorgarse al juez el poder de imponer la adopción de medidas para garantizar el cumplimiento adecuado de sus deberes por parte de las empresas y, en particular, la implantación o mejora de los mecanismos de cumplimiento empresarial y los sistemas de control interno61, a los que podría añadirse un período de supervisión pública (administrativa o judicial, en todo caso por parte de una institución pública), para comprobar escrupulosamente que cumplen con los estándares impuestas por la normativa del sector62.

61.

En el mismo sentido, véase F: Consulich, Flash offenders. Le prospettive di…

62.

Sobre las posibles reformas del sistema de sanciones contra entidades colectivas en…

Por otra parte, al menos en una primera fase de “experimentación” de la nueva legislación, es deseable un enforcement puramente sancionatorio administrativo en casos de incumplimiento de la regulación específica en materia de IA. Esto también permitiría, con el tiempo, comprender si un modelo de regulación basado en disposiciones no penales es suficiente para contrarrestar los daños que potencialmente pueden generar los dispositivos de IA.

IV. Conclusiones

En esta contribución, hemos intentado explorar las oportunidades y los retos que debe enfrentar la posible responsabilización de las empresas en relación con los delitos vinculados al uso de sistemas de IA.

En referencia a los dispositivos completamente autónomos, se ha destacado cómo actualmente existe un vacío de responsabilidad, dados los modelos de corporate criminal liability más difundidos a nivel internacional.

También se ha señalado cómo la previsión de sanciones penales dirigidas directamente contra los sistemas digitales de IA y el mismo castigo “directo” de las entidades colectivas que los utilizan no encuentra una base adecuada en el estado actual de los conocimientos científicos.

En este contexto, las únicas alternativas plausibles parecen reducirse a la introducción de sanciones punitivas contra:

(a) la organización que negligentemente no implemente medidas destinadas a contener el riesgo de producción de resultados lesivos debidos a la IA, en los casos y en la medida en que los conocimientos técnico-científicos hoy disponibles permitan identificar estrategias y acciones para prevenir un riesgo previsible: en este caso, la persona jurídica respondería por la no prevención de los daños producidos como consecuencia del uso del dispositivo de IA; o

(b) la corporation que omita adoptar las medidas de cumplimientonormativo o los estándaresestablecidos para producir y comercializar legalmente dichos productos digitales, con independencia de la producción de un delito o resultado lesivo o peligroso.

Así pues, hemos tratado de señalar los puntos fuertes y débiles de ambas opciones, cuya exposición revela lo difícil que resulta regular un universo tecnológico que está creciendo a una velocidad inimaginable hace tan sólo unos años, así como las complejas implicaciones que deben tenerse en cuenta a la hora de adoptar necesarias medidas de política legislativa63.

63.

Véase también C. Burchard, L’intelligenza artificiale come fine del diritto penale? Sulla…

Frente a estos desafíos, las estrategias para contener eficazmente los riesgos inherentes al uso de las nuevas formas de IA deben tener como objetivo el desarrollo de tecnologías al servicio de la dignidad humana, los derechos fundamentales y el progreso social, sin sacrificar – en el ámbito disciplinar en el que nos hemos centrado – los principios fundamentales del Derecho penal, como logros irrenunciables de la civilización jurídica.

Volumen Nº4

nolike

Like

Comentarios

Acceda a su cuenta o regístrese

volver

Aviso

Debe estar registrado para comentar.

Login

Campo obligatorio

El usuario o contraseña son incorrectos

Validar reCAPTCHA

¿No tienes una cuenta? Registrate

¿Has olvidado tu contraseña?

volver

Clave de acceso

Este artículo es de acceso restringido. Siga las instrucciones para obtener la clave de acceso.

volver

volver

Invitation only

REDEPEC ha optado por un sistema “Invitation Only”. Los Directores de REDEPEC contactarán con acreditados miembros de la comunidad científica para solicitarles la entrega de un artículo académico o práctico original para su publicación. La editorial Aranzadi se encargará de la edición del mismo.

volver

Se ha completado el registro exitosamente

Registro

Campo obligatorio

Lo siento, ¡esa dirección de correo electrónico ya está en uso! Clic aquí para ir login

Campo obligatorio

Las contraseñas no coinciden, inténtelo de nuevo

La contraseña debe tener al menos 8 caracteres

La contraseña debe tener al menos 1 carácter numérico

La contraseña debe tener al menos 1 carácter en minúscula

La contraseña debe tener al menos 1 carácter en mayúscula

8 caracteres mínimo, incluir números y letras sin espacios.

Campo obligatorio

Campo obligatorio

Validar reCAPTCHA

volver