Acta Académica, 76, Mayo 2025, ISSN 1017-7507

Resumen de la ponencia presentada en el primer Congreso Estudiantil sobre responsabilidad penal de la inteligencia artificial, 29 de octubre de 2024.
Summary of the paper presented at the first Student Congress on criminal liability of artificial intelligence, October 29, 2024.

Miguel Zamora-Acevedo*

Resumen:

Se analiza la posibilidad de la responsabilidad penal por daños ocasionados en la inteligencia artificial, ello mediante el estudio del ordenamiento jurídico actual.

Palabras claves: INTELIGENCIA ARTIFICIAL - RESPONSABILIDAD - DELITO - PENA - SANCIÓN.

Abstract:

The possibility of criminal liability for damage caused to artificial intelligence is analyzed, through the study of the current legal system.

Keywords: ARTIFICIAL INTELLIGENCE - RESPONSIBILITY - CRIME - PENALTY - SANCTION.

Recibido: 12 de noviembre de 2024

Aceptado: 01 de abril de 2025

¿Qué es la Inteligencia Artificial?

La inteligencia artificial es un término que está de moda. Cada minuto, se escribe sobre el tema, en diversas áreas, no solo en el derecho (Sadin, 2020, p. 17). Sin embargo, es una noción en constante evolución; aunque lo cierto es, que tal concepto no abarca una forma de pensamiento humano, pues la inteligencia artificial (I.A), lo que realiza son solo operaciones lógicas, por lo tampoco es una copia del intelecto humano, sino más bien un “modelo de pensamiento” (Gabriel, 2020, págs. 161-163), pero no el pensamiento en sí.

Además, es un tema que genera diversas emociones; por un lado, la fascinación de que aparentemente pronto existirán especies de vida formales, o acciones apocalípticas que vislumbran un panorama tipo matrix, donde las máquinas inteligentes dominen a los seres humanos; todo lo cual se traduce en la más media de comunicación: películas, series, animes, etc.

El mito actual a la inteligencia artificial también genera los miedos de cyborg inteligentes y nos traen a colación recuerdos de novelas de ficción fatalistas; sin embargo, considero que esta temática debería generarnos o impulsarnos a una mejor comprensión de nuestro mayor bien que es la comprensión de las relaciones humanas y no los miedos artificiales.

Cualquiera que sea la visión que se tenga de la inteligencia artificial, ésta no es indiferente y tiene el común denominador, que se genera en las grandes interrogantes de entender qué ¿es inteligencia? ¿cómo se puede medir? y ¿cómo funcionaría el cerebro?

La respuestas a cada una de estas preguntas tienen como base el entendimiento de la noción de inteligencia artificial. Sin embargo, para los expertos en informática la cuestión es demostrar que la inteligencia de una máquina es construirla de forma tal que se comporte o actúa como una persona humana, mostrando en consecuencia una actuación inteligente. Por ejemplo, las máquinas de limpieza automatizada.

Empero, el problema es que ahora mismo, dentro de la cultura informática de la inteligencia artificial, existen una multiplicidad de información que hacen difícil comprender el término de una forma sencilla, sin embargo, se podría intentar con antecedentes históricos y diversas caracterizaciones sobre lo es inteligencia artificial.

Así, John Mc Carthy fue uno de los primeros pioneros en decir que el término de inteligencia artificial es “ the goal lof AI is to develop machines that behave as thought they were intelligent” (Ertel, 2017, p. 1) sea, el objetivo de la AI es desarrollar máquinas que se comporten como si fueran inteligentes.

Un ejemplo de esta definición sería aquella que actualmente evidencia la construcción de algunos vehículos robóticos que en un determinado espacio o superficie se mueven siguiendo varios patrones de comportamiento evitando objetos o colisiones, como son los casos de máquinas de limpieza.

Según la visión de Mc Carthy esto es inteligencia artificial, pero resulta insuficiente porque la inteligencia artificial tiene como característica esencial que se pueden resolver problemas prácticos difíciles.

Así para la Enciclopedia Británica la I.A. es la capacidad de las computadoras digitales o de los robots controlados por computadora para resolver problemas que normalmente se asocian con las capacidades de procesamiento intelectual de los humanos.

Empero esta definición también tiene sus inconvenientes o debilidades; así, por ejemplo, una computadora con una gran capacidad de memoria puede guardar textos muy largos y recuperar bajo una pregunta algún punto en específico, lo que muestra capacidades inteligentes de memorización de textos lo cual ciertamente puede ser considerado como una capacidad intelectual humana (Morán, 2021); otra por ejemplo puede ser la multiplicación rápida de los dígitos etc.

Según esta visión entonces cada ordenador o computadora es un sistema de inteligencia artificial. Sin embargo, este dilema puede ser resuelto según la visión de Elaine Rich (Ertel, 2017, pág. 2), para quien la inteligencia artificial es el estudio de cómo hacer que las computadoras hagan cosas que al el momento la gente hace mejor.

Para esta definición, sería inteligencia artificial la computadora que derrotó a Gary Kaspárov en una partida de ajedrez, la famosa Deep Blue (Kasparov, 2017, p. 86).

Empero, para Boden (2016) es muy arriesgado concluir según esta perspectiva que la I.A. sólo se ocupa de implementaciones pragmáticas de procesos inteligentes, ya que no buscan un profunda comprensión del razonamiento humano y por ende de la acción inteligente general. (p. 9)

Ahora bien, hay que reconocer que las anteriores descripciones quedan debiendo a una mejor comprensión de la inteligencia artificial, pues la inteligencia humana tiende a un ajuste o variabilidad de gran importancia que es la capacidad de los humanos de adaptabilidad, y ello se lleva a cabo mediante el aprendizaje.

De ahí entonces que la inteligencia artificial sea todo lo que se haya dicho, siempre y cuando busque la adaptabilidad mediante aprendizaje, todo lo cual ha permitido su desarrollo y evolución dando grandes avances para la humanidad, pero también ha evidenciando posibles errores e incluso discriminación.

En consecuencia, lo que hasta entonces no se planteaba, ahora requiere su análisis; Esto es, si la inteligencia artificial falla (Laín, 2021), cabe preguntarse ¿quién pagará a los platos rotos? o ¿quién genera esa responsabilidad? o, mejor dicho, ¿sobre quién recae?

Dificultades que se presentaba la I.A. en el campo del Derecho

Como se viene indicando, la noción de I.A. evoluciona constantemente. También lo que puede y debe hacer. Así, para el uso en el campo del Derecho, tuvo que pasar por una serie de circunstancias que le dificultaban su plena aplicación al campo jurídico.

Primera dificultad: El Derecho se basa en lenguaje natural, y no se vislumbra cambio alguno.

Segunda dificultad: Las finalidades del Derecho son dinámicos. Significa que, a medida que se incrementa el conocimiento, se van modificando las conclusiones, sin necesidad de cambiar las premisas que previamente se habrían aceptado.

Tercera dificultad: El Derecho opera primordialmente en contextos de conflicto. Lo que supone la intervención de partes que buscan objetivos incompatibles, aunque partan del mismo dato (sean norma o conjunto de hechos).

Primera dificultad

Si bien es cierto el derecho presenta algunos componentes de lenguaje técnico, que lo hacen una ciencia especializada, sigue utilizando en gran medida el lenguaje ordinario es decir aquel lenguaje natural que presenta los problemas generales de polisemia o ambigüedad (semántica, sintáctica o pragmática).

Este lenguaje conlleva siempre la posibilidad de la imprecisión o lo que es lo mismo, la vaguedad conceptual y que en el derecho cobran especial relevancia al momento de la interpretación de las normas (Sadin, 2020, p. 22).

El lenguaje del derecho no puede ser formalizado, y si existía alguna posibilidad de hacerlo, se modificaría de forma radical las concepciones de todo lo jurídico y por ende lo que se conoce como Derecho cambiaría (Searle, 1999, p.135).

Este problema de la indeterminación de lenguaje jurídico, es lo que se conoce como la problemática del “no signo”.

Cuando los órganos para parlamentarios crean las normas jurídicas. Éstas van plagadas de “no signos”, pues todo lo que es expresado en lenguaje jurídico estará abierto a la interpretación (Schlick, 1974, p.20); en consecuencia, cualquier intento de formalizar tales signos y por ende limitar potencialmente el carácter interpretativo del derecho, se vería como una manipulación intolerable e ilegítima para el juzgador, quien sería el encargado de la aplicación correcta del derecho (concepción democrática de la justicia).

En consecuencia, estaríamos ante un posible dilema existencial de la ciencia del Derecho: si se recurre a la formalización, haría necesaria la intervención de una concepción más determinista de las decisiones judiciales, y por ende podría visualizarse una interpretación normativa más uniformadora; pero por otro lado se transgredía el principio de legalidad en su forma más simple que sería la división de poderes, puesto que limitaría en gran manera la capacidad interpretativa de las personas juzgadora, pues las normas vendrían formalmente listas para su aplicación y requeriría menos de la interpretación en los casos en concreto (sustitución del intelecto humano).

Segunda dificultad

La segunda dificultad se relaciona con la característica dinámica del derecho, específicamente en lo que es el razonamiento Jurídico; bajo esta concepción formal todo razonamiento jurídico es derrotable y para ello se debía eliminar alguna de las premisas que generaban la conclusión.

En este caso, recuérdese que la caracterización básica de razonamiento jurídico está en su inferencia deductiva, y esta acción deductiva se caracteriza por las reglas de la transitividad y la monotonía (Atienza, 2013, p. 174 ss); esto significa que si un determinado grupo de premisas son aceptadas y de ellas se sigue una consecuencia lógica, entonces esa misma consecuencia lógica se seguirá teniendo como conclusión por más información que se añada al primer grupo de premisas. Cómo se observa, la monotonía hace que los razonamientos jurídicos sean inderrotables.

Ahora bien, el razonamiento jurídico no es monótono, es una acción totalmente derrotable, porque al aceptar o añadir nueva información a la premisa (mayor, normas, menor hechos) se deja de aceptar tal premisa y, por ende, se cambia la conclusión. Por ejemplo, un nueva ley que viene a regular el caso, alguna prueba que cambia los hechos, de homicidio a legítima defensa, etc.

Como se indica, esta condición de derrotabilidad de las conclusiones en la decisión judicial, se volvió un gran problema.

Tercera Dificultad

En este punto existe una creencia muy extendida que si se traduce en el contexto de la unidad de los fines; se piensa que el derecho realiza o busca la aplicación de la justicia.

Empero, en el campo de la realidad, lo básico en el derecho es realizarse en operaciones conflictivas, donde cada participante (demandante, demandado, denunciado, imputado, etc.) participan en la solución del conflicto según sus intereses.

Las partes en todo proceso no buscan una actividad cooperativa para la reconstrucción de la realidad fáctica de acontecimiento que les permitiría gestionar un sistema experto o formal. Aparte, lo que ocurre en la realidad de nuestros procesos judiciales es que el ámbito jurídico se presentan pretensiones incompatibles que, en la mayoría de los casos, corresponde al juzgador determinar la realidad formal de lo que se discute.

Las partes según sus intereses pueden desarrollar diversas estrategias, como ofrecimiento de pruebas según su conveniencia y se le impone al juzgador el deber de decidir con independencia e imparcialidad; en consecuencia, la racionalidad de la decisión judicial se basa en tomar partida de este medio conflictivo basado única exclusivamente en las pruebas y reglas generales que se aplican para el caso concreto, como, por ejemplo, el principio de in dubio pro reo en materia penal.

Sin embargo esta tercera dificultad, si se elimina para la inteligencia artificial, es sencillo superar abiertamente las dificultades de la interpretación de las leyes o de las condición de derrotabilidad de las reglas como por ejemplo el sistema de programa de ayuda para la Declaración de la renta en España (PADRE), el cual se trata de un programa para rellenar el pago de impuestos donde la interpretación de las normas fiscales eran dadas por la hacienda pública y las excepciones estaban contenidas en el mismo sistema y ahí entonces es donde no existía la conflictividad.

¿Qué cambia ahora con la I.A.?

Ahora la Inteligencia artificial modifica totalmente la perspectiva y supera las dificultades apuntadas.

Actualmente el Big Data (Sadin, 2020, p. 121) y la Machine Learning hacen posible el manejo del lenguaje natural, lo cual conlleva a una superación de las antiguas formas informáticas que se generaban con el lenguaje natural.

Por ejemplo, el Big data hace posible la multiplicidad exponencial de las volúmenes de información para el procesamiento de los datos. (Por ejemplos, los principales criterios de resolución de casos).

La machine Learning que tiene la capacidad de tener algoritmos que van aprendiendo en la medida que los procesos de datos avanzan (Sadin, 2020, p. 254). Es decir, siguen ciertos patrones de datos que son dados como punto de partida y la máquina es capaz de encontrar nuevos patrones basados en información con lo que se trabaja.

Así entonces el Big Data, por ejemplo, no se fija en reglas establecidas, sino que lo hace tomando como base la información de referencia. Así, si busco una traducción no sigue literalmente la que diga un diccionario, sino los patrones de traducción que sean seleccionado en múltiples diccionarios o textos es decir selecciona el uso probabilístico.

Lo anterior nos lleva a entender que en el mundo actual el derecho no puede quedarse atrás de la automatización de la inteligencia artificial. Deben desarrollarse estrategias que busquen superar las dificultades de su implementación; por ejemplo, la interpretación de la ley, la construcción de razonamiento judicial y la singularidad de la aplicación y realización del ordenamiento jurídico en las personas.

Criterios de aplicación de las teorías existentes a la inteligencia artificial

Se aclara que aquí, el análisis que se pretende establecer es sobre la inteligencia artificial que no está programada de forma directa y precisa para causar daños a las personas. Cómo sería el caso de los drones asesinos o de aparatos de guerra electrónica, diversas naves programas con inteligencia artificial para la guerra. Lo que se busca en las presentes notas, es estudiar las posibles consecuencias de la inteligencia artificial que no se genera para causar daño, como, por ejemplo, los carros autónomos que podrían causar la muerte, lesión a afectación a propiedad privada.

Siendo así, la primer proyección que se debe comparar, es la posible responsabilidad penal de la I.A. con la responsabilidad penal de las personas jurídicas.

En este caso la persona física va a ser el individuo del especie humana que posee la capacidad de adquirir obligaciones y tener derechos. Extrapolándose estos dos caracteres en la capacidad jurídica en general, por lo cual, los actos del ser humano contarían con plena eficacia jurídica.

En este tanto la personalidad según la normativa civil se adquiere con el nacimiento, de ahí que la persona física contiene dos componentes esenciales como es la parte biológica y la capacidad jurídica en general que se ha indicado; lo cual no se puede asociar a una entidad autónoma o robótica o inteligencia artificial avanzada.

Pues bien es en este punto, en que se cuestiona si sería posible contemplar la inteligencia artificial con una persona jurídica.

Siendo así se recuerda que la persona jurídica es una identidad abstracta, sin evidencia física pero que está sujeta a derechos y obligaciones porque es un constructor legal de ficción jurídica. Dichas caracterizaciones, en tesis de principio se podrían atribuir a las nuevas formas de inteligencia artificial, pero existen muchas diferencias que impedirían un tratamiento semejante.

Si es cierto ambas podrían tener caracteres comunes, cómo sería que, son distintas a su propietario y por ende susceptibles de apropiación, lo que significa que su capacidad es independiente al de sus dueños; también tendrían semejanzas en la capacidad de asimilar una posible capacidad de obrar. Sin embargo, con esta última posibilidad, sea la de otorgarle a capacidad de obrar a la inteligencia artificial es que se comienzan a establecer tropiezos ya que, para poder ejercer sus derechos, se tendría que tener un grado de madurez o discernimiento establecido en la ley, circunstancias que no se podrían asociar a la condición o cualidad de la inteligencia artificial.

Precisamente esa capacidad de autogobierno es lo que hace a la persona física capaz; actualmente ninguna inteligencia artificial tendría dicha capacidad. En consecuencia, la noción de personalidad jurídica, como categoría no podría asociarse a ningún robot o sistema computacional inteligente.

La otra alternativa es la creación de otra ficción jurídica que podría ser denominada, la personalidad electrónica siendo una categoría intermedia entre la físico y las personas jurídicas. Empero, para ello había que definir el grado de autonomía e inteligencia que se pudiera asignar a dicha personalidad electrónica para poder establecer la relación entre derechos y obligaciones y a partir de ahí examinar las posibles responsabilidades derivadas de sus actos lesivos.

En lo personal considero que la evolución tecnológica de la inteligencia artificial al momento actual (y dentro de lo que he podido estudiar), no es suficiente para adoptar de dicha categoría a cualquiera aparato computacional pues le faltaría la autoconciencia, autos gestión y en general el auto aprendizaje para tener una capacidad de hacerse responsable de sus decisiones.

Siendo así, pareciera que la semejanza y posibles cambios hacia la inteligencia artificial necesita de una mayor precisión o en su defecto, buscar alternativas en la legislación e instrumentos jurídicos vigentes para poder responden ante eventuales daños donde se involucre una inteligencia artificial.

Perspectivas actual

Actualmente ningún ordenamiento jurídico conoce el estatus de persona electrónica y por tanto no existe capacidad de obrar para ser responsable civil o penalmente a los aparatos con inteligencia artificial.

Cualquier aparato o sistema computacional con inteligencia artificial, es una cosa y por tanto un objeto carente de vida y que se caracteriza por ser susceptible de apropiación por parte de alguien más que si lo tenga.

En consecuencia, considero que la respuesta actual y más adecuada sería la de buscar la responsabilidad en el origen humano, detrás de la inteligencia artificial y así, dotar de garantías de seguridad jurídica, tanto para las personas o bienes que se involucran y aquellos que utilizan, fabrican y producen, respecto a los que consumen o utilizan objetos o cosas manejados por la inteligencia artificial.

En este caso, lo correcto es centrarse en la figura del rey jurídico actual, tanto de responsabilidad civil por daños causados por entes autónomos con inteligencia artificial, como por aquella responsabilidad que se pueda derivar por el mal uso, defecto o vicios ocultos de la cosa.

Incluso en materia de responsabilidad donde se involucren entes autónomos, siempre está de por medio un agente humano concreto (Morán Espinosa, 2021) para imputar las acciones u omisiones, sea del fabricante el operador, propietario o incluso el usuario (mal uso) en los cuales se puede por anticipado prevenir o evitar los eventuales daños que ocasionen la I.A.

Me parece que el estado actual de las cosas, hacen viable y sobre todo sensato y razonable tener a los fabricantes, operadores, propietarios o usuarios como personas objetivamente responsable de cualquier acto u omisión realizado por la I.A. que ocasiona un daño o una lesión a otros.

Esto porque siempre habrá la posibilidad de referirse a algún tipo de manipulación humana (back end, quien es la persona que opera el sistema, pero no lo utiliza y el front end: es la persona que opera el sistema y lo utiliza (Laín, 2021)), donde se ha querido sacar provecho de ella o bien, se utiliza en el marco de una relación comercial, en cuyo caso, cualquier defecto o problema, se podría atribuir como un defecto en la construcción, en instrucciones de manejo, en la utilidad distinta para la cual fue creada, etc. Y los anteriores casos considero que se presentan los presupuestos requeridos para la responsabilidad civil.

En cuanto a la responsabilidad penal, una sus posibles imputaciones serían por la utilización de la omisión por comisión, donde el vendedor productor comerciante asume la proposición de garante por responsabilidad por el producto. Lo cual, como se viene indicando, siempre hay de referencia a una persona en concreto a la cual se le puede establecer el nexo de causalidad entre el daño y en este caso la omisión.

En igual sentido, lo prudente sería la obligatoriedad del uso de seguros por el posible uso de producto defectuoso. En el cual se entiende que el producto defectuoso es el que no ofrezca la seguridad jurídica que se esperaría teniendo en cuenta las circunstancias su presentación y el uso razonable del mismo.

A nivel de expertos se establecen algunas normas básicas (Laín, 2021) que se deben de tomar en cuenta para elaboración de una nueva normativa sobre la responsabilidad de las personas jurídicas, en la cual, se debería tomar en consideración los siguientes puntos:

a. Responsabilidad objetiva del usuario: El usuario de una tecnología lícita, pero que implique un riesgo de daño relevante para terceros, debe estar sujeto a un estricto régimen de responsabilidad objetiva por los daños causados.

b. Responsabilidad según el grado de control sobre la tecnología: Cuando exista un proveedor de un servicio equipado con IA que garantice el marco técnico necesario para operar con dicha tecnología y un propietario o usuario del mismo producto o servicio, debe tenerse en cuenta el grado de control de cada parte sobre el aparato para determinar quién opera principalmente la tecnología a efectos de determinar la responsabilidad por daños.

c. Nivel de diligencia exigible: Al usuario de una tecnología que no represente un mayor riesgo de daño para los demás se le debe exigir que cumpla con los deberes de seleccionar, operar, controlar y mantener adecuadamente dicha tecnología; en caso contrario, debe ser considerado responsable por incumplimiento de dichos deberes si causa un daño a terceros y concurre culpa.

d. Responsabilidad por uso de tecnología autónoma: El usuario de una tecnología con cierto grado de autonomía no debería ser menos responsable del daño resultante del uso de la misma que si dicho daño hubiera sido causado por un auxiliar humano del mismo.

e. Responsabilidad por productos defectuosos: Los fabricantes de productos o contenidos digitales que incorporen tecnologías digitales emergentes, deberían ser considerados responsables de los daños causados por defectos en dichos productos, incluso si el defecto fue causado por cambios introducidos en el producto una vez comercializado.

f. Seguro obligatorio: Para situaciones que exponen a terceros a un mayor riesgo de daños, el seguro de responsabilidad civil obligatorio podría brindar a las víctimas un mejor acceso a la indemnización, protegiendo a los posibles causantes del daño ante su responsabilidad.

g. Carga de la prueba del daño: Cuando una tecnología concreta incremente la dificultad para demostrar la existencia de un elemento de responsabilidad más allá de lo razonable, las víctimas deben tener derecho a un asesoramiento sobre dicha prueba.

h. Registro de actividad de los dispositivos: Las tecnologías digitales emergentes deben comercializarse con un registro de actividad apropiado a sus características. La falta de sistema de registro, o de un sistema de acceso razonable a los datos registrados, debe dar lugar a una inversión de la carga de la prueba para no perjudicar a la víctima.

i. Responsabilidad por pérdida de datos del usuario: La destrucción de los datos de la víctima debe considerarse como daño compensable.

j. Personalidad jurídica: No es necesario otorgar a los dispositivos o sistemas autónomos una personalidad jurídica, ya que el daño que pueden causar puede y debe ser atribuible a personas u organismos existentes.

Conclusiones

La responsabilidad de la I.A. es un tema fundamental que debe abordarse en cualquier ordenamiento jurídico, con la finalidad de tener seguridad jurídica y evitar eventuales disyuntivas cuando se presenten en casos discutibles donde se involucre un ente de autonomía o inteligencia artificial.

Empero, eso no significa que se deba prolongar el ordenamiento jurídico penal para tratar de involucrar la responsabilidad penal a antes carentes de capacidad, pues en estos casos la respuesta jurídica iría por otro rumbo.

La I.A. no es un sujeto de derecho pues no tiene capacidad de actuar, ni se le reconoce actualmente de personalidad jurídica, por lo que de momento la responsabilidad penal por las delitos cometidos utilizándola, solo se podrían imputarse a las personas físicas que utilizaran esta tecnología, o que la programaran para delinquir, siempre y cuando exista criterios de imputación penal para ello (responsabilidad por el producto por ejemplo).

Como se ha venido señalando, lo conveniente es utilizar los instrumentos de la responsabilidad civil y el régimen de seguros obligatorios, para buscar el resarcimiento ante antes posibles daños ocasionados por entes autónomos sistemas computacionales y en general cualquier objeto que actúe por inteligencia artificial.

En dado caso, si lo que se pretende es la vinculación penal, esta sólo se podría establecer hacia la persona humana, mediante lo supuestos de la responsabilidad por el producto que sería la condición de garante en los casos de omisión impropia.

Referencias

Atienza, M. (2013). Curso de Argumentación Jurídica. Trotta.

Boden, M. (2016). Inteligencia artificial. Turner Publicaciones.

Ertel, W. (2017). introduction to Artificial Intelligence. Springer.

Gabriel, M. (2020). El sentido del pensamiento. Pasado y Presente.

Kasparov, G. (2017). Deep Thinking. Public Affairs.

Laín, G. (2021). Responsabilidad en inteligencia artificial. Ars Iuris Salmanticensis, 197-232.

Morán, A. (2021). Responsabilidad penal de la inteligencia artificial (IA) ¿La próxima frontera? Revista del Instituto de Ciencias Jurídicas de Puebla, 289-323.

Sadin, E. (2020). La inteligencia artificial. Caja negra.

Searle, J. (1999). Mind, language and society. Master minds.

Schlick, M. (1974). General Theory of knowledge. Springer.

Xavier Januário , T. (2023). Inteligencia artificial y responsabilidad penal de personas jurídicas: un análisis de sus aspectos materiales y procesales: Un análisis de sus aspectos materiales y procesales . Estudios Penales y Criminológicos44(Ext.), 1-39. https://doi.org/10.15304/epc.44.8902

* Máster en Sociología Jurídico Penal, Universidad de Barcelona, Máster en Argumentación Jurídica, Universidad de Alicante, Máster en Razonamiento Probatorio, Universidad de Girona y Génova, Profesor universitario Universidad Autónoma de Centro América, defensor público, juez de juicio, juez de apelación de la sentencia penal en materia penal de adultos. San José, Costa Rica. Correo electrónico: jzamora@profuaca.ac.cr