Aproximación a la inteligencia artificial como factor micro y macrocriminógeno*
An Approach to Artificial Intelligence as a Criminogenic Factor
Roberto Navarro-Dolmestch**
Universidad de Tarapacá (Chile)
Resumen: Este artículo analiza el potencial de las tecnologías de inteligencia artificial (IA) para actuar como factores criminógenos, esto es, como causas de fenómenos delictuales. El análisis se hace distinguiendo dos perspectivas en las que dicho rol puede concretarse. En una perspectiva microcriminógena, se sostiene que las tecnologías de inteligencia artificial tienen la capacidad técnica para involucrarse directa o indirectamente en la comisión de delitos o de conductas que, por su peligrosidad o dañosidad, deberían serlo. En una perspectiva macrocriminógena o estructural, se sostiene que la conformación de un capitalismo de la IA puede producir un aumento de la conflictividad social o un uso intensivo del sistema penal para proteger el propio sistema económico construido a partir de las IA.
Palabras clave: Inteligencia artificial, responsabilidad penal, factor criminógeno, imputación de responsabilidad, delitos de IA.
Abstract: This paper examines the potential of artificial intelligence (AI) technologies to function as a criminogenic factor, namely as causes of criminal phenomena. The analysis distinguishes two perspectives from which this role may materialize. From a microcriminogenic perspective, it is argued that AI possesses the technical capacity to become directly or indirectly involved in criminal offenses or in conduct that, due to its dangerousness or harmfulness, should be criminalized. From a macrocriminogenic or structural standpoint, it is posited that AI-driven capitalism may increase social conflict or lead to an intensified reliance on the criminal justice system to protect the economic order built around AI.
Keywords: Artificial intelligence, criminal liability, criminogenic factor, liability attribution, AI crimes.
CONTENIDO: I. INTRODUCCIÓN.- II. ATRIBUIR CARÁCTER CRIMINÓGENO A LAS IA.- III. PERSPECTIVA MICROCRIMINÓGENA.- IV. PERSPECTIVA MACROCRIMINÓGENA O ESTRUCTURAL.- V. CONCLUSIONES Y DISCU-SIONES FUTURAS.
I. INTRODUCCIÓN
La irrupción de las tecnologías de inteligencia artificial (en adelante, TIA)1 ha abierto nuevos campos de estudio. Uno de ellos, que no ha recibido suficiente atención por parte de la literatura especializada, es el de la descripción de los contextos en los que tales tecnologías pueden causar o contribuir con el surgimiento de conflictos jurídico-penales. En esa línea, este artículo explora descriptivamente la hipótesis de que las TIA operan como un factor criminógeno, análisis que reconoce dos perspectivas. La primera, que denominaré «microcriminógena», se refiere a la vinculación de las máquinas inteligentes con la ejecución de conductas descritas por la ley como delito o al surgimiento, gracias a las TIA, de nuevos comportamientos que, por su peligrosidad o lesividad, deberían ser configurados como delitos. La segunda, que llamaré «macrocriminógena» o «estructural», apunta a la capacidad de las TIA para profundizar las estructuras capitalistas que causen un aumento de la conflictividad social y, con ello, una presión directa e indirecta sobre el poder punitivo del Estado.
El enfoque adoptado en este artículo requiere ser distinguido de otro que ha concentrado la atención de la dogmática penal dedicada al estudio de las TIA (Freitas et al., 2014, p. 154). Me refiero al problema del procesamiento de los conflictos jurídico-penales en los que pueden verse involucradas aplicaciones de IA y que puede sintetizarse en el interrogante: ¿qué hacer cuando las máquinas inteligentes «cometen» delitos? La respuesta a esta pregunta requiere, en particular, analizar si las estructuras de imputación sobre las que se construye el derecho penal responden adecuadamente a comportamientos en los que una máquina inteligente se involucre directa o indirectamente; si es necesario, reformar esas estructuras o adoptar otras nuevas, aptas para responder a la realidad de las IA (Dremliuga & Prisekina, 2020); o, si es preciso, buscar formas de regulación distintas del derecho penal.
La criminología positivista ha entendido los factores criminógenos como «las leyes a través de las cuales [los] factores condicionantes llevan necesariamente a la acción criminal» (Pavarini, 2002, p. 103). Se trata, como se ve, de un concepto relacional que busca descubrir la vinculación entre uno o más elementos externos al sistema penal, los cuales causan la operación de este último. Este es el enfoque que aquí se adopta sobre el factor criminógeno.
El artículo se inicia estableciendo la diferencia fundamental de carácter ontológico entre las tecnologías informáticas convencionales y las TIA que justifica poder atribuirle solo a estas últimas el carácter de factor criminógeno, en la forma en que este último concepto se adopta aquí y con el contenido que se desarrollará en el siguiente apartado. El tercer y cuarto apartado del artículo se destinan, respectivamente, al análisis de cada una de las formas en las que se concreta el carácter criminógeno de las IA; esto es, las aquí denominadas perspectivas «micro» y «macrocriminógena». Finalmente, el artículo proporciona las conclusiones del trabajo y anticipa problemas que serán objeto de investigaciones futuras.
En la elaboración de este artículo se ha empleado una metodología de tipo lógico que comprende las funciones de análisis y de síntesis, con técnicas principalmente deductivas. En la revisión bibliográfica se ha recurrido principalmente a fuentes publicadas en el ámbito angloamericano porque es allí donde se ha originado el mayor volumen de investigación en materia de IA.
II. ATRIBUIR CARÁCTER CRIMINÓGENO A LAS IA
Es indudable que las armas y las bombas son dispositivos tecnológicos que, debidamente operados, tienen relevancia causal desde un punto de vista material en la producción de la muerte de alguien. En un caso concreto de homicidio, si el arma o la bomba se eliminan mentalmente, muy probablemente desaparecerá también el resultado muerte de esa persona. Pero la relevancia del arma o de la bomba no va más allá de la de ser instrumentos con los que alguien decidió matar a otra persona; mientras que para el derecho penal tendrán significado solo en cuanto el uso de esos dispositivos servirá para aumentar la pena que puede imponerse a quien decidió matar a otro percutiendo el arma o detonando la bomba. Sin perjuicio del rol causal-material de tales dispositivos tecnológicos, no tendría sentido atribuirles el carácter de factores criminógenos, sino solo el carácter de meros instrumentos. Las que en la causación intencional de la muerte de otra persona constituyen factores criminógenos son las condiciones que operan no sobre el arma o la bomba, sino sobre quien aprieta el gatillo o activa el detonador como, por ejemplo, la marginalidad o el crimen organizado.
Por consiguiente, si las TIA son también dispositivos tecnológicos, atribuirles el carácter de factor criminógeno debería carecer de sentido. Sin embargo, hay algo distinto entre las armas y las bombas, por un lado, y las TIA, por otro. Entre el grupo integrado por las armas y las bombas, que son tecnologías convencionales, y las inteligencias artificiales (IA), hay diferencias ontológicas que justifican atribuirles a estas últimas el carácter de factor criminógeno y negárselo a las primeras. Las IA y la «amplia familia de las tecnologías digitales» (Ernst, 2022, p. 150) son un tipo de ingeniería radical que «no solo diseña, construye o estructura un sistema (por ejemplo, una empresa, una máquina o algún artefacto) de nuevo, sino que transforma fundamentalmente su naturaleza intrínseca, es decir, su ontología» (Floridi, 2017, p. 125). No es posible ahondar en este espacio sobre este interesante tópico y solo se puede exponer someramente que tales diferencias pueden describirse desde diferentes perspectivas2. En lo que aquí interesa, dos son especialmente relevantes: la del esquema de relaciones para el uso de la tecnología y la de la intencionalidad compuesta.
En la primera de las perspectivas indicadas, la diferencia entre las TIA y las tecnologías convencionales radica en el esquema de relaciones para la utilización de cada una de ellas. Las tecnologías aquí llamadas convencionales son clasificadas por Floridi en dos grupos. Las de primer orden son las que reconocen a una persona como su agente, como el uso de un sombrero para evitar los rayos del sol (caso en el que el estímulo es natural: los rayos del sol); y las de segundo orden también reconocen un agente humano, pero respecto de un estímulo que es otra tecnología (por ejemplo, la carretera por la que circula el vehículo). En estos dos grupos de tecnologías, su esquema de relaciones de uso requiere de una persona que cumpla la función de agente pues, sin dicho agente, el dispositivo tecnológico es inútil. El cambio paradigmático de las tecnologías digitales y la IA (caracterizadas por Floridi como «tecnologías de tercer orden») consiste en que en su utilización la persona puede ser completamente excluida como sujeto o como estímulo, ya que su relación de uso puede configurarse directamente entre dispositivos tecnológicos operando entre sí (Floridi, 2014, pp. 29-30) con prescindencia de personas. Un ejemplo de esta realidad ha sido el desarrollo de los sistemas ciberfísicos aplicados a vastos procesos productivos compuestos por «varios dispositivos integrados [que] están conectados en red para detectar, monitorear y activar elementos físicos en el mundo real», y que «se caracterizan por una estrecha integración y coordinación entre los procesos físicos y de computación» (Monostori et al., 2016, p. 623), cuya escala y eficiencia se magnifica cuando se agregan TIA (Demir & Çakmak, 2023, p. 201). Esta diferencia en el esquema de las relaciones de uso de las tecnologías de tercer orden (en las que la IA es su fastigio) les otorga un carácter tanto «transformativo» (Gruetzemacher & Whittlestone, 2022) como «disruptivo» (Barfield, 2018, p. 4; García Sánchez, 2021, p. 101). A ello hay que agregar que las TIA pueden actuar en coordinación con el ambiente en el que se desenvuelven, tomando información proveniente de este e influyéndolo. Por eso, las armas y las bombas por sí mismas no determinan una relación causal-funcional con la muerte de una persona porque siempre requieren ser percutidas o detonadas; las IA, en cambio, sí pueden determinarla.
La segunda de las perspectivas diferenciadoras, esto es, la de intencionalidad compuesta, tiene un fuerte impacto en el enfoque del tratamiento jurídico de los conflictos generados por las TIA y también es una justificación sobre la atribución a estas tecnologías de su carácter de factor criminógeno. El concepto de intencionalidad compuesta fue propuesto por Verbeek (2011) y es parte de una concepción postfenomenológica de la filosofía de la tecnología que pretende la superación del esquema propio de la modernidad de la escisión entre individuos y objetos, proponiendo, en cambio, que existe una mediación tecnológica en virtud de la cual los dispositivos tecnológicos influyen en nuestras decisiones de la vida diaria. Verbeek explica, basado en los trabajos de Ihde, que los dispositivos, «al mediar nuestra relación sensorial con la realidad, transforman lo que percibimos» (p. 9); y que, en consecuencia, «las tecnologías tienen “intenciones” y, por lo tanto, no son instrumentos neutrales, sino que juegan un papel activo en la relación entre los humanos y su mundo» (p. ٩). Esto tiene especial importancia por, al menos, dos razones.
La primera, es que los aparatos tecnológicos pasan a ser elementos relevantes en las decisiones que adoptamos y, directa o indirectamente, influyen en los juicios morales que podemos hacer sobre nuestros comportamientos. El autor ejemplifica esto con varias referencias en su obra al ecógrafo. Al permitir este dispositivo conocer y diagnosticar el estado de salud del feto, pone a sus progenitores en la situación de evaluar acciones morales a su respecto, como en el caso de que el feto presente alguna condición o enfermedad que va a impedir su vida autónoma o la determinará negativamente, y que podría llevar a adoptar la decisión de poner término al embarazo causando su muerte, ya sea que el aborto esté o no permitido por el ordenamiento jurídico.
La segunda importancia consiste en que «las “intencionalidades” o direccionalidad de los propios artefactos tecnológicos tienen un papel central, ya que interactúan con las intencionalidades de los seres humanos que utilizan estos artefactos» (p. 145), de modo que, cuando se produce una interacción entre la intencionalidad humana y la del artefacto, «surge una intencionalidad compuesta: una forma de intencionalidad que resulta de sumar la intencionalidad tecnológica a la intencionalidad humana» (p. 145). Estos aspectos llevan al autor a formular una crítica a las concepciones éticas de la modernidad (humanismo) que repara en la insuficiencia de estas para explicar el mundo actual, altamente tecnologizado. Esas concepciones se basan en una distinción axiomática entre sujetos y objetos que, a juicio del autor, choca con la realidad. Verbeek sostiene (2009) que «[n]uestra realidad es una red de relaciones entre entidades humanas y no humanas que forman realidades siempre nuevas sobre la base de conexiones siempre novedosas» (p. 245), y que esta obliga a explorar un enfoque posthumanista de la ética. Por la fecha de publicación de los trabajos de Verbeek, es probable que su autor no haya tenido en mente directamente a las TIA y, de hecho, estas no son mencionadas como tales por él. Pero ello no impide observar que el diagnóstico efectuado tiene aún más plausibilidad cuando se consideran las TIA, ya que la presencia en estas tecnologías de «intencionalidad» (en el sentido de Verbeek) es más clara que en las tecnologías convencionales.
Estas ideas han sido llevadas al derecho penal por Inatani (2022). El autor plantea que la teoría del derecho penal está fuertemente determinada por el enfoque humanista y que, en consecuencia, también se funda en la distinción entre sujetos y objetos que lleva, entre otros aspectos, a la negación de la responsabilidad para las máquinas y su atribución exclusiva a los sujetos, derivada de la misma conclusión de la ética humanista para la agencia. Tanto el enfoque deóntico como el consecuencialista —afirma Inatani— «esencializan la forma de existencia humana basada en el humanismo moderno y no pueden dejar espacio para evaluar ninguna relación interpenetrante entre sujetos y objetos» (p. ٣٢), lo que produce consecuencias, por ejemplo, en el ámbito de la culpa o negligencia. El autor pone el siguiente ejemplo: si un conductor pierde el control del vehículo que conduce y causa una fatalidad, este puede ser responsabilizado por no haber desarrollado la suficiente destreza para controlar el automóvil; pero el análisis de la culpa del conductor también debería considerar la dificultad que representa el propio vehículo para ser controlado por un conductor humano, porque «por el hecho de que algunos artefactos son más fáciles de encarnar que otros […], también puede entenderse como un fallo del diseño del artefacto que afecta a los humanos» (p. 33).
Aunque tengo distancia respecto del proyecto superador del enfoque humanista propuesto por Verbeek e Inatani, que ha sido objeto de críticas (Schlienger, 2024), no puede negarse que sus puntos de vista tienen espacios importantes de validez, sobre todo cuando se analiza la relación del derecho penal con los desarrollos tecnológicos, tanto a nivel sistémico como en la teoría del delito. Por ejemplo, la percepción de los riesgos provenientes, entre otros, de la tecnología, ha propiciado una política criminal expansiva, un aumento en la inclusión en el sistema jurídico de delitos de peligro y el surgimiento de la teoría del derecho penal del riesgo (Albrecht, 2000, pp. 473-474; Castaldo, 1997, p. 234; Feller Schleyer, 2005, pp. 44 y ss.; Silva Sánchez, 2011). Y, como se dijo previamente, se ha comenzado a estudiar la compatibilidad del derecho penal, tanto en su faz normativa como dogmática, con el surgimiento de las TIA, espacio en el que «las construcciones jurídicas tradicionales presentan múltiples fisuras, difíciles de abordar desde las concepciones dogmáticas consolidadas» (Benítez Ortúzar, 2023, p. 499). La existencia de la intencionalidad compuesta, generada a partir de personas y máquinas inteligentes, impondrá la necesidad de revisar no solo el concepto y la aplicación jurisdiccional de la culpa o la negligencia, como en el ejemplo de Inatani, sino también a preguntarse de qué forma la conducta, la tipicidad y la culpabilidad se ven afectadas por las TIA. A mi juicio, un claro caso de estas repercusiones es el de la probable necesidad de completar el catálogo de casos que configuran la autoría mediata, agregando a estos la actuación a través de una máquina inteligente. La necesidad de revisión surge porque la autoría mediata es un tipo de autoría individual que «descansa en la competencia por una agencia ajena deficitaria» (Mañalich, 2010, p. 395), de modo que, en la forma en la que actualmente se la concibe, se requiere la utilización de una persona como instrumento (Romeo Casabona, 2022, pp. 10-11; 2023, p. 701). Por decisión legislativa, las máquinas inteligentes carecen de todo tipo de agencia, de modo que su intervención material en la realización del tipo impediría la configuración de dicha autoría mediata para el humano detrás, que se prevale de una aplicación de IA para la ejecución de la conducta típica. La otra opción es abocarse a la creación de una nueva modalidad de intervención delictiva en un hecho punible o título de imputación personal, consistente en la actuación propia a través de una máquina inteligente. Pero estas cuestiones son objeto del enfoque del que este trabajo intenta diferenciarse.
En lo que aquí interesa: las dos diferencias de las IA con las tecnologías convencionales antes apuntadas permiten, a mi juicio, atribuirles el carácter de factor criminógeno y negárselo a las tecnologías convencionales. Las capacidades de las máquinas inteligentes (sensores y percepción, razonamiento y toma de decisiones, y actuación [European Comission & High-Level Expert Group on Artificial Intelligence, 2018; Sibai, 2020]), unidas a sus propiedades (autonomía, interactividad y adaptabilidad [Floridi & Sanders, 2004, pp. 357-358])3, permiten a los algoritmos de IA realizar funciones, resolver problemas, generar contenido o efectuar predicciones (Fincan, 2022, p. 33). Ello se logra emulando las capacidades cognitivas de aprendizaje propias de la inteligencia biológica o natural, usando técnicas estadísticas (Sabouret, 2022, p. 188). Con valor descriptivo, pero no exento de exageración, se ha llegado a sostener que el desarrollo de estas capacidades de las TIA ha llegado hasta «un punto en el que claramente podemos decir que el pensar ya no es un privilegio exclusivo de mentes vivientes» (Farhadi, 2021, p. 1035). Sin embargo, por el momento, los algoritmos de IA pueden ser especialmente útiles y sobredotados, pero solo en el cumplimiento de funciones específicas para las cuales son programados.
Desde siempre, los desarrollos tecnológicos han planteado al derecho nuevos escenarios y conflictos que debe resolver (Mandel, 2007; Massaro & Norton, 2018), lo que es especialmente válido para las máquinas inteligentes y, dentro de ellas, las que presentan «autonomía» (Borges, 2022), característica que amerita un inciso específico. Tanto en la filosofía (Cooper, 2025) como en el derecho, la autonomía es un concepto complejo (Asada, 2020); y también lo es en la informática y la robótica, áreas en las que la autonomía ha sido calificada como «elusiva y ambigua» (Noorman & Johnson, 2014, p. 55). El principal problema con el uso de la expresión «autonomía» consiste en que, basado en una confusión con la autonomía como condición inherente al ser humano, pueden situarse en dicha característica técnica expectativas infundadas para las máquinas. Behdadi y Munthe (2020) prefieren denominar «independencia» a dicha característica, decisión que no queda exenta de reparo por hacer también referencia tanto a una condición humana como a un estado político (p. 199). En mi caso, prefiero reemplazar la expresión «autonomía» por otra creada al efecto: autonomatismo. Esta evoca la idea de independencia del control (autono-mía), por un lado; pero queda vinculada a un ámbito propio del desenvolvimiento de las máquinas que consiste en el auto-matismo, esto es, la capacidad de ejecutar funciones guiadas por reglas prescriptivas, pero que no permiten desviaciones (Defense Science Board, 2016, p. 4). El contenido para el concepto aquí propuesto de autonomatismo coincide con el de autonomía de las máquinas, por lo que la palabra, aunque no agrega algo novedoso, es, sin embargo, útil porque evita la confusión entre los varios sentidos que tiene el concepto de «autonomía». El autonomatismo consiste en «la habilidad de una máquina para ejecutar una tarea sin intervención humana» (Scharre & Horowitz, 2015, p. 5) en la que «la máquina no está bajo el control directo de ningún otro usuario o agente» (Sullins, 2006, p. 28; 2011, p. 158); es decir, es la «capacidad de componer y seleccionar de forma independiente diferentes cursos de acción para lograr objetivos en función de su conocimiento y comprensión del mundo, de sí mismo y de la situación» (Defense Science Board, 2016, p. 4). La conjugación de las capacidades y las características de las máquinas inteligentes les permiten percibir estímulos del ambiente, ejecutar acciones y resolver problemas usando soluciones que eran originalmente desconocidas para el operador humano (Barfield, 2018, p. 5), lo que abre la posibilidad de delegarles acciones que hasta su surgimiento eran de monopolio exclusivo de las personas.
La tríada de capacidades de percepción-razonamiento-actuación de las IA, unida a su autonomatismo, permiten otorgarles la condición de factor criminógeno, en atención a que todas estas concurren a que las IA sean desarrollos tecnológicos de tercer orden y a la configuración de la intencionalidad compuesta. Es cierto que estas dos notas no solo se presentan en las IA, sino también, en general, en las tecnologías digitales, que es un grupo dentro del cual las IA son una especie. Pero también es cierto que en las IA estas notas se muestran con una especial claridad, y permiten que estas se verifiquen a un nivel y con una intensidad que no es posible en lo digital convencional. Las IA se erigen como una categoría anómala que no coincide propiamente con la de instrumento (como son propiamente las tecnologías de primer y segundo orden), en atención a su autonomatismo4 y a que pueden vincularse directamente entre dispositivos; pero tampoco con la de agente (Calo, 2015, pp. 545 y ss.)5. Por eso, es la propia IA la que puede actuar como la explicación causal de la comisión de un delito o de la generación de un estado criminoso, a diferencia de las tecnologías convencionales. Ya no se trata de una máquina que puede ser usada como instrumento para matar, sino de una que puede decidir cuándo y a quién matar.
Justificada la posibilidad de atribuirle a las máquinas inteligentes el carácter de factores criminógenos, queda por abordar una cuestión distinta, que son las formas en las que las IA concretan tal carácter. Estimo que esas formas son básicamente dos: las IA pueden actuar como un factor microcriminógeno o como uno macrocriminógeno o estructural, tal como se verá en los apartados siguientes.
III. PERSPECTIVA MICROCRIMINÓGENA
La vinculación de las máquinas inteligentes puede presentarse de formas variadas y en distintos niveles. Por ejemplo, en la clasificación propuesta por K. J. Hayward y Maas (2020) entre crimes with AI, crimes on AI y crimes by AI (Blauth et al., 2022; Mamak, 2023; Sachoulidou, 2024), la última categoría recoge la más directa relación de una máquina inteligente con una actividad criminal, ya que esta comprende los casos en los que es el propio dispositivo el que ejecuta la conducta y para los que, destacan los autores, se ha «sugerido que ya es posible otorgar a ciertos algoritmos cierta apariencia de personalidad jurídica» (K. J. Hayward & Maas, 2020, p. 9)6. Es esta tercera categoría la que representa el principal interés para este trabajo. Asimismo, la clasificación propuesta por Romeo Casabona (2022, pp. 10-11; 2023, pp. 701-703) distingue entre el sistema de IA como mero instrumento de la acción humana, que hace responsable personalmente a su usuario, y la IA que actúa autónomamente, caso en el que «ni el propietario ni el creador o diseñador del sistema inteligente tienen la capacidad de un control previo sobre las decisiones que pueda adoptar el sistema inteligente» (Romeo Casabona, 2022, p. 11; 2023, p. 703). Todas estas propuestas apuntan a lo que denomino la «perspectiva microcriminógena», que se refiere al rol criminógeno en relación con determinadas conductas peligrosas o dañinas y, por consiguiente, con específicos bienes o intereses protegidos.
La perspectiva microcriminógena puede desdoblarse en dos formas específicas: a) la posibilidad de que las máquinas inteligentes se vinculen estrechamente con la ejecución de una conducta descrita como delito por el ordenamiento jurídico o que sean esas máquinas las que directamente las ejecuten; y b) la posibilidad de que las máquinas inteligentes sean capaces de ejecutar comportamientos nuevos que, sin estar previstos en la ley como delitos, pongan en peligro o lesionen bienes jurídicos y respecto de los cuales debamos preguntarnos por la procedencia o necesidad de su prohibición penal; esto es, que lleguen a ser constitutivos de delito.
Tiene razón Amunátegui Perelló (2020) cuando advierte que «C3PO no está a la vuelta de la esquina» (p. 39), recordando que las tecnologías de IA disponibles en la actualidad corresponden a su versión «débil» (Bartneck et al., 2021, p. 14; Gutiérrez Palacio, 2023, p. 69). Pero tampoco es necesario esperar a que HAL o que Andrew Martin sean materialmente reales para apreciar el fenómeno, porque «[e]sperar que los sistemas de IA exhiban una inteligencia similar a la humana o incluso que la superen puede hacernos ciegos ante muchos tipos de sistemas inteligentes útiles que han existido durante algún tiempo» (Dignum, 2019, p. 10).
El desarrollo conseguido por las IA no es obstáculo para reconocerles a las actuales máquinas inteligentes la calidad de «actuantes» (Latour, 1999, p. 180); esto es, que su actual grado de desarrollo permite que estas se involucren, directa o indirectamente, en la ejecución de conductas constitutivas de delito en un sentido material, es decir, con independencia de su concreta valoración jurídica. La categoría de «actuante» proporciona un lenguaje que permite superar la dicotomía «sujeto/objeto» y, como explica Hildebrandt (2008), no implica aceptar que los objetos tengan intenciones o que los humanos estén determinados por no-humanos, sino que es una toma de posición pragmática sobre lo que es una acción y actuar: el impacto de cierto comportamiento más que su causa o razón (p. 168). Por consiguiente, la calidad de actuante no implica tomar posición dogmática sobre si es posible o no atribuirles responsabilidad penal, ni indica la forma en la que esos conflictos deberían ser gestionados por el sistema penal o por otro orden de protección normativa. En cambio, lo que aquí interesa es que el actual desarrollo tecnológico de las IA permite establecer vinculaciones de las máquinas inteligentes con actividades delictivas propiamente tales, es decir, con conductas ya descritas por la ley penal como delitos; o con comportamientos que, sin ser constitutivos de delito, ponen en riesgo o dañan bienes jurídicos trascendentes. En este aspecto cobra importancia atender a los distintos modelos de IA y, dentro de estos, los de machine learning, cuyos algoritmos «son entrenados a través de ejemplos de los que estos aprenden de experiencias y también analizan los datos históricos» (Geetha & Sendhilkumar, 2023, p. 9).
Dentro de este tipo de modelos, los de deep learning son especialmente relevantes si se analizan las TIA como factores microcriminógenos. Los modelos de deep learning funcionan en específicas arquitecturas de redes neuronales artificiales «que se diseñan para imitar la forma en la que los humanos aprendemos y pensamos» (p. 367). En estos tipos de modelos y arquitecturas se hacen especialmente patentes varios aspectos que relacionan a esas tecnologías con su potencial delictual: por un lado, podría «concurrir, en algunos casos, una cierta derivación autónoma “consciente”» (Agustina, 2021, p. 762) de la máquina; y, por otro, surgen los déficits de explicabilidad e interpretabilidad y, con ellos, la «caja negra causal» (Barresi, 2023, p. 275), que dificultan la gestión de los conflictos con los que tales máquinas pueden vincularse. Asimismo, es necesario considerar el dominio al que se enfocan esas tecnologías; esto es, el tipo de función que estos dispositivos podrán desarrollar. Por ejemplo, el reconocimiento de imágenes médicas, para la que las redes neuronales convolucionales son especialmente útiles, puede conducir a conflictos derivados de deficiencias en atenciones médicas y, con ello, a preguntas sobre la responsabilidad penal por mala praxis médica. Las redes generativas adversariales, por su parte, que son capaces de producir contenido audiovisual sintético y hacen mirar los conflictos que pueden llegar a producirse a propósito de las deepfakes. O el de los modelos de lenguaje de gran tamaño basados en arquitecturas de transformadores que, por su propia naturaleza, no pueden cumplir con especificaciones regulatorias prescritas (Judge et al., 2025, p. 93).
También es relevante el tipo de vinculación que se tenga sobre una aplicación de IA. La descripción del carácter microcriminógeno de las TIA también debe considerar si las aplicaciones son software de fuente abierta (open source software) o propietarios. A pesar de la prevalencia dominante de este último tipo de software, los de fuente abierta han democratizado el acceso a marcos y librerías de AI (Hassri & Man, 2023, p. 50), pero hacen surgir riesgos de este tipo de tecnología como factor microcriminógeno. Estos no se relacionan con niveles menores de seguridad o confiabilidad del software propietario, de fuente abierta o libre (la distinción en Anand et al. [2018]), cuestión que es debatida (Boulanger, 2005); sino en el hecho de la intervención de una amplia cadena de desarrolladores en la programación y el entrenamiento de una aplicación de IA. Es lo que se conoce como el «many hands problem» (Coeckelbergh, 2020, p. 2052; Giannini & Kwik, 2023, pp. 58-59) o «many things problem» (Coeckelbergh, 2020, p. 2052). Algunas de esas «muchas manos» pueden introducir variaciones en el código que pueden permitir que una aplicación de IA ejecute funciones delictivas. Y no es que en el desarrollo del software propietario intervengan «pocas manos» que hagan que este tipo de aplicaciones no pueda llegar a ejecutar delitos; la diferencia radica en que, en un software propietario desarrollado al interior de una organización, puede ser más fácil imputar responsabilidad dentro de la cadena de producción, posibilidad que tiende a diluirse en el ámbito del software de fuente abierta y en el libre.
Por consiguiente, la atribución a las máquinas inteligentes de la calidad de actuantes funciona como una premisa con un evidente carácter fáctico, ya que implica afirmar la capacidad de tales desarrollos en el involucramiento de actividades delictivas7. Atendido su carácter empírico, la premisa necesita ser fundamentada.
Esa requerida constatación empírica de la premisa se construye tanto en evidencia obtenida experimentalmente como en aquella proveniente de la vida real.
En el laboratorio se ha demostrado la capacidad de involucramiento de las máquinas inteligentes en actividades delictivas en el área de ingeniería social en las que aplicaciones de IA obtuvieron valiosa información personal de usuarios (K. J. Hayward & Maas, 2020, p. 7); y otro, en el del e-trade, donde se demostró que inteligencias artificiales, actuando como agentes comerciales, podían aprender y ejecutar una «rentable» campaña de manipulación del mercado que comprendía un conjunto de órdenes falsas y engañosas (King, 2019, pp. 65-66) que, ejecutadas por un ser humano, serían constitutivas de delitos de defraudación. También en un ámbito experimental, está el caso de una aplicación de IA usada en el diseño de moléculas para su aplicación en el desarrollo de fármacos con la que se hizo la prueba de modificar sus incentivos, originalmente construidos para producir moléculas benignas. Bajo los nuevos incentivos, la aplicación produjo alrededor de cuarenta mil moléculas tóxicas en menos de seis horas, algunas ya conocidas y otras originales, muchas de ellas plausibles de ser plasmadas, potencialmente más tóxicas que las ya conocidas y que entrañan un riesgo concreto de uso ilícito para la producción de armas químicas (Urbina et al., 2022).
En la vida tenemos ejemplos como la compra en la darknet de éxtasis (MDMA), en octubre de 2014, por un bot en el contexto de una instalación artística8. En diciembre de 2021, Alexa, el asistente conversacional de Amazon, le sugirió a una niña de diez años un desafío potencialmente peligroso que el asistente «conoció» en internet y que consistió en que la chica separara parcialmente el cargador de un teléfono móvil desde el tomacorriente de la pared e insertara una moneda metálica9. También, como ejemplos, los sucesos dañosos causados por vehículos autónomos (Fahim, 2024; Kirpichnikov et al., 2020, p. 5; Sibai, 2020, p. 8), las acciones de espionaje a usuarios realizadas por empleados de Amazon y Apple a través de sus asistentes por voz para el entrenamiento de sus aplicaciones (Sibai, 2020, p. 8) o la filtración de imágenes íntimas de usuarios de robots de limpieza (Guo, 2022).
En noviembre de 2023 se anunció el lanzamiento de A-Lab, un laboratorio autónomo para la síntesis de polvos inorgánicos en estado sólido que, en diecisiete días de operación continua con robots, obtuvo cuarenta y un compuestos nuevos utilizando datos del Proyecto de Materiales y Google DeepMind (Szymanski et al., 2023).
Aunque el listado podría seguir, un último ejemplo de la capacidad de las máquinas inteligentes para involucrarse en actividades criminales es particularmente relevante. Se trata de las aplicaciones, ampliamente disponibles incluso en smartphones, basadas en tecnologías de redes neuronales artificiales (Albahar & Almalki, 2019; Asghar et al., 2023; Caldera, 2019, pp. 181 y ss.) —y dentro de ellas, las redes generativas adversariales (Russell & Norvig, 2022, pp. 1022-ss.; Spivak, 2019, p. 343)—, que permiten manipular contenido audiovisual previamente existente o generar contenido audiovisual (sonidos, imágenes fijas o vídeos) inédito, pero, en todo caso, «sintético» (Durante, 2022, p. 334; Kaushik, 2022; Maher, 2022; Öhman, 2022); esto es, fabricado. Estas son las denominadas deepfakes (Van der Sloot & Wagensveld, 2022)10. Uno de los ámbitos en los que se ha utilizado el falseamiento audiovisual es el de la generación o manipulación de contenido de carácter sexual (P. Hayward & Rahn, 2015; Popova, 2020; Risse, 2022, p. 98). Aunque los efectos dañosos sobre la libertad, la propia imagen o el honor de las personas víctimas (que, generalmente, están desprotegidas [Suslavich, 2023]), que son principalmente mujeres como expresión de violencia de género, según las investigaciones disponibles sobre el fenómeno (Ajder et al., 2019, pp. 6 y ss.; Bartneck et al., 2021, p. 67; Chesney & Citron, 2019, p. 1773; Holliday, 2021; Martin, 2021; Spivak, 2019, pp. 345 y ss.; Vega Lozada, 2021), y colectivos como niños, niñas y adolescentes (Gaur, Mallik, et al., 2023, p. 3; Ratner, 2021), no sean actualmente constitutivas por sí mismos de delito (como ocurre en el ordenamiento jurídico chileno), lo cierto es que estos desarrollos muestran claramente la capacidad de las máquinas inteligentes de involucrarse en actividades criminales o en otras que deberían serlo.
El involucramiento de una máquina inteligente en conductas ilícitas —esto es, en una perspectiva microcriminógena—, da lugar a lo que la doctrina ha denominado AI crime, es decir, casos en los que «la IA sería penalmente responsable si una persona física actuara de manera similar» (Abbott, 2020, p. 113; Abbott & Sarch, 2019, p. 332; Abbott & Sarch, 2020, p. 180; Abbott & Sarch, 2024, p. 87).
Por otro lado, unos determinados niveles de autonomatismo pueden hacer que la máquina inteligente produzca soluciones novedosas sin intervención humana ni de su programador, entrenador o usuario. Esas acciones ejecutadas por las máquinas inteligentes pueden ser peligrosas o dañosas para intereses protegidos por el derecho y, de acuerdo con su magnitud, podrían ser candidatas para constituir prohibiciones penales si fueran ejecutadas por personas naturales o por algunas personas jurídicas sujetas a responsabilidad penal. Me refiero a un conjunto de casos que podrían denominarse «proto delitos-IA», es decir, una «nueva generación de actus reus de IA» (Pagallo & Quattrocolo, 2018, p. 400) en la nomenclatura angloamericana11. Se trata del caso de máquinas inteligentes que, en virtud de su autonomatismo, desarrollen comportamientos inéditos atípicos, pero lo suficientemente peligrosos o dañosos para configurar conflictos en relación con bienes que el ordenamiento jurídico penal ya ha decidido proteger o cuya protección sería necesaria.
IV. PERSPECTIVA MACROCRIMINÓGENA O ESTRUCTURAL
La segunda perspectiva, que denominaré «macrocriminógena» o «estructural-criminógena», se deriva del modelo económico capitalista en el que han surgido las TIA en nuestro entorno y que se ha denominado el «capitalismo de la IA». En síntesis, estimo que el desarrollo y el uso de las TIA, orientados a intereses económicos de mercado (maximización de utilidades y reducción de costes para la producción y comercialización de bienes y servicios), permite que estas tecnologías intensifiquen las lógicas internas del capitalismo que, en esa perspectiva, pueden llegar a tensionar valores que permiten y soportan la convivencia social. Sobre esta base, la perspectiva macrocriminógena considera que las IA establecen una relación causal con el fenómeno criminal en forma indirecta, pero no por ello menos determinante. Visto desde una perspectiva estructural, ¿cómo en el capitalismo de la IA esas tecnologías adquieren un carácter de factor criminógeno? La respuesta es compleja y propia de un enfoque de economía política de la IA: el capitalismo de la IA intensifica los building blocks o bloques estructurantes capitalistas, generando una relación de conflicto con las instituciones básicas de las democracias liberales y sociales que se materializa en una restricción o eliminación de las condiciones necesarias para la eficacia de los derechos y un aumento de la conflictividad social.
Al igual que el motor, la electricidad o los semiconductores, las TIA son «tecnologías de propósito general» (Cole, 2023; Ernst, 2022; Gutierrez et al., 2023; Korinek, 2020; Paunov & Guellec, 2022; Rizk, 2020) o TPG (General Purposes Technology [GPT]). Aquí, «propósito general» significa que las IA son unas tecnologías dirigidas a «realizar alguna función genérica que es vital para el funcionamiento de un gran segmento de productos y sistemas de producción existentes o potenciales» (Bresnahan & Trajtenberg, 1992, p. 4). Se caracterizan porque presentan un dinamismo tecnológico y van unidas a complementariedades innovadoras en los sectores de aplicación (p. 4). Como TPG, las TIA se han diversificado en vastos sectores de la vida diaria, no solo de las actividades productivas o económicas (Paunov & Guellec, 2022, p. 80), con relación directa o indirecta con las personas comunes. Y aquí lo central de la premisa: atendidas su difusión y su diversificación, derivadas de su propósito general, las IA han adquirido un carácter sistémico tanto en las formas o métodos de producción como en el conjunto de las instituciones que forman el modelo político-económico en vigor en el mundo occidental. Por consiguiente, ellas pueden producir efectos también a nivel sistémico. No se trata solo, por ejemplo, de la posible pérdida de puestos de trabajo de operarios de una fábrica que se robotiza, sino del cuestionamiento del trabajo humano en su conjunto como factor de producción, o de efectos perversos que pueden producir en la redistribución del ingreso (Korinek, 2020).
El desarrollo del microprocesador, a partir de la década de 1970, permitió el surgimiento de las tecnologías de la información y las comunicaciones que configuraron la sociedad de la información. Esta ha ido evolucionado a una sociedad plataformizada y datificada, proceso en el que las TIA han desempeñado un rol importante.
Ha surgido una intensa discusión sobre el alcance y significado de los efectos en el ámbito económico de las TIA, la datificación y la plataformización. Las opciones —como lo ha destacado Morozov (2022)— van desde quienes ven en este proceso el término del capitalismo y su reemplazo por un modelo tecnofeudalista (Dean, 2020; Durand, 2021; Varoufakis, 2024; Wark, 2019), a quienes ven una disrupción del capitalismo o como un conjunto de recurrencias dentro del mismo (Piletić, 2024, pp. 438-439). Este artículo no es sobre la disputa por la supervivencia o término del capitalismo, sino que tiene un interés más modesto: los efectos, cuya ocurrencia no se cuestiona, que las IA pueden tener en el sistema penal y si estos autorizan a atribuir a esas tecnologías un efecto criminógeno estructural. Por eso, adoptaré como punto de partida que las TIA han provocado el surgimiento de un nuevo orden económico (Hicks, 2020, p. 3; Verdegem, 2022), llamado «capitalismo de la IA» (Käll, 2023; Verdegem, 2022)12, que constituye una evolución del capitalismo industrial y financiero (Demir & Çakmak, 2023, pp. 202-203). Este se caracteriza por la radicalización de las estructuras económicas neoliberales (Bilić et al., 2021, pp. 21-22), como la flexibilización, la precarización laboral, los procesos de privatización o los recortes de gasto público (Piletić, 2024, p. 442).
La ineficacia de los derechos y el aumento de la conflictividad esperables en el contexto del capitalismo de la IA hacen que las TIA actúen como factores macrocriminógenos porque, directa o indirectamente, ejercen una presión sobre el sistema penal que se materializa en al menos dos formas.
Por un lado, provocando un aumento en la frecuencia de los conflictos sociales, muchos de los cuales, por su naturaleza, deben ser procesados por el sistema de justicia penal. En este punto, un elemento sociológico-económico salta a la vista: la resistencia al cambio tecnológico. Tal como lo ha mostrado Mokyr (1992), el surgimiento del capitalismo industrial a fines del siglo XIX y principios del XX hizo que grupos sociales adoptaran una actitud resistente a la mecanización que comenzaron a experimentar los procesos productivos; entre ellos, los sindicatos de trabajadores, y con justa razón. La mecanización implicó un deterioro en las condiciones laborales, pérdida de puestos de empleo y, en general, empobrecimiento para sectores de la sociedad13. La resistencia se expresó por diferentes vías, como huelgas, sabotajes o protestas, y muchas de ellas condujeron a conflictos para cuya gestión el derecho penal se presentó (y sigue presentándose) como una alternativa preferida por las clases gobernantes. En el contexto del capitalismo de la IA es razonable pensar que ese escenario vuelva a producirse y, en el mejor de los casos, podría discutirse solo un tema de intensidad o de las vías por las cuales se expresará la resistencia14.
Por otro lado, ejerciendo presión por recurrir al aparato penal para la autopreservación del propio capitalismo de la IA. Las observaciones de la criminología crítica sobre el carácter ideológico del proceso de selección de los intereses a proteger que «tiende a privilegiar los intereses de las clases dominantes y a inmunizar del proceso de criminalización comportamientos socialmente dañosos típicos de los individuos pertenecientes a ellas» (Baratta, 1986, p. 171) cobran en este aspecto especial relevancia.
Con relación a la producción de conflictos, el capitalismo de la IA mantiene relaciones contradictorias con el sistema de derechos. A pesar de la vinculación estructural de la ideología de los derechos humanos con el sistema capitalista (Ishay, 2008), el capitalismo de la IA desafía uno de los elementos centrales del sistema liberal de derechos: la libertad. El problema puede ser ilustrado con varios ejemplos. El primero es el de los carritos de golf: para evitar que estos dispositivos dañen los campos de golf al ser conducidos fuera de los senderos habilitados, se les instala sistemas GPS. Esta tecnología permite que, si el conductor de un carrito abandona el circuito permitido, el carrito se detenga (Brownsword, 2015, pp. 5-6). El segundo consiste en que los vehículos tengan instalados un detector de ingesta alcohólica para quien intente conducirlo, de modo que, si esta persona supera la cantidad de alcohol en sangre permitida por ley, el automóvil deja de funcionar e impide que sea operado bajo la influencia del alcohol (Hildebrandt, 2008). El tercero, el de la policía predictiva y la gobernanza anticipatoria, donde la primera «permite varias formas de predicción de riesgo usando probabilidades, aunque no predice realmente si y cuándo un delito será cometido» (Shad, 2023, p. 5). Si uno prescinde en los dispositivos tecnológicos en los tres ejemplos previamente citados, solo quedan reglas jurídicas que prohíben dañar los campos de golf, prohíben conducir vehículos en estado de ebriedad y mandatan la investigación de los delitos, disposiciones que configuran una normatividad jurídica en la que la transgresión de esos mandatos o prohibiciones está determinada por personas. Si se agregan los dispositivos tecnológicos, surge una nueva normatividad, esta vez tecnológica, que consiste en un conjunto complejo de relaciones que se forman entre las personas, sus normas y las máquinas inteligentes que, a su vez, disponen de sus propias normas. La normatividad tecnológica fija nuevas «formas en las que humanos o no-humanos constriñen la interacción con humanos y no-humanos» (Hildebrandt, 2008, p. 171), en cuya determinación el acento se pone en las máquinas y, en particular, en las decisiones de sus diseñadores y desarrolladores. El espectro de la normatividad solo jurídica (sin dispositivos) es menor que el de la normatividad tecnológica, ya que esta última tiene mayores posibilidades de constreñir el comportamiento humano.
Son, sin duda alguna, atractivas las promesas de un mundo en el que los campos de golf no se dañen, que nadie resulte lesionado o muerto por un conductor o una conductora ebria o que la policía tenga la capacidad de anticipar la probabilidad de ocurrencia de delitos y actuar preventivamente; esto es, las promesas de una reducción sustancial o completa de conflictos jurídico-penales. Sin embargo, el intento de conseguir ese objetivo a través de una estrategia tecnológica debe, a mi juicio, ser escrutado con extrema meticulosidad, cuando no descartado. De hecho, se ha planteado que los dispositivos tecnológicos para la protección de la propiedad intelectual
podrían, irónicamente, usarse para controlar nuestros entornos virtuales y físicos de maneras sin precedentes, para eliminar la posibilidad de deliberación moral sobre ciertos tipos de acciones que, de otra manera, serían posibles en estos espacios, al deshabilitar el mundo de una manera que, en definitiva, deshabilita a las personas que lo habitan (Kerr, 2010, p. 255).
Este programa produce severos conflictos con las estructuras básicas de la democracia liberal. Por un lado, porque la normatividad de la IA excluye a los ciudadanos de la discusión legislativa y les impide ejercer su derecho a oponerse a las normas. En un mundo en el que los carritos de golf no pueden abandonar las vías diseñadas para su tránsito, las personas perderemos la posibilidad de violar la ley. Aunque, como lo destaca Hildebrandt (2008, p. 173) con relación al derecho penal, no tenemos un derecho (moral) a violar la ley, sí tenemos un derecho a cuestionarla e, incluso, a desobedecerla si la consideramos injusta. No sin razón se ha denunciado que el mayor riesgo radica en la posibilidad de que el capitalismo de la IA pueda llevar al recambio de la normativa jurídica por una normatividad tecnológica o normatividad de la IA (Poncibò & Cannarsa, 2022, pp. 421 y ss.). Por otro lado, porque el contenido de la normatividad tecnológica está fundamentalmente determinado por los titulares del poder informático, que son las grandes compañías informáticas (big techs); y es, en consecuencia, funcional a sus intereses privados más que a los intereses comunes de la sociedad.
El panorama presenta otras perspectivas adicionales. Una normatividad tecnológica excluyente de posibles conductas desviadas (contrarias a la ley) tiene el potencial de afectar la capacidad de respuesta normativa; esto es, la capacidad de «comprender e internalizar las normas sociales y luego actuar en consecuencia para ganar aceptación dentro de una sociedad particular» (Shad, 2023, p. 8); y, en consecuencia, puede conducir a un «orden desnormativizado cuasi-natural» (p. 9). En síntesis, la normatividad del capitalismo de la IA lleva a desafíos en el ámbito de las libertades individuales. Aquellos que lleguen a vivir bajo la normatividad de la IA podrían ser menos libres desde una perspectiva ontológica, lo que implica una negación o una limitación de su capacidad autónoma de decisión.
La libertad no es el único derecho liberal amenazado. También lo está la igualdad, no solo por la posibilidad de discriminación derivada de los sesgos de las TIA (Dülger, 2024; Fosch-Villaronga & Poulsen, 2022; Morondo Taramundi, 2022; Soriano Arnanz, 2021; Soriano Arnanz & Simó Soler, 2021; Tischbirek, 2020; Zuiderveen Borgesius, 2020), sino también porque el capitalismo de la IA funciona con un concepto de inclusión que está muy lejos de aquella noble estrategia para enfrentar la diversidad y superar los efectos nocivos que pueden recaer sobre colectivos minoritarios o disidentes. El capitalismo de la IA genera una versión sustancialmente distinta, que es la de la inclusión predatoria (Pasquale, 2020, pp. 133 y ss.), que, en el ámbito del capitalismo de la IA, significa la ausencia casi absoluta de barreras de ingreso a las plataformas, lo que ofrece un acceso en condiciones formalmente igualitarias (inclusivo, en el sentido democrático). Pero la decisión de ingreso lleva consigo dos cargas. Primero, la de aceptar las condiciones de uso de las plataformas, en el sentido de unas reglas definidas unilateralmente por el propietario de la aplicación (Krönke, 2020, p. 164) sobre cuyo contenido la o el usuario no tiene derecho a cuestionamiento alguno; y, segundo, la de desenvolverse en un entorno en el que la función de utilidad tiende a ser marginalmente cero para la o el usuario en comparación con la de los propietarios de la plataforma. La función de utilidad —que para la o el usuario es más bien una función de costo— considera la renuncia sobre toda o parte de la propiedad del contenido creado y compartido, así como la posibilidad de ser contaminado con información falsa o de ser manipulado en sus creencias o convicciones (Krönke, 2020), ya que «[l]os algoritmos de las plataformas de redes sociales que buscan captar la atención pueden sembrar confusión, ignorancia, prejuicios y caos» (Risse, 2022, p. 98), pudiendo las IA «crear fácilmente una no-inteligencia artificial» (p. 98). Y lo más importante, la renuncia a los datos personales que la o el usuario, con su conocimiento o sin él, proporciona a la plataforma por sus interacciones, su uso o simplemente por llevar consigo el dispositivo mediante el cual accede a los servicios online. Por consiguiente, la ancha y abierta puerta de acceso a las plataformas trae consigo costos para la o el usuario; o, al menos, una enorme desproporción de las utilidades o ganancias de ese acceso, ecuación en la que la o el usuario pierde, incluso, si monetiza el contenido que crea, en lo que se ha analizado como el problema de la creación y explotación del valor en la economía de la información (Arvidsson & Colleoni, 2012).
Los efectos de la normatividad tecnológica sobre la capacidad de respuesta normativa y la inclusión predatoria tienen consecuencias trascendentes, tanto para el sistema político como para el propio derecho. Con relación a este último ámbito, solo basta pensar en los conflictos que podrían generarse en un mundo en el que, por ejemplo, el valor de la vida deja de estar internalizado y naturalizado por las personas; o, en términos generales, el valor de las normas de comportamiento. La inclusión predatoria, por su parte, puede operar como un generador de conflictos, en la medida que el nivel de satisfacción/insatisfacción de las y los usuarios de aplicaciones de IA puede ser variable. La pregunta relevante es cómo se gestionará la posición de las y los usuarios si el nivel de insatisfacción por el uso o «pertenencia» a aplicaciones de IA llega a superar el de satisfacción. Por el momento, no hay formas ni mecanismos claramente previstos para hacer esa gestión, ámbito en el que priman las decisiones de las big techs propietarias de esas aplicaciones.
Existen formas adicionales en las que las TIA y su forma económica, el capitalismo de la IA, pueden operar como factores criminógenos estructurales más allá de la relación conflictiva con la libertad y la igualdad. Puede reconocerse este tipo de vinculación negativa de las tecnologías de IA con los derechos de segunda y tercera generación (Baxi, 2007, p. 43) en la taxonomía de derechos propuesta por Vasak (1977). Las distintas versiones de los sistemas democráticos occidentales han desarrollado instrumentos que, no exentos de precariedad, permiten una cierta estabilidad social, materializados en una cultura jurídica, en derechos fundamentales y en instrumentos de redistribución. La efectividad de tales culturas e instrumentos es fuertemente amenazada por el capitalismo de la IA.
La comodificación de los derechos —uno de los building blocks del capitalismo de la IA— es el proceso por el que un elemento pasa a convertirse en un activo para la producción de otros bienes y, por ende, adquiere valor de cambio. La comodificación alcanza una dimensión especial porque tiende a generar relaciones conflictivas con los derechos. Esta conduce de inmediato a un problema porque el supuesto de hecho de los derechos pasa a tener una doble regulación: jurídica, en tanto supuesto de hecho de un derecho; y económica-financiera, en tanto commodity. Lo problemático surge porque ambas regulaciones no persiguen lo mismo y, de hecho, pueden tener pretensiones antagónicas. Así, por ejemplo, en su concepción primigenia —pero aún vigente— la intimidad es el «right to be “let alone”» (Warren & Brandeis, 1890), garantizando la exclusión de terceros. Pero, en tanto commodity, la información personal (incluida aquella que la persona desea mantener en secreto) adquiere en el capitalismo de la IA valor (Bottis & Bouchagiar, 2018) precisamente porque es utilizada como insumo para el entrenamiento o el funcionamiento de aplicaciones de IA. De esta forma, por un lado, el derecho garantiza la exclusión de terceros; pero, por otro, el mercado genera incentivos para la injerencia en esos datos. La relación conflictiva —que se expresa en el reemplazo de la idea del titular de derechos por la de individuo de la clase hacker15— no solo se produce con la intimidad, sino también con otros derechos, como el trabajo y el derecho a la remuneración justa y digna.
Por otro lado, la concentración del poder es uno de los aspectos del capitalismo que ha sido profundizado por el surgimiento de las IA. En el capitalismo de la IA, la concentración se refiere no solo al poder económico, sino también a otro emergente en el mundo digital y de las IA: el poder computacional necesario para almacenar y procesar los gigantescos volúmenes de información y para el entrenamiento de las IA. Tal concentración de poder dentro de las big techs (Kenney & Zysman, 2020) puede producir no solo las externalidades propias de cualquier acumulación (Bilić et al., 2021), sino también alterar las relaciones con las y los ciudadanos, consumidores y trabajadores (Arvidsson & Colleoni, 2012).
El desenvolvimiento de las IA en contextos capitalistas sin medidas correctivas asegura desigualdad (Ernst, 2022, pp. 155 y ss.; Korinek & Stiglitz, 2019). Máquinas inteligentes ejecutando labores producen la obsolescencia del trabajo humano y la pérdida de competitividad de los trabajadores frente a las máquinas (Fleissner, 2018, p. 205). El trabajo obsoleto y a un mayor costo que el de las máquinas permite predecir el efecto: poderosos incentivos para anular la normatividad jurídica que actualmente regula el trabajo. La mayoría de esas regulaciones forman la base de instrumentos para una redistribución justa del ingreso y también toman la forma de derechos fundamentales que persiguen «evitar el deterioro del trabajo asalariado hasta un estado de indignidad» (Arat, 2008, p. 924).
Un enfoque dentro de los estudios criminológicos destaca la correlación entre políticas capitalistas neoliberales y mayores tasas de conflictividad penal, y, con ello, mayores tasas de encarcelamiento y segregación social (Beckett & Godoy, 2008, pp. 153 y ss.). Pero el fenómeno se comporta como el dilema del huevo y la gallina, ya que hay que precisar si la conflictividad penal se genera como una consecuencia del capitalismo o es este el que «fabrica» delitos para su propia preservación. Ambas perspectivas parecen ser plausibles. Como lo recuerdan Rusche y Kirchheimer (1984, pp. 15 y ss.), el surgimiento del capitalismo fue dotado de un sistema jurídico para su autopreservación. En el contexto del capitalismo de la IA se producirá una nueva «clase baja». La revolución de las IA —como lo anticipó Berman (1992) hace dos décadas— produce un impacto en los modelos gerencializados de producción. Sobre la base de la distinción tayloriana entre el trabajo manual e intelectual, la segunda revolución industrial precarizó el primero y reservó el último para el diseño y la planificación de los procesos productivos. Las tecnologías de IA tienen el potencial de prescindir importantemente del trabajo manual, eliminándolo, pero también de reducir el trabajo intelectual, ya que el diseño y organización de los procesos productivos, hasta ahora encargados a ingenieros y diseñadores industriales, puede ser entregado a máquinas inteligentes. La experiencia de los obreros del siglo XIX y comienzos del XX puede ser ahora vivenciada por los profesionales y técnicos especializados.
V. CONCLUSIONES Y DISCUSIONES FUTURAS
Las tecnologías de la IA están presentes en innumerables actividades y procesos en distintos niveles: desde sistemas en actividades ultraespecializadas hasta otras comunes que se vinculan, directa o indirectamente, con las personas y sus quehaceres diarios en la vida normal. También están en las más variadas áreas, como en las atenciones de salud, el funcionamiento de las administraciones, los negocios, la gestión del transporte, etc.
En un enfoque propio de un modelo sociológico conflictual (Domínguez Figueirido, 2003, pp. 244 y ss.), debe reconocerse que la convivencia entre las personas se ve alterada algunas veces por el surgimiento de un conflicto penal; esto es, por el comportamiento de uno o más sujetos que implica la verificación de un delito descrito como tal en la ley y, con ello, la puesta en peligro o el daño de un bien protegido. La criminología estudia los elementos que explican o determinan el surgimiento de ese conflicto; es decir, la explicación de la razón por la que algún sujeto ejecuta ese comportamiento que desencadena el conflicto. Este artículo se sitúa en esa línea y ha mostrado que, atendidos los tipos de relación que las características técnicas de las tecnologías de IA les permiten establecer, estas tienen la capacidad de desencadenar conflictos jurídico-penales; esto es, tienen el carácter de factor criminógeno. Ello significa que, al igual que la pobreza extrema, la avaricia o la cultura machista en determinados contextos pueden condicionar la acción criminal, las tecnologías de IA también pueden hacerlo. Desviaciones en su diseño, en su entrenamiento o en su utilización pueden operar como esos contextos que llevan a la concreción de su condición de factor criminógeno; es decir, pueden hacer que una determinada aplicación de IA se involucre en una actividad delictiva. Una investigación adicional es necesaria para descubrir y describir los contextos que pueden activar la concreción de ese carácter criminógeno.
Sin perjuicio del contexto que queda por indagar, el factor criminógeno de las IA se configura, en primer lugar, por la posibilidad técnica de estos dispositivos de involucrarse en la comisión de delitos o de conductas que, por su transcendencia, deberían considerarse serias candidatas a su prohibición penal. Este es el enfoque microcriminógeno, centrado en la vinculación concreta de una IA con un conflicto específico. En segundo lugar, en el contexto del capitalismo de la IA, estas tecnologías tienen el potencial de alterar las estructuras de convivencia que han sido diseñadas no solo para permitir el desenvolvimiento de las personas, sino también para mantener un determinado nivel de conflictos. La afectación negativa por las IA de esas estructuras puede conducir a un aumento de la frecuencia de los conflictos penales, por un lado; y, por otro, a la necesidad de preservar, por medio del sistema penal, el sistema de relaciones económicas y de poder que conlleva. En ambos casos, las IA actúan condicionando la acción criminal.
Además del descubrimiento de los contextos en los que, en concreto, puede desenvolverse el factor criminógeno de las IA, una futura investigación debería abordar la posibilidad de mecanismos correctivos que tiendan a restringir la condición criminógena de las IA, como el rol del Estado, medidas de limitación a la acumulación de poder computacional y económico, el reforzamiento de las garantías jurídicas de los derechos, etc. Y también la adopción de mecanismos que refuercen el carácter democrático de la regulación de las IA, como su gobernanza inclusiva, un rol activo de los Estados en la mitigación de riesgos y priorizar el beneficio social en los objetivos de desarrollo tecnológico, entre otros (Ulnicane et al., 2021). Hace cinco años, Jobin et al. (2019) recopilaron ochenta y cuatro principios y guías para una IA ética, y es posible que el catálogo se haya incrementado sustancialmente desde su publicación. No obstante, todo parece indicar que el fenómeno en cuestión requiere más que soft law y conviene adoptar la senda iniciada por la Unión Europea, regulando las IA a través de normas jurídicas plenamente exigibles, además de una discusión social y política sobre el diseño de instrumentos sociales, como un salario básico universal, subsidios salariales o empleo garantizado por el Gobierno (Demir & Çakmak, 2023, p. 205).
Queda aún por profundizar en los efectos del capitalismo de la IA en el sur global, donde nuestro desafío al respecto no solo es ser consumidores de tecnologías de IA desarrolladas en el primer mundo, sino adecuar los instrumentos de regulación, las prácticas y los discursos a nuestra realidad del sur como una forma de descolonización, esta vez tecnológica.
REFERENCIAS
!Mediengruppe Bitnik. (s.f.). Random Darknet Shopper (2014 - 2016). https://2016.bitnik.org/r/
Abbott, R. (2020). The reasonable robot. Artificial Intelligence and the Law. Cambridge University Press. https://doi.org/https://doi.org/10.1017/9781108631761
Abbott, R., & Sarch, A. (2019). Punishing Artificial Intelligence: Legal Fiction or Science Fiction. UC Davis Law Review, 53(1), 323-384. https://doi.org/10.2139/ssrn.3327485
Abbott, R., & Sarch, A. (2020). Punishing Artificial Intelligence: Legal Fiction or Science Fiction. En S. Deakin y C. Markou (eds.), Is Law Computable? Critical perspectives on Law and Artificial Intelligence (pp. 177-204). Hart Publishing. https://doi.org/10.5040/9781509937097.ch-008
Abbott, R., & Sarch, A. (2024). Punishing Artificial Intelligence: Legal Fiction or Science Fiction. En D. Moura Vicente, R. Soares Pereira y A. Alves Leal (eds.), Legal Aspects of Autonomous systems. A Comparative Approach (pp. 83-115). Springer. https://doi.org/10.1007/978-3-031-47946-5_6
Agustina, J. R. (2021). Nuevos retos dogmáticos ante la cibercriminalidad. ¿Es necesarta una dogmática del ciberdelito ante un nuevo paradigma? Estudios Penales y Criminológicos, 41, 705-777. https://doi.org/10.15304/epc.41.6718
Ajder, H., Patrini, G., Cavalli, F., & Cullen, L. (2019). The State of Deepfakes: Landscape, Threats, and Impact. https://regmedia.co.uk/2019/10/08/deepfake_report.pdf
Albahar, M., & Almalki, J. (2019). Deepfakes: Threats and countermeasures systematic review. Journal of Theoretical and Applied Information Technology, 97(22), 3242-3250.
Albrecht, P.-A. (2000). El Derecho Penal en la intervención de la política populista. En Instituto de Ciencias Criminales de Frankfurt y Área de Derecho de la Universidad Pompeu Fabra (eds.), La insostenible situación del Derecho penal (pp. 471-487). Comares.
Amunátegui Perelló, C. (2020). Arcana technicae. El derecho y la inteligencia artificial. Tirant lo Blanch.
Anand, A., Krishna, A., Tiwari, R., & Sharma, R. (2018). Comparative Analysis between Proprietary Software VS. Open-Source Software VS. Free Software. En 2018 Fifth International Conference on Parallel, Distributed and Grid Computing (PDGC) (pp. 144-147). Curran Associates. https://doi.org/10.1109/PDGC.2018.8745951
Andries, V., & Robertson, J. (2023). Alexa doesn’t have that many feelings: Children’s understanding of AI through interactions with smart speakers in their homes. Computers and Education: Artificial Intelligence, 5. https://doi.org/10.1016/j.caeai.2023.100176
Arat, Z. F. K. (2008). Human Rights Ideology and Dimensions of Power: A Radical Approach to the State, Property, and Discrimination. Human Rights Quarterly, 30(4), 906-932. https://doi.org/10.1353/hrq.0.0037
Arvidsson, A., & Colleoni, E. (2012). Value in Informational Capitalism and on the Internet. The Information Society, 28(3), 135-150. https://doi.org/10.1080/01972243.2012.669449
Asada, M. (2020). Rethinking Autonomy of Humans and Robots. Journal of Artificial Intelligence and Consciousness, 7(2), 141-153. http://dx.doi.org/10.1142/S2705078520500083
Asaro, P. M. (2012). A body to kick, but still no soul to damn: Legal perspectives on robotics. En P. Lin, K. Abney y G. A. Bekey (eds.), Robot Ethics: The ethical and social implications of robotics (pp. 169-186). MIT Press.
Asghar, M. S., Mukhtar, H., & Naz, H. (2023). Deepfake: life & law in the age of illusions & manipulations. Journal of Positive School Psychology, 7(1), 225-230.
Barak, A. (2017). Proporcionalidad. Los derechos fundamentales y sus restricciones. Palestra.
Baratta, A. (1986). Criminología crítica y crítica del derecho penal. Introducción a la sociología jurídico-penal. Siglo XXI.
Barfield, W. (2018). Towards a law of artificial intelligence. En W. Barfield (ed.), Research Handbook on the Law of Artificial Intelligence (pp. 2-39). Edward Elgar Publishing. https://doi.org/10.4337/9781786439055.00011
Barresi, O. (2023). Italian Report on Traditional Criminal Law Categories and AI. Revue International de Droit Pénal, 94(1), 269-302.
Bartneck, C., Lütge, C., Wagner, A., & Welsh, S. (2021). An introduction to ethics in robotics and AI. Springer. https://doi.org/10.1007/978-3-030-51110-4
Baxi, U. (2007). Failed Decolonisation and the Future of Social Rights: Some Preliminary Reflections. En D. Barak-Erez y A. M. Gross (eds.), Exploring Social Rights: Between Theory and Practice (pp. 41-55). Hart Publishing. https://doi.org/10.5040/9781472564214.ch-003
BBC. (2021, 28 de diciembre). Alexa tells 10-year-old girl to touch live plug with penny. https://www.bbc.com/news/technology-59810383
Beckett, K., & Godoy, A. (2008). Power, politics, and penality: Punitiveness as backlash in American democracies. En A. Sarat (ed.), Studies in Law, Politics, and Society (vol. 45, pp. 139-173). Emerald Publishing. https://doi.org/10.1016/S1059-4337(08)45004-4
Behdadi, D., & Munthe, C. (2020). A Normative Approach to Artificial Moral Agency. Minds and Machines, 30(2), 195-218. https://doi.org/10.1007/s11023-020-09525-8
Benítez Ortúzar, I. (2023). Responsabilidad por el hecho cometido por el robot dotado de inteligencia artificial. ¿Existe un paralelismo con la responsabilidad de la persona jurídica? Breves reflexiones. En J. Muñoz Sánchez, O. García Pérez, A. I. Cerezo Domínguez y E. García España (eds.), Estudios jurídico-penales, criminológicos y político criminales. Libro homenaje al Profesor José Luis Díez Ripollés (pp. 493-503). Tirant lo Blanch.
Berman, B. J. (1992). Artificial intelligence and the ideology of capitalist reconstruction. AI & Society, 6(2), 103-114. https://doi.org/10.1007/BF02472776
Bilić, P., Prug, T., & Žitko, M. (2021). The Political Economy of Digital Monopolies. Contradictions and Alternatives to Data Commodification. Bristol University Press.
Blauth, T. F., Gstrein, O. J., & Zwitter, A. (2022). Artificial Intelligence Crime: An Overview of Malicious Use and Abuse of AI. IEEE Access, 10, 77110-77122. https://doi.org/10.1109/ACCESS.2022.3191790
Borges, G. (2022). Liability for Autonomous Systems. En G. Borges y C. Sorge (eds.), Law and Technology in a Global Digital Society. Autonomous Systems, Big Data, IT Security and Legal Tech (pp. 51-73). Springer. https://doi.org/10.1007/978-3-030-90513-2_3
Bottis, M., & Bouchagiar, G. (2018). Personal Data v. Big Data: Challenges of Commodification of Personal Data. Open Journal of Philosophy, 8(3), 206-215. https://doi.org/10.4236/ojpp.2018.83015
Boulanger, A. (2005). Open-source versus proprietary software: Is one more reliable and secure than the other? IBM Systems Journal, 44(2), 239-248. https://doi.org/10.1147/sj.442.0239
Bresnahan, T. F., & Trajtenberg, M. (1992). General purpose technologies ‘Engines of growth’? [documento de trabajo N.° 4148]. Journal of Econometrics, 65(1). https://doi.org/10.1016/0304-4076(94)01598-T
Brownsword, R. (2015). In the year 2061: from law to technological management. Law, Innovation and Technology, 7(1), 1-51. https://doi.org/10.1080/17579961.2015.1052642
Burdon, M. (2020). Digital Data Collection and Information Privacy Law. Cambridge University Press. https://doi.org/10.1017/9781108283717
Caldera, E. (2019). “Reject the Evidence of Your Eyes and Ears”: Deepfakes and the Law of Virtual Replicants. Seton Hall Law Review, 50(1), 177-205.
Caldwell, M., Andrews, J. T. A., Tanay, T., & Griffin, L. D. (2020). AI-enabled future crime. Crime Science, 9(1). https://doi.org/10.1186/s40163-020-00123-8
Calo, R. (2015). Robotics and the Lessons of Cyberlaw. California Law Review, 103, 513-563.
Castaldo, A. (1997). La concreción del «riesgo jurídicamente relevante». En J. M. Silva Sánchez (ed.), Política criminal y nuevo derecho penal. Libro homenaje a Claus Roxin (pp. 233-242). Bosch.
Chesney, R., & Citron, D. K. (2019). Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. California Law Review, 107, 1753-1819. https://doi.org/10.2139/ssrn.3213954
Chesterman, S. (2021). We, the Robots? Cambridge University Press. https://doi.org/10.1017/9781009047081
Coeckelbergh, M. (2020). Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability. Science and Engineering Ethics, 26(4), 2051-2068. https://doi.org/10.1007/s11948-019-00146-8
Cohen, J. E. (2019). Between Truth and Power. The Legal Constructions of Informational Capitalism. Oxford University Press. https://doi.org/10.1093/oso/9780190246693.001.0001
Cole, M. (2023). (Infra)structural Discontinuity: Capital, Labour, and Technological Change. Antipode, 55(2), 348-372. https://doi.org/10.1111/anti.12887
Cooper, B. (2025). Examining Aristotle’s Substance: Does AI Autonomy Warrant a Reinterpretation of Artifacts and Natural Substances? Stance: an international undergraduate philosophy journal, 18(1), 10-21. https://doi.org/10.33043/83nWdN5n
Crawford, K. (2021). Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
Dean, J. (2020). Neofeudalism: The End of Capitalism? https://lareviewofbooks.org/article/neofeudalism-the-end-of-capitalism/
Defense Science Board. (2016). DSB Summer Study on Autonomy. https://dsb.cto.mil/wp-content/uploads/reports/2010s/DSBSS15.pdf
Demir, C., & Çakmak, S. (2023). Artificial Intelligence, Technological Change, and the Future of Capitalism. En A. Ari (ed.), Capitalism at a Crossroads. A New Reset? (pp. 197-210). Springer. https://doi.org/10.1007/978-3-031-23257-2_11
Deskoska, E., & Vlčková, J. (2018). The Role of Technological Change in Income Inequality in the United States. Acta Oeconomica Pragensia, 26(1), 47-66. https://doi.org/10.18267/j.aop.596
Dignum, V. (2019). Responsible Artificial Intelligence. Arizona State Law Journal, 51, 128.
Dixon-Román, E., & Parisi, L. (2020). Data capitalism and the counter futures of ethics in artificial intelligence. Communication and the Public, 5(3-4), 116-121. https://doi.org/10.1177/2057047320972029
Domínguez Figueirido, J. (2003). Sociología jurídico-penal y actividad legislativa. En R. Bergali (ed.), Sistema penal y problemas sociales (pp. 243-285). Tirant lo Blanch.
Dremliuga, R., & Prisekina, N. (2020). The Concept of Culpability in Criminal Law and AI Systems. Journal of Politics and Law, 13(3), 256. https://doi.org/10.5539/jpl.v13n3p256
Dsouza, M. (2020). Don’t panic. Artificial intelligence and Criminal Law 101. En D. J. Baker y P. H. Robinson (eds.), Artificial intelligence and the Law. Cybercrime and criminal liability (pp. 247-264). Routledge. https://doi.org/10.4324/9780429344015-11
Dülger, M. V. (2024). Prevention of Discrimination in the Practices of Predictive Policing. En M. Kiliç y S. B. Kahyaoǧlu (eds.), Algorithmic Discrimination and Ethical Perspective of Artificial Intelligence (pp. 105-117). Springer. https://doi.org/10.1007/978-981-99-6327-0_7
Durand, C. (2021). Tecnofeudalismo. Crítica de la economía digital. La Cebra, Kaxilda.
Durante, M. (2022). Technology and the Ontology of the Virtual. En S. Vallor (ed.), The Oxford Handbook of Philosophy of Technology (pp. 318-340). Oxford University Press. https://doi.org/10.1093/oxfordhb/9780190851187.013.19
Ernst, E. (2022). Artificial Intelligence: Productivity Growth and the Transformation of Capitalism. En A. Bounfour (ed.), Platforms and Artificial Intelligence. The Next Generation of Competences (pp. 149-181). Springer. https://doi.org/10.1007/978-3-030-90192-9_7
European Comission, & High-Level Expert Group on Artificial Intelligence. (2018). A definition of IA: Main capabilities and scientific disciplines. High-Level Expert Group on Artificial Intelligence. https://ec.europa.eu/futurium/en/system/files/ged/ai_hleg_definition_of_ai_18_december_1.pdf
Fahim, S. (2024). Ethico-Legal Aspect of AI-driven Driverless Cars. Springer. https://doi.org/10.1007/978-981-97-6883-7
Farhadi, A. (2021). There is no “I” in “AI”. AI & Society, 36(3), 1035-1046. https://doi.org/10.1007/s00146-020-01136-2
Feller Schleyer, C. (2005). El derecho penal en la sociedad actual: un riesgo para las garantías penales. Pro Jure Revista de Derecho - Pontificia Universidad Católica de Valparaíso, 26(1), 41-52.
Fincan, M. (2022). Artificial Intelligence and Legal Issues. A Review of AI-based Legal Impasses in Terms of Criminal Law (vol. 406). Duncker & Humblot. https://doi.org/10.3790/978-3-428-58716-2
Fleissner, C. (2018). Inclusive Capitalism Based on Binary Economics and Positive International Human Rights in the Age of Artificial Intelligence. Global Studies Law Review, 17(1), 201-244. https://openscholarship.wustl.edu/cgi/viewcontent.cgi?article=1639&context=law_globalstudies
Floridi, L. (2014). The Fourth Revolution. How the Infosphere is Reshaping Human Reality. Oxford University Press.
Floridi, L. (2017). Digital’s Cleaving Power and Its Consequences. Philosophy & Technology, 30(2), 123-129. https://doi.org/10.1007/s13347-017-0259-1
Floridi, L., & Sanders, J. W. (2004). On the morality of artificial agents. Minds and Machines, 14(3), 349-379. https://doi.org/10.1023/B:MIND.0000035461.63578.9d
Fosch-Villaronga, E. (2020). Robots, Healthcare, and the Law. Regulating Automation in Personal Care. Routledge. https://doi.org/10.4324/9780429021930
Fosch-Villaronga, E., & Poulsen, A. (2022). Diversity and Inclusion in Artificial Intelligence. En B. Custers y E. Fosch-Villaronga (eds.), Law and Artificial Intelligence. Regulating AI and Applying AI in Legal Practice (pp. 109-134). Springer. https://doi.org/10.1007/978-94-6265-523-2_6
Frank, M. R., Autor, D., Bessen, J. E., Brynjolfsson, E., Cebrian, M., Deming, D. J., Feldman, M., Groh, M., Lobo, J., Moro, E., Wang, D., Youn, H., & Rahwan, I. (2019). Toward understanding the impact of artificial intelligence on labor. Proceedings of the National Academy of Sciences, 116(14), 6531-6539. https://doi.org/10.1073/pnas.1900949116
Freitas, P. M., Andrade, F., & Novais, P. (2014). Criminal liability of autonomous agents: From the unthinkable to the plausible. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 8929, 145-156. https://ciencia.ucp.pt/en/publications/criminal-liability-of-autonomous-agents-from-the-unthinkable-to-t
Fuchs, C. (2014). Critique of the Political Economy of Informational Capitalism and Social Media. En C. Fuchs y M. Sandoval (eds.), Critique, Social Media and the Information Society (pp. 51-65). Routledge.
García Sánchez, M. (2021). Robots e inteligencia artificial: the responsibility gap. En G. Fernández-Pacheco Alises y J. Llaquet de Entrambasaguas (eds.), El sistema jurídico ante la digitalización. Estudios de derecho público y criminología (pp. 97-119). Tirant lo Blanch.
Gaur, L., Arora, G. K., & Jhanjhi, N. Z. (2023). Deep Learning Techniques for Creation of DeepFakes. En L. Gaur (ed.), DeepFakes. Creation, Detection, and Impact (pp. 23-34). CRC Press. https://doi.org/10.1201/9781003231493-3
Gaur, L., Mallik, S., & Jhanjhi, N. Z. (2023). Introduction to DeepFake Technologies. En L. Gaur (ed.), DeepFakes. Creation, Detection, and Impact (pp. 1-8). CRC Press. https://doi.org/10.1201/9781003231493-1
Geetha, T. V., & Sendhilkumar, S. (2023). Machine Learning. Chapman and Hall, CRC. https://doi.org/10.1201/9781003290100
Giannini, A., & Kwik, J. (2023). Negligence Failures and Negligence Fixes. A Comparative Analysis of Criminal Regulation of AI and Autonomous Vehicles. Criminal Law Forum, 34(1), 43-85. https://doi.org/10.1007/s10609-023-09451-1
Gruetzemacher, R., & Whittlestone, J. (2022). The transformative potential of artificial intelligence. Futures, 135. https://doi.org/10.1016/j.futures.2021.102884
Guo, E. (2022, 19 de diciembre). A Roomba recorded a woman on the toilet. How did screenshots end up on Facebook? MIT Technology Review. https://www.technologyreview.com/2022/12/19/1065306/roomba-irobot-robot-vacuums-artificial-intelligence-training-data-privacy/
Gutierrez, C. I., Aguirre, A., Uuk, R., Boine, C. C., & Franklin, M. (2023). A Proposal for a Definition of General Purpose Artificial Intelligence Systems. Digital Society, 2(3). https://doi.org/10.1007/s44206-023-00068-w
Gutiérrez Palacio, J. D. (2023). Concepto jurídico-penal de acción a partir de la inteligencia artificial. En E. Demetrio Crespo, D. Caro Coria y M. E. Escobar Bravo (eds.), Estudios de Derecho penal, neurociencias e inteligencia artificial (pp. 67-77). Ediciones de la Universidad de Castilla-La Mancha.
Hägle, O. (2022). From Copy & Paste to Deep Fakes – Digital Collaging and Image Manipulation. En T. Dreier y T. Andina (eds.), Digital Ethics. The issue of images (pp. 207-227). Nomos, Hart. https://doi.org/10.5040/9781509964154.ch-012
Hassri, M. H., & Man, M. (2023). The Impact of Open-Source Software on Artificial Intelligence. Journal of Mathematical Sciences and Informatics, 3(2), 47-55. https://doi.org/10.46754/jmsi.2023.12.006
Hayward, K. J., & Maas, M. M. (2020). Artificial intelligence and crime: A primer for criminologists. Crime, Media, Culture, 17(2), 209-233. https://doi.org/10.1177/1741659020917434
Hayward, P., & Rahn, A. (2015). Opening Pandora’s Box: pleasure, consent and consequence in the production and circulation of celebrity sex videos. Porn Studies, 2(1), 49-61. https://doi.org/10.1080/23268743.2014.984951
Hicks, J. (2020). Digital ID capitalism: how emerging economies are re-inventing digital capitalism. Contemporary Politics, 26(3), 330-350. https://doi.org/10.1080/13569775.2020.1751377
Hildebrandt, M. (2008). Ambient Intelligence, Criminal Liability and Democracy. Criminal Law and Philosophy, 2(2), 163-180. https://doi.org/10.1007/s11572-007-9042-1
Holliday, C. (2021). Rewriting the stars: Surface tensions and gender troubles in the online media production of digital deepfakes. Convergence: The International Journal of Research into New Media Technologies, 27(4), 899-918. https://doi.org/10.1177/13548565211029412
Inatani, T. (2022). “Moralizing Technology” and Criminal Law Theory. En G. Borges y C. Sorge (eds.), Law and Technology in a Global Digital Society. Autonomous Systems, Big Data, IT Security and Legal Tech (pp. 27-49). Springer. https://doi.org/10.1007/978-3-030-90513-2_2
Ishay, M. R. (2008). The History of Human Rights. From Ancient Times to the Globalization Era. University of California Press.
Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399. https://doi.org/10.1038/s42256-019-0088-2
Judge, B., Nitzberg, M., & Russell, S. (2025). When code isn’t law: rethinking regulation for artificial intelligence. Policy and Society, 44(1), 85-97. https://doi.org/10.1093/polsoc/puae020
Käll, J. (2023). Posthuman Property and Law. Commodification and Control through Information, Smart Spaces and Artificial Intelligence. Routledge.
Kaushik, P. (2022). Privacy and Other Legal Concerns in the Wake of Deepfake Technology: Comparative Study of India, US and China. En N. D. Dewani, Z. A. Khan, A. Agarwal, M. Sharma y S. A. Khan (eds.), Handbook of Research on Cyber Law, Data Protection, and Privacy (pp. 37-49). IGI Global. https://doi.org/10.4018/978-1-7998-8641-9.ch003
Kenney, M., & Zysman, J. (2020). The platform economy: restructuring the space of capitalist accumulation. Cambridge Journal of Regions, Economy and Society, 13(1), 55-76. https://doi.org/10.1093/cjres/rsaa001
Kerr, I. (2010). Digital Locks and the Automation of Virtue. En Michael Geist (ed.), From «Radical Extremism» to «Balanced Copyright». Canadian Copyright and the Digital Agende (pp. 247-303). Irwin Law.
King, T. C. (2019). Projecting AI-Crime: A Review of Plausible Threats. En C. Öhman y D. Watson (eds.), The 2018 Yearbook of the Digital Ethics Lab (pp. 65-84). Springer. https://doi.org/10.1007/978-3-030-17152-0_6
Kirpichnikov, D., Pavlyuk, A., Grebneva, Y., & Okagbue, H. (2020). Criminal Liability of the Artificial Intelligence. E3S Web of Conferences, BTSES-2020, 159, 1-10. https://doi.org/10.1051/e3sconf/202015904025
Korinek, A. (2020). Integrating Ethical Values and Economic Value to Steer Progress in Artificial Intelligence. En M. D. Dubber, F. Pasquale y S. Das (eds.), The Oxford Handbook of Ethics of AI (pp. 474-491). Oxford University Press. https://doi.org/10.1093/oxfordhb/9780190067397.013.30
Korinek, A., & Stiglitz, J. E. (2019). Artificial Intelligence and Its Implications for Income Distribution and Unemployment. En A. Agrawal, J. Gans y A. Goldfarb (eds.), The Economics of Artificial Intelligence: An Agenda (pp. 349-390). The University of Chicago Press. https://doi.org/10.7208/chicago/9780226613475.003.0014
Krönke, C. (2020). Artificial Intelligence and Social Media. En T. Wischmeyer y T. Rademacher (eds.), Regulating Artificial Intelligence (pp. 145-173). Springer. https://doi.org/10.1007/978-3-030-32361-5_7
Lagioia, F., & Sartor, G. (2020). AI Systems Under Criminal Law: a Legal Analysis and a Regulatory Perspective. Philosophy and Technology, 33(3), 433-465. https://doi.org/10.1007/s13347-019-00362-x
Langley, P., & Leyshon, A. (2017). Platform capitalism: The intermediation and capitalisation of digital economic circulation. Finance and Society, 3(1), 11-31. https://doi.org/https://doi.org/10.2218/finsoc.v3i1.1936
Latour, B. (1999). Pandora’s Hope. Essays on the Reality of Science Studies. Oxford University Press.
Maher, S. (2022). Deep Fakes. Seeing and Not Believing. En M. Filimowicz (ed.), Deep Fakes. Algorithms and Society (pp. 1-22). Routledge.
Mamak, K. (2023). Robotics, AI and Criminal Law. Routledge. https://doi.org/10.4324/9781003331100
Mamak, K. (2024). AGI crimes? The role of criminal law in mitigating existential risks posed by artificial general intelligence. AI & SOCIETY, 40, 2691-2701. https://doi.org/10.1007/s00146-024-02036-5
Mandel, G. N. (2007). History Lessons for a General Theory of Law and Technology. Minnesota Journal of Law, Science & Technology, 8(2), 551-570.
Mañalich, J. P. (2010). La estructura de la autoría mediata. Revista de derecho (Valparaíso), (34), 385-414. http://dx.doi.org/10.4067/S0718-68512010000100011
Martin, N. (2021). Image-Based Sexual Abuse and Deepfakes: A Survivor Turned Activist’s Perspective. En A. Powell, A. Flynn y L. Sugiura (eds.), The Palgrave Handbook of Gendered Violence and Technology (pp. 55-72). Springer. https://doi.org/10.1007/978-3-030-83734-1_4
Massaro, T. M., & Norton, H. (2018). Artificial intelligence and the First Amendment. En W. Barfield (ed.), Research Handbook on the Law of Artificial Intelligence (pp. 353-374). Edward Elgar Publishing. https://doi.org/10.4337/9781786439055.00024
Mittelman, J. H. (2022). The Power of Algorithmic Capitalism. International Critical Thought, 12(3), 448-469. https://doi.org/10.1080/21598282.2022.2070858
Mokyr, J. (1992). Technological Inertia in Economic History. The Journal of Economic History, 52(2), 325-338. https://doi.org/10.1017/S0022050700010767
Monostori, L., Kádár, B., Bauernhansl, T., Kondoh, S., Kumara, S., Reinhart, G., Sauer, O., Schuh, G., Sihn, W., & Ueda, K. (2016). Cyber-physical systems in manufacturing. CIRP Annals, 65(2), 621-641. https://doi.org/10.1016/j.cirp.2016.06.005
Morondo Taramundi, D. (2022). Discrimination by Machine-Based Decisions: Inputs and Limits of Anti-discrimination Law. En B. Custers y E. Fosch-Villaronga (eds.), Law and Artificial Intelligence. Regulating AI and Applying AI in Legal Practice (pp. 73-85). Springer. https://doi.org/10.1007/978-94-6265-523-2_4
Morozov, E. (2022). Crítica de la razón tecnofeudal. New Left Review, 133/134,99-140. https://newleftreview.es/issues/133/articles/critique-of-techno-feudal-reason-translation.pdf
Nachtwey, O., & Seidl, T. (2024). The Solutionist Ethic and the Spirit of Digital Capitalism. Theory, Culture & Society, 41(2), 91-112. https://doi.org/10.1177/02632764231196829
Noorman, M., & Johnson, D. G. (2014). Negotiating autonomy and responsibility in military robots. Ethics and Information Technology, 16(1), 51-62. https://doi.org/10.1007/s10676-013-9335-0
Öhman, C. (٢٠٢٢). The identification game: deepfakes and the epistemic limits of identity. Synthese, 200(4). https://doi.org/10.1007/s11229-022-03798-5
Pace, J. (2018). The Concept of Digital Capitalism. Communication Theory, 28(3), 254-269. https://doi.org/10.1093/ct/qtx009
Pagallo, U., & Quattrocolo, S. (2018). The impact of AI on criminal law, and its twofold procedures. En W. Barfield (ed.), Research Handbook on the Law of Artificial Intelligence (pp. 385-409). Edward Elgar Publishing. https://doi.org/10.4337/9781786439055.00026
Parayil, G. (2005). The Digital Divide and Increasing Returns: Contradictions of Informational Capitalism. The Information Society, 21(1), 41-51. https://doi.org/10.1080/01972240590895900
Pasquale, F. (2016). Two Narratives of Platform Capitalism. Yale Law & Policy Review, 35, 309-319. https://yalelawandpolicy.org/two-narratives-platform-capitalism
Pasquale, F. (2020). New Laws of Robotics. Defending Human Expertise in the Age of AI. Harvard University Press. https://doi.org/10.4159/9780674250062
Paunov, C., & Guellec, D. (2022). Artificial Intelligence: A Review of the Economic Context and Policy Agenda. En A. Bounfour (ed.), Platforms and Artificial Intelligence. The Next Generation of Competences (pp. 79-101). Springer. https://doi.org/10.1007/978-3-030-90192-9_4
Pavarini, M. (2002). Control y dominación. Teorías criminológicas burguesas y proyecto hegemónico. Siglo XXI.
Perrigo, B. (2023). OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic. Time. https://time.com/6247678/openai-chatgpt-kenya-workers/
Piletić, A. (2024). Continuity or change? Platforms and the hybridization of neoliberal institutional contexts. Review of International Political Economy, 31(2), 438-462. https://doi.org/10.1080/09692290.2023.2220088
Poncibò, C., & Cannarsa, M. (2022). AI and the Law. Interdisciplinary Challenges and Comparative Perspectives. En L. A. Dimatteo, C. Poncibò y M. Cannarsa (eds.), The Cambridge Handbook of Artificial Intelligence. Global Perspectives on Law and Ethics (pp. 419-428). Cambridge University Press. https://doi.org/10.1017/9781009072168.037
Popova, M. (2020). Reading out of context: pornographic deepfakes, celebrity and intimacy. Porn Studies, 7(4), 367-381. https://doi.org/10.1080/23268743.2019.1675090
Prodnik, J. A. (2021). Algorithmic Logic in Digital Capitalism. En P. Verdegem (ed.), AI for Everyone? Critical Perspectives (vol. 48, pp. 203-222). University of Westminster Press. https://doi.org/10.16997/book55.l
Ratner, C. (2021). When “Sweetie” is not so Sweet: Artificial Intelligence and its Implications for Child Pornography. Family Court Review, 59(2), 386-401. https://doi.org/10.1111/fcre.12576
Risse, M. (2022). Artificial Intelligence and the Past, Present, and Future of Democracy. En S. Voeneky, P. Kellmeyer, O. Mueller y W. Burgard (eds.), The Cambridge Handbook of Responsible Artificial Intelligence. Interdisciplinary perspective (pp. 85-103). Cambridge University Press. https://doi.org/10.1017/9781009207898.009
Rizk, N. (2020). Artificial Intelligence and Inequality in the Middle East. En M. D. Dubber, F. Pasquale y S. Das (eds.), The Oxford Handbook of Ethics of AI (pp. 624-649). Oxford University Press. https://doi.org/10.1093/oxfordhb/9780190067397.013.40
Romeo Casabona, C. (2022). La atribución de responsabilidad penal por los hechos cometidos por sistemas autónomos inteligentes, robótica y tecnologías conexas. ULP Law Review, 16(1-2), 7-16. https://doi.org/10.60543/ul-plr-rdul-p.v16i1-2.8716
Romeo Casabona, C. (2023). La atribución de responsabilidad penal por los hechos cometidos por sistemas autónomos inteligentes, robótica y tecnologías conexas. En J. Muñoz Sánchez, O. García Pérez, A. I. Cerezo Domínguez y E. García España (eds.), Estudios jurídico-penales, criminológicos y político criminales. Libro homenaje al Profesor José Luis Díez Ripollés (pp. 695-707). Tirant lo Blanch.
Rouvroy, A. (2009). Which Rights for Which Subjects? Genetic Confidentiality and Privacy in the Post-Genomic Era. En R. Luppicini y R. Adell (eds.), Handbook of Research on Technoethics (pp. 454-473). IGI Global. https://doi.org/10.4018/9781605660226.ch030
Rusche, G., & Kirchheimer, O. (1984). Pena y estructura social. Temis.
Russell, S., & Norvig, P. (2022). Artificial intelligence: A modern approach (4.a ed.). Pearson.
Sabouret, N. (2022). What Artificial Intelligence Can Do and What It Cannot Do. En A. Bounfour (ed.), Platforms and Artificial Intelligence. The Next Generation of Competences (pp. 183-192). Springer. https://doi.org/10.1007/978-3-030-90192-9_8
Sachoulidou, A. (2024). AI Systems and Criminal Liability. Oslo Law Review, 11(1), 1-10. https://doi.org/10.18261/olr.11.1.3
Sadowski, J. (2020). Too Smart: How Digital Capitalism Is Extracting Data, Controlling Our Lives, and Taking Over the World. The MIT Press.
Scharre, P., & Horowitz, M. C. (2015). An Introduction to Autonomy in Weapon Systems. https://www.files.ethz.ch/isn/188865/Ethical%20Autonomy%20Working%20Paper_021015_v02.pdf
Schiller, D. (1999). Digital Capitalism. The MIT Press. https://doi.org/10.7551/mitpress/2415.001.0001
Schiller, D. (2011). Power Under Pressure: Digital Capitalism In Crisis. International Journal of Communication, 5, 924-941.
Schlienger, D. (2024). The Fallacy of Autonomous AI. 7th Conference on Technology Ethics (TETHICS 2024), 141-147. https://ceur-ws.org/Vol-3901/short_4.pdf
Seamster, L., & Charron-Chénier, R. (2017). Predatory Inclusion and Education Debt: Rethinking the Racial Wealth Gap. Social Currents, 4(3), 199-207. https://doi.org/10.1177/2329496516686620
Shad, K. (2023). Artificial intelligence-related anomies and predictive policing: normative (dis)orders in liberal democracies. AI & Society, 40, 891-902. https://doi.org/10.1007/s00146-023-01751-9
Sheikh, H., Prins, C., & Schrijvers, E. (2023). Mission AI. The New System Technology. Springer. https://doi.org/10.1007/978-3-031-21448-6
Sibai, F. N. (2020). AI Crimes: A Classification. 2020 International Conference on Cyber Security and Protection of Digital Services (Cyber Security). https://doi.org/10.1109/CyberSecurity49315.2020.9138891
Silva Sánchez, J.-M. (2011). La expansión del Derecho penal. Aspectos de la política criminal en las sociedades postindustriales (3.a ed.). BdeF.
Soriano Arnanz, A. (2021). Data protection for the prevention of algorithmic discrimination. Protecting from discrimination and others harms caused by algorithms through privacy in teh EU: Possibilities, shortcomings and proposals. Thomson Reuters Aranzadi.
Soriano Arnanz, A., & Simó Soler, E. (2021). Machine learning y Derecho: aprendiendo la (des)igualdad. En S. Barona Vilar (ed.), Justicia algorítmica y neuroderecho. Una mirada multidisciplinar (pp. 183-207). Tirant lo Blanch.
Spivak, R. (2019). «Deepfakes»: The newestway to commit one of the oldest crimes. Georgetown Law Technology Review, 3(2), 339-400.
Srnicek, N. (2017). Platform capitalism. Polity.
Sullins, J. P. (2006). When Is a Robot a Moral Agent? International Review of Information Ethics, 6(12), 23-30. https://doi.org/https://doi.org/10.29173/irie136
Sullins, J. P. (2011). When is a robot a moral agent? En M. Anderson y S. L. Anderson (eds.), Machine ethics (pp. 151-161). Cambridge University Press. https://doi.org/10.1017/cbo9780511978036.013
Suslavich, B. T. (2023). Nonconsensual deepfakes: A «deep problem» for victims. Albany Journal of Science and Technology, 33(1), 1-23.
Szymanski, N. J., Rendy, B., Fei, Y., Kumar, R. E., He, T., Milsted, D., McDermott, M. J., Gallant, M., Cubuk, E. D., Merchant, A., Kim, H., Jain, A., Bartel, C. J., Persson, K., Zeng, Y., & Ceder, G. (2023). An autonomous laboratory for the accelerated synthesis of novel materials. Nature, 624(7990), 86-91. https://doi.org/10.1038/s41586-023-06734-w
Taylor, K.-Y. (2019). Race for Profit. University of North Carolina Press. https://doi.org/10.5149/northcarolina/9781469653662.001.0001
Tessier, C. (2017). Robots Autonomy: Some Technical Issues. En W. F. Lawless, R. Mittu, D. Sofge y S. Russell (eds.), Autonomy and Artificial Intelligence: A Threat or Savior? (pp. 179-194). Springer. https://doi.org/10.1007/978-3-319-59719-5_8
Tischbirek, A. (2020). Artificial Intelligence and Discrimination: Discriminating Against Discriminatory Systems. En T. Wischmeyer y T. Rademacher (eds.), Regulating Artificial Intelligence (pp. 103-121). Springer. https://doi.org/10.1007/978-3-030-32361-5_5
Törnberg, P. (2023). How platforms govern: Social regulation in digital capitalism. Big Data & Society, 10(1). https://doi.org/10.1177/20539517231153808
Törnberg, P., & Uitermark, J. (2022). Tweeting ourselves to death: the cultural logic of digital capitalism. Media, Culture & Society, 44(3), 574-590. https://doi.org/10.1177/01634437211053766
Ulnicane, I., Eke, D. O., Knight, W., Ogoh, G., & Stahl, B. C. (2021). Good governance as a response to discontents? Déjà vu, or lessons for AI from other emerging technologies. Interdisciplinary Science Reviews, 46(1-2), 71-93. https://doi.org/10.1080/03080188.2020.1840220
Urbina, F., Lentzos, F., Invernizzi, C., & Ekins, S. (2022). Dual use of artificial-intelligence-powered drug discovery. Nature Machine Intelligence, 4, 189-191. https://doi.org/10.1038/s42256-022-00465-9
Van der Sloot, B., & Wagensveld, Y. (2022). Deepfakes: regulatory challenges for the synthetic society. Computer Law & Security Review, 46. https://doi.org/10.1016/j.clsr.2022.105716
Varoufakis, Y. (2024). Tecnofeudalismo. El sigiloso sucesor del capitalismo (M. Valdivieso, trad.). Deusto.
Vasak, K. (1977). A 30-year struggle. The sustained efforts to give force of law to the Universal Declaration of Human Rights. The UNESCO Courier, November, 29-32.
Vega Lozada, F. (2021). Inteligencia artificial y ciberviolencia de género: el caso de la pornografía no consentida. Derecom, 31, 173-180.
Verbeek, P.-P. (2009). Cultivating Humanity: towards a Non-Humanist Ethics of Technology. En J. K. B. Olsen, E. Selinger y S. Riis (eds.), New Waves in Philosophy of Technology (pp. 241-263). Palgrave Macmillan.
Verbeek, P.-P. (2011). Moralizing Technology. Understanding and Designing the Morality of Things. University of Chicago Press. https://doi.org/10.7208/chicago/9780226852904.001.0001
Verdegem, P. (2022). Dismantling AI capitalism: the commons as an alternative to the power concentration of Big Tech. AI & Society, 39, 727-737. https://doi.org/10.1007/s00146-022-01437-8
Vilches, G. (2023). La falsa promesa de la IA. ctxt. https://ctxt.es/es/20230501/Culturas/42888/inteligencia-artificial-ilustracion-plagio-vacio-legal.htm
Wark, M. (2019). Capital is dead: Is This Something Worse? (e-book). Verso.
Warren, S., & Brandeis, L. (1890). The right to privacy. Harvard Law Review, 4(5), 193-220.
Williams, M.-A. (2016). Decision-Theoretic Human-Robot Interaction: Designing Reasonable and Rational Robot Behavior. En A. Agah, M. A. Salichs, J.-J. Cabibihan, H. He y A. M. Howard (eds.), Social Robotics. 8th International Conference, ICSR 2016. Proceedings (pp. 72-82). Kansas, noviembre 1-3. Springer. https://doi.org/10.1007/978-3-319-47437-3_8
Zuiderveen Borgesius, F. J. (2020). Strengthening legal protection against discrimination by algorithms and artificial intelligence. International Journal of Human Rights, 24(10), 1572-1593. https://doi.org/10.1080/13642987.2020.1743976
Recibido: 12/02/2025
Aprobado: 01/07/2025
1 Las referencias a la IA se hacen en plural («tecnologías de IA») porque estas son un conjunto variado de enfoques y técnicas informáticas.
2 Un estudio sobre las clasificaciones y notas características de las IA puede consultarse en Sheikh et al. (2023, pp. 86 y ss).
3 Para Tessier (2017), las tres propiedades relevantes de los robots autónomos son reactividad, orientación a objetivos y autonomía (p. 180).
4 En este sentido, la IA presenta similitudes con los animales domesticados, que «a veces actúan por su propia voluntad y causan daños, por lo que sus dueños pueden ser considerados responsables de los daños causados por sus animales, incluso si los dueños no tienen intenciones culpables» (Asaro, 2012, p. 176). De todos modos, no puede perderse de perspectiva, como lo informa Williams (2016), una diferencia fundamental de las máquinas inteligentes con los animales: «los robots son diseñados, y la calidad del diseño puede tener un impacto enorme en qué tan bien y con qué facilidad los humanos pueden predecirlos» (p. 75).
5 La postura de Calo (2015) está construida en torno a la vinculación de los robots (en general, tecnologías antropomórficas) con las personas, atribuyéndole a los primeros un «valencia social»; esto es, la capacidad de esas máquinas de combinarse con las personas. Apoyado por investigaciones psicológicas en la percepción de las personas sobre los robots y el tipo de relacionamiento que forjamos con esas máquinas, Calo adhiere a la idea de que los robots pueden pertenecer a una nueva categoría ontológica. Como él mismo lo desarrolla, esta conclusión tiene implicaciones jurídicas, ya que «la ley tiende a suponer una dicotomía entre individuos y herramientas» (p. 546).
6 Especialmente ilustrativa resulta al respecto la exposición de los resultados obtenidos en un workshop en el que participaron partes interesadas provenientes de la academia, del mundo privado y de agencias públicas sobre los posibles usos de las IA en la comisión de delitos, publicados por Caldwell et al. (2020).
7 En el mismo sentido, aceptando la premisa, véase Benítez Ortúzar (2023, p. 498).
8 Se puede obtener información sobre esta instalación artística en !Mediengruppe Bitnik (s.f.). Los desafíos jurídicos que este caso presentó pueden consultarse, entre otros, en Abbott (2020, pp. 111-112), Chesterman (2021, p. 57), Dsouza (2020, p. 253), Fosch-Villaronga (2020, p. 164), K. J. Hayward y Maas (2020, p. 9), y Lagioia y Sartor (2020, p. 452).
9 La niña, que acogió la sugerencia, no sufrió lesiones (BBC, 2021). Este caso pone de relieve las especiales condiciones en las que las y los niños se relacionan con este tipo de tecnologías. Se ha determinado que niñas y niños de entre 6 y 11 años tienden a sobrestimar la «inteligencia» de los asistentes conversacionales, que carecen de certezas sobre los sentimientos o la capacidad de acción de los dispositivos, que desconocen los riesgos para su intimidad, y que ellas y ellos se sienten moralmente obligados a mantener con las máquinas un trato cordial y respetuoso (Andries & Robertson, 2023).
10 A partir del surgimiento de la IA, las técnicas de falseamiento audiovisual han conseguido una escala y una calidad inéditas y se han hecho disponibles para el gran público, características que no consiguieron desarrollar con las tecnologías previamente existentes (Gaur, Mallik, et al., 2023, p. 4; Hägle, 2022, pp. 207-208). De ahí la distinción entre cheapfakes, en las que «no se utiliza tecnología avanzada para su generación» (Gaur, Arora, et al., 2023, p. 24), y deepfakes, que son posibles gracias a tecnologías avanzadas de IA basadas en aprendizaje automático (machine learning). En consecuencia, la IA permite más fácilmente la generación de ese contenido falseado con gran calidad que hace casi prácticamente indistinguible su condición apócrifa (Caldera, 2019, p. 178).
11 Enfocado en las conductas dañosas que podría producir la IA general, Mamak (2024) propone acudir al derecho penal, pero con un enfoque preventivo; esto es, evitando que esas conductas lleguen a producirse. Al respecto, el autor propone prever un delito que sancione «al que introduzca inteligencia artificial incontrolable» (p. 7), punible tanto en su forma dolosa como culposa y también su tentativa.
12 La denominación de este nuevo orden tampoco ha estado exenta de debate. Dependiendo del énfasis puesto, ha sido llamado capitalismo digital (Hicks, 2020; Nachtwey & Seidl, 2024; Pace, 2018; Prodnik, 2021; Sadowski, 2020; Schiller, 1999; Schiller, 2011; Törnberg, 2023; Törnberg & Uitermark, 2022), capitalismo informacional (Arvidsson & Colleoni, 2012; Burdon, 2020; Cohen, 2019; Fuchs, 2014; Parayil, 2005; Rouvroy, 2009), capitalismo de plataformas (Kenney & Zysman, 2020; Langley & Leyshon, 2017; Pasquale, 2016; Srnicek, 2017), capitalismo algorítimico (Mittelman, 2022) o capitalismo de la información (Crawford, 2021; Dixon-Román & Parisi, 2020).
13 OpenAI, la empresa propitaria de ChatGPT, usó trabajadores kenianos para entrenarlo y hacerlo menos tóxico, subremunerándolos con solo dos dólares por hora trabajada (Perrigo, 2023).
14 Por ejemplo, el reclamo de Vilches (2023) con relación a los efectos de las aplicaciones de IA generativas en el trabajo de los profesionales de la ilustración y del diseño: «las IAs de ilustración no son más que la expresión última y más descarnada del capitalismo extractivo»; o la huelga de 2023 de varios sindicatos que representan a trabajadoras y trabajadores vinculados con la producción cinematográfica, televisiva y de videojuegos.
15 En el sentido en el que lo propone Wark (2019), para quien la comodificación de la información ha producido el surgimiento de una nueva clase, la de hackers, que se distingue de las tradicionales de trabajadores y capitalistas. La clase de los hackers se compone por «todos los que producen nueva información a partir de información antigua, y no sólo a las personas que codifican para ganarse la vida» (cap. 2).
* Este artículo se ha elaborado en el marco del proyecto de investigación Fondecyt-Iniciación N.° 11230216 (2023), titulado «Aplicación del derecho penal a la inteligencia artificial», financiado por la Agencia Nacional de Investigación y Desarrollo de Chile y del cual el autor es investigador responsable.
** Doctor en Derecho por la Universidade da Coruña (España). Académico e investigador con dedicación de jornada completa en el Área de Derecho Penal de la Facultad de Derecho de la Universidad de Tarapacá (Chile).
Código ORCID: 0000-0003-0907-5714. Correo electrónico: rnavarrod@academicos.uta.cl