000 02900nam a2200277 i 4500
008 210705t2021 sp ||||| |||| 00| 0 spa d
017 _aNa.677-2021
020 _a978-84-1390-427-6
035 _a(OCoLC)1280411541
040 _cES-MaBCM
100 1 _aBorges Blázquez, Raquel
_9124226
245 1 0 _aInteligencia artificial y proceso penal
_cRaquel Borges Blázquez ; prólogo, Elena Martínez García
250 _a1ª ed.
260 _aCizur Menor, Navarra
_b : Aranzadi
_c, 2021
300 _a220 p.
_c ; 25 cm
490 0 _aEstudios
504 _aIncluye referencias bibliográficas
520 _aLa Inteligencia Artificial (IA) tiene innumerables ventajas, pero también problemas de gran calado ético a los que el derecho deberá dar respuesta porque su uso puede atacar derechos fundamentales básicos en el sistema de justicia penal. Los avances de las ciencias empíricas hacen que teorías como las de Lombroso recobren fuerza y que situaciones distópicas como Minority Report puedan llegar a predecirse con algoritmos. La pregunta que deberemos hacernos es hasta dónde estamos dispuestos a llegar por mantener la seguridad en las calles, sin olvidar que el artículo 24 CE hará de cortapisa a posibles avances de teorías de derecho penal del enemigo. La tensión entre identificar el riesgo y minimizar el daño no tiene una solución sencilla: ¿es posible minimizar el daño de aquellos que pueden ser erróneamente clasificados como de riesgo alto?, ¿es posible minimizar el daño de la sociedad si un infractor peligroso es clasificado erróneamente como riesgo bajo? La IA en materia judicial se está desarrollando sin tener una base reflexiva suficiente sobre para qué y hasta dónde puede llegar. Es indispensable que pongamos el acento en los riesgos y en los límites de su uso. No porque partamos de una visión temerosa, sino porque la realidad apunta a que tanto la IA judicial como la IA policial nos van a acompañar y debemos ser capaces de marcar cómo lo harán no solo a partir de las posibilidades de su alcance, también deberemos identificar los peligros que su uso descontrolado puede traer consigo. Predecir el futuro mirando al pasado conlleva el riesgo de que en el futuro se sigan repitiendo los mismos estereotipos de género, raza y religión que, poco a poco, vamos superando como sociedad. Debemos ser prudentes no solo en fase de aplicación de la IA, sino ir un paso más allá y preguntarnos quién hay detrás de la máquina, cómo se ha hecho el algoritmo, a quién beneficia y a quién perjudica -consciente o inconscientementeporque puede acabar por controlar el pensamiento.
650 7 _aInteligencia artificial
_2
650 7 _aDerecho penal
_2
650 7 _aDelito informático
_2
650 7 _aSeguridad pública
_2
700 1 _929446
_aMartínez García, Elena
942 _cBK
999 _c218801
_d218801