000 02434nam a2200289 i 4500
001 225134
003 ES-MaBCM
005 20231108062637.0
008 230726s2023 sp ||||| |||| 00| 0 spa d
017 _aNA.792-2023
020 _a978-84-1124-621-7
035 _a(OCoLC)1385444435
040 _cES-MaBCM
100 1 _aSimón Castellano, Pere
_9115599
245 1 3 _aLa evaluación de impacto algorítmico en los derechos fundamentales
_cPere Simón Castellano ; prólogo, Fernando Miró Llinares
250 _a1ª ed.
260 _aCizur Menor, Navarra :
_bAranzadi ,
_c2023
300 _a153 p.
_b : gráf.
_c ; 24 cm
490 0 _aEstudios
500 _aEn la port.: Ministerio de Ciencia e Innovación. Plan de Recuperación, Transformación y Resiliencia. Agencia Estatal de Investigación.
504 _aBibliografía: p. 127-153
520 _aEl presente trabajo constituye una aportación teórica, pero también práctica, acerca de los criterios que deben permitirnos diseñar y usar las herramientas normativas que, en los próximos años, deberán guiar el desarrollo de sistemas basados en inteligencia artificial, con potencial impacto sobre los derechos fundamentales. El autor dedica una parte importante de su trabajo a estudiar la naturaleza jurídica de las llamadas evaluaciones de impacto algorítmico en nuestro ordenamiento jurídico, a analizar cómo se produce la recepción de una práctica habitual en los sistemas del derecho común que más allá de las directrices éticas a las que responden, están basadas en un traspaso de la responsabilidad y de la obligación de ponderar, un ejercicio que ahora se exige a empresas y administraciones públicas implicadas. En un escenario normativo dominado por el enfoque de riesgo, como el propuesto por la Unión Europea, el papel de las evaluaciones de impacto algorítmico deviene clave. A los juristas nos corresponde, cuanto antes, aceptar este nuevo paradigma, comprendiendo los efectos del principio de responsabilidad proactiva y tratando de definir, con criterios jurídicos estables, qué elementos deben formar parte de ese juicio y cómo deben interpretarse los resultados. Un desafío, pero también una oportunidad, que la obra aprovecha para establecer los términos de un debate necesario.
650 7 _aDerecho del individuo
_958361
650 7 _960275
_aInteligencia artificial
651 4 _9115342
_aEspaña
942 _cBK
_2udc
999 _c225134
_d225134