000 01155nam a2200337 c 4500
999 _c128831
_d129235
001 128831
003 ES-MaFOS
005 20240718104202.0
007 ta
008 240718s2018 sp | |||| 000 0 spa
017 _aM 35633-2017
_bOficina Depósito Legal Madrid
020 _a9788494740848
035 _a(OCoLC)1050272580
040 _aSpMaBN
_bspa
_cES-MaFOS
_erdc
080 _a004.6:17
100 1 _aO'Neil, Cathy
_9101108
245 1 0 _aArmas de destrucción matemática :
_bcómo el big data aumenta la desigualdad y amenaza la democracia /
_cCathy O'Neil ; traducción, Violeta Arranz de la Torre
260 _aMadrid :
_bCapitán Swing ,
_c[2018]
300 _a269 p. ;
_c22 cm
504 _aIncluye referencias bibliográficas
520 _aVivimos en la edad del algoritmo. Las decisiones que afectan a nuestras vidas no están hechas por humanos, sino por modelos matemáticos. En teoría, esto debería conducir a una mayor equidad: todos son juzgados de acuerdo con las mismas reglas, sin sesgo. Pero en realidad, ocurre exactamente lo contrario. Los modelos que se utilizan en la actualidad son opacos, no regulados e incontestables, incluso cuando están equivocados. Esto deriva en un refuerzo de la discriminación: si un estudiante pobre no puede obtener un préstamo porque un modelo de préstamo lo considera demasiado arriesgado (en virtud de su código postal), quedará excluido del tipo de educación que podría sacarlo de la pobreza, produciéndose una espiral viciosa. Los modelos apuntalan a los afortunados y castigan a los oprimidos: bienvenido al lado oscuro del big data. ONeil expone los modelos que dan forma a nuestro futuro, como individuos y como sociedad. Estas "armas de destrucción matemática" califican a maestros y estudiantes, ordenan currículos, conceden (o niegan) préstamos, evalúan a los trabajadores, se dirigen a los votantes, fijan la libertad condicional y monitorean nuestra salud.
650 4 _aProcesamiento de datos
_98469
650 4 _aDatos estadisticos
_92675
650 0 0 _aAspectos morales
_924582
650 4 _aLibertad de informacion
_96263
942 _2udc
_cLBA