Fermín Morales Prats Francisco Marco Fernández Luis de las Heras Vives
Datos técnicos
La inteligencia artificial ha transformado todos los ámbitos de la vida moderna. Desde la empresa hasta la política, pasando por la educación y la salud, nada ha quedado fuera de su alcance. Y el próximo gran impacto será en el Derecho.
¿Estamos preparados para perder nuestra privacidad? ¿Permitiremos que unas pocas corporaciones conozcan cada detalle de nuestras vidas? ¿Podremos seguir enviando un correo o viajando sin que empresas y gobiernos sepan dónde estamos y con quién?
Este libro revela los mecanismos invisibles que erosionan la intimidad en la era digital y explica cómo la inteligencia artificial ha convertido nuestros datos en el nuevo oro. A través de un análisis jurídico, filosófico y tecnológico, los autores tres académicos especialistas en derecho a la privacidad examinan por qué este derecho ha sido el que más ha mutado en los últimos treinta años.
Una obra imprescindible para comprender los riesgos y las soluciones que definirán la relación entre el ser humano, la tecnología y la libertad en el siglo XXI.
Prólogo 15
Introducción 19
La transformación de la privacidad 20
El auge del dataísmo y los riesgos de la IA en la privacidad 22
El papel del derecho en un mundo digital 23
Parte I
La IA y la privacidad: Orígenes y evolución
Capítulo 1
De las huellas digitales a la inteligencia artificial: el viaje de los datos y la privacidad
1. Introducción: El cerebro detrás de la revolución tecnológica 29
2. Orígenes de la inteligencia artificial: De Turing a los algoritmos modernos 32
3. El fascinante mundo de la Inteligencia Artificial: Descifrando sus secretos 35
4. Tipos de inteligencia artificial: Desde asistentes hasta máquinas superinteligentes 38
5. ¿Cómo funciona la inteligencia artificial? Los algoritmos y los riesgos asociados… 40
6. La economía del big data: datos como moneda de cambio 45
6.1. Los distintos rostros de los datos y su relevancia en el marco del Reglamento de IA 47
6.2. La paradoja de Pulgarcito: Migajas digitales fuera de control 52
7. Retos y peligros de la inteligencia artificial: Una mirada desde el impacto humano 54
7.1. Los datos como moneda de cambio: ¿A qué costo? 54
7.2. La sombra de la vigilancia masiva 55
7.3. Burbujas informativas y polarización: La paradoja de la personalización 56
7.4. Más allá del individuo: El impacto colectivo de la IA 57
8. Visión antropocéntrica de las directrices éticas para una IA fiable: la IA desde la dignidad de la persona 57
8.1. La visión ética 57
8.2. Hacia una privacidad más justa y equitativa 59
9. Inteligencia artificial en España: Oportunidades y desafíos 61
10. Conclusiones iniciales 65
Capítulo 2
La privacidad en perspectiva: del refugio moral a la protección legal
1. Introducción 67
2. Grecia, Roma y la transición desde el cristianismo a la Edad Moderna 68
3. La Edad Moderna 71
4. El fin de la Edad Moderna 72
5. De la sociedad industrial al nacimiento del genuino right to privacy 74
6. El «right to privacy» de Warren y Brandeis y su posterior desarrollo doctrinal, jurisprudencial y normativo en Norteamérica 76
7. La recepción del derecho a la intimidad en los textos normativos supranacionales 91
8. El derecho a la intimidad en el plano nacional 93
9. Una nueva necesaria comprensión de la privacidad 94
Capítulo 3
De la plain view doctrine a la teoría del mosaico: redefinición del right to privacy y situación previa a la ia
1. Introducción 99
1.1. La intimidad: un concepto en plena evolución 99
1.2. La distinción intimidad-privacidad 102
1.3. La nueva dimensión de la privacidad en la era digital 103
1.4. La nueva caja fuerte de los datos 105
2. La plain view doctrine como excepción y su adaptación al entorno digital 108
2.1. Orígenes y fundamentos en la jurisprudencia norteamericana 108
2.2. Restricciones iniciales y jurisprudencia relevante 109
2.3. Problemáticas en el entorno digital 110
3. De Olmstead a Carpenter: la evolución de la reasonable expectation of privacy 111
3.1. Primera fase: intrusión física como requisito 111
3.2. Katz v. United States (1967): la protección de la persona 111
3.3. La third-party doctrine y sus controversias 112
3.4. Kyllo, Jones, Riley y la introducción de la teoría del mosaico 112
4. Carpenter v. United States (2018) y la reconfiguración de la third-party doctrine 113
4.1. “Vayamos al caso”: hechos y debate legal 114
4.2. El golpe en Europa: la anulación de la Directiva 2006/24/CE 115
5. Recepción en España: evolución doctrinal y jurisprudencial hacia el entorno digital 116
5.1. Fundamentos constitucionales de la privacidad en España 116
5.2. La adopción de la plain view doctrine y la expectativa razonable en la jurisprudencia del Tribunal Supremo 117
5.3. “Teoría de la activación”: por qué no forma parte de nuestra doctrina constitucional 121
5.4. Entorno digital y proceso penal: límites a la exploración indiscriminada y deber de acotación 122
5.5. Derecho al olvido, consentimiento y reedición de informaciones antiguas 123
5.6. Videovigilancia, comunicaciones y “expectativa” en el trabajo: el espejo europeo 124
5.7. Vigilancia prolongada, geolocalización y la “teoría del mosaico” en clave europea 125
5.8. Retorno al caso “ventanas abiertas” y reglas de oro 125
5.9. Apunte final 126
6. Conclusiones: la caja fuerte de la privacidad 129
Parte II
El ecosistema de datos y el capitalismo de vigilancia
Capítulo 4
El capitalismo de vigilancia: cómo las empresas explotan tus datos
1. Introducción al capitalismo de vigilancia 136
2. La revolución digital y su paradoja 139
3. El impacto de la sociedad vigilada: ¿Google nos lee el cerebro? 147
4. Métodos de recopilación y monetización de datos personales por empresas 152
4.1. Métodos de recopilación de datos 154
4.2. Métodos de monetización de datos 155
5. Casos destacados: Cambridge Analytica y el uso político de los datos 158
6. El Fin del Capitalismo de Vigilancia: La Necesidad de Devolver los Datos al Ciudadano 161
7. ¿Cómo Pueden las Tecnológicas Adaptarse a este Cambio? 166
8. Conclusión: Un Nuevo Pacto Digital 167
Capítulo 5
¿Qué necesita la inteligencia artificial para funcionar?
1. Introducción: El mundo de la IA se ha judicializado 169
2. El volumen de datos: el motor de la IA 171
2.1. ¿Cómo se buscan y procesan los datos? 172
2.2. La escala masiva: ¿Cuánto es suficiente? 174
3. Los datos deben ser diversos y precisos para garantizar resultados confiables 175
3.1. La importancia de la diversidad en los datos 177
3.2. La precisión de los datos: el motor de la confiabilidad 178
3.3. Cómo garantizar diversidad y precisión en los datos 179
3.4. Implicaciones legales y éticas 180
4. Los algoritmos y su naturaleza de “caja negra”: hacia un compliance algorítmico 181
5. El derecho a los datos de carácter personal como derecho fundamental: del habeas data al derecho al olvido 183
Capítulo 6
Consentimiento en la era de la inteligencia artificial: del hotel al algoritmo
1. La Fatiga del Consentimiento: el clic automático 188
1.1. Paradojas del consentimiento 191
2. Doctrina y Evolución del Consentimiento 194
2.1. De lo estático a lo dinámico 195
2.2. Principios fundamentales 196
3. Legislación y praxis española 202
3.1. El Consentimiento en la Protección de Datos en España: Un Marco Regulatorio en Evolución 202
3.2. La Trazabilidad de los Datos en la Inteligencia Artificial: Un Pilar de Transparencia y Control 205
3.3. La praxis española en materia de consentimiento informado: Hacia una protección efectiva en la era digital 210
4. El Consentimiento en la Era de la IA: Replanteando la Protección de Datos en un Mundo Inteligente 218
5. Conclusión: Reinventando el Consentimiento en la Era de la IA 222
Parte III
Impactos de la IA en los derechos fundamentales
Capítulo 7
IA y derechos humanos: una relación en tensión
1. Introducción 225
2. El significado de los “derechos humanos” 227
3. Las “generaciones de derechos” como criterio hermenéutico 234
3.1. La primera generación de derechos 236
3.2. La segunda generación de derechos 239
3.3. La tercera generación de derechos 241
3.4. Más allá de la tercera generación de derechos 243
4. El papel protagonista del art. 18.4 CE 244
Capítulo 8
Más allá de la privacidad: otros derechos fundamentales bajo amenaza
1. Introducción 247
2. Granjas de troles, fake news y derecho al honor 248
3. La construcción de la realidad 250
4. La libertad de expresión e información y la mentira 252
5. La mentira que excede de la libertad de expresión 253
6. La secretaría técnica de la Fiscalía General del Estado y su informe sobre el “tratamiento penal de las «fake news»” 254
7. Los riegos de la criminalización de la palabra 255
8. El sanedrín de las tecnológicas 258
Capítulo 9
Privacidad y tecnología en nuestra praxis judicial
1. Estados Unidos: Donde la privacidad se encuentra con la tecnología 264
1.1. Katz v. United States (1967): La cabina telefónica que redefinió la privacidad 264
1.2. Carpenter v. United States (2018): Nuestros teléfonos, ¿extensiones de nosotros mismos? 265
1.3. Facebook, Inc. v. Duguid (2021): Marcando los límites del marketing digital 266
1.4. Roe v. Wade (1973) y su impacto en la privacidad: El derecho a la intimidad 266
2. Europa: El guardián de la privacidad en la era digital 267
2.1. Google Spain v. AEPD y Mario Costeja González (2014): El derecho a ser olvidado 268
2.2. Schrems I (2015) y Schrems II (2020): La lucha por la soberanía digital 270
2.3. Digital Rights Ireland (2014): Límites a la retención de datos 273
2.4. Big Brother Watch v. United Kingdom (2021): Un golpe al corazón de la vigilancia masiva 276
3. España: Pionera en la defensa de la privacidad 278
3.1. Tecnologías de control en manos del Estado 278
3.2. La evolución doctrinal y jurisprudencial 281
3.3. Investigaciones privadas y la transparencia informativa 284
3.4. Conclusión: Tecnologías de control y derechos fundamentales 292
3.5. Caso LaLiga App (2020): Cuando la tecnología se extralimita 292
4. Los problemas asociados a las cadenas de redifusión de datos 293
5. La criminalización de las cadenas de envío 298
6. El caso Celebgate como expresión de la tensión de la privacy 300
7. Y si las sentencias condenatorias llegan, las indemnizaciones son escasas 302
7.1. Breves consideraciones sobre la responsabilidad civil por las intromisiones ilegítimas en la intimidad 302
7.2. Las ridículas (o inexistentes) indemnizaciones en la jurisdicción penal 308
8. Conclusiones 314
Parte IV
Propuestas para un marco normativo global
Capítulo 10
Hacia una regulación ética y global de la IA
1. Introducción: La IA, la nueva tragedia de los comunes 319
1.1. La IA como bien común: ¿Gestión privada, estatal o comunitaria? 320
1.2. La necesidad de estándares internacionales para la IA 322
2. Elementos clave: ética, transparencia y rendición de cuentas 326
2.1. Ética como pilar central 327
2.2. Transparencia como eje de confianza 327
2.3. Rendición de cuentas como principio rector 328
2.4. El papel de la gobernanza global 329
3. Evaluaciones de impacto ético y modelos de implementación 329
3.1. Evaluaciones de impacto ético como herramienta clave 329
3.2. Modelos de implementación: organismos regulatorios internacionales 330
3.3. ¿Cómo involucrar a múltiples partes interesadas en la regulación? 332
3.4. Capacidades para países en vías de desarrollo 333
3.5. El papel de las organizaciones internacionales 334
Capítulo 11
Data nexus juris: un marco jurídico para la privacidad en la era de la IA
1. Introducción: Los datos como masa grasienta y el efecto spillover 338
2. Privacidad como derecho colectivo y bien común 342
2.1. Dimensiones colectivas de la privacidad 344
2.2. Privacidad colectiva frente a la inteligencia artificial 345
2.3. Privacidad como instrumento de resistencia colectiva 346
2.4. Del secreto profesional humano al “privilegio conversacional con IA” 348
3. Introducción al concepto del Data Nexus Juris: hacia la protección del entorno. Una “nouvelle vague” del habeas data 349
4. Diferencias y evolución desde el habeas data 353
4.1. Desafíos prácticos en la aplicación del Data Nexus Juris 356
4.2. Resistencia de las corporaciones tecnológicas 357
4.3. Acceso desigual a recursos y tecnologías 357
4.4. Educación y concienciación 358
4.5. Impacto potencial en la gobernanza global de datos 358
4.6. Protección frente a riesgos globales 359
4.7. Innovación responsable 360
5. La Caja Fuerte Digital de Datos en el Marco del Data Nexus Juris 360
5.1. Introducción 360
5.2. Definición Jurídica de la Caja Fuerte Digital de Datos 361
5.3. Morada Informática como Base del Data Nexus Juris 362
6. Análisis Global y Jurídico de la Caja Fuerte Digital de Datos 369
6.1. Regulaciones Existentes y Cómo la Caja Fuerte Digital las Complementa 369
7. Bases Doctrinales, Políticas y Sociológicas 370
8. El Consentimiento Digital: De la Ficción Jurídica a la Autodeterminación Real 371
8.1. El Consentimiento en la Era del Capitalismo de Vigilancia 371
8.2. El Consentimiento Granular: Un Nuevo Modelo para la Autodeterminación Informativa 372
8.3. Tecnologías para Garantizar un Consentimiento Real 374
8.4. Regulaciones Necesarias para un Consentimiento Digital Justo 374
9. La confidencialidad del chatbot 375
10. Propuesta de Regulación 379
11. El derecho penal como última ratio del sistema de protección 380
12. Conclusión 380
Capítulo 12
La IA y la evolución de los delitos en la era digital
1. Introducción: La nueva era del crimen impulsado por la inteligencia artificial 383
2. Nuevas formas de violación de la intimidad: vigilancia masiva y rastreo 388
2.1. Vigilancia masiva y reconocimiento facial 388
2.2. Doxing automatizado y el uso de IA: amenazas a la privacidad y la seguridad 394
2.3. Análisis y correlación de datos personales: el poder de los algoritmos en la era de la IA 398
2.4. Deepfakes: Violaciones a la intimidad y retos éticos en la era de la inteligencia artificial 402
2.5. Explotación de datos biométricos: La vulnerabilidad de nuestra identidad más íntima 409
2.6. Vigilancia de dispositivos personales: La nueva frontera de la invasión digital 413
2.7. Tipos penales que deben redefinirse 417
3. Redefinición de delitos como el acoso y la extorsión en la era de la inteligencia artificial 417
3.1. Acoso digital: Bots, automatización y vigilancia personalizada 418
3.2. Extorsión personalizada: La precisión de la IA para manipular 418
4. Uso de deepfakes para difamación y chantaje: Una amenaza emergente en la era de la IA 419
4.1. El desafío técnico: La complejidad de identificar un deepfake 421
4.2. Propuestas para abordar el uso malicioso de deepfakes 421
5. Propuesta Unificada y Recomendaciones Finales 422
Epílogo. Cuando la tecnología redefine lo humano, el poder y la ética 431
Bibliografía 441
2025 © Vuestros Libros Siglo XXI | Desarrollo Web Factor Ideas