Abogados expertos Inteligencia Artificial. LETRADOX
Abogados expertos Inteligencia Artificial. LETRADOX
LETRADOX ABOGADOS
Tlfs. 912980061 / 645958948
C/ Hermosilla 144, 1ºE Madrid
info@letradox.es
En Letradox ABOGADOS llevamos más de 15 años al servicio de nuestros clientes. Resolvemos todas las cuestiones legales relacionadas con la Inteligencia Artificial.
El crecimiento exponencial de casos relacionados con nuevas tecnologías o inteligencia artificial ha hecho que dispongamos de una gran experiencia en la resolución de casos complejos de esta materia.
A continuación os comentamos algunos aspectos muy interesantes y necesarios para ubicar los problemas que surgen con IA.
Marco normativo europeo y español
El Reglamento UE 2024/1689, vigente desde agosto de 2024, es la primera norma integral de IA del mundo. Busca garantizar un uso seguro, ético y respetuoso de la IA con los derechos fundamentales.
Aspectos clave:
1.Protección explícita de la dignidad, privacidad e imagen de las personas.
Evaluación obligatoria del impacto sobre derechos fundamentales antes de lanzar al mercado un sistema IA.
2.Transparencia obligatoria cuando se generan imágenes, audios o vídeos sintéticos, es decir, debe informarse si algo es un deepfake o contenido no real.
3.Prohibición de prácticas de IA que manipulen, exploten vulnerabilidades (por ejemplo, de menores o discapacitados), creen bases de datos biométricos sin permiso, o permitan identificación biométrica en espacios públicos, excepto por delitos graves.
Marco legal español actual
Constitución Española: El art. 18.1 protege el derecho al honor, la intimidad y la propia imagen.
Ley Orgánica 1/1982: Permite reclamar judicialmente por uso no consentido de la imagen y pedir retirada o indemnización por daños.
Código Penal: Sanciona penalmente la difusión de imágenes íntimas sin consentimiento (art. 197.7), injurias (art. 205 y 208), calumnias y pornografía infantil, incluso generadas por IA.
Proyectos legislativos específicos
En 2023 se presentó una Proposición de Ley Orgánica para regular la simulación digital de imágenes y voces (deepfakes) mediante IA. Su objetivo era regular el uso de simulaciones visuales y sonoras, proteger derechos de imagen, honor e intimidad, y sancionar problemas como el fraude, la manipulación electoral, el robo de identidad y los daños reputacionales.
Esta proposición contemplaba:
Definición y regulación expresa de deepfake.
Modificación de hasta siete leyes (Audiovisual, Penal, Competencia Desleal, Protección de Datos, etc.) para tipificar nuevas conductas ilícitas.
Creación de delitos específicos por la difusión de deepfakes sin advertencia o sin consentimiento, con agravantes si se hacían en redes sociales o con fines discriminatorios.
Sanciones y medidas cautelares, como la retirada urgente del contenido y la indemnización por daño moral.
Creación de órganos de supervisión y participación ciudadana.
Finalmente, la tramitación de la ley fue retirada en marzo de 2024, aunque varios de sus elementos han sido incorporados al anteproyecto de ley de Buen Uso y Gobernanza de la IA presentado en marzo de 2025.
Los riesgos principales:
-Difamación y robo de identidad.
-Acoso y violencia de género digital.
-Manipulación política, electoral y desinformación.
-Vulneración de honor, imagen, intimidad y protección de datos.
Se percibe como especialmente grave la difusión de contenidos que parezcan auténticos y puedan provocar daños morales, reputacionales o económicos a las personas simuladas.
Jurisprudencia relevante:
1.AUD.PROVINCIAL SECCION N. 2 , CACERES, SENTENCIA: 00076/2024, UNIDAD PROCESAL DE APOYO DIRECTO
La Audiencia Provincial de Cáceres, en sentencia de marzo de 2024, rechazó que un selfie presentado como prueba fuera considerado creado por IA al no acreditarse dicha creación, evidenciando la necesidad de peritajes expertos.
– Sentencia 76/2024 de 7 de marzo dictada por la Audiencia Provincial de Cáceres
Fallo en el que los magistrados Joaquín González Casso, Jesús María Gómez Flores (ponente) y Julia Domínguez Domínguez han confirmado 15 meses de prisión a un hombre por un delito de estafa en grado de consumación.
El estafador envió a una mujer con cuenta en Unicaja un SMS. En él le daba unos pasos a seguir para que transfiriese su dinero y evitar así un posible fraude. La mujer, siguiendo sus indicaciones, hizo dos transferencias, una de 660 euros y otra de 440 a una cuenta bancaria de Orange Bank que el acusado abrió con el objetivo de recibir tal cantidad de dinero. Importe que nunca fue devuelto.
Las transferencias eran consecuencia de un previo montaje encaminado a obtener las claves de la banca online de la cliente de Unicaja. Manifestó que se había producido un error en la apreciación de la prueba y una vulneración del derecho a la presunción de inocencia. Negó ser el titular de la cuenta bancaria en Orange Bank y destacó que las fotos ‘selfie’ aportadas como prueba habían sido creadas con inteligencia artificial.
Y es que, el banco le pidió una foto suya porque la cuenta se estaba abriendo de forma online. El equipo de Investigación Tecnológica de la Policía Judicial manifestó que la cuenta abierta de forma «online» sí correspondía al acusado. Respecto a que dicho ‘selfie’ era una imagen falsa creada con IA, los magistrados explicaron que el estafador no presentó ninguna evidencia de que ello hubiese sido así.
El Reglamento UE 2024/1689 expone la obligatoriedad de mantener transparencia cuando se generan imágenes, audios o vídeos sintéticos, es decir, debe informarse si algo es un deepfake o contenido no real.
- Caso argentino
Crear imágenes de pedofilia con Inteligencia Artificial (IA) es delito. Así lo dictaminó la Justicia argentina en un precedente histórico e inédito en el país.
Este dictamen judicial parte de la denuncia contra un hombre acusado de publicación y distribución de representaciones de menores de 18 años en actividades sexuales.
La defensa del acusado alegó que no se había logrado acreditar la existencia de víctimas reales y que el contenido podría haber sido generado o alterado digitalmente mediante IA o imágenes generadas por computadora
Los jueces sostuvieron que el artículo 128 del Código Penal, reformado por la Ley 27.436, contempla las representaciones de menores en situaciones sexuales explícitas, sin importar cómo hayan sido creadas. La clave está en el término «representación», que incluye «imagen o idea que sustituye a la realidad». De esta manera marcaron precedente jurídico.
La Justicia argentina en un precedente histórico e inédito en el país. Un fallo de la Cámara de Apelación y Garantías en lo Penal del Departamento Judicial Zárate-Campana dictaminó que el actual artículo 128 del Código Penal argentino comprende y penaliza las representaciones de abuso sexual infantil generadas o modificadas mediante IA, incluso cuando no hay víctimas reales identificadas.
CODIGO PENAL ESPAÑOL ART189.
-“Todo material que represente de forma visual a una persona que parezca ser un menor participando en una conducta sexualmente explícita, real o simulada…”
-“ Todo material que represente de manera visual a un menor o una persona con discapacidad necesitada deespecial protección…”
Caso Almendralejo Sentencia del Juzgado de Menores de Badajoz, de 20 de junio de 2024 (caso Almendralejo, Deepfakes de menores).
Libertad vigilada durante un año. Ya hay sentencia para el primer caso de gran repercusión pública sobre la manipulación y difusión de imágenes desnudas elaboradas con Inteligencia Artificial sobre un grupo de 20 chicas menores de edad.
El Juzgado de Menores de Badajoz los ha declarado responsables de un total veinte delitos de pornografía infantil y otros veinte delitos contra la integridad moral por «manipular con inteligencia artificial y difundir imágenes de menores
Precedentes derecho al honor a la propia imagen
Se exige autorización para hacer uso de una fotografía y publicarla o divulgarla de una forma distinta, pues no constituye el «consentimiento expreso» que prevé el art. 2.2 de la Ley Orgánica 1/1982 (de protección de derecho al honor y la propia imagen) como excluyente de la ilicitud de la captación, reproducción o publicación de la imagen de una persona.
Abogados expertos Inteligencia Artificial. LETRADOX
-SENTENCIA 23/2010, de 27 de abril(BOE núm. 129, de 27 de mayo de 2010)
“En su edición de 1 de mayo de 1995, la revista humorística “Noticias del Mundo”, hoy desparecida, publicó un reportaje caricaturesco sobre doña Isabel Iglesias Preysler, personaje conocido y habitual en la prensa del momento. En el mismo, bajo el titular “La doble de Chabeli se desnuda” y “gran exclusiva” aparecía una composición fotográfica en la que, mediante técnicas de manipulación de la imagen, se conjuntaba la cabeza y el rostro de la recurrente con el cuerpo de otra mujer.”
El texto que acompañaba a la fotografía, firmado por don Juan Tárrega, en ningún momento revelaba que se tratase de un montaje fotográfico.
Con motivo de la difusión de esta publicación, doña Isabel Iglesias Preysler formuló demanda incidental al amparo de la Ley Orgánica 1/1982 de protección civil del derecho al honor, la intimidad personal y familiar y la propia imagen.
La demanda fue estimada por Sentencia de 3 de marzo de 1997 del Juzgado de Primera Instancia núm. 1 de Alcobendas, que declaró la existencia de intromisión ilegítima en el derecho a la propia imagen de la demandante, condenando a los demandados a publicar la Sentencia y a indemnizar a la actora en la cantidad de 750.000 pesetas. La Sentencia considera probado que no se trata de la foto de alguien parecido a la actora, sino de una composición fotográfica con su auténtico rostro.
Se reconoce intromisión en la propia imagen; procede indemnización y publicación de la sentencia en su día.
Abogados expertos Inteligencia Artificial. LETRADOX
MEDIDAS BANCO SEGURIDAD
Los deepfakes pueden utilizarse para burlar los sistemas de verificación de identidad mediante la suplantación visual o auditiva. Esto puede llevar a unauthorized access to accounts, transferencias fraudulentas, y robo de identidad. Teniendo en cuenta que la confianza es un pilar de la industria financiera, el daño reputacional puede ser considerable si los clientes sienten que sus activos no están seguros.
Invertir en soluciones de tecnología biométrica, como el reconocimiento facial avanzado que incluye detección de vivacidad, puede ser un método eficiente. Estos sistemas están diseñados para detectar manipulaciones y distinguir entre una persona real y una representación generada por IA.
En Jumio (es una empresa líder en soluciones de verificación de identidad digital que utiliza inteligencia artificial y aprendizaje automático para autenticar documentos de identidad y confirmar la identidad de los usuarios en línea.) se han implementado soluciones que combinan biometría facial, verificación en tiempo real, patrones de luz y reflejos aleatorios en el rostro, con el fin de impedir que un video grabado suplante una selfie. La detección de inconsistencias, como el uso de cámaras virtuales, cambios en la textura de la piel o movimientos atípicos en la pupila, funciona como barrera frente a los intentos de fraude.
Las plataformas actuales cruzan datos biométricos y revisan el historial transaccional de cada perfil, detectando si una misma fotografía o documento se ha vinculado previamente a otros nombres o identificaciones en el sistema. De esta forma, se refuerza el control sobre registros en organizaciones distintas, apuntando a frenar los fraudes más elaborados y las cadenas de suplantación.
El BBVA dice la IA puede ser tanto una aliada como una amenaza en el mundo digital. Está en los dos lados de la ciberseguridad.
Asociación de Certificadores de Fraude (ACFE, por sus siglas en inglés) destaca que una de las principales estrategias para identificar señales de fraude es analizar de manera eficaz los datos para detectar anomalías, una tarea que ya lleva a cabo el 90% de las organizaciones. Para alcanzar este objetivo, se utilizan diversas herramientas impulsadas por inteligencia artificial.
La IA, gracias al aprendizaje automático tiene la capacidad de adaptarse en tiempo real a un contexto de amenazas cambiantes. «Estos modelos pueden identificar patrones anómalos, como transacciones inusualmente altas, compras en ubicaciones poco habituales o intervalos extraños entre transacciones.
Si tiene un problema relacionado con la Inteligencia Artificial, concierte una cita con los abogados para poder resolvérselo.
Abogados expertos Inteligencia Artificial. LETRADOX
LETRADOX ABOGADOS
Tlfs. 912980061 / 645958948
C/ Hermosilla 144, 1ºE Madrid
info@letradox.es
Abogados expertos Inteligencia Artificial. LETRADOX