Deepfake Porn: Ley de Texas y legislación federal propuesta
En una época en la que la tecnología evoluciona más rápido que la legislación, la pornografía falsa es un problema acuciante que ha captado la atención de los legisladores. En 2023, Texas promulgó una ley específica contra la pornografía falsa, y ahora el senador estadounidense Ted Cruz propone una ley federal que amplía la protección de las víctimas y aumenta las penas para los autores, incluidos los menores.
En este artículo, explicaremos la actual ley de Texas sobre pornografía falsa y también la legislación federal propuesta -denominada "Take It Down Act"- por el senador Cruz (republicano de Texas), derivada de un caso en el norte de Texas.
Nuestra firma ha representado a un número de personas, incluidos los menores de edad, que han sido acusados de pornografía deepfake y constantemente navegar por el complejo panorama jurídico que rodea a este delito.
¿Qué es la pornografía deepfake?
La pornografía deepfake hace referencia a medios digitales, normalmente vídeos, que se manipulan utilizando tecnología de inteligencia artificial (IA) para crear imágenes o vídeos falsos que parezcan reales. Esto puede ir desde un simple intercambio de caras hasta técnicas más sofisticadas en las que los algoritmos de IA pueden generar vídeos realistas de personas participando en actos sexuales sin su consentimiento o conocimiento.
Ley de pornografía falsa de Texas
En 2023, Texas aprobó una ley que aborda específicamente la pornografía deepfake. Sección 21.165 del Código Penal de TexasEl 1 de septiembre de 2023 entró en vigor la ley de "Producción o distribución ilegal de determinados vídeos de contenido sexual explícito". Según este estatuto, una persona comete un delito si:
- Sin el consentimiento efectivo de la persona que aparece retratada
- una persona produzca o distribuya a sabiendas por medios electrónicos
- un vídeo deepfake que parece mostrar a la persona con sus partes íntimas expuestas o participando en una conducta sexual.
- La ley define un "vídeo falso profundo" como "un vídeo, creado con la intención de engañar, que parece mostrar a una persona real realizando una acción que no ocurrió en la realidad".
Este delito es un delito menor de clase A, castigado con hasta un año de cárcel en la prisión del condado y una multa máxima de 4.000 dólares.
Esta ley forma parte de los esfuerzos de Texas para hacer frente a la creciente preocupación por el uso de la inteligencia artificial para crear contenido sexualmente explícito sin consentimiento. Es importante señalar que esta es una de las dos leyes de vídeo deepfake en Texas a partir de 2024. La otra aborda el uso de deepfakes en comunicaciones políticas, que también es un delito menor de clase A.
Ley Take It Down: Propuesta de legislación federal contra la pornografía falsa
En junio de 2024, el senador Ted Cruz, junto con copatrocinadores bipartidistas, legislación federal propuesta para abordar el problema de la pornografía deepfake. La Ley Take It Down -acrónimo de Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks- pretende ampliar la protección de las víctimas y aumentar las penas para los autores.
La legislación propuesta tiene su origen, en parte, en un incidente en el que se vio implicado un estudiante de secundaria de Aledo (Texas). Elliston Berry fue víctima de pornografía falsa generada por inteligencia artificial y creada por un compañero de clase. El autor utilizó una aplicación para imponer imágenes de desnudos en fotos tomadas de las cuentas de redes sociales de Berry.
Berry compartió su historia durante una audiencia del comité del Senado de EE.UU. en Dallas, describiendo cómo se despertó el 2 de octubre de 2023 con mensajes que le informaban de que en las redes sociales circulaban fotos explícitas suyas. El caso puso de relieve varias cuestiones que la Ley Take It Down pretende abordar. Estas son las principales disposiciones de la legislación federal propuesta.
- Esta propuesta legislativa pretende combatir el creciente problema de la pornografía falsa y las imágenes íntimas no consentidas (NCII, por sus siglas en inglés) en Estados Unidos.
- Penalización: El proyecto de ley tipificaría como delito federal compartir en las redes sociales imágenes pornográficas no consentidas generadas por IA.
- Sanciones: Los autores podrían enfrentarse a penas de hasta dos años de prisión por distribuir imágenes sexuales no consentidas de un adulto, y de hasta tres años si la víctima es un menor.
- Responsabilidad de las plataformas: Se exigirá a las plataformas de redes sociales y sitios web similares que eliminen los contenidos infractores y sus duplicados en un plazo de 48 horas a partir de la notificación de la víctima.
- Requisitos de cumplimiento: Las plataformas tendrían que desarrollar procesos internos para tratar las imágenes no consentidas generadas por IA en el plazo de un año desde la aprobación del proyecto de ley.
- Cumplimiento: La Comisión Federal de Comercio se encargaría de velar por el cumplimiento del plazo de 48 horas.
Curiosamente, muchas de las personas acusadas de pornografía con IA son menores, y es raro ver a menores procesados a nivel federal. Esto plantea interrogantes sobre cómo trataría la ley federal los casos en los que hay menores implicados. Puede que sea necesario incluir disposiciones o directrices específicas en la legislación federal para tratar a los delincuentes juveniles, centrándose en la rehabilitación más que en medidas punitivas severas. Equilibrar la necesidad de disuadir estos delitos con la comprensión del comportamiento y el desarrollo de los menores es un delicado equilibrio que habrá que abordar.
Estadísticas porno Deepfake
El fenómeno de la pornografía deepfake se ha disparado en los últimos años. He aquí un repaso a las cifras.
- Aumento de la prevalencia: El número total de vídeos deepfake en línea aumentó un 550% de 2019 a 2023.
- Presencia en la plataforma: Siete de los 10 sitios web pornográficos más visitados albergan contenidos deepfake.
- Prejuicios sexistas: El 99% de las víctimas objetivo de la pornografía deepfake son las mujeres.
- Velocidad de creación: ahora se puede tardar menos de 25 minutos y no cuesta nada crear un vídeo pornográfico deepfake de un minuto de duración utilizando una sola imagen clara de la cara de la víctima.
- Accesibilidad: Debido a la amplia disponibilidad de la tecnología de vídeo deepfake y de aplicaciones de bajo coste, cualquier persona con un smartphone puede potencialmente crear pornografía deepfake.
Estas estadísticas ponen de manifiesto la omnipresencia de la pornografía deepfake y la facilidad con que se crea y distribuye. Cabe esperar que los legisladores, la policía y los fiscales sigan esforzándose por hacer cumplir la ley, y muchos de ellos tratarán de dar un escarmiento a los delincuentes para disuadir a otros de participar en esta actividad.
¿Acusado de Deepfake Porn? Póngase en contacto con nosotros.
Si usted o un ser querido ha sido acusado de crear o distribuir pornografía deepfake, las consecuencias pueden ser graves y alterar su vida. En Varghese Summersett, nuestros experimentados abogados de defensa criminal entienden las complejidades de estos casos y se comprometen a proteger sus derechos y su reputación. También contamos en nuestro equipo con la abogada de defensa de menores Lisa Herrick, certificada por la Junta, para casos relacionados con menores o adultos jóvenes.
No enfrente esta batalla legal solo - contáctenos hoy al 817-203-2220 para una consulta confidencial, y permítanos proporcionarle la defensa experta que usted necesita. Vale la pena luchar por su futuro. Servimos a todo Fort Worth, Dallas, Southlake y sus alrededores.