Los legisladores surcoreanos aprobaron este jueves un proyecto de ley que tipifica como delito ver o poseer imágenes y videos deepfakes sexualmente explícitos, con penas que incluyen penas de prisión y multas.
En Corea del Sur se produjeron protestas por los chats de grupo de Telegram en los que se crearon y compartieron deepfakes ilegales y sexualmente explícitos, lo que provocó pedidos de penas más severas.
Cualquiera que compre, guarde o vea este tipo de material podría enfrentarse a penas de hasta tres años de cárcel o multas de hasta 30 millones de wones (US$ 22600), según el proyecto de ley.
Actualmente, fabricar deepfakes sexualmente explícitos con la intención de distribuirlos se castiga con cinco años de cárcel o una multa de 50 millones de wones (US$ 37900), según la Ley de Prevención de la Violencia Sexual y Protección de las Víctimas.
Cuando la nueva ley entre en vigor, la pena máxima por estos delitos también aumentará a siete años, independientemente de la intención.
El proyecto de ley necesitará ahora la aprobación del presidente Yoon Suk Yeol para ser promulgado.
Hacer “deepfake” de contenido sexual sin consentimiento pronto podría convertirse en un delito en Inglaterra
La Policía surcoreana tuvo hasta ahora más de 800 casos de delitos sexuales de deepfake este año, informó este jueves la agencia de noticias Yonhap.
Esta cifra contrasta con los 156 de todo 2021, cuando se recopilaron los datos por primera vez. La mayoría de las víctimas y los autores son adolescentes, según la policía.
A principios de este mes, la Policía puso en marcha una investigación sobre Telegram que analizará si la aplicación de mensajería cifrada fue cómplice en la distribución de contenido sexual explícito deepfake.
Países de todo el mundo se están planteando cómo responder a la proliferación de material deepfake.
El Congreso de Estados Unidos está debatiendo varios proyectos de ley, entre ellos uno que permitiría demandar a las víctimas de deepfakes sexuales no consentidos y otro que penalizaría la publicación de este tipo de imágenes y obligaría a las empresas tecnológicas a retirarlas.
A principios de año, la plataforma de redes sociales X impidió a los usuarios buscar a Taylor Swift después de que proliferaran en las redes sociales imágenes falsas sexualmente explícitas de la cantante pop.
Reuters