Corea del Sur enfrenta la proliferación de deepfakes en colegios con medidas severas
La Agencia Nacional de Policía (NPA) de Corea del Sur ha declarado este martes que iniciará una rigurosa investigación para capturar a los responsables de distribuir imágenes pornográficas ‘ultrafalsas’ (deepfake), generadas a partir de fotos o videos de usuarios en redes sociales.
En una conferencia de prensa, la NPA reveló que esta operación se extenderá por un periodo mínimo de siete meses, enfocándose principalmente en los foros donde se generan y comparten imágenes involucrando a menores.
El primer ministro surcoreano, Han Duck-soo, expresó ante los medios que es crucial abordar este problema con la misma seriedad que la lucha contra las drogas, aludiendo a la estricta política antidrogas del país. La campaña surge tras descubrirse recientemente la existencia de múltiples foros en la plataforma de mensajería Telegram que contienen imágenes de estudiantes, exalumnas y profesoras de varias instituciones educativas de Corea del Sur.
Distribución de deepfakes en colegios de Corea del Sur
Asimismo, se han identificado grupos que distribuyen material pornográfico ‘ultrafalso’ de miembros de las fuerzas armadas. El número de denuncias por imágenes pornográficas ultrafalsas ha aumentado significativamente en Corea del Sur, con 156 casos en 2021, 160 en 2022, 180 en 2023 y 297 casos reportados entre enero y julio de este año, según datos de la NPA.
Una estadística alarmante muestra que 73.6% de los 178 acusados de producir o distribuir estas imágenes este año son adolescentes. Investigaciones preliminares han revelado la existencia de más de 100 salas en Telegram con este tipo de contenido y al menos unos 220,000 participantes.
Esta cifra podría ser aún mayor debido al secretismo de estos grupos, la opacidad de Telegram, cuyo fundador Pável Dúrov está detenido en Francia acusado de complicidad en la difusión de imágenes pedófilas y relacionadas con el narcotráfico, y la falta de regulación sobre la imagen personal en la era digital.
Se sospecha que muchas de las imágenes ‘ultrafalsas’ provienen de Instagram, extremadamente popular en Corea del Sur, llevando a muchas usuarias a privatizar sus cuentas. La facilidad para encontrar en las redes herramientas que utilizan inteligencia artificial para crear material pornográfico a partir de características físicas especificadas, ha facilitado la proliferación de estos grupos y el aumento en la distribución de estos materiales.