(ANSA) - BUENOS AIRES 13 DIC - La "desnudó" con inteligencia
artificial y la amenazó con publicar esa imagen si no le pasaba
fotos sexuales reales, el caso impacta en Argentina y tiene como
víctima a una adolescente de 13 años, con un acosador que se
escondía detrás del perfil de un chico de su edad.
Lo reporta el diario La Nación y se trata de la primera
causa de grooming facilitada por el uso de Inteligencia
Artificial (IA), que investiga la Justicia de la Ciudad de
Buenos Aires, un alerta sobre los riesgos potenciales del mal
uso de esas tecnologías.
Hace unos meses, un supuesto jovencito con el que la
adolescente tenía un vínculo virtual a través de Instagram
empezó a pedirle fotos sexuales. Cuando ella se negó, él se puso
más insistente. Y ante la negativa recurrente de la joven, le
mandó una foto generada por inteligencia artificial en la que
ella aparecía desnuda. "Si no me envías las fotos que te pedí,
voy a viralizar esta", la amenazó narra el periódico.
Por razones obvias, se publica un nombre ficticio de la
víctima, pero se advierte que el caso muestra un escenario sobre
el que ya vienen alertando especialistas: el uso malintencionado
de la inteligencia artificial y como esto puede dejar más
expuestos a niños, niñas y adolescentes frente a delitos como el
grooming y la pedofilia.
Ahora, la Unidad Fiscal número 7 de la Ciudad de Buenos Aires,
especializada en delitos informáticos, avanza con una triple
imputación contra el supuesto jovencito, que en realidad es un
adulto: "grooming -como se llaman a los engaños pederastas-,
amenazas coactivas y distribución de material de abuso sexual
contra niños, niñas y adolescentes". Inédito para la Justicia de
ese distrito.
"Más allá de que en la imagen no se vea el cuerpo verdadero
de la víctima, entendemos que hay una afectación porque se
utilizó su cara y el resultado es muy realista", dijo a La
Nación el fiscal Tomás Vaccarezza, a cargo de la investigación
"Lo que tiene este delito es que nunca se sabe quién está
detrás. Uno puede suponer que es un menor, pero puede ser
alguien mayor de edad, como en este caso", alertó y subrayó la
necesidad de denunciar este tipo de casos.
"El grooming tal y como lo conocemos requiere de un
enganche previo, de una ingeniería social para obtener datos, de
un proceso de fidelización para que el menor entre en confianza
y así pedirle fotos o videos. Pero ahora, merced a la IA, todo
se acelera y alcanza con una foto trucada y una amenaza",
explica Hernán Navarro, fundador de la ONG Grooming Argentina.
"El grooming podría convertirse en el delito más rápido del
mundo. El tema es urgente, pues no hay leyes ni políticas
públicas que estén a la altura de las circunstancias", planteó
el experto, entrevistado por La Nación.
Según datos de Grooming Argentina, el 50% de los menores
de entre 9 y 16 años son agregados a grupos de WhatsApp sin su
consentimiento. Por esto, es vital que ellos aprendan a
reconocer a tiempo señales de riesgo.
Otro reporte de la entidad, revela también que dos de cada
tres conversaciones entre menores y desconocidos en Argentina en
2023 se tornaron de índole sexual, con un 73,3% de las
solicitudes provenientes de personas desconocidas, lo que
representa un aumento de 3,3% respecto a los datos registrados
en 2022.
"Necesitamos estar alfabetizados en inteligencia artificial
para acompañarlos mejor y fortalecer nuestro vínculo de
confianza con ellos. No hay que olvidar que, muchas veces, las
víctimas de grooming tardan en recurrir a un adulto por
vergenza o culpa", avisó Josefina Gutiérrez, de Chicos.net,
entidad que promueve los derechos de niños, niñas y adolescentes
en entornos digitales. (ANSA).