Alfabetización mediática para proteger a los y las menores frente a los deepfakes

Fecha de publicación 22/11/2021
proteger a los y las menores frente a los deepfakes

Las tecnologías de inteligencia artificial permiten realizar acciones complejas imitando procesos humanos, como el aprendizaje o el razonamiento lógico. Con ellas, se puede, por ejemplo, modificar la imagen e incluso la voz de una persona en un vídeo, con la consiguiente inquietud por los riesgos que esto supone.

Deepfakes… ¿qué son?

El término es un acrónimo del inglés formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo. Con este concepto nos referimos a la posibilidad de modificar vídeos, imágenes o incluso la voz de una persona de forma hiperrealista, manipulando su mensaje o acciones. En definitiva, con este tipo de contenido falso se pretende hacer creer a los espectadores que una determinada persona realizó declaraciones o acciones que realmente nunca ocurrieron.

La popularidad de los deepfakes también ha crecido entre niños, niñas y adolescentes, debido a que algunos utilizaban personajes que atraían su interés, convirtiéndose en virales. Además, cada vez existen más aplicaciones, incluso gratuitas, que permiten su creación de manera sencilla y facilitan la idea de hacer deepfakes con imágenes propias o utilizando las de sus compañeros/as.

Su uso positivo puede presentar diferentes ventajas. Por ejemplo, permite alinear la voz en diferentes idiomas con el movimiento de los labios en un vídeo, lo que sería útil en el ámbito educativo y en el doblaje de películas. También existe la posibilidad de adaptar la fisionomía de un actor a otro momento de su vida, por ejemplo, cuando era mucho más joven. En el ámbito empresarial puede facilitar las compras online de ropa, creando un deepfake adaptado a nuestras proporciones o rasgos físicos a modo de probador virtual.

Entonces, ¿por qué también puede suponer un riesgo para los y las menores?

 

Alfabetización mediática para proteger a los y las menores frente a los deepfakes

Riesgos de los deepfakes para los y las menores

Su mal uso puede tener un gran impacto debido a su realismo. Entre los principales riesgos se encuentran:

  • Ciberacoso. Se pueden crear contenidos hirientes y ofensivos para humillar o dañar la imagen de otra persona. La dificultad para distinguirlos de otros contenidos reales hace que pueda ser angustioso para la víctima, incluso generando sensación de vulnerabilidad.
  • Desinformación y manipulación. Contribuyen a un engaño más creíble, reforzando y ampliando el impacto de las fake news. Los y las menores pueden ser especialmente vulnerables a la hora de identificarlas, pudiendo asumir falsas ideas o afirmaciones como verídicas. Del mismo modo, pueden llegar a contenidos inapropiados e incluso adentrarse en comunidades peligrosas.
  • Creación de contenido sexual falso. También es habitual el uso de las imágenes de otras personas, no solo famosas, para la creación de vídeos sexuales con fines comerciales, como arma de chantaje y extorsión, o bien para dañarles y atentar contra su honor.
  • Abuso sexual de menores. Mediante la recolección de imágenes cotidianas de menores se pueden llegar a desnudar a las víctimas de forma digital e incluso crear deepfakes sexualmente explícitos, generando un tipo de material de abuso y explotación sexual contra niños, niñas y adolescentes creado por ordenador. Estas descripciones realistas de un menor participando en un acto sexual pueden dañar su bienestar y salud mental, perjudicar su imagen y reforzar la problemática del abuso y explotación sexual contra menores.
  • Otros riesgos. Los deepfakes también pueden ser utilizados para realizar suplantaciones de identidad a la hora de llevar a cabo fraudes y estafas en la Red.

Cómo distinguir si un vídeo es un deepfake

Todavía es posible detectar pequeños errores técnicos en los deepfakes que nos permitan dudar de su veracidad, así que será de gran ayuda fijarnos y desconfiar si observamos: decoloraciones de la cara, diferencias entre los iris de los ojos, iluminación imprecisa y distorsionada en las figuras (debido al intento de fusionar imágenes con diferente luz), errores o distorsiones en la voz, borrosidad donde la cara se encuentra con el cuello y el cabello, etc.

Actualmente, se está trabajando en la aplicación de diferentes mecanismos para identificarlos, como el desarrollado por la Universidad de Buffalo que analizó imágenes falsas e imágenes de personas reales. Sin embargo, estas herramientas aún no son lo suficientemente precisas.

De todas formas, siempre puede resultar muy útil aplicar los mismos mecanismos que utilizamos para detectar fake news: comprobar si la fuente es fiable, reflexionar sobre la posible intencionalidad del contenido, analizar si nos parece realista y coherente con la línea discursiva de esa persona y contrastar la información con una búsqueda en otros sitios de referencia. Ante la duda es preferible evitar su difusión. Recordemos que por mucho que se repita un bulo, eso no lo convierte en cierto.

¿Qué podemos hacer para protegerles?

Es importante que desde el hogar y el centro educativo trabajemos en ampliar sus competencias digitales en alfabetización alfabetización mediática, además de potenciar y desarrollar su pensamiento crítico. Desde INCIBE, a través de IS4K, ofrecemos una selección de recursos que pueden resultarnos útiles:

 

recurso1.png

Vídeo: Aprende a reconocer fake news

recurso2.png

Recurso: En la Red infórmate con lupa

recurso3.png

Unidad didáctica: Sabes elegir 
también en Internet

recurso4.png

Recurso: Dime qué sigues y te diré qué opinas

recurso5.png

Infografía: Amplía tus perspectivas

recurso6.png

Infografía: Anatomía de un bulo

 

Apoyados en estos recursos podemos:

  • Dialogar sobre deepfakes: compartir impresiones intercambiando puntos de vista sobre qué opinan de estos contenidos, si les gustan o no las imágenes y vídeos manipulados. Por ejemplo: ¿cuál es el atractivo?, ¿por qué creen que son populares y están ampliamente distribuidos?, ¿creen que hay algún problema asociado?, etc.
  • Debatir sobre la responsabilidad individual y colectiva ante los deepfakes: intercambiar opiniones acerca de los/las creadores/as, pero también acerca del riesgo de asumir el contenido como veraz y compartirlo sin contrastarlo.
  • Comentar noticias recientes y casos famosos e incluso compartir si han detectado algún vídeo viral que esté editado: ¿cuál creen que fue el propósito del vídeo?, ¿por qué alguien haría un deepfake?
  • Verificar un vídeo: trasladarles claves, como las aportadas anteriormente, que les ayuden a reconocer que existe una alteración del contenido o a identificar fake news.

Además, siempre que sea necesario contar con ayuda a la hora de detectar un deepfake e incluso de reaccionar en caso de ser víctimas de alguno con un fin malintencionado, podemos contactar con Tu Ayuda en Ciberseguridad de INCIBE, a través del teléfono 017 y de los canales de chat de WhatsApp (900 116 117) y Telegram (@INCIBE017).