Deepfakes y Biometría: Riesgos, Ejemplos y 5 Consejos para Identificar Fraudes

15 de enero de 2025 | 5 minutos de leitura

This author has not yet filled in any details.
So far the author has created 100 blog entries.

¡Manténgase actualizado con el contenido más reciente suscribiéndose al Biometría en Foco!

Compártelo

Los “deepfakes” utilizan inteligencia artificial (IA) para manipular medios, incluidos audio o video, con el objetivo de crear contenidos hiperrealistas, pero completamente falsos de personas reales. Aunque en algunos casos pueden ser divertidos o incluso inofensivos, también pueden representar amenazas reales, como manipulación política, fraudes e invasión de la privacidad.

El avance de la inteligencia artificial y de la tecnología de “deepfake” ha causado que sea más fácil que nunca crear contenidos falsos y convincentes. Con el aumento de la desinformación y la propagación de información falsa en nuestra sociedad moderna y políticamente polarizada, las consecuencias pueden ser peligrosas. Ya sea un famoso que aparentemente apoya una causa que no respalda o alguien que engaña a una institución financiera con una voz falsa, los “deepfakes” se están convirtiendo en un problema serio en el mundo digital actual.

“Deepfakes” Políticos

En julio de 2024, Elon Musk, CEO de Tesla y propietario de X (antes Twitter), compartió con sus 199,2 millones de seguidores en X un video “deepfake” de la vicepresidenta y candidata presidencial Kamala Harris profiriendo insultos y haciendo declaraciones fuera de carácter. Un mes después, el expresidente y presidente electo Donald Trump compartió con sus 7,78 millones de seguidores en la plataforma Truth Social una imagen “deepfake” de la cantante Taylor Swift respaldando su campaña presidencial de 2024, acompañada de varias imágenes de jóvenes usando camisetas con la frase “Swifties for Trump”. Estos “deepfakes” se volvieron virales rápidamente.

Además de ser deshonestos, los “deepfakes” que retratan a figuras públicas pueden polarizar opiniones, crear caos e incluso influir en elecciones, ¡y todo esto a una velocidad impresionante! Un “deepfake” puede pasar de unas pocas interacciones a generar una confusión global en cuestión de horas.

Aunque algunos consideran este tipo de contenido simplemente una parodia divertida e inofensiva, cuando es compartido por figuras públicas y políticas con gran alcance, y retrata a personas de enorme influencia en nuestras elecciones (como el impacto real de Taylor Swift, quien, al respaldar eventualmente a un candidato, provocó el registro de 35,000 nuevos votantes en 24 horas), el potencial para confundir a los votantes es extremadamente alto.

Independientemente de su posición en el espectro político, los “deepfakes” son un obstáculo lamentable en la búsqueda de la verdad.

Deepfakes de Voz Para Fraude

No solo el contenido en video está siendo manipulado por inteligencia artificial. Los “deepfakes” de voz han surgido como una tendencia nueva y preocupante en las estafas. Un caso destacado involucró a una empresa de energía del Reino Unido que fue engañada por un fraude financiero de $243,000 cuando delincuentes llevaron a cabo una campaña de “vishing” (abreviatura de “voice phishing”, una táctica que consiste en engañar a objetivos por teléfono) utilizando una voz artificial tan similar a la del jefe de la empresa matriz alemana que los empleados no notaron la diferencia. Según The Next Web, este incidente marcó la primera vez que un fraude de voz basado en IA resultó en un robo tan significativo.

Al imitar una voz familiar, los estafadores lograron ejecutar un robo financiero con una precisión sorprendente. Este tipo de ataque resalta la creciente amenaza a la seguridad financiera y personal. Cuando no se puede confiar en las voces que escuchamos, verificar identidades se convierte en un gran desafío para empresas e individuos.

La Crisis de la Pornografía “Deepfake”

El lado oscuro de la tecnología “deepfake” también invade los espacios más personales de las personas. La pornografía “deepfake”, donde el rostro de una persona se inserta en contenido explícito sin su consentimiento, se ha convertido en un problema creciente que afecta desproporcionadamente a las mujeres. La política Alexandria Ocasio-Cortez fue víctima de pornografía “deepfake”, y un estudio reciente reveló que el 98 % de los videos “deepfake” en línea eran pornográficos, y el 99 % de las personas objetivo de estos videos eran mujeres o niñas.

Este uso indebido de la inteligencia artificial constituye una grave violación de la privacidad y la seguridad personal. No solo mancha reputaciones, sino que también causa daños psicológicos. Las víctimas a menudo tienen pocos recursos legales (en muchos estados, la pornografía vengativa con “deepfake” aún no está criminalizada), y los daños causados a sus vidas personales y profesionales pueden ser irreversibles.

Anuncios Deepfake y Apoyos Falsos.

Los “deepfakes” también están invadiendo el mundo de la publicidad. Estos anuncios generados por IA pueden engañar a los consumidores, haciéndoles creer que su celebridad favorita respalda un producto o servicio cuando, en realidad, no está involucrada de ninguna manera.

Estos anuncios “deepfake” presentan importantes preocupaciones legales y éticas. Pueden dañar la imagen de una celebridad y dar lugar a demandas judiciales por publicidad engañosa. Para los consumidores, es una capa más de engaño que enfrentar en un mundo de publicidad digital ya de por sí complejo.

5 consejos Prácticos para Identificar Contenido “Deepfake”

¿Cómo puedes protegerte de caer en un “deepfake”? Aquí tienes algunos consejos prácticos:

  1. Busca movimientos oculares no naturales: La tecnología “deepfake” tiene dificultades para replicar la frecuencia de parpadeo y los movimientos sutiles de los ojos en humanos reales.
  2. Verifica inconsistencias en la iluminación: Si la iluminación de la persona no coincide con el fondo, podría tratarse de un “deepfake”.
  3. Observa expresiones faciales extrañas: Los “deepfakes” a menudo presentan movimientos faciales ligeramente fuera de lo normal, como una sonrisa que no coincide con el tono de la conversación.
  4. Presta atención al audio: Si se trata de un “deepfake” de voz, el tono puede sonar monótono o el patrón de habla puede parecer antinatural.
  5. Realiza una verificación cruzada de fuentes: Si un contenido parece sospechoso, compáralo con fuentes confiables de noticias para confirmar su autenticidad.

Un Futuro con “Deepfakes”

Los “deepfakes” ya no son solo cosa de ciencia ficción: están entre nosotros y están causando daños reales. Desde la manipulación política y fraudes financieros hasta violaciones de la privacidad y publicidad engañosa, el potencial de mal uso es enorme. Como hemos visto en estos ejemplos, la principal lección es mantenerse vigilante y crítico respecto al contenido que consumimos: siempre investiga las fuentes y confirma con otros medios de comunicación si una imagen o audio parece sospechoso.

El futuro de los “deepfakes” seguirá desafiando nuestros sistemas legales, estándares éticos, procesos electorales e incluso la forma en que percibimos la realidad. A medida que evoluciona la tecnología detrás de los “deepfakes”, también deben evolucionar nuestras estrategias para detectar y prevenir su mal uso.

¿Desea saber más?

Agende una demostración para comenzar hoy.