Fotografía de 2018 tomada en el Mobile World Congress (MWC) de Barcelona (España). EFE/Archivo/Andreu Dalmau

En los «deepfakes» se puede manipular el rostro de una persona para que actúe y diga lo que el creador quiera. En el último año, esta tecnología se ha vuelto más popular y sofisticada, por lo que cada vez es más difícil detectar este tipo de manipulación audiovisual.

El youtuber MrBeast, cuyo nombre real es Jimmy Donaldson y tiene casi 200 millones de seguidores, y el actor ganador de dos Óscar, Tom Hanks, tienen algo en común: los dos han sido blanco este mes de estafas difundidas en las redes sociales que usan una inteligencia artificial (IA) generativa conocida como «deepfake».

En los «deepfakes» se puede manipular el rostro de una persona para que actúe y diga lo que el creador quiera.

Aquí vale su Publicidad con descuento de Preventa 2024 – Telf. (w) +58 412 5293730 ó 04146385161

En el último año, esta tecnología se ha vuelto más popular y sofisticada, por lo que cada vez es más difícil detectar este tipo de manipulación audiovisual, recoge Infobae.

En el caso de Donaldson, youtuber de 25 años que es conocido por regalar a sus suscriptores casas, automóviles y dinero en general y es extremadamente popular entre los más jóvenes, la estafa usó «deepfake» para crear un video en el que el creador de contenido decía que regalaba el último modelo de iPhone por 2 dólares (1,90 euros).

Si estás viendo este vídeo, eres una de las 10.000 personas afortunadas que recibirán un iPhone 15 Pro por sólo 2 dólares. Soy MrBeast y voy a realizar el sorteo de iPhone 15 más grande del mundo. Haz clic en el enlace a continuación para reclamar el tuyo ahora», decía el «deepfake» de Donaldson difundido en TikTok, en un vídeo que ya fue retirado de la plataforma.

Sin embargo, la letra pequeña de ese enlace indicaba que se trataba de un programa de inscripción automática mensual, en el que había un cargo inicial de 6,95 dólares (que se puede confundir con un gasto de envío) y luego un pago mensual indefinido de 139,67 dólares.

Mucha gente está recibiendo este anuncio fraudulento mío de ‘deepfake’… ¿Están las plataformas de redes sociales preparadas para manejar el aumento de los ‘deepfakes’ de IA? Este es un problema grave», escribió en su cuenta de X (antes Twitter) Donaldson.

Según cuenta a EFE Satnam Narang, ingeniero principal de investigación de Tenable y conocido como el «susurrador de las estafas en redes sociales», el video falso de Donaldson puede pasar por creíble si no se presta especial atención, pero no es perfecto.

Si se mira su labio superior y su falta de movimiento, se nota que no es natural», relata el experto.

Hanks también alertó a sus seguidores en Instagram que él «no tenía nada que ver» con un video «generado por IA» en el que «promociona un plan dental».

Aquí vale su Publicidad con descuento de Preventa 2024 – Telf. (w) +58 412 5293730 ó 04146385161

El protagonista de «Forrest Gump» ha expresado en varias ocasiones su preocupación por el uso de la IA en el cine y la televisión.

No obstante, se ha servido de esta tecnología en cintas como la película animada «The Polar Express», que en 2004 usó imágenes generadas por computadora (CGI) para crear su personaje, o su último trabajo más reciente, «A Man Called Otto», para parecer más joven en algunas escenas.

Narang asegura que han sido muchos los famosos que han sido diana de esta manipulación este año, como fue el caso de Elon Musk, una de las personas más ricas del mundo, en un video que promocionaba criptomonedas.

La mayoría de las redes sociales establecen en su reglamento que el contenido sintético o manipulado que se publique debe ser etiquetado como tal, pero no siempre son capaces de detectar y eliminar las publicaciones que se saltan estas normas.

Lo más complejo de la situación es que no existen máquinas que sean capaces de señalar rápidamente y a ciencia cierta que un contenido (ya sea un texto, una foto o un vídeo) haya sido generado con IA.

Lo cual es peligroso no solo por las posibles estafas, sino también por sus efectos sobre la desinformación en general, sobre todo si se trata de conflictos bélicos o elecciones.

En tanto, según Narang, lo mejor es que los usuarios de redes siempre desconfíen, investiguen el perfil que publica la información -incluso si tienen el símbolo de cuenta verificada- y lean siempre la letra pequeña.

Lcda, Jessica Urribarri V. CNP 19925

SECRETARIA DE REDACCIÓN/Lcda. Amarilis Romero S. CNP 12267

Para más informaciones, síguenos en:

Instagram: elpregon.news @PlanasRaga

Telegram: elpregon.news

Twitter: @DiarioElPregon @AmenhotepPlanas

Facebook: El Pregón Venezolano

Wathsaap: +584125293730 ó 04146385161

Diario El Pregón copyright 2023 Desarrollado por @SocialMediaAlterna