Estafadores están usando fotos, videos y audios de sus víctimas para usarlos con IA y lograr millonarias estafas
Si hay algo que se le cuestiona a la industria en todo este ‘boom’ de inteligencia artificial generativa, es que pareciera que hay más herramientas y desarrollos que mecanismos para protegernos de los posibles riesgos asociados a esta tecnología.
Al día de hoy, todos tienen la posibilidad de interactuar con un chat conversacional, como puede ser Bing Chat, ChatGPT, o los servicios de atención al cliente que han empezado a implementar inteligencia artificial generativa. Asimismo, cada vez se popularizan más los servicios de generación de imágene. Pero, ¿cuántos de nosotros sabemos protegernos? ¿Cuántos podemos identificar un texto o una imagen hechos con inteligencia artificial de una real?
Bajo el liderazgo del gobierno de Estados Unidos, algunas empresas líderes en el sector han empezado a implementar una etiqueta automática visible en el contenido hecho con IA, así como en la metadata, para garantizar cierta trazabilidad y transparencia. Sin embargo, sigue siendo un mecanismo vulnerable.
Además, una cosa es la etiqueta que pueden implementar los proveedores de servicios y otra son los modelos de inteligencia artificial que una persona puede correr de forma nativa en su computadora. Es allí donde las reglas no existen y las limitantes de cierto tipo de contenido no están, donde hay mayor riesgo de que surja algo que pueda afectarnos gravemente.
En julio, el gobierno de Brasil tomó la decisión de bloquear la posibilidad de que Meta entrene sus inteligencias artificiales con los datos de usuarios de sus servicios, tales como Instagram y Facebook.
Meta
La decisión se dio poco después de que Meta, el 26 de junio, actualizara su política de privacidad de datos, anunciando que todo tipo de información que haya recolectado de nosotros a través de sus productos puede ser empleada para entrenar sus modelos de IA.
¿Cuáles son nuestras interacciones en los productos de Meta? Los clics que damos, los videos que vemos, las fotos que publicamos, los comentarios que dejamos. Y ojo, eso quiere decir que, por ejemplo, si tenemos un amigo que no tiene redes sociales pero subimos una foto con él, su cara también puede ser utilizada para entrenar estos modelos.
Eso sí, Meta es clara en decir que nuestras conversaciones a través de Messenger o WhatsApp no pueden ser utilizadas dado que se encuentran en un mecanismo encriptado de punto a punto, excepto aquellos mensajes en los que etiquetamos a @MetaAI.
Brasil no está solo en la batalla; Europa también le cerró el paso a Meta. Antes de salir la nueva política de privacidad, la Comisión Irlandesa de Protección de Datos, el 14 de junio, celebró la decisión de Meta de pausar sus planes para entrenar su modelo de lenguaje de gran tamaño con información de usuarios de la Unión Europea tras las conversaciones con la empresa.
Por su parte, la compañía expresó su «decepción».
ElevenLabs, una startup dedicada a la clonación de voces, lanzó un producto llamado Iconic Voices que consiste en que personajes reconocidos lean artículos y libros al usuario. Solo requiere un clip de 30 segundos de voz para clonar muy bien el hablar de una persona.
He hecho mis pruebas y casi que de forma instantánea me ha leído una noticia con mi voz, implementando matices e inflexiones en la voz.
Cuando fue el confinamiento en Colombia por la pandemia del COVID-19, se hizo muy famosa una aplicación que podía poner nuestra cara en escenas de películas. El nombre de esa app es Reface. Si bien esa tendencia mermó en redes sociales, la empresa sigue vigente y ha incrementado sus servicios. Lo sorprendente es que basta con una foto de la cara para poder implementarla en un video, teniendo un resultado bastante bueno.Ç
Los beneficios de estos desarrollos aún son incalculables. Por ejemplo, tener la posibilidad de reemplazar la cara de un actor protagonista en una escena de acción hecha por un doble de riesgo puede abrir todo un mundo de posibilidades en el cine; clonar la voz de un actor en inglés y usarla en español nos abriría la posibilidad de escuchar a los actores en nuestro idioma.
¿Y qué pasa en ese terreno donde no hay autoridad? Si hay una empresa que está ofreciendo un servicio altamente desarrollado, es muy probable que exista una versión quizás modesta pero funcional, de código abierto y accesible a todo el mundo que no requiere de gran infraestructura y prácticamente sin dejar rastro.
En enero de este año empezaron a circular imágenes sexuales falsas de Taylor Swift. Esto generó todo una oleada de rechazo a las publicaciones y un círculo de apoyo para la artista.Lo cierto es que hoy en día esto le podría pasar a cualquiera.
Las mal llamadas ‘pornovenganzas’ pueden abundar con los modelos de difusión para la generación de imágenes. En una página dedicada a explorar y documentar las mejores configuraciones para obtener los mejores resultados, se señala que se necesitan al menos 15 fotos de la cara de la persona para poderla combinar con otros modelos entrenados por ejemplo con estilos artísticos, deportes, vestimentas o porno.
En febrero de este año, un empleado transfirió 25 millones de dólares tras recibir una llamada de un supuesto director financiero. La estafa se llevó a cabo engañando a la víctima para que participara en una videollamada, en la que supuestamente estaban presentes varios miembros de la empresa, y aceptara transferir una gran suma de dinero.
Aunque inicialmente dudó y sospechó que podría tratarse de un caso de phishing, al ver a toda una junta reunida en la videollamada, el empleado confió en la autenticidad de la reunión. Sin embargo, todos los participantes eran falsos.
iStock
A finales de julio, un estafador utilizó tecnología de deepfake para imitar la voz del CEO de Ferrari, Benedetto Vigna, con el fin de engañar a un empleado de la compañía. El estafador se comunicó por WhatsApp e intentó convencer al empleado de colaborar en una supuesta adquisición confidencial. A pesar de la imitación precisa del acento del CEO, el empleado sospechó cuando el estafador no pudo responder a una pregunta personal relacionada con una recomendación de un libro.
Esto llevó al empleado a cortar la comunicación y alertar a la compañía, lo que desencadenó una investigación interna. No se reveló información confidencial.
Y no se trata solo de robar a grandes compañías; también los robos están ocurriendo en llamadas en las que fingen ser un familiar en apuros. No es una táctica nueva, pero sí que se ha refinado o se empieza a refinar. Imagínese usted recibir la llamada de un ‘familiar’ gritando. ¿Cuál sería su reacción? En ese sentido, Google está trabajando para que todos los dispositivos Android que estén en la capacidad de ejecutar inteligencia artificial puedan utilizar su modelo Gemini Nano.
Según adelantó la compañía durante la conferencia de desarrolladores I/O, la IA buscaría lenguaje fraudulento y otros patrones en la conversación que suelen asociarse con estafas para advertirle en tiempo real a la persona que puede estar siendo víctima de un intento de robo.
Aún no se conoce la fecha en que esta funcionalidad estará disponible.
Ahora, la pregunta que todos debemos hacernos es cuántos videos están publicados en la red con nuestra voz, cuántas fotos en alta definición están publicadas en la red y qué tipo de personas pueden tener acceso a ellas fácilmente. Quizás sea momento de ‘cerrar el cerco’ y controlar aún más quién puede acceder a lo que publicamos en Internet.
¿Cómo protegerse de las Deepfakes y los estafadores que usan inteligencia artificial?
Protegerse de las estafas y engaños que utilizan tecnología de inteligencia artificial, como las deepfakes y el voice cloning, requiere una combinación de precauciones tecnológicas y prácticas de seguridad personal. A continuación, algunas recomendaciones clave basadas en las guías del Departamento de Protección al Consumidor y al Trabajador de la Ciudad de Nueva York y Kaspersky:
Mantener la calma y verificar: Si se recibe una llamada o video sospechoso, es crucial no actuar de inmediato, incluso si la situación parece urgente. Es importante tomarse el tiempo para verificar la información. Se debe llamar al número de teléfono de confianza de la persona involucrada, no simplemente rediscando el número del estafador.
Hacer preguntas difíciles: Los estafadores que usan clonación de voz o deepfakes pueden no tener acceso a detalles específicos que solo la persona conocida sabría. Preguntar algo que no esté disponible públicamente es una buena manera de verificar la identidad.
Ser escéptico: Siempre se debe desconfiar de las solicitudes inesperadas de dinero o información personal, especialmente si se realizan mediante métodos difíciles de rastrear, como transferencias electrónicas, criptomonedas o tarjetas de regalo.
Reducir la exposición en redes sociales: Limitar la cantidad de información personal que se comparte en línea es fundamental. Configurar las cuentas como privadas para que solo amigos y familiares de confianza tengan acceso a las publicaciones puede ayudar a evitar que los estafadores recopilen material para crear deepfakes o manipular la voz.
Conocer las señales de una deepfake: Aprender a identificar inconsistencias en los videos, como movimientos extraños, cambios en la iluminación, desincronización de los labios con el audio o patrones de parpadeo irregulares, son indicios de que se podría estar frente a un video manipulado.
Educar a los seres queridos: La prevención es una herramienta poderosa. Asegurarse de que la familia y colegas comprendan cómo funcionan estas estafas y cómo detectarlas. Implementar políticas de «confiar, pero verificar» puede prevenir muchas situaciones de fraude.
Mantener buenas prácticas de ciberseguridad: Proteger los dispositivos con programas de seguridad que incluyan herramientas como antivirus, VPN y protección contra malware. Además, realizar copias de seguridad regularmente y utilizar contraseñas fuertes y únicas para las cuentas.
Amenhotep Planas Raga – Noti/Imágenes
Y Síguenos en:
Instagram como: elpregon.news
Facebook: El Pregón Venezolano
Telegram: el pregon.news
Y en “X”: Diario El Pregón