Estafadores están usando fotos, videos y audios de sus víctimas para usarlos con IA y lograr millonarias estafas.


Los estafadores están usando IA para suplantar personas a través de llamadas y mensajes.
Foto:
Si hay algo que se le cuestiona a la industria en todo este ‘boom’ de inteligencia artificial generativa, es que pareciera que hay más herramientas y desarrollos que mecanismos para protegernos de los posibles riesgos asociados a esta tecnología.

En la esquina inferior izquierda se puede ver la marca de agua que Meta aplica a todas las imágenes hechas con su IA.
Foto:

Ya está disponible para los usuarios de Meta el nuevo asistente de Inteligencia Artificial, llamado Meta AI.
Foto:

Con tan solo unos segundos se puede clonar una voz.
Foto:

Dude especialmente si la llamada llega de un número desconocido
Foto:
¿Cómo protegerse de las Deepfakes y los estafadores que usan IA?
- Mantener la calma y verificar: Si se recibe una llamada o video sospechoso, es crucial no actuar de inmediato, incluso si la situación parece urgente. Es importante tomarse el tiempo para verificar la información. Se debe llamar al número de teléfono de confianza de la persona involucrada, no simplemente rediscando el número del estafador.
- Hacer preguntas difíciles: Los estafadores que usan clonación de voz o deepfakes pueden no tener acceso a detalles específicos que solo la persona conocida sabría. Preguntar algo que no esté disponible públicamente es una buena manera de verificar la identidad.
- Ser escéptico: Siempre se debe desconfiar de las solicitudes inesperadas de dinero o información personal, especialmente si se realizan mediante métodos difíciles de rastrear, como transferencias electrónicas, criptomonedas o tarjetas de regalo.
- Reducir la exposición en redes sociales: Limitar la cantidad de información personal que se comparte en línea es fundamental. Configurar las cuentas como privadas para que solo amigos y familiares de confianza tengan acceso a las publicaciones puede ayudar a evitar que los estafadores recopilen material para crear deepfakes o manipular la voz.
- Conocer las señales de una deepfake: Aprender a identificar inconsistencias en los videos, como movimientos extraños, cambios en la iluminación, desincronización de los labios con el audio o patrones de parpadeo irregulares, son indicios de que se podría estar frente a un video manipulado.
- Educar a los seres queridos: La prevención es una herramienta poderosa. Asegurarse de que la familia y colegas comprendan cómo funcionan estas estafas y cómo detectarlas. Implementar políticas de “confiar, pero verificar” puede prevenir muchas situaciones de fraude.
- Mantener buenas prácticas de ciberseguridad: Proteger los dispositivos con programas de seguridad que incluyan herramientas como antivirus, VPN y protección contra malware. Además, realizar copias de seguridad regularmente y utilizar contraseñas fuertes y únicas para las cuentas.