Parece la misma voz pero no lo es: así puedes identificar un audio de WhatsApp hecho con IA

Descubre cómo identificar uno de los delitos informáticos más recientes dentro del servicio de mensajería de Meta.

author

Por:

Nicolas Lafferriere

Compartir este artículo

Facebook
Twitter
WhatsApp
Email
Parece la misma voz pero no lo es: así puedes identificar un audio de WhatsApp hecho con IA
Un nuevo delito informático utiliza la Inteligencia Artificial para engañar a los usuarios de WhatsApp. Fuente: Producción La Península

El avance de la Inteligencia Artificial nos obliga a estar alerta a los nuevos delitos informáticos que pueden ocurrir en las redes sociales. WhatsApp se convirtió en el epicentro de algunos muy convincentes, y de los que tendremos que conocer su funcionamiento y la forma de evitar su éxito.

La estafa de los audios de WhatsApp

Con el paso de los años, las tecnologías concentradas en el avance de la IA han mejorado su habilidad para crear audios. Los mismos pueden identificar y replicar el tono de voz de cualquier persona, incluyendo la de familiares y amigos de confianza.

Inteligencia artificial.
La IA ha servido de herramienta para generar múltiples delitos informáticos. Fuente: Dall.E

La falsificación de voces tiene múltiples aplicaciones en el campo de las actividades ilegales. No solo hay un gran número de personas aprovechando esta herramienta para desinformar a los usuarios a gran escala, sino que además existe una serie de estafas individuales que pueden engañar a los más desprevenidos, quitándoles datos importantes e incluso cantidades de dinero.

Publicidad

    Los estafadores emplean la Inteligencia Artificial para crear voces sintéticas que imitan a personas reales, como familiares, amigos, e incluso figuras de autoridad. A pesar de que puede sonar complicado, existen algunas señales que pueden servir de alerta para evitar convertirnos en víctimas de estos crímenes.

¿Cómo reconocer un audio falso de WhatsApp?

En primer lugar, hay que entender que la Inteligencia Artificial todavía tiene dificultades para replicar la gama de emociones humanas que puede expresar una voz. Aspectos como la monotonía en el discurso, las pausas inusuales y las inconsistencias en las respuestas son alertas a las que debemos prestar una gran atención.

WhatsApp
Los audios de WhatsApp han servido de caldo de cultivo para delitos informáticos. Fuente: Producción La Península.

Si nos encontramos ante un intento de estafa con Inteligencia Artificial, debemos seguir las siguientes indicaciones:

  • No tomar decisiones rápidas. Analizar con tiempo la calidad del audio e identificar posibles inconsistencias.
  • Buscar lógica en el contenido del mensaje. Las frases sin sentido o fuera de lugar pueden ser indicativas de fraude.
  • Utilizar métodos alternativos para confirmar la identidad de la persona que envía el mensaje. Contactar a través de fuentes oficiales.
  • No compartir información sensible. Hay que mantener seguros los datos personales y financieros privados, y no divulgarlos creyendo únicamente en una grabación de audio.

Informarnos y concientizarnos sobre este tipo de peligros en internet es importante para evitar la expansión y el éxito de los crímenes informáticos.

Temas relacionados