¿Qué es el voice hacking?
El voice hacking es una técnica cada vez más común en la que los ciberdelincuentes utilizan tecnología de síntesis de voz para imitar la voz de otra persona y obtener información confidencial o realizar acciones fraudulentas. Exploraremos las diferentes formas en que los hackers pueden usar el voice hacking y cómo puedes protegerte contra estos ataques.
¿Qué es el Voice Hacking?
El voice hacking se refiere a las técnicas para manipular la voz de las personas usando tecnologías avanzadas. Esto incluye la clonación de voz, donde se utiliza inteligencia artificial para replicar la voz de una persona específica y crear grabaciones que suenan auténticas. También se conoce como deepfake de voz o deep voice, que genera mensajes falsos que parecen venir de alguien real.
Los estafadores pueden grabar la voz de una persona sin su consentimiento y usar ese audio para crear mensajes falsos que parezcan auténticos. Este tipo de ataque puede comprometer la seguridad de dispositivos como asistentes virtuales (Alexa, Siri, Google Home) y otros dispositivos IoT.
Tipos de estafa con voice hacking
- Vishing: es una técnica de estafa en la que los delincuentes utilizan llamadas telefónicas para engañar a las víctimas y obtener información confidencial. Los estafadores suelen hacerse pasar por representantes de instituciones confiables, como bancos, servicios de atención al cliente o incluso agencias gubernamentales. Durante la llamada, pueden utilizar técnicas de ingeniería social para ganar la confianza de la víctima, haciéndole creer que debe proporcionar datos sensibles como números de cuentas bancarias, contraseñas, o detalles de tarjetas de crédito. Los delincuentes pueden utilizar esta información para realizar transacciones fraudulentas o para cometer otros tipos de fraude financiero.
- Suplantación de identidad por voz: los ciberdelincuentes emplean software avanzado de clonación de voz, conocido también como deepfake de voz o , para replicar la voz de una persona específica. Esta tecnología utiliza inteligencia artificial para analizar grabaciones de la voz de una persona y crear una versión sintética que suena igual que la original. Los delincuentes pueden usar esta voz clonada para realizar llamadas telefónicas o enviar mensajes de texto que parecen ser de alguien de confianza, como un ejecutivo de empresa o un familiar. Esto les permite engañar a las víctimas para que realicen acciones como transferencias de dinero, proporcionar información confidencial o realizar compras en línea bajo falsas pretensiones.
- Asistentes de voz y dispositivos IoT: en este caso pueden explotar vulnerabilidades en dispositivos como asistentes virtuales (Alexa, Google Home, Siri) o sistemas de seguridad doméstica conectados a Internet para ejecutar comandos no autorizados. Esto puede incluir realizar compras en línea, desactivar alarmas de seguridad, acceder a información personal almacenada en el dispositivo, o incluso espiar a los usuarios mediante la activación de micrófonos. Estos ataques pueden ser llevados a cabo mediante comandos de voz falsificados o aprovechando brechas de seguridad en el software del dispositivo.
Algunos casos conocidos
Estos casos destacan la importancia de ser cauteloso con las llamadas telefónicas y los dispositivos de voz, y nos muestran por qué debemos contrastar antes de actuar.
- Voz de un familiar
Una usuaria contactó con la Línea de Ayuda en Ciberseguridad de INCIBE tras recibir una llamada sospechosa. En la llamada, escuchó la voz de su marido pidiéndole que enviara un mensaje a un número específico. Sospechando que algo no estaba bien, la usuaria llamó al número habitual de su marido, quien confirmó que no había realizado la llamada. Se concluyó que la voz había sido generada utilizando inteligencia artificial, posiblemente a partir de grabaciones obtenidas en llamadas previas sospechosas. - Caso de Jennifer DeStefano
En 2023, Jennifer DeStefano recibió una llamada de alguien que, utilizando tecnología de clonación de voz, imitó la voz de su hija y le dijo que había sido secuestrada. Un hombre en la llamada exigió un rescate de 50.000 dólares. Aterrorizada, Jennifer intentó ganar tiempo y buscar ayuda, solo para descubrir después que su hija estaba a salvo y nunca había sido secuestrada. El caso destaca el peligro de la clonación de voz utilizada para estafar y manipular emocionalmente a las personas. - Caso de Ruth Card
Una mujer canadiense de 73 años recibió una llamada de alguien que sonaba como su nieto, diciéndole que estaba detenido y necesitaba dinero para pagar la fianza. Preocupada, Ruth y su marido retiraron 3.000 dólares canadienses del banco. Sin embargo, antes de entregar el dinero, se dieron cuenta de que habían sido víctimas de una estafa. La voz que escucharon no era la de su nieto, sino una clonación generada por inteligencia artificial. - Fraude a gran empresa de Reino Unido
En 2019, una empresa de energía en el Reino Unido fue estafada por 220.000 euros cuando atacantes utilizaron software de inteligencia artificial para clonar la voz del CEO de la empresa matriz. Con esta voz clonada, los estafadores hicieron una llamada telefónica al director de una subsidiaria, solicitando una transferencia urgente de fondos a una cuenta en Hungría. La voz era tan convincente que el director, confiando en la autenticidad de la solicitud, ordenó la transferencia sin dudar. El fraude se descubrió demasiado tarde para recuperar el dinero, destacando la necesidad de verificaciones adicionales y conciencia sobre estas amenazas en las empresas.
¿A qué riesgos nos enfrentamos?
Ser víctima de voice hacking puede tener graves consecuencias, algunas de ellas pueden ser las siguientes:
Robo de identidad: es uno de los riesgos más serios asociados con el voice hacking. Los estafadores pueden utilizar tecnologías avanzadas de clonación de voz para imitar con precisión la voz de una persona. Esto les permite engañar a instituciones financieras o servicios en línea para obtener acceso a cuentas bancarias, realizar transacciones fraudulentas o cambiar información de contacto.
La consecuencia puede suponer perdidas de dinero y una complicación en la restauración de la identidad.
- Daño de reputación: puede ocurrir cuando los ciberdelincuentes usan voces clonadas para enviar mensajes falsos que afectan la imagen personal o profesional de una persona. Una voz clonada puede ser utilizada para enviar mensajes falsos o comprometedores que dañen las relaciones familiares o amistosas, o incluso para difundir información falsa que puede tener consecuencias duraderas para la reputación de una persona en el ámbito familiar y profesional.
- Pérdida financiera: los estafadores pueden utilizar la clonación de voz para autorizar compras no autorizadas, realizar transferencias de dinero fraudulentas o acceder a información financiera sensible. Las víctimas pueden enfrentar cargos inesperados en sus cuentas, pérdida de fondos debido a transferencias fraudulentas, o gastos imprevistos relacionados con la recuperación de su dinero. En muchos casos, el dinero perdido puede ser difícil de recuperar, especialmente si los fondos han sido movidos rápidamente a cuentas en el extranjero.
¿Cómo puedes protegerte?
Protegerse contra los fraudes de voice hacking implica adoptar una combinación de medidas preventivas y prácticas de seguridad para minimizar los riesgos. A continuación, te mostramos algunas que te pueden servir para protegerte sobre este tipo de fraude y la importancia de contrastar la información antes de creértela en el apartado de Bulos y noticias falsas.
- Desconfía de llamadas de números desconocidos: si decides contestar, verifica la identidad de la otra persona antes de compartir tu información personal. Sospecha de peticiones raras o historias que generen urgencia, y tómate tu tiempo para analizar la situación antes de actuar. Contrasta siempre la información contactando por otros medios conocidos que suelas utilizar con esa persona. Mantén la calma, no te precipites, y busca apoyo en alguien de confianza si tienes dudas.
- Cambia tus contraseñas regularmente: es una medida importante para proteger tus dispositivos y cuentas de accesos no autorizados. Utiliza contraseñas seguras que sean difíciles de adivinar, combinando letras mayúsculas y minúsculas, números y caracteres especiales. Además, evita usar la misma contraseña en múltiples cuentas. Considera el uso de un gestor de contraseñas para generar y almacenar contraseñas complejas y únicas para cada cuenta. Al cambiar las contraseñas con frecuencia, reduces el riesgo de que una contraseña comprometida pueda ser utilizada para acceder a tus cuentas. Puedes encontrar más información al respecto, en el apartado de Gestión de contraseñas seguras de INCIBE.
- Configura la autenticación de voz: configura esta función en dispositivos compatibles para que respondan solo a tu voz o a voces previamente registradas. Esta medida añade una capa adicional de seguridad, dificultando que los estafadores utilicen una voz clonada para acceder a tus dispositivos o realizar comandos que podrían comprometer tu información o realizar acciones no autorizadas. Asegúrate de revisar y actualizar las configuraciones de autenticación de voz regularmente. A continuación, puedes acceder a los siguientes enlaces de los asistentes de voz más comunes para observar cómo hacer la configuración de estos mismos:
- Evita usar asistentes de voz en público: en lugares públicos, los asistentes de voz pueden captar conversaciones y comandos que podrían ser utilizados para realizar ataques de ingeniería social o para crear un perfil de tu voz. Además, otras personas podrían estar en condiciones de grabar tu voz, lo que potencialmente podría ser utilizado para la clonación. Siempre que sea posible, utiliza asistentes de voz en entornos privados y seguros para minimizar el riesgo de exposición.
- Mantén tus dispositivos actualizados: los fabricantes de dispositivos y software regularmente lanzan actualizaciones que corrigen fallos de seguridad y mejoran la protección contra nuevos tipos de ataques. Asegúrate de instalar las actualizaciones de seguridad y parches tan pronto como estén disponibles. Mantener tus dispositivos actualizados reduce el riesgo de explotación de vulnerabilidades que podrían ser aprovechadas por los atacantes.
El voice hacking es una amenaza real y creciente en el mundo digital. Es importante estar informado y tomar medidas para protegerse de este tipo de ataque. Si tienes más preguntas sobre este tema, no dudes en ponerte en contacto con nosotros a través de la Línea de Ayuda en Ciberseguridad de INCIBE. Ofrecemos asistencia gratuita y confidencial. Puedes llamarnos al 017 o comunicarte con nosotros mediante nuestras plataformas de mensajería instantánea en WhatsApp (900 116 117) y Telegram (@INCIBE017).