2025-02-20 21:23:00
Imagina el siguiente escenario: recibes un audio urgente de un ser querido pidiéndote dinero. Suena como ellos y no hay duda en tu mente de que ese audio lo ha enviado esa persona que conoces y que, efectivamente, necesita de tu ayuda. Quizá no lo sepas, pero podrías estar hablando con un bot que usa tecnología IA de generación de voz. Con un par de clics y poco esfuerzo, un hacker puede generar un bot que clone a la perfección la voz de ese ser querido y engañarte para perjudicarte de mil maneras.
Si ya navegas por internet con precaución a causa de los posibles estafadores o criminales, ahora tendrás que navegar con mucho más cuidado. Según Servicios Web de Amazon (AWS por sus siglas en inglés) y Norton antivirus, la IA permite crear bots mucho más inteligentes y más eficientes a la hora de estafar a un humano en internet. A tenor de la página web LifeLock, en el 2025 hay cinco tipos de estafas emergentes que usan tecnología IA para engañar a humanos de todas partes del mundo.
Chatbots IA estafadores
De los encuentros más frecuentes, los chatbots IA tienen la capacidad de imitar a una persona a través de un chat nunca antes vista. Tienen la intención de conseguir información personal para luego poder acceder a tus redes sociales o a tu cuenta bancaria. Este tipo de estafa es muy común en sitios falsos que se hacen pasar por el departamento de servicio al cliente de un banco, pero también puedes encontrarte a estos bots en sitios de chat o citas online, un lugar perfecto para entablar una conversación donde abras tu corazón pero también tu cuenta bancaria. La idiosincrasia de estos bots es su capacidad de aparentar, genuinamente, ser un humano, ya que han sido entrenados extensivamente para tener responder rápidamente, de manera natural y de forma muy atenta, engañando así, a muchos que bajan la guardia ante cualquier indicio de humanidad.
Estafas con videos “deepfake”
La Fundéu de la RAE afirma que, “la palabra deepfake alude a los sistemas informáticos que permiten, mediante técnicas de inteligencia artificial, desarrollar vídeos manipulados extremadamente realistas”. La forma más común de estos vídeos es con la imagen de una persona famosa en el que, el falso famoso, solicita algún tipo de ayuda monetaria. Todo esto a través de un vídeo que resulta ser extremadamente realista, tanto así que hasta la misma voz del falso famoso resulta ser idéntica al de la persona que imita. La IA permite que la creación de estos videos sea extremadamente fácil y su eficacia ha demostrado ser muy alta. Es una de las estafas más peligrosas y que tiende a atacar a las personas más inocentes y vulnerables.
Estafas para invertir en acciones o criptomonedas
Este tipo de estafa busca convencer a un público que quiere invertir en el mercado de acciones o en criptomonedas. A diferencia de las estafas mencionadas previamente, esta hace uso de todas las herramientas que la IA tiene que ofrecer y crean una red social diseñada a la perfección para atraer a un público ansioso por invertir. Crean videos deepfake, producen fotografías falsas, pero que son extremadamente realistas de celebridades o figuras reconocidas del mundo económico, publican textos automatizados que dan una sensación de vida y fervor colectivo para que la legitimidad de las inversiones no sea cuestionada. Este tipo de estafa suele ser muy compleja y la mejor forma de evadirla es informándose hasta quitar cualquier duda de que estamos interaccionando con una plataforma genuina.
“Phising” con IA
Según el Instituto Nacional de Ciberseguridad Español (INCIBE) “el phishing es una técnica que consiste en el envío de un correo electrónico por parte de un ciberdelincuente a un usuario simulando ser una entidad legítima (red social, banco, institución pública, etc.) con el objetivo de robarle información privada, realizarle un cargo económico o infectar el dispositivo. Para ello, adjuntan archivos infectados o enlaces a páginas fraudulentas en el correo electrónico”. ¿Dónde entra en juego la IA? Pues en la redacción y personalización de estos mensajes, ya que la IA tiene la capacidad de redactar correos que resultan ser mucho más convincentes y de personalizarlos a un nivel donde la veracidad del correo resulta escasamente cuestionada. Según LifeLock, desde el 2022 este tipo de estafa ha aumentado en 1.200%, todo gracias a la IA.
Clonación de voz con uso de IA
De las estafas más recientes y más frecuentes en los últimos dos años, la clonación de voz es uno de los métodos más sofisticado de las estafas con IA. Los estafadores logran replicar la voz de cualquier persona a la perfección si han tenido acceso a algún video o audio en el cual dicha persona esté hablando (normalmente obtienen esto visitando las redes sociales de la persona que buscan imitar). Ya teniendo la voz clonada, se ponen en contacto con la víctima en cuestión y piden algún tipo de información personal o bancaria para así luego poder perjudicar al afectado. Aunque en la clonación de voz existe incluso un nivel más elevado, y es la clonación en tiempo real, en el cual el estafador habla al micrófono y en tiempo real la IA es capaz de transformar la voz del estafador por la voz de la persona que están imitando.
La IA y las estafas con IA están evolucionando a un ritmo inimaginable, tanto así que tres de cada cuatro cibernautas está preocupado con el incremento de cibercriminalidad impulsado por IA. Está claro que estamos ante una fuerza que no se puede parar, y ante tal calamidad, lo mejor que se puede hacer para evitar ser víctimas es informarse.
#Cybercrime #cryptographique #les #humains #les #vers #sont #vos #nouveaux #ennemis #sur #réseau #qui #peuvent #vous #laisser #sans #argent
1740110304