Nunca ha sido tan fácil cometer ciberdelitos. Los estafadores están usando tecnología de Inteligencia Artificial (IA) para clonar voces, replicar acentos de todo el mundo, entonaciones, modismos incluyendo formatos específicos según la geografía y luego enviar un mensaje de voz falso o llamar a los contactos de la víctima fingiendo estar en situaciones complejas, estableció un informe de BTR Consulting, al que accedió AIM.
Ni siquiera nos detenemos a pensarlo, pero escuchar la voz de una persona es suficiente para saber de quien se trata y depositar confianza. Hemos registrado un aumento en los ciberataques que aprovechan los sitios web asociados con ChatGPT, provocando distribución de malware e intentos de phishing a través de sitios web que parecen estar relacionados con la app.
Asimismo, hubo varios ataques relacionados con la propagación de malware e intentos de phishing a través de sitios web que parecen estar asociados a ella. Después de hacer click, las víctimas son redirigidas a sitios web imitan a ChatGPT: chat-gpt-pc.online, chat-gpt-online-pc.com, chat-gpt-for-windows.com, chat-gpt-ai-pc.info, etc.
Ahora la IA está propiciando un aumento en las estafas de voz online, con solo cinco segundos de audio es suficiente para clonar la voz de una persona. Históricamente esta ha sido una estafa típica en transacciones bancarias que utilizaban “la voz” como método de autenticación. Los estafadores están usando tecnología de IA para clonar voces.
La voz de cada persona es única, el equivalente hablado de una huella dactilar biométrica, razón por la cual escuchar hablar a alguien es una forma tan ampliamente aceptada de generar confianza. El 50 por ciento de los adultos comparten su voz en formato digital, al menos, una vez a la semana, a través de las redes sociales, mensajes de voz, etc. Cerca del 30 por ciento lo hace 12 veces o más por semana.
Manipular imágenes, videos y las voces de compañeros de trabajo, amigos y familiares es cada vez más fácil. La tendencia es que la mayor probabilidad de convencimiento la tengan padres y madres cuando se trata del pedido de auxilio de un menor, relativo a: “tuve un accidente, perdí mi teléfono, me asaltaron, me quedé sin plata”.
Existe ya un gran número de herramientas gratuitas y de pago, y muchas requieren solo un nivel básico de conocimientos. En un solo caso, bastaron cinco segundos de audio como fuente original junto con varias desgravaciones para producir una semejanza altísima con la voz original, alrededor del 90 por ciento. Se trata de vulnerabilidades emocionales que apuntan a las relaciones cercanas.
Así también lo indicó la Asociación ARRP. Una pareja del área de Houston recibió el mes pasado una llamada de su hijo adulto, o al menos pensaron que era él, ya que la voz sonaba exactamente como la suya. Según un informe de KHOU 11 News (en inglés), el hijo mencionó que había tenido un accidente de automóvil en el que había atropellado a una mujer embarazada de seis meses, que acababa de salir del hospital y que ahora estaba en la cárcel del condado a punto de ser acusado de conducir ebrio. Necesitaba cinco mil dólares para salir del aprieto.
Convencidos por completo de que la persona que los llamaba era su hijo, entregaron el dinero en efectivo a un intermediario que vino a su casa a recogerlo.
¿Cómo lo lograron los estafadores? Lo más probable es que hayan utilizado inteligencia artificial (IA) para clonar la voz del hijo, afirma Alex Hamerstone, ciberanalista de TrustedSec, una consultora de seguridad informática. Apunta al caso de Houston como un claro ejemplo de la manera en que los malhechores son capaces de utilizar la última tecnología de inteligencia artificial generativa, incluidos los programas que imitan la voz, los videos ultrafalsos y los chatbots como ChatGPT.
Hamerstone señala que esta tecnología tiene el potencial de aumentar la capacidad de los delincuentes para hacerse pasar por cualquier persona, bien sea un nieto, un agente de la policía o incluso un cónyuge.
“Hay muchas estafas que son bastante preocupantes, y yo siempre trato de calmar las preocupaciones un poco”, indica, “pero esta sí que me aterra”.
A otros expertos también les inquieta el potencial de la inteligencia artificial para causar daño. El mes pasado, un grupo de líderes tecnológicos, entre ellos Elon Musk y el cofundador de Apple Steve Wozniak, publicaron una carta abierta en línea (en inglés) en la que advertían que “los sistemas de IA con inteligencia competitiva humana pueden plantear profundos riesgos para la sociedad y la humanidad”, y pidieron una pausa de seis meses en el entrenamiento de los sistemas de IA, para que los expertos puedan dedicar tiempo a desarrollar y aplicar “un conjunto de protocolos de seguridad compartidos”.
El fraude descrito anteriormente -una versión de la “estafa de los abuelos”, en la que estos son blanco de delincuentes que se hacen pasar por nietos en crisis- es común, “pero antes (del uso de este software) la voz los podía delatar”, afirma Steve Weisman, experto en estafas, robos de identidad y ciberseguridad, y profesor de Delitos de Cuello Blanco en la Universidad Bentley, en Waltham, Massachusetts.
Con la tecnología de clonación de voz, añade, los estafadores solo necesitan capturar unos segundos del audio de la persona, “que pueden obtener de un video de TikTok o Instagram o de cualquier otro lugar semejante”, para ofrecer una suplantación convincente.
En otro incidente (en inglés) sobre el que se ha publicado mucho este mes, una mujer de Arizona llamada Jennifer DeStefano dijo que recibió una llamada de alguien que parecía ser su hija de 15 años, Briana, que estaba en un viaje de esquí. Esta persona estaba llorando y afirmaba que la tenían secuestrada y que los secuestradores exigían dinero para el rescate. DeStefano confirmó que su hija estaba a salvo, pero se sintió muy perturbada porque la voz sonaba exactamente igual que la de Briana; atribuyó la asombrosa semejanza a la IA.
Y cualquiera es capaz de utilizar esta tecnología. “Es como descargar cualquier otra aplicación”, dice Hamerstone. “Si estuvieras grabando esta conversación, podrías introducirla en el software y teclear lo que quisieras que dijera, y reproduciría mi voz diciéndolo”, concluyó
Algunas recomendaciones
- Si recibís un pedido de ayuda de un miembro de tu familia y pide dinero, verifica que la persona que llama: use una palabra clave previamente acordada o haga una pregunta que solo ellos puedan saber.
- Establece una “palabra clave” verbal con niños, familiares o amigos cercanos de confianza que solo ellos puedan conocer.
- Siempre cuestiona la fuente.
- Detenete y pensa antes de hacer click, reenviar y compartir.