Saltar menúes de navegación e información institucional Teclas de acceso rápido

El clima hoy en:

-

- -

El dólar hoy: (BCRA)

$857,0 / $897,0

Nacionales
Nacionales

Inteligencia artificial en el límite de la moral

La inteligencia artificial genera adeptos y detractores. Por ejemplo, ChatGPT se popularizó hace un tiempo por su capacidad a la hora de resolver demandas por parte de los navegantes de Internet. Se trata de un prototipo de chatbot de inteligencia artificial desarrollado en 2022 por OpenAI que se especializa en el diálogo. El chatbot es un gran modelo de lenguaje, pero este tipo de tecnología ¿es inofensiva?

Según pudo saber AIM, los dominios recientemente registrados relacionados con ChatGPT han aumentado significativamente, impulsados por ser una de las aplicaciones de más rápido crecimiento en la historia.

La contracara de esta popularidad es que ChatGPT también está atrayendo la atención de los estafadores. Las amenazas registran y usan dominios incluyendo las palabras "OpenAI" y "ChatGPT" en su nombre de dominio. Entre noviembre de 2022 y principios de abril de 2023, hubo un aumento del 900 por ciento en los registros mensuales de dominios relacionados con ChatGPT, informaron a AIM desde BTR Consulting.

Cuando OpenAI lanzó su API oficial para ChatGPT el 1 de marzo de 2023, se produjo un número creciente de “servicios” sospechosos que la utilizan, vinculados con potenciales amenazas por el uso de chatbots de imitación. Poco después de que Microsoft anunciara su nueva versión de Bing el 7 de febrero de 2023, se registraron más de 300 dominios falsos relacionados con ChatGPT.

Por lo general, los estafadores crean un sitio web fake que imita la estética del sitio web oficial de ChatGPT y luego engañan a los usuarios para que descarguen malware o compartan información confidencial.

Una técnica común que usan los estafadores para entregar malware presenta a los usuarios un botón "DESCARGAR PARA WINDOWS" que, una vez que se hace click, descarga el malware troyano en sus dispositivos sin que las víctimas se den cuenta del riesgo.

Los estafadores también están recurriendo a la ingeniería social relacionada con ChatGPT para el robo de identidad o el fraude financiero. A pesar de que OpenAI brinda a los usuarios una versión gratuita de ChatGPT, los estafadores conducen a las víctimas a sitios web fraudulentos, alegando que deben pagar por estos servicios. Intentando convencer a las víctimas para que proporcionen su información confidencial, como los detalles de la tarjeta de crédito y la dirección de correo electrónico.

Otros utilizan a OpenAI para ejecutar criptofraudes usando el logo de OpenAI y el nombre de Elon Musk para promocionar y capturar la atención de las víctimas a este evento fraudulento de sorteo de criptomonedas.

Los usuarios de ChatGPT deben prestar especial atención con los correos electrónicos o enlaces sospechosos relacionados con ChatGPT. Además, el uso de chatbots de imitación aumenta el riesgo de exposición. Los usuarios siempre deben acceder a ChatGPT a través del sitio web oficial de OpenAI.

Durante 2022 las campañas de phishing aumentaron casi un 50 por ciento, paradójicamente impulsadas por nuevas herramientas de inteligencia artificial y kits de phishing accesibles para los ciberdelincuentes, este 2023 tiene como protagonista y anzuelo a OpenAI y ChatGPT. Los ciberdelincuentes refinan continuamente sus métodos para hacerlos más sofisticados y difíciles de identificar o prevenir.

CEO para embaucar gente

La inteligencia artificial está de moda, y las estafas con criptomonedas no han aminorado ni un poco. Y, al parecer, algunos estafadores las están combinando para engañar y estafar a posibles inversionistas, incluso creando un falso CEO generado por IA para intentar embaucar a la gente.

Esta semana, el Departamento de Protección e Innovación Financiera de California (Dfpi) ha anunciado sus últimos esfuerzos para proteger a los residentes de las estafas de criptomonedas, enviando cartas de cese y desistimiento a cinco empresas que, según afirma, intentaron sacar provecho del tren de la IA.

Los últimos objetivos de la agencia son Maxpread Technologies, Harvest Keeper, Visque Capital, Coinbot y QuantFund, a las que el Dfpi acusa de ofrecer valores no cualificados y de hacer falsas promesas a los inversionistas. El Dfpi acusó a las empresas de hacer afirmaciones exageradas sobre la generación de grandes beneficios mediante el uso de IA para las criptomonedas, y de emplear tácticas de marketing multinivel para atraer a víctimas desprevenidas.

Una voz robada, otro caso común

Un estafador podría usar inteligencia artificial para clonar la voz de tu ser querido. Todo lo que necesita es un breve clip de audio con la voz de tu familiar, que podría conseguir buscando en contenidos publicados en línea, y un programa de clonación de voz. Cuando el estafador te llame, la voz sonará igual a la de tu ser querido.

Entonces, ¿cómo se puede saber si es un familiar que está en problemas o si se trata de un estafador que utiliza una voz clonada?

No te fíes de la voz. Llama a la persona que supuestamente se comunicó contigo y verifica la historia. Usa un número de teléfono que te conste que es el de esa persona. Si no te puedes comunicar con ese ser querido, trata de hacerlo a través de otro miembro de la familia o de sus amigos.

Los estafadores te piden que pagues o envíes dinero de maneras que hacen que sea difícil recuperarlo. Si la persona que te llama te dice que le hagas una transferencia de dinero, le envíes criptomonedas o compres tarjetas de regalo y le des los números de las tarjetas y los PIN que figuran al dorso de la tarjeta, podrías interpretarlos como signos de una estafa.

inteligencia artificial

Artículos Relacionados

Teclas de acceso