miércoles, 19 junio, 2024
InicioTecnologíaEstafas telefónicas con IA: cuidado con el impostor artificial

Estafas telefónicas con IA: cuidado con el impostor artificial

(*) Columnista invitado. Los último informes muestran un preocupante aumento de las estafas por clonación de vos. Qué podemos hacer para evitarlas.

Fabio Sánchez

09 de julio 2023, 07:13hs

La IA será un complemento a nuestras habilidades.

Las tecnologías de IA son cada vez más baratas y accesibles (Foto: AdobeStock)

El último reporte de inteligencia artificial y ciberseguridad de McAfee aborda uno de los temas del momento y lo titula sin vueltas: Beware the artificial impostor, es decir, Cuidado con el impostor artificial. Se trata de la encuesta más extensa hasta el momento sobre las estafas telefónicas con clonación de voz, un fenómeno que se ha extendido de forma exponencial en los últimos meses.

De acuerdo a los datos recogidos por McAfee en lo que va de 2023, esta nueva amenaza que utiliza la tecnología de clonación de voz con inteligencia artificial es una versión moderna del ya conocido “Hola, mamá” u “Hola, abuelo” (todos conocemos al menos un caso), en la que un delincuente, mediante una llamada telefónica, crea una situación de estrés tan grande que el damnificado termina creyendo que está hablando de verdad con ese familiar que está pidiéndole ayuda (la asistencia, invariablemente, se cobra en metálico). La introducción de la tecnología en este viejo esquema hace que sea mucho más difícil de detectar, e incluso que no haga siquiera falta crear una situación estresante, para conseguir el objetivo.

Leé también: Usaron inteligencia artificial para estafar a un empresario por videollamada: le sacaron 600 mil dólares

Sólo en los Estados Unidos, se estima que en 2022 esta estafa generó pérdidas por 2.600 millones de dólares, una tendencia que también está al alza en otros países. En el Reino Unido, por ejemplo, una versión de esta estafa realizada solo por WhatsApp generó pérdidas por 1,5 millones de libras en sólo cuatro meses, mientras que en Australia, una extendida estafa con mensajes de texto al estilo “Hola, mamá” resultó en una pérdida promedio por víctima de 5.000 dólares.

La huella digital que permite las estafas

Estos datos del año pasado, en el cual no estaba todavía tan extendido el uso de estas tecnologías, sólo muestran que lo peor está por venir. Es que la mayor disponibilidad y sofisticación de las herramientas de inteligencia artificial están cambiando las reglas del ciberdelito. A esto se suma que estas herramientas de clonación de voz con inteligencia artificial son baratas y fáciles de usar: la época en la que era necesario tener tiempo, capacidad técnica y talento para desarrollar exitosamente una estafa de estas características ya es cosa del pasado.

A esta disponibilidad de medios técnicos se suma quizás el apoyo más importante para estas iniciativas y tiene que ver con la regularidad con la que compartimos nuestra voz. La encuesta que encargó McAfee para entender este fenómeno encontró que el 53% de todos los adultos encuestados comparten su voz en línea al menos una vez a la semana, y el 49% lo hace hasta 10 veces en el mismo período. Y todo esto sin tener en cuenta nuestros propios videos en redes sociales como Instagram o TikTok. Esta huella digital resulta fundamental si tenemos en cuenta que sólo hacen falta algunos segundos de un live para clonar exitosamente una voz.

Leé también: Intentaron estafarla por una llamada telefónica, pero ella fue más astuta: “La mente más rápida del oeste”

En cuanto a la regularidad con la que se dan estas estafas con inteligencia artificial, una cuarta parte de los adultos encuestados por McAfee dijo haber tenido alguna experiencia vinculada con una estafa de voz con IA: uno de cada diez lo sufrió en carne propia, mientras que el 15% manifiesta conocer a alguien que le ha sucedido. En general, el 36% de todos los encuestados dijeron que nunca habían oído hablar de estafas con herramientas de clonación de voz, lo que demuestra la necesidad de una mayor educación y conciencia sobre esta nueva amenaza que va en aumento.

Qué podemos hacer para evitar estafas con  inteligencia artificial (Foto: Ivan/Pexels)

Qué podemos hacer para evitar estafas con inteligencia artificial (Foto: Ivan/Pexels)

La encuesta de McAfee también ahonda en el público elegido para estas estafas y los mensajes. Aunque el 45% de los encuestados dijo que respondería positivamente a una solicitud de dinero por parte de un amigo o ser querido, algunos de los escenarios inventados por los estafadores son más exitosos que otros. El primero de la lista (48%) involucra a un accidente automovilístico, seguido de un robo (47%), un celular o una billetera perdidos (43%), o un pedido de ayuda de un amigo que está de viaje en el exterior (41%). Pero el éxito de la historia también depende del personaje principal. El 40% manifestó que es más probable que responda a su pareja o cónyuge, o su madre (24%), mientras que los padres de más de 50 años tienen más probabilidades de responder positivamente a un mensaje si proviene de un niño (41%). Vale la pena señalar que la mayoría de los casos registrados por McAfee son de padres o abuelos que informan que un ciberdelincuente clonó la voz de un hijo o nieto y se hizo pasar por ellos.

¿Qué podemos hacer para protegernos ante estas estafas?

Según McAfee, lo primero es establecer una “palabra segura” que funcione como un código entre familiares y amigos en situaciones de emergencia. Esta planificación podría hacer la diferencia y hacer sonar la alarma tempranamente ante un caso de estafa por clonación de voz. La segunda es desconfiar de la fuente, especialmente si se trata de un número desconocido. En esos casos, lo mejor es pedir algunos datos para cerciorarnos de que estamos hablando con quien creemos hablar, incluso desde otro número. La tercera recomendación, quizás la más difícil, es controlar las emociones y cuestionar todo. ¿Se trata realmente de la persona que dice ser? ¿El contexto es verosímil? ¿Es algo que realmente podría pedir? Estos cuestionamientos también podrían hacer la diferencia. La última recomendación tiene que ver con las llamadas desconocidas. En la época que estamos transitando resulta fundamental elegir cuáles atender y cuáles dejar pasar: en última instancia, analizar en frío un mensaje de buzón de voz hace que prácticamente cualquier estafa peligre.(*) Fabio Sánchez es Ingeniero de sistemas, máster en arquitectura de TI (Tecnología de la Información) y director de Ciberseguridad de OCP TECH.

Más Noticias