INFORMATICO

Estafas con inteligencia artificial: videollamadas con voz e imagen truchas

Un empresario chino sufrió una estafa luego de que un ciberdelincuente utilizara inteligencia artificial para suplantar la identidad de uno de sus allegados. A través del engaño, el estafador logró sustraerle a la víctima un total de 4.3 millones de yuanes, unos 567 mil euros o poco más de 600 mil dólares.

Según explicaron las autoridades policiales de la ciudad de Fuzhou, al sureste de China, el autor de la estafa suplantó tanto el aspecto como la voz de un amigo íntimo de la víctima y se contactó con él a través de la aplicación Wechat, argumentando que necesitaba transferir el dinero desde una cuenta de banco para pagar la garantía de un concurso público en el que le interesaba participar.

Desarrollaron una inteligencia artificial para saber si los empleados están resfriados o mienten

«En ese momento, comprobé la cara y la voz de la persona que me llamaba por vídeo, así que bajé la guardia«, explicó el empresario tecnológico chino, de apellido Guo, en diálogo con Global Times. fds

Acto seguido, Guo le compartió el número de cuenta bancaria a su supuesto amigo, quien le compartió una captura de pantalla que simulaba ser un comprobante de pago a su nombre por la misma cantidad de dinero que le había solicitado previamente.

El empresario realizó la transferencia monetaria sin comprobar el ingreso del dinero que aparentemente le había pasado su «amigo», dado que le tenía confianza. Posteriormente, se percató de que había sido estafado tras contactar con su verdadero allegado por mensaje y comprobar que este no estaba al tanto de la transacción ni de la videollamada.

El Nobel de Literatura chino Mo Yan admite haber recurrido a la Inteligencia Artificial para
Recientemente, el Nobel de Literatura chino, Mo Yan, admitió haber recurrido a la Inteligencia Artificial para redactar un discurso.

Guo alertó a la policía sobre lo ocurrido y se procedió a bloquear la operación, logrando retener una parte de la transferencia total de dinero. Si bien continúa la investigación en torno a lo sucedido, aún no ha sido posible dar con la identidad del estafador, o los estafadores en caso de que no operara solo.

Un caso similar ocurrió también en China luego de que un hombre recibiera una presunta llamada de su esposa pidiéndole la suma equivalente a 3.600 euros argumentando que había sufrido un accidente vial. Sin embargo, la mujer no era su pareja, sino una muy buena imitación de sus gestos y su voz generada por Inteligencia Artificial.

Según explicó El Mundo, los ciberdelincuentes vigilaron la actividad en línea de la pareja, obteniendo así capturas de la cara y voz de la mujer a partir de las que pudieron sustituir su identidad con ayuda del software de última tecnología.

El peligro de la Inteligencia Artificial

La Inteligencia Artificial ya se ha instalado en la sociedad, y si bien es una herramienta útil para una gran cantidad de tareas, como la generación de textos o la creación de imágenes de forma rápida y sencilla, también se ha convertido en un arma de doble filo, siendo utilizada para cometer estafas, sobre todo, en base a la suplantación de identidad.

En este sentido, la agencia Reuters sostuvo que este tipo de engaños ya son comunes en China, motivo por el que las autoridades del país asiático han comenzado a tomar medidas al respecto, incluyendo la aprobación de una ley que regula las tecnologías de inteligencia artificial generativas de textos, videos e imágenes.

El Nobel de Literatura chino Mo Yan admite haber recurrido a la Inteligencia Artificial para «escribir» un discurso

A su vez, casos similares han ocurrido en Estados Unidos y se espera que rápidamente comiencen a darse a lo largo y ancho del mundo, facilitándole la operativa a quienes se dedican a estafar personas en base a la suplantación de identidad e imitación de personas allegadas a las víctimas.

Si bien la tecnología se encuentra actualmente un paso adelante de las soluciones, expertos en diálogo con El Confidencial han mencionado algunos métodos que permitirían evitar este tipo de fraudes:

  1. Creación de estándares de certificación criptográfica a nivel mundial que permitan autenticar el contenido tomado por cámara y micrófonos digitales.
  2. Lanzamiento de programas educativos que formen a los individuos y ayuden a comprender la capacidad y los riesgos que implica la inteligencia artificial.
  3. Colaboración entre los gobiernos y la comunidad científica para diseñar una legislación que proteja los derechos individuales de los usuarios.

 

AS./fl




Posible Fuente

Publicaciones relacionadas

Deja una respuesta

Botón volver arriba
WhatsApp chat