Cd. Delicias Chihuahua Mex.
lun. 1 julio, 2024

Phishing 2.0: Cómo los robots te roban mejor que tu ex

La inteligencia artificial es una herramienta innovadora que busca facilitar procesos a los seres humanos. Sin embargo, el cibercrimen ha encontrado en ella una aliada para llevar a cabo ataques y acciones maliciosas, según la empresa de ciberseguridad ESET, que detalla cinco formas en que se utiliza esta tecnología para vulnerar a los usuarios.

Cinco formas en que los ciberdelincuentes usan la inteligencia artificial

1. Perfeccionan la suplantación de identidad
Con el auge de chatbots como ChatGPT, ha habido un aumento en el envío de correos de phishing, según investigadores de IA en ETH Zurich. Los criminales usan la inteligencia artificial para engañar a las personas y obtener información sensible, incluso llevándolas a sacar créditos bancarios, afirma ESET. Servicios como GoMail Pro, que incluye funciones de ChatGPT, permiten a los ciberatacantes mejorar el contenido de sus mensajes sin ser detectados por OpenAI. La IA también ayuda a traducir mensajes y mejorar la comunicación entre grupos criminales a nivel global, permitiendo operaciones coordinadas en otros países, según el MIT.

2. Hacen más realistas las estafas por audio y deepfake
La inteligencia artificial ha dificultado discernir entre imágenes reales y creadas digitalmente, advierte ESET. Las estafas por audio también se han vuelto más convincentes. Con solo unos segundos de la voz de una persona, obtenidos de un video en Instagram o TikTok, se pueden crear audios muy persuasivos. Un ejemplo es un empleado que perdió 24 millones de dólares tras una reunión con alguien que supuestamente era el director financiero de la compañía, pidiéndole una transferencia de dinero.

3. Esquivan controles de identidad
Los ciberdelincuentes usan la inteligencia artificial para eludir controles de verificación de identidad, señala ESET. Utilizan documentos de identificación falsos o robados y superponen imágenes sobre el rostro de la persona real, similar a un filtro de Instagram. Aunque esta práctica está en una fase básica, podría mejorar y expandirse.

4. Optimizan el doxing
El doxing, que consiste en publicar información personal de terceros para intimidar o extorsionar, se ha optimizado con la inteligencia artificial. En el ransomware, los criminales secuestran archivos y roban información de las víctimas para presionarlas a pagar un rescate. Entrenan a la IA con datos de Internet para deducir ubicaciones y otras informaciones personales. Especialistas de ESET advierten que compartir datos sensibles con tecnologías como ChatGPT puede aumentar la vulnerabilidad a estas prácticas.

5. Ofrecen jailbreak como servicio
En lugar de desarrollar sus propios modelos de inteligencia artificial, los cibercriminales contratan servicios de jailbreak, ahorrando tiempo y dinero. El jailbreaking explota defectos en dispositivos electrónicos bloqueados para instalar software no autorizado. Los atacantes pueden modificar sistemas de IA y generar contenido malicioso o escribir código para malware, eludiendo limitaciones.

La inteligencia artificial no es necesariamente mala

ESET señala que la tecnología, incluida la inteligencia artificial, no es inherentemente buena ni mala; su impacto depende de las intenciones con las que se utilice. La IA tiene aplicaciones positivas en áreas como la educación y la medicina. Sin embargo, es inevitable considerar los riesgos cuando esta tecnología cae en manos equivocadas.

Alerta Noticias

Populares

Más artículos como este
Related

Recibe cárcel por querer matar a un periodista

Un juez federal decretó prisión preventiva contra Armando Escárcega...

¡Ni una menos! estaba muerta en el cuarto de un hotel

Una joven de aproximadamente 19 años de edad, identificada...

Se avientan la última

Uniformados de la Secretaría de Seguridad Ciudadana (SSC) de la Ciudad...

Se echan a 5 civiles en el ataque

Cinco civiles armados resultaron muertos, derivado de un enfrentamiento en Luis Moya,...