Seguridad y fraude

Fraude digital e inteligencia artificial

La inteligencia artificial es una herramienta muy poderosa y de gran relevancia en el mundo actual. Está revolucionado numerosos campos y puede ser utilizada para fines muy útiles, pero también con objetivos maliciosos, todo depende de quién la utilice y para qué. Las amenazas basadas en IA son una realidad emergente que requiere atención.

La inteligencia artificial (IA) permite que las máquinas imiten el comportamiento humano, programándolas para realizar tareas que normalmente requieren inteligencia humana, como la comprensión de un lenguaje o la toma de decisiones. La IA mejora constantemente gracias a algoritmos cada vez más sofisticados que procesan grandes cantidades de datos.

Las principales características de los sistemas de IA son: recibir datos de humanos o de otras máquinas, actuar de manera autónoma para alcanzar un objetivo, ofrecer predicciones o decisiones, y aprender de sus propias acciones para optimizar su rendimiento.

Las diferencias y casos de uso de las tecnologías de IA:

La IA generativa y la IA predictiva se basan en el aprendizaje automático (ML), pero tienen propósitos distintos:

  • IA generativa: Usa el aprendizaje profundo para crear contenido nuevo, como imágenes o texto.

  • IA predictiva: Analiza datos históricos y actuales para identificar patrones y prever resultados futuros.

Mientras la IA generativa es "creativa", la IA predictiva es más "analítica" y comercial. Ambas emplean ML, pero con algoritmos y objetivos diferentes.

¿Para qué usan la IA los ciberdelincuentes?

Algunos usos típicos de los sistemas IA por parte de los ciberdelincuentes son:

Mejora de código malicioso: los creadores de malware utilizan plataformas IA, como puede ser ChatGPT para acelerar la creación de su código, solicitando funcionalidades específicas que luego integran en sus códigos maliciosos. 

Generación de spam, phishing u otras amenazas: Los ciberdelincuentes utilizan la IA para generar correos de spam, phishing y smishing, aprovechando su capacidad para crear texto convincente en varios idiomas. También puede generar anuncios de productos falsos o servicios fraudulentos.

Desinformación: la facilidad de los sistemas IA para generar texto, imágenes, videos y audios se aprovecha para crear y distribuir contenido falso.

Fake news: las noticias falsas son artículos o informes creados para engañar, a menudo diseñados para parecer que provienen de fuentes legítimas. Las IA pueden generar textos persuasivos que imitan el estilo periodístico, dificultando distinguir la verdad de la ficción.

Deepfakes: son un tipo avanzado de contenido falso que emplea técnicas complejas para crear vídeos y audios en los que personas reales parecen decir o hacer cosas que nunca ocurrieron. Su realismo puede hacer que sea extremadamente difícil identificar la falsificación sin herramientas especializadas. Se dividen principalmente en dos categorías:

Deepfaces: son vídeos en los que los rostros de las personas han sido alterados digitalmente para que parezcan otros. Esta tecnología puede ser usada para crear vídeos falsos de políticos, celebridades, o cualquier individuo, haciendo que parezca que dicen o hacen cosas que no se ajustan a la realidad.

Deep voices o voice hacking: en este caso, son manipulaciones de audio donde la voz de una persona es clonada y utilizada para generar discursos o declaraciones falsas. Esto puede ser especialmente peligroso cuando se utiliza para falsificar declaraciones de personas con reconocimiento y repercusión pública.

Evasión de censura: Aunque muchos sistemas de IA están diseñados para evitar respuestas sobre temas ilegales o controvertidos, algunos usuarios intentan eludir estas restricciones compartiendo métodos para liberar versiones sin limitaciones éticas.

Creación de perfiles falsos: La IA puede crear perfiles falsos en plataformas como foros, redes sociales y aplicaciones de mensajería para difundir mensajes maliciosos o recopilar datos personales y bancarios a través de interacciones.

Los estafadores usan chatbots para crear perfiles falsos en aplicaciones de citas y engañar a los usuarios para obtener dinero o información personal. También manipulan opiniones y reseñas en sitios web y redes sociales, e implementan fraudes de soporte técnico haciéndose pasar por agentes legítimos para obtener acceso a dispositivos o datos personales.

Cómo los ciberdelincuentes generan contenido falso con IA

Las herramientas de IA, como ChatGPT, pueden generar artículos  que imitan el estilo periodístico, facilitando la difusión de fake news. Programas como DeepFaceLab crean deepfakes, alterando vídeos de manera indistinguible de los reales. Software de clonación de voz, como Lyrebird, puede replicar voces con alta precisión, generando audios falsos para difundir declaraciones que nunca fueron pronunciadas.

Ejemplo de caso real: Los ciberdelincuentes utilizaron IA para clonar la voz de un familiar cercano de la víctima. La voz clonada fue utilizada en una llamada telefónica en la que el presunto "familiar" solicitaba dinero de manera urgente. La víctima, al reconocer la voz, accedió a transferir una suma de dinero considerable a la cuenta proporcionada por los delincuentes.

 

Pistas para identificar contenido falso generado por IA

Verifica la fuente: Asegúrate de que proviene de una fuente confiable. Desconfía de sitios o perfiles desconocidos y verifica si otros medios confiables la respaldan.

 

Analiza la calidad del contenido:

Texto: Revisa la coherencia y gramática, buscando errores inusuales.

Vídeo: Observa parpadeos y movimientos faciales anormales, incongruencias entre el rostro y el cuerpo, y desajustes en la calidad del sonido.

Audio: Verifica el tono, ritmo y posibles variaciones en la clonación de voz, así como ruidos de fondo extraños.

Imagen: Busca detalles irregulares, como manos desproporcionadas o problemas con iluminación y sombras.

Además puedes emplear prácticas que permitan una verificación más profunda y técnica del contenido, usando herramientas especializadas como :

Detectores de IA para texto:

  • PlagiarismDetector analiza patrones lingüísticos para identificar texto generado por IA.

  • GPTZero detecta contenido generado por modelos como ChatGPT y muestra probabilidades de autoría humana o IA.

  • Copyleaks ofrece un análisis detallado para detectar texto generado por IA con alta precisión.

Herramientas de detección de multimedia:

  • VerifAI detecta rápidamente si un contenido ha sido generado o alterado con IA.

  • Resemble Detect identifica audios generados por IA.

  • Deepware analiza vídeos para detectar deepfakes.

  • Illuminarty verifica imágenes para identificar manipulaciones de deepfakes.

  • AI or Not permite verificar imágenes y audios manipulados por IA.

  • VerificAudio verifica voces sintéticas mediante un equipo especializado.