Deepfake: La amenaza cibernética que utiliza la inteligencia artificial para engañar

El deepfake es una técnica de engaño cibernético que utiliza la inteligencia artificial para crear contenido falso y engañar a las personas.
Los riesgos y consejos para enfrentar el deepfake

La tecnología avanza a pasos agigantados y, con ella, la ciberdelincuencia se adapta a nuevas estrategias para el robo de información confidencial y recursos monetarios en organizaciones alrededor del mundo. Una de las más recientes y peligrosas es el deepfake, una técnica de engaño que utiliza la inteligencia artificial (IA) para crear y modificar contenido de audio y visual con narrativas falsas que parecen provenir de fuentes auténticas y confiables.

El deepfake tuvo su origen en 2017. Comenzó como una práctica recreativa o cómica para hacer videos en los que pareciera real que un presidente o un famoso estuviera diciendo cosas ridículas. Sin embargo, los hackers maliciosos han ido mejorando y automatizando técnicas de ataque de ingeniería social como el phishing y han incursionado en estrategias más complejas y cautivadoras como los deepfakes.

Vladimir Villa, CEO de Fluid Attacks, una compañía especializada en pruebas de seguridad a software, explica que el deepfake se desarrolla gracias a “redes neuronales”, algoritmos inspirados en el cerebro humano que examinan imágenes y sonidos y encuentran patrones necesarios para producir material convincente del mismo tipo. Entre más grande sea la base de datos de entrenamiento, más precisos serán estos algoritmos en su elaboración de deepfakes.

“Tanto las organizaciones, para sus estrategias de prevención y defensa, como los delincuentes, para llevar a cabo sus ataques, están usando algoritmos automatizados que les permiten optimizar operaciones”, señaló Villa.

Esta tecnología es cada vez de más fácil acceso, incluso para personas con poco conocimiento técnico. Además, los mecanismos de detección de deepfakes aún están algo rezagados.

Desafíos para las empresas ante la irrupción del deepfake

Es por eso que, en lugar de depender de soluciones tecnológicas, las organizaciones deben implementar estrategias internas de prevención como el entrenamiento a empleados y usuarios, controles de seguridad internos y prestar mayor atención a las solicitudes y su autorización.

En cuanto al entrenamiento, las empresas pueden enseñar a su personal, e incluso a sus clientes o usuarios, a notar detalles extraños en quienes aparecen en los videos. Algunos de estos detalles incluyen falta de movimiento o movimiento antinatural en los ojos, expresiones faciales inusuales, colores de piel anormales, entre otros.

Además, las compañías deberían mantener en revisión y bastante limitadas las autorizaciones que los miembros de la compañía tienen para hacer solicitudes o para aceptarlas y rechazarlas. Todo aquel que reciba una solicitud a través un medio, debería contactar por otro medio a la persona que la hizo, para confirmar la veracidad de la misma.

“Para un futuro cercano se prevé el aumento de ataques a través de deepfakes, debido especialmente a su fácil acceso y a las optimizaciones que las tecnologías de IA, que sirven como base, reciben constantemente. Mientras no hayan soluciones tecnológicas suficientemente efectivas para su detección, las organizaciones dependerán de estrategias internas como el entrenamiento y controles de seguridad en sus procedimientos como medidas de prevención”, concluyó el CEO de Fluid Attacks.

El deepfake es una amenaza cibernética que utiliza la inteligencia artificial para engañar y obtener beneficios ilícitos. La prevención es clave para evitar su impacto y las organizaciones deben estar preparadas para implementar medidas de cyberseguridad y protección en sus sistemas y procesos. Es importante destacar que el deepfake no solo afecta a las empresas, sino también a personas individuales que pueden ser víctimas de este tipo de engaños.

Por esta razón, es fundamental que todos estén conscientes de la existencia del deepfake y de los riesgos que puede conllevar. La educación y el conocimiento son la mejor defensa contra esta técnica de engaño y es responsabilidad de todos estar informados y alerta ante posibles amenazas.


Síguenos en Google News

Síguenos en Google News

Suscríbete a nuestro canal de WhatsApp

Suscríbete al WhatsApp

Contenidos relacionados

Total
0
Compartir