Las estafas deepfake borraron 1.100 millones de dólares de cuentas corporativas estadounidenses en 2025, el triple de los 360 millones de dólares del año anterior. A mediados del año pasado, el número de incidentes documentados ya cuadruplicaba el total de 2024. Y la mayoría de los equipos de comunicación corporativa y de marca siguen estando peligrosamente mal preparados.
Hoy en día, los ejecutivos enfrentan amenazas sintéticas de dos lados: la clonación de sus imágenes para autorizar transferencias fraudulentas o dañar su reputación, y las voces generadas por inteligencia artificial que se hacen pasar por funcionarios gubernamentales, miembros de juntas directivas y socios comerciales utilizadas para manipularlos.
En 2019, un ejecutivo anónimo de una empresa energética británica recibió una llamada de alguien que creía que era su director ejecutivo. El acento y los sutiles cambios de consonantes eran correctos, incluso el ritmo le resultaba familiar. Sólo después de transferir 243.000 dólares se enteraron de que la voz al otro lado del teléfono era artificial. El año pasado, los estafadores clonaron al ministro de Defensa de Italia y llamaron a la élite empresarial del país. Al menos uno de ellos envió casi un millón de euros antes de enterarse de la estafa.
Pero estas marcas tienen suerte. Considere las consecuencias si un video falso de su director ejecutivo haciendo comentarios inapropiados, anunciando una fusión falsa o criticando a un regulador se difunde rápidamente en las redes sociales antes de que su equipo pueda responder. Los deepfakes ya no son una curiosidad en materia de ciberseguridad. Ahora representan un riesgo para la seguridad, un riesgo financiero y una grave amenaza para la reputación.
La brecha de conectividad es más amplia que la brecha de seguridad
Gran parte de la cobertura de las amenazas deepfake se ha centrado en algoritmos de detección y protocolos de verificación. Los proveedores de ciberseguridad ofrecen soluciones y los departamentos de TI están actualizando políticas. Sin embargo, pocas personas hacen la pregunta más importante para los CMO y CCO: ¿Qué sucede con su marca si la imagen de su CEO se utiliza para fraude, desinformación o ataques personales?
He pasado dos décadas asesorando a ejecutivos durante crisis de reputación, incluidas investigaciones regulatorias y campañas mediáticas hostiles. Para tales situaciones, existen patrones de acción establecidos. Sin embargo, no existe un protocolo establecido para incidentes como una imagen artificial de un director ejecutivo que autoriza una adquisición fraudulenta o un vídeo manipulado de un fundador que se vuelve viral.
La visibilidad del administrador ahora funciona en ambos sentidos
Cada publicación en las redes sociales, discurso de apertura, aparición en podcast y conversación telefónica que involucre a su director ejecutivo proporciona datos de entrenamiento potenciales para los atacantes. La visibilidad que construye marcas de liderazgo y humaniza el liderazgo también proporciona los patrones de voz y mapas faciales necesarios para los medios sintéticos.
No todos los ataques tendrán éxito. El año pasado, los estafadores atacaron al director ejecutivo de una empresa de publicidad global. Crearon una cuenta falsa de WhatsApp usando su foto, configuraron una llamada de Microsoft Teams usando una voz de IA clonada entrenada en videos de YouTube y le pidieron al ejecutivo que financiara una nueva empresa comercial. El empleado se negó y la empresa no perdió nada, pero la dificultad del intento demostró hasta qué punto había avanzado la tecnología.
El número de deepfakes ha aumentado de 500.000 en 2023 a más de ocho millones en 2025. Las estafas de clonación de voz han aumentado un 680 por ciento en un año. Se espera que las pérdidas proyectadas por el fraude de IA alcancen los 40 mil millones de dólares para 2027. Sin embargo, solo el 32 por ciento de los ejecutivos corporativos creen que sus organizaciones están preparadas para manejar un incidente de deepfakes.
Tres preguntas que todo equipo de relaciones públicas debería responder ahora mismo
Primero, ¿tiene un protocolo para revelar ataques de medios sintéticos? Si una copia de su director ejecutivo generada por IA se utiliza para fraude o desinformación, ¿quién lo denuncia, cuándo y a través de qué canales?
En segundo lugar, ¿ha realizado ejercicios prácticos sobre deepfake? Los modelos de crisis ahora deben incluir escenarios en los que la imagen de un líder se utilice para fraude interno, desinformación externa o ambos.
En tercer lugar, ¿ha coordinado la secuencia de acciones con los departamentos jurídico, de ciberseguridad y de relaciones con inversores? La crisis de los deepfake es a la vez una estafa, una posible obligación de divulgación y una emergencia de marca. Las respuestas fragmentadas fracasarán.
Actuar antes del ataque.
Las empresas que sobrevivirán a esta era están creando protocolos de crisis ahora, antes de que los rostros de sus ejecutivos aparezcan en videos que nunca grabaron, diciendo cosas que nunca dijeron, autorizando transacciones que nunca aprobaron. La imagen de su director ejecutivo es un activo de marca. Este también es un vector de ataque.
Los equipos de comunicación y de marca que tratan los deepfakes como un problema ajeno (un problema de ciberseguridad, un problema de TI, un fraude financiero) se verán obligados a desarrollar una disculpa en lugar de una estrategia.
Las opiniones expresadas en los comentarios de Fortune.com son únicamente los puntos de vista de los autores y no reflejan necesariamente las opiniones y creencias de Fortune.
