Las juntas directivas no están preparadas para la era de la inteligencia artificial: ¿qué sucede cuando su director ejecutivo es falsificado? | Suerte

Fecha:

Compartir publicación:

Las estafas deepfake borraron 1.100 millones de dólares de cuentas corporativas estadounidenses en 2025, el triple de los 360 millones de dólares del año anterior. A mediados del año pasado, el número de incidentes documentados ya cuadruplicaba el total de 2024. Y la mayoría de los equipos de comunicación corporativa y de marca siguen estando peligrosamente mal preparados.

Hoy en día, los ejecutivos enfrentan amenazas sintéticas de dos lados: la clonación de sus imágenes para autorizar transferencias fraudulentas o dañar su reputación, y las voces generadas por inteligencia artificial que se hacen pasar por funcionarios gubernamentales, miembros de juntas directivas y socios comerciales utilizadas para manipularlos.

En 2019, un ejecutivo anónimo de una empresa energética británica recibió una llamada de alguien que creía que era su director ejecutivo. El acento y los sutiles cambios de consonantes eran correctos, incluso el ritmo le resultaba familiar. Sólo después de transferir 243.000 dólares se enteraron de que la voz al otro lado del teléfono era artificial. El año pasado, los estafadores clonaron al ministro de Defensa de Italia y llamaron a la élite empresarial del país. Al menos uno de ellos envió casi un millón de euros antes de enterarse de la estafa.

Pero estas marcas tienen suerte. Considere las consecuencias si un video falso de su director ejecutivo haciendo comentarios inapropiados, anunciando una fusión falsa o criticando a un regulador se difunde rápidamente en las redes sociales antes de que su equipo pueda responder. Los deepfakes ya no son una curiosidad en materia de ciberseguridad. Ahora representan un riesgo para la seguridad, un riesgo financiero y una grave amenaza para la reputación.

La brecha de conectividad es más amplia que la brecha de seguridad

Gran parte de la cobertura de las amenazas deepfake se ha centrado en algoritmos de detección y protocolos de verificación. Los proveedores de ciberseguridad ofrecen soluciones y los departamentos de TI están actualizando políticas. Sin embargo, pocas personas hacen la pregunta más importante para los CMO y CCO: ¿Qué sucede con su marca si la imagen de su CEO se utiliza para fraude, desinformación o ataques personales?

He pasado dos décadas asesorando a ejecutivos durante crisis de reputación, incluidas investigaciones regulatorias y campañas mediáticas hostiles. Para tales situaciones, existen patrones de acción establecidos. Sin embargo, no existe un protocolo establecido para incidentes como una imagen artificial de un director ejecutivo que autoriza una adquisición fraudulenta o un vídeo manipulado de un fundador que se vuelve viral.

La visibilidad del administrador ahora funciona en ambos sentidos

Cada publicación en las redes sociales, discurso de apertura, aparición en podcast y conversación telefónica que involucre a su director ejecutivo proporciona datos de entrenamiento potenciales para los atacantes. La visibilidad que construye marcas de liderazgo y humaniza el liderazgo también proporciona los patrones de voz y mapas faciales necesarios para los medios sintéticos.

No todos los ataques tendrán éxito. El año pasado, los estafadores atacaron al director ejecutivo de una empresa de publicidad global. Crearon una cuenta falsa de WhatsApp usando su foto, configuraron una llamada de Microsoft Teams usando una voz de IA clonada entrenada en videos de YouTube y le pidieron al ejecutivo que financiara una nueva empresa comercial. El empleado se negó y la empresa no perdió nada, pero la dificultad del intento demostró hasta qué punto había avanzado la tecnología.

El número de deepfakes ha aumentado de 500.000 en 2023 a más de ocho millones en 2025. Las estafas de clonación de voz han aumentado un 680 por ciento en un año. Se espera que las pérdidas proyectadas por el fraude de IA alcancen los 40 mil millones de dólares para 2027. Sin embargo, solo el 32 por ciento de los ejecutivos corporativos creen que sus organizaciones están preparadas para manejar un incidente de deepfakes.

Tres preguntas que todo equipo de relaciones públicas debería responder ahora mismo

Primero, ¿tiene un protocolo para revelar ataques de medios sintéticos? Si una copia de su director ejecutivo generada por IA se utiliza para fraude o desinformación, ¿quién lo denuncia, cuándo y a través de qué canales?

En segundo lugar, ¿ha realizado ejercicios prácticos sobre deepfake? Los modelos de crisis ahora deben incluir escenarios en los que la imagen de un líder se utilice para fraude interno, desinformación externa o ambos.

En tercer lugar, ¿ha coordinado la secuencia de acciones con los departamentos jurídico, de ciberseguridad y de relaciones con inversores? La crisis de los deepfake es a la vez una estafa, una posible obligación de divulgación y una emergencia de marca. Las respuestas fragmentadas fracasarán.

Actuar antes del ataque.

Las empresas que sobrevivirán a esta era están creando protocolos de crisis ahora, antes de que los rostros de sus ejecutivos aparezcan en videos que nunca grabaron, diciendo cosas que nunca dijeron, autorizando transacciones que nunca aprobaron. La imagen de su director ejecutivo es un activo de marca. Este también es un vector de ataque.

Los equipos de comunicación y de marca que tratan los deepfakes como un problema ajeno (un problema de ciberseguridad, un problema de TI, un fraude financiero) se verán obligados a desarrollar una disculpa en lugar de una estrategia.

Las opiniones expresadas en los comentarios de Fortune.com son únicamente los puntos de vista de los autores y no reflejan necesariamente las opiniones y creencias de Fortune.

Website |  + posts
spot_img

Artículos relacionados

Una crisis de deuda ignorada por el Congreso podría costarle a la familia estadounidense promedio 18.000 dólares al año, según análisis de Brookings |...

Un excelente nuevo estudio de la Brookings Institution, que no es partidista, analiza con mucha claridad los posibles...

Meta lanza silenciosamente pagos con monedas estables cuatro años después de archivar el controvertido proyecto Libra | Suerte

Meta ha regresado al mercado de las monedas estables. Cuatro años después de poner fin a su intento...

La Corte Suprema evalúa los esfuerzos de la administración Trump para poner fin a las protecciones para los migrantes haitianos y sirios | Suerte

El miércoles, la Corte Suprema luchó contra los esfuerzos de la administración Trump para poner fin a las...

Meta gastará hasta 145 mil millones de dólares en IA este año. Cuando le preguntaron a Zuckerberg sobre las señales de retorno de la...

Meta Platforms está invirtiendo mucho dinero en infraestructura de inteligencia artificial y los inversores están haciendo una mueca...