PUBLICIDAD

La inteligencia artificial marcará un punto de inflexión en la ciberseguridad empresarial durante el 2026. El uso de deepfakes, modelos abiertos y ataques automatizados impulsados por IA incrementará los riesgos asociados al fraude, la gestión operativa y la protección de la información. En un entorno donde la digitalización y el trabajo híbrido ya forman parte del negocio, las organizaciones deberán adaptar sus estrategias de seguridad para proteger su continuidad operativa, su reputación corporativa y sus procesos críticos frente a amenazas cada vez más sofisticadas.

Deepfakes se consolidan como riesgo estructural para las empresas

Los deepfakes dejarán de ser una amenaza emergente para convertirse en un riesgo permanente dentro del entorno corporativo. Un estudio de Kaspersky señala que el 75 % de los peruanos aún desconoce qué es un deepfake, situación que expone a empresas, colaboradores y clientes a fraudes más creíbles basados en inteligencia artificial.

Durante el 2026, la suplantación de identidad, la manipulación de voz e imagen y la ingeniería social avanzada afectarán áreas sensibles como finanzas, compras y alta dirección. Ante este escenario, las organizaciones deberán incorporar estos riesgos dentro de sus matrices de gestión y tratarlos como amenazas continuas.

PUBLICIDAD

Fraude basado en IA aumenta su alcance y sofisticación

La mejora en la calidad del audio sintético y la mayor accesibilidad de las herramientas de generación facilitarán ataques de suplantación de voz y estafas financieras. Estas prácticas incrementarán los fraudes en transferencias, la manipulación de proveedores y los ataques dirigidos a equipos financieros.

Además, la falta de estándares universales para identificar contenido generado por inteligencia artificial obligará a las empresas a fortalecer sus propios mecanismos de validación. Procesos como autorizaciones de pago, comunicaciones internas y gestión de proveedores requerirán controles más estrictos y nuevas inversiones en tecnología y capacitación.

Inteligencia artificial impulsa todas las etapas del ciberataque

La inteligencia artificial permitirá a los actores maliciosos automatizar tareas que antes exigían altos niveles de especialización. Desde la planificación hasta la ejecución, la IA acelerará el desarrollo de herramientas, la preparación de infraestructuras y la generación de comunicaciones fraudulentas.

Como resultado, los ataques serán más rápidos, escalables y difíciles de rastrear. Esta evolución aumentará la capacidad de adaptación de los ciberdelincuentes y la personalización de campañas dirigidas a organizaciones específicas.

Control corporativo y seguridad desde el diseño ganan relevancia

Aunque la regulación y las políticas públicas tendrán un rol importante en la adopción responsable de la inteligencia artificial, la gestión de riesgos no podrá depender únicamente del marco normativo. Las empresas deberán integrar principios de seguridad y privacidad desde el diseño de sus sistemas de IA.

La definición de políticas internas claras sobre el uso de inteligencia artificial se volverá clave. Los procesos y datos sensibles no deberán automatizarse sin evaluaciones previas de impacto, auditorías periódicas y supervisión humana, con el objetivo de mantener el control sobre la información y las decisiones críticas.

“Lo más disruptivo de 2026 no será solo la capacidad técnica de la IA, sino su impacto directo en la toma de decisiones empresariales. Las compañías ya no podrán asumir que la información es auténtica por defecto”, señaló Claudio Martinelli, director general de las Américas en Kaspersky.

PUBLICIDAD

DEJA UNA RESPUESTA

Por favor, ingresa tu comentario
Por favor, coloca tu nombre aquí