Opinión
Country manager de Inetum Perú
Muchas empresas han adoptado estas tecnologías sin establecer políticas claras. Al ingresar información sensible en plataformas públicas, los empleados pueden exponer secretos empresariales, algoritmos o documentos clasificados. Estos datos, una vez procesados, pueden ser almacenados o usados para entrenar futuros modelos sin trazabilidad ni control.
Los riesgos son reales: fuga de información, pérdida de propiedad intelectual, incumplimiento de normativas como la Ley de Protección de Datos Personales y ciberataques como phishing o ransomware. La ingeniería social se potencia cuando los atacantes acceden a patrones de comunicación o estructuras organizativas filtradas por el uso imprudente de IA generativa.
La solución no es prohibir, sino implementar una estrategia integral que combine tecnología, procesos y cultura. Existen herramientas como DLP (Data Loss Prevention), CASB (Cloud Access Security Broker) e IRM (Information Rights Management), que establecen barreras técnicas. Pero estas deben ir acompañadas de políticas claras y capacitación constante.
Es clave clasificar la información por niveles de sensibilidad, definir qué datos pueden ser procesados por IA y cuáles deben mantenerse en entornos cerrados. Limitar el acceso desde dispositivos corporativos, registrar el uso de estas plataformas y formar a los colaboradores son medidas básicas, pero a menudo ignoradas.
Una alternativa segura es desarrollar soluciones privadas de IA, entrenadas con datos internos y alojadas en entornos controlados. Así se aprovechan los beneficios sin comprometer la confidencialidad.
Más allá de la tecnología, el reto es ético. ¿Estamos preparados para delegar decisiones a sistemas que no comprendemos del todo? ¿Quién responde ante una filtración provocada por una herramienta que “aprendió” de nuestros datos? Por eso debemos promover comités ético-tecnológicos que supervisen el uso de IA, evalúen riesgos y propongan medidas adaptativas.
La gobernanza de la IA no es un lujo, es una necesidad urgente. La IA generativa ofrece una oportunidad extraordinaria, pero requiere responsabilidad, visión estratégica y una cultura organizacional centrada en la seguridad y la ética. No se trata de frenar la innovación, sino de encauzarla con inteligencia.