• JUEVES 5
  • de marzo de 2026

Derecho

FOTOGRAFIA
DERECHO

Suplemento legal Jurídica: Con IA, Indecopi fiscaliza masivamente y protege tus derechos

VALIDEZ AUTOMATIZADA de la prueba


Editor
Olga Alejandra Alcántara Francia

Docente de la Carrera de Derecho en la Universidad Científica del Sur.


En diciembre del 2025, el Instituto Nacional de Defensa de la Competencia y de la Propiedad Intelectual (Indecopi) emitió la Resolución Final N.º 083-2025/CC3, la cual sancionaba a un banco local con un monto de 279.50 UIT, por haber realizado llamadas comerciales sin consentimiento previo de los consumidores. 

Lo trascendental del caso radica en que la autoridad validó expresamente el uso de inteligencia artificial (en adelante “IA”) como herramienta probatoria en procedimientos administrativos sancionadores, estableciendo un precedente metodológico para fiscalizaciones masivas futuras.

La investigación abarcó 569,401 comunicaciones telefónicas efectuadas en tres períodos del 2024. Ante la imposibilidad material de revisar manualmente cada audio, el Indecopi empleó el modelo Whisper (versión large-v3-turbo) para transcribir automáticamente los archivos, alcanzando una precisión del 97.3%. 

Luego, mediante lenguajes de programación Python y RStudio, se aplicaron filtros con palabras clave relacionadas a contenido publicitario como “préstamo disponible”, “línea de crédito” y “tarjeta de crédito”, identificando 330,934 audios con mensajes promocionales vinculados a 243,527 usuarios.

A partir de este universo, se extrajo una muestra representativa de 1,155 llamadas distribuidas proporcionalmente entre los tres períodos analizados. La autoridad realizó posteriormente un remuestreo estratificado aplicando criterios estadísticos rigurosos, obteniendo una muestra final de 385 elementos. Tras la revisión manual supervisada, se confirmaron 215 comunicaciones sin consentimiento acreditado, representando un nivel de incumplimiento del 55.8% que fue extrapolado al universo mediante inferencia estadística, determinando 135,996 consumidores afectados.

Por un lado, la entidad bancaria cuestionó duramente esta metodología, alegando que el sistema Whisper genera aproximadamente 1% de “alucinaciones” (frases inexistentes), faltó supervisión humana y que, además, se violaron los lineamientos sobre el uso de la IA por parte del propio Indecopi. 

Sin embargo, la autoridad desestimó todos los argumentos demostrando que: (i) existió supervisión humana constante en cada etapa del proceso, (ii) los 25 errores de transcripción identificados fueron excluidos del cálculo final, (iii) la IA funcionó como herramienta complementaria y no sustitutiva del análisis humano, y (iv) se garantizó plenamente el derecho de defensa al entregar al banco los códigos fuente, transcripciones completas y toda la documentación metodológica. Esto último permitió al banco ejercer una defensa técnica con toda transparencia.

Por otro lado, el Indecopi enfatizó que el uso de estas tecnologías responde a principios de eficiencia administrativa y verdad material, permitiendo fiscalizar conductas masivas que de otro modo quedarían impunes por limitaciones operativas. 

La comisión estableció que la validez de herramientas de IA en procedimientos administrativos requiere: transparencia metodológica absoluta, supervisión humana permanente, corrección de errores detectados, y pleno acceso del administrado a la información técnica empleada. Cabe precisar también que la IA se usó como herramienta, mas no como “entidad” decisora en el caso.

Sin embargo, un punto quizás a tomar en cuenta es la elección del Indecopi respecto de la herramienta. Si bien utilizó el aplicativo Whisper, el cual arrojó resultados positivos, se podría haber optado también por otras herramientas con funciones similares como Google Speech-to-text, Amazon Transcribe o cualquier otra. Esta situación plantea la pregunta acerca de cómo podría saber o estar seguro el administrado si la elección adoptada por el Indecopi fue neutral.

Transparencia
En ese sentido, consideramos que el Estado debería, en aras de la transparencia, publicar un catálogo de herramientas de IA que usarán los organismos públicos para las labores de fiscalización y análisis de medios probatorios, así como los protocolos de validación y calibración, los márgenes de error aceptables por tipo de evidencia y los procedimientos de impugnación técnica. 

El riesgo ante la falta de información podría ocasionar una suerte de “ruleta metodológica” que sería conveniente evitar en aras de la seguridad jurídica.
No obstante, esta resolución final adopta un precedente que legitima el procesamiento automatizado de grandes volúmenes de información en actividades de control, siempre que se cumplan las garantías del debido procedimiento y la debida motivación, equilibrando así la eficacia administrativa con la tutela de derechos fundamentales de los administrados.