Del grafico al algoritmo: poligrafía en los 90 vs. década de 2020 (arquitectura, precisión y estándares)
Tabla de contenidos
- Por qué comparar 1990s vs. 2020s
- Arquitectura de sistemas: del kymógrafo al “stack” digital
- Algoritmos: CPS, PolyScore y el salto a la analítica avanzada
- Precisión y error: de 60–70% a 87–97% (qué cambió realmente)
- Estándares, QA/QC y cadena de custodia: de la artesanía a la auditabilidad
- Interfaz, usabilidad y formación del examinador: el nuevo “skill-mix”
- Seguridad y gobernanza de datos: ciberseguridad y cumplimiento
- Casuística comparada (mini-casos)
- Mitos y errores comunes… y cómo mitigarlos (tabla)
- IA en el horizonte: AVATAR, iBorderCtrl y lecciones para la práctica
- Conclusiones y líneas de avance
1) Por qué comparar 1990s vs. 2020s
La poligrafía de los 1990s marcó la transición de la era analógica (plumas y papel) a la digitalización inicial: surgieron las primeras suites algorítmicas, se popularizaron los portátiles y se abrió el camino a la estandarización. Tres décadas después, la década de 2020 ha consolidado una arquitectura totalmente software-centrada, con mejores sensores, mayor potencia de cálculo, prácticas de QA/QC sofisticadas y una naciente capa de analítica avanzada (machine learning) que promete apoyo adicional al juicio profesional.
Esta comparación interesa a estudiantes y profesionales porque explica qué ha mejorado, qué no ha cambiado (y por qué) y qué requisitos técnicos y éticos se han vuelto ineludibles para obtener decisiones defendibles.

- Arquitectura de sistemas: del kymógrafo al “stack” digital
Años 90 (génesis digital):
- Hardware: transductores de presión (pneumo torácico/abdominal), brazalete de presión (cardio), electrodos EDA; a menudo coexistiendo con kymógrafos o registradores híbridos.
- Captura: CAPS y primeras interfaces A/D; PCs con Windows 3.1/95, CPU Pentium; almacenamiento en disco local, respaldo en disquete/CD.
- Foco: sustituir papel por “chart digital” y apoyar el cálculo de puntajes; inicio de integración con vídeo.
Década de 2020 (madurez digital):
- Hardware: sensores más estables y robustos (resolución/linealidad superior), sensores de movimiento integrados, opciones auxiliares (SpO₂, temperatura cutánea) cuando procede.
- Stack software: suites con módulos de adquisición, scoring (CPS/PolyScore y variantes), gestión de casos, firmas/hashes para custodia, notas de evento y sincronía vídeo-señal.
- Infraestructura: PCs/portátiles de alta prestación, cifrado en reposo y en tránsito; en algunos entornos, repositorios seguros con control de acceso y trazas de auditoría.
- Interoperabilidad: exportación estandarizada (p. ej., XML/JSON para señales, PDF firmado para informes).
Constante transversal: la utilidad operativa de la poligrafía depende de una captura multicanal de calidad y de un diseño de preguntas estrictamente operativo (tiempo-lugar-conducta), no de la marca del equipo.
- Algoritmos: CPS, PolyScore y el salto a la analítica
1990s – Primeras generaciones:
- CPS (Computerized Polygraph System): inspirado en la tradición Utah y el análisis discriminante multivariante. Su objetivo: reflejar (y estandarizar) la lógica del scoring humano (p. ej., escalas de 3/5/7 posiciones) con computación.
- PolyScore: desarrollado con el APL de Johns Hopkins; empleó regresión logística y modelos de red neuronal con datos operativos (p. ej., DoDPI). Filosofía menos “mímica” del humano y más data-driven.
2020s – Iteraciones y validación:
- Algoritmos reentrenados con bases de datos más amplias y realistas (casuística operativa, no solo simulaciones).
- Mejora en selección de features (picos EDA, morfología respiratoria combinada, dinámica cardio).
- Aparición de módulos de calidad de señal y de detección de artefactos/contramedidas (p. ej., clasificaciones de movimiento, patrones de respiración no natural).
- Investigaciones en aprendizaje automático como segunda opinión (no sustituto) del análisis numérico clásico; enfoque en interpretabilidad.
Nota crítica: ni CPS ni PolyScore “detectan mentiras”; estiman probabilidad de reactividad asociada a ítems relevantes bajo un protocolo válido. La decisión sigue perteneciendo al examinador, y exige temporalidad + coherencia + replicación.
- Precisión y error: de 60–70% a 87–97% (qué cambió realmente)
Años 90: la literatura reportaba ventanas de 60–70% de acierto en contextos mixtos (laboratorio/operacional), con variabilidad por protocolo (CQT vs. relev/irrelevante), calidad de señal y pericia del examinador.
Años 2010–2020: metaanálisis y estudios operativos bajo protocolos validados sitúan el rendimiento en ≈87–97% para pruebas bien diseñadas y ejecutadas (p. ej., CQT/CIT con QA/QC). La mejora se asocia a:
- Mejor señal (sensores y tasas de muestreo).
- Mayor estandarización (verbatim, intervalos, zonas/escoring).
- Uso consistente de notas de evento y repetición de series.
- Formación más sólida (escuelas acreditadas, recertificación).
- Analítica de apoyo (CPS/PolyScore) que reduce variabilidad inter-examinador.
Limitaciones persistentes: la tasa de inconclusos sigue siendo un indicador de calidad (mejor aceptar un inconcluso que forzar una conclusión espuria); la reactividad de rasgo ansioso elevado o uso agudo de fármacos requiere manejo y, si es preciso, aplazar.
- Estándares, QA/QC y cadena de custodia: de la artesanía a la auditabilidad
1990s: predominio de manuales de escuela y protocolos internos; registros en papel o en archivos digitales poco estandarizados; control de calidad dependiente del instructor.
2020s:
- Normativas técnicas (p. ej., NIJ Standard-0110.01 y guías análogas) describen requisitos de hardware, software y procedimiento.
- QA/QC sistemático: verificación de sensores, calibraciones, documentación del entorno, notas de evento, políticas de repetición de series y criterios de inconcluso.
- Custodia digital: sellado/hash de archivos de señal y vídeo, control de versiones, almacenamiento seguro, trazabilidad para auditorías o litigios.
El informe se redacta en lenguaje neutral, explicita protocolo, calidad de señal y lógica de decisión, y preserva gráficos y metadatos.
- Interfaz, usabilidad y formación del examinador: el nuevo “skill-mix”
Años 90: curva de aprendizaje centrada en el manejo del equipo y en la lógica de la técnica (CQT, ZCT, etc.); interfaz más espartana; menos soporte de calidad.
2020s:
- Interfaz rica (marcadores, zoom, superposición de canales, ayudas de scoring).
- Competencias ampliadas: ciberhigiene y custodia digital, redacción técnica, manejo de ansiedad/trauma, ética aplicada y sesgo.
- Mayor énfasis en verbatim y formulación de ítems (tiempo-lugar-conducta), en línea con buenas prácticas de entrevista (p. ej., enfoques no coercitivos).
- Recertificación y auditorías internas/externas; uso de doble lectura de charts en casos sensibles.
- Seguridad y gobernanza de datos: ciberseguridad y cumplimiento
Con la digitalización, el “activo” principal dejó de ser la máquina y pasó a ser el dato:
- Cifrado, control de accesos por roles, políticas de retención y destrucción segura.
- Seguridad de endpoint y actualizaciones: evitar malware/alteraciones del stack.
- Cumplimiento legal (p. ej., GDPR/privacidad de datos donde aplique; en EE. UU., respeto a EPPA en contextos laborales; confidencialidad en entornos policiales/seguridad).
- Gestión de sesgos algorítmicos: documentación del modelo, validación periódica, monitoreo de drift.
- Casuística comparada (mini-casos)
Caso 1 – 1998 vs. 2023: robo interno en retail
- 1998: CQT con equipo híbrido; dos canales de pneumo + cardio; chart en papel, scoring manual 7-posiciones. Artefactos por ruidos; una serie inválida no repetida por tiempo. Conclusión: “probable engaño”, sin archivo de vídeo ni hash de chart. Decisión disciplinaria impugnada.
- 2023: CQT con sensor de movimiento y EDA; tres series válidas, notas de evento, scoring CPS+revisión humana; informe neutral con gráficos y metadatos firmados. Resultado: “reacciones significativas” + convergencia con logs de acceso → decisión robusta y sostenida en auditoría.
Caso 2 – Selección en seguridad (2001 vs. 2022)
- 2001: pre-test breve, preguntas poco operativas; candidato con TDAH no declara metilfenidato; movimientos contaminan el chart. Inconcluso mal interpretado como “sospechoso”.
- 2022: pre-test ampliado, verbatim de ítems (ventanas 24/36 meses), medicación declarada; series cortas con pausas; no significativo. Se evita un falso negativo; se adoptan ajustes razonables sin mermar la validez.
Caso 3 – Asuntos internos (2005 vs. 2021)
- 2005: equipo digital de primera generación, sin política clara de custodia; exportación en formatos propietarios; disputa legal por integridad del archivo.
- 2021: stack actualizado, hash y cadena de custodia; doble lectura ciega; decisión inconclusa por señal subóptima; se re-agenda con mejoras ambientales. Se demuestra criterio conservador y se preserva la equidad.
- Mitos y errores… y cómo mitigarlos (tabla)
| Mito / error | Realidad técnica | Mitigación (2020s) |
| “Más canales = más verdad” | Importa calidad y temporalidad, no cantidad | Validar utilidad de cada canal; evitar sobrecargar |
| “El software ‘dice’ si mientes” | CPS/PolyScore no dictan verdad; apoyan el scoring | Mantener juicio profesional; revisar charts; documentar lógica |
| “El nerviosismo te hace fallar” | Ansiedad tónica ≠ reactividad a ítems | Pre-test sólido; preguntas operativas; repetir series; aceptar inconcluso |
| “Contramedidas engañan al sistema” | Patrones mecánicos/movimientos son detectables | Sensores de movimiento; notas de evento; re-ensamble; criterio conservador |
| “La IA sustituirá al examinador” | Hoy es apoyo (screening/analítica), no reemplazo | Evaluar sesgos; usar IA como segunda opinión, no como árbitro |
- IA en el horizonte: AVATAR, iBorderCtrl y lecciones para la práctica
- AVATAR / iBorderCtrl: agentes virtuales con análisis de microexpresiones y voz para cribado fronterizo; precisión reportada del 60–80% en pilotos; sensibles al contexto y sesgos culturales.
- Implicación para poligrafía:
- Integración futura como pre-filtro (priorizar a quién evaluar) más que como sustituto del examen multicanal con pre-test y reglas de decisión.
- Oportunidad para enriquecer el pre-test (p. ej., indicadores de carga cognitiva) siempre que haya validación y transparencia.
- Riesgo de falsos positivos masivos en poblaciones heterogéneas si se extrapola sin prudencia.

- Conclusiones y líneas de avance
- La década de 2020 consolidó la poligrafía como sistema digital con mejores sensores, software maduro y procedimientos de calidad; el salto respecto a los 90 es real, pero no por la “magia del algoritmo”, sino por la suma de multicanalidad robusta + estandarización + formación.
- La precisión ha mejorado (≈87–97% en marcos validados), pero la decisión defendible sigue exigiendo: preguntas tiempo-lugar-conducta, temporalidad-coherencia-replicación, aceptación del inconcluso y convergencia con otras evidencias.
- La gobernanza del dato (custodia, ciberseguridad, trazabilidad) es hoy tan importante como la habilidad de entrevistar y analizar charts.
- La IA y la analítica avanzada deben verse como amplificadores del criterio profesional, no como relevo; la validación independiente y la gestión del sesgo son innegociables.
- Para estudiantes y profesionales, la competencia clave en los 2020s no es solo “saber usar la máquina”, sino diseñar pruebas válidas, interpretar críticamente, documentar con rigor y operar bajo un marco ético/ legal exigente.
Con estos principios, la poligrafía preserva su utilidad en seguridad pública y privada, al tiempo que se abre a innovaciones responsables que honran —y no traicionan— la experiencia acumulada desde los 90.