🔬 Pinocho Lab

Evaluación de Integridad de Datos por Métodos Estadísticos con Inferencia por Remuestreo

v3.0 · Monte Carlo
⚙️ Configuración del Análisis
Conocida o de referencia
Conocida o de referencia
Resolución del instrumento
Simulando...

📊 Distribución Observada vs. Esperada

Se superpone el histograma observado con la densidad normal esperada (μ, σ proporcionados). Se evalúa mediante test de Kolmogorov-Smirnov con p-valor por Monte Carlo.

🔢 Uniformidad del Dígito Terminal

En mediciones con resolución fija, el último dígito significativo se distribuye U(0,9). Los humanos sobrerrepresentan 0 y 5. Se evalúa con χ² y p-valor exacto por permutación.

📐 Ley de Benford (Primer Dígito)

El primer dígito significativo de datos naturales sigue P(d) = log₁₀(1+1/d). Se cuantifica con MAD de Nigrini y χ² con p-valor por Monte Carlo contra la distribución de referencia simulada.

🏃 Test de Rachas (Wald-Wolfowitz)

Cuenta secuencias consecutivas por encima/debajo de la mediana. Los humanos alternan excesivamente, produciendo más rachas de las esperadas. P-valor por simulación Monte Carlo.

📈 Autocorrelación Serial (Lag 1-5)

En datos independientes, r(lag) ≈ 0. Los humanos producen autocorrelación negativa en lag-1 al evitar valores similares consecutivos. Bandas de confianza al 95% por remuestreo.

🌀 Entropía de Shannon (Dígitos Terminales)

H = -Σ pᵢ log₂(pᵢ) mide la diversidad de dígitos. Para uniformidad perfecta, H = log₂(10) ≈ 3.322 bits. Valores bajos indican concentración en pocos dígitos. Intervalo de referencia por Monte Carlo.

♊ Tasa de Duplicados

Se compara la proporción de valores únicos contra lo esperado por simulación de N(μ,σ) redondeada a la resolución del instrumento. Exceso o déficit de duplicados son ambos sospechosos.

⚖️ Curtosis y Asimetría (QQ-Plot)

Datos fabricados uniformemente tienen curtosis negativa (platocúrticos). Se construye QQ-Plot contra N(μ,σ) y se evalúan los momentos con intervalos de referencia por remuestreo.

📏 Diferencias Consecutivas (MSSD)

El MSSD (Mean Square of Successive Differences) de Von Neumann es sensible a no aleatoriedad serial. Se calcula el ratio MSSD/Varianza; bajo aleatoriedad, ≈ 2.0. P-valor por Monte Carlo.

📋 Resumen Descriptivo

INFO
📄 Informe de Integridad de Datos

Fecha: · Análisis no supervisado · simulaciones Monte Carlo

Nota interpretativa: Este informe presenta hallazgos estadísticos objetivos. Una puntuación alta indica que los datos observados difieren del comportamiento esperado bajo muestreo aleatorio de la distribución de referencia. Esto puede deberse a fabricación, errores de transcripción, sesgos del instrumento de medición, población no estándar u otras causas legítimas. Los hallazgos deben interpretarse en contexto y no constituyen por sí solos una acusación de fraude.

Filosofía del Análisis

Esta herramienta implementa un enfoque de inferencia por simulación: para cada estadístico forense calculado sobre los datos observados, se genera una distribución de referencia empírica mediante Monte Carlo. Se simulan B muestras del mismo tamaño n desde N(μ, σ) (redondeadas a la resolución del instrumento), y se calcula el mismo estadístico en cada muestra simulada. El p-valor empírico es la proporción de simulaciones que producen un estadístico tan extremo o más que el observado.

Prueba 1 — Distribución (Kolmogorov-Smirnov)

D = sup|Fₙ(x) - F₀(x)|, donde F₀ es la CDF de la distribución de referencia. El p-valor se obtiene por Monte Carlo ya que F₀ puede no ser exactamente continua tras el redondeo.

Prueba 2 — Dígito Terminal (χ² de uniformidad)

χ² = Σ(Oᵢ - Eᵢ)²/Eᵢ con gl=9 y Eᵢ = n/10. El p-valor paramétrico asume gl=9; el p-valor Monte Carlo simula muestras reales redondeadas y calcula χ² en cada una para verificar que la distribución de referencia real (no teórica) sea efectivamente uniforme.

Prueba 3 — Ley de Benford

MAD = (1/9)Σ|pᵢ - bᵢ| donde bᵢ = log₁₀(1+1/i). Clasificación de Nigrini: MAD ≤ 0.006 (conforme), ≤ 0.012 (aceptable), ≤ 0.015 (marginal), > 0.015 (no conforme). Importante: Benford requiere datos que abarquen varios órdenes de magnitud; para variables biomédicas estrechas, la prueba tiene baja potencia y se pondera menos.

Prueba 4 — Rachas (Wald-Wolfowitz)

R = número de rachas respecto a la mediana. E(R) = 2n₁n₂/n + 1. Bajo n > 20, Z = (R - E(R))/√Var(R) es aprox. normal. El p-valor Monte Carlo permuta los datos y cuenta rachas en cada permutación.

Prueba 5 — Autocorrelación

r(k) = Σ(xᵢ-x̄)(xᵢ₊ₖ-x̄) / Σ(xᵢ-x̄)² para lags k=1,...,5. Banda de ±1.96/√n bajo H₀. El p-valor para lag-1 se obtiene por Monte Carlo.

Prueba 6 — Entropía de Shannon

H = -Σ pᵢ log₂(pᵢ) sobre los dígitos terminales. Se compara contra la distribución de H obtenida en B simulaciones de datos reales redondeados.

Prueba 7 — Tasa de Duplicados

Se calcula la proporción de valores únicos y se compara contra la distribución obtenida por simulación. La tasa esperada depende fuertemente de n, σ y la resolución del instrumento.

Prueba 8 — Momentos (Curtosis y Asimetría)

Curtosis excess = m₄/s⁴ - 3. Asimetría = m₃/s³. Se comparan contra distribuciones de referencia por Monte Carlo.

Prueba 9 — MSSD de Von Neumann

MSSD = Σ(xᵢ₊₁-xᵢ)²/(n-1). El ratio η² = MSSD/s² tiene E(η²)=2 bajo independencia. η² < 2 sugiere autocorrelación positiva; η² > 2 sugiere alternación. P-valor por Monte Carlo.

Puntuación Compuesta

Se combinan los p-valores de las 9 pruebas usando el método de Fisher: X² = -2Σln(pᵢ), que bajo H₀ conjunta sigue χ²(2k). Esto evita la arbitrariedad de pesos subjetivos y proporciona un test ómnibus con p-valor formal.

Referencias

  1. Mosimann, J.E., Wiseman, C.V. & Edelman, R.E. (1995). Data fabrication: Can people generate random digits? Accountability in Research, 4(1), 31-55.
  2. Benford, F. (1938). The law of anomalous numbers. Proc. American Philosophical Society, 78(4), 551-572.
  3. Nigrini, M.J. (2012). Benford's Law: Applications for Forensic Accounting, Auditing, and Fraud Detection. Wiley.
  4. von Neumann, J. (1941). Distribution of the ratio of the mean square successive difference to the variance. Annals of Mathematical Statistics, 12(4), 367-395.
  5. Fisher, R.A. (1925). Statistical Methods for Research Workers. Oliver & Boyd.
  6. Wald, A. & Wolfowitz, J. (1940). On a test whether two samples are from the same population. Annals of Mathematical Statistics, 11(2), 147-162.
  7. Good, P. (2005). Permutation, Parametric, and Bootstrap Tests of Hypotheses. Springer, 3rd ed.
  8. Al-Marzouki, S. et al. (2005). Are these data real? Statistical methods for the detection of data fabrication in clinical trials. BMJ, 331, 267-270.