Detección de fraude: en el caso Imanishi-Kari, ¿cómo el Servicio Secreto de los Estados Unidos y los Estados Unidos aplicó mal la Ley de Benford?

La versión corta es que alguien realizó una prueba estadística que, si funcionó, habría demostrado que los números que Thereza Imanishi-Kari supuestamente generó a mano probablemente se generaron a mano. Si eso no parece mucho, bueno, ¡eso es parte de por qué ganó su atractivo!

Ahora a la versión larga. Primero, seamos claros: el Servicio Secreto de EE. UU. No aplicó esta prueba.

De acuerdo con la decisión del Departamento de Salud y Servicios Humanos que exoneró a Imanishi-Kari, http://www.hhs.gov/dab/decisions…, la prueba en cuestión fue realizada por el Dr. James Mosimann, entonces profesor adjunto de American Universidad, en nombre de la Oficina de Integridad de Investigación de los Estados Unidos.

El Servicio Secreto estuvo muy involucrado en esta investigación; por ejemplo, hicieron muchos análisis forenses de los cuadernos de investigación de Imanishi-Kari, según ese informe.

El informe del HHS dice que la prueba de Mosimann, que ellos llaman un “análisis uniforme de distribución de dígitos”, no fue evidencia de mala conducta en la investigación.

El informe dice que incluso si la prueba fuera correcta , no mostraría mala conducta; y también dijeron que la prueba podría haberse realizado incorrectamente . Específicamente, el informe dice:

  1. Si la prueba fuera correcta, todo lo que probaría sería que los números generados por humanos (recuentos de eventos) fueron generados por humanos.
    Mossiman realizó la prueba en números generados por humanos. Como máximo, la prueba está diseñada para demostrar que está viendo números generados por humanos.

    Lo que sucedió específicamente: Imanishi-Kari examinó algunos datos sin procesar, los hechos contados a mano con un poco de redondeo y registró los recuentos. ¡HHS dice que bajo esas circunstancias, absolutamente debe esperar ver este tipo de prueba que un humano estuvo involucrado en hacer los números! Los humanos muestran una preferencia hacia ciertos números; No sorprende allí, no hay fraude.

  2. Mossiman alteró la prueba estándar y no justificó esto científicamente.
    Utilizó una variación extraña de la prueba estándar y no justificó por qué esa versión extraña era estadísticamente válida.
  3. Su prueba usó un control inapropiado.
    En su prueba, comparó los recuentos humanos de datos sin procesar de Imanishi-Kari con un “control” hecho a partir de datos sin procesar. Este tipo de control era inapropiado y debería haber usado un control que también era un recuento humano de datos sin procesar.

Verbatim del informe:

El análisis de distribución de dígitos uniforme de ORI no es evidencia de la cual inferiríamos fabricación.

El segundo conjunto de análisis que realizó el Dr. Mosimann en los datos de subclonación de junio se denominó “análisis uniforme de dígitos” o “análisis uniforme de distribución de dígitos”. Este análisis supone que los dígitos generados aleatoriamente seguirán una distribución uniforme discreta. Los estudios en coautoría del Dr. Mosimann descubrieron que las personas que intentaban generar números de lotería de tres dígitos que parecerían generados al azar no podían hacerlo efectivamente, porque sus números reflejaban una preferencia de dígitos. Para este caso, el Dr. Mosimann analizó la frecuencia de aparición de dígitos del 1 al 9 en los datos de subclonación de junio (recuentos altos y bajos) y en los datos de “control”, y determinó que, a diferencia de los dígitos de los datos de control, los dígitos Los datos de subclonación de junio no se ajustaban al modelo uniforme de distribución de dígitos. Llegó a la conclusión de que los datos de subclonación de junio se fabricaron porque mostraban una preferencia por los dígitos 1, 3, 7 y 8 (aunque otro de los conjuntos de datos escritos a mano del Dr. Imanishi-Kari mostró diferentes preferencias). Exs. H409, H410, H411.
Si bien ORI presentó este análisis como una técnica estadística comúnmente aceptada para determinar la fabricación de datos, las autoridades estadísticas a las que se hace referencia en el registro no respaldan esta conclusión, por las siguientes razones:

Aquí viene el problema número uno:
Si la prueba fuera correcta, todo lo que probaría sería que los números generados por humanos fueron generados por humanos.

Estas autoridades solo apoyan la conclusión de que una desviación de la uniformidad, en muchos casos, indica una preferencia personal por los dígitos y, por lo tanto, alguna forma de intervención humana. Ex. H200, en 3. Como discutimos anteriormente, los recuentos escritos a mano en los datos de subclonación de junio no pretenden ser datos sin intervención humana, y no encontramos a partir de las circunstancias aquí que la intervención humana obvia hace que sea más probable que no Los datos fueron fabricados.

Aquí viene el problema número dos:
Él alteró la prueba estándar y no justificó esto científicamente.

Estas autoridades, como se describe en el propio artículo del Dr. Mosimann, se basan en una expectativa de uniformidad en lo que se conoce indistintamente como dígitos “terminales” o “errores” o “más a la derecha” que no contienen ninguna información. Ex. H200; Tr. 1141-43 (Mosimann). Sin embargo, los análisis realizados aquí no estaban en los dígitos de la derecha, sino en los dígitos de la derecha que no eran cero y que no eran el dígito de la izquierda. H636, H637, H638; Tr. 784-85 (Mosimann). ORI no presentó evidencia de que el análisis de estos dígitos (en oposición a los dígitos “más a la derecha”) sea una técnica estadística comúnmente aceptada.

Los análisis anteriores de otros autores además del Dr. Mosimann se describen como análisis de dígitos que no contienen información. Los juicios hechos aquí sobre qué dígitos no eran dígitos significativos (es decir, qué dígitos no contenían información) son cuestionables, ya que este análisis, por ejemplo, consideraría que el 8 en 800 es significativo, pero no el 7 en 27,000. Ver, por ejemplo, Tr. 786 (Mosimann), 2234 (Velocidad).

ORI no brindó testimonio del Dr. Barron, el otro experto en estadística de ORI, para apoyar la conclusión de que los análisis particulares utilizados por el Dr. Mosimann eran una técnica estadística comúnmente aceptada para determinar la fabricación de datos. En cambio, el Dr. Barron testificó que no inferiría la fabricación a partir de las pruebas estadísticas utilizadas aquí a menos que hubiera otra evidencia convincente. Tr. 830, 5019.

Aquí viene el problema número tres:
Su prueba usó un control inapropiado.

La dependencia de ORI en los conjuntos de datos de “control” aquí también está fuera de lugar, ya que la mayoría de esos conjuntos son datos directamente de cintas de contador que no contienen números transcritos o redondeados, como lo hacen los datos de subclonación de junio. Ex. H420. El Dr. Mosimann intentó superar el problema de redondeo sometiendo primero los datos a un protocolo de redondeo. Sin embargo, el registro muestra que este protocolo de redondeo no imita el comportamiento de redondeo del Dr. Imanishi-Kari, como lo muestra un conjunto de datos escritos a mano, pero para los cuales también está disponible la cinta de contador (I-1: 20- 21; I-1: 12-19). 153 / Tr. 2226-30 (velocidad); Exs. H419, R61. La afirmación del Dr. Mosimann de que el protocolo de redondeo de la computadora no tenía la intención de emular exactamente el comportamiento de redondeo del Dr. Imanishi-Kari y no estaba, por ejemplo, preocupado por si ella redondeó hacia arriba o hacia abajo, no era consistente con su testimonio de que los efectos de la computadora El protocolo de redondeo fue bastante consistente con el conocido comportamiento de redondeo del Dr. Imanishi-Kari. Tr. 1125, 5694.

Aquí viene el resumen:

En resumen, hay algunas preguntas sobre el análisis de dígitos uniforme tal como se aplica aquí, pero, incluso aceptando esta técnica como válida, no inferiríamos de este análisis solo que los datos cuestionados son fabricados. Estos análisis estadísticos no muestran que los datos escritos a mano fueron el resultado de una fabricación intencional en lugar de un comportamiento idiosincrásico en el registro o el redondeo de datos donde los dígitos estudiados fueron de poca importancia científica.

El Panel concluye que los análisis estadísticos no son evidencia confiable de que los datos de subclonación de junio u otros datos cuestionados fueron creados por fabricación o falsificación como alega ORI.

Visita mi sitio web Medical Cover Up | Helene Z Hill | para aprender más sobre el ORI y el análisis numérico en un caso muy interesante.