- Prodavinci - https://historico.prodavinci.com -

Cómo contar nuestros muertos; por Dorothy Kronick

Cómo contar nuestros muertos; por Dorothy Kronick

Fotografía de Alejandro Cegarra, parte de la serie ‘Nuestra guerra invisible’. Haga click en la imagen para ver la fotogalería

Para medir la violencia, el primer paso es convertir los muertos en números.

Bolígrafo en mano, un funcionario llena un certificado de defunción: pone el nombre del difunto, su edad. Dónde vivía, dónde murió. Si murió de muerte natural, o no. Anota todos los detalles relevantes, en tinta azul o negra. Ese certificado de defunción se suma a los demás, los trazos azules o negros se convierten en golpes de teclado, y las causas de muerte se clasifican de acuerdo con un sistema internacional.

Esto parece ser una vía directa de medir el auge o el declive de la violencia asesina en Venezuela: simplemente se suman las muertes a bala o a puñaladas o por estrangulamiento, y se compara esa suma con las de los años precedentes. Mas en la práctica, procesar las montañas de certificados de defunción toma años. Nada más en 2013, los médicos y los trabajadores de la salud llenaron 149.883 certificados.

Por eso quienes buscamos cifras recientes sobre la violencia en Venezuela no tenemos otra opción que confiar en los estimados. Luego de entender cómo se construyen las estadísticas vitales, y de consultar con varios colegas en universidades venezolanas, en Caracas Chronicles estimamos que la tasa de muertes violentas en el país para 2015 era de 70 por cada 100.000 habitantes.

Es alta. De las más altas del mundo.

Pero el estimado que se cita más es mucho más alto. El Observatorio Venezolano de Violencia, OVV, estima 90 muertes por cada 100.000 habitantes en 2015.

Es una diferencia de 6.000 víctimas, suficiente gente como para llenar la sala Ríos Reyna del Teatro Teresa Carreño. Dos veces.

Esa discrepancia me intriga. ¿Cómo podemos partir de los mismos datos, de las mismas muertes, de los mismos certificados de defunción, y llegar a conclusiones tan distintas? ¿Es que se me perdieron 6.000 víctimas en mi análisis? ¿O es que las crearon los investigadores del OVV?

Decidí llamar al OVV para averiguar qué pasó ahí.

Los matices de la muerte

Para un investigador, hay dos fuentes principales sobre la violencia letal en Venezuela: el Ministerio de Salud y el CICPC.

El ministerio reúne los certificados de defunción y crea un registro nacional de fallecimientos. Lo que hace útil este registro es que las causas de muerte están codificadas según la Clasificación Internacional de Enfermedades.

El registro de fallecimientos no es perfecto. Pero el Banco Mundial estima que cubre el 97% de las muertes. Y mientras algunas causas de muerte pueden ser mañosas —¿fue la neumonía la culpable, o una falla cardiaca?— las heridas de bala son mucho menos susceptibles a la interpretación.

Lo realmente útil es que el ministerio de Salud publica su data online, junto con un documento de 96 páginas que explica cómo se recogió y procesó esa data. Para los investigadores, eso es particularmente necesario.

El mayor problema con esta data del ministerio de Salud es lo que tarda en salir. Crear, chequear y cerrar el registro de fallecimientos lleva años. El ministerio venezolano de Salud es más lento que algunos de sus pares en la región; mientras la data venezolana más reciente es de 2013, Argentina y México ya publicaron la data de 2014 y Colombia sacó cifras preliminares de 2015. Hay que decir que en ninguna parte se publica eso de inmediato. Y por otro lado, el retraso implica hasta cierto punto que esa data es objeto de revisión y constatación.

Esperemos que para el próximo enero tengamos la data de 2014. Ojalá. Pero no todo el mundo puede esperar tanto para saber cómo está cambiando la situación de seguridad en Venezuela. Para quienes deciden las políticas públicas, los empresarios o los periodistas, es vital tener estimados en tiempo real.

Afortunadamente, hay una segunda instancia gubernamental que lleva registros relevantes en este tema y que además los tabula un poco más rápido. Es el CICPC (Cuerpo de Investigaciones Científicas, Penales, y Criminalísticas), que registra el número de casos legales relacionados con homicidios, violencia policial (“resistencia a la autoridad”) o muertes por causas externas (por ejemplo, a tiros) en los cuales no se sabe la herida fue intencional o no (“averiguación de muerte”).

El número de casos y el número de muertes no son la misma cosa, así que los investigadores los tratamos de maneras diferentes. Por una parte, hay casos de violencia policial en los que nadie muere; por otra, un solo caso de homicidio puede involucrar múltiples víctimas, o viceversa, una víctima puede generar múltiples casos. Pero incluso si el número de casos no nos da el número de muertes violentas, la tendencia en el número de casos nos da pistas sobre la tendencia en muertes violentas.

Para visualizar esto, hicimos el Gráfico 1.

La línea sólida gris dibuja el número de muertes violentas registrado por el ministerio de Salud. Se considera que son muertes violentas las codificadas como homicidios, así como las “muertes violentas por intención indeterminada” —en otras palabras, muertes violentas de las que no sabía, al momento de llenar el certificado de defunción, si la violencia que las causó era de índole accidental o intencional (para una lista completa de los códigos CIE, revisar las notas al final de este artículo). La línea verde punteada en el Gráfico 1 traza el número de casos registrado por la policía (es decir, el número de casos de homicidio, de resistencia a la autoridad y de averiguación de muerte, todo junto).

Claramente, la policía (el CICPC) registra más casos que el Ministerio de Salud registra muertes violentas, en parte porque muchos casos de violencia policial no terminan con un cadáver en el suelo. El punto es que, históricamente, las tendencias dibujadas por ambas fuentes se han movido juntas: cuando sube la cifra de muertes violentas del ministerio de Salud, también sube la cuenta de casos de la policía. Y viceversa.

Grafico 1

Las cifras del ministerio de Salud (la línea sólida gris) solo nos lleva hasta —acuérdese de la demora— 2013. Las de la policía (la línea punteada verde) continúa hasta 2015. A diferencia del ministerio de Salud, el CICPC no publica su data online, pero la comparte con algunas fuentes —incluyendo una cercana a Caracas Chronicles, una fuente en la que confiamos, que entiende cómo se construyen estas cifras policiales y qué significan.

Nuestro estimado

Para nosotros, entonces, un buen modo de estimar el número de muertes violentas en 2015 —así como de hacerlas también, al comienzo del año que viene, para 2016— es usar la tendencia en la data policial para predecir lo que terminarán mostrando las series del ministerio de Salud.

Este ejercicio esencialmente parte de la idea de que el ministerio de Salud crea la cuenta más confiable para el número de muertes violentas. Esta cifra sólo está disponible varios años después de los hechos que la generan. Pero podemos usar la tendencia en la data policial para lanzar una suposición informada sobre si el número de muertes violentas subió o bajó en los últimos años, y en qué magnitud. También podemos usar esa data para hacernos una idea de la precisión de nuestras estimaciones: ¿cuán confiados podemos estar en que no nos estamos pelando?

Siguiendo esta estrategia, Caracas Chronicles estima que la tasa de muertes violentas se situó entre 62 y 75 por 100.000 en 2015. En otras palabras, 62-75 es nuestro intervalo con 95% de confianza para tasa de muertes violentas en 2015 (más detalles en las notas al final del artículo).

Nuestro análisis dice también algo sobre la tendencia en muertes violentas, que es tan importante como esa cifra. Estimamos que la tasa de muertes violentas se incrementó algo menos de 5% desde 2012. Eso es un incremento significativo, aunque pequeño si se compara con los saltos anuales de 20%–25% de comienzos de los 90 y comienzos de los 2000.

¿Cuán bueno es este estimado de Caracas Chronicles? Una manera de evaluar eso es considerar cuán plausibles son nuestras premisas.

Tal vez la más importante de ellas es que, en 2014 y 2015, el número de muertes violentas siguió bailando pega’o con el número de casos policiales. Como estas dos cifras se han estado siguiendo la una a la otra por más de veinte años, llegando hasta 2013, esto nos parece una premisa razonable. Si el lector tiene motivos para rebatir este razonamiento, no debe poner la mano en el fuego por nuestro estimado (y debería hacernos saber por qué en los comentarios).

Otra vía para evaluar nuestro estimado es compararlo con otros. En años recientes, el CICPC emprendió su propio conteo de muertes violentas, aparte de su cuenta de casos. Para 2015, ese registro del CICPC arrojó una tasa de muertes violentas de 73,5 por 100.000, lo cual está dentro de nuestro intervalo de confianza de 62–75.

Esto nos confirma que nuestras estimaciones no están lejos del mingo. Pero todavía nos quedaba una duda por ahí. Si la verdadera tasa de muertes violentas estuviera en el orden de los 70 por 100.000, y si subió menos de 5% desde 2012, ¿cómo carrizo llegó el Observatorio Venezolano de Violencia a un estimado de 90 por 100.000, con un incremento de 28% durante el mismo periodo?

Las fuentes de la discrepancia

Por muchos años, los investigadores del OVV tuvieron acceso a la data policial que se filtraba y les informaba del número de casos —la misma data que Caracas Chronicles obtuvo pero de una fuente distinta, y que acabamos de discutir.

En esos años, con acceso a esos números, lo que el OVV tenía que hacer era simplemente estimar el número de muertes violentas al sumarle los casos de homicidio, el 60% del número de casos de “resistencia a la autoridad” (partiendo del hecho de que no todos los casos de resistencia arrojan muertes) y el 95% de los casos de “averiguación de muerte” (nuestro apéndice técnico entra en detalles sobre el origen de esta fórmula). Cuando el OVV no tenía data actualizada, hacía proyecciones (en 2014, criticamos lo que nos parecía una muestra de opacidad metodológica en los comunicados de prensa del OVV; en posteriores comunicados, dieron muchos más detalles).

¿Era esta fórmula tan precisa como el esfuerzo reciente del CICPC de contar las muertes violentas? No. Pero el método que tenía el OVV le daba un total que se parecía mucho al del ministerio de Salud. Ahí se ve en el Gráfico 2. La data del OVV está trazada en rosado, encima de la del ministerio de Salud (en gris) y la de la policía (en verde). Podemos ver cómo hasta 2012 el estimado del OVV estaba muy cerca de las otras dos fuentes oficiales (en el apéndice técnico hay notas sobre las desviaciones previas a 2012).

Pero en ese año de 2013 la línea del OVV se fue por otro lado. En 2013, OVV registró un fuerte incremento, mientras el ministerio de Salud y el CICPC apuntaban a un leve descenso. Algo bien curioso.

Pero más curioso todavía fue lo que pasó en 2014 y 2015: que las cifras anuales de muertes violentas de la policía se estabilizaron, mientras que las del OVV seguían para arriba. El Gráfico 3 hace un close-up de los últimos diez años.

Para mí, una discrepancia como esa enciende las alarmas.

grafico2grafico 3

El estadístico jefe del OVV, Alberto Camardiel, compartió conmigo sus datos y sus cálculos. Tal parece que los números de 2014 y 2015 son proyecciones de la tendencia de 2013 —lo cual significa que, si la tasa de muertes violentas subió en 2013, la de los dos años siguientes lo haría también, automáticamente.

Pero la cifra de 2013 en la hoja de cálculo de Camardiel no es una proyección. Es un punto de data. Cuando la fuente original que le filtraba los números de la policía al OVV interrumpió el vínculo, el número de 2013 vino de otra persona: Deivis Ramírez, un experimentado periodista de sucesos que dijo había obtenido ese número del CICPC (Camardiel trató de contactar a Ramírez el año pasado pero no tuvo éxito).

Tiene sentido, ¿cierto?

Pues resultó que no. El problema, como descubrí cuando llamé a Ramírez, es que esa cifra de 2013 que él le pasó al Observatorio simplemente no era comparable a los datos que el OVV manejaba hasta entonces: la cifra de Ramírez de 2013 y las del OVV de 2012 y el periodo previo medían cosas distintas. Cuando las combinaron, apareció el origen de esa discrepancia tan grande entre las cifras de asesinatos del OVV y los estimados que se basan en data oficial (las notas al final del artículo comentan el resto de las discordancias).

¿Cuál exactamente es la diferencia entre los datos de Ramírez y las series históricas del OVV?

Tanto la data de Ramírez como la del OVV eran sumas de casos policiales. Pero ¿cuáles casos, exactamente? Recordemos que la policía contabiliza tres tipos de casos: homicidios, resistencia a la autoridad, y averiguación de muerte.

El OVV interpretó la data de Deivis Ramírez como si fuera sólo de casos de homicidio. Así que, siguiendo el método que traía desde varios años, tomó el total de Ramírez de 2013 y le sumó el 60 % de los casos de resistencia a la autoridad y el 95 % de los de averiguación de muerte (para estas dos últimas categorías, usó proyecciones basadas en años anteriores).

Ahí estuvo el primer problema. Como más tarde le confirmó Ramírez a Caracas Chronicles, la cifra de 2013 que él le dio al OVV no es sólo de casos de homicidio —es la suma de casos de homicidio junto con casos de resistencia a la autoridad (pero no de averiguación de muerte).

Eso implica que el OVV hizo un estimado para 2013 de muertes violentas que contó dos veces los casos de violencia policial. En vez de sumar A+B+C, el Observatorio sumó A+B+B+C.

Ese error creó la falsa impresión de un salto en violencia de la cifra de 2012 a la de 2013.

De hecho, cuando Caracas Chronicles le preguntó a Deivis Ramírez por sus cifras por todos los años disponibles, encontramos que, al comparar 2013 con su cifra análoga de 2012, en 2013 hubo un descenso de muertes violentas. Lo mismo que dice el ministerio de Salud. Lo mismo que dice la policía, según nuestra fuente.

Vamos a plantear esto de otro modo. Cuando le preguntamos al OVV por qué mostraban un incremento en muertes violentas en 2013, ellos apuntaron hacia Deivis Ramírez. Pero una conversación con Ramírez confirmó que sus cifras, como las que nosotros tenemos por otras fuentes, no indican un aumento de la violencia en 2013. Dicen lo contrario.

Fue un error tratar la cifra de 2012 del OVV como si fuese comparable directamente a la data de 2013 de Ramírez. Y al pasarse a la extrapolación en 2014, el OVV empezó a magnificar ese error año tras año.

Una fuente inapropiada

Cuando le mostramos a Camardiel, del OVV, un borrador de este artículo, confirmó que “el modo en que describe el proceso mediante el cual el OVV estimó la tasa de muertes violentas corresponde con lo que hicimos”.  También apuntó que el artículo original de Ramírez sobre las muertes violentas en 2013 habla de una cifra general de homicidios sin especificar cuáles fueron por violencia policial y cuáles no. Esto es cierto; Ramírez, quien es periodista, tal vez tenía en mente sólo el uso coloquial del término “homicidio” (que razonablemente puede referirse también a muertes a manos de la policía) en lugar de la definición técnica por la que se rige el CICPC.

Es lo mismo que pasa con muchas declaraciones de funcionarios de alto rango. A principios de 2013, por ejemplo, Néstor Reverol (entonces Ministro del Interior y Justicia) dijo a la prensa que hubo 14.092 homicidios en 2011 y 16.072 en 2012. Este año, la Fiscal General Luisa Ortega Díaz dijo que la tasa de homicidio en 2015 era de 58 por cada 100.000. Estas cifras sufren del mismo mal que las de Deivis Ramírez: ¿De qué hablan Reverol u Ortega Díaz cuando hablan de “homicidio”? ¿Quieren decir casos? ¿Quieren decir víctimas? ¿Víctimas de homicidio y de muertes a manos de la policía, sumados? ¿O algo enteramente distinto? Sin metadata, esta clase de declaraciones no dicen nada.

Pero había más razones para ser precavidos respecto a usar la data de Ramírez como base a la hora de lanzar estimaciones sobre la tasa de muerte violenta en Venezuela. Su artículo original cita dos cifras de homicidios que son distintas pero llamativamente diferentes. Una es 19.762 y la otra 17.962, lo que llevó a la organización de derechos humanos PROVEA a decir que “suponemos que bien pudiera tratarse de una inversión involuntaria del periodista y que la cifra correcta sea la última [17.962]” (cifra que también usó el OVV).

Por si las cosas no fueran ya suficientemente complicadas, Ramírez atribuyó la cifra de 17.962 a una consultora, ODH Grupo Consultor, mientras que a mí me dijo por email que esos datos venían de una fuente suya en el CICPC. Por su parte, Camardiel quedó con la impresión de que Ramírez sacó esa cifra de un reporte del Ministerio del Interior.

Cuando Ramírez me mandó su data 1999–2005, la comparé con la data del CICPC que proveyó nuestra fuente y noté que las series no cuadran. Luego de largas conversaciones con Ramírez y con nuestra fuente, decidí obviar la data de Ramírez. Entre otras cosas, parece estar confundido sobre lo que esos datos estaban midiendo en realidad, y de hecho me dio definiciones inconsistentes sobre eso en diferentes intercambios. Extrañamente, Camardiel, del OVV, parece compartir mi preocupación. Cuando le preguntamos sobre Ramírez, nos dijo que él no podía “ni confirmar ni negar que [el reportero] fuera una fuente confiable”.

Todo esto nos dice que los investigadores no podemos confiar en cifras que vienen de artículos en los medios o de ruedas de prensa. Al menos, no sin información adicional. Idealmente, el CICPC y otros organismos deberían publicar la data oficial, junto con una descripción de los procesos que siguen para generarla (tal como lo hace el Ministerio de Salud). Si lo hicieran, yo no estaría escribiendo este artículo.

Pero como eso no es así, baso mis estimaciones en las únicas fuentes que me producen confianza: la data estadística vital del Ministerio de Salud y la cuenta de casos del CICPC. Puede que haya un error en mis cálculos (en cuyo caso, ojalá que publicarlos aquí lleve a alguien a corregirlos). Pero no comparto la visión de Roberto Briceño-León, el jefe del OVV, quien dice que “es muy difícil, por no decir imposible, tener una opinión sólida, sustentada sobre la confiabilidad de la data”.

Hacia 2017

Vamos a estar claros, esto es un debate sobre las dimensiones de la tragedia venezolana, no sobre su existencia. Si bien el OVV plantea la interpretación más tenebrosa del problema, en la que la magnitud de la matanza aumenta año a año, nuestro estimado no se queda atrás en dibujar una violencia devastadora, con tasas de homicidios cinco veces superiores a las que tenía el país una generación atrás.

Pero referirse a esta tragedia requiere una comprensión cabal de su escala, lo cual pasa por tener una cuenta precisa de los muertos. Ya corre el rumor de que los primeros meses de 2016 han devorado más vidas que durante el mismo periodo de 2015; pero cuando llegue el próximo enero y el país mire atrás para sacar esa cuenta, ¿cómo podremos estar seguros? ¿Cómo habremos de contar las víctimas de 2016? Y si no las podemos contar bien, ¿cómo podemos diseñar políticas para enfrentar el drama?

No somos los primeros en señalar la importancia de medir bien los problemas que pretendemos resolver. En los 90, luego de una década de investigación en el sistema público de salud, el director del OVV, Roberto Briceño-León, dirigió su atención hacia la violencia. En uno de sus primeros artículos sobre el tema, presentó gráficos sobre las tasas de homicidio durante los años 70. “Solo con una compresión cabal de cuánta [violencia] hay”, concluyó, “podrá ser posible realizar acciones complejas en la sociedad para tratar de prevenirla y evitarla”.

En ese punto, estamos completamente de acuerdo.

Notas técnicas

1. Los códigos del ICD que considera el Ministerio de Salud en su registro de muertes violentas son: W32, W33, W34, X85–Y09, Y10–Y34, Y35–Y36 y Y89. Las descripciones de cada categoría están disponibles aquí. Nótese que la tasa de muertes violentas es conceptualmente distinta de la de homicidios; la primera incluye, por ejemplo, muertes accidentales por armas de fuego (por ejemplo, por balas perdidas), mientras que la segunda no. Por lo tanto, los números en este artículo no deben ser comparados con las tasas de homicidio de otros países. Lo que en Venezuela es contabilizado como muerte violenta no incluye suicidios o accidentes de tránsito fatales.

2. El estimado de Caracas Chronicles fue creado simplemente haciendo una regresión de la tasa de muertes violentas del Ministerio de Salud en la tasa de casos del CICPC (por ejemplo, números de casos por cada 100.000 habitantes) y luego tomando el valor esperado. Incluimos todos los casos de homicidio, de “averiguación de muerte” y de “resistencia a la autoridad”.

3. Para calcular el “intervalo de confianza” de 95%, usamos el error estándar de pronóstico y no el error estándar de predicción. Ver la Sección 11.3.5 aquí; usamos lo que en ese texto se llama “intervalo de predicción”.

4. Una nota sobre la fórmula que el OVV usa para calcular la tasa de muertes violentas. El texto del artículo plantea que el OVV usa la fórmula: 1*(Casos de Homicidio) + 0.6*(Casos de “Resistencia a la Autoridad”) + 0.95*(Casos de “Averiguación de Muerte”). De hecho, esa era la fórmula que el OVV pretendía aplicar; en la práctica, un error de hoja de cálculo decidió que terminara usando la fórmula 1*(Casos de Homicidio) + 95*(Casos de “Averiguación de Muerte”) + 0.6*(Casos de “Averiguación de Muerte”), invirtiendo sin darse cuenta las cargas de los casos de violencia policial y los de causa indeterminada de muerte. En nuestro artículo, usamos la fórmula que el OVV en efecto usa (es decir, con las cargas invertidas) en lugar de la fórmula corregida. En años recientes, los números de casos de violencia policial y de causa indeterminada de muerte han sido similares, al punto de que la corrección cambiaría el estimado del OVV solo ligeramente (haciéndolo de 91.5 en lugar de 89.8 por 100.000).

5. El texto plantea que el uso equivocado del número de 2013 por parte de Ramírez origina la mayor parte de la diferencia entre el estimado del OVV y el nuestro. Otros dos factores contribuyen.

a. Primero, como explicaron en su comunicado de prensa, el OVV modeló la serie temporal de casos de homicidio usando el modelo Arima (0,1,0), el mismo que volvieron a usar para crear sus proyecciones para 2014 y 2015. El software que usan, SPSS, tiene dos comandos diferentes para producir la proyección; extrañamente, estos dos comandos producen outputs distintos, y el comando que usó el OVV hace proyecciones 10% más altas que el otro (en este caso específico, para el año 2015). El otro comando (que produjo la predicción más baja para 2015) cuadra con el output de comandos similares en Stata.

b. Segundo, recordemos que la cuenta propia del CICPC de muertes violentas, que se basa en la data de la institución, pone la tasa de muertes violentas de 2015 en 73.5 por 100.000—más alta que nuestro estimado de 68.7. Esto sugiere que, aparte de los métodos del OVV, la cifra de muertes violentas del CICPC es más alta que la del Ministerio de Salud (este tipo de discrepancias no es infrecuente).

6. El texto también apunta que el estimado de tasa de muertes violentas del OVV sigue una tendencia distinta a la del CICPC incluso antes de 2013: específicamente, en 2010 y 2011. Esto ocurre simplemente porque el OVV estaba utilizando una versión más antigua de la data del CICPC para esos años (la misma que ha sido publicada en informes de PROVEA); si el OVV hubiera tenido acceso a la data revisada, las tendencias hubieran cuadrado para 2010 y 2011.