El artículo
en cuestión corresponde a un modelo matemático. Los modelos necesitan ser sometidos
a exhaustivos análisis para evaluar su calidad, especialmente se deben evaluar
los datos introducidos, ya que muchas veces son estimaciones poco fiables y
no corresponden a datos comprobados ni a
conocimientos biomédicos aceptados. Además de la calidad de los datos
introducidos, hay que recordar los datos que NO se introducen, ya que los modelos se caracterizan por su incapacidad de tomar
en cuenta la evolución de factores no incluidos en él, que son ingentes y
muchos impredecibles (un ejemplo podría ser en este caso la variación genética
del virus). Los
modelos matemáticos no son un instrumento aceptado de proporcionar evidencia
médica de calidad. Por lo tanto, es necesario someterlos a una evaluación rigurosa y ser muy prudentes con sus
resultados (aquí). Esto
supone que los resultados de cualquier modelo que incluya estimaciones o
proyecciones no deben ser considerados como hechos reales comprobados, como
evidencia, sino aproximaciones y posibilidades que deben ser contrastados con
la realidad. Este caso, al no tratarse de un estudio predictivo a futuro, no se
podían comparar los resultados del modelo con lo que se iba a producir a
posteriori en la realidad. Una limitación importante porque, precisamente, los
modelos tienen que ser continuamente ajustados en función de la evolución de
los datos reales. Se ha visto durante toda la pandemia como los modelos
matemáticos tenían que ser corregidos porque sus predicciones eran refutadas
por la evolución real de la misma en términos de casos, hospitalizaciones y
muertes (aquí).
El estudio de Lancet pretendía determinar una hipotética evolución que se hubiera producido si no se hubiera vacunado durante el año 2021, es decir que los fallecimientos en ese año se comparaban con una hipótesis de posible desenlaces letales si la vacunación no se hubiera producido. Solamente el enunciado del estudio ya sugiere que estamos ante una cuestión muy elusiva. Los modelos matemáticos pueden aportar información interesante para contribuir a entender un fenómeno y su aproximación (aquí). Pero, para ello, los datos que se introducen en el modelo deben ser realmente comprobados y tratarse de fenómenos bien conocidos. Por otra parte, los resultados se consideran como una hipótesis aproximativa. Pero durante la pandemia hemos visto la proliferación de modelos basados en estimaciones y presunciones y que al mismo tiempo presentan sus resultados como hechos indisputables (aquí).
Es necesario insistir que los modelos dependen de la calidad y precisión de los datos introducidos y de que estos no evolucionen en el periodo modelado. Por lo tanto, los modelos precisan que los datos introducidos (input) sean comprobables y fehacientes: variables conocidas y contrastadas. Un ejemplo de la presunciones sin fundamento de los modelos lo tenemos con el que Ferguson (también del Imperial College) presentó en los albores de la pandemia y que anunciaban una catástrofe inminente que nunca se produjo ni se iba a producir (aquí). Las estimaciones que incluía ese modelo para calcular la letalidad esperable en Europa se basaban en que el Gobierno de China censuraba el número real de fallecidos y que éstos duplicaban los declarados. No se trata de defender la credibilidad del Gobierno chino sino de ilustrar la subjetividad de las estimaciones sobre las que se construyen algunos modelos matemáticos. En este modelo sobre el número de vidas salvadas por la vacuna se asumió como hecho algo tan altamente improbable como que la tasa de mortalidad por edad es la misma en todos los países.
Se
trata de un estudio que recurre a datos de variables que no han sido
establecidas y/o que están en discusión e incluso a presunciones casi
disparatadas. La gran mayoría de la estimaciones de la Covid19 no son sólidas
y están en continua evolución y se mantienen muchas incertidumbres. El modelo
presentado refleja el promedio de gravedad y letalidad en el periodo inicial y
se aplican para determinar la mortalidad si no se hubiera vacunado, pero la
procedencia de esta publicación es altamente dudosa. Pensemos en la cuestión
importante de la dosis viral recibida y la vía por la que ésta se produce
(inhalatoria o por mucosas). Todo indica que la evolución del paciente y en
especial la probabilidad de cuadros graves está relacionada con esta dosis y la
vía. Pero la correlación entre dosis viral y evolución no está establecida y
puede ir variando en los países inicialmente afectados y ser diferente en
países o regiones que inicialmente no estaban afectados. No se puede suponer
que los contagios en esas fases y esos países implican el mismo promedio de
dosis viral. Sabemos que el promedio de la dosis viral recibida ha ido
cambiando y disminuyendo en general. Además, los fallecimientos de los primeros
meses, en un porcentaje alto, fueron debidos a contagios en residencias de
ancianos y en servicios sanitarios, donde la probabilidad de dosis virales
elevadas era más alta. Una vez que esos lugares dejaron de jugar un papel tan
decisivo en la mortalidad, muy probablemente estaba destinada a disminuir.
Estamos
ante un modelo que se basa en estimaciones altamente cuestionables sobre aspectos que pueden cambiar con el paso del tiempo y explicar alternativamente la disminución de la mortalidad
sin que el efecto de las vacunas sea tan determinante. La más importante es que la inmunidad natural
tras superar la infección eres un factor protector muy poderoso (aquí). Antes y
durante la vacunación se produjo una enorme cantidad de casos que solo
podemos estimar en base a estudios serológicos.
Es decir, las estimaciones de letalidad que tomaban como referencia las
cifras del 2020, año en el que las vacunas no estaban disponibles, para
predecir las del 2021, se olvida de que era probable que las cifras de
letalidad se modificaran independientemente de la vacuna por la inmunidad
natural pero también por otros factores. Es un fenómeno reconocido que la letalidad
del virus tiende a variar a lo largo del tiempo, no solamente por la evolución
del propio virus, que tienden a predominar aquellas mutaciones con mayor
capacidad de trasmisión. La transmisibilidad del virus depende de diversos
factores uno de ellos cuales es la menor virulencia, que hace que los
infectados no sufran síntomas que le limiten los contactos sociales en los que
la trasmisión ocurre. Por otro lado, en las infecciones a menudo nos
encontramos que inicialmente los más susceptibles y expuestos se infectan en
primer lugar, y que la población más vulnerable puede sufrir tasas de letalidad
altas. Una vez que ese grupo ha sido afectado y se ha recuperado o ha
fallecido, los nuevos contagios van a ser menos proclives a morir.
Finalmente,
debemos comentar otra cuestión (quedan otras en el tintero): el número de
muertos que ha producido la Covid19. La cuestión de diferenciar los muertos
con Covid19 o muertos por Covid19 sigue sin estar resuelta (aquí). Por lo tanto, las
estimaciones de este modelo se hacen sobre el exceso de mortalidad, no sobre
las muertes declaradas como causadas por el SARS-CoV-2. Tomar como un hecho que
el exceso de mortalidad refleja exclusivamente la letalidad del virus es otra
presunción interesada. El hecho de que en este verano se haya visto cómo el
exceso de mortalidad por todas las causas aumentaba, mientras las
hospitalizaciones y muertes por Covid disminuían, proporciona más evidencia en
ese sentido. El exceso de mortalidad no solo es el resultado directo de virus
sino de otras circunstancias como son las propias medidas tomadas por los
gobiernos, como ya es abiertamente reconocido.
Hemos visto como la dureza de las medidas adoptadas y sus daños
potenciales han variado a lo largo de la pandemia y en los países más golpeados
han tendido a ser menos drásticas durante el año 2021, en qué medida esa
intervención ha modificado la mortalidad por todas las causas no está
establecido.
Por lo
tanto, el estudio de Lancet solo es un instrumento para avalar y recomendar una
estrategia vacunal que carece de análisis coste-beneficio (aquí). Se basa en una
comparación trucada de partida, ya que compara las muertes que se han producido
con las que se hipotéticamente se hubieran producido si no se hubiera vacunado,
pero no con las que hubieran tenido lugar si, por ejemplo, se hubiera realizado
exclusivamente una vacunación de la población de alto riesgo. Ante todo eso, la
primera pregunta es por qué se recurre a un modelo matemático para avalar la
vacunación universal y no a ensayos clínicos aleatorizados que permitieran
establecer su efectividad y seguridad. Quizás se deba a que se produjo un
desmantelamiento de los ensayos clínicos pivotales de la vacunas cuando la
mortalidad en el grupo control y en el grupo vacunado no mostraba diferencias
apreciables y cuando los efectos secundarios graves de especial interés eran
más elevados en los que habían recibido la vacuna. La FDA publicó un informe en
el que se describía la mortalidad en los ensayos clínicos de Pfizer y Moderna
tras 6 meses de seguimiento. Se registraron 80 fallecimientos, de los que 42
ocurrieron en el grupo vacunado, 33 entre quienes recibieron placebo, y 5
defunciones en individuos que inicialmente recibieron placebo pero que, en un
momento dado, se les vacunó (aquí y aquí). Por tanto, los datos de los ensayos
clínicos aleatorizados no parecen apoyar la idea de que las vacunas sean
eficaces en la disminución de la mortalidad por cualquier causa, sino más bien
muestran indicios de lo contrario.
Si a
esto se añade que el seguimiento de los resultados de la vacunación y su
análisis coste-beneficio siguen pendientes de realizar, y que no se han puesto
en marcha estudios de recogida activa de daños potenciales por las vacunas, hay
suficientes razones para sospechar sin necesidad de ser especialmente
paranoico. Creo que se ha optado por recurrir a modelos matemáticos (y no a
estudios más sólidos) para intentar defender una determinada política. Se parte
de qué conclusiones se quieren alcanzar y se construyen modelos que las
garanticen. Cuando los datos reales y estudios serios no apoyan la efectividad
y seguridad de las vacunas, solo les quedan cubrir sus vergüenzas con modelos
matemáticos.
Queda la
pregunta de por qué Lancet ha publicado un estudio tan débil con un título tan
contundente. Existe serias sospechas que una de las finalidades era
proporcionar titulares y argumentos a los medios de comunicación del “régimen”.
Durante toda la pandemia hemos visto como era difícil distinguir entre la
propaganda y la literatura médica. La mayoría de las revistas médicas
importantes, muchas de las cuales tenían ya una trayectoria no precisamente
encomiable, han abandonado cualquier atisbo de integridad. Su selección de publicaciones y su línea editorial han sido claramente sesgadas para amoldarse a la
narrativa oficial de gobiernos, instituciones paragubernamentales y, por
supuesto, las corporaciones farmacéuticas. Lancet no ha sido una excepción sino
todo lo contrario. De hecho ha sido una revista escasamente crítica con el
papel de la industria farmacéutica y su tendencia a adulterar la evidencia
científica y manipular estudios en función de sus intereses económicos. Se
trata de un problema muy grave que ya fue denunciado por el editor de BMJ hace
más de 20 años (aquí). Sucumbir a los conflictos de interés desgraciadamente no
es algo excepcional y pienso que Lancet tampoco está a salvo de esa tentación.
Como otras revistas médicas, depende de la subvención directa o indirecta de
las corporaciones farmacéuticas, y en sus comités editorial y de asesores
encontramos personas que también mantienen estrechos vínculos con empresas con
intereses en el sector sanitario encabezadas por las grandes corporaciones de
la “Big Pharma”. No Debemos olvidar que tanto Lancet como el Imperial College,
autor institucional del modelo que se comenta, están financiados por la Fundación Bill y
Melinda Gates, fundación que ha participado activamente en el desarrollo de las
vacunas Covid19. Las revistas médicas y las organizaciones médicas
corporativas y profesionales han ligado su estabilidad económica y su
influencia al apoyo de la industria farmacéutica desde hace tiempo, una
tendencia creciente y que la pandemia ha servido para potenciar ya que los
criterios seguidos en la línea editorial se han relajado siempre en el sentido
de favorecer la versión oficial de los gobiernos. Por encima de la discusión
concreta sobre la gestión de la pandemia es necesario poner sobre la mesa los
peligros que representan la domesticación y captura de instituciones y
organizaciones científicas y profesionales.
José Ramón Loayssa
Médico de familia
Una crítica valiente y honesta, gracias, Joserra, y gracias Juan por publicarla. La comparto con poca esperanza de que algo cambie, pero con algo de esperanza al fin y al cabo...
ResponderEliminarEnhorabuena Joserra, crítico y contundente.
ResponderEliminarMuchas gracias al autor (José Ramón Loayssa) y al editor en este caso (Juan Simó).
ResponderEliminarDesgraciadamente no solemos disponer en las ciencias de la salud (y por tanto no utilizamos) una teoría de la causalidad (que es filosofía de las ciencias), como sí la tiene la Teoría del Cierre Categorial de las Ciencias, de Gustavo Bueno. En ésta, las relaciones de causalidad no son binarias (binaria es decir que Y es función de X), sino que son relaciones ternarias, es decir que Y es función de X, pero también de H. La H que viene de hýle (“materia” en griego), que remite a un esquema material de identidad, a una conexión material entre X e Y, como los engranajes que hay en un molino de agua, que son los que conectan la fuerza del agua (la “X”) con el movimiento de la piedra del molino (la “Y”). Cuando no hay conexión, lo que hay es co-relación. Por muy fuerte que sea la co-relación, mientras no se conozca la conexión material entre las variables, no puede establecerse la causalidad (el mecanismo, o mecanismo causal).
En Sanidad solemos atribuir causalidad a muchas de las asociaciones apotéticas (lejos), es decir que hay a lo lejos entre las variables X e Y (pues la causalidad es por conexión paratética).
Un modelo estadístico no es un experimento de científico natural, que es el que se necesita para establecer la causalidad material, como fruto de las operaciones de juntar o separar materiales corpóreos con las manos (o con aparatos que son una prolongación de las manos) para transformarlos en otros materiales corpóreos. Incluso las ciencias autorreferenciales (geometría, aritmética, topología…) tienen que conectar sus términos con referenciales corpóreos, cuando pretenden ser de aplicación para el mundo fenoménico en marcha.
Cuando un investigador construye es un modelo estadístico (que sustituye al experimento) mediante ordenadores (que simulan los aparatos de los científicos), puede obtener co-relaciones, pero nunca conexiones, nunca conexión causal (esta es la limitación de las ciencias del cambio climático). En el límite de la excelencia, las co-relaciones podrían alcanzar verdades alfa-2, pero nunca conexiones causales o verdades alfa-1. Con un poco más de precisión lo explicamos (creo yo) en este Punto de Vista: http://evalmed.es/2022/08/03/pv-de-que-clases-de-evidencias-o-verdades-hablamos/
Si el investigador está sesgado (como parece el caso de estos investigadores de este artículo de Lancet), es decir que ni siquiera tiende a la excelencia, lo máximo que podría obtener son verdades beta, o peor aún, apariencias falaces de presencia (de presencia de beneficio). Hacemos cursos y cursos para intentar que los médicos y demás profesionales sanitarios reduzcan su ilusión terapéutica, ilusión de validez e ilusión de control, y afortunadamente en no pocos casos lo conseguimos.
Hoy acabo de leer en El diario un publirreportaje sobre un modelo matemático usado, parece, por el gobierno para decidir el encierro. Ánimo. Aunque no se cómo seguís aguantando
ResponderEliminar