Rem a écrit:Le pb des 2 autres c’est qu’on peut trouver , e.g.
24 autres qui disent le contraire .
Est-on aussi d’accord?
Pourquoi est-ce que cela serait un problème?
Si un mec en Belgique recueille des données sur 8.000 patients qui le conduisent à dire que...
ne peut-il pas dire que selon lui c'est significatif de ce qu'il a observé lui? Si lui il trouve que 200 mg ça fait un effet est-ce contredit par le fait qu'
ailleurs 800mg en produit un effet différent? Idem en Italie sur 3000 patients.
Mais revenons à l'article dont tu parles, il correspond à une revue de littérature qui conduit à sa conclusion, basée sur 24 articles... bien évidemment les 2 précédemment cités n'en font pas partie et on n'a pas d'idée de "combien de patients" de "quelles doses" dans les uns et les autres (
du coup on ne voit pas s'il y aurait différentes façons d'utiliser un même produit), il est clair que cela est anticipé dans ce que déclarent les auteurs:
Crucial to the understanding of the conclusions drawn in this systematic review is an appreciation of its many limitations, which relate to both the search methodology and data analysis
Les auteurs savent bien ce qu'ils font et quels sont les problèmes sous-jacents là-dedans.
However, the predominant shortcoming of the review is its inability to completely disentangle the large differences in study design when making comparisons between different data sets from the included papers. Indeed, despite stressing the obvious invalidity of cutting across distinct sample sizes, baseline characteristics, drug doses, and individual limitations, a systematic review, by nature, does exactly that.
Ce qu'ils disent, dans ma façon de comprendre, est que c'est "gênant" de mettre ensemble des pommes et des poires, parce que les études qu'ils "compilent" ont des spécificités qui... qui font qu'elles sont différentes. En gros on met ensemble beaucoup de choses en espérant que s'il y a des biais, cela se compense, mais est-ce que ça marche?
Il y a là, je crois, bien plus matière à débat que sur Raoult
The gold standard of primary clinical research into the efficacy and safety of drugs administered to humans is the randomised controlled trial (RCT),
Cette affirmation là est... vraie, mais (selon moi, mais pas que moi) extrêmement problématique.
L'idée de répartition au hasard est logique d'un point de vue de la démonstration d'une preuve scientifique, mais appliquée à la médecine? Tu es médecin, ton patient, est un individu avec un cadre clinique, tu lui donnes un traitement au hasard? ou bien en fonction de son cadre clinique précis?
Si on sort un instant des raisonnements "gold standard" pour les médicaments, est-ce que la logique de la médecine ne va pas précisément à l'encontre de cela? tu fais comment pour ne pas prendre en compte ce que tu sais d'un patient? tu fais un truc dont tu sais que c'est dangereux uniquement pour lui parce que cela ne l'est pas dans le reste des cas? évidemment non...
moi je suis arrivé au deux articles précédents (les miens) au travers d'un divulgateur scientifique qui disait qu'en médecine, précisément, la définition de l'échantillon influence énormément les résultats et il ne voyait pas comment en sortir : parce que c'est ton cadre clinique qui "décide" la thérapie, et pas ton projet de recherche.
Je peux me tromper complètement, mais selon moi le débat est un débat de méthodologie de la science, pas de psychologie à 2 balles sur qui est ou n'est pas Raoult (ce qui a constitué une bonne partie des arguments pour ou contre en France).
Quelque part, dans cette pandémie, on a sommé la "science" de dire la vérité, indépendamment de comment elle fonctionne (la science!). Les choix de thérapie ont plus été mediatico-politiques que laissés aux praticiens... est-ce un bien, un mal, je ne sais pas... ce sont eux aussi des êtres humains, qui comme tout un chacun vont être influencés par les polémiques, la politique, leur âge, ce à quoi ils croient, l'état de la recherche, etc.
Mais dire que le débat n'existe pas, ou qu'il y a une vision unique, cela me parait singulier car cela revient à mal présenter les choses et
in fine porte à créer du doute auprès du public, et polariser les débats au niveau scientifique... deux phénomènes dont je ne vois pas ce qu'il peuvent apporter de positif.