Les posteurs les plus actifs de la semaine
Eric Wajnberg
 
mvergnat
 
zezima
 
Florent Aubry
 
c@ssoulet
 
fmachou
 
adri6666
 
Nik
 
Aeelim
 
Kouakakou
 


Statistiques bidonnées par l'INSERM?

Voir le sujet précédent Voir le sujet suivant Aller en bas

Statistiques bidonnées par l'INSERM?

Message par Miloux11 le Mer 11 Oct 2017 - 7:21

Bonjour, je suis viticulteur concerné par les débats actuels sur les produits phytosanitaires en particulier et souhaiterai avoir l'avis de pros sur la mise en cause des méthodologies statistiques d'études toxicologiques notamment de l'INSERM en particulier et des chercheurs français en général, traités ici d'ignares en la matière.

La mise en cause violente est lá:
.forumphyto.fr/2017/10/10/perturbateurs-endocriniens-une-etude-hautement-significative-des-troubles-du-comportement-des-chercheurs/

Le communiqué de l'INSERM est lá:
.presse.inserm.fr/en/prenatal-exposure-to-endocrine-disruptors-and-behavioral-problems-in-children/29573/

l'etude attaquée est publié lá dans Environemental Health Perspectives:
.ehp.niehs.nih.gov/ehp1314/

Ce serait une grande contribution que de clarifier le débat par un avis indépendant sur l'usage fallacieux ou pas des stats
Merci


Dernière édition par Miloux11 le Mer 11 Oct 2017 - 14:48, édité 1 fois

Miloux11

Nombre de messages : 3
Date d'inscription : 11/10/2017

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par Ayana le Mer 11 Oct 2017 - 9:50

Bonjour,

Merci pour cette question, c'est un sujet passionnant.
Alors oui, il y a un vrai problème en France mais partout dans le monde également en termes de formation méthodo et statistique pour la recherche. Le soucis (au risque de m'attirer les foudres de certains membres du forum), c'est que beaucoup de chercheurs en biologie, sciences humaines et sociales etc... pensent que leur niveau en stat est suffisant pour se débrouiller seuls sur leur étude. J'ai envie de leur répondre "est-ce que vous nous feriez confiance, nous statisticiens, pour faire des dissections?" Je pense que la réponse est claire: non.
Pendant 5 ans, j'ai organisé un séminaire de statistiques pour des étudiants en thèse, principalement à l'INSERM et à l'INRA, et j'ai été catastrophée par l'ampleur des mauvaises pratiques dans certaines disciplines: cela passe par des mauvais choix de tests statistiques, mais également des designs d'étude qui ne correspondent pas aux questions posées.
Outre le fait que l'INSERM n'a pas d'argent pour embaucher des statisticiens, beaucoup de chercheurs considèrent que ce serait superflu (...) Hélas, dans beaucoup de disciplines, les statisticiens sont vus comme des emmerdeurs (pardonnez mon langage), car forcément, après notre passage, il y a souvent beaucoup plus de travail à faire que prévu...
Il y a néanmoins énormément de recherches d'excellente qualité menées en France à l'INSERM et ailleurs. De plus, de plus en plus de journaux scientifiques font appel à des statisticiens pour évaluer la méthodologie des études soumises, donc j'ai bon espoir que les choses s'améliorent dans les années à venir. Dans l'article, parler de "l‘inculture statistique française" est un peu exagérée. La France est le seul pays au monde qui (depuis peu) donne les intervalles de confiance pour les sondages pré-élection et qui a un enseignement de stat au lycée et dans la plupart des cursus universitaires.

Pour revenir à l'article en question, certes, il y a un problème avec les stats, mais l'étude elle même est problématique: ils essaient de mettre en évidence une association entre une exposition mesurée une seule fois pendant la grossesse par un test d'urine avec des troubles du comportement des années plus tard... La moindre des choses eût été de mesurer le niveau d'exposition au cours du temps. En résumé, quelle que soit la méthode statistique utilisée, les données recueillies ne permettent en aucun cas de répondre à la question posée. Donc, certes, le fait de faire des dizaines de tests est une hérésie en soi, mais le design de l'étude est tout aussi foireux. Le problème ne vient donc pas juste des stats.
Cet article est très similaire à un autre (d'une équipe française également) qui a fait grand bruit récemment. Je suis bénévole pour une association qui s'occupe de reviewer les articles avant qu'ils ne soient publiés dans la presse (anglophone) et cet article est utilisé lors de la formation des nouveaux bénévoles, du fait des limites évidentes de l'étude.

En résumé: le design de l'étude ne permet pas de dire quoi que ce soit sur l'association entre perturbateurs endocriniens et troubles du comportement car les données récoltées ne sont pas adéquates, et certaines des différences observées ne peuvent être dues qu'au hasard. La question reste ouverte et il est temps d'avoir une étude très bien pensée.

Ayana
avatar
Ayana

Nombre de messages : 452
Localisation : Londres
Date d'inscription : 18/08/2009

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par Eric Wajnberg le Mer 11 Oct 2017 - 10:46

Je suis entièrement de l'avis d'Ayana. Il y a un déficit de connaissance en stat chez les biologistes aussi bien en France qu'à l'étranger. Et j'ai bati et mené des centaines d'heures de cours que je dispense dans le monde entier pour tenter de combler cette lacune.

Il y a une différence à faire, cependant, entre des calculs et des conclusions erronés en raison d'un manque de compétence, ou bien en raison d'un manque d’honnêteté. Je n'ai jamais pris un biologiste en flagrant délit de malhonnêteté (en tout pour ce qui concerne l'analyse statistique, pour le reste c'est une autre histoire..). Toutes les erreurs que j'ai pu constater dans ce domaine sont le fruit d'un manque de compétences, effectivement souvent venu de biologistes qui sont convaincus de leur expertise en la matière.. Je n'ai pas d'avis sur le cas discuté ici.

Quant aux service de communication des grands établissements (INSERM ou autre), je n'ai que très rarement vu des personnes qui ont vraiment du professionnalisme dans ce cas, et - faute de compétence scientifique - ils sont bien obligés de relayer ce que les scientifiques leur disent, ou de passer sous silence des informations qui pourraient avoir des effets délétères. Bref, le tableau n'est pas très brillant de ce côté non plus.

Il reste qu'il existe chez les biologistes (en France et à l'étranger) des personnes véritablement compétentes, et qui font du boulot correct et reconnu.

Eric.


Dernière édition par Eric Wajnberg le Mer 11 Oct 2017 - 12:08, édité 1 fois
avatar
Eric Wajnberg

Nombre de messages : 664
Date d'inscription : 14/09/2012

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par Miloux11 le Mer 11 Oct 2017 - 11:37

Merci pour ces éclairages tout á fait instructifs.
Sur le débat technique qu'introduit Philippe Stoop pour démonter l'étude , et l'usage qu'il est fait de la méthode FDR [False Discovery Rate], pouvez vous nous indiquer si il s'agit d'un vrai argument ou d'un artifice polémique ?

quand il écrit:'Les auteurs ont croisé 13 PE ou groupes de PE avec 7 indicateurs du comportement des garçons étudiés, soit au total 91 combinaisons. Ils ont réalisé 4 analyses différentes (tableaux 2 à 5 de l’article), soit au total 364 test statistiques.

Si l’ensemble des produits étudiés était inoffensif, les auteurs devraient donc obtenir 18 ou 19 résultats significatifs à 5% (car 5% de 364 = 18,2), et 36 ou 37 résultats significatifs à 10%. Or, si on fait le décompte sur les tableaux 2 à 5, c’est très exactement ce qui s’est passé ! (19 résultats significatifs à 5%, et 36 à 10%) ! Ils auraient donc obtenu exactement le même résultat, s’ils avaient travaillé sur des produits inoffensifs,''


Le même procédé de contre analyse avait été utilisé par P.Stoop pour questionner la crédibilité des études Glypho/OGM sur rats de G.Séralini qui défraient la chronique.
Dans le contexte toxicologique , n'y a t il pas un biais méthodologique á considérer entre des test sur animaux de labos ( population limitée, doses d'expo augmentées proche du létal, périodes courtes ) et étude épidémiologique sur une population large de femmes et enfants á des doses d'exposition réelles sur des durées longues?

Miloux11

Nombre de messages : 3
Date d'inscription : 11/10/2017

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par Eric Wajnberg le Mer 11 Oct 2017 - 12:13

Il s'agit d'une procédure connue, que l'on nomme "data dredging" (voir par exemple ici) ou "p-hacking" et qui peut effectivement fournir des résultats significatifs alors qu'il ne devrait pas y en avoir.

Eric.
avatar
Eric Wajnberg

Nombre de messages : 664
Date d'inscription : 14/09/2012

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par c@ssoulet le Mer 11 Oct 2017 - 14:42

Vous posez un probleme compliqué.

Déjà, il est normal, ou plutôt compréhensible, qu'il y ait de gros raccourcis - parfois osés - dans un communiqué de presse. Pour l'avoir déjà vécu, quand on a été très impliqué dans un projet, qu'on en connait tout le rationnel, toute l'interprétation, et qu'on maitrise la portée et surtout les limites de ce qui a été publié, lorsqu'on lit le communiqué de presse écrit par l'institution, on a une impression étrange. Et puis bon, on se dit que la com est une discipline qu'on ne maitrise pas et que dans le fond ce qui compte c'est le papier, alors on sourit et on laisse tomber.

Ensuite, l'exercice de la lecture d'article est terriblement complexe. Déjà, il faut savoir remettre à sa place la portée d'un simple papier. ce qui n'est pas si simple. Ensuite, il faut suffisamment maitriser la spécialité pour savoir le mettre à la bonne place dans le contexte général. Et enfin il faut se faire une idée du "niveau de preuve" qu'il apporte en fonction de la qualité de sa méthodologie, de sa réalisation et de son interprétation. Rien n'est irréprochable, tout ce qui est publié est criticable, donc se faire une idée de la "solidité" des arguments apportés est terriblement complexe.

Avancer et progresser en fonction de ce que l'on a réussi à produire, de la critique de son travail par ses pairs, et des travaux produits par d'autres est le coeur de la démarche scientifique. Cela implique que tout travail est critiquable et peut se faire démonter en 2 coups de cuillère à pot par ses détracteurs. Ou encenser par ses partisans.

En clair, quand les croyances, les à priori ou les sentiments prennent le dessus on y perd immédiatement son latin et on ne sait plus que croire.

Les forums, c'est le paradis des croyances, des à prioris et des avis à l'emporte pièce de spécialistes auto-proclammés grands vizirs de la spécialité. Surtout quand ils sont à la retraite (et donc complètement largués...). Faut faire gaffe aux forums.....

c@ssoulet

Nombre de messages : 752
Date d'inscription : 05/05/2008

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par Eric Wajnberg le Mer 11 Oct 2017 - 15:56

Il y a des personnes à la retraite sur ce forum?

Eric.
avatar
Eric Wajnberg

Nombre de messages : 664
Date d'inscription : 14/09/2012

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par gg le Mer 11 Oct 2017 - 18:49

Oui, moi !

J'espère que je ne me prends pas pour un grand vizir des stats Laughing

gg

Nombre de messages : 1931
Date d'inscription : 10/01/2011

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par c@ssoulet le Jeu 12 Oct 2017 - 5:12

:-)
Je me demandais si quelques uns allaient réagir.

c@ssoulet

Nombre de messages : 752
Date d'inscription : 05/05/2008

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par joyeux_lapin13 le Jeu 12 Oct 2017 - 13:43

Les forums, c'est le paradis des croyances, des à prioris et des avis à l'emporte pièce de spécialistes auto-proclammés grands vizirs de la spécialité. Surtout quand ils sont à la retraite (et donc complètement largués...). Faut faire gaffe aux forums.....

C'est tellement ça en prime Sad
avatar
joyeux_lapin13

Nombre de messages : 1859
Age : 33
Localisation : Mayotte
Date d'inscription : 21/04/2010

Voir le profil de l'utilisateur https://lemakistatheux.wordpress.com/

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par Florent Aubry le Ven 13 Oct 2017 - 8:18

Je suis entièrement d'accord avec c@ssoulet : la plupart du temps les critiques que l'on lit sur les forums, d'ailleurs comme la majorité des articles dits scientifiques des médias 'mainstream', qu'ils soient positifs ou négatifs d'ailleurs, relèvent plus de la méconnaissance totale des statistiques que de la critique scientifique et n'en déplaise aux contempteurs de l'Inserm, cet institut possède des équipes d'épidémiologistes reconnus (par exemple, l'équipe signataire de l'article en question). Donner un avis réel sur l'article en question demande une étude approfondie de cet article comme l'a souligné c@ssoulet et la critique demande aussi une expertise à la fois sur le domaine et sur les statistiques.

Question annexe : forumphyto est-ce un forum indépendant de l'agro-business ou roule-t-il pour lui ? Quelqu'un a-t-il la réponse ?

@Ayana :
La France est le seul pays au monde qui (depuis peu) donne les intervalles de confiance pour les sondages pré-élection
Le problème est que les intervalles de confiance que donnent les instituts de sondage sont faux car
- 1) ces intervalles de confiance supposent des réponses binaires (oui/non, d'accord/pas d'accord, j'adhère aux idées de X/je n'adhère pas à ses idées, je voterai pour X/je ne voterai pas pour X...) alors que généralement le choix est entre plus de deux possibilités (par exemple, dans le cas d'une élections) donc même en cas de tirage aléatoire de la population, les intervalles de confiances sont plus grands que ceux donnés par les instituts ;
- 2) ils supposent en outre un tirage aléatoire de la population alors que les sondages utilisent un approche par quotas marginaux (vu le nombre de variables de classement et le nombre de niveaux en croisant ces variables, et la taille de l'échantillon, il est impossible de faire autrement) qui suppose alors que les différents facteurs de classement sont indépendants ; donc, même sans les biais inhérents aux sondages dits d'opinion qui sont largement connus, l'échantillon n'est pas représentatif de la population.

Florent Aubry

Nombre de messages : 162
Date d'inscription : 02/11/2015

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par Miloux11 le Ven 13 Oct 2017 - 10:29

Florent Aubry a écrit:

Question annexe : forumphyto est-ce un forum indépendant de l'agro-business ou roule-t-il pour lui ? Quelqu'un a-t-il la réponse ?
''forumphyto'' n'a de forum que l'intitulé c'est une plateforme communicante dédiée aux réseaux sociaux et mise en place par le syndicat des producteurs de produits ''phytosanitaire'' qui s'est intiltulé : UIPP (Union des Industries pour la Protection des Plantes). En clair Bayer, Monsanto, Syngenta, Dupont les gros du business de la chimie et des semences industrielles très inquiets des investigations et classification des PE ( Perturbateurs Endocriniens)
cf:   .uipp.org/Actualites/Definition-des-Perturbateurs-Endocriniens-l-UIPP-s-inquiete-des-consequences-du-rejet-des-criteres-par-le-Parlement-Europeen

Vu la tournure des débats les produits chimiques phytosanitaires, pour contourner la connotation négative de ''pesticides'' se sont transformés récemment avec l'intégration avec les OGM en ''Bio-technologies'' c'est la même chose mais ça fait plus moderne.

Miloux11

Nombre de messages : 3
Date d'inscription : 11/10/2017

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par Ayana le Ven 13 Oct 2017 - 11:41

Le problème est que les intervalles de confiance que donnent les instituts de sondage sont faux car

Je suis d'accord, mais c'est mieux que rien. Les sondages sont loins d'être parfaits, mais depuis 2002, il faut reconnaître que les instituts on fait plutôt du bon travail, car la marge d'erreur a été assez faible.
Corrects ou non, donner les intervalles est un signe positif dans la tentative de développer l'esprit critique des lecteurs de ces sondages. Au lieu de dire "tenez, la vraie valeur c'est ça", l'idéee est de dire "on pense que c'est à peu près ca, mais bon regardez, ca peut fluctuer tout de même". A mon sens, un IC approximatif est mieux que pas d'IC du tout.

Ensuite, par rapport à l'article, voici un résumé (en vrac) des problèmes majeurs, identifiés en partie par des étudiants dans le cadre d'un TD:
- mesure de l'exposition à une seule reprise pour une mesure de l'outcome à 3 et 5 ans
- un grand nombre de facteurs de confusions potentiels n'ont pas été pris en compte, en particulier des facteurs liés aux troubles comportementaux des parents, monoparentalité...
- il n'y a pas de flow chart donc on n'a aucune idée du nombre de mères initialement recrutées et du nombre de perdus de vue (ce qui peut etre un probleme si ce nombre est associé à l'outcome ou au niveau d'exposition).
- le design de l'étude n'est pas du tout clair. Il semblerait qu'il s'agisse d'une étude rétrospective, ancillaire à la cohorte EDEN, mais ce n'est pas limpide. Si c'est ça, on ne peut pas exclure un "survival bias". Les enfants ne peuvent évalués que s'ils ont survécu jusqu'à 3 et 5 ans. Admettons que les expositions étudiées ici augmentent le risque de cancer chez les enfants, tous ceux qui sont décédés plus tôt sont exclus de l'étude.
- pour l'exposition "Women were asked to collect first morning urine void at home just before the prenatal study visit. If forgotten, urine collection was done at the hospital during the prenatal visit." Les concentrations dans les urines du matin et les autres ne sont pas les mêmes. Encore une source supplémentaire de bias
- l'outcome est self-reported!!! Ce n'est même pas un psychologue ou un pédopsychiatre qui évalue les troubles du comportement mais la mère "Behavior was assessed at 3.1 [standard deviation (SD): 0.1] and 5.6 (SD: 0.2) y using the Strength and Difficulties Questionnaire (SDQ) completed by the mother ". Curieuse de savoir si les résultats seraient reproductibles avec une évaluation faite par le père
- ensuite (de mieux en mieux), les auteurs reconnaissent qu'avoir une seule mesure d'exposition, c'est assez limité et veulent donc tenir compte de l'erreur de mesure dans leur analyse. Ils utilisent des valeurs de CCI d'une autre étude (sans aucune garantie que ce soit valide), et là on s'apercoit que ces CCI sont faibles! Ce qui veut dire que la détection des expositions est peu reproductible. Ce qui est un problème majeur ici... Ils essaient de s'en sortir en disant "A simulation study has shown that this a posteriori disattenuation approach led to unbiased effect estimates in the presence of exposure measurement error of classical type". Euh ok, c'est quoi le "classical type" exactement? Et est-ce que cette hypothèse est valide sur ces données?
- les quelques associations significatives sont quand même de faible ampleur "Maternal BPA was associated with the internalizing behavior score [IRR for a doubling in concentration: 1.06; 95% confidence interval (CI): 1.00, 1.12] and the peer relations problem (IRR: 1.11; 95% CI: 1.03; 1.20) score at 3 y. BPA was also associated with the externalizing behavior score (IRR: 1.05; 95% CI: 1.00, 1.11)"
- je n'ai pas trouvé de trace d'un quelconque enregistrement de l'étude, pas de protocole publié, et aucune référence au STROBE statement pour le reporting d'études observationnelles, malgré le fait que le journal dans lequel l'article est publié est deuxième dans sa catégorie (Toxicologie) en termes d'impact factor (pour ce que ça vaut)
- les analyses ajustées estiment des OR, qui sont des mesures d'associations non-collapsibles, donc ces OR conditionnels sont presque ininterprétables et surtout plus éloignés de 1 que le seraient les OR marginaux. Cela accroît artificiellement l'ampleur des différences (qui sont déjà plutôt faibles parmi les différences "significatives")
- certes, ce n'est qu'un détail, mais à cause des arrondis, les % totaux ne sont pas égaux à 100
- l'IMC est inclus comme variable continue, mais cela semble étonnant que la relation soit linéaire
- tous les coefficients de corrélations sont donnés sans intervalle de confiance
-1ere phrase de la conclusion:"Several phenol and phthalate biomarkers were associated with increased scores on the SDQ subscales at 3 and/or 5 y. " Bel exemple pour les étudiants des termes à bannir en rédaction scientifique.
- La conclusion est du "cherry-picking", se focalisant sur les quelques différences significatives et occultant les dizaines de comparaisons non significatives.

Evidemment, la liste est non-exhaustive, mais je trouve que l'analyse critique des étudiants est plutôt pertinente

Ayana
avatar
Ayana

Nombre de messages : 452
Localisation : Londres
Date d'inscription : 18/08/2009

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par c@ssoulet le Ven 13 Oct 2017 - 13:02

Il faut quand même tenir compte que ca été publié dans un journal avec impact factor à 9 et quelques. Donc ca a été très correctement reviewé. Et publié malgré les faiblesses méthodo.

J'ai pas lu l'article mais le "niveau" du journal qui l'a accepté compte aussi pour se faire une première idée. Après avoir lu en diagonale l'analyse des étudiants d'ayana je dirais que ca rentre probablement dans la catégorie des articles très critiquables mais qui sont les seuls ou les premiers à aborder une thématique quasi-vierge.

C'est pas une horreur, beaucoup de sujets commencent a etre défrichés comme ca. Il faut tout simplement voir les premiers résultats comme de simples indications sur des pistes qui mériteraient d’être approfondies. En tout cas je suis quasi-sur que les spécialistes de la question le voient comme ca.

Après, que les forums s'enflamment à démontrer que tout ca n'est pas très solide, ca relève de la lapalissade et montre simplement que la plupart des intervenants sur ces trucs ne connaissent rien à la démarche scientifique et sont là pour la polémique et/ou imposer leurs certitudes.

Une simple petite question à poser aux jusqu'au boutistes de la perfection méthodologique : vaut il mieux
- défricher un sujet en 1 ou 2 ans en faisant du rétrospectif sur une cohorte existante, avec tout ce que cela entraine comme biais et critiques ?
- essayer de monter une étude prospective bien branlée, galérer 5 ans à trouver le budget, passer des années à suivre la cohorte, 2 ans à l'interpréter / publier et sortir les premières indications (probablement elles aussi un peu critiquables...) dans une quinzaine d'années ?

Réponse : les deux mon Général ! Mais ce principe implique qu'il faut accepter les résultats de la première tant que le reste n'est pas sorti ! Tout en sachant y mettre les bémols et points d'interrogation indispensables.

c@ssoulet

Nombre de messages : 752
Date d'inscription : 05/05/2008

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par Ayana le Ven 13 Oct 2017 - 14:04

Je suis tout à fait d'accord pour défricher le terrain, tant que les auteurs sont honnêtes en discussion/conclusion. Ici les limites ne sont pas franchement annoncées. Le problème est bien là. L'abstract vend du rêve, et quand on lit le détail on se rend compte qu'en fait, l'étude est négative. Pourquoi n'est-ce pas annoncé d'emblée? "Nous avons mené une étude retrospective blabla et nous n'avons pas pu mettre en évidence une association entre [...]". Certaines limites méthodos sont "acceptables" (le survival bias est inévitable dans ce type d'étude), mais d'autres sont plus dérangeantes.
Au final, le même contenu présenté honnêtement et en identifiant un ou deux outcomes plutôt que 350 aurait conduit a un article bien meilleur. C'est dommage, car cette équipe est réputée.

Et quel que soit le type de recherche, ça ne mange pas de pain d'utiliser les guidelines en vigueur pour le reporting. Je suppose que ça, c'est la responsabilité des journaux, qui devraient l'imposer.

Enfin, l'impact factor comme indicateur de fiabilité et un peu limité. Le NEJM qui doit être autour de 70 est réputé pour être assez peu regardant sur les stats.

Ayana
avatar
Ayana

Nombre de messages : 452
Localisation : Londres
Date d'inscription : 18/08/2009

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par Nik le Lun 16 Oct 2017 - 7:17

Il faut quand même tenir compte que ca été publié dans un journal avec impact factor à 9 et quelques. Donc ca a été très correctement reviewé. Et publié malgré les faiblesses méthodo.
Rolling Eyes Comment dire...peut-on réellement établir un lien entre IF et qualité de la review ? Avec ce qui a été dit, et que je partage, sur la sensibilisation des biologistes aux statistiques, comment peut-on croire en la qualité des review ? A ces problèmes de compétences s'ajoutent les délais demandés par les éditeurs qui garantissent une seule chose : un travail fait à la va-vite. Quand quelqu'un me dit qu'il a fait une review en 3 semaines tout en maintenant ses activités du quotidien en parallèle, je n'y crois pas notamment pour un papier où il y a des stats. Je finirai disant que ceux qui font les review pour les journaux à IF 2 sont aussi ceux qui les font pour les IF à 5+

Nik

Nik

Nombre de messages : 1549
Date d'inscription : 23/05/2008

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par Florent Aubry le Lun 16 Oct 2017 - 9:24

En faisant une recherche sur PubMed des articles liés à l'article ici dénoncé, on trouve :
- 95 articles dont 15 publiés depuis le début de 2017 (en comptant le présent article), 19 en 2016 et seulement 24 avant 2014 (1 en 2005, 3 en 2009 puis à partir de 2011) ;
- un seul article de qualifié de revue (review) par PubMed, l'article dont il est question dans ce fil de discussion.

- Quand on lit l'article, on sait dès le début que c'est une étude rétrospective à partir d'une cohorte qui a plus de 10 ans et qui n'était pas destinée à cet usage : première phrase de la section Population and Method
The study population consisted of a subsample of mother–son pairs from the EDEN (study of pre- and early postnatal determinants of the child’s development and health) cohort that recruited pregnant women in the obstetric departments of Nancy and Poitiers University hospitals (France) between February 2003 and January 2006.
- Les études rétrospectives sont connues pour être exploratoires afin de déterminer si cela a un sens de monter une véritable étude prospective sur le sujet et connus aussi pour avoir aussi des faiblesses
- L'étude bibliographique sue PubMed montre que le sujet est récent (de moins de 10 ans)

P.S. : Je n'ai trouvé aucune référence de publication sur le sujet (les OGM) d'un P. Stoop sur PubMed

Florent Aubry

Nombre de messages : 162
Date d'inscription : 02/11/2015

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Statistiques bidonnées par l'INSERM?

Message par Contenu sponsorisé


Contenu sponsorisé


Revenir en haut Aller en bas

Voir le sujet précédent Voir le sujet suivant Revenir en haut

- Sujets similaires

 
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum