mardi, 28 novembre 2017 17:18

 

Une crise de reproductibilité de la science ? Non, c’est bien pire !

 

 


File 20171122 6020 ytxl5t.jpg?ixlib=rb 1.1

Les résultats des recherches de cette chercheuse pourront-ils être reproduits par une autre équipe ?
J. Barande/Flickr, CC BY-SA

 

Erwan Lamy, ESCP Europe

 

La science serait en crise, une « crise de reproductibilité ». Ses fondations statistiques seraient gravement fragilisées, et c’est tout l’édifice qui serait menacé. Mais cette inquiétude repose sur une confusion entre ce qui est statistiquement valide et ce qui est scientifiquement valide. Et cette confusion est beaucoup plus grave.

 

 

Reproductibilité et statistiques : petits rappels

 

 

La reproductibilité est un aspect essentiel du travail scientifique. Un résultat isolé ne signifie pas grand-chose tant que d’autres scientifiques ne parviennent pas à reproduire ce résultat de leur côté. Cela vaut évidemment pour les pratiques expérimentales (il faut alors que l’expérience puisse être reproduite), mais cela vaut plus généralement pour les pratiques scientifiques qui produisent des résultats statistiques (c’est notamment le cas dans les sciences humaines). De manière schématique, les calculs statistiques servent à montrer que ce que l’on a observé n’est pas l’effet du hasard. Ce sont ces calculs qui doivent pouvoir être reproduits.

 

 

L’instrument statistique le plus communément employé par les scientifiques est la « p-value ». Cette p-value est la probabilité que, sous certaines conditions (cruciales pour faire une analyse statistique sérieuse, mais qu’il est inutile de discuter ici), l’intérêt de ce que l’on observe, le fait que cela s’écarte de ce à quoi on s’attendait, pourraient être le fait du hasard.

 

 

Lorsque la p-value est trop grande, les scientifiques considèrent que le risque que leurs observations soient dues au hasard est trop grand pour qu’elles puissent être prises au sérieux. Ce que veut dire « trop grand » est défini par un seuil que choisissent les scientifiques. En dessous de ce seuil, on considère que le risque d’être trompé par le hasard est acceptable.

 

 

On parle alors de résultat « statistiquement significatif ». Ce seuil varie selon les domaines. Dans le domaine des sciences humaines et sociales, il est souvent de 5 %.

 

 

Un problème avec la « p-value »

 

 

Récemment, des chercheurs ont tiré la sonnette d’alarme, dans un article publié dans Nature Human Behaviour. L’utilisation de cette méthode serait gravement défectueuse. Les résultats statistiques réalisés d’après elle seraient beaucoup trop peu reproductibles. Autrement dit, lorsque les scientifiques refont les travaux de leurs collègues (en reproduisant une expérience, ou en refaisant une enquête), et qu’ils refont également les calculs statistiques, ils se retrouvent trop souvent avec des p-value qui ne sont plus sous le seuil de significativité, alors qu’elles l’étaient dans les travaux originaux. C’est suspect.

 

 

À entendre ces chercheurs inquiets, et de nombreux autres auteurs, cette crise de reproductibilité des résultats statistiques serait une crise de la science. Dans la course actuelle à la publication pour la publication (ce qui est déjà en soi une perversion complète de la publication scientifique, mais c’est une autre histoire), les scientifiques auraient tendance à ne plus être trop regardants sur la rigueur de leurs calculs statistiques, et la solidité de leurs découvertes s’en ressentirait.

 

 

Ils auraient tendance à trop relâcher les exigences statistiques pour prouver la réalité de ces découvertes. Avec un seuil de 5 %, ils s’exposeraient à trop de problèmes de reproductibilité. La réponse serait alors d’augmenter ces exigences statistiques, en abaissant le seuil de significativité. C’est le sens de l’article publié dans Nature Human Behaviour, qui suggère d’adopter un seuil sensiblement plus faible (0,5 %) dans les disciplines employant généralement un seuil de 5 %.

 

 

Confusion entre résultats « scientifiques » et « statistiques »

 

 

Mais s’inquiéter d’une crise de reproductibilité de la science n’a de sens que si l’on parle de résultat « scientifique » au premier résultat statistiquement significatif venu, que si l’on considère qu’un résultat statistique significatif est toujours un résultat « scientifique ». Ce n’est pas faire le procès de la statistique de dire à quel point une telle association est douteuse. C’est au contraire rappeler que l’analyse statistique n’est pas un travail mécanique.

 

 

« Significatif » ne veut pas dire « démontré ». Un résultat scientifique, une découverte, ou la simple validation d’une hypothèse n’est pas déterminée par la significativité d’un résultat statistique. C’est l’Association Américaine de Statistique qui rappelle elle-même que « les conclusions scientifiques ne devraient pas être basées seulement sur le fait qu’une p-value soit plus petite ou plus grande qu’un certain seuil ». Un résultat « statistiquement significatif » ne vaut donc pas démonstration pour autant, il ne s’agit que de l’indice (certes stimulant) d’une possible trouvaille.

 

 

Les physiciens des particules, qui ont des exigences statistiques autrement plus importantes qu’un seuil de p-value à 0,5 %, ne crient pas à la découverte dès que ces exigences sont satisfaites. Ils savent d’expérience qu’ils s’exposeraient à de lourdes déconvenues, avec parfois des retombées médiatiques embarrassantes.

 

 

« Significatif », désolé pour le truisme, veut simplement dire qu’une observation « signifie » quelque chose, qu’il y a probablement quelque chose à en dire. Mais ce que signifie ce quelque chose, c’est tout le problème. C’est en fait ici que le travail scientifique commence vraiment, quand il s’agit de discuter le résultat statistique, et de l’interpréter.

 

 

Est-on vraiment tombé sur une trouvaille ? Est-ce un artefact ? Que révèle le résultat statistique du monde naturel (ou social, ou de l’esprit humain) ? C’est en oubliant toute cette dimension interprétative des résultats statistiques que l’on fait apparaître une « crise de reproductibilité de la science ». Cet oubli conduit à confondre résultats statistiques et résultats scientifiques, et donc à s’inquiéter de la reproductibilité de résultats abusivement présentés comme « scientifiques », alors qu’ils ne sont que des résultats statistiques, certes significatifs mais encore bien fragiles. C’est de ce problème qu’il faudrait se préoccuper.

 

 

Le problème n’est pas technique

 

 

C’est peut-être un problème éthique : un manque d’honnêteté intellectuelle, notamment dans l’usage cavalier de certains verbes comme « prouver » ou « démontrer », suscité par une excessive pression à la publication. Ou une sorte de paresse rassurante conduisant à penser qu’il suffit d’avoir un résultat statistiquement significatif pour prétendre avoir fait œuvre de scientifique.

 

 

C’est peut-être un problème conceptuel : la réduction du travail scientifique à la réalisation d’un calcul (voire à l’emploi quasi automatisé de logiciels spécialisés), peut-être sous l’effet d’une bureaucratisation croissante conduisant à formaliser toujours plus ce travail scientifique. Sous cette conception « intellectualiste » de la science, le savoir-faire scientifique ne consisterait plus qu’à savoir appliquer des règles méthodologiques du genre : p-value < seuil = « démontré », p-value > seuil = « non démontré ».

 

 

Quoi qu’il en soit, que le problème soit éthique, conceptuel, ou une combinaison des deux, la solution suggérée par les auteurs de l’article de Nature Human Behaviour est vaine. C’est une réponse technique à un problème qui ne l’est pas. On pourra baisser autant qu’on veut le seuil de significativité, cela ne réglera pas ce problème. Si les chercheurs continuent à considérer qu’il suffit d’obtenir un résultat statistique significatif pour avoir un résultat scientifique (et donc pour avoir une publication), ils ne partiront plus à la chasse à la p-value de 5 %, mais à celle de 0,5 %. Et ce ne sera pas trop difficile d’en trouver, qui ne seront pas moins douteuses (au mieux, ça compliquera un peu la chasse).

 

 

Tant que l’on continuera à considérer (ou à faire semblant de croire) qu’un résultat statistiquement significatif est un résultat scientifique (et donc la justification d’une publication), on s’exposera à des déconvenues.

 

 

The ConversationCe qu’il faudrait, c’est plutôt revenir à une conception de la science qui ne soit plus intellectualiste, plus mécaniste, et qui remette au goût du jour les vertus intellectuelles qui devraient être au cœur de la science. Mais il ne servirait strictement à rien de faire la morale. Comme tout le monde, les chercheurs répondent à des incitations. La solution à ce problème se situe fondamentalement à un autre niveau : au niveau des politiques de la recherche, et de la manière dont la société entend organiser la science. Aujourd’hui, il y a de bonnes raisons de penser que cette manière d’organiser la science encourage une conception viciée du travail scientifique. Et c’est beaucoup plus grave qu’un problème de p-value.

 

 

Erwan Lamy, Associate professor, ESCP Europe

 

 

La version originale de cet article a été publiée sur The Conversation.

 

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
mardi, 28 novembre 2017 17:07

Le numéro 130 de la revue est disponible dans vos centre de documentations ou en ligne sur CAIRN:

La page Cairn ICI

L'éditorial ICI

Bonne lecture

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
lundi, 06 novembre 2017 17:48

Pour la deuxième année, l'Association Française des Infirmiers(ères) en Cancérologie (AFIC) propose une bourse de 10000 euros pour soutenir un projet de recherche infirmière en cancérologie.

Les informations pour concourir se trouvent sur le site de l'association: ICI

Attention, les projets doivent être soumis avant le 12/01/2018

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
lundi, 06 novembre 2017 17:41

Le DIU Recherche qualitative en santé démarre ses enseignements en décembre. Il reste encore quelques places.

Pour plus d'information: ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
dimanche, 01 octobre 2017 14:27

Le n° 129 de la revue est disponible aux abonnés mais aussi sur le site de la revue sur CAIRN ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
mercredi, 17 septembre 2014 00:00

L' A.R.S.I (Association de Recherche en Soins Infirmiers) est une association (loi 1901) sans but lucratif. Elle vous propose une démarche de réflexion action au service de la recherche en soins infirmiers. Ce site s'adresse aux professionnels de santé et étudiants intéressés par la recherche en soins. Nous n'avons aucun financement extérieur pour la conception, les mises à jour et l'hébergement de notre site web. Ce site est entièrement financé par les fonds propres de l'association. Ceux-ci sont générés par les activités de l'association : adhésions, formations, ouvrage...

Le site de l'ARSI n’affiche pas de publicité et ne reçoit pas de fonds publicitaires.

Les objectifs de l'ARSI :

  • Développer, soutenir, diffuser la recherche
  • Former à la recherche
  • Collaborer à la recherche en France, en Europe et au niveau international.

Les objectifs de ce site sont de présenter l'association, ses missions et activités, et de diffuser des informations relatives à la recherche en soins infirmiers.

Les informations fournies sur le site de l'ARSI sont destinées à améliorer, non à remplacer, la relation directe entre le visiteur du site et les professionnels de santé.

Vous pouvez nous contacter

  • Par téléphone au +33 (0) 9 81 96 53 96 le mardi de 10h30 à 12h, le mercredi de 13h à 16h et le vendredi de 10h30 à 12h
  • Par fax: 09 82 62 21 56
  • Par mail via l'élément de menu "contact"
  • Par pli postal à l'adresse ci-dessous :

Association de Recherche en Soins Infirmiers

109, Rue Negreneys
31200 TOULOUSE
FRANCE

ISSN 2271- 8362

Pour adhérer à L'ARSI ou renouveler votre adhésion, Cliquer ici

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
mardi, 25 juillet 2017 16:20

Le programme du DIU Recherche Qualitative en Santé pour l'année 2017/2018 est désormais disponible ICI

L'inscription devrait être possible à partir de début aout ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
dimanche, 28 mai 2017 15:36

Le catalogue de formation pour l'année 2018 est désormais disponible ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
jeudi, 28 août 2014 00:00

 

Agence nationale du DPC: Association de Recherche en Soins Infirmiers enregistrée sous le n° 3101

 

 

Le projet de formation de l'A.R.S.I (Association de Recherche en Soins Infirmiers) est essentiellement construit sur le développement des méthodes d'analyse et de recherche qui permettent une maîtrise de la pratique et l'amélioration de la qualité des prestations. Le projet de formation englobe aussi l'enseignement des méthodologies de recherche, l'élaboration et la rédaction des travaux. Il s'adresse à tous les professionnels de santé souhaitant développer leurs capacités professionnelles.

Toutes les formations sont programmées sur 7 heures par jour.

Toutes les formations font l'objet d'une évaluation réalisée par les formateurs à l'issue de la formation. Après négociation avec l'organisme, il peut être proposé une évaluation à distance.

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
mardi, 25 juillet 2017 16:20

Le programme du DIU Recherche Qualitative en Santé pour l'année 2017/2018 est désormais disponible ICI

L'inscription devrait être possible à partir de début aout ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
dimanche, 28 mai 2017 15:36

Le catalogue de formation pour l'année 2018 est désormais disponible ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
jeudi, 28 août 2014 00:00

 

Agence nationale du DPC: Association de Recherche en Soins Infirmiers enregistrée sous le n° 3101

 

 

Le projet de formation de l'A.R.S.I (Association de Recherche en Soins Infirmiers) est essentiellement construit sur le développement des méthodes d'analyse et de recherche qui permettent une maîtrise de la pratique et l'amélioration de la qualité des prestations. Le projet de formation englobe aussi l'enseignement des méthodologies de recherche, l'élaboration et la rédaction des travaux. Il s'adresse à tous les professionnels de santé souhaitant développer leurs capacités professionnelles.

Toutes les formations sont programmées sur 7 heures par jour.

Toutes les formations font l'objet d'une évaluation réalisée par les formateurs à l'issue de la formation. Après négociation avec l'organisme, il peut être proposé une évaluation à distance.

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
mardi, 28 novembre 2017 17:18

 

Une crise de reproductibilité de la science ? Non, c’est bien pire !

 

 


File 20171122 6020 ytxl5t.jpg?ixlib=rb 1.1

Les résultats des recherches de cette chercheuse pourront-ils être reproduits par une autre équipe ?
J. Barande/Flickr, CC BY-SA

 

Erwan Lamy, ESCP Europe

 

La science serait en crise, une « crise de reproductibilité ». Ses fondations statistiques seraient gravement fragilisées, et c’est tout l’édifice qui serait menacé. Mais cette inquiétude repose sur une confusion entre ce qui est statistiquement valide et ce qui est scientifiquement valide. Et cette confusion est beaucoup plus grave.

 

 

Reproductibilité et statistiques : petits rappels

 

 

La reproductibilité est un aspect essentiel du travail scientifique. Un résultat isolé ne signifie pas grand-chose tant que d’autres scientifiques ne parviennent pas à reproduire ce résultat de leur côté. Cela vaut évidemment pour les pratiques expérimentales (il faut alors que l’expérience puisse être reproduite), mais cela vaut plus généralement pour les pratiques scientifiques qui produisent des résultats statistiques (c’est notamment le cas dans les sciences humaines). De manière schématique, les calculs statistiques servent à montrer que ce que l’on a observé n’est pas l’effet du hasard. Ce sont ces calculs qui doivent pouvoir être reproduits.

 

 

L’instrument statistique le plus communément employé par les scientifiques est la « p-value ». Cette p-value est la probabilité que, sous certaines conditions (cruciales pour faire une analyse statistique sérieuse, mais qu’il est inutile de discuter ici), l’intérêt de ce que l’on observe, le fait que cela s’écarte de ce à quoi on s’attendait, pourraient être le fait du hasard.

 

 

Lorsque la p-value est trop grande, les scientifiques considèrent que le risque que leurs observations soient dues au hasard est trop grand pour qu’elles puissent être prises au sérieux. Ce que veut dire « trop grand » est défini par un seuil que choisissent les scientifiques. En dessous de ce seuil, on considère que le risque d’être trompé par le hasard est acceptable.

 

 

On parle alors de résultat « statistiquement significatif ». Ce seuil varie selon les domaines. Dans le domaine des sciences humaines et sociales, il est souvent de 5 %.

 

 

Un problème avec la « p-value »

 

 

Récemment, des chercheurs ont tiré la sonnette d’alarme, dans un article publié dans Nature Human Behaviour. L’utilisation de cette méthode serait gravement défectueuse. Les résultats statistiques réalisés d’après elle seraient beaucoup trop peu reproductibles. Autrement dit, lorsque les scientifiques refont les travaux de leurs collègues (en reproduisant une expérience, ou en refaisant une enquête), et qu’ils refont également les calculs statistiques, ils se retrouvent trop souvent avec des p-value qui ne sont plus sous le seuil de significativité, alors qu’elles l’étaient dans les travaux originaux. C’est suspect.

 

 

À entendre ces chercheurs inquiets, et de nombreux autres auteurs, cette crise de reproductibilité des résultats statistiques serait une crise de la science. Dans la course actuelle à la publication pour la publication (ce qui est déjà en soi une perversion complète de la publication scientifique, mais c’est une autre histoire), les scientifiques auraient tendance à ne plus être trop regardants sur la rigueur de leurs calculs statistiques, et la solidité de leurs découvertes s’en ressentirait.

 

 

Ils auraient tendance à trop relâcher les exigences statistiques pour prouver la réalité de ces découvertes. Avec un seuil de 5 %, ils s’exposeraient à trop de problèmes de reproductibilité. La réponse serait alors d’augmenter ces exigences statistiques, en abaissant le seuil de significativité. C’est le sens de l’article publié dans Nature Human Behaviour, qui suggère d’adopter un seuil sensiblement plus faible (0,5 %) dans les disciplines employant généralement un seuil de 5 %.

 

 

Confusion entre résultats « scientifiques » et « statistiques »

 

 

Mais s’inquiéter d’une crise de reproductibilité de la science n’a de sens que si l’on parle de résultat « scientifique » au premier résultat statistiquement significatif venu, que si l’on considère qu’un résultat statistique significatif est toujours un résultat « scientifique ». Ce n’est pas faire le procès de la statistique de dire à quel point une telle association est douteuse. C’est au contraire rappeler que l’analyse statistique n’est pas un travail mécanique.

 

 

« Significatif » ne veut pas dire « démontré ». Un résultat scientifique, une découverte, ou la simple validation d’une hypothèse n’est pas déterminée par la significativité d’un résultat statistique. C’est l’Association Américaine de Statistique qui rappelle elle-même que « les conclusions scientifiques ne devraient pas être basées seulement sur le fait qu’une p-value soit plus petite ou plus grande qu’un certain seuil ». Un résultat « statistiquement significatif » ne vaut donc pas démonstration pour autant, il ne s’agit que de l’indice (certes stimulant) d’une possible trouvaille.

 

 

Les physiciens des particules, qui ont des exigences statistiques autrement plus importantes qu’un seuil de p-value à 0,5 %, ne crient pas à la découverte dès que ces exigences sont satisfaites. Ils savent d’expérience qu’ils s’exposeraient à de lourdes déconvenues, avec parfois des retombées médiatiques embarrassantes.

 

 

« Significatif », désolé pour le truisme, veut simplement dire qu’une observation « signifie » quelque chose, qu’il y a probablement quelque chose à en dire. Mais ce que signifie ce quelque chose, c’est tout le problème. C’est en fait ici que le travail scientifique commence vraiment, quand il s’agit de discuter le résultat statistique, et de l’interpréter.

 

 

Est-on vraiment tombé sur une trouvaille ? Est-ce un artefact ? Que révèle le résultat statistique du monde naturel (ou social, ou de l’esprit humain) ? C’est en oubliant toute cette dimension interprétative des résultats statistiques que l’on fait apparaître une « crise de reproductibilité de la science ». Cet oubli conduit à confondre résultats statistiques et résultats scientifiques, et donc à s’inquiéter de la reproductibilité de résultats abusivement présentés comme « scientifiques », alors qu’ils ne sont que des résultats statistiques, certes significatifs mais encore bien fragiles. C’est de ce problème qu’il faudrait se préoccuper.

 

 

Le problème n’est pas technique

 

 

C’est peut-être un problème éthique : un manque d’honnêteté intellectuelle, notamment dans l’usage cavalier de certains verbes comme « prouver » ou « démontrer », suscité par une excessive pression à la publication. Ou une sorte de paresse rassurante conduisant à penser qu’il suffit d’avoir un résultat statistiquement significatif pour prétendre avoir fait œuvre de scientifique.

 

 

C’est peut-être un problème conceptuel : la réduction du travail scientifique à la réalisation d’un calcul (voire à l’emploi quasi automatisé de logiciels spécialisés), peut-être sous l’effet d’une bureaucratisation croissante conduisant à formaliser toujours plus ce travail scientifique. Sous cette conception « intellectualiste » de la science, le savoir-faire scientifique ne consisterait plus qu’à savoir appliquer des règles méthodologiques du genre : p-value < seuil = « démontré », p-value > seuil = « non démontré ».

 

 

Quoi qu’il en soit, que le problème soit éthique, conceptuel, ou une combinaison des deux, la solution suggérée par les auteurs de l’article de Nature Human Behaviour est vaine. C’est une réponse technique à un problème qui ne l’est pas. On pourra baisser autant qu’on veut le seuil de significativité, cela ne réglera pas ce problème. Si les chercheurs continuent à considérer qu’il suffit d’obtenir un résultat statistique significatif pour avoir un résultat scientifique (et donc pour avoir une publication), ils ne partiront plus à la chasse à la p-value de 5 %, mais à celle de 0,5 %. Et ce ne sera pas trop difficile d’en trouver, qui ne seront pas moins douteuses (au mieux, ça compliquera un peu la chasse).

 

 

Tant que l’on continuera à considérer (ou à faire semblant de croire) qu’un résultat statistiquement significatif est un résultat scientifique (et donc la justification d’une publication), on s’exposera à des déconvenues.

 

 

The ConversationCe qu’il faudrait, c’est plutôt revenir à une conception de la science qui ne soit plus intellectualiste, plus mécaniste, et qui remette au goût du jour les vertus intellectuelles qui devraient être au cœur de la science. Mais il ne servirait strictement à rien de faire la morale. Comme tout le monde, les chercheurs répondent à des incitations. La solution à ce problème se situe fondamentalement à un autre niveau : au niveau des politiques de la recherche, et de la manière dont la société entend organiser la science. Aujourd’hui, il y a de bonnes raisons de penser que cette manière d’organiser la science encourage une conception viciée du travail scientifique. Et c’est beaucoup plus grave qu’un problème de p-value.

 

 

Erwan Lamy, Associate professor, ESCP Europe

 

 

La version originale de cet article a été publiée sur The Conversation.

 

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
lundi, 06 novembre 2017 17:48

Pour la deuxième année, l'Association Française des Infirmiers(ères) en Cancérologie (AFIC) propose une bourse de 10000 euros pour soutenir un projet de recherche infirmière en cancérologie.

Les informations pour concourir se trouvent sur le site de l'association: ICI

Attention, les projets doivent être soumis avant le 12/01/2018

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
lundi, 06 novembre 2017 17:41

Le DIU Recherche qualitative en santé démarre ses enseignements en décembre. Il reste encore quelques places.

Pour plus d'information: ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
lundi, 25 septembre 2017 21:43

Une conférence est organisé les 18, 19 et 20 Décembre 2017  à la Maison des Sciences de l'Homme Paris Nord.

Les droits des patients en santé mentale face aux obligations légales de soins, le vécu des soignants face à ces situations font partie des sujets abordés;

L'appel à contribution se termine aujourd'hui mais vous pourrez consulter l'argumentaire en le téléchargeant ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
mardi, 25 juillet 2017 16:26

Le GIRCI Est lance un appel à projet dans le cadre de la recherche paramédicale.

Tous les renseignements ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
lundi, 06 novembre 2017 17:41

Le DIU Recherche qualitative en santé démarre ses enseignements en décembre. Il reste encore quelques places.

Pour plus d'information: ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
dimanche, 09 octobre 2016 21:57

Le Diplôme Inter Universitaire de recherche qualitative en santé est accessible pour l'année 2016/2017.

Les informations sont disponibles ICI.

La plaquette d'information est téléchargeable ICI.

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
dimanche, 22 mai 2016 21:51

L’université  de  Limoges  propose  un  DU  en  «  Sciences  Infirmières  et Recherche  Paramédicale  »

Vous trouverez le programme et les condtions d'inscription ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
mardi, 07 juillet 2015 20:58

Un DU de recherche Qualitative est proposé en 2016 par la Faculté de Médecine de Montpellier-Nimes en partenariat avec le laboratoire Epsilon, le département de Médecine Générale et le RIFREQ.

La présentation de la formation peut être téléchargé ICI

Le programme de la formation peut être téléchargé ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
dimanche, 22 mars 2015 08:01

L'université de Haute Alsace propose un Master en Education Thérapeutique

Les informations pratiques et Le programme peuvent être téléchargés ICI

 

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
mardi, 25 juillet 2017 16:13

La liste des lettres d'intention retenues dans le cadre du PHRIP est disponible ICI

Ceci ne constitue bien sur qu'une pré sélection.

La date et le site d'envoi des projets complets est également mentionné sur la page

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
samedi, 10 décembre 2016 12:27

Les conflits d'intérêts sont l'une des causes de décrédibilisation des travaux de recherche.

Vous trouverez ci-dessous des liens vers plusieurs articles:

 

Trois articles de Rémy Slama, directeur de recherche à l'Inserm.

Ces articles, parus en juin 2016, ont été mis à jour au début de ce mois:

Premier article: "Comment les conflits d’intérêts interfèrent avec la science"

Deuxième article: " Conflits d'intérêt: oui, la recherche peut s'en débarrasser"

Troisième article: "Conflits d’intérêts : il faut plus de transparence dans les décisions politiques"

 

Un article d'Amandine Picard, Doctorante à l'univesité de Franche Comté, 2015

Recherche translationnelle et conflits d'intérêts

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
dimanche, 13 novembre 2016 16:38

Maryvette Balcou-Debussche publie aux Edition des Archives Comtemporaines un ouvrage d'analyse sur l'éducation thérapeutique du patient.

Vous pouvez télécharger la quatrième de couverture ICI

Vous pouvez feuilleter l'ouvrage sur le site de l'éditeur: ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
dimanche, 20 mars 2016 11:44

Nous vous informons de la parution de l'ouvrage "Encadrer les parcours de soins: vers ds aliances thérapeutiques élargies" du sociologue Frédérik Mispelblom Beyer.

La 4ème de couvertre peut être téléchargée ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
jeudi, 24 septembre 2015 16:58

Les éditions Chenelière Education viennent de publier la 3ème édition de l'ouvrage de référence de MF Fortin et J Gagnon: Fondements et étapes du processus de recherche: méthodes quantitatives et qualitatives.

Pour le moment disponible sur le site de l'éditeur québecquois ICI.

Il est à souhaiter qu'il soit rapidement disponible dans les librairies françaises.

La notice est consultable ICI.

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn
jeudi, 24 septembre 2015 16:48

Les éditions Armand Colin publient la 3ème édition de l'ouvrage de Marie Anaut "Psychologie de la résilience".

 

Marie Anaut est psychologue clinicienne, professeur de psychologie et chercheuse en psychopathologie et psychologie clinique.

 

Vous trouverez la couverture et la 4ème ICI

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn