Évaluation des enseignants-chercheurs et science ouverte - Propositions de recommandations
Position Proposition

Évaluation des enseignants-chercheurs et science ouverte - Propositions de recommandations

France Universités : date de publication

    Dans un contexte marqué par la volonté de développer la science ouverte portée par le plan national pour la science ouverte de 2018 et d’adopter de meilleures pratiques pour une évaluation davantage qualitative de la recherche, la CPU exprime son soutien aux principes portés par la DORA et le manifeste de Leiden.

    Dans cette perspective, la CPU propose que les différentes instances d’évaluation internes ou externes aux établissements de l’activité des enseignantes-chercheuses et des enseignants-chercheurs appliquent les principes suivants compatibles avec les objectifs de la science ouverte, dans le respect des exigences de transparence, de collégialité et d’égalité et en tenant compte de la diversité des pratiques disciplinaires :

    • Prendre en compte dans l’évaluation des enseignants-chercheurs :
      • Pour les publications : les articles (et non les ouvrages) publiés en accès ouvert ;
      • Pour les données : les données diffusées en accès ouvert, ou, à défaut, partagées, c’est-à-dire diffusées de façon contrôlée, avec des conditions d’accès explicites.
      • Plus généralement, tous les types de production des chercheurs, y compris les prépublications, les livres, les articles de données, les logiciels, les brevets, les plateformes, voire des résultats négatifs.
    • S’appuyer pour cela sur la liste des publications déposées dans une archive ouverte, soit directement dans l’archive ouverte nationale HAL, soit par l’intermédiaire d’une archive institutionnelle locale, dans le respect des critères de la loi pour une République numérique.
    • Utiliser le Directory of Open Access Journals (DOAJ) comme index de référence pour les revues en accès ouvert et le Directory of Open Access Books (DOAB) comme index de référence des ouvrages scientifiques en accès ouvert.
    • Privilégier une évaluation multicritères centrée sur la portée des résultats et non sur la ou les revues dans lesquelles ils ont été publiés. Les indicateurs bibliométriques (nombre de citations, facteur d’impact, h-index…) ne peuvent être utilisés qu’en complément de l’évaluation qualitative et avec la plus extrême prudence.
    • Pour chacune des quelques contributions les plus marquantes citées, il sera proposé aux chercheurs d’en expliquer la portée, l’impact, et d’expliciter la contribution personnelle qu’ils y ont apportée. L’exhaustivité de la liste des productions dans les dossiers d’évaluation est inutile.
    • Les méthodes, données, protocoles et codes informatiques associés aux productions doivent être fournis dans l’objectif de faciliter l’évaluation des résultats et de renforcer l’accès ouvert, le cas échéant.

     

     

    116
    membres
    2 millions
    d'étudiants
    3000
    laboratoires de recherche
    82
    prix Nobel