Outils pour utilisateurs

Outils du site


aoc:stage-enssib-donnees-recherche-07062016

Stage ENSSIB "Gérer, valoriser et préserver les données de la recherche", 7-9 juin 2016

Réflexion au sein de Couperin sur la création d'un GT “données de la recherche”

Francis André (CNRS) : données de la recherche et science ouverte, enjeux et perspectives

A la base : avoir des infrastructures, des “tuyaux”. Au-dessus : développer des services pour gérer ces données (avec personnels IST) ☛curation des données. En haut : gouvernance
⇒il faut que ces trois niveaux sont opérationnels. Le niveau infrastructure l'est, au niveau européen. Le niveau services est en cours de développement (à des degrés divers selon les disciplines). Le 3e en est au démarrage.

Concept européen, né grâce aux technologies de l'information. Science plus transparente, plus facilement reproductible, avec un plus grand impact sur la société. Intégration du citoyen dans les discours politiques européens : parce qu'on a ces technologies de l'information, on peut développer ce concept d'open science. Cf consultation Science 2.0 de la Commission européenne.

Open Science : rendre accessible les résultats de la recherche à la société, qu'elle soit composée d'amateurs ou de professionnels.

Open Science : liée à open educational ressources, OA, Open peer review, open methodology, open source, open data ⇒changement des pratiques quotidiennes des chercheurs. On ne peut pas dissocier les choses : mouvement global d'ouverture

Ecosystème qui émerge : AO, Figshare, Dryad, Openannotation.org, Myexperiment.org, Runmycode.org, altmetrics…

Les chercheurs n'ont aucune retombée positive quand ils consacrent du temps à curer leurs données (aucun bénéfice pour leur carrière) : rôle essentiel des personnels IST ! Impliquer les acteurs ! Importance majeure de la formation des différents acteurs.

Roadmap et agenda Open Science définis lors de la conférence Open Science d'Amsterdam (avril 2016) ont été adoptés par le conseil de compétitivité de l'UE en mai.
2016 : mise en place d el'Open Science Policy Platform, avec GT thématiques. Au menu de ces groupes : récompenses pour les chercheurs ; altmetrics ; intégrité de la recherche ; citizen science ; ouverture ressources pédagogiques ; business models ; application des principes FAIR ; Open Science Cloud

FAIR : Findable, Accessible, Interoperable, Reusable

Stratégie UE : lien recherche/innovation ; partenariats public/privé pour transfert de technologie ; libre circulation des connaissances

Personnels IST doivent intervenir à toutes les étapes du cycle de vie des données, même dans la création et le traitement.

DMP : faire en sorte que les données accompagnent le projet tout au long de sa vie, et que le projet puisse s'appuyer dessus. Dynamique, en interaction avec les chercheurs.

Plus la donnée est concentrée, plus la couche de métadonnées est importante : savoir quel appareil a produit la donnée, quel était son calibrage, etc.

embedded data : donnée incorporée dans la publication. Le TDM vise à extraire ces données des publications.

Rôle du personnel IST : donner aux chercheurs les bonnes réponses à leurs questions. Il faut donc se poser les questions et trouver les réponses avant que les chercheurs y soient confrontés.

Intégrer la gestion des données dans le périmètre d'activités des personnels IST. Les données : c'est de l'IST. Données brutes : domaine du chercheur. Jeux de données : avec le personnel IST. Valoriser la production interne de son établissement. Vision du chercheur : ce qui intéresse le chercheur c'est la création et l'accès, il ne devrait pas avoir à se préoccuper de l'infrastructure d'information. Mais en réalité : nécessité de travailler ensemble, et de pratiquer l'immersion dans les labos.

Besoin fondamental : certification ! Trust ! Personnels IST ont un rôle à jouer dans l'élaboration et la garantie de la qualité des processus.

Cadre européen de l'open science = volonté politique forte et claire. C'est désormais aux acteurs opérationnels sur le terrain d'agir.

Esther Dzalé Yeumo : Données de la recherche et recherche agronomique

charte de déontologie de l'INRA : les données de la recherche sont la propriété ou la copropriété de l'INRA.

Comité d'éthique INRA a rendu un avis qui encourage l'INRA à partager les données de la recherche, mais demande discernement dans le partage : quelles données partager, quand et comment ?

Mise en place d'un Comité données : politique, recommandations, propriété intellectuelle ⇒stratégie scientifique
+ stratégie méthodologique et technique avec service IST

GT INRA 2011-2012 : rapport juin 2012 avec recommandations
Fin 2012 : élaboration d'une politique (11 principes pour mieux gérer les données)\ Avril 2013 : lancement des chantiers de mise en oeuvre ⇒outils de TDM, questions juridiques, compétences, identifiants pérennes, entrepôt…

Attentes des chercheurs INRA :
- services, accompagnement : sécurité des données, questions juridiques, comment partager, quelles données, choix d'un entrepôt, lien publications/données, data papers. Ex : à quel moment du workflow faut-il attribuer un DOI ?
- outils informatiques : portail, accès sécurisé aux données, DOI, logiciels, environnements collaboratifs
- Politique, RH : reconnaissance, quelles compétences, GPEC
Avis du comité d'éthique insiste sur besoin d'informations et de concertation : les chercheurs sont dans l'incertitude, et l'institution est responsable de leurs données et de leur bonne gestion.

Conseil scientifique INRA définit les données de recherche en tenant compte du contexte d'ouverture des données : information qui représente le matériau de base d'une activité de recherche ayant bénéficié d'un financement public

Problèmes rencontrés avec les ressources génétiques et génomiques : les grandes banques de données comme genBank n'ont pas forcément prévu l'explosion actuelle des données et des besoins et sont victimes de leur succès. Goulot d'étranglement quand stockage centralisé et délais de dépôt très longs. Réflexion en cours pour un stockage distribué avec moteurs de recherche performants.

Données d'enquêtes et de cohortes : anonymisation, respect du secret, obligations réglementaires en matière de destruction des données, pérennité des plateformes

Expérimentations, observations : gros travail à faire de standardisation des formats, des métadonnées et des vocabulaires.

Travail en cours sur un cahier des charges pour un entrepôt de données : quels services en fonction de la nature des données qui sont hébergées dans l'entrepôt ? Le cahier des charges va définir les différents niveaux de sécurisation à appliquer en fonction du degré de sensibilité de la donnée. Réflexion sur solution de stockage distribué.

Offre de services à l'INRA :
- attribution de DOI via l'INIST: l'INIST fournit le préfixe du DOI, et l'établissement (ex : l'INRA, l'Unistra) gère les suffixes et déclare les DOI auprès de Datacite pour qu'ils soient fonctionnels. Une application permet de gérer les demandes, qui sont traitées par un guichet unique de documentalistes. Tout type de donnée peut avoir un DOI (base de données, site web…). Permet d'avoir un point d'entrée pour les chercheurs, et permet aux documentalistes d'entrer en relation avec les chercheurs
- site web d'info et de communication avec politique, veille, boîte à outils
- DMP : trame type testée sur des “groupes données” et aide à la saisie avec DMPOnline (intégration de la trame type dans DMPOnline). Tests ont montré que le DMP ne peut pas être rempli par une seule compétence, c'est-à-dire par le chercheur seul : besoin accompagnement et aide de l'IST et de la DSI.
- portail des données : identification des données (DOI, métadonnées…), annuaire, entrepôt. N'a pas vocation à stocker toutes les données produites à l'INRA. Le portail pourra héberger des données qui soutiennent des publications.
- service de questions/réponses : accompagnement des chercheurs. Les questions sont traitées par IST avec aide d'autres compétences (juristes…) si besoin.
- formations : service à développer. Formations courtes (1h), tutoriels, modules d'autoformation, séminaires…En lien avec DoraNum. INRA serait fournisseur de contenus pour DoraNum.

Apports possibles de l'IST :
- contribuer à l'émergence d'une politique institutionnelle
- aider à définir les stratégies de publication/valoriser
- recenser et valoriser les sources de données
- intervenir dans la gestion des données : métadonnées, DOI, interopérabilité
- sensibiliser, former
- relayer les bonnes pratiques

Nouvelles compétences :
- identifiants
- métadonnées spécifiques
- nouvelles voies de publication (data journals)
- connaissance des entrepôts
- ontologies, standards, linked open data

Les points d'entrée pour l'IST :
- partage de données soutenant une publication, par exemple parce que l'éditeur demande de déposer les données dans un entrepôt
- besoin d'un DOI
- intérêt pour les data papers : permet aux ingénieurs et à ceux qui travaillent avec des données expérimentales de valoriser leur travail

Pôle données de la recherche au sein de la DIST de l'INRA : deux objectifs
- favoriser la montée en compétences des membres du pôle (formation…)
1 réunion par mois, avec un focus sur un sujet (DOI, DMP…). + Formations en interne sur certains sujets (aspects juridiques…) + financement de participation à des colloques et séminaires + veille partagée
- offrir des services aux chercheurs

☛Bcp d'actions possibles. Les personnels IST ont des atouts et un socle de compétences qui peuvent être mobilisées mais doivent aussi développer de nouvelles compétences.

Les données de la recherche au centre de calcul de l'IN2P3

En astrophysique, la règle est de rendre publiques les données au bout d'un an.

Stockage distribué, masse de données, collaborateurs dans le monde entier, outils informatiques hétérogènes ⇒la bonne gestion des données numériques est cruciale.

Données orphelines : données produites par un chercheur qui quitte son labo, son projet, et qui laisse ses données. Une bonne gestion des données permet de continuer à les exploite après la fin des projets : il peut se passer 2 ou 3 entre la fin des expériences et la publication des derniers articles.

Ne pas refaire les mêmes expériences est devenu un prérequis éthique dans certaines disciplines (notamment pour les expériences pour les animaux).

IN2P3 : devient centre de calcul national, donc s'ouvre à plusieurs disciplines (SHS, biologie…).

IN2P3 utilise disques et surtout bandes magnétiques (moins chères et plus sûres) pour stockage. Double copie ou réplication (deux ou trois fois) sur stockage distribué. Stockage des données mais aussi du code informatique dans ses différentes versions nécessaire pour les utiliser.

Les données doivent être anonymisées avant d'arriver à l'IN2P3.

Types de fichiers : les données avec tout type de format, les programmes informatiques, les systèmes d'exploitation, codes de gestion du workflow de traitement des données.

Chaque projet devrait définir un DMP, mais pas vraiment de DMP demandé par l'IN20P3, mais existence d'un DMP par défaut :
- recopie des données sur des supports récents
- données accessibles pendant la durée du projet
- suivant le type de donnée, orientation vers tel ou tel type de technologie
- un responsable des données par projet : définir avec l'IN2P3 comment les données vont être gérées, déterminer les utilisateurs et leurs droits
- respect des memorandum of understanding existants dans certaines disciplines
Depuis deux ans, réflexion sur la bonne gestion des données : mise en place d'un DMP, sur exemple du DMP Univ of Michigan, expertisé par l'INIST. Certains points du DMP seront pré-remplis (ex : durée de rétention) et seront donc des prérequis pour utiliser les services de l'IN2P3 (éviter le sur-mesure). Objectif : utiliser le DMP cette année, et utiliser DMPOnline ou DMPTool. Objectif de mise à jour des DMP chaque année.
Difficulté : suivi et application correcte du DMP. Besoin de traduire le contenu du DMP (texte) en règles informatiques pour automatiser le processus de suivi, mais n'existe pas à l'heure actuelle et DMP trop pauvre dans sa forme actuelle.

Dans ces disciplines, l'archivage pérenne a-t-il un sens dans la mesure où la transmission orale est très fréquente ? Quid de la connaissance des données, de l'expertise sur les instruments de mesure et de recherche et sur le code ? Comment garantir que les formats seront encore accessibles dans dix ans ? L'open data et l'archivage pérenne n'ont aucun sens dans certaines disciplines qui produisent des données avec des instruments propriétaires dans des formats propriétaires (ex : imagerie résonance magnétique). Publier les données, les fournir à la communauté nécessite un énorme travail, mais pour l'instant les chercheurs n'en retirent aucune reconnaissance.

Pas de stockage au sens archivistique du terme.

Inventaire des données réalisé quotidiennement. Point annuel sur les données avec les responsables des données pour identifier les actions de curation prioritaires.

Huma-Num

Ce qui intéresse Huma-Num : le projet de recherche. 1ere couche : les consortia, animés par les disciplines. 2e couche : outils et services disponibles pour les consortia. 3e couche : réseau européen.

10 consortia, composés de 120 unités de recherche. Le SCD de Bdx-Montaigne est membre d'un consortium. Consortium labellisé pour 4 ans, avec financement d'Huma-Num pour sa coordination. 9 consortia ancrés dans les MSH.

Outils et services :
- stocker
mettre en sécurité une copie intégrale des données en HD en dehors de son ordi, de son labo. Plateforme Sharedoc de stockage structurée par le chercheur ou par le groupe de recherche. Le chercheur peut avoir son compte sur la plateforme pour synchroniser son disque dur. Plateforme pour stocker et pour partager les données. Services de traitement de la données branchés sur l'espace de stockage (conversion, OCR, outil de gestion des BDD..). Seulement une copie d'un disque dur, le chercheur organise son espace comme il veut, on ne lui demande aucune métadonnée. + Seafile ! Il est possible de transférer ces fichiers de Seafile vers Sharedoc.
- traiter
outils peuvent être branchés aux outils de stockage ou utilisés seuls en ligne de commande. Outils de gestion des BDD, OCR, conversion de formats…
- diffuser
sous la forme d'un site web pour valoriser un projet et un corpus. Anticiper les questions de conservation des données en fonction des besoins d'éditorialisation de ces données. Bonnes pratiques : distinguer la gestion et le stockage des données et leur éditorialisation (éviter d'enchasser ses données dans un site web car problème lors des mises à jour). ArkeoGIS : né à la MISHA, mais migré à Huma-Num.
- exposer : diffuser sous la forme d'un site web ne suffit pas car les technologies vieillissent. Site web important pour valorisation, mais fondamental de séparer les données/leur documentation et leur éditorialisation (évolutif, peu pérenne). Le web n'est qu'un vecteur de diffusion des données. Mise au point du service Nakala : espace dans lequel les chercheurs peuvent déposer et documenter leurs données (on demande aux chercheurs d'ajouter des métadonnées aux fichiers de données, contrairement à l'espace de stockage) avec vocabulaire DCTerms. Quand on dépose un fichier dans Nakala : attribution d'un identifiant handle, préparation pour archivage au CINES du fichier (test éligibilité des fichiers), vocabulaire DCTerms pour les métadonnées, OAI-PMH, consersion RDF des métadonnées triple store), outil de chargement des lots (possible de brancher un outil de GED comme Nuxeo), API, branchement fédération d'identité. Nakala peut s'interconnecter avec nombreux logiciels d'édition électronique de données (Omeka, Drupal…). N'importe quel projet de recherche peut demander un compte Nakala, une bibliothèque peut demander un compte. Projet de passer Nakala au niveau européen, mais pour l'instant pas de dispositif européen pour financer à long terme Nakala à l'échelle européen : installation d'instances de Nakala dans des universités dans toute l'Europe, gérées par les équipes locales. Nakala pas labellisé par Data Seal of Approval mais correspond aux critères. Nakala fonctionne avec Isidore, qui est le moteur de recherche de Nakala. + utilisation d'Omeka comme CMS pour diffuser les données avec modules Nakala-Omeka pour importer/exporter des données (plutôt destiné aux “débutants”, aux chercheurs qui n'ont ni bibliothécaire ni informaticien, mais une version ouverte est disponible pour ceux qui ont des informaticiens). 2 consortia Huma-Num travaillent sur un plug-in Nakala pour Drupal. Si on veut utiliser un autre CMS, on peut interroger Nakala par l'API ou l'OAI-PMH pour pointer vers Nakala depuis son CMS. Possible de combiner nakala avec un entrepôt local, par exemple pour sauvegarder tout ou partie des données qu'on a aussi en local : prévoir passerelle entre l'AO et Nakala
- archiver
convention avec le CINES
- signaler
Isidore. API pour se personnaliser un moteur de recherche et l'intégrer dans son site web.

Pas de rupture de charge depuis vingt ans sur les différents dispositifs qui se sont succédé dans les humanités numériques ⇒dispositifs fiables, mais à condition qu'on s'en occupe tout le temps. TGIR : montre qu'il est stratégique que les SHS s'occupent de leurs données numériques.

Au niveau européen :
Participation à DARIAH-EU et à CLARIN. Projet Humanities at Scale : interopérabilité entre les systèmes comme Nakala, notamment pour aligner les thésaurus, les référentiels.

Dans les réponses aux appels à projets, il est important d'expliquer le processus d'archivage : il n'est pas possible de gérer l'archivage pérenne, par exemple, pendant la durée d'un projet. En revanche, il faut montrer quel workflow on va mettre en place, avec les différentes phases.

Cadre juridique des données de la recherche

En l'absence de texte réglementaire sur les données de la recherche, le cadre juridique dépendra de la nature de la donnée. Pas de distinction entre les données brutes, les données élaborées et les métadonnées.

il n'y a pas de droit de propriété intellectuelle sur la donnée, considérée comme une information “de libre parcours”, mais il y a deux exceptions :
- données soumises au droit d'auteur : attention au TDM
- données organisées en bases de données : droit sui generis des bases de données. Dans la majorité des cas, le droit revient à l'investisseur, le plus souvent l'établissement employeur.

Loi CADA modifiée par loi Valter 28/12/2015 qui transpose la directive européenne Public Sector Information. La loi Valter inclut l'ESR dans son champ d'application. Le Code de la Recherche dit que l'on doit organiser “l'accès libre aux données scientifiques et aux publications”.

Projet de loi Lemaire : choix de la licence parmi une liste publiée par décret ⇒les CC seront-elles dans le décret ?

☛Auditer et examiner chaque type de données et s'assurer que l'open data s'applique ⇒qui ? Comment ? Quelle organisation, quelles compétences et quels moyens au sein des institutions ?

☛Utiliser les DMP pour sensibiliser les chercheurs : par exemple, compléter les DMP avec des warnings sur les données sensibles, les données sécurité (avec la collaboration du CIL et du fonctionnaire sécurité défense)

Institutions publiques de recherche soumises à injonctions contradictoires : valorisation économique avec brevets d'un côté, et open data de l'autre.

Licence CC-0 pose problème en droit d'auteur français/européen car pas de reconnaissance du droit moral.

Politique d'open data ne peut pas s'affranchir de la question de l'entrepôt, notamment en l'absence d'entrepôt disciplinaire reconnu.

CNRS et CERAPS (labo) annoncent parution d'un guide sur Informatique & Libertés en recherche SHS pour la rentrée.

André Dazy (Couperin) : Les données de la recherche dans les projets européens

cf film de Julien Sicot qui explique comment récupérer les publications de son établissement qui doivent être envoyées dans OpenAIRE. Suivre les guidelines pour que son AO soit moissonnée.

En 10 ans, passage de “best effort” à “must” dans les consignes de l'UE.

Données : déposer données et métadonnées associées, avec DMP et informations sur les instruments utilisés pour obtenir ces données.

Entrepôt Zenodo créé pour déposer les données dans le cadre de H2020, et pour les chercheurs qui n'ont pas d'AO institutionnelle.

OpenAIRE s'appuie sur le schéma de métadonnées Datacite v.3.0 (permet moissonnage)

Réunion cette semaine Couperin, ORCID et partenaires sur l'utilisation d'ORCID en France.

Dans H2020-OpenAIRE, 10 work packages concernent les données de la recherche :
- questions juridiques (WP7) : deux études menées sur la protection des données et l'information du public, afin d'orienter les chercheurs pour savoir si ils peuvent diffuser leurs données ou opt-out :
- Zenodo :
services pour chercheurs qui n'ont pas d'AOI. + service d'anonymisation
- formation et aide à la gestiondes données :
dépôt de tutoriels et de docs de travail (exemple de DMP) sur Foster, helpdesk

Couperin a recensé les projets ayant choisi l'option pilote (619 projets français en mars 2016). Identification des publications et des données qui sont liées. Contact avec les porteurs de projets et travail avec les responsables d'archives ouvertes pour les rendre interopérables avec OpenAIRE (Seanoe de l'IFREMER est la première AO compatible).

Le métier de data librarian à l'EPFL

Pas d'obligation d'open data en Suisse. Approche pragmatique.

Acteurs à l'EPFL : chercheurs, bibliothèque, vice-présidence SI, Research Office
Research Office assure suivi des obligations par rapport aux financeurs

Etre capable de répondre à des questions très diverses selon les disciplines et les niveaux.

Bib EPFL rattachée directement à la VP Recherche, comme le research office. A permis de mettre l'accent sur les services de soutien aux étudiants et aux chercheurs. Permet meilleure reconnaissance de la bib comme soutien à la recherche.
“One stop shop” pour le soutien à la recherche : droits d'auteur, TDM, publications, données de la recherche. intération entre les facultés et la bibliothèque assurée par les bibliothécaires de liaison.
Soutien et accompagnement sur mesure si possible.

Réflexion a démarré en 2012 : volonté forte de la bib de se positionner car changement de paradigme dans le métier de bibliothécaire. Bib : accompagner et soutenir le chercheur en tant que producteur de l'information. Fin 2013 : recrutement de 2×0,2 ETP pour RDM, mais pas de soutien fort de la direction de l'EPFL avant 2015. Renforcement de l'équipe : 3 ETP. Mise en place des services en 2015 suite à décision de la direction de l'EPFL de mettre en place service de rédaction de DMP avec participation de la bib. Environ 5000 doctorants et chercheurs.

Projet national suisse DLCM : mutualisation et répartition des efforts. Ex : EPFL s'occupe des politiques et des guidelines. Tous les livrables seront regroupés dans un portail national fin 2016 : avoir tous les outils pour accompagner les chercheurs durant tout le cycle de vie de la donnée.

Création d'une base de données interne pour regrouper les politiques données de la recherche des financeurs de l'EPFL et des éditeurs les plus utilisés par les chercheurs de l'EPFL.

Analyse de profils de poste :
- bcp de profils hybrides : disciplines+doc. Demandes d'expérience. Profils larges : les données sont vues au sens large, données acquises et produites
- métadonnées, standards…
- compétences transversales : travail collaboratif, gestion de projet, communication, relationnel…

Bib de liaison EPFL ont parfois doctorat dans une discipline. Complémentarité des compétences. Peu de formations dans le domaine, on apprend en faisant.

Les données de la recherche à l'INIST

Construction d'une culture de la donnée chez les documentalistes

Participer aux réseaux et consortiums : réseau BDD de l'INIST (GT métadonnées et interopérabilité), Datacite (GT métadonnées), RDA.

DoraNum : produire des tutoriels à distance. Apprentissage à distance, entretiens, infographies… Plusieurs thématiques : aide au dépôt, questions juridiques…

Aider les chercheurs à structurer leur documentation afin que les données soient accessibles et utilisables à l'avenir à caque étape du cycle de vie des données. Importance de la description de chaque étape du cycle de vie. Quand le chercheur utilise des outils locaux (ex : convention de nommage “maison”), il vaut mieux commencer par tenir compte de ses besoins, donc lui permettre de continuer à conserver ses pratiques, tout en l'amenant progressivement à utiliser des standards internationaux.

Services INIST :
- assistance pour l'attribution d'identifiants pérennes
- conception d'une plateforme de stockage et de partage de matériels d'étude
- aide à la rédaction de DMP

Hébergement d'une instance de DMPOnline à l'INIST pour l'ESR. Utilisation gratuite pour l'ESR. Personnalisation et aide à l'élaboration de DMP. Accompagnement en fonction des besoins. Perspective : intégration de DMPOnline avec les outils de gestion des données des labos pour éviter saisies multiples. Souhait de contribuer à la communauté d'utilisateurs et de développeurs de DMPOnline.

Commencer par aider les chercheurs à avoir des données bien structurées et documentées avec métadonnées, standards…Première étape essentielle avant d'envisager des solutions de visualisation. Auditer les données : pouvoir dire aux chercheurs ce qui a déjà été fait et ce qui reste à faire. S'appuyer sur des exemples. Avant de parler du partage des données, il vaut mieux commencer par montrer l'intérêt de la réutilisation future de ses propres données par le chercheur lui-même.

Promouvoir l'interopérabilité par l'échange au niveau de l'établissement, au niveau local, national, européen, international.

Temps de maturation important chez les chercheurs.

on n'est pas des spécialistes scientifiques, on apporte surtout de la méthodologie. Susciter le questionnement chez le chercheur et chez le documentaliste.

les DMP

H2020 : déjà donner infos sur la gestion des données dans la demande de financement, avant de fournir un DMP

Coûts engendrés par les gestion des données : dépôt si payant, temps de travail d'un bibliothécaire, formation…

Voir video sur youtube “what why how of data management planning ? (Research Data Netherlands)

EPFL a élaboré un data management template et une checklist abordant l'acquisition, le format, le partage et la préservation des données. Le template est une première étape préalable à la rédaction du DMP. Important de travailler en équipe multicompétences (doc pour la méthodologie, informaticien pour la technique).

Métadonnées : inciter les chercheurs à utiliser le metadata standards directory de RDA.
formats : recommander les formats recommandés par la Libray of congress. format ouvert, international…
entrepôt : utiliser RE3DATA. Normes, certifications, reconnaissance par la communauté disciplinaire
- contraintes légales, licence pertinente. Questions éthiques : la bib renvoie vers le research office

Pour chaque projet déposé au research office, le research office renvoie vers la bib.

Bib de liaison EPFL : travaille avec une faculté qui comprend 3 instituts de recherche. 12 projets RDM accompagnés. Actions : soutien à la rédaction du chapitre “données” dans la soumission, aide à l'écriture du DMP, conseils techniques, formations (formation sur mesure pour certains labos)

Travail bib de liaison/équipe RDM : les demandes des chercheurs arrivent au service RDM qui les analysent. Travail en commun : rédaction DMP ensemble, relecture DMP ensemble, formations ensemble. Associer compétences complémentaires : le bib de liaison connaissances de la disciplines, le bib RDM connaissances méthodologiques.

Adapter DMP à ses besoins. Utiliser les demandes de visualisation/éditorialisation des chercheurs comme point d'entrée pour travailler avec eux sur la bonnes gestion de leurs données.

aoc/stage-enssib-donnees-recherche-07062016.txt · Dernière modification: 2016/06/15 12:17 par Adeline Rege