DataStream
Politique des données

Le succès à long terme de DataStream repose sur l’élaboration de politiques et de pratiques appropriées pour la gestion des données. Ces politiques et pratiques doivent s’inspirer des meilleures pratiques nationales et internationales et être adaptées au contexte local et régional, avec l’aide des leaders locaux et des experts en la matière.

Contexte

La politique des données de DataStream est conforme aux meilleures pratiques nationales et internationales en matière de gestion des données. Plus précisément, cette politique s’appuie sur les principes énoncés par des organisations, notamment (mais sans s’y limiter) :

  • Organisation de coopération et de développement économiques (OCDE)
  • Savoir polaire Canada (anciennement la Station canadienne de recherche dans l’Extrême-Arctique)
  • Comité international des sciences de l'Arctique
  • Convention sur la diversité biologique (article 8)
  • Politique canadienne des trois conseils sur la recherche
  • Principes PCAP® des Premières Nations

Utilisation de la présente politique

Cette politique sur les données éclairera la gouvernance de DataStream et l’approche concernant la gestion des données qu’il contient. *Cette politique sur les données ne remplacera pas, les accords de partage de données existants et applicables.

Propriété des données et licences

Les fournisseurs de données gardent la propriété complète de leurs données et les rendent librement accessibles par le biais d’unelicence de données ouvertes (Voir les Conditions d’utilisation de DataStream pour plus de renseignements).

Principes

Les principes décrits ci-dessous définissent les valeurs et les concepts fondamentaux de la gestion des données et guideront la gouvernance et l’exploitation de DataStream au fur et à mesure de son évolution. Les quatre principes suivants sont proposés comme éléments clés de la politique de DataStream en matière de données :

  1. Accès ouvert sur le plan éthique
  2. Qualité des données
  3. Interopérabilité
  4. Sécurité et viabilité

1. Accès ouvert sur le plan éthique

Les données sont mises à disposition équitablement, entièrement, librement et ouvertement, dans des délais raisonnables. Les exceptions à cette politique de données ouvertes sont permises pour des raisons éthiques.

Faire en sorte que les données soient largement disponibles sans restriction (accès ouvert) est un mouvement grandissant partout dans le monde. Cela est particulièrement pertinent pour les données recueillies dans l’intérêt public, à l’aide de fonds publics. Le libre accès signifie minimiser ou éliminer les obstacles à l’accès aux données (p. ex. l’utilisation de licences restrictives, de formats propriétaires ou d’outils coûteux).

L’objectif de DataStream est d’ouvrir autant que possible l’accès aux données qu’il contient. Étant donné que le site contient des données publiques qui ne sont pas de nature sensible, ces informations seront partagées sans restriction.

Toute exemption au partage ouvert des données (autre que les exemptions éthiques décrites ci-dessous) doit être justifiée et demandée dans un plan de gestion des données spécifique à un ensemble de données.

2. Qualité

S’efforcer d’assurer l’exhaustivité et l’absence d’erreurs dans les ensembles de données. Les ensembles de données sont accompagnés d’une documentation normalisée.

Il faut déployer des efforts pour s’assurer que les ensembles de données sont complets et que leur qualité est contrôlée afin que les données soient fiables et puissent être utilisées en toute confiance pour mieux comprendre la qualité des eaux douces au Canada.

Les normes de qualité des ensembles de données devraient être explicitement énoncées pour éviter toute ambiguïté. Lorsque la qualité des données est limitée par rapport à une norme particulière, ces limites sont clairement énoncées dans les documents d’accompagnement.

Les données devraient être reliées à des ensembles de données connexes, le cas échéant, afin de montrer les liens entre les initiatives et les ensembles de données. Cela permet d’accroître l’utilité des produits de la recherche et contribue à l’assurance de la qualité.

Les métadonnées (données qui servent à fournir un contexte ou des renseignements supplémentaires sur d’autres données) qui accompagnent les ensembles de données devraient respecter les normes en vigueur pour cataloguer les données et évaluer leur pertinence en fonction de leur utilisation dans une applications spécifique. Cela contribue à l’assurance de la qualité, encourage l’utilisation appropriée des ensembles de données et permet de s’assurer que les données peuvent être retrouvées. Ainsi, les métadonnées accompagnant les ensembles de données devraient contenir les renseignements clés nécessaires à l’évaluation, à la compréhension et à la recherche des ensembles de données, notamment :

  • des renseignements complets sur l’entité responsable de la collecte et de la gestion des données;
  • l’information sur la qualité des données, y compris les limites pour permettre aux utilisateurs de déterminer si les données sont utilisables et comment elles peuvent être utilisées;
  • dans la mesure du possible, un identificateur d’objet numérique (DOI) pour que les données puissent être facilement suivies et citées en référence;
  • des descripteurs de données pour s’assurer que les données peuvent être retrouvées;
  • une référence aux protocoles de collecte de données, aux instruments ou à toute autre information pertinente nécessaire pour reproduire la collecte de données

3. Interopérabilité

S’efforcer d’assurer l’interopérabilité technologique et sémantique avec d’autres initiatives.

L’écosystème international des données dépend de la circulation coopérative des données entre les centres de données. L’évolution vers une coopération et des échanges étendus peut contribuer à résoudre des problèmes scientifiques complexes et à grande échelle.

Une condition préalable à une telle coopération est l'« interopérabilité ». L’interopérabilité permet à divers systèmes et entités de travailler ensemble (interopérer) vers des objectifs communs (Pulsifer, 2013). Comme l’indique cette définition, l’interopérabilité comporte des éléments à la fois technologiques et humains. D’un point de vue technologique, l’interopérabilité implique, entre autres, la diffusion de données dans des formats ouverts et lisibles par machine et l’utilisation de normes communes, professionnelles et non propriétaires. L’aspect humain et organisationnel de l’interopérabilité exige une communication cohérente entre les participants et un engagement à des moments clés de la prise de décision pour éclairer l’évolution du système.

Le maintien de l’interopérabilité exige une grande souplesse pour s’adapter aux changements rapides et souvent imprévisibles de la technologie de l’information, aux caractéristiques des diverses méthodologies de recherche et à la diversité culturelle partout au Canada.

DataStream a été conçu pour être aussi ouvert et compatible que possible avec la majorité des technologies Web actuelles. Au fur et à mesure de l’évolution du système, on s’efforcera de maintenir et, dans la mesure du possible, d’améliorer l’interopérabilité du système avec les technologies Web existantes et nouvelles. Cela permettra à DataStream de tirer parti des avantages de la coopération avec d’autres programmes et systèmes au sein de l’écosystème international plus large des données.

4. Sécurité et viabilité

L’intégrité et la sécurité des données doivent être protégées contre la corruption et la perte afin de garantir leur aptitude à être utilisées à court et à long terme.

La planification à long terme garantit que les investissements initiaux dans la collecte et la gestion des données ont des répercussions durables et contribuent aux ensembles de données de référence.

Les stratégies de sécurité des données seront clairement articulées et comprendront une description de la répartition des responsabilités entre les parties afin d’assurer la responsabilisation en matière de gérance des données. La durabilité et la préservation à long terme des données seront assurées grâce à l’élaboration et à la mise en œuvre d’un plan systématique de préservation des données.

Travaux futurs

Les partenaires qui participent au développement de DataStream se sont engagés à contribuer à l’élaboration d’un outil à long terme qui favorisera la collaboration entre les divers efforts de surveillance et favorisera une démarche de gérance des eaux en réseau à l’échelle régionale.

DataStream a été lancé pour le bassin du fleuve Mackenzie en 2016 au terme d'une année pilote. Au fur et à mesure que DataStream s’étend à de nouvelles régions, tous les partenaires s’engagent à améliorer continuellement DataStream pour répondre aux besoins grandissants de sa collectivité.

Renvois