Deuxième Forum des partenaires universitaires de BAC : Les technologies perturbatrices dans les institutions de mémoire

Rapport sommaire

Le 13 mars 2019

395, rue Wellington, salle Pellan, Ottawa (Ontario)

Téléchargez la version alternative [PDF 970 Ko]

Table des matières

Introduction

Bibliothèque et Archives Canada (BAC) a tenu son deuxième forum avec ses partenaires universitaires, qui a réuni plus de 200 participants, dont des fonctionnaires, des universitaires, des bibliothécaires et d’autres professionnels de la gestion de l’information, venus discuter de l’incidence des technologies « perturbatrices » sur leurs professions respectives. Ils ont également exploré leurs défis communs ainsi que les possibilités interprofessionnelles qui pourraient s’offrir à eux. Les discussions de groupe portaient entre autres sur les mégadonnées, l’intelligence artificielle, l’extraction de données et les technologies connexes, la manière dont les bibliothèques universitaires vivent la transformation numérique, ainsi que les répercussions des technologies perturbatrices sur les processus opérationnels et les opérations. Après le mot de bienvenue de Guy Berthiaume (bibliothécaire et archiviste du Canada, BAC), la doyenne de la Faculté de l’information à l’Université de Toronto, Mme Wendy Duff, a prononcé le discours d’ouverture sur les compétences et la littératie numériques dans un monde perturbé. Durant la journée, BAC et l’Université Carleton ont signé un protocole d’entente officiel. Une discussion ouverte a également permis aux membres de l’auditoire d’explorer les défis de la transformation numérique dans leur propre milieu de travail. Sandra Toze a présenté un exposé intitulé « Analyse des besoins en formation des employés fédéraux », tandis que Linda Savoie, la secrétaire générale de BAC, a prononcé le mot de la fin.

Voici quelques points saillants de l’événement.

(Renseignements généraux sur le Forum, y compris le programme et le résumé des présentations)

Discours d’ouverture : Compétences et littératie numériques dans un monde perturbé

En amorçant son discours d’ouverture intitulé « L’avenir est un pays étranger », Wendy Duff a fait remarquer que la nature et la portée des « perturbations » ont évolué au fil du temps. Par le passé, les actes ou le comportement d’une personne ou d’un petit groupe de personnes pouvaient être considérés comme perturbateurs, mais leur incidence globale était relativement limitée et pouvait être gérée sur cette base. De nos jours, les perturbations prennent souvent la forme de changements institutionnels majeurs provoqués par des progrès technologiques rapides qui peuvent s’avérer difficiles, voire impossibles à prévoir et à affronter. Le secteur de la fabrication a déjà connu plusieurs de ces changements, où l’automatisation et le besoin de connaissances techniques avancées ont radicalement transformé la main-d’œuvre traditionnelle. Il n’y a aucune raison de croire que les « métiers du savoir » ne subiront pas le même sort. Cette réalité incite à mettre davantage l’accent sur le développement des compétences interdisciplinaires dans les programmes de gestion de l’information. Bien que les besoins futurs du secteur de la gestion de l’information peuvent être difficiles à prévoir, les étudiants dotés de compétences et de connaissances en programmation, en statistique, en création et en gestion de bases de données, en analyse de données, en engagement communautaire et en promotion des droits ainsi qu’en éthique seront mieux outillés pour tirer parti d’un marché du travail en évolution. Une telle orientation pluridisciplinaire pourrait ne pas garantir aux étudiants un emploi dans le secteur de la gestion de l’information, mais elle garantira qu’ils ne se sentent pas étrangers dans un « avenir étrange ».

Dans ses réponses aux questions de l’auditoire, Mme Duff a réaffirmé le besoin de développer et de coordonner les compétences interdisciplinaires au sein des secteurs professionnels. Elle a souligné que les éducateurs en gestion de l’information qui travaillent en étroite collaboration avec leurs collègues en génie, en informatique et en statistique sont des exemples à suivre. Mme Duff a aussi réitéré la difficulté de prévoir les changements qui influeront sur le marché du travail, tout comme elle a indiqué ne pas pouvoir dire quels emplois en particulier pourraient être à risque (reconnaissant cependant le besoin général d’un plus grand nombre de bibliothécaires dans les régions rurales). En ce qui concerne la désinformation, Mme Duff a souligné que la falsification de documents a toujours existé et que les archivistes sont spécialement formés pour la détecter. Les bibliothécaires universitaires ont un rôle à jouer pour montrer aux étudiants de premier cycle où trouver des sources crédibles et comment les utiliser, mais il est moins évident de former le grand public sur ce sujet important. Il y a des limites à ce que les bibliothèques universitaires peuvent faire dans ce domaine.

Groupe de discussion I : Mégadonnées, intelligence artificielle, extraction de données et technologies connexes

Un thème récurrent du premier groupe de discussion concernait la méconnaissance qu’ont de nombreuses personnes des rouages de l’apprentissage informatique avancé. Cela peut mener à des préjugés latents face à la technologie et perpétuer les inégalités entre les différents groupes d’utilisateurs. Parallèlement, la technologie demeure utile pour aider les gens à s’orienter dans un monde de plus en plus complexe, à le comprendre et à le documenter. Le véritable défi consiste donc à trouver le juste équilibre entre confiance et scepticisme à l’égard du potentiel de la technologie versus son utilisation réelle.

Le premier à prendre la parole, Mike Smit (professeur agrégé, École de gestion de l’information, Université Dalhousie) a soulevé ces préoccupations dans le contexte d’une culture de partage visuel. Comme l’a fait remarquer M. Smit, les formes visuelles de communication ont acquis une prédominance dans les médias sociaux, supplantant la priorité autrefois accordée aux formes textuelles de communication et restreignant la place et même l’espace pour les champs d’entrées textuelles et de métadonnées. Cela pose des problèmes distincts pour l’accès aux documents visuels et leur préservation, mais il s’agit là d’un défi global qui peut être partiellement relevé par l’utilisation de l’intelligence artificielle (IA) et de l’apprentissage automatique. Malheureusement, la technologie elle-même n’est pas infaillible ni entièrement autonome, de sorte que les gens devront continuer de participer à ce travail, en veillant à ce que les documents soient représentatifs de la société dans son ensemble et exempts de tout préjugé latent. Fait important, l’intelligence artificielle n’exclut pas le besoin d’attention ou d’intervention de la part d’un humain; elle change simplement la nature de sa participation.

André Vellino (professeur agrégé, École des sciences de l’information et École de science informatique et de génie électrique, Université d’Ottawa) a soulevé une série de questions semblables dans son exposé. Il a évoqué l’ordinateur HAL dans le film 2001 : L’Odyssée de l’espace pour illustrer sa principale préoccupation : les machines sont limitées par les instructions que les gens leur donnent, ce qui ouvre la possibilité que des omissions et des préjugés latents influent sur leur performance. Un programme d’IA adaptera son comportement et fera évoluer sa pensée en fonction de sa programmation, mais en l’absence de compréhension humaine de la façon dont ces processus se produisent, la confiance dans l’IA demeurera problématique. On peut justifier une partie de ce scepticisme par la vulnérabilité de l’IA aux préjugés et aux omissions de ses créateurs. Cependant, un scepticisme trop poussé peut aussi poser problème, entravant la pleine réalisation du potentiel positif de l’IA et amenant les gens à rejeter ce que les ordinateurs « accomplissent déjà correctement ». Les programmeurs peuvent commencer à répondre à certaines de ces préoccupations en intégrant l’éthique à l’intelligence artificielle, mais d’ici à ce que les personnes saisissent parfaitement la manière dont l’intelligence artificielle fonctionne, elles devraient en envisager l’utilisation avec une saine dose de scepticisme.

Dans leur exposé, Marie-Jean Meurs (professeure, Département d’informatique, Université du Québec à Montréal) et Hugo Cyr (doyen, Faculté de science politique et droit, Université du Québec à Montréal) ont mis l’accent sur la nécessité d’une approche plus égalitaire dans le calcul, la distribution et l’utilisation des données. Alors que les nouvelles technologies augmentent le nombre de travaux accessibles au grand public, ces mêmes technologies masquent souvent des questions d’inégalité. On peut le constater dans la relation entre les utilisateurs et les entreprises spécialisées dans la technologie, entre les petites et les grandes entreprises de technologie et entre les entreprises de technologie situées dans les pays en développement et celles situées dans les pays développés. La privatisation des données publiques et personnelles, et l’inégalité réelle des lois et des normes à l’échelle internationale sont particulièrement problématiques et perçues par Mme Meurs et M. Cyr comme une nouvelle forme de colonialisme. Pour remédier à ces inégalités, il faut renforcer la réglementation transfrontalière des entreprises de technologie. Il est également essentiel que les programmeurs accordent la priorité aux personnes et les placent au centre de l’intelligence artificielle — un objectif qui peut être atteint au moyen d’investissements publics accrus pour combattre les formes d’inégalité sociale, économique et politique.

Conférenciers du groupe de discussions 1

Conférenciers du groupe de discussion I avec le bibliothécaire et archiviste du Canada : Mike Smit, André Vellino, la modératrice Johanna Smith, Marie-Jean Meurs, Guy Berthiaume et Hugo Cyr.

À la suite de leurs présentations, les experts du groupe de discussion ont répondu aux questions du public sur l’inégalité dans les domaines culturel et linguistique et l’utilisation des « mégadonnées » pour suivre le mouvement des personnes au-delà des frontières politiques. En ce qui concerne la première question, on a admis que l’anglais constitue une « base linguistique » pour l’IA et qu’il y a un réel besoin de préserver la diversité culturelle dans ce contexte. On a par contre fait remarquer que les applications de traduction ont encore besoin d’une intervention humaine, bien que certains progrès aient été réalisés pour améliorer ces technologies (p. ex., Google Translate) et les rendre plus représentatives des différentes cultures et langues. En ce qui concerne la deuxième question, on a fait remarquer que l’IA excelle dans la réalisation d’analyses pour l’ensemble d’une population, mais qu’elle est moins fiable lorsqu’il s’agit d’analyse au niveau individuel. On a réaffirmé à plusieurs reprises durant la discussion que l’IA demeure une technologie en développement : une intervention humaine continue et une approche critique de son évaluation et de son utilisation sont toujours de mise. En fin de compte, ce sont les personnes qui sont responsables des décisions relatives à l’IA, d’où la nécessité de faire preuve de prudence dans son développement et son utilisation.

Groupe de discussion II : Comment les bibliothèques universitaires vivent la transformation numérique

Le deuxième groupe de discussion s’est concentré sur les défis et les occasions qu’entraîne la révolution numérique dans les bibliothèques universitaires. Parmi ces défis, mentionnons : effectuer la transition des documents créés analogiquement vers des documents créés numériquement; intégrer des considérations liées au cycle de vie complet dans les Systèmes de gestion des biens numériques (SGBN); tirer parti des services et des programmes existants tout en fournissant des ressources pour les nouvelles capacités et technologies numériques; mieux communiquer la valeur des bibliothèques universitaires auprès de leurs principaux groupes d’utilisateurs. Sur ce dernier point, un défi particulier réside dans la croyance qu’ont certains étudiants qu’ils sont mal équipés pour tirer pleinement parti des outils et des services numériques fournis par l’école. Parmi les possibilités évoquées, citons ce qui suit : placer la bibliothèque au centre de l’expérience universitaire; bâtir des liens entre les différentes disciplines et professions; élargir l’accès aux ressources ouvertes; établir des points de contact entre les expériences locales et les expériences mondiales; fournir de nouveaux produits et de nouvelles formes de connaissances aux utilisateurs. Comme l’ont illustré les exemples donnés par ce groupe d’experts, de nombreuses bibliothèques universitaires sont déjà sur la bonne voie pour relever ces défis et exploiter ces occasions.

Conférenciers du groupe de discussions 2

Conférenciers du groupe de discussion II avec le bibliothécaire et archiviste du Canada : Jonathan Bengtson, Martha Whitehead, Guylaine Beaudry, Guy Berthiaume et le modérateur Wayne Jones.

Guylaine Beaudry (bibliothécaire universitaire, Université Concordia) a décrit comment la bibliothèque universitaire de Concordia en est arrivée à élaborer sa nouvelle stratégie numérique. Celle-ci est le fruit d’un vaste (et constant) processus de consultation, qui a donné lieu à une série de conférences réussies et à un sondage auprès de 2 000 étudiants sur leurs expériences numériques à l’Université. Entre autres, cette consultation a révélé que la majorité des étudiants considéraient n’avoir pas été bien préparés pour tirer pleinement parti des outils et des services numériques offerts par l’école. L’enquête a également mis en lumière le besoin de recourir davantage à des technologies existantes, comme YouTube et l’enregistrement de cours, pour renforcer les relations avec les étudiants. Fort des données recueillies lors du processus de consultation, l’Université a établi sa nouvelle stratégie numérique qui repose sur 24 profils de personnalité distincts, ce qui permettra à la bibliothèque universitaire de mieux comprendre les besoins des différents groupes d’utilisateurs, y compris les membres du corps professoral, le personnel de soutien et les étudiants, et de mieux y répondre. Parmi les objectifs précis de la stratégie numérique, l’on note : promouvoir une nouvelle approche axée sur l’utilisateur; accorder la priorité aux besoins et aux intérêts des utilisateurs plutôt qu’à d’autres considérations; consolider et simplifier les plateformes actuelles (les réduire de trois à une); améliorer la littératie numérique chez les utilisateurs; instaurer une nouvelle « culture numérique »; mieux répondre aux besoins changeants du marché. La bibliothèque universitaire entend réussir là où d’autres ont échoué en « canalisant l’énergie de la perturbation » vers des actions concrètes, un objectif qui se reflète dans la somme de temps, d’énergie et de ressources déjà investis dans la nouvelle stratégie numérique de la bibliothèque universitaire et dans les premiers résultats obtenus.

Dans son exposé, Jonathan Bengtson (bibliothécaire universitaire, Université de Victoria) a plaidé en faveur de l’expression « érudition numérique » (par opposition aux « sciences humaines numériques ») comme concept général et inclusif qui permettrait de saisir pleinement l’occasion d’établir des liens interdisciplinaires plus étroits que permet la perturbation numérique. Il a fait remarquer que les bibliothèques universitaires ne se sont toujours pas totalement adaptées à ce changement de paradigme, ce qui crée un sentiment de crise existentielle dans certains domaines. Plus précisément, les normes des travaux de recherche traditionnels sont sérieusement ébranlées, ce qui rend nécessaire la convergence entre les bibliothèques et les plateformes de recherche. Pour l’avenir, il est important que les bibliothèques universitaires fournissent les bases pour tout le cycle de vie d’un projet de recherche, y compris l’utilisation de la « durabilité » comme point de référence pour la préservation numérique. Le personnel clé dans ce nouveau contexte comprend des bibliothécaires de métadonnées et des bibliothécaires « découplés », qui transcendent les disciplines traditionnelles et peuvent fournir du contenu à des groupes d’utilisateurs variés. Ce changement nécessitera l’établissement de liens plus directs entre les bibliothèques universitaires et chaque faculté, et la création de nouveaux espaces physiques et numériques pour regrouper ces travaux. Afin d’appuyer cette transformation, il faut investir dans la conservation numérique, les métadonnées, d’autres domaines d’activité de l’apprentissage numérique et la formation du personnel des bibliothèques et des chercheurs.

Martha Whitehead (bibliothécaire universitaire, Université Queen’s) a commencé son exposé en faisant remarquer que la société est entrée dans un monde « post-numérique » où la nouvelle norme est d’« être déjà numérique ». Or, a-t-elle ajouté, cette transformation ne peut jamais aboutir parce que « le changement est la nouvelle constante ». Il faudrait donc mettre l’accent sur les produits et services en évolution permanente, centrés sur les ressources documentaires. Ce changement de perspective est manifeste dans le passage des documents créés analogiquement aux documents créés numériquement, ce qui a généré de nouvelles possibilités de publication, de collecte de contenu, d’accessibilité et de préservation à long terme. Ces nouvelles formes de contenu de même que les nouvelles façons d’interagir avec elles ne ressemblent pas toujours aux structures organisationnelles analogues, d’où la nécessité de repenser les fonctions traditionnelles de la bibliothèque dans le contexte numérique. Ces technologies permettent simultanément d’établir des correspondances entre des expériences locales et mondiales et d’apporter de nouvelles expériences aux utilisateurs grâce à la réalité augmentée, ce qui pousse les bibliothèques universitaires (et d’autres institutions de mémoire) dans des directions toujours plus novatrices. Rien de tout cela ne s’écarte radicalement des fonctions et du mandat traditionnels des bibliothèques universitaires, mais il change la manière dont ce travail est fait et continuera de se faire dans un avenir immédiat.

Pendant la période de questions, on a demandé dans quelle mesure ces nouvelles technologies pourraient influer sur l’interprétation et l’utilisation de l’information par les personnes et quelles pourraient en être les conséquences. On a répondu que ces technologies permettent la coexistence de différentes manières d’appréhender et de connaître le monde, et que c’est là à la fois une force et une faiblesse de la technologie. Toutefois, le mandat d’une bibliothèque universitaire consistera toujours à aligner ces connaissances et ces expériences sur les normes de la pratique universitaire et les attentes des membres du corps professoral, des étudiants et du milieu universitaire en général. En réponse à une question concernant la résistance, on a insisté sur l’importance de tenir des consultations solides et permanentes. De même, on a rappelé que les changements institutionnels d’envergure exigent une mise en œuvre longue et patiente, qui pourra s’étaler sur plusieurs mandats de dirigeants et de champions institutionnels différents. Enfin, évoquant les avantages d’échelle suscités par les technologies numériques, on a mis en évidence le potentiel des réseaux de dépôts et l’interopérabilité entre les différentes plateformes pour relier des collections individuelles. Ce potentiel a déjà mené à la concrétisation de plusieurs initiatives conjointes fructueuses, y compris la Stratégie canadienne de numérisation du patrimoine documentaire, la Bibliothèque numérique mondiale et la Bibliotheca Alexandrina, et on espère voir d’autres succès dans ce domaine.

Discussion ouverte entre membres de l’auditoire

Pour ouvrir le segment de l’après-midi, les membres de l’auditoire ont été invités à parler de leurs propres expériences relatives aux perturbations numériques en milieu de travail. Il a été noté que certaines technologies perdurent tandis que d’autres finissent par disparaître; il est toutefois probable que l’IA demeurera essentielle dans une certaine mesure à long terme. C’est la raison pour laquelle il est nécessaire d’avoir des données « épurées », ce qui sous-entend une formation adéquate pour les personnes qui sont en fin de compte chargées de la collecte, de la présentation, de l’utilisation et de la préservation de ces données. Dans ce contexte, des considérations comme de savoir à qui appartiennent les données, qui les a créées, qui les a conservées et qui peut les utiliser deviennent importantes. Les participants ont également discuté du besoin d’établir une collaboration et d’adopter une approche horizontale au sein des organisations et entre celles-ci. Cela ne signifie pas que les outils et les processus traditionnels doivent être abandonnés, mais qu’ils doivent être adaptés et redéployés pour répondre aux défis particuliers et aux occasions que présente la perturbation numérique. Dans bien des cas, il s’agira de faire éclater les cloisonnements et les processus classiques de travail, et soit de former le personnel actuel pour qu’il acquière de nouvelles compétences numériques, soit d’embaucher de nouveaux employés possédant déjà ces compétences.

À la fin de la discussion, on est revenu au contexte des bibliothèques universitaires pour insister de nouveau sur le fait que l’érudition numérique va au-delà des sciences humaines, ce qui obligera les bibliothèques universitaires à redéfinir leur manière de recueillir, de présenter, d’utiliser et de préserver les ressources documentaires. Dans ce contexte, les bibliothèques devraient s’éloigner de la présentation de ces ressources sous forme de texte et tirer pleinement parti des nouvelles possibilités de présentations dynamiques offertes par la technologie numérique. En fin de compte, c’est le contenu, et non le « contenant » dans lequel il est présenté, qui importe. Par conséquent, ces contenants doivent être adaptés pour répondre le mieux possible aux besoins et aux intérêts des différents groupes d’utilisateurs. Le fait que la titularisation et d’autres structures institutionnelles en place façonnent le développement et l’utilisation des produits de recherche constitue une partie du défi, ce qui signifie que des pratiques traditionnelles pourront, dans un avenir prévisible, continuer d’exister parallèlement à des pratiques numériques plus souples. L’adhésion des institutions demeure importante en ces temps de turbulence où les bibliothèques universitaires (et d’autres institutions) composent avec cette perturbation numérique.

Présentation sur l’analyse des besoins en formation des employés fédéraux

Sandra Toze (professeure adjointe et directrice de l’École de gestion de l’information, Université Dalhousie) a parlé des résultats d’un récent sondage sur les besoins numériques dans le secteur public et a fait part de commentaires plus généraux sur ce thème. Elle a d’abord souligné le changement survenu dans les cours de formation de base, où l’accent mis autrefois sur la gestion des bases de données a fait place de nos jours à une gestion des données inscrite dans un processus de cycle de vie. Cela reflète les nouvelles attentes en matière de littératie et de compétences numériques dans le secteur public et ailleurs. Le sondage visait à cerner les compétences numériques actuelles de la main-d’œuvre, les compétences enseignées actuellement, le degré de mise en pratique de celles-ci ainsi que les compétences nécessaires dans l’avenir. Ce sondage a permis de relever 30 disciplines numériques différentes, chacune nécessitant une palette de compétences – certaines approfondies et spécialisées, d’autres plus générales et englobant plusieurs de ces disciplines. Le sondage a également révélé que les dirigeants principaux de l’information dans la fonction publique partagent un intérêt pour la mise en valeur d’initiatives numériques et admettent que certaines leçons peuvent être tirées du secteur privé, mais ils préviennent également que « faire du numérique » exige une réflexion différente dans le contexte public.

La capacité d’être « souple » et l’acceptabilité d’un « échec rapide » avec les fonds publics sont deux concepts clés du secteur privé qui se prêtent mal au secteur public. Même si les nouveaux outils et les nouvelles technologies peuvent susciter de l’enthousiasme, la façon de canaliser cet enthousiasme vers des possibilités responsables et durables n’est pas toujours claire. On retrouve cet aspect dans les nombreux systèmes hérités encore en usage et dans le fait que le papier demeure un incontournable des pratiques gouvernementales. Ces obstacles institutionnels et culturels au changement ne doivent pas être négligés. Pour aller de l’avant, il faudra réfléchir aux compétences numériques précises qui seront nécessaires et à la meilleure façon de les transmettre. En conclusion, Mme Toze a déclaré que les formations en ligne n’étaient peut-être pas le meilleur mécanisme de diffusion des compétences et que les séances de formation classiques en personne conservaient certains avantages.

Groupe de discussion III : Répercussions des technologies perturbatrices sur les processus opérationnels et les opérations

La troisième et dernière discussion entre experts a porté sur la préservation et l’accès à long terme. On a fait valoir que les systèmes conçus à partir de solutions commerciales pourraient offrir plus de souplesse et s’avérer plus durables au fil du temps que les systèmes conçus de A à Z à l’interne. Ce contexte offre un avantage particulier pour les institutions publiques; en effet, les deniers publics ne serviraient pas à développer un système exclusif qui pourrait s’avérer incompatible avec d’autres systèmes ou inadaptable aux changements technologiques au fil du temps. Ces limites potentielles découlent de la nature unique du contenu numérique qui, contrairement à son équivalent analogique, connaît une évolution dynamique, notamment au chapitre du format et des fonctionnalités. La nature dynamique du contenu numérique, le besoin de migrer des formats obsolètes et d’effectuer des vérifications régulières du format de tous les contenus, de même que la croissance exponentielle du volume des contenus numériques présentent tous des défis particuliers pour la préservation à long terme. Les concepteurs de systèmes devraient également tenir compte de la nécessité d’assurer un suivi constant des avancées technologiques, des avantages des approches en réseau ou « fédérées » et de l’efficacité de la suppression du contenu numérique superflu.

Lorsqu’est venu le temps de concevoir les Systèmes de gestion des biens numériques de BAC, l’institution, a expliqué Sylvain Bélanger (directeur général, Opérations numériques et Préservation, BAC), a sollicité l’aide et des solutions technologiques de partenaires tiers des secteurs public et privé. Cette approche, qui s’écarte de la pratique classique consistant à s’appuyer sur l’expertise et la technologie internes, offre à BAC plus de souplesse et d’adaptabilité pour naviguer dans ce qui demeure un domaine en évolution de ses activités fondamentales. À cette fin, BAC travaille actuellement avec Preservica à l’élaboration d’une plateforme de préservation numérique à long terme. Il reste encore de nombreuses questions sans réponse et de nombreux défis à relever dans ce domaine, mais le travail en cours se distingue par l’importance primordiale qu’il accorde à la pérennité et par la reconnaissance du besoin d’intégrer des caractéristiques en matière d’acquisition, de découverte, d’accès et de préservation à un SGBN pour qu’il soit efficace. Certaines de ces caractéristiques, notamment celles liées à l’acquisition et à la préservation, étaient moins mises en évidence dans les anciens systèmes de dépôt numérique.

Umar Qasim (agent de préservation numérique, Université de l’Alberta et président du Groupe d’experts sur la préservation du réseau Portage) a présenté le réseau Portage mis sur pied par l’Association des bibliothèques de recherche du Canada. Il a d’abord fait remarquer qu’un certain nombre de considérations complexes s’appliquent à la préservation à long terme du contenu numérique, contrairement aux œuvres analogiques, lesquelles n’ont pas besoin du même degré d’interventions technologiques pour assurer leur survie à long terme. La croissance exponentielle du contenu numérique et le développement constant de nouveaux formats et de nouvelles technologies ne sont que deux des nombreux défis particuliers dans ce contexte. Dans certains cas, une œuvre numérique peut en fait avoir une durée de conservation plus courte qu’une œuvre analogique, en l’absence de technologie intermédiaire. Un autre défi particulier pour le contenu numérique est le fait que les dépôts « cloisonnés » ou autonomes sont rarement viables à long terme, ce qui a des répercussions sur l’acquisition, la découverte, l’accès, la préservation et les ressources. Pour relever ces défis, les stratégies de préservation numérique devraient aller au-delà d’un cycle de vie et reposer sur une compréhension commune du défi global. Le réseau Portage représente l’une de ces solutions, qui intègre les trois éléments suivants : les services de dépôt, les services de préservation, et enfin la planification et le suivi. Le projet vise à établir une compréhension commune des exigences de base en matière de préservation, à favoriser les partenariats, à présenter un message unifié et à définir clairement les compétences essentielles. Sur la base de ces objectifs, on espère développer une culture de la recherche numérique à l’échelle nationale.

En parlant de l’expérience de l’Université de Toronto en matière de modèles de préservation et d’accès à long terme, Steve Marks (bibliothécaire en préservation numérique, bibliothèques de l’Université de Toronto) a décrit trois « vagues » distinctes, quoique se chevauchant, dans l’élaboration de dépôts numériques. La première génération de dépôts numériques a été conçue afin de répondre à des besoins précis en matière de revues savantes et de libre accès. Ils étaient considérés comme des « lieux de repos » pour les résultats de recherche de l’université, mais ils n’étaient pas optimisés pour la préservation à long terme ou pour le recours à un éventail de formats. La nature cloisonnée de ces dépôts a posé un autre défi : il n’y avait pas de point d’accès unique pour l’ensemble des contenus. La deuxième génération de dépôts numériques a cherché à corriger ces problèmes, et ils ont été une réussite à bien des égards, quoique le volume toujours croissant de contenu a continué de poser un réel défi. Cela a mené à la création de la troisième génération de dépôts numériques, qui mettent l’accent sur la découverte, l’accès et l’intégrité (en plus de l’acquisition et de la préservation). Il est important de souligner que ces systèmes ne sont pas seulement considérés comme des dépôts, mais plutôt comme des points de convergence essentiels pour traiter, dans leur ensemble et en permanence, les fonctions de création, de collecte, de préservation et de diffusion de contenus numériques. Bien que le mouvement général se soit orienté vers cette génération de dépôts numériques, M. Marks a ajouté que les dépôts numériques de la première et de la deuxième générations existent toujours et servent des fonctions importantes, leurs limites continuant cependant à poser des défis.

Conférenciers du groupe de discussions 3

Conférenciers du groupe de discussion III avec le bibliothécaire et archiviste du Canada : Omar Qasim, Sylvain Bélanger, Sandra Toze, Guy Berthiaume, la modératrice Leslie Weir et Steve Marks

Les questions posées au cours de cette discussion de groupe portaient sur le traitement des publications de tiers et l’élimination du contenu numérique. En ce qui concerne la première question, on a souligné que le fait de travailler directement avec les éditeurs, y compris ceux qui font de l’auto-édition, est sans doute l’approche la plus efficace et la plus pratique pour le nouveau contenu. Cela peut se faire en intégrant directement des mécanismes de dépôt aux plateformes de publication externes et en communiquant l’importance de déposer des copies pour la préservation et l’accès à long terme (y compris là où les exigences de dépôt légal s’appliquent). En ce qui concerne la deuxième question, un certain nombre de facteurs et de considérations ont été mentionnés, notamment de fournir les dates d’élimination au moment du dépôt, de séparer les articles ayant des périodes de conservation différentes, de tenir compte de la redondance et de migrer des formats obsolètes vers de nouveaux formats actuels. La redondance est un facteur particulièrement compliqué parce qu’elle est considérée à la fois comme une fonction de contrôle intégrée positive et comme une source potentielle d’information excédentaire et inutile si elle n’est pas bien gérée au fil du temps. Toutefois, sur la question centrale de savoir comment garantir l’élimination d’un contenu non désiré, on a réaffirmé l’enjeu de savoir à quel moment un élément a bel et bien été détruit.

Conclusion

Le deuxième forum des partenaires universitaires de BAC a réuni des fonctionnaires, des universitaires, des bibliothécaires et d’autres professionnels de la gestion de l’information venus discuter de l’incidence des technologies « perturbatrices » sur leurs professions respectives et explorer leurs défis communs ainsi que les possibilités interprofessionnelles qui pourraient s’offrir à eux. Bien que la majeure partie des discussions ont porté sur l’expérience des bibliothèques universitaires, les leçons apprises peuvent s’étendre à d’autres institutions. Fait important, les possibilités et les défis que présente la perturbation numérique ne sont pas propres à un contexte particulier, mais touchent tous les aspects de la société. Un niveau général d’intérêt et d’ouverture au changement est nécessaire pour gérer ces pressions avec succès. Il faudra notamment abandonner les anciens programmes, services, plateformes et paradigmes pour en adopter de nouveaux. Il faudra également adapter l’ancien au nouveau et vice versa, en reconnaissant que le « virage numérique » n’a pas d’aboutissement précis et qu’il est tout aussi lié à l’avenir qu’au présent et au passé. Ce qui compte, en fin de compte, c’est la façon dont les personnes gèrent ces transitions. C’est là l’un des principaux enseignements à retenir du forum, à savoir que les humains doivent demeurer au centre de la technologie. Cela, plus que toute autre chose, servira de guide à l’orientation future de la technologie et à son utilisation positive.

BAC remercie toutes les personnes qui ont participé à l’événement et ont contribué à sa réussite, tout comme il se réjouit à la perspective de poursuivre cette discussion, et d’autres, lors de futurs forums avec ses partenaires universitaires.

Conférenciers, modérateurs et partenaires universitaires du Forum 2

Conférenciers, modérateurs et l’équipe de BAC : Wayne Jones, Sylvain Bélanger, Martha Whitehead, Johanna Smith, Mike Smit, Guylaine Beaudry, André Vellino, Steve Marks, Guy Berthiaume, Jonathan Bengtson, Leslie Weir, Hugo Cyr, Linda Savoie, Marie-Jean Meurs, Zeïneb Gharbi et Pascale Robichaud.

Date de modification :