Bouillonnement dans le monde des bibliothèques universitaires : le contrat qui liait les établissements à l'éditeur académique Elsevier devait s'arrêter le 31 décembre 2013, à minuit. Mais les négociations menées par le consortium Couperin, chargé depuis 1999 d'évaluer, négocier et organiser « l'achat de ressources documentaires numériques au bénéfice de ses membres, des établissements d'enseignement supérieur et de recherche » et donc de discuter les prix « de gros » pour les établissements, paraissaient traîner sans aboutir. En date du 31 décembre 2013, et en l'absence de nouvelle contractualisation, personne ne savait donc réellement ce qui allait se passer.
Le 25/02/2014 à 09:38 par Nicolas Gary
Publié le :
25/02/2014 à 09:38
jonathanjonl, CC BY SA 2.0
Quelques jours après la date fatidique, les accès étaient toujours ouverts, et les bibliothèques universitaires dans l'expectative. Selon nos informations, Couperin avait par ailleurs et prudemment adressé un courrier à Elsevier, indiquant qu'aucune facturation ne serait acceptée, puisque la coupure dépendait de l'éditeur.
Problème : qui paye et comment ?
L'ensemble du contenu électronique dont il est question ici relève d'un niveau recherche, dont le grand public ne saurait probablement pas trop quoi faire. Mais c'est bien de l'argent public qui permet cet investissement, et la facture finale se chiffre en dizaines de millions d'euros annuellement pour l'ensemble des établissements universitaires français, un fameux marché.
La fin du contrat approchant, l'idée était recourir à un principe de licence nationale, idée dans l'air depuis longtemps, et qui a refait surface récemment afin de remplacer à chaque fois que possible le fonctionnement actuel dans lequel un groupement de plusieurs commandes est porté par un établissement, pour l'ensemble des BU qui souhaitent s'abonner. Le principe de la licence nationale, lui, permet de négocier en une fois un abonnement unique pour l'ensemble des établissements.
Pour les bibliothèques universitaires, l'intérêt de transiter par Couperin est simple : dans les négociations, le consortium permet de faire jouer la masse, pour obtenir de meilleures offres. Les BU ne négocient ainsi pas en direct avec les éditeurs, dans leur propre intérêt.
Fin décembre, Couperin avait annoncé que les propositions d'Elsevier n'étaient pas supportables. Bien que cette information n'a pas pu nous être confirmée, le consortium aurait alors sollicité le ministère de l'Enseignement supérieur et de la Recherche, pour que ce dernier mène les négociations directement.
Le 24 décembre, une nouvelle proposition d'Elsevier devait intervenir, mais au cours des semaines qui suivirent, silence radio de toutes parts.
‘Une situation de rentes monopolistiques'
De l'avis de beaucoup, Elsevier n'est plus un simple éditeur académique. Avec Science Direct, sa plateforme maison, c'est aussi une société cotée en bourse, qui moissonne large. Pour la bibliothèque universitaire d'Angers par exemple, et sur les 604.274 € de budget documents électroniques de l'année 2012, le seul abonnement Science Direct représentait 250.948,14 €. On comprend bien l'impact financier que représente alors Elsevier dans le fonctionnement des structures.
Bibliothèque de Lettre de Bordeaux III
charlotte henard, CC BT SA 2.0
« La société Elsevier n'est plus l'éditeur soucieux de diffusion des produits de la science. C'est devenu une grande société, cotée en Bourse, qui fait de l'argent sur les productions scientifiques sorties des laboratoires. L'argent public sert donc deux fois, une première fois à payer la recherche et les chercheurs (normal), une seconde fois à diffuser ce que cette recherche et ces chercheurs produisent, au travers des abonnements. De quoi s'interroger », nous explique une source proche de ces questions.
Certains n'hésitent alors pas à évoquer « une situation de rentes monopolistiques », dans laquelle s'est installé Elsevier, au même titre que d'autres acteurs. Ils « essaient - et réussissent parfois - d'appliquer, chaque fois que c'est possible des hausses inconsidérées, qui interviennent souvent à chaque nouveau contrat. »
La solution des Archives Ouvertes
Voici donc une situation pernicieuse, dans laquelle non seulement les BU, mais d'autres institutions, se retrouvent prises au piège, et ce d'autant plus que l'évaluation des chercheurs repose entre autres sur le nombre de leurs publications dans des revues détenues par Elsevier et d'autres éditeurs. « Pour en sortir, l'unique porte serait de choisi les Archives Ouvertes, un moyen qui briserait le cercle et ferait alors surgir de nouvelles règles. »
Un choix qui impliquerait « une rupture avec le modèle actuel dont Elsevier est un parfait exemple. Et cela suppose un courage politique venant du Ministère, qui doit aussi revoir ses grilles d'évaluations des chercheurs ».
Pour ce qui concerne le développement des Archives Ouvertes, ou Open Access, « on manque singulièrement de courage en France », dégaine-t-on. Et l'idée est d'ailleurs régulièrement portée, sans que les réalisations concrètes soient encore à la hauteur des enjeux scientifiques et financiers.
Fin de partie : les accords sont dévoilés
Le risque au final était de voir les négociations pencher en faveur de l'éditeur, et qu'un nouveau contrat pour cinq années soit conclu, « sans possibilité de sortie », nous assurait-on. Jusqu'à la semaine passée, un double problème se posait donc : celui de la négociation, et de ses débouchés, alors qu'en l'absence d'accord, les accès auraient dû être coupés. Et dans le même temps, un problème de fond autour de la diffusion des produits de la recherche, du financement de tout cela, et des choix politiques nationaux faits pour tel ou tel modèle.
Finalement, le 31 janvier, un accord qualifié d' « équilibré » par Couperin était trouvé :
Il constitue une avancée d'un point de vue tarifaire mais surtout d'un point de vue qualitatif, par son ampleur et par les garanties obtenues. Les acquis de ce contrat sont uniques et propres au marché français ». Un principe de licence nationale couvre maintenant « 'intégralité des établissements de l'enseignement supérieur et de la recherche, de nombreux établissements hospitaliers publics et des agences, ainsi que la Bibliothèque nationale de France.
Le périmètre des établissements desservis passe ainsi de « 147 établissements à 642 ». Cette dernière accordera également « une égalité d'accès pour tous les chercheurs sur le territoire ». Et le consortium de pointer trois grandes avancées :
Des modifications substantielles et des interrogations persistantes
Mais le principe de la Licence nationale ici négocié introduit des modifications dans les fonctionnements, qui posent questions. Dans le modèle précédent, les tarifs étaient négociés par Couperin mais l'abonnement à la ressource négociée relevait de la décision finale individuelle de chaque établissement.
Avec une licence nationale, l'accès à la ressource est accordée à des établissements, encore à définir, sans que chacun n'ait validé s'il souhaitait la ressource ou pas . Par ailleurs, les fonds destinés au paiement ont déjà été prélevés par le Ministère sur les fonds des clients historiques (sans leur accord express, donc) et on se demande entre autres qui paie alors pour l'extension.
Ce modèle, selon certains, serait en contradiction complète avec la Loi relative aux libertés et responsabilités des universités, ou LRU, dite aussi Loi Pécresse, visant l'autonomie des universités, dans les domaines budgétaires, mais également la gestion des ressources humaines. « Finalement les universités sont autonomes seulement quand il s'agit de se débrouiller avec l'accroissement ingérable des salaires », commente-t-on.
On cherche une solution
ed and eddie, CC BY SA 2.0
Sur le terrain, du côté de la gestion technique des accès, cela ne change donc pas grand chose, mais l'opacité du procédé gène beaucoup, et les personnels s'interrogent grandement sur les questions liées au montage financier comme juridique - en somme, sur la validité globale. Autre exemple, les CHU n'ont toujours aucune information sur les montant qu'ils devront verser, sur les modalités des versements, etc.
Enfin, attendu que la licence nationale négociée par le Consortium Couperin va donc ‘arroser' très largement les établissements, d'autres ministères sont censés être impliqués, et compter parmi les intervenants. Mais là encore, plusieurs questions persistent : quelle réalité pour la répartition des coûts ? Quid des établissements qui n'étaient pas membres des groupements de commande de règle jusqu'ici et qui vont maintenant avoir accès "gratuitement" à la ressource, pour combien de temps ? Leur a-t-on demandé leur avis ? Souhaitent-ils à terme payer pour cette ressource ? Si non, pourront-ils y échapper ? Pourront-ils y échapper surtout une fois qu'ils auront des statistiques d'usage contre eux ?
La réutilisation des données, une clause problématique
Reste enfin l'une des grandes questions soulevée par cet accord, touchant au Data mining. Une clause sur le sujet, évoquée dans le communiqué, embrase les esprits : Elsevier autoriserait bien le datamining mais en limitant de fait ce datamining via son API. « Après avoir privatisé les productions scientifiques, payées par l'argent public, que les BU repayent pour accéder à l'abonnement, Elsevier serait alors en train de privatiser un peu plus les données issues de la recherche. »
Sciences communes pointe clairement ce modèle de privatisation de l'information, dans un billet, Data mining : quand Elsevier écrit sa propre loi :
L'emprise d'Elsevier ne s'arrête pas là. L'éditeur ne cherche pas seulement à contrôler les projets de data mining en amont, mais aussi en aval. La licence Elsevier comprend trois conditions. Tout élément (output) issu de l'extraction :
• peut comprendre des extraits de 200 caractères au maximum du texte original.
• doit être publié sous une licence non commercial (CC-BY-NC)
• doit inclure un lien DOI vers le contenu original.
La dernière condition est clairement la moins problématique. La traçabilité des données nécessite certes un équipement technique adéquat (pour reprendre le jargon des data scientists, il faut passer du triplet sujet-prédicat-objet au quadruplet sujet-prédicat-objet-source). Mais elle constitue une pratique saine, d'ailleurs appelée à se généraliser. Wikidata inclut ainsi des notes de base de donnée : chaque donnée étant appelée à être étayée par une source fiable.
La première condition contredit ouvertement l'exception de courte citation. En France, le législateur a volontairement adopté une définition floue afin de laisser le juge statuer sur chaque cas selon ses spécificités. Les exceptions sont beaucoup trop nombreuses pour envisager de faire une règle fixe. L'application du droit de citation sera beaucoup plus rigoureuse pour une œuvre courte (comme par exemple un poème) que pour un roman de mille pages. Or Elsevier tente de contourner le droit existant pour imposer sa propre règle : une limite de 200 caractères, purement arbitraire. Cela hypothèque quantité de projet comme le souligne bien Peter Murray-Rust : les noms de composés chimiques excèdent fréquemment la barre des 200 caractères.
Là n'est pas encore le plus grave. La deuxième condition introduit une dérive beaucoup plus problématique : elle requiert une forme de privatisation de l'information. Nul ne peut en effet réclamer de droit de propriété sur une information, une opinion ou une idée. Tous ces éléments relèvent du domaine public de l'information. Pour reprendre l'excellente définition de l'UNESCO, il existe un « indivis mondial de l'information » composé de toutes les informations publiquement accessibles. Le fonctionnement de la recherche repose explicitement sur cet indivis : le format classique de l'article de recherche, quadrillé de notes de base de page, suppose de pouvoir légitimement reprendre une information préalablement publiée.
Les données « solitaires » font globalement partie de ce domaine public de l'information. À moins de reprendre une expression textuelle originale, elles ne sont pas concernées par le droit d'auteur. Le droit des bases de données ne porte qu'au niveau structurel : chaque donnée individuelle est disponible pour n'importe quelle reprise, au même titre que n'importe quelle information publiquement accessible.
Or Elsevier impose discrètement l'idée que les informations pourraient être protégées. L'utilisation du terme ambigu output permet d'opérer ce glissement lourd de conséquence : tout ce qui sort des publications d'Elsevier reste la propriété d'Elsevier et l'éditeur est libre d'imposer ses propres conditions pour leur réutilisation. Ni les informations, ni les données « solitaires » n'échappent à cette appropriation globale : toute reprise du contenu d'Elsevier à des fins de data mining devra être publié sous une licence non-commerciale.
Cette dérive est lourde de conséquence. Une fois que Elsevier est parvenu à imposer l'idée que tout output donne potentiellement lieu à une protection, rien ne l'empêche d'aller beaucoup plus loin. Cette règle peut aisément être généralisée à l'ensemble des pratiques de reprises de l'information. Nous faisons, tous, au quotidien du data-mining en récupérant des informations dans des textes préalablement publiés. L'API et les algorithmes d'extraction ne sont que des outils supplémentaires visant à simplifier cette activité fondamentale. Un projet de l'ampleur de Text2Genome aurait très bien pu être réalisé avec un papier et un crayon : son élaboration aurait simplement pris un ou deux siècles plutôt que quelques années.
La clause limite ainsi la réutilisation des données, devenues en quelque sorte propriété d'Elsevier, puisque l'exploitation de l'API implique en préalable de s'enregistrer auprès de l'éditeur et de décrire le projet de recherche pour lequel on souhaite utiliser cette API. Que deviendrons alors les renseignements tirés de ce pistage des chercheurs ? En acceptant cette clause, n'ouvre-t-on pas la voie à une forme d'espionnage industriel, voire militaire, qui commencerait à ce niveau ?
« On attaque surtout les principes mêmes de l'accord, prenant en compte le ‘piège Elsevier', alors que dans le même temps, une politique Archives Ouvertes serait en cours en France. Nombreux sont ceux qui pensent qu'il ne fallait pas signer cet accord et profiter de l'occasion pour forcer une bascule vers les Archives Ouvertes dans le pays. Tout le monde ou presque dans les BU s'accorde à dire que la main-mise des éditeurs sur la production scientifique est devenue insupportable, et que les AO sont la solution rêvée. Mais on discute encore sur les manières de sortir de cette situation. »
Sollicités, ni Elsevier, ni Couperin n'ont apporté de commentaires.
Par Nicolas Gary
Contact : ng@actualitte.com
Commenter cet article