id
stringlengths
18
25
text
stringlengths
3.75k
78.6k
reference-summary
stringlengths
202
4.45k
source
stringlengths
33
79
termith-401-communication
Dans le passé, les langages documentaires sont nés à l'occasion d'évolutions techno-culturelles conduisant à repenser la question de l'organisation des connaissances et de l'accès à l'information. Plus précisément, ces évolutions concernent la croissance des volumes d'information disponibles, le déploiement de nouveaux supports d'inscription et l'apparition de nouvelles modalités de communication de l'information. • Sans remonter aux formes primitives de classification des livres, citons les grandes classifications encyclopédiques de bibliothèques : elles résultent du foisonnement éditorial de la fin du XIXe siècle 1, qui provoque un accroissement considérable des collections. Conçues pour permettre un arrangement rationnel des ouvrages sur les rayons, elles facilitent l'accès thématique aux ouvrages, mais simplifient également la gestion de ces accroissements. De plus, leur système de notation (en particulier la notation décimale) leur confère des capacités d'aménagement et d'extension qui les rendent aptes à suivre les évolutions amenées par le progrès scientifique. • Les listes de vedettes matière apparaissent et prospèrent à la faveur de l'accélération de la publication et de la circulation des savoirs sous forme imprimée, à l'aube du XXe siècle. L'établissement de catalogues imprimés, avec leur indexation matière, permet la diffusion des informations bibliographiques et favorise l'émergence des premiers « réseaux » de bibliothèques. La publication des travaux scientifiques se fait de plus en plus sous forme d'articles de périodiques 2, d'où une distinction entre unité documentaire et unité physique qui accentue la nécessité des documents secondaires. Les registres et catalogues imprimés sont de plus en plus délaissés au profit des catalogues sur fiches, pour lesquels un classement alphabétique par sujets devient possible grâce à cette forme d'indexation. • Le développement des thésaurus a suivi quant à lui la diffusion des techniques informatiques, vers la fin des années cinquante, bien que leur genèse ne soit pas directement liée à l'apparition des ordinateurs. La stabilisation de leur modèle est l'aboutissement de réflexions autour de trois préoccupations sur l'organisation d'une documentation qui prolifère, qui n'est plus strictement scientifique mais de plus en plus technique 3, et pour laquelle les langages documentaires existants sont inadéquats. En premier lieu, il s'agissait de concevoir un système compact, qui ne demande pas de répertorier a priori de nombreux concepts, mais qui autorise l'expression d'un grand nombre de sujets. De nouvelles formes d'indexation, dites (post) coordonnées, sont mises au point, comme les descripteurs de Calvin Mooers ou les unitermes de Mortimer Taube, avec les équipements mécanographiques permettant les combinaisons lors des recherches. En deuxième lieu, il importait, en prenant en compte la synonymie, d'harmoniser le vocabulaire des auteurs, celui des indexeurs et celui des utilisateurs. Enfin, il fallait imaginer des moyens de guider indexeurs et utilisateurs dans le choix des termes appropriés, ce que vise la structuration sémantique des termes par les liens hiérarchiques et associatifs. On arrive ainsi aux trois caractéristiques définitoires du thésaurus : un langage structuré, contrôlé et combinatoire. La logique de recherche booléenne qui met à profit cette dernière caractéristique est remarquablement adaptée aux opérations de base effectuées par l'ordinateur, d'où un succès immédiat et durable de ces langages documentaires en contexte informatisé. Classifications, listes de vedettes matière et thésaurus sont prototypiques des trois types de langages documentaires mis en évidence par Jacques Maniez [31 ], dont les propositions sont synthétisées de manière très claire par Sylvie Dalbin dans l'un de ses billets [13 ]. Y sont respectivement répertoriés des classes de sujets, des sujets et des concepts « élémentaires ». Ces trois souches de langages documentaires restent aujourd'hui bien vivantes et largement utilisées, même si les deux premières sont davantage maîtrisées par les bibliothécaires, et si la troisième demeure une sorte de « domaine réservé » des documentalistes, au moins dans le modèle français de cloisonnement professionnel qui est encore en vigueur. Les classifications encyclopédiques, en particulier lorsqu'elles sont essentiellement énumératives, comme la Classification décimale de Dewey (DDC) ou la Classification de la Bibliothèque du Congrès (LCC), constituent toujours l'ossature de l'accès par sujet dans de nombreuses bibliothèques, bien qu'elles soient critiquables sur de nombreux points. L'usage de la Classification décimale universelle (UDC), aux capacités expressives pourtant très riches, avec son système élaboré de ponctuation permettant d'exprimer très finement des catégories thématiques, semble de son côté en recul. Les listes de vedettes matière sont elles aussi des outils très sollicités, du moins par les catalogueurs 4, dans les bibliothèques un peu partout dans le monde : la liste de la Bibliothèque du Congrès américain (LCSH) dans les pays anglophones, le Répertoire de vedettes matière de l'Université Laval (RVM) ou RAMEAU dans la francophonie. Les thésaurus sont sans doute les plus universels des langages documentaires, malgré (ou à cause de) leur caractère le plus souvent spécialisé. On en rencontre de toutes tailles, dans tous les domaines, dans tous les pays et dans toutes sortes d'organisations (entreprises, administrations, institutions d'enseignement, associations), à l'exception peut-être des… bibliothèques. Cette vitalité des usages ne suffit toutefois pas à masquer un conservatisme certain dans leur conception. Bon nombre d'ouvrages consacrés aux langages documentaires qui font autorité à l'heure actuelle ont été publiés quasi simultanément à la fin des années quatre-vingt [2] [10] [29] [47 ]. Le corpus normatif français et international sur les thésaurus date aussi pour l'essentiel de la même époque. Les nouvelles normes américaine et britannique 5 apporteront-elles des éléments de renouveau ? Il est sans doute trop tôt pour se prononcer : la première a paru en 2005 [35] et la seconde, bien que partiellement publiée [7] [8 ], reste à l'heure actuelle en chantier. Les systèmes d'accès navigationnel aux ressources ordonnées à l'aide des grandes classifications encyclopédiques restent, au mieux, embryonnaires ou à l'état de prototypes, comme DeweyBrowser 6 de l'OCLC ou le Visual Catalogue 7 des universités de Picardie et de Paris-8. Dans le premier cas, seuls les niveaux supérieurs de la Classification de Dewey sont « navigables »; dans le second, la structure hiérarchique des classifications consultables n'est pas exploitée, et les indices construits ne sont pas légendés. L'interrogation par sujets des catalogues de bibliothèques, de plus en plus consultables par Internet, n'a pas encore bénéficié d'avancées ergonomiques notables par rapport aux OPACs (online public access catalogues) de deuxième génération, dont c'était notoirement la faiblesse majeure. Beaucoup de thésaurus sont disponibles sur Internet, dans des configurations qui tirent plus ou moins parti des possibilités graphiques et hypertextuelles du médium. Citons l'exemple de MOTBIS 8, dont la nouvelle version fait l'objet sur le Web d'une présentation graphique et de possibilités de navigation soignées, dans la lignée de la réussite que représente le Thésaurus Santé Publique 9. Mais, faute d'interface suffisamment conviviale pour la constitution de requêtes booléennes tant soit peu élaborées, leur usage sur le Web reste limité à des publics de spécialistes. Pourtant, des enquêtes ont montré que les utilisateurs se déclarent disposés à faire usage d'un thésaurus, à condition qu'il soit mis à leur disposition et que les règles du jeu leur soient expliquées [20 ]. De plus, il arrive fréquemment que les ressources soient indexées avec un thésaurus alors que seule une recherche par requête libre est proposée sur le site Internet. Cette situation est typique des ressources produites selon une approche documentaire traditionnelle, puis exportées vers un système qui n'en prend pas en compte la structure ni les spécificités. Elle peut aussi répondre à la nécessité de s'adresser à un public large qu'une recherche documentaire classique pourrait rebuter, ou à la volonté de proposer un accès à des ressources hétérogènes, non indexées pour certaines. Dans ces configurations, les capacités du thésaurus sont évidemment sous-exploitées, puisque les descripteurs assignés au document sont traités ni plus ni moins comme des éléments du texte intégral. Tout au plus pourra -t-on s'attendre à une amélioration marginale de la précision des réponses obtenues, dans la mesure où les descripteurs donnent aux concepts significatifs un poids supplémentaire dans le document. Les tentatives pour définir de nouveaux modèles de langages documentaires, dans l'optique d'améliorer la précision dans l'expression des sujets des documents ou des requêtes, n'ont jamais vraiment abouti au cours du XXe siècle. Ces tentatives avaient en commun la volonté d'introduire une syntaxe permettant d'assembler de manière normalisée les éléments du langage documentaire pour reconstruire les sujets des documents traités ou recherchés. En cela, les systèmes issus de ces réflexions seraient pourtant les seuls à vraiment justifier l'appellation de langages documentaires, et les systèmes à syntaxe uniquement combinatoire pourraient, selon la proposition ancienne de Jean-Claude Gardin [12 ], être qualifiés de lexiques documentaires. Les classifications à facettes, premières en date de ces tentatives, n'ont pas réussi à s'imposer [30 ], et constituent aujourd'hui, comme le remarque Michèle Hudon, « davantage un objet de recherche plutôt qu'un outil de travail » [28 ]. Notons toutefois que de nombreux indices permettent d'y voir une solution à la fois élégante et économique à beaucoup de problèmes posés par l'accès à l'information numérique, en particulier sur Internet ou dans les intranets. Des progrès significatifs dans la conception et la réalisation d'interfaces adaptées à ce type de langage ont été accomplis. Il suffit d'utiliser le prototype Flamenco 10, réalisé par l'université de Berkeley, pour se convaincre de la puissance et de la souplesse de ce modèle. Malgré une assise théorique séduisante, la famille des langages syntagmatiques n'a qu'exceptionnellement donné lieu à des mises en application concrètes. Le PRECIS de Derek Austin [3] a bien été utilisé un temps, par exemple par la British National Bibliography, mais a été abandonné. Le SYNTOL de Jean-Claude Gardin [12] ou le CODOC de Robert Pagès [15] n'ont jamais été vraiment en usage ou l'ont été de manière très confidentielle. Et qui, de nos jours, a entendu parler de POPSI [5] ? Tous ces systèmes sont à ranger, comme les classifications à facettes, dans la catégorie des langages analytico-synthétiques. La cause de cet insuccès est sans doute à rechercher dans un rejet de la complexité d'utilisation de ces instruments, aussi bien à l'indexation qu' à la recherche [49 ]. Les réflexions et études consacrées aux listes de vedettes matière, proches par certains aspects de cette catégorie de langages, et également pourvues d'une syntaxe (à travers les subdivisions), tendent à confirmer l'hypothèse qu'un excès de complexité est un frein à l'utilisation pertinente de ces systèmes. Les vedettes construites « complexes » sont souvent mal comprises (par les utilisateurs, mais aussi par les bibliothécaires) [16] et les règles de combinaison des têtes de vedette et des subdivisions sont trop restrictives, et demanderaient à être simplifiées [34 ]. La nécessité d'un contrôle terminologique de l'expression du sujet des documents, à travers un langage documentaire, est fermement établie en théorie; elle découle des phénomènes de polysémie et de polynymie (fait pour un concept d' être désigné par plusieurs termes synonymes) qui abondent dans la langue. Cette nécessité n'a cependant jamais été confirmée expérimentalement de manière convaincante. Elaine Svenonius a beau affirmer que, puisqu'il est possible de déduire logiquement cette nécessité des « anomalies » des langues naturelles, une démonstration empirique n'est pas nécessaire dans ce domaine [45 ], le fait reste quelque peu dérangeant. Des expériences d'évaluation de la recherche d'informations sont menées à partir des années soixante. Elles ont notamment pour objectif de mesurer l'efficacité de différents dispositifs d'indexation, à base de langages contrôlés ou de langage naturel. La série d'expériences connue sous le nom de « projet Cranfield », conduite par Cyril Cleverdon, demeure emblématique et a durablement influencé les méthodes d'évaluation [9 ]. Les meilleurs résultats obtenus lors de ces expérimentations, en termes de rappel et de précision, étaient le fait de la technique d'indexation par sélection de mots simples (unitermes) dans le texte des documents [11 ]. Tout semble se passer comme si les « anomalies » de la langue étaient en fait moins préjudiciables à la recherche d'informations que les inévitables imperfections et approximations des langages contrôlés. Un grand nombre d'expériences plus ou moins similaires ont suivi celles de Cleverdon, sans permettre de départager nettement langages contrôlés et langage libre [46 ]. Citons par exemple l'une des plus récentes [41 ], qui conclut à une meilleure performance du langage contrôlé. Ces résultats parfois contradictoires, de multiples doutes sur la validité des méthodes d'évaluation, et surtout le manque de prise en compte des nombreux paramètres susceptibles d'influer sur la qualité d'une approche incitent à une grande prudence quant à l'interprétation des conclusions de ces études. Cette prudence conduit finalement la communauté des chercheurs et praticiens à recommander des solutions qui combineraient la recherche sur les mots du texte avec un repérage fondé sur une analyse intellectuelle des ressources et une représentation par un langage documentaire, ou au pire avec une assistance terminologique fournie par le langage documentaire. L'article de Gerard Salton, « Another Look at Text Retrieval Systems » [40 ], marque une rupture de cet équilibre mi-chèvre mi-chou. Il est publié en 1986, c'est-à-dire au moment où paraissent également en France les manuels et les normes de référence sur les thésaurus. C'est aussi la période où la banalisation des outils informatiques et bureautiques favorise la production massive de textes sous forme électronique, dont la diffusion va s'accélérer de façon spectaculaire quelques années plus tard avec l'apparition du World Wide Web. Salton y défend vigoureusement la thèse selon laquelle les systèmes d'indexation automatique du texte intégral donnent des résultats au moins aussi bons que l'indexation manuelle avec un langage contrôlé. Il fait aussi remarquer que ces résultats ne pourront que s'améliorer avec les inévitables progrès de ces techniques, ce qui n'est pas le cas avec les pratiques traditionnelles. L'argument économique est le plus souvent invoqué pour justifier le choix du langage libre et (surtout ?) de l'indexation entièrement automatisée. Dès lors que la recherche libre sur les mots du texte donne des résultats au moins comparables qualitativement à ceux de la recherche avec un langage contrôlé, il serait vain de consacrer des ressources à la constitution d'un langage documentaire et à l'indexation. En réalité, et Jean-Claude Gardin le démontrait déjà en 1964 [12 ], la recherche libre reporte sur l'usager du système l'essentiel de la charge de travail intellectuel nécessaire à l'élimination des problèmes posés par la polysémie et la polynymie; de plus, ce travail doit être accompli lors de chaque recherche au lieu d' être consigné de manière permanente dans le langage documentaire et/ou dans les champs d'indexation des documents. Se passer d'un langage contrôlé serait donc contre-productif. Cette analyse n'a que le défaut de supposer que ces problèmes doivent nécessairement être résolus pour qu'une démarche de recherche d'information soit satisfaisante, du point de vue de l'utilisateur. La résolution de la polynymie, par utilisation de termes de recherche synonymes, permet l'amélioration du rappel, ce qui n'offre qu'un intérêt limité dans un contexte de surabondance d'information. Même dans les cas où l'exhaustivité des résultats est souhaitée, il est extrêmement malaisé pour les utilisateurs de se faire une idée du moment où cette exhaustivité est atteinte, Ils peuvent donc se déclarer satisfaits, alors qu'en fait de nombreuses références sont manquées. De ce point de vue, l'expérience menée par Blair et Maron en 1985 reste riche d'enseignements [6] : des juristes à qui il était demandé d'effectuer des recherches de manière à rassembler au moins 75 % des références pertinentes estimaient leur tâche accomplie quand en moyenne 20 % seulement de ces références avaient été identifiées ! On aurait pu s'attendre à ce que l'explosion des technologies Internet et les mutations informationnelles qui en découlent suscitent des formes nouvelles de langages documentaires. Cela ne semble guère être le cas, et Jacques Maniez pouvait noter en 2002 que les seules nouveautés en la matière étaient à rechercher dans l'organisation des répertoires de sites web à la Yahoo ! [31 ]. En réalité, plusieurs phénomènes liés aux évolutions du World Wide Web et de ses avatars (intranets, extranets, places de marché électroniques) dans les années deux mille ont engendré des artefacts dont les structures et les fonctions s'apparentent à celles des langages documentaires, sans toutefois qu'ils soient issus des mêmes communautés de pratiques (bibliothèques ou centres de ressources documentaires) : le développement du Web marchand et celui des sites intranet d'entreprises s'accompagnent de la création de cadres de présentation et de découverte des ressources, les taxonomies; la nouvelle génération du Web, avec le Web sémantique d'abord, puis avec le « Web 2.0 », est à l'origine de réponses originales, en apparence radicalement opposées, à la question de l'annotation / description des ressources numériques : les ontologies d'un côté, les folksonomies et l'indexation sociale de l'autre. Dans ce contexte, il n'est peut-être pas inutile de se pencher sur ces instruments dont les définitions ne sont pas toujours très claires et qui suscitent régulièrement la perplexité des professionnels de l'information-documentation. « Quelle est la différence entre taxonomie et ontologie ? », s'interrogeait récemment un internaute sur Yahoo ! Answers 11. Doit-on voir dans l'essor récent de ces outils un nouveau péril pour les langages documentaires et les pratiques de traitement intellectuel de l'information qu'ils sous-tendent ? Ne s'agit-il que d'un cas de « réinvention de la roue » par des informaticiens néophytes et ignorants des techniques documentaires ? Nous laisserons de côté le phénomène de l'indexation sociale et des folksonomies, qui est abordé dans un autre article de cette livraison de Documentaliste – Sciences de l'information 12, pour tenter de cerner les notions de taxonomie d'abord, puis d'ontologie. L'emploi du terme taxonomie ou taxinomie (les deux formes sont à notre avis équivalentes) dans le contexte des langages documentaires est relativement peu attesté dans la littérature publiée, mais est davantage le fait de praticiens ou d'industriels. Alan Gilchrist [18] en relève cinq significations distinctes dans le domaine de la gestion des connaissances, qui correspondent à des objets s'étageant des systèmes de classification utilisés par les répertoires de sites web à des « thésaurus enrichis », de structure plus complexe. Cet inventaire ne permet guère de se faire une idée précise de ce que recouvre le terme. Les définitions que l'on peut glaner ici ou là ne sont pas plus éclairantes. Dans leur Thésauroglossaire [14 ], Danièle Dégez et Dominique Ménillet font de taxonomie un terme spécifique de langage hiérarchisé, mais un synonyme de systématique, et en donnent comme définition « classification des formes vivantes ». Jacques Maniez écrit quant à lui [31] : « La taxinomie est, au sens général, la science des classifications, mais on nomme aussi taxinomies les classifications de structure monohiérarchique. » Dans le lexique qu'elle propose en ligne 13, la société Lingway donne la définition suivante : « Réseau sémantique dans lequel la seule relation est la relation hiérarchique. » Le Montague Institute 14 définit une taxonomie comme « a system for naming and organizing things into groups that share similar characteristics 15 », en précisant que cette définition n'implique pas que le seul mode d'organisation possible pour une taxonomie soit une hiérarchie thématique. Enfin, dans le glossaire Dublin Core 16, on relève la définition suivante : « Systematic classification according to principles or general laws 17. » Ce même glossaire affirme de plus : « A classification system such as Library of Congress Classification is an example of a taxonomy 18 », et par ailleurs (à l'entrée thesaurus) : « A thesaurus is a taxonomy 19. » Nous sommes donc en présence de conceptions très hétérogènes de ce qu'est une taxonomie en gestion des connaissances : d'une acception restreinte aux classifications de la biosystématique, conformément à l'usage initial du terme, on passe à une définition élargie aux systèmes classificatoires exclusivement hiérarchiques, puis à tout système de classification, qu'il soit hiérarchique ou non; la portée du terme est finalement étendue à tout langage documentaire doté, exclusivement ou non, d'une organisation hiérarchique. Dans ces conditions, en formuler une nouvelle définition est un exercice périlleux. Nous nous y risquerons néanmoins, en observant que ce ne sont pas tant les caractères structurels des taxonomies qui sont déterminants pour les définir que la fonction qui est la leur. Pour nous, une taxonomie est un cadre d'organisation pour des ressources numériques de toutes natures (et pas seulement documentaires – en cela les taxonomies ne sont pas toujours des langages documentaires) destiné à en permettre une présentation ordonnée et y donnant accès par navigation hypertextuelle. À côté de cet emploi relatif à des instruments autonomes, on parle aussi de taxonomies (de termes, de classes, de concepts) pour désigner la hiérarchie ou l'arborescence autour de laquelle sont construits d'autres types d'instruments. Rappelons tout d'abord que l'ontologie est la branche de la philosophie qui s'intéresse à la notion d'existence, aux catégories fondamentales de l'existant, et qui étudie les propriétés générales de l' être. L'idée de s'appuyer sur une approche ontologique pour fonder une démarche de représentation des connaissances est relativement ancienne. Barry Smith et Christopher Welty [42] datent du début des années quatre-vingt les réflexions concluant à la nécessité de cette approche. Nicola Guarino [22] développe et argumente par la suite cette idée, et défend le rôle en ingénierie des connaissances d'une ontologie chargée des problèmes de représentation, aux côtés de l'épistémologie davantage occupée de problèmes de raisonnement. Bien que ces développements théoriques soient parfois contestés (voir, par exemple, l'argumentation de Jean Robillard [38] ou celle de Marcia Bates [4]), on est rapidement passé de la théorie à la pratique, et de l'ontologie, au singulier – discipline philosophique, aux ontologies, au pluriel – objets techniques. On a baptisé ontologies des ressources de natures diverses utilisées dans des contextes comme l'intelligence artificielle, l'ingénierie linguistique ou la gestion des connaissances, voire conçues sans visée applicative particulière. Une littérature de plus en plus abondante leur est consacrée. À titre indicatif, une rapide recherche dans deux ressources en ligne 20 et ACM Digital Library 21) montre un accroissement sensible depuis 2001 du nombre d'articles répondant à une requête sur le mot « ontologies » [<hi rend="italic">figure 1</hi>] (l'utilisation du pluriel permet de regrouper des références en anglais et en français, tout en limitant les occurrences du terme pris dans son acception purement philosophique). Il est vraisemblable que les travaux sur l'architecture du web sémantique, dont les ontologies constituent l'un des piliers, ont contribué à cet accroissement. En parcourant cette littérature, on se rend compte que les aspects théoriques évoqués plus haut y sont toujours représentés, mais que le discours de l'ingénierie, où des ontologies sont décrites en tant que constituants de systèmes à base de connaissances, tend à devenir dominant. Là encore, le paradigme du web sémantique peut être un facteur d'explication, dans la mesure où il aboutit à la mise en place progressive d'une infrastructure normative et technique qui favorise le développement de tels systèmes. Trait d'union entre théorie et ingénierie, l'approche méthodologique, ou ingénierie ontologique, y occupe également une place importante. On se rend compte aussi que ce corpus est parcouru de questionnements sur ce qu'est vraiment une ontologie et sur les différences entre ontologies et autres ressources telles que thésaurus, taxonomies, réseaux sémantiques, etc. Malgré son histoire déjà longue, la notion d'ontologie semble en effet être entachée de flou. Dès 1995, Nicola Guarino et Pierdaniele Giaretta [24] constatent que le sens du mot demeure un peu vague, et en étudient sept acceptions possibles. Dix ans plus tard, le vague n'a pas disparu, et Silvia Arano [1 ], par exemple, cite une dizaine de définitions, qu'elle analyse. Christophe Roche note de son côté [39] : « Bien que les ontologies aient une visée normative, nous devons faire face à de nombreuses définitions et approches différentes et parfois contradictoires. » Le terme ontologie doit donc être considéré comme polysémique, même à ne considérer que son emploi en ingénierie des connaissances. Un bon indice de cette polysémie est fourni par l'observation des deux définitions les plus souvent citées : – « An ontology is an explicit specification of a conceptualization 22 » [21]; – « An ontology is a formal, explicit specification of a shared conceptualisation 23 » [44 ]. Elles présentent une assez grande ressemblance et, de fait, elles ne sont pas contradictoires. La seconde introduit deux differentiae supplémentaires par rapport à la première, shared (partagée) et formal (formelle). En cela, elle est plus spécifique et plus contraignante, et ontologie1 serait un hypéronyme d'ontologie2. En réalité, c'est surtout le caractère obligatoirement formel ou non qui permet de différencier les deux acceptions. Notons que la situation est encore compliquée par le fait que le terme ontologie formelle est lui -même ambigu – voir par exemple [23] : « An ontology is sometimes called a formal ontology, although we shall use the expression " formal ontology " only to refer to a philosophical research field. 24 » En accord avec la définition 1 proposée par Thomas Gruber, nombreux sont les auteurs qui parlent d'ontologies informelles ou d'ontologies semi-formelles (par exemple [19] [48]). Ces auteurs se trouvent en général parmi ceux qui revendiquent la continuité entre l'ontologie philosophique et les ontologies en ingénierie des connaissances. Dans cette perspective, un grand nombre d'objets peuvent être rangés dans la classe des ontologies, y compris les langages documentaires; ce qu'illustre le schéma de la figure 2, proposé en particulier dans [42 ]. Ce schéma est repris par Deborah McGuinness [32 ], qui y ajoute une délimitation tranchée entre les ressources que l'on peut dénommer ontologies, obligatoirement formelles (bien que l'auteure cite la définition de Thomas Gruber) et d'autres types de ressources [<hi rend="italic">figure 3</hi> ]. Il est vrai que ce caractère obligatoirement formel n'est pas explicitement stipulé dans le commentaire de ce schéma. Il apparaît néanmoins dans l'adaptation [<hi rend="italic">figure 4</hi>] qu'en donne Frédéric Fürst [17, p. 18 ]. Dans cet emploi du terme, le caractère formel se superpose à la capacité d'une ontologie à se prêter au raisonnement automatique, ce qui apparaît lorsque les trois schémas précédents sont juxtaposés. Il est plus répandu parmi les « ingénieurs », que ce soit au sein de la communauté de l'intelligence artificielle ou de celle du web sémantique. Les étapes de développement d'une ontologie permettent d'avancer une hypothèse pour articuler ces deux acceptions. Le processus d'élaboration d'une ontologie est schématisé par Frédéric Fürst [17, p. 12] ainsi que le montre la figure 5. L'ontologie au sens 2 désigne les objets techniques obtenus in fine. L'ontologie au sens 1 pourrait dénoter chacun des états successifs au cours de ce processus – voire le processus lui -même; ce que peut expliquer en partie la polysémie régulière du genus de nos définitions : specification, en anglais comme en français, c'est l'action de spécifier ou son résultat. Nous avons vu plus haut que les ontologies étaient parfois considérées comme incluant les langages documentaires et les taxonomies : « Ontologies on the Web range from large taxonomies categorizing Web sites (such as on Yahoo !) to categorizations of products for sale and their features. 25 » [36] Plus rarement, le rapport d'inclusion est vu en sens inverse, et l'on fait des ontologies une sorte de langage documentaire, dans un mouvement d'annexion qui n'est pas toujours argumenté. Michèle Hudon, par exemple, écrit [27] : « Au fil des ans se sont développés des langages documentaires de type catégoriel ou classificatoire (schémas de classification, taxinomies, ontologies) et des langages de type combinatoire (répertoires de vedettes matière, thésaurus, listes de mots clés contrôlés). » Ces assimilations peuvent s'expliquer par une certaine homologie fonctionnelle entre ontologies et langages documentaires. Dans la vision du web sémantique, les ontologies doivent servir de cadre de contrôle et de référence pour l'expression des métadonnées et leur interprétation par des applications « intelligentes ». Elles jouent donc dans ce contexte un rôle similaire à celui des langages documentaires dans les systèmes d'information bibliographiques. Il existe d'autre part une homologie structurelle apparente avec les langages classificatoires. Une hiérarchie de classes de concepts est l'élément central d'une ontologie, en particulier d'une ontologie exprimée dans le langage OWL (Web Ontology Language, ou Langage d'ontologies web). Malgré ces similitudes, nous pensons avec Roberto Poli qu'il est inexact d'assimiler de quelque manière que ce soit ontologies et langages documentaires : « An ontology is not a catalogue of the world, a taxonomy, a terminology or a list of objects, things or whatever else. If anything, an ontology is the general framework (= structure) within which catalogues, taxonomies, terminologies may be given suitable organization. 26 » [37] Dans cette conception, une ontologie est avant tout un modèle pour la description ou la définition formelle de concepts de diverses natures, de manière à en permettre la manipulation par des automates. Un thésaurus peut, par exemple, être représenté dans une ontologie; cette ontologie est alors celle des thésaurus, ou d'un certain type de thésaurus, mais en aucun cas celle du domaine de connaissances couvert par le thésaurus considéré. Un thésaurus peut également être transformé en ontologie de domaine, la plupart du temps au prix d'un travail considérable de formalisation. L'exemple d'AGROVOC, décrit par Dagobert Soergel [43 ], donne une idée de la nature de ce travail et des possibilités qu'il ouvre. À côté des langages documentaires classiques, toujours bien enracinés, d'autres cadres de référence pour l'indexation et les métadonnées prennent donc place aujourd'hui. Nous avons vu qu'une certaine confusion terminologique règne autour de ces nouveaux instruments. Elle résulte en partie du défaut d'un terme générique qui engloberait à la fois les langages documentaires, traditionnels ou atypiques, leurs déclinaisons actuelles, et divers objets ayant en commun l'ambition de capturer et d'articuler les éléments terminologiques et/ou conceptuels d'un ou de plusieurs domaines de connaissance ou d'activité. Le terme système d'organisation des connaissances pourrait jouer ce rôle. D'après Gail Hodge [26 ], il a été proposé pour la première fois en 1998, lors du lancement du groupe de travail NKOS (Networked Knowledge Organization Systems). Pour l'auteure citée, ce terme inclut les listes de termes (listes d'autorité, glossaires, dictionnaires), les schémas de classement (classifications, plans de classement et taxonomies) et les réseaux de concepts (thésaurus, réseaux sémantiques, ontologies). Le World Wide Web Consortium (W3C), au moment d'élaborer la recommandation SKOS (Simple Knowledge Organization Systems) sur le format d'encodage et le modèle de représentation de ces systèmes 27, utilise également l'appellation schémas de concepts (concept schemes) [33 ]. Cette recommandation concerne les thésaurus, listes de vedettes matière, terminologies, glossaires, taxonomies, schémas de classification « et autres formes de vocabulaires contrôlés » mais n'englobe pas explicitement les ontologies, ce qui est compréhensible puisque ces dernières font par ailleurs l'objet d'une part importante des activités de réflexion et de standardisation du consortium. Dans tous les cas, c'est en priorité par rapport à un contexte de description, découverte et repérage des ressources numériques que se placent les systèmes d'organisation des connaissances 28. À l'issue de ce panorama, on peut formuler à l'encontre des langages documentaires quelques remarques critiques en forme de paradoxes. • Après plus d'un siècle d'existence pour les grandes classifications et un demi-siècle pour les thésaurus, et dans un environnement informationnel dont l'évolution est de plus en plus rapide, on ne voit guère de remise en question des structures de langages documentaires classiques. • Les langages documentaires les plus perfectionnés et en principe les mieux adaptés à leur fonction de reconstruction et d'expression des sujets (c'est-à-dire ceux qui sont dotés d'une syntaxe) sont aussi les moins répandus. • L'efficacité des langages contrôlés ne fait aucun doute en théorie, mais on n'est pas parvenu à en apporter une démonstration expérimentale nette et définitive. • Le World Wide Web aurait dû être pour les langages documentaires une formidable occasion d'ouverture, de diffusion et de popularisation, mais cette occasion n'a pas été saisie, faute d'une attention suffisante prêtée à la conception ergonomique d'interfaces adaptées à leur utilisation par des non-professionnels. • Les nouveaux modes de description et d'organisation des contenus numériques ont été conçus et sont utilisés, pour une large part, dans l'ignorance des langages documentaires traditionnels et au sein de communautés étrangères à celle des professionnels de l'information-documentation. • Incertitudes et lacunes terminologiques sont fréquentes dans le champ des systèmes d'organisation des connaissances, alors que le contrôle terminologique devrait être dans ce domaine une préoccupation centrale. En dépit de ces critiques, et malgré les interrogations fréquentes au sujet de la pérennité des langages documentaires, souvent exprimées à travers des questions sur l'avenir de l'indexation ou le devenir du catalogage, ils demeurent aujourd'hui un élément fondamental de la formation et de la pratique des professionnels de l'information. L'effet de substitution des technologies d'indexation et de recherche par les mots du texte aux techniques fondées sur l'analyse intellectuelle et la représentation contrôlée des contenus n'est sans doute que marginal. Il serait du reste intéressant de réunir des éléments permettant de quantifier cet effet; il faudrait déterminer, par exemple, si la création de thésaurus l'emporte sur leur abandon, dans les entreprises et institutions qui se préoccupent de la mise en valeur de leur capital informationnel. En revanche, la pénétration des langages documentaires classiques dans des univers informationnels peu contrôlés ou mal maîtrisés, et au premier chef dans le World Wide Web, reste très limitée. Si les langages documentaires perdent du terrain actuellement, c'est donc en « parts de marché », marché dont la croissance exponentielle a été maintes fois soulignée. Quant à savoir si dans l'avenir ils verront s'accroître leur rôle dans l'économie numérique et ne resteront pas retranchés dans leurs bastions traditionnels, la réponse dépend à notre sens des résultats d'un certain nombre de chantiers qui restent pour l'essentiel à ouvrir. • La réflexion sur une évolution structurelle des modèles de langages documentaires, probablement à construire autour de la notion de facette et de la convergence des trois grandes familles classiques. • La construction d'un argumentaire détaillé, appuyé sur des expériences réelles ou réalistes, démontrant la plus-value apportée par les langages documentaires dans différentes situations de repérage de l'information. • L'élaboration d'interfaces et de guides d'utilisation permettant un usage intuitif et/mais informé des langages documentaires sur les sites Internet ou intranets. • La reconnaissance de l'expertise des professionnels de l'information-documentation par les autres acteurs de l'organisation des connaissances, et notamment par les concepteurs d'ontologies. • La recherche d'un consensus terminologique et d'une vulgarisation des principaux concepts du domaine en direction de communautés de non-spécialistes .
La première contribution s'ouvre par un panorama critique d'un siècle de développement et d'usages des langages documentaires : Bruno Menon en étudie la formation et l'évolution, il en montre les mérites et les limites, il en analyse les pratiques. Dans la deuxième partie de cet article, il examine les taxonomies et les ontologies, nouveaux outils de recherche d'information apparus avec l'explosion des technologies Internet et les mutations induites des pratiques informationnelles. Il suggère enfin un certain nombre de réflexions et de travaux qui permettront aux langages documentaires - dont le concept pourrait être étendu à celui de systèmes d'organisation des connaissances-de s'imposer demain dans l'économie numérique.
sciencesInfo_08-0112043_tei_DOCSI_idPAS_D_ISBN_pu2007-01s_sa03_art03.tei.xml
termith-402-communication
De nombreux concepteurs de moteurs de recherche ont le souci de faciliter la tâche des utilisateurs et tentent de réduire le temps de navigation dans les sites en proposant divers moyens pour affiner la requête formulée avant d'entrer dans le web qui propose une trop grande quantité d'information au risque de s'y perdre. Des techniques de visualisation (appelées cartographie) sont proposées aux utilisateurs. Elles consistent, par exemple, à présenter des formes géométriques (sphères, cercles colorés) dont les traits perceptifs (taille, couleur, forme) sont censés représenter des informations pertinentes pour la recherche d'information. On constate aujourd'hui que de nombreuses entreprises se sont positionnées soit directement sur ce marché, par exemple Amoweba, Mapstan, Kartoo, Semiograph, Grimmersoft, soit intègrent des modules de visualisation comme Temis, Lingway ou Datops. L'évaluation des outils de visualisation est particulièrement d'actualité, et des efforts sont actuellement en cours aussi bien au niveau international que français (projet Cigogne). Dans ce contexte, l'action spécifique du GDR13 1 (du département STIC du CNRS) (hwww. lirmm. fr/ InfoViz/ ASEval/ index. php) sur la visualisation pourra participer à l'établissement de benchmarks permettant la réalisation d'expérimentations contrôlées reproductibles. L'évaluation des systèmes de représentation cartographique de l'information permet en effet de déterminer s'ils sont adaptés ou non aux besoins des utilisateurs. Par évaluation, nous désignons l'examen des différents composants des systèmes en usage soit dans un cadre réel, soit dans un laboratoire, dans le but d'améliorer le système en question. Les expériences de laboratoires sont assez largement utilisées pour évaluer les systèmes de visualisation d'information. On peut citer les travaux de (Chimera et Shneiderman, 1994; Veerasamy et Belkin, 1996; Sebrechts et al., 1999; Sutcliffe et al., 2000; Cugini et al., 2000; Risden et al., 2000; Nakakoji et al., 2001), (Komlodi et al., 2004), (Koshman, 2005). Cugini a ainsi expérimenté différents types d'interfaces au travers de plusieurs travaux consécutifs (Cugini et al., 2000). Pour (Cugini, 2000) toute technique de visualisation requiert de l'apprentissage de la part de l'utilisateur afin qu'il puisse l'utiliser efficacement. Ces travaux montrent aussi que l'usage d'un modèle de visualisation trop sophistiqué en 3D n'est pas recommandé pour les utilisateurs novices. D'après la littérature, la visualisation permettrait d'augmenter le contrôle perceptif et les moyens de manipulation (Nakakoji et al., 2001). Quant aux travaux issus de la psychologie cognitive, on ne dispose pas pour l'instant de données sérieuses, étant donné qu'il s'agit de techniques récentes. Néanmoins, la présentation d'une information sous forme verbale ou sous forme d'image visuelle a déjà été l'objet de nombreuses études. Par exemple, Mayer (1997) et Mautone et Mayer (2001) ont montré dans quelles conditions l'ajout d'images visuelles pouvait améliorer la compréhension et la mémorisation de textes. Enfin d'autres auteurs (Denis, 1989; Paivio, 1986), ont mis en évidence l'existence de processus d'encodage imagé relativement indépendants de l'encodage verbal. On peut donc supposer que le sujet opérera un traitement partiellement différent des résultats retournés par le moteur de recherche (appelé désormais MdR) selon leur mode de présentation : verbale ou cartographique. Partiellement, car même sous forme cartographique, une grande part de l'information permettant à l'utilisateur de juger de la pertinence de tel ou tel élément est présentée encore sous forme textuelle. Dans les moteurs de recherche que nous avons analysés (voir figures 1 et 2), les éléments de visualisation sont des sphères de différentes tailles, l'utilisateur devant construire et chercher leur signification. Le postulat d'utilisation est que la grosseur de la sphère indique le degré de pertinence du site par rapport à la requête lancée par l'utilisateur; cependant la signification de l'échelle de grosseur des sphères n'est pas fournie par le MdR aux utilisateurs, elle est à construire à la différence d'images figuratives, tel qu'un dessin illustrant un texte. Contrairement à la présentation des résultats retournés par les moteurs de recherche classiques, sous forme d'une liste d'expressions verbales que sont les url, qu'il faut lire, ligne par ligne, la présentation cartographique présente, de manière simultanée, des informations cartographiées (des sphères) qui sont appréhendées globalement par l'usager. Il est possible que la présentation globale permette de décider plus rapidement de la pertinence des sites, d'autant plus que les éléments visuels sont accompagnés de légendes verbales qui résument le contenu du site. L'évaluation de Kartoo s'inscrit dans une approche expérimentale issue de la psychologie cognitive. L'évaluation est sous-tendue par des hypothèses de recherche. Hypothèse 1. La visualisation cartographique de l'information améliore la recherche d'informations. Elle permet à l'utilisateur d'effectuer sa recherche plus rapidement, dans la mesure où la cartographie permet une comparaison de la pertinence des sites entre eux, représentés sous forme perceptive et accompagnés de légendes verbales qui explicitent chaque site. La visualisation globale permettrait de faire les bons choix rapidement. En outre, la visualisation, dans la mesure où elle affiche plus d'informations sur l'écran, permettrait d'augmenter les moyens de manipulation, donnant ainsi au participant la possibilité d'affiner davantage sa représentation du but à atteindre, surtout lorsque le contenu de la question est flou. Hypothèse 2. Le traitement des informations reliées au but de la recherche est plus approfondi lorsque le but de la recherche est précis que lorsqu'il est flou, alors que le traitement des informations non reliées à l'objectif de la recherche est plus approfondi lorsque le but de la recherche est flou que lorsqu'il est précis. En effet, lorsque la question est précise, certaines informations renvoyées par le MdR sont sémantiquement proches de l'objectif de la question et leur lecture active des liens préexistant dans le lexique mental entre ces informations et le contenu de la question. Cette activation conduit à ce que ces informations soient traitées en profondeur par opposition à celles qui sont éloignées sémantiquement du contenu de la question posée. En revanche, lors d'une recherche à but flou, la représentation du but à atteindre est floue et sans doute plus vaste. L'utilisateur n'est pas en mesure de décider quelles sont, parmi les informations renvoyées par le MdR, celles qui sont fortement reliées au contenu de la question et celles sans lien. Il est obligé de traiter toutes les informations sans être capable de privilégier certaines, c'est à dire celles qui sont réellement liées au contenu de la requête. On devrait donc avoir un pattern de mémorisation des informations renvoyées par le MdR, différent de celui obtenu avec les questions à but précis. Les participants étaient 18 sujets recrutés grâce à des appels lancés sur des listes de diffusion consacrées aux MdR sur internet, et recrutés à l'université de Paris X-Nanterre dans la Maîtrise des Sciences de l'information et dans les DESS et DEA de Psychologie (7 femmes et de 11 hommes, moyenne d' âge de 30 ans). Les participants ont été recrutés sur la caractéristique principale suivante : ils utilisent régulièrement l'outil informatique et en particulier internet. Un questionnaire de familiarité à l'outil internet permettait de contrôler leur niveau de familiarité. Dans un premier temps, nous avons procédé à une tâche de recherche d'information (appelé désormais RI) sur internet pour laquelle nous avons fait varier le type de présentation des informations et le type de question posée suscitant la RI. Dans un second temps, les utilisateurs ont été soumis à une tâche de reconnaissance lexicale de mots lus lors de la tâche de RI. Lors de la tâche de RI, les utilisateurs ont réalisé quatre recherches d'information suscitées par des questions ouvertes, comme par exemple « Trouver des informations sur la maladie de la vache folle chez l'homme », et à quatre recherches suscitées par des questions fermées comme par exemple « Trouver une carte géographique de l'Argentine ». Ils devaient chercher la réponse à la question posée soit dans la version cartographique soit dans la version html de Kartoo. Afin de contrôler l'interface de départ de la recherche, nous avons imposé le mot clé à inscrire dans le cartouche de requête. Par exemple, pour la question ouverte relative à la maladie de la vache folle, le mot clé imposé était « Vache folle ». De cette façon, tous les utilisateurs étaient confrontés aux mêmes interfaces de départ. Les deux versions sont similaires du point de vue du contenu informationnel. De plus, le classement des sites par ordre de pertinence est le même dans les deux versions. Lors de la tâche de reconnaissance, les participants devaient identifier dans une liste de mot ceux qu'ils avaient lus sur l'interface du moteur de recherche lors de la tâche de RI. La liste de mots à reconnaître était composée de seize mots reliés sémantiquement et de seize mots non reliés sémantiquement à l'objectif de la RI (deux mots reliés et deux mots non reliés par question) et trente-deux mots que les sujets n'avaient pas lus pendant la tâche de RI car ils ne figuraient pas sur l'interface du MdR (mots contrôles 2). Les mots reliés et non reliés faisaient partie des mots-clés proposés par le MdR à gauche de la première interface de présentation des résultats (même interface pour tous les participants). Par exemple, pour la recherche relative à l'Argentine (Trouver une carte géographique de l'Argentine), les deux mots reliés sémantiquement à l'objectif étaient « Amérique latine » et « pays » et les deux mots non reliés étaient « voyage » et « partir vivre ». La distinction « relié/non relié » est le résultat d'un travail préliminaire réalisé auprès de 5 juges à qui on avait demandé d'évaluer si les mots à gauche étaient ou n'étaient pas reliés au contenu de la requête. Une mesure du temps et une mesure en unités d'action ont permis d'opérationnaliser les hypothèses de ce travail. Deux mesures de temps ont été enregistrées à l'aide d'un logiciel de capture (le logiciel Find out) : la mesure du temps passé sur l'interface de présentation des résultats et la mesure du temps de navigation dans les sites. La mesure en unités d'action a été réalisée grâce au logiciel de capture et à une grille de notation manuscrite. Les unités d'action notées sont : les clics “+ ' sur les mots-clés à gauche de l'écran, l'ouverture de sites et la consultation de la description des sites (disponible sous l'url du site dans la version html et disponible à gauche de l'écran en faisant glisser la souris sur la sphère en version cartographique). En outre, le nombre de mots reliés et non reliés reconnus était comptabilisé. A partir du questionnaire de familiarité à internet qui évalue le type et la fréquence des activités réalisées dans le web ainsi que les connaissances du système informatique, on a pu classer les participants en deux catégories. La première catégorie, que nous appellerons les utilisateurs réguliers du web, (N = 9), sont des sujets qui naviguent tous les jours sur le web, qui se connectent sur leur lieu de travail mais dont les activités réalisées sont peu diversifiées (principalement utilisation de la messagerie électronique et recherche d'information). La deuxième catégorie, que nous appellerons utilisateurs expérimentés, (N = 9) sont ceux qui, outre les caractéristiques des utilisateurs réguliers, ont des activités plus diversifiées (messagerie, recherche d'information, forum de discussion, banque en ligne, achat en ligne, etc.). Les utilisateurs expérimentés obtiennent un score moyen plus élevé pour la partie du questionnaire évaluant la connaissance du système informatique (en moyenne 9,77 points pour les utilisateurs expérimentés et en moyenne 7,44 pour les utilisateurs réguliers). Les résultats montrent un effet significatif du type de présentation sur le temps passé sur l'interface de présentation des résultats avant d'ouvrir un premier site (p<.05). Les utilisateurs passent plus de temps sur l'interface de présentation des résultats lorsqu'ils réalisent leur RI en version cartographique qu'en version verbale du MdR (en moyenne, 67 secondes et 51 secondes par question, respectivement). Cependant les utilisateurs ont des temps de navigation dans les sites équivalents dans les deux versions du MdR (en moyenne, 76 secondes dans chacune des deux versions). On observe une interaction significative des facteurs type de questions posées et catégorie d'utilisateurs (réguliers et expérimentés) sur le temps passé sur l'interface de présentation des résultats (p<.01). Les utilisateurs expérimentés passent moins de temps sur l'interface de présentation des résultats quand ils cherchent la réponse à une question fermée, alors que les utilisateurs réguliers passent moins de temps sur l'interface de présentation des résultats lorsqu'ils cherchent la réponse à une question ouverte par rapport à une question fermée. Ce résultat est présenté dans la figure 3 en annexe. Un effet significatif du facteur présentation des résultats sur la consultation des mots-clés à gauche de l'écran a pu également être mis en évidence (p<.01). Les utilisateurs consultent plus souvent les mots-clés en version cartographique qu'en version verbale (nombre moyen de consultations : 1,91 vs 1,38). Les résultats montrent un effet significatif de l'interaction des facteurs type de questions posées et type de mots à reconnaître (p<.01). Bien que les mots reliés soient plus souvent reconnus que les mots non reliés, on constate que la différence entre ces types de mots est plus marquée pour les questions fermées (1,8) que pour les questions ouvertes (0,9). Les moyennes de mots reconnus sont présentées dans le tableau 1. Moyennes de mots reconnus selon le type de question posée et selon le type de mots à reconnaître Question fermée Question ouverte Mots relies 2,4 1,9 Mots non relies 0,6 1 On observe également un effet significatif de l'interaction des facteurs type de mots à reconnaître et catégorie d'utilisateurs (p<.05). Les participants expérimentés qui ont développé des connaissances sur le système informatique sont plus performants dans la reconnaissance de mots reliés que les utilisateurs seulement réguliers, alors que pour la reconnaissance de mots non reliés, ce sont ces derniers qui sont les plus performants. Ce résultat est présenté dans la figure 4, en annexe. Les résultats ne s'accordent pas avec la première hypothèse selon laquelle la visualisation permet un gain dans le temps de recherche. Cependant, les résultats montrent que l'usage d'un système de visualisation cartographique de l'information entraîne les participants à utiliser davantage les fonctionnalités du MdR (dans la consultation des mots-clés, de sites et dans le nombre de clics) qu'un système à modalité verbale. On peut penser que si l'utilisateur utilise plus souvent les fonctionnalités du MdR dans sa version visualisée c'est qu'il est confronté à une tâche relativement nouvelle, en termes de résolution de problème. Pour comprendre le sens de la visualisation il utilise fortement les fonctionnalités concernées dans le souci d'expérimenter. Il serait en quelque sorte dans une phase d'apprentissage le conduisant à utiliser les fonctionnalités allongeant ainsi le temps de la recherche, particulièrement le temps du premier contact avec l'interface sans pour autant améliorer la performance en ce qui concerne la qualité de la réponse, par comparaison avec une présentation classique (html, verbale). Pour comprendre la fonctionnalité des éléments de l'interface, l'utilisateur doit d'abord comprendre le sens de la représentation en interprétant les indices perceptifs. La deuxième hypothèse qui porte sur le traitement des informations reliées ou non reliées à l'objectif de la recherche est confirmée. En effet, on constate que les participants reconnaissent plus de mots reliés que de mots non reliés au contenu de la question. Cependant la différence entre mots reliés et mots non reliés est plus forte quand il s'agit de questions fermées que des questions ouvertes (1,8 et 0,9, respectivement). Cette différence provient probablement de ce que les utilisateurs sont capables de mieux différentier les informations pertinentes des informations non pertinentes quand la question est précise (cas des questions fermées). Cette meilleure discrimination les conduirait à traiter plus efficacement les informations pertinentes et à négliger les autres. Ce mécanisme de différentiation est sans doute plus difficile à mettre en œuvre quand la question renvoie à des contenus plus flous. L'échantillon est constitué de 16 étudiants de psychologie de l'université Paris X-Nanterre, en fin d'étude (13 femmes et 3 hommes, moyenne d' âge de 30 ans). Un questionnaire de familiarité à l'outil internet (identique à celui de l'étude n° 1) a été proposé aux participants de l'étude n° 2, afin de les catégoriser en deux groupes : les novices et les experts internet. Dans un second temps, les utilisateurs réalisaient une tâche de RI en utilisant soit le moteur de recherche Google soit le moteur de recherche Mapstan (hsearch. mapstan. net). La principale différence tient donc dans le mode de présentation des résultats : sous Google, les résultats sont affichés en liste, tandis que sous Mapstan, ils sont affichés sous forme de carte. Les quatre questions de recherche étaient liées à la psychopathologie clinique (les questions sont en Annexe). De cette façon, les participants de l'étude sont considérés comme experts du domaine. Les questions posées sont les suivantes : trouvez la ou les pathologies pouvant être mises en évidence par le VRT de Benton; trouvez une définition de la résilience en psychologie; trouvez ce qui, succinctement, distingue le complexe d' Œdipe masculin et féminin; trouvez une définition de la projection en psychologie. Enfin, on proposait aux utilisateurs de répondre à un questionnaire d'évaluation subjective qui permettait, d'une part d'évaluer leur degré de satisfaction quant aux réponses qu'ils avaient trouvées lors de la tâche de RI, leur sentiment de compréhension de la question posée et leur sentiment de connaissance lié à l'objectif de la question posée, et, d'autre part d'évaluer la pertinence des résultats retournés par les moteurs de recherche et d'exprimer les points négatifs et positifs sur les MdR. Les réponses sont en moyenne significativement meilleures sur Google que sur Mapstan (p< .001). Les utilisateurs trouvent des réponses pertinentes plus facilement en utilisant Google. Il s'avère finalement que Mapstan pénalise plus la recherche qu'il ne la facilite et ce, indépendamment de l'expertise internet des sujets effectuant la RI. Ce fait peut tenir à la nouveauté de Mapstan pour l'ensemble des sujets (expliqué par une faible expertise Système), tout comme il peut résulter des caractéristiques inhérentes à son ergonomie. On observe la série de résultats suivants : sur Google la différence entre novices et experts n'est pas significative, tandis que sur Mapstan, les experts ont des résultats significativement supérieurs à ceux des novices (p<.01) les novices obtiennent des résultats significativement meilleurs sur Google que sur Mapstan (p<.001) et, les experts obtiennent des résultats significativement meilleurs sur Google que sur Mapstan, (p<.01). En ce qui concerne Google, les points positifs identifiés sont les suivants : Pour les novices, le classement séquentiel des résultats, obtention de réponses quelle que soit la qualité de la formulation de la requête; la restriction possible de la recherche aux pages francophones. Pour les experts, l'option de recherche avancée, la signalisation des sites déjà visités, l'accès à des informations supplémentaires sur les résultats (format du fichier, titre, adresse…) La rapidité du MdR Google est appréciée par tous les participants. En ce qui concerne Mapstan, les points positifs identifiés sont les suivants : Pour les experts, la proposition de requête, la visualisation du rapport entre les résultats, la proposition de résultats complémentaires, l'ouverture systématique des pages sélectionnées dans de nouvelles fenêtres. Les novices et les experts apprécient le fait d'avoir plus de résultats sur une seule page. En revanche, tant les novices que les experts trouvent que Mapstan est lent, peu « maniable », « capricieux » pour la formulation des requêtes, qu'il manque de lisibilité, qu'il donne peu d'information sur chaque résultat et que sa sémiotique n'est pas des plus intuitives. Les novices lui reprochent spécifiquement de ne pas être séquentiel (l'option existe, mais n'était pas mentionnée dans le cadre de l'expérience), tandis que les experts regrettent qu'il ne soit pas possible de sélectionner ou d'éliminer certaines zones de la carte. L'objectif de ce travail était d'évaluer la technologie de visualisation cartographique employée dans deux moteurs de recherche au travers d'une démarche expérimentale relevant de la psychologie cognitive. Plusieurs résultats émergent. Premièrement la visualisation semble coûteuse cognitivement : elle est associée, en général, à des temps de traitement plus longs et à plus d'activités de manipulation, sans pour autant conduire à des meilleures performances, par comparaison avec une présentation en liste. Cela va à l'encontre d'un certain nombre de suppositions (Nakakoji et al., 2000) d'après lesquelles la visualisation des résultats améliorait le traitement cognitif. Il est probable que la visualisation entraîne des difficultés de deux ordres. Primo, sa nouveauté par rapport aux schémas de connaissance procéduraux (savoir-faire), stockés dans la mémoire à long terme des participants, ces derniers étant habitués à utiliser plutôt des présentations verbales sous format html. En second lieu, les participants doivent faire un effort cognitif afin d'interpréter les aspects perceptifs et les aspects sémantiques des informations visualisées. Ainsi si l'on se réfère au modèle de Rouet et Tricot (1998), il est possible que la visualisation des informations rende difficile le mécanisme élémentaire de comparaison et d'évaluation entre le but de la requête et les informations visualisées présentées par le MdR, étant donné leur probable opacité pour l'utilisateur. Mais il est possible que le mécanisme élémentaire de traitement soit aussi perturbé dans la mesure précisément où le participant ne connaît pas exactement ce que le concepteur veut dire par les différents aspects de la visualisation proposée. Deuxièmement, nos résultats mettent en évidence des relations intéressantes entre les connaissances générales développées sur les systèmes informatiques et le type de question proposée. Pour optimiser leur chance de réussite, les participants doivent d'une part préciser la requête d'une recherche à but flou pour éviter de se perdre dans le flot d'informations lors de la navigation sur internet, et, d'autre part, ils doivent davantage concentrer leur attention sur les informations reliées à l'objectif de la question que sur les informations non reliées. Les résultats montrent que les utilisateurs expérimentés adoptent ce type de stratégie alors que les utilisateurs uniquement réguliers dans l'utilisation d'internet montrent des comportements différents. On peut penser que les connaissances procédurales relatives au système informatique permettent d'activer des schémas d'utilisations stockées en mémoire à long terme et conduire ainsi à utiliser de stratégies optimales dans la RI. En effet, les utilisateurs expérimentés semblent avoir développé des savoir-faire relatifs au système informatique (par exemple effectuer des combinaisons sur le clavier permettant de rechercher l'information plus rapidement) et des connaissances plus générales du type heuristiques ou méthodes. La résolution de la RI nécessitant des étapes de choix, les heuristiques développées par les utilisateurs expérimentés leur permettent de décider plus facilement, lors d'une étape, quel est le choix le plus prometteur pour atteindre le but de la recherche. Nos données ne nous permettent cependant pas de dire quelle est la nature exacte de ces connaissances et de ces heuristiques. Une hypothèse raisonnable est que ces connaissances générales serviraient à planifier, réguler et contrôler le cheminement de la RI, si l'on se réfère au modèle de Rouet et Tricot (1998). Ces deux études nous ont permis de montrer que le sens de la visualisation doit être clarifié si on veut optimiser la RI. En effet, sans cette clarification, l'utilisateur semble être déstabilisé. Les concepteurs doivent faciliter la compréhension des éléments visualisés. Ils faciliteront ainsi le développement rapide de savoir-faire dans l'utilisation d'interface d'une technique de visualisation cartographique de l'information. L'ensemble des résultats conduit à deux directions de recherche future. La première direction concerne la familiarité avec les systèmes informatiques, en général, et en particulier avec internet et conduit donc à poser la question des différents types d'expertise. Ainsi, selon nos résultats, l'expertise doit être examinée selon plusieurs points des vue : du point de vue de l'expérience générale des systèmes informatiques, du point de vue de la familiarité avec internet, sans oublier l'expertise dans le domaine. En ce qui concerne l'expertise domaine, il parait raisonnable de penser que la distinction « question fermée/question ouverte » ne doit pas être posé de manière générale mais par rapport à un domaine d'expertise ou de connaissances. En effet, une question peut être considérée comme floue, ouverte et très large pour un novice dans le domaine mais relativement précise et fermée pour l'expert. A cet égard l'observation selon laquelle les utilisateurs expérimentés rappellent très bien les mots reliés sémantiquement au contenu de la RI, suggère que ces participants avaient des connaissances lexicales ou conceptuelles qui ont permis de focaliser leur attention sur ces mots. Bien que de nombreuses études aient porté sur la question de l'expertise (Ihadjadene et Martins, 2004; Marchionini, 1989), il est probable que c'est une question très ouverte qui renvoie à différents types de schémas de connaissances (procéduraux, déclaratifs) qui entretiennent sans doute des relations entre eux, permettant dans certains cas des transferts et des compensations. La deuxième direction de recherche porte sur le rôle de la visualisation dans les MdR. La visualisation pose la question de la nature des représentations figuratives par rapport aux informations verbales. Il serait intéressant d'examiner si ces nouveaux MdR sont susceptibles d' être assimilés par les utilisateurs à la suite d'essais d'apprentissage et si cette assimilation peut être transférée à des MdR équivalents (comme par exemple, Miner3D, Map.net, Thinkmap, Webbrain, etc.) et à des MdR classiques, utilisant des expressions verbales. L'évaluation réalisée reste incomplète. Dans le futur il sera intéressant d'effectuer des études similaires sur des portails spécialisés utilisant des moteurs cartographiques et auprès des utilisateurs professionnels en activité. De plus, il serait intéressant d'examiner l'impact des différences interindividuelles en ce qui concerne les aptitudes visuelles/spatiales des sujets, (Gyselinck, Ehrlich, Cornoldi, de Beni et Dubois, 2000; Westerman et Cribbin, 2000). Les capacités des individus à se représenter et se repérer dans l'espace ou à interpréter une scène 2D ou 3D ont une incidence significative sur leurs performances dans l'utilisation des techniques de visualisation .
Nous évaluerons dans cet article deux moteurs de recherche cartographiques: Kartoo (pour 18 usagers) et Mapstan (pour 16 usagers). L'évaluation de ces outils consiste en l'analyse de l'influence du mode de présentation des informations sur les processus cognitifs mis en jeu par l'utilisateur dans l'activité de recherche d'informations sur Internet. Plus particulièrement, nous avons examiné les procédures d'utilisation des outils lorsque les participants étaient confrontés à une présentation visualisée des résultats et à une présentation classique des résultats (version html). Les résultats de l'analyse suggèrent que la version cartographique est coûteuse d'un point de vue cognitif et montrent par ailleurs que la définition de l'objectif de recherche (flou ou précis) influence les procédures d'utilisation des moteurs de recherche.
sciencesInfo_07-0425581_tei_DN_092_0111.tei.xml
termith-403-communication
Alors que, dans les sociétés libérales modernes, la censure était le moyen deprévenir le scandale, c'est-à-dire la rupture éclatante, symboliquement coûteuse etpolitiquement dangereuse, de l'ordre existant, c'est désormais la censure elle -mêmequi fait figure de scandale dans nos sociétés occidentales post-modernes, saisiespar le démon de la transparence et du « tout communicationnel » (Breton, 2001 :780). C'est que l'ordre moral dominant, ou la norme moyenne, veut aujourd'hui toutrévéler et tout connaître, immédiatement et universellement. La censure apparaîtcomme l'abus d'autorité par excellence, à l'heure où les formes traditionnelles del'autorité sont partout rejetées. Puisqu'il est devenu interdit d'interdire, lacensure apparaît comme une atteinte intolérable aux libertés publiques etindividuelles, au premier rang desquelles les libertés de s'exprimer et de savoir .Sous le regard panoptique des médias, les grands mais sur tout les petits secretssont mis à nu, il n'y a plus de séparation entre les sphères privée et publique ,l'exhibitionnisme et le voyeurisme tendent à remplacer le principe de publicité .Nous faudra -t-il bientôt, comme Junichiro Tanizaki (1933), faire « l'éloge del'ombre » et regretter la disparition des derniers refuges où l'on pouvait se livrerà la méditation ou aux gestes de l'intimité sans craindre d' être vu ni jugé ? La censure serait donc en voie de disparition, accablée sous le mépris général. On enparlerait d'autant plus qu'elle constituerait une anomalie, une pathologierésiduelle de la communication optimisée, un épouvantail commode. Le juriste MaximeDur y (1997 : 14) s'interrogeait naguère si « l'utilisation lâche du mot censure » ,la tendance à l'utiliser à tout propos pour dénoncer toutes sortes de contraintes ,ne dérivait pas d'un « effacement de la chose elle -même », telle que le droitl'énonce. De fait, la définition juridique de la censure, du moins dans la traditionlibérale, distingue classiquement le régime préventif, dans lequel l'autoritéadministrative intervient a priori de la mise à dispositiondu public de l' œuvre ou de l'objet médiatique pour empêcher, différer ou modifierles formes de cette diffusion, et le régime répressif, dans lequel l'interventions'effectue, le cas échéant, a posteriori de la diffusion ,pour sanctionner les abus ou réparer les dommages causés par celle -ci. Au sensstrict, seul le premier type d'intervention correspond à la censure, l'autre typerelevant des moyens dont se dote tout régime de droit pour organiser l'espacepublic. Dans le droit libéral, la censure s'oppose à la liberté comme l'arbitraires'oppose à la rationalité juridique; dans nos sociétés démocratiques, la libertéserait désormais la règle et la contrainte l'exception. Mais, comme nous le verrons dans une première partie, plusieurs nuances de tailledoivent être apportées à cette distinction essentielle. En premier lieu, le droitlibéral distingue entre la liberté pleine et entière de l'homme et les devoirs quis'imposent au citoyen; ainsi qu'entre la liberté d'opinion et la libertéd'expression, et entre les formes mêmes de cette expression. Par ailleurs, lacensure existe bel et bien en régime libéral, particulièrement en France, quis'enorgueillit d' être la patrie des droits de l'homme en général et de la libertéd'expression en particulier, mais dont la législation est si contraignante qu'il est« de coutume de dire, chez les juristes spécialisés, que si un “message” estdiffusable en France, il l'est impunément partout dans le monde ou presque »( Pierrat, 2008 : 19). Cette maxime est évidemment exagérée – il faudrait au moinspréciser « dans le monde des démocraties occidentales ». Mais elle reflète uneréalité. D'une part, des institutions d' État organisent un contrôle préventif surl'imprimé et le cinéma; d'autre part, les tribunaux veillent à faire respecter lesnombreux interdits prévus par des lois qui se succèdent dans une logique pluscumulative que substitutive. Certes, nous le répétons, seul le premier typed'intervention relève en droit de la censure; or, l'interdit législatif etjudiciaire, même dans nos démocraties « matures », s'énonce parfois en des termesd'une telle généralité et d'une telle imprécision, il couvre des champs si vastes etouvre de si grands espaces à l'interprétation personnelle et à l'arbitraire, enfinil produit de tels effets d'autocensure, qu'il peut être à bon droit qualifié decensorial. Une telle extension de sens reste l'objet de débats. Après tout, « pour vu que laséparation des pouvoirs soit effective, il ne suffit pas, pour que nous puissionsparler de censure, que cette action judiciaire soit menée sur des bases juridiquesque nous désapprouvons aujourd'hui », soutenait Alain Vaillant (1997 : 105), quirefusait pour cette raison de parler de censure pour la condamnation qui frappa lesFleurs du Mal en 1857. Mais, outre que cette séparationdes pouvoirs, en 2009 comme en 1857, est loin d' être rigoureusement établie, elle nerend pas illégitime le recours à la métaphore, qui assimile à la censure toutelimite opposée à la liberté d'expression. C'est en vertu de ce « droit à lamétaphore » (Dury, 1997) qu'un certain nombre d'auteurs, s'inscrivant souvent dansle courant dit « critique », ont proposé une vision bien plus large encore de lacensure, incluant des mécanismes « invisibles » ou « structuraux » déterminant cequi peut être dit, par qui, à qui et dans quel contexte. Selon ces auteurs, inspirésnotamment par Roland Barthes (1989), Michel Foucault (1991) et, sur tout, PierreBourdieu (2001), la censure ne doit plus être seulement pensée comme le résultat depressions directes et concrètes exercées sur les différents maillons de la chaîne desens par les détenteurs identifiés de l'autorité d' État ou d' Église, mais comme leprocessus toujours et partout à l' œuvre de filtrage des opinions admises. Bien plus ,cette « nouvelle censure » – qui peut renvoyer à des phénomènes très anciens –passerait moins par l'interdit jeté sur la parole dissidente que par la promotiond'une parole conforme aux intérêts des institutions et des groupes qui les dominent .Cette deuxième extension du sens, cet usage plus métaphorique encore de la notion decensure, ouvre des perspectives passionnantes mais aussi des abîmes de perplexitéque nous dévoilerons dans une deuxième partie. Elle oblige en tout cas à repenserles rapports entre censure et communication non plus seulement en termesconflictuels, mais aussi en termes fonctionnels. Poussée à son extrême, la logiquede la censure structurale inverse la charge, du négatif au positif, et conduit à neplus voir dans la censure une pathologie de la communication, mais l'un de sesprincipes actifs. C'est cette logique que nous déploierons pour finir, dans unetroisième et dernière partie consacrée à la censure « constitutive » du processus decommunication. Un « grand récit » domine les représentations de l'histoire des démocratieslibérales et occidentales : celui d'une libération, d'une émancipation àpartir d'une situation initiale caractérisée par l'oppression ,l'obscurantisme et la censure. Cette vision romantique et héroïque d'uneévolution linéaire, à la fois progressive et progressiste, jalonnée des nomsdes martyrs tombés pour la Cause imprègne encore les sociétés que l'on ditgagnées par le « désenchantement » (Gauchet, 1985) ou la « désorientation »( Lipovetsky, Serroy, 2008); dans les chartes syndicales, les résolutionspolitiques, les textes constitutionnels, les déclarations solennelles, lesproclamations des associations figurent toujours en bonne place les libertésd'opinion et d'expression souvent considérées comme les premières deslibertés, celles qui soutiennent toutes les autres. Selon cette conception, la censure, comme le secret, est une pathologiesociale, une atteinte portée au principe de publicité conçu pour prévenirles abus du Pouvoir. Il faut pouvoir tout dire, tout voir, percer tous lesmystères de la vie sociale – l'écrivain, le médecin, le scientifique, lejuge, le policier, le journaliste sont autant de figures de l'enquêteur etde sa volonté de savoir dont les discours et images de grande diffusionimposent la représentation depuis le XIX e siècle. Parceque l' État et l' Église ont longtemps cherché à préserver leur puissance enusant de l'arme de la censure, celle -ci est disqualifiée par les nouvellesclasses sociales et économiques qui aspirent au pouvoir. La critique socialel'oublie souvent : le capitalisme a intérêt à la manifestation de la vérité ,du moins dans une certaine mesure. La logique économique de la productionbrise la logique politique du contrôle et l'idéologie du laisser-passers'applique aux idées aussi bien qu'aux marchandises. Ce récit n'est pas forcément faux; disons qu'il est incomplet. On ne peutcontester que, depuis deux à trois siècles, un espace public se soit forméen Europe occidentale puis dans les États, s'inspirant de son modèlecivilisationnel, qui garantit les citoyens contre l'arbitraire du Pouvoir .Que cette évolution représente un progrès, seuls songeraient à le nier lesnostalgiques des règnes du sabre et du goupillon. Il n'en demeure pas moinsque la lecture libérale dissimule un certain nombre d'apories etd'omissions. Ainsi lorsque toute liberté est rabattue sur la liberté decommercer et d'entreprendre, ou que l'inflation de la publicité en dénaturele principe même. Par ailleurs, cette lecture fait bon marché des phases derecul enregistrées par les libertés, notamment en temps de guerre ou decrise grave. C'est oublier aussi que la censure disparaît moins qu'elle nese déplace, d'un média en perte de vitesse vers un autre, jugé plusdangereux car touchant un public plus populaire – le livre du XVI e au XVIII e siècle, la presse et lethéâtre du XVIII e au XIX e siècle ,le cinéma et les médias audiovisuels du XX e au XXI e siècle, l'internet aujourd'hui. Enfin et sur tout, laliberté d'expression dans un pays comme la France reste soigneusementcontrôlée, encadrée, limitée; la grande loi « émancipatrice » de 1881 n'apas poussé l'audace jusqu' à aligner le régime de la presse sur le droitcommun – à la différence de la Grande-Bretagne ou des États-Unis – et desdispositions nouvelles ont été introduites au XX e siècle dans le droit français qui peuvent être assimilées à la censure laplus traditionnelle. En 1919, un décret instaure en France le « contrôle des filmscinématographiques » par le biais d'une commission nommée par legouvernement; sa composition variera au cours du temps mais sa fonctiondemeurera la même : s'assurer avant diffusion que les films necontreviennent pas aux lois et aux mœurs en vigueur. Trente ans plus tard ,la loi de 1949 sur les publications destinées à la jeunesse crée le délit de« démoralisation de la jeunesse par voie de presse » et met en place unecommission de surveillance et de contrôle de ces publications. Si lefonctionnement de ces deux organismes diffère quelque peu – le second nerecourt pas à l'examen préalable, sauf pour les « récidivistes » – lesparentés sont évidentes : installée pour la première au ministère del'Intérieur (jusqu'en 1968, au ministère de la Culture depuis), pour laseconde au ministère de la Justice, composées majoritairement defonctionnaires et de représentants d'associations (notamment familiales) ,ces commissions interdisent ou limitent la diffusion des représentations quirisquent de choquer la morale moyenne. Une lecture libérale les taxera desurvivances du contrôle préventif pré-démocratique; on peut aussireconnaître que la démocratie n'est pas toujours libérale et qu'une certaineforme de censure s'accommode très bien du pouvoir reconnu à la majorité. C'est encore au nom de la majorité du peuple, au nom de la « société », quesont rendus les jugements et arrêts qui sanctionnent les « abus » de laliberté d'expression. La loi française de 1881 maintient le délit d'offenseau président de la République, punit l'injure et la diffamation, laprovocation aux crimes et délits, le trouble à l'ordre public, l'outrage auxbonnes mœurs, entre autres chefs d'inculpation. Si ce dernier crime n'existeplus en tant que tel, il a été remplacé dans le nouveau Code pénal de 1994par l'atteinte à la dignité humaine et les restrictions liées à lapornographie et à l'ultra - violence, dès lors que celles -ci peuvent êtreaccessibles aux mineurs. Mais, comme la loi de 1949, il est fait un usageextensif, et donc abusif, de cette disposition pour limiter la diffusion detoutes sortes de productions, y compris celles qui ne sont pas destinées auxmineurs. Plus généralement, l'impératif de « protection » s'esttendanciellement substitué au souci de la préservation des normes socialesde comportement par l' État. C'est en invoquant ce principe de protection quela justice, de plus en plus souvent actionnée par des acteurs privés etassociatifs, doit appliquer de nouvelles dispositions restreignant encore lechamp du dicible et du montrable : les diverses lois visant à lutter contrela haine et la discrimination raciales, sexuelles ou religieuses, contre lanégation de génocides et de crimes contre l'humanité, contre lesprovocations (à la consommation de drogues, à l'avortement, au suicide), ouencore pour la protection de divers droits de la personne (droit à la vieprivée, au nom, à l'image, à la présomption d'innocence…) composent unarsenal des plus dissuasifs. Si l'on y ajoute les dispositions garantissantles multiples « secrets » (de l'instruction, de la défense, des archives) ,on conviendra que la liberté d'expression se trouve en France sous un étroitcontrôle judiciaire. Certes, ce contrôle n'est pas à proprement parler de la censure, ce quipermet d'accréditer la thèse de la disparition de cette dernière. Selon unelogique brillamment exposée par Dominique Reynié (1998) pour le XIX e siècle, la censure devenant insupportable au corpssocial, la stratégie punitive fut transférée de l'administration àl'appareil judiciaire sur la base du principe de responsabilité civile ;l' État put ainsi s'effacer comme institution répressive et préserver salégitimité en régime censitaire puis démocratique. Cet objectif d'efficacitédiscrète, la liberté encadrée comme pratique de gouvernement des masses, estatteint de façon plus satisfaisante encore s'il peut se passer des tribunauxpour transférer le soin de la censure aux producteurs de sens eux -mêmes .C'est tout l'enjeu de la dissuasion judiciaire : inciter à l'autocensure detous par le châtiment de quelques-uns. Le code Hays et le comic code aux États-Unis, la Commission des plaintes de la presseau Royaume-Uni, le Bureau de vérification de la publicité (bvp) ou les comités de visionnage des chaînes detélévision en France sont autant d'instances bâties sur ce principe. Il n'ya plus de censure, il n'y a plus que de la « régulation », mieux, del' « auto-régulation »; il n'y a plus de censeur qui se penche par-dessusnotre épaule, le censeur est à l'intérieur de chacun d'entre nous. La censure, comme le diable, prouverait donc son existence par sonacharnement à faire croire à sa disparition. C'est un peu l'idée qui sert defondement à un courant d'analyse qui s'attache à traquer une censureinsaisissable, « invisible » parce que structurale, implicite et normative .Non plus, donc, la censure institutionnelle, interventionniste, régulatrice ,« institutive » (Hébert, 2004), telle que la pratiquaient massivement lesÉtats de l'Europe moderne et que continuent de la pratiquer un grand nombred' États contemporains, mais une censure plus insidieuse parce que prenant laforme, décrite par Pascal Durand (2004 : 16; 2006) et d'autres auteurs ,d'une soumission généralisée à l'orthodoxie des opinions. Cette censure est dite « structurale » par Pierre Bourdieu (2001), dans lamesure où elle procède d'un effet de champ, la limitation du pensable et dudicible par les mécanismes mêmes qui organisent l'espace social. « Lamétaphore de la censure ne doit pas tromper : c'est la structure même duchamp qui régit l'expression en régissant à la fois l'accès à l'expressionet la forme de l'expression, et non quelque instance juridique spécialementaménagée afin de désigner et de réprimer la transgression d'une sorte decode linguistique » (Bourdieu, 2001 : 344). Tout discours est présenté commeune « formation de compromis », au sens freudien, entre un intérêtexpressif, une intention de dire, et la censure du champ dans lequel cediscours est produit et circule. Un discours, et toute productionsymbolique, pour être recevable, admis, efficace, doit respecter certainesformes imposées par la structure hiérarchique du champ. Un « travaild'euphémisation » en réduit les aspérités ou l'étrangeté pour le rendreconforme aux attentes placées en lui en fonction de la place qu'occupe sonénonciateur dans l'espace social. La censure fonctionnera donc d'abord eninterdisant l'accès au champ ou en restreignant le droit à la parole ouencore en ôtant tout crédit à celui qui ne se conformerait pas à cesattentes; elle fonctionne ensuite, mais de manière implicite et méconnue ,dans la parole même de ceux qui sont autorisés à s'exprimer, qui ne faitjamais que traduire les intérêts objectifs du groupe auquel ilsappartiennent et de la position qu'ils y occupent. Ces mécanismes seraient tout particulièrement à l' œuvre dans le champjournalistique et médiatique. Par la formation dispensée aux aspirants -journalistes, le recrutement des nouveaux entrants dans le champ, lesmodalités qui président à l'avancement dans la carrière, on s'assure d'uneaptitude des professionnels de l'information et de la communication àintégrer les codes du milieu dans lequel ils vont évoluer. Le systèmemédiatique lui - même fonctionne par inclusion/exclusion, filtrage ,formatage; le choix et le traitement des sujets, les genres rédactionnels ,leur hiérarchie, les règles de bienséance imposées aux intervenantsextérieurs sont autant de limites posées à la libre expression. Pourcertains, les médias sont assez puissants pour façonner nos perceptions( Chomsky, 1993). Pour d'autres, ils disent ce qu'il ne faut pas penser, àquoi il faut penser et comment le penser. À tout le moins, ils ne reflètentpas la totalité des opinions présentes dans le public ou en présentent unevision déformée. La fréquence des lieux communs, la production en série destéréotypes n'apparaît pas seulement, de ce point de vue, comme un effetregrettable mais contingent des contraintes de temps et d'espace aveclesquelles les professionnels des médias doivent composer; pour PascalDurand (2004 : 97), ils sont inséparables de l'ordre social et discursifdans lequel s'inscrivent ces professionnels et le renforcent par des effetsde reprise en boucle. La réflexion de Pierre Bourdieu et de Pascal Durand à l'articulation dusociologique et du linguistique entre en résonance avec celles de RolandBarthes et de Michel Foucault. Pour Roland Barthes, on le sait, la langueelle -même est « fasciste », dans la mesure où elle oblige à dire d'unecertaine manière; « lalangue », comme disait Jacques Lacan, traverse lessujets et s'imposent à eux. La censure est donc toujours présente àl'horizon du discours, non pas seulement sous la forme d'une sanction, d'unesuppression, d'une absence, mais sous celle d'une injonction à s'exprimerselon certaines voies soigneusement balisées par l'histoire et la société .Pour Michel Foucault, l'injonction est double : injonction de silence ,d'inexistence, « et constat, par conséquent, que de tout cela il n'y a rienà dire, ni à voir, ni à savoir » (Foucault, 1991 : 10), mais aussiinjonction de parler et d'agir en suivant les recommandations du Pouvoir. LePouvoir propose, suggère, encourage autant qu'il interdit, bannit, rejette .À travers l'établissement de normes, il prescrit une opinion souhaitableautant qu'il proscrit les opinions contradictoires. Tel est, au fond, leparcours de l' État occidental depuis quelques décennies : du contrôle del'information à la gestion de la communication, d'une instanced'interdiction à une instance de proposition. Désormais, la censureprocéderait plutôt par normalisation, standardisation, que par sanction, lecomportement « volontaire » des agents tendant à remplacer l'action desorganes de pouvoir. Ce parcours d'une société disciplinée à une société normée parintériorisation de la contrainte sociale et construction d'un habitus conforme, qui est également le schéma décritpar Norbert Elias, fait de la censure une donnée inévitable. Ainsi MichaelHolquist (1994 : 16) écrit-il : « Être pour ou contre la censure comme tellerevient à affirmer une liberté que personne ne possède. La censure est. Onpeut seulement distinguer entre ses effets plus ou moins répressifs ». Lesimplications épistémologiques d'une telle conception de la censure sontproblématiques. La censure normative ou structurale peut être dite « positive » en ce sensqu'elle identifie une censure prescriptive autant que proscriptive, unecensure qui oblige à dire d'une certaine manière autant qu'elle interdit dedire ou de dire autrement. Ce qu'on pourrait appeler aussi la propagandedont la censure par le bruit serait une variante. Mais elle pourrait êtredite positive en un autre sens : en ce qu'elle apparaît indispensable ,inhérente au processus même de communication. Patrick Champagne (2002 : 9) le rappelait dans une livraison des Dossiers de l'audiovisuel consacré aux « censuresvisibles et invisibles » : du point de vue sociologique, la censure n'estpas aberrante mais habituelle, fonctionnelle, « socialement nécessaire »puisqu'elle tend à assurer un certain ordre dans un monde social hétérogène .Si la censure existe dans les médias, ce n'est pas pour les empêcher de direce qu'ils veulent (ce qui serait d'ailleurs, note ce sociologue de l'écolede Pierre Bourdieu, un privilège exorbitant) mais pour les empêcher de diren'importe quoi. Le fait qu'elle puisse être mal utilisée ne doit pas faireoublier la nécessité sociale à laquelle elle répond. La même remarquepourrait être faite à propos du champ intellectuel ou éditorial : lescomités de lecture sont là pour vérifier le sérieux du livre ou de l'articleproposés à publication; la conformité à une certaine orthodoxie est uncritère de sélection, qui peut conduire à des erreurs de jugement, mais ledéfaut d'autorité ou de sélection conduirait à des erreurs de bien plusgrande portée. Plus fondamentalement, la censure telle que la comprend la philosophie de lacommunication est structurante autant que structurale : elle rend possiblela formation du sujet dans son rapport au pouvoir et à ses pulsions, elleapparaît comme la condition d'une autonomie, elle organise la liberté ensystème complexe. La communication est production de discours et aucundiscours ne peut fonctionner sans règles ni normes; en rendant possible undiscours, ces règles et normes en interdisent d'autres. De ce point de vue ,la censure apparaît effectivement comme inévitable, omniprésente mais aussiconstructrice, formatrice. La langue, système de règles par excellence, nedoit pas seulement être vue comme inhibante, mais aussi et d'abord commehabilitante. Vincent Descombes (2006 : 46) parle de « dotation positive » :les règles les plus fondamentales sont celles qui permettent de dire ou defaire des choses, qui créent des possibilités d'action. Dans cetteperspective, la censure apparaît moins comme une limitation des possibilitésque comme une dotation de capacités. En regardant de façon trop univoque lescontraintes qui structurent les champs particuliers et l'espace social dansson ensemble, on en oublie que cet espace de contraintes est aussi un espacequi rend possible. En poussant au plus loin la logique de la censure structurale, on aboutit donc àconsidérer la censure non plus comme une pathologie sociale, susceptible d' êtretraitée par une thérapeutique appropriée, mais comme un élément immanent etconstitutif de tout processus communicationnel. Reste que l'emploi du terme« censure » pour caractériser ces règles et normes pose problème. « Querisquons -nous de perdre si nous poussons la signification de “censure” jusqu'aupoint de la voir à l' œuvre dans toute forme d'exclusion sociale etdiscursive ? », s'interroge à raison Beate Müller (2004 : 11). Si la censure estpartout, est-elle encore identifiable ? Rappelant qu'un concept n'est utile ques'il est suffisamment spécifique, cette auteure craint qu'une telle extension dusens n'affaiblisse le pouvoir heuristique du concept de censure. De fait, la censure devient un mot passe-partout, commode parce que plastique etséduisant parce qu'évoquant la transgression, pour toute une classe dephénomènes tels que le choix, la sélection, le canon esthétique, la régulation ,la norme, etc. Appeler censure tout ce qui permet de choisir un discours ou dansun discours réduit toute tentative de conférer une signification quelconque à unacte de langage à la seule exclusion des alternatives. Censure, société ,civilisation apparaissent comme des termes équivalents, interchangeables. Enconséquence, les distinctions entre des systèmes de pouvoir extrêmementdifférents viennent à être écrasées, niées. Peut-on parler en toute rigueur de« propagande » ou de « censure totalitaire » pour désigner un discours dominanten régime démocratique et libéral, même pour évoquer le marché ou la publicité ?C'est oublier qu' à la différence de systèmes réellement totalitaires, desespaces de contestation, de confrontation existent à l'air libre, que d'autresmodèles sont proposés, qu'un pluralisme existe, même si ses modalités doiventtoujours être questionnées et critiquées. La prolifération incontrôlée du terme de censure peut même conduire à désarmer lacritique sociale et politique. Si la censure est ubiquiste, l'identification ducenseur devient superflue; si l'on fait le « pas de plus » que recommandeMichel Foucault (1976) dans La Volonté de savoir et quel'on se passe du personnage du prince ou, moins métaphoriquement, du détenteuridentifié de l'autorité pour ne plus faire que « déchiffrer les mécanismes duPouvoir à partir d'une stratégie immanente aux rapports de force », n'est-on pasconduit à une sorte de re-naturalisation des rapports sociaux, à rebours del'intention initiale ? Il peut être préférable, pour l'analyse scientifiquecomme pour le combat social et politique, de réserver le terme de censure à desphénomènes dûment certifiés d'intervention autoritaire d'un tiers dans lacommunication entre un émetteur, auteur, producteur de sens, et un récepteur ,lecteur, spectateur, auditeur, intervention qui vise à empêcher ou brouillercette communication. Ce qui n'empêchera évidemment pas de s'interroger sur lesnombreux filtres qui brouillent la réception même du message par ce public, lespertes ou les ajouts qui résultent du travail de décodage des codes incorporésdans l'objet symbolique. Mais il s'agira là d'autres filtres, d'autresmécanismes de défense et de refoulement que la censure proprement dite. Peut-être l'idée d'une censure comme « pathologie sociale de la communication »renvoie -t-elle, finalement, à ce grand récit émancipateur par quoi nous avonsdébuté cette réflexion, à ce rêve ou ce fantasme d'une communication pure etparfaite, enfin débarrassée des multiples contraintes qui l'enserrent. Dans ceschéma idéal, les discours cesseraient d' être les formations de compromis ou lesproduits aseptisés du travail d'euphémisation qu'exige l'existence des rapportsde force dans les champs sociaux. Il est difficile de renoncer au rêve d'unesociété sans tabous, sans interdits, sans contrôle; mais le contrôle estinhérent à la société, en tant qu'elle suppose l'existence de liens quil'organisent et la structurent. Une société entièrement libre serait dangereuse ,si elle n'était illusoire et utopique. En ce sens, le contrôle n'est pas unepathologie mais la défense immunitaire d'un corps social en bonne santé. En revanche, la censure au sens strict, c'est-à-dire l'intervention autoritaireet arbitraire d'un tiers dans le procès de communication peut, elle, êtrequalifiée de pathologique et faire l'objet d'une thérapeutique, de soins visantà en résorber les manifestations, par la mobilisation des acteurs concernés, parla publicité donnée à ses agissements, par l'édiction de… règles et de normesqui en préviennent les abus. Le contrôle contre la censure : telle serait, ensomme, la leçon ironique que l'on pourrait tirer de cette réflexion .
La censure est-elle sur le point de disparaître du paysage des pays occidentaux ? Il semble que oui, tant ses manifestations font de plus en plus figure de scandale, alors que son but principal, au XIXe siècle, était précisément d'éviter le scandale, cette explosion dangereuse et coûteuse pour l'ordre politique et social. Pourtant, la censure a moins disparu qu'elle ne s'est transformée, prenant d'autres formes, en particulier judiciaires et même « invisibles ». Dans cette contribution, nous interrogeons donc la portée heuristique de l'élargissement du sens de la censure, pour déterminer si celle-ci est une pathologie du processus de communication ou bien, au contraire, l'une de ses composantes essentielles.
sciencesInfo_10-0286329_tei_1085.xml
termith-404-communication
Nous sommes marqués par une tradition qui voudrait que les documents aient un contenu de connaissances. Cette figure du contenant excède pourtant manifestement le phénomène qu'elle prétend décrire. Pourquoi ne pas résider au plus près du phénomène éprouvé, quitte à retarder l'acceptation d'explications trop ad hoc pour rester stimulantes ? Voici ce que nous vivons en première main : lorsqu'elle réussit, la « prise de connaissance » d'un document ébranle et anime la pensée, ouvre un horizon d'investigation et d'altérité, phénomène se traduisant par le désir de sa continuation, par une persévérance dans la confrontation au document (ou par glissements, à d'autres documents), et conduisant typiquement à la production de nouveaux documents. Lorsqu'ils se laissent recevoir sous la figure de l'attraction (continuation/répétition) et non de la répulsion, les documents donnent à concevoir et à produire d'autres documents. Aussi, le propre de la culture est de ne jamais commencer et de ne pas finir dans l'instant, la vraie question étant celle de la possibilité de sa reprise et de sa métamorphose (Merleau-Ponty, 1969). Si ce que je dis n'est déjà plus ce que je pense du fait même que je le dise, comment la pensée pourrait-elle consister en une manipulation de connaissances déjà là, ou en un simple réagencement d'unités élémentaires stockées dans des réservoirs appelés documents ? Les informaticiens sont souvent des défenseurs ardents et innocents de cette tradition qui défend la thèse du contenu de connaissances des documents. Non pas qu'ils aient été recrutés par quelque promoteur militant de cette thèse, ni même qu'ils soient particulièrement intéressés au débat. Mais l'histoire de l'informatique, qui s'origine avec celle de l'intelligence artificielle (IA), les conduit naturellement à prendre position implicite sur un terrain somme toute stratégique : en effet, à l'heure du document numérique, ce sont bien souvent les informaticiens qui sont amenés à concevoir et réaliser les systèmes d'accès et de navigation qui recouvrent désormais le monde de leurs réseaux et de leurs services (Enjalbert, 2004). Dans cet article, nous proposons d'enquêter sur l'invention des Connaissances 1 en informatique, qui constitue selon nous l'origine du regard sous influence que portent beaucoup d'informaticiens sur la question du numérique. Si l'informatique est une discipline jeune, elle n'en a pas moins une histoire riche et tourmentée, qui commence avec la Guerre froide sous la forme d'un vaste et ambitieux projet transdisciplinaire dont le nom seul dit assez les finalités, si tant est qu'on se souvienne du sens de renseignement que revêt intelligence en anglais : Artificial Intelligence. Le domaine de recherche est marqué par les propositions fondatrices d'Alan Turing, dynamisé par les prévisions dithyrambiques d'un Herbert Simon, pour ne rien dire des autres contributions déterminantes. Cela, tout le monde le sait. Mais on oublie souvent le rôle fondamental joué par Allen Newell, qui a littéralement inventé une acception nouvelle d'une notion très importante en métaphysique, en construisant les Connaissances au sens des informaticiens. Il s'agissait de bâtir une notion opérante et propice aux concepteurs et programmeurs de systèmes informatisés, tout en essayant de les convaincre qu'ils tenaient là le Graal que la métaphysique, depuis la nuit des temps, s'échinait en vain à définir. Nombreux et judicieux sont les informaticiens qui ont cherché à innover sur la base des propositions de Newell, et plus nombreux encore sont ceux qui ont subi ses idées sans même pouvoir situer leurs origines. Quelle était la situation de l'IA en 1982, lorsque Newell entreprit de rédiger son fameux article The Knowledge Level (Newell, 1982) ? Pour le dire poétiquement, le programme de recherche IA était au bord de sombrer dans son gouffre originaire, qui ne cessait alors de se creuser entre les deux bords de sa circonscription utopique, ironiquement instituée par Alan Turing à travers les deux figures de sa Machine et de son Test (Turing, 1995). La Machine de Turing est une machine virtuelle logique, qui sera plus tard architecturée par von Neumann (von Neumann, 1996) et bientôt réalisée matériellement dans le silicium des ordinateurs, qui permet d'opérationnaliser et de simuler certains phénomènes temporels et/ou causaux par assimilation de la raison nécessaire (Modus Ponens ou principe de déduction) avec la causalité, puis effectuation automatique des inférences logiques transformées en calcul (Turing, 1939). Du côté de la Machine de Turing, l'IA consiste en un corpus de techniques de programmation spécifiées pour aborder des questions de Résolution de problèmes 2, celles -là même que Newell adresse avec son General Problem Solver (GPS). Le Test de Turing, lui, rattache au dialogue intersubjectif le mystère de sa continuation : un interlocuteur est considéré comme intelligent dès lors qu'il fait rebondir le dialogue. Tout acteur intelligent doit demeurer ainsi dans le champ du dialogue constructif et tenir son interlocuteur en haleine en proposant des tirades stimulantes. Quant à l'initiative de la rupture dialogique, chacun entend bien en disposer dans son propre intérêt et en imposer la maîtrise. C'est ainsi qu'un Humain peut en venir à personnifier un interlocuteur artificiel, dès lors que ce dernier est considéré comme intelligent, capable de prolonger l'échange dans la durée et de rester à la merci du locuteur humain 3. Aussi du côté du Test de Turing, l'IA est-elle une investigation phénoménologique sur la question du sujet dialoguant 4. Force est de constater que l'IA s'est développée sans parvenir jamais à combler le gouffre béant entre ces deux pôles également fondateurs. En 1982, le hiatus est critique : impossible de rapprocher les deux bords, malgré les promesses présomptueuses 5 et les investissements massifs. Le projet de recherche avance pourtant sur son versant Machine, mais l'IA s'enferme dans la programmation des ordinateurs et les tentatives de satisfaire des exigences d'environnement technique et d'interfaces spécifiques, sous couvert des paradigmes dominants de la Théorie de l'information, se trouvant peu à peu réduite à une techno-science. Inversement, le projet tourne court sur son versant Test, et demeure à l'état d'une gnose consistant à s'interroger en boucle ouverte sur les similitudes entre une Machine intelligente et un système nerveux humain. En conséquence de cette schizophrénie, les systèmes d'IA ne sortent pas significativement des Laboratoires de recherche, et cet échec retentissant devient difficile à cacher : il fallait se résoudre à jeter l'éponge ou bien ouvrir de nouvelles voies en tentant « le tout pour le tout ». Newell veut agir pour défendre les chances de l'approche IA, refusant la réduction de l'ambitieux programme de recherche de Turing à une ingénierie au service de la Théorie de l'information. De par sa culture, en tant qu'ingénieur passionné par le versant ingénierie de l'IA, c'est du côté de la Machine que Newell intervient, en proposant de considérer les ordinateurs comme des systèmes en couches (Symbol Level), auxquels il propose d'ajouter une couche supérieure (le Knowledge Level), construite pour atteindre le versant Test de l'IA et solder définitivement la crise menaçante, par liquidation pure et simple du gouffre empli de questions scarifiant la discipline. Newell invente les Connaissances pour résoudre la question problématique de l'organisation Humain-Machine en Intelligence artificielle : à la question controversée « Qui est intelligent, de l'Humain ou de la Machine ? », il répond « Rendons -les intelligents ensemble, comme couple/groupe/organisation hybride multiagent; les Connaissances seront le point d'articulation du couplage, l'interdépendance du couple. » Les Connaissances désignent ainsi en informatique la condition de possibilité de l'hypothèse du Niveau des connaissances de Newell. Une coopération interactive Humain-Machine est ouverte sur la base d'un principe de rationalité (j'aime exprimer ce principe à la manière de Montaigne : « Dis -moi ce que veux, ce que peux, ce que sais, je te dirai ce que fais). » En tant qu'elles sont manipulables par l'Humain, qui peut désormais penser sa pensée comme outil rationnel et finalisé, les Connaissances épuisent/réduisent/décrivent le phénomène de la pensée. En tant qu'elles sont représentables et engrammables dans des systèmes informatiques, elles informent les ordinateurs des situations et des degrés de liberté des actions humaines, qui pourront mobiliser l'opération d'instanciation 6 ainsi que les inférences logiques pour s'enrôler dans des raisonnements rationnels divers. Grâce à Newell 7, l'IA quitte à la fois le champ limité de la programmation des ordinateurs et la poétique turingienne pour conquérir les organisations, considérées comme des communautés d'agents humains en interaction, dans lesquelles il s'agit désormais d'insérer avec productivité des agents artificiels rationnels. Car même si Newell s'adresse en priorité au couple humain-machine, ce seront bientôt des sociétés multiagent bien plus larges 8 qui vont être modélisées au Knowledge Level. Newell eut en effet le talent de concevoir le geste salvateur jusqu'au bout, en nommant le lieu du monstre dual 9 qu'il venait de créer et en le baptisant de façon à l'amadouer et l'apprivoiser. Le lieu du monstre était d'ailleurs déjà pointé par Turing : l'interaction humain-machine, comme lieu dépassant à la fois les deux protagonistes, unifiant mystérieusement la Machine au Test. Sa condition de possibilité ? Partager les Connaissances. L'Humain permet à la Machine d'acquérir ses Connaissances, quand la Machine offre à l'Humain d'apparaître comme un interlocuteur digne de lui. à peine opérationnalisée, la notion de Connaissances est ainsi associée à la connaissance du sens commun, pour faire d'un monstre une figure reconnue et opérante (c'est la tératologie – la science des monstres, qui nous enseigne ce subterfuge). Les Connaissances de Newell sont logiques, plus précisément téléologiques, hors du temps et du désir humains. Ses Connaissances peuvent être régionales/domaniales, orientées métier, mais elles ne sont pas situées, elles sont littéralement inhabitées, comme le montre le type d'aporie (logique) auquel Newell admet se heurter (The Lady and the Tiger). Newell est chercheur en Résolution de problèmes, il a réalisé son GPS : pour lui, la vie est un vaste problème, et vivre est un vaste mécanisme de résolution de ce problème. Les Connaissances de Newell prétendent réduire la connaissance banale de l'imaginaire humain, narrative et discursive, déployée dans la durée, pour la recouvrir définitivement d'une chape de rationalité immédiatement finalisée. à l'occasion, l'exigence de rationalité des Connaissances stigmatisera l'irrationnel de la connaissance narrative : quel est votre problème ? Si vous n'en avez pas, si vous ne parvenez pas à en exhiber une expression formelle canonique, alors vous n'avez pas de problème, vous allez bien… Les Connaissances – Knowledge (symbolisé par la lettre K en anglais, comme la nouvelle de Kafka), auront parfois des allures kafkaïennes. Prise au pied de la lettre, la proposition de Newell appauvrit certes notre pensée, mais elle a aussi sa productivité et sa capacité d'innovation propres. De plus, rien n'empêche de chercher à la déconstruire, en mettant en avant des inventions moins durement réductrices comme la notion de collection (Vignaux, 2004), davantage située, se déployant ici et maintenant, en singularité, dans un champs d'attraction dynamique. Le parcours peut devenir chorégraphique/scénographique, et renoncer au caractère topologique, toujours a priori cartographiable, de son inscription. Mais de cela nous parlerons plus tard. Car la question de l'interaction collaborative est certes celle de son établissement équitable et fructueux, mais aussi celle de sa durée, c'est-à-dire de son déploiement dans le temps 10. L'analyse d'exemples de systèmes informatisés que nous connaissons bien, pour avoir participé de près ou de loin à leur conception/réalisation, nous autorise une étude critique de la productivité des Connaissances inventées par Allen Newell. On appuiera cette analyse sur les systèmes de navigation dans des recueils numériques de morceaux de musique LE MUSICOLOGUE et CUIDADO d'une part, et les systèmes de contrôle de situations CHEOPS et VIRTUALIS d'autre part. La mise en place d'un système de navigation au travers de documents musicaux numérisés pose toujours de difficiles problèmes préalables d'acquisition et de restitution, mais aussi de représentation et d'interface Humain-Machine. Lorsque ces problèmes sont enfin surmontés, c'est seulement alors qu'apparaît la difficulté fondamentale : mobiliser les outils basés sur le Knowledge Level de Newell pour néanmoins subvertir ses propositions initiales, affadir l'instanciation et la classification a priori, pour aller vers la similarité en situation et la collection déployée en singularité. Le système LE MUSICOLOGUE a été conçu et réalisé par une petite équipe d'informaticiens et de musicologues entre 1987 et 1990. Parmi les ambitions du système, on a voulu permettre à un élève venant de s'exercer à la dictée musicale sur une certaine pièce de s'en voir proposer d'autres par le système (Rousseaux et Saoudi, 1991), selon une cohérence optimale du cursus, dans le sens d'une collection d'exercices travaillés adaptés la progression de l'élève. LE MUSICOLOGUE était pensé comme un éventail de méthodes, chacune préparée par un enseignant, construites autour d'un recueil de textes musicaux choisi et d'une sélection d'outils d'analyse de la pièce et d'évaluation de la progression de l'élève. Le sous-système en charge de faire des propositions concrètes de pièces à travailler, fonction de la pièce couramment traitée et des difficultés singulières de l'élève, nous a amenés à mobiliser le système DISCIPLE, développé quelques années auparavant dans l'équipe de recherche en Apprentissage automatique de l'Université Paris 11, et auquel nous avions eu l'occasion de contribuer (Kodratoff et al., 1987). DISCIPLE est un système apprenti d'aide à la navigation dans un processus logique de résolution de problèmes par régression de but, principalement mis en œuvre dans le domaine de la planification. DISCIPLE apprend en recherchant la mise en cohérence des deux champs de Connaissances qu'il maintient : les Connaissances pratiques, qui sont des règles de décomposition de problèmes d'une part, et les Connaissances théoriques du domaine d'autre part, qui sont représentées dans un vaste Réseau sémantique (Brachman, 1979) (on ne parlait pas encore d'ontologie) qui met en réseau les objets impliqués dans les règles. DISCIPLE était développé dans une logique de formalisme théorique d'apprentissage, faisant peu de cas de l'interaction Humain-Machine, la réduisant à une forme de clientélisme typique des Systèmes experts : l'Humain attend des solutions, le système lui en propose, et c'est seulement lorsque le système informatisé s'avère incompétent qu'un expert est mandaté pour engager un processus de mise à jour et d'apprentissage des Connaissances guidé par la Machine. LE MUSICOLOGUE aide l'élève à constituer sa collection de pièces travaillées. Collectionner est plus originaire que catégoriser. C'est dans le fil du temps, du Lebensvelt. C'est particulièrement vrai dans le cas d'un travail sur des pièces musicales, dont l'empreinte du succès est la continuation d'une activité qui ne cesse ni ne répète son objet, mais se prolonge sur des objets dont la succession fait parcours de collection (Rousseaux, 2004), un peu comme lorsqu'on constitue une collection d' œuvres d'art (même si l'appropriation des objets temporels n'est pas comparable à l'appropriation des objets spatiaux). Mais si la trace dans le monde d'une activité n'est autre que sa continuation, comment installer un dialogue Humain-Machine, et sur quel type de Connaissances médianes l'instaurer ? Dans le cas de l'environnement d'insertion de LE MUSICOLOGUE, l'élève laisse des traces de son activité d'exercice autres que la sélection préliminaire de la pièce qui l'occupe : l'évaluation de son travail, ainsi que l'évaluation de son niveau dans le cursus, ont été soigneusement conçues pour donner prise à un système apprenti qui pourra stimuler l'intérêt de l'élève en lui proposant des pièces intéressantes à travailler, parmi lesquelles l'élève aura tout loisir de faire son choix motivé. Mais qu'en serait-il de l'activité d'écoute musicale pure, sans prise de note ni autre trace que le seul désir de sa continuation ? Pourrait-on envisager un système qui se propose pour aider l'auditeur à constituer un parcours/collection, alors même qu'aucun but extérieur à l'activité en situation ne peut être assigné au système ? C'est l'objectif du Music Browser développé par Sony-CSL dans le cadre du projet européen CUIDADO, coordonné par l'Ircam entre les années 2000 et 2003 (Vinet, Herrera et Pachet, 2002). La navigation musicale au sein de vastes corpus de titres numérisés est très influencée par la notion de genre, elle -même héritée de la nécessité de choisir physiquement les CD qu'on désire se procurer parmi les bacs et les rayonnages des grands magasins spécialisés. La fin du support CD signe la fin de l'hégémonie de cette activité d'achat et laisse place à une ribambelle d'activités concurrentes et prétendant infléchir l'indexation, d'où l'avènement de régimes d'indexations pléthoriques et concurrents. C'est pourquoi le Music Browser de CUIDADO propose, concurremment à une indexation par métadonnées éditoriales, des possibilités de fouille culturelle et acoustique, renonçant d'ailleurs à imposer des catégorisations exclusives basées sur ces types d'index, mais encourageant l'utilisateur à glisser par une recherche de similarités aussi transversale 11 et interactive que ses caprices le lui inspirent (Pachet 2000 et 2003). C'est encore une fois l'esprit de collection qui est à l' œuvre, et le système offre au collectionneur/auditeur des opportunités qui se conjuguent sur des plans différents mais toujours simultanément activables, liberté lui étant laissée de choisir celle sur laquelle il va localement exercer son contrôle. Les différences entre les systèmes LE MUSICOLOGUE et CUIDADO ne sont pas tant techniques qu'épistémologiques. D'un système à l'autre, on passe (LE MUSICOLOGUE) d'un monde de catégories formelles où la Machine tend à piloter la boucle d'événements interactifs à (CUIDADO) une situation où il est question de collections singulières et où l'Humain tend à rester maître et ultime responsable de cette boucle d'événements, ainsi que des résultats auxquels le système Humain-Machine aboutit. Encore ne parle -t-on plus de résultats dans le cas de CUIDADO mais de parcours, la connaissance étant située en ce sens qu'elle est toujours engagée dans une narration qui s'entretient sans nécessité de buts exogènes ou endogènes au système, par glissements en similarité. Dans le cas du MUSICOLOGUE, c'est le caractère normé et utilitaire du système informatique qui lui permet d'évoluer en termes d'instanciation, gérant le contexte comme des faits instanciant ses connaissances. Mais si l'on vise un système ouvert et non défini par une utilité première, quelle prise lui donner sur le contexte ? On voit qu'il faut s'y prendre autrement car il n'est pas possible de réduire les contextes d'utilisation à des cas génériques prédéfinis. Il faut passer du particulier au singulier. C'est ainsi que l'on abandonne la notion de systèmes fondés sur l'instanciation de moules génériques, pour aller vers des systèmes proposant des parcours entre singularités construites contextuellement. Dans cette deuxième phase d'analyse de systèmes, on s'intéresse à des réalisations qui traitent cette fois de documents de nature cartographique ou scénographique. Exactement dans le même mouvement qui va du système LE MUSICOLOGUE (1990) à CUIDADO (2000) en affranchissant la conception du système informatisé d'exigences téléologiques explicites ou implicites, nous présentons les systèmes CHEOPS (1995) et VIRTUALIS (2005) en mettant en évidence un mouvement de même nature. CHEOPS (Rousseaux, 1995) est un système d'aide à la décision en situations de crise géopolitique, conçu et réalisé entre 1990 et 1995, et intégrant des composants informatiques pour réaliser la possibilité de débats contradictoires de niveau stratégique entre un Humain et un agent artificiel argumenteur (Rosenthal-Sabroux et Rousseaux, 1996; Zacklad et Rousseaux, 1996). Cet agent tente toujours de présenter d'autres facettes de la situation tactico-stratégique au décideur, pour éviter à ce dernier d'oublier des contradictions fructueuses possibles (et surtout celles qui pourraient faire triompher un éventuel contradicteur ou adversaire). Dans CHEOPS, les documents numériques fondamentaux étaient des cartes géographiques (raster et/ou vecteur) augmentées de symboles décrivant une situation courante, et dont on supposait l'interprétation quasi objective au niveau tactique, pour rechercher des interprétations raisonnables/justifiables au niveau stratégique (le rapport tactique/stratégique ressemble au rapport local/global de nos descripteurs solfégiques de la musique). Mais CHEOPS permet aussi bien de légitimer les décisions que de les former, les intentions stratégiques du décideur infléchissant l'interprétation de la situation en concurrence avec les analyses tactiques qui en émergent. Quant aux explications qui sont supposées remonter du terrain jusqu'aux États-majors, elles sont concurrencées par des justifications d'action intentionnelles qui prescrivent l'interprétation du terrain. Avec CHEOPS, il devient clair que le statut des Connaissances introduites par les informaticiens dans le paysage humain-machine peut avoir des conséquences sur les organisations, voir même des effets directs sur leur institution. D'abord « à extraire » en amont du cycle de conception des systèmes intelligents, les Connaissances sont vite devenues l'enjeu de l'Acquisition des Connaissances comme « principe constructif de modélisation » (Clancey 1993). Mais finalement, ce principe modéré est vite devenu principe de management et d'organisation (par exemple en vue d'unifications normatives des vues au sein d'une même organisation), et donc principe d'institution organique. C'est ainsi que l'innovation de Newell tend à ébranler le champ d'insertion des outils qu'elle conduit à produire, c'est-à-dire l'organisation elle -même, sommée de laisser place à des agents rationnels artificiels, et finalement elle -même finalisée et normalisée en conséquence. Au fond, CHEOPS n'est pertinent que si l'on considère qu'il est possible de mettre à distance une situation pour procéder à des décisions, vues comme des réorganisations partielles de certaines composantes de cette situation. La situation serait en quelque sorte congelée avant cette opération, et ne serait pas affectée par la visée délibérative. Or une grande partie de notre investigation philosophique, alors que nous animions entre 1997 et 2000 le groupe de recherche « Reconstitution de la décision politico-stratégique » du Collège international de philosophie, a consisté à montrer les considérables limites de cette vision. C'est suite à cette enquête philosophique que l'idée du système d'aide à la scénographie VIRTUALIS est née, comme dispositif humain-machine destiné à explorer d'autres postures de décision. VIRTUALIS est un système établi sur l'idée qu'un spectacle vivant peut être considéré comme une collection/procession d'interactions sous contrainte, et que la mise en œuvre de procédés de rétention de certains échanges interactifs peut ouvrir l' œuvre (au sens de l' œuvre ouverte d'Umberto Eco), en permettant de densifier l'espace des interactions (Rousseaux et Bonardi, 2004). Par exemple, Alain Bonardi, principal concepteur de VIRTUALIS (Bonardi et Rousseaux, 2001; 2004), a mis en œuvre le système dans la création d'une pièce de Geneviève de Gaulle mettant en scène une narratrice et une danseuse Nô, mais aussi un immense écran de fond de scène sur lequel étaient dessinés des mobiles qui s'animaient en lien avec les émotions particulières de la voix de la narratrice. Ainsi, l'influence immédiate de la voix se trouvait concurremment médiatisée par l'écran et acquérait ainsi une portée et une rémanence supplémentaires dans l'ordre de l'épaisseur temporelle. Ce qui nous intéressait dans ce travail était de parvenir à affadir l'instanciation 12 (Rousseaux et Bonardi, 2004), le fameux impensé de l'informatique, en proposant qu'une mise en scène ne soit plus contrôlée et spécifiée par des variations d'instanciation dans des ontologies de personnages et d'actions, mais davantage par un glissement de situation contrôlé par la situation elle -même. Par une approche Fouille de données interactive, on représente l'exemple comme une spécialisation de l'ensemble des cas, et on cherche d'autres spécialisations voisines, mais sans disposer par avance d'une ontologie. L'utilisateur accepte de la façonner à sa main avec l'aide interactive de la machine, de manière ad hoc. Le système des interactions multimodales dans La traversée de la nuit repose sur un système homme-machine « autarcique » : une comédienne, Valérie Le Louédec, disant l'intégralité du texte, une danseuse, Magali Bruneau, accomplissant un certain nombre de gestes inspirés du théâtre Nô et un ordinateur multimédia, acteur artificiel. L'ordinateur se manifeste sous forme d'images projetées sur un écran de fond de scène de très vastes dimensions (la comédienne et la danseuse en voient toujours au moins une partie sans se retourner), provoquant la réaction des deux comédiennes, notamment de la danseuse adaptant la réalisation de sa gestuelle aux mouvements et qualités de l'image. Or, les deux actrices sur scène constituent les deux versants – conscient et inconscient – du même personnage, selon les traditions du shite et du waki du théâtre Nô. Entraînée dans ses déplacements par la danseuse, la comédienne adapte elle aussi sa déclamation, sans compter les moments où elle regarde aussi l'écran. Pour boucler la boucle, l'ordinateur capte les états émotionnels de la voix de la comédienne. Avec VIRTUALIS, Alain Bonardi et moi découvrions que la technologie permettait de se passer des concepts mêmes qui lui ont permis d'exister, ou plus exactement de les déconstruire, au sens de Derrida. Ainsi, après même qu'elles aient subrepticement prescrit des organisations dans leurs méthodes de travail et de conception, les Connaissances moléculaires et cartographiées de Newell pouvaient être déconstruites. La notion laisse place à autant de scénographies/chorégraphies qu'il y a d'expériences à l' œuvre, dans un mouvement qui rappelle celui de la concrétisation au sens de Simondon (Simondon 1989), l'innovation consistant à déconstruire ces Connaissances pour en liquider l'artifice, tout en continuant à mobiliser les outils que la notion dogmatique a permis de constituer. Il devenait clair que la tentative de Newell était une fiction destinée à opérer dans le champ de la représentation, pour permettre d'adresser à nouveaux frais la crise ancestrale de la représentation, en partenariat avec les ordinateurs. Potentiellement contributeurs dans l'élaboration de représentations moins frustrantes car faisant droit à davantage d'investigations sensorielles et conceptuelles (avec la réalité virtuelle et le multimédia par exemple, la fameuse pipe de Magritte peinte en 1929 dans la Trahison des images pourra en droit donner à respirer l'odeur du tabac, à ressentir la chaleur de son galbe et l'amertume de son goût, mais aussi à vivre l'expérience de son usage), les ordinateurs devaient être dotés de moyens qui leur permettent de s'inscrire dans la médiation interactive des représentations. Même au prix élevé d'une exigence de rationalité, il était sans doute très astucieux de proposer d'emblée une solution radicale sous la forme de Connaissances à deux faces, une face statique tournée vers les ordinateurs et une face dynamique tournée vers les interprètes humains. Mais il apparaît aujourd'hui qu'une partie de la dynamique peut être reportée vers les ordinateurs et que l'hypothèse de rationalité peut être levée (et même qu'elle doit l' être), à condition de renoncer à des Connaissances à deux faces pour un horizon de synthèse et de désir, bien mieux inspiré par la notion de Collection, telle que l'éprouve par exemple un collectionneur d'art, que par celle de Connaissances rationnelles. Après l'Information et le Rapport fonds/forme, c'est bien au tour des notions de Connaissances et de Contenu des documents numériques d' être mises en tension. En revisitant ces expériences de conception de systèmes intelligents d'aide à l'interprétation de documents numériques, nous avons constaté que la proposition d'une description a priori de la connaissance, hors situation vécue, nous a souvent laissé insatisfaits, et que nous lui avons préféré celle de glissement des situations, fondant une interaction humain-machine dans la durée, au travers de formes narratives, et permettant la constitution de collections inspirées, à l'intentionnalité mouvante et vivante. Les documents numériques ne contiennent pas de connaissances. Leur « prise de connaissance » est bien plutôt un processus élaborateur de collection, qui vise concurremment sa terminaison et sa continuation, les deux visées étant nécessaires ensemble parce qu'elles entretiennent leurs possibilités réciproques. Pensons à la collection d' œuvres d'art et aux analyses de Gérard Wajcman (p. 89 du Catalogue de l'exposition inaugurale de la Maison rouge) sur le statut de l'excès dans la collection : « L'excès dans la collection ne signifie pas accumulation désordonnée; il est un principe constituant : pour qu'il y ait collection – aux yeux même du collectionneur – il faut que le nombre des œuvres dépasse les capacités matérielles d'exposer et d'entreposer chez soi la collection entière. Ainsi celui qui habite un studio peut parfaitement avoir une collection : il suffira qu'il ne puisse pas accrocher au moins une œuvre dans son studio. Voilà pourquoi la réserve fait partie intégrant des collections. L'excès se traduit tout autant au niveau des capacités de mémorisation : il faut, pour qu'il y ait collection, que le collectionneur ne puisse pas se souvenir de toutes les œuvres en sa possession [&#133; ]. En somme il faut qu'il y ait assez d' œuvres pour qu'il y en ait trop, que le collectionneur puisse “oublier” une de ses œuvres, ou qu'il doive en laisser une part hors de chez lui. Disons -le d'une autre façon : pour qu'il y ait collection, il faut que le collectionneur ne soit plus tout à fait maître de sa collection. » « La scène du collectionneur privé, ce n'est pas son appartement, c'est le monde. Il faut bien se dire que pour lui l'essentiel de sa collection n'est pas chez lui – sa collection est à venir, encore dispersée aux quatre coins du monde, et toute galerie et toute foire est en un sens pour lui l'occasion d'aller à la rencontre de sa collection à venir » (Wajcman, p. 29 de Collection). Ou encore : « Si jamais personne ne regarde “une collection ”, c'est qu'une collection n'est pas un tout d' œuvres, mais une série indéfinie d'objets singuliers, une œuvre + une œuvre + une œuvre … », (Wajcman, p. 28 de Collection). Tout processus de déploiement d'une collection est potentiellement infini, même si la collection est nécessairement indéfinie, provisoirement finie. Dans la pratique, une collection cesse d'exister autrement que comme corrélat mondain dès lors que le collectionneur se désintéresse de son déploiement : il cesse alors de répéter le geste d'acquisition et/ou celui de la reconstitution de la collection dans la sphère de l'intime. Ces deux gestes ont même essence : pour maintenir sa collection dans la sphère de l'intime, le collectionneur visite ses brebis 13 et reconstitue la collection, travaillant à son insu sa logique de croissance même. La reconstitution rééquilibre les tendances lourdes de la collection et fait advenir de nouveaux rapports entre les œuvres, instituant de nouvelles similarités qui infléchiront la logique d'acquisition. Curieusement, le désir se noue ici à la différence. Les objets rejoignent la collection à partir du prédicat être différent, et ils ne deviennent semblables que dans un second temps, en tant qu'ils ont en commun d' être différents, formant ainsi ce que par Jean-Claude Milner appelle une classe paradoxale. Si l'on peut parler de concrétisation à la suite de Simondon, qu'en est-il de la genèse des systèmes symboliques et des lignées techniques qui en surgissent ? Peuton avoir des parcours pour l'utilisation et des lignées pour la conception ? N'est -ce donc pas une nouvelle technicité de l'informatique qu'il faudrait envisager ?
Lorsqu'en 1982 Allen Newell a inventé une nouvelle acception des connaissances pour permettre aux informaticiens d'unifier les deux inspirations fondatrices de l'intelligence artificielle, il était peut-être loin d'imaginer l'immense succès qu'allaient rencontrer ses propositions. La manière de penser les documents numériques et les outils interactifs d'accès à leurs contenus allaient s'en trouver profondément marquée, ouvrant à nombre d'applications innovantes. Pourtant, une analyse de systèmes d'aide à l'interprétation de documents réalisés depuis les quinze dernières années sur la base des propositions de Newell révèle une surprise de taille: pour concevoir une grande partie de ces systèmes, les ingénieurs se sont en réalité efforcés de déconstruire ces propositions. Typiquement, il apparaît qu'à la notion de connaissances est préférée celle de collections. Mais cette dernière ne pouvait peut-être émerger qu 'en mobilisant la première pour la tordre et la détourner.
sciencesInfo_06-0278933_tei_DN_091_0093.tei.xml
termith-405-communication
Débattre de la notion d'interdisciplinarité suppose un accord véritable sur la notionde discipline. Précisons : une notion valable moins dans un tableau idéal dessciences nourri de définitions a priori, mais aussi au vu dela réalité non seulement scientifique, mais aussi sociale, institutionnelle, des« disciplines » – en nous restreignant aux sciences humaines et sociales. Avant decroiser les disciplines, il faut savoir où nous en sommes de la questiondisciplinaire, sinon, nous ressemblerons fort à la gentry anglaise chassant le renard, décrite par Oscar Wilde : l'innommable (la discipline )chassant l'immangeable (l'interdisciplinarité). Or, nous n'avons, nulle part, unedéfinition de la notion de discipline qui nous permette de bâtir de façon cohérentecelle d'interdisciplinarité. Efforçons -nous de commencer par définir la discipline de façon classique, entermes aussi scientifiques que possible. Il est deux façons, classiques, defaire : d'un côté, une discipline peut se définir par des concepts fondateurs ;de l'autre, par son territoire d'études (ce qui pose, immédiatement, la questionpolitico-épistémologique de la frontière). Cette opposition n'est pas originale .Évoquant l'histoire des grandes disciplines, Roger Chartier (1998, chapitre 9 )oppose ainsi la sociologie, discipline très conceptuelle, qui regarde vers laphilosophie et se nourrit de concepts, et la géographie, science de la terre, ouplutôt du paysage, littéralement engluée dans le concret (l'histoire occupantselon lui une position intermédiaire). La sociologie est une discipline qui avocation à embrasser la totalité du social, à partir d'un répertoire de conceptsque Robert Nisbet (1966) identifie de façon brillante dans Latradition sociologique – pour mémoire : communauté, autorité, statut ,sacré, aliénation, etc. – la définition par le concept fondateur peut s'enrichird'une autre notion, capitale dans la hiérarchie des disciplines, celle de canonet de textes fondateurs. Sachant que les auteurs canoniques peuvent êtrerevendiqués par des disciplines différentes. Max Weber est canonique (on diraitaujourd'hui incontournable) pour un sociologue, pour un spécialiste desreligions, pour un historien du capitalisme, pour un politologue. .. Notons aussique toutes les disciplines ne peuvent revendiquer un canon bien établi. Maisrevenons à l'opposition entre concept et territoire. Elle est trop simple pourn' être pas suspecte car, dès que le territoire s'élargit, il atteint un certainniveau d'abstraction. Beaucoup de territoires ont vocation à devenir desconcepts, et les disciplines de territoires sont très souvent des faussesmodestes. On affiche une ambition limitée de n'étudier que X (X = lepaysage/l'éducation/le discours) au sein de la société, mais à l'examen ils'avère que X est, au fond, présent dans toute la société, que toute la sociétéest interprétable à partir de X. Ce petit coup de force a été tenté maintes foisdans l'histoire des sciences sociales. Mais les chances ne sont pas égaleschaque fois entre les disciplines qui s'y risquent. Les « sciences de…. » sontbien souvent des découpages territoriaux qui n'ont pas vocation impériale ausens où je viens de le définir. Par exemple, les sciences de l'éducation (encoreque si l'on entend éducation comme socialisation) ou les études urbaines sontpartielles. Mais beaucoup de disciplines ne veulent pas être rejetées du côtédes disciplines partielles, même si les grandes disciplines établies s'emploientà les enclore, ou à les renvoyer dans leurs champs. Prenons l'exemple d'unediscipline aujourd'hui bien établie, même si cela n'a pas toujours été le cas :la science politique (Favre, 1989) est-elle la science des institutionspolitiques (élections, etc.), et au premier chef de l' État (capital aux originesde la discipline, et qui a été négligé, erreur fatale, par la sociologienaissante), ou celle « du » politique (« tout est politique ») ? En tout cas ,aujourd'hui, personne ne conteste sa place sinon dans le tableau des sciencessociales, au moins dans l'organigramme des disciplines qui ont suivi ont puespérer jouer de cette ambigüité entre territoire et concept. La sémiotique aété définie par Ferdinand de Saussure comme une science qui étudie les« systèmes de signes au sein de la vie sociale ». Cette définition ne réduit pasla vie sociale a des signes. En extension, on peut parcourir le territoirespécifique de la sociologie, en énumérant des systèmes de signes : la mode, lecinéma, pour citer deux systèmes qui ont fait travailler des pères fondateurs( mais ont-ils fondé ?). Cependant, l'on peut aussi dire que la société est faitetout entière de signes, que tout est sens/langage/discours et l'on glisse versla vocation impériale. Plus près de nous, la communication s'occupe -t-elle desmédias (jadis des mass medias) en tant qu'outils defabrication et de circulation des messages ou inclut-elle tous les échanges designes (tout est communication) ? Plus récemment, les « globologues » quis'occupent de communication soutiennent volontiers que celle -ci ne date pasd'hier ni d'avant d'hier, qu'il faut tout revoir à l'aune des problématiques dela mondialisation/globalisation et que les autres disciplines, enfermées dansdes cadres nationaux, se révèlent donc des disciplines locales. Les études degenre (gender) soulignent à bon droit que si le genren'est pas tout, le genre est partout, et donc qu'elles ont vocation à rendrevisite, parfois revendicative et critique, à toutes les autres disciplines. Onle voit, il faudrait ébaucher une typologie fine de ces rapports de sens et deforce entre disciplines. En tout état de cause, les intentions scientifiques yapparaissent comme constamment mêlées : il s'agit aussi d'agrandir le territoired'études et donc le territoire de la discipline (y compris le territoirephysique, sur le campus, etc.). Dans cette opposition du concept et duterritoire, le concept, notamment en France (beaucoup plus qu'aux États-Unis) ,l'emporte : défendre sa discipline c'est savoir manier le concept. Leshistoriens français en sont la preuve qui ont maintenu une forte traditionspécifique de philosophie de l'histoire pour montrer qu'ils n'y étaient pasrebelles. Mais les disciplines territoriales peuvent déployer une autrestratégie : celles auxquelles on reproche d' être dans la boue du territoirepeuvent parfois répondre à d'autres qu'elles ont la tête dans les nuages. Ainsi ,même si les sociologues français aiment le concept, ont-ils de longue datedénoncé l'abstraction oublieuse du réel que les historiens leur reprochent, maischez d'autres : les philosophes. Émile Durkheim écrit au début du XX e siècle des lignes que bien des sociologues ont repris àleur compte : « Nous n'admettons plus aujourd'hui qu'on puisse spéculer sur lanature de la vie, sans s' être initié, au préalable, à la technique biologique ;par quel privilège pourrait-il être permis au philosophe de spéculer sur lasociété, sans entrer en commerce avec le détail des faits sociaux » (in : Wacquant, 1995 : 652). Cependant, l'accusationd'abstraction excessive peut aussi être maniée par l'historien envers lesociologue, en particulier. Et à l'intérieur de chaque discipline : lemonographiste reprochera au sociologue, plus synthétique, de s'éloigner trop duterrain, de « faire de la philosophie ». L'axe qui va du primat de laconceptualisation au primat de la description des objets est certainement leplus fécond pour comprendre les oppositions entre disciplines. À ce jeu, on esttoujours le philosophe de quelqu'un (trop abstrait, votre affaire, vous ignorezles faits), ou son géographe (trop concrète, et donc faussement concrète, cherami, votre description, vous oubliez que le réel est construit – même si je suistrès content, quand même, de piocher dans votre description). Mais il n'est pasle seul. Car il y a un troisième élément dans la définition scientifique de ladiscipline : la ou les méthodes. À nouveau, l'accent sur la méthode n'est paspartout le même. Aux États-Unis, on lui fait plus de place. Mais sans méthode ,pas de revendication scientifique. Le dialogue entre les disciplines voisines( ou, on y reviendra, au sein d'une même discipline) consiste souvent en desdébats méthodologiques, des plaidoyers pour ou contre telle méthode. Lerapprochement de l'anthropologie et de la sociologie est pour beaucoup passé del'application des méthodes de la première aux territoires de la seconde. Prenons un exemple de débat méthodologique classique pour la communication .Opposons la « communication » face aux « études de cinéma » (faut-il dire encorela « théorie du cinéma » ?). Même si elles ont évolué, les secondes se sontlargement formées dans l'ombre de la littérature, voire de la philosophie :elles ont valorisé les œuvres d'abord (rebaptisées « textes », à un point del'histoire), un peu moins les « créateurs », les artistes. L'immense majoritédes rayons du département de cinéma est couvert d'ouvrages monographiques surdes films, des groupes de films, les films de tel ou tel auteur. L'analysetextuelle (sous des formes diverses) est la méthode reine. La communicationsouligne alors le fait qu'un acteur majeur, le public, ait été négligé : a -t-oninterrogé un seul spectateur avant d'affirmer l'impact novateur, singulier, detel film ? Les « textes » ont-ils une vie en dehors de leur public ? Problèmecrucial, soit dit en passant, pour les historiens (Douglas, 2008). Lorsque les« cinémalogues » transfèrent leurs méthodes et leurs outils à la communication ,ils persistent souvent dans ce primat du texte (et les monographies sur tellesérie télévisée s'ajoutent alors aux monographies sur les films – effet descience, effet de concurrence ?). De surcroît, sont venus à leurs renforts (mêmesi c'est en proclamant la mort de l'auteur, le texte, lui, demeurait vivant etcoriace) les sémiologues des années 60. Michel Souchon (1993 : 233) qui a bienconnu l'époque, vend la mèche méthodologique : « Sans être soutenueexplicitement ni théorisée, la conviction était que ces contenus passaient dansle public [… ]. L'analyse des messages percevait permettre de décrire leschangements culturels de la société ». La querelle entre les textualistes, lato sensu, et les autres, est loin d' être terminée. Les disciplines rivalisent donc entre elles de multiples façons, et ces rapportscomplexes ne cessent d'évoluer. Elles font des offres de service (puis -je voushistoriciser, cher ami ? Pas avant que je vous sémiotise !). Elles repèrent desdomaines ou des méthodes négligées dans le découpage du social et s'en emparent .À ses débuts, la sociologie a négligé l' État; la science politique naissante( Favre, 1989) s'est engouffrée dans ce qui apparaît, rétrospectivement, commeune erreur stratégique. L'histoire de la communication peut s'écrire, en partie ,par la conquête d'un objet longtemps négligé par les sociologies (qui ontpréféré les structures sociales, le travail, la religion, etc.) : la culturepopulaire, rebaptisée culture de masse, en expansion foudroyante. Aussi les« communicologues » ont-il cherché du concept chez des philosophes qui ont pensé( et créer) les concepts « d'industrie culturelle » (Theodor V. Adorno et MaxHorkheimer) ou « d'espace public » (Jürgen Habermas). À cet égard, si l'onmaintient qu'une discipline construit ses concepts à partir de textescanoniques, on notera que le « canon » de la communication est aujourd'hui faitde bric et de broc – malgré l'effort de Elihu Katz, John D. Pieters, TamarLiebes, Avril Orloff, 2002) et qu'il n'y a pas d'accord international sur cecanon. Ces découpages ne sont jamais tout à fait clos, les reconquêtes sont àl'horizon, menacent ou promettent selon le point de vue. La fragilité de lacommunication est ici manifeste : alors que son domaine, en apparence, ne cessede s'étendre, au sens où la médiation technologique (internet, téléphonie )paraît pénétrer toutes les sphères de la vie sociale, l'absence de canon solidepermet à des sociologues, des géographes, d'investir ces nouveaux territoires .On pourra examiner avec intérêt la façon dont l'internet est approprié par deschercheurs très divers, notamment des sociologues et des anthropologues. Unexemple : sur le monde virtuel, l'un des plus brillants ouvrages sur la placenous vient d'un anthropologue ferment inscrit dans sa discipline, et pourtantles « communicologues » ne peuvent le négliger (Boellstorf, 2008). Les disciplines ont une histoire marquée par des rapports de concurrence, et passeulement intellectuels, rapport difficiles, à la fois inter - etintra-disciplinaires : il faut se battre pour des postes, des programmes, dessubventions (on pourrait faire l'histoire des sciences sociales à travers ladistribution des crédits de recherche, et voir ainsi monter et descendre la cotedes concepts). Tout responsable de département le vit cruellement : il cherche àconvaincre de l'importance de son domaine et se heurte d'abord à des rapports deforce, ensuite à des arguments intellectuels. Ses arguments invoquent souventl'autorité de grands exemples (Oxford et Harvard ont donné des postes à lacommunication et nous non ?). Il fait – et ce point est aussi d'épistémologie –des alliances dont il n'est pas fier pour développer sa discipline – mais de sefait même il la mine, intellectuellement, de l'intérieur. Pour prendre unedistinction essentielle encore – dont on annonce trop vite la disparition aubénéfice de l'un ou l'autre camp –, beaucoup de sciences sociales (mais pastoutes) par la rivalité entre les chercheurs empiriques et quantitatifs et lesautres (que je me refuse d'appeler « critique », car la vocation critique estloin de les caractériser tous et a perdu beaucoup de son tranchant). Si le campquantitatif est beaucoup plus faible en Europe, la montée générale de laquantification (à la fois comme critère d'appréciation interne et externe auxdisciplines), sous l'impulsion de la globalisation/américanisation culturelle ,pèse déjà sur les rapports inter - et intra-disciplinaires. Précisons quel'identification des territoires et des concepts pose aussi des problèmesinfinis, car les découpages ne sont pas vus de la même façon par les différentesdisciplines : autre objet de querelle. Singulièrement, les concepts que l'onmobilise comme transdisciplinaires se révèlent toujours les plus difficiles àdéfinir. Plus leur fréquence d'emploi est élevée, plus ils se diluent. Quand ilsvoyagent, ils se métaphorisent. L'histoire des concepts transdisciplinaires etde leurs impressionnantes métamorphoses est à faire. On y trouverait des cycles ,comme celui du triomphe dans la dilution, qui se produit peut-être aujourd'huipour la « memory ». L'usage en est multiple, avec descoupures, par exemple entre les psychologues cognitifs et les sciences ducerveau d'une part, et les historiens et les sociologues d'autre part, dont ilest difficile de dire qu'ils parlent de la même chose lorsqu'ils utilisent lemême terme (Sutton, 2007). Le concept flou par excellence est celui de société, que l'on risque fort dedéfinir avec d'autres concepts qui sont loin, eux aussi, de faire accord .Patrick Charaudeau (2010) pose l'analyse du discours en concurrence directe avecla sociologie, en définissant la société comme un « ensemble de signes », et laparenthèse qui précise qu'il s'agit « aussi de signes d'action » est œcuménique ,mais du coup la définition perd tout son tranchant. Par ailleurs, l'analyse dudiscours s'occupe très massivement du langage verbal. Beaucoup de sociologues ,d'historiens, de géographes – bref, de gens qui ne sont ni sémiologues, nianalystes du discours – noteront qu'il s'agit d'une définition d'analyste dudiscours ou de sémiologue. Allons plus loin : il est impossible d'élaborer unedéfinition consensuelle de la société acceptable par toutes les disciplines oules sous-disciplines. Car une discipline a vocation à discipliner, à mettre del'ordre dans le monde. Michel Foucault a insisté sur le fait que les disciplinesscientifiques ont aussi vocation à mettre de l'ordre. Mais chacune cherche aussià imposer son ordre. Une discipline est un partage qui doit s'imposer auxautres, et aussi à ceux qui le pratiquent. Après tout, on entre dans unediscipline, dont il devient quelquefois difficile de sortir. Quand on en sort ,c'est souvent de façon provisoire et stratégique, pour faire del'interdisciplinarité. On peut risquer une sortie plus durable, débaucherquelques collègues, mais cette liberté aura pour but de créer un nouveau champ ,elle aura vocation à créer une nouvelle discipline, on y reviendra. Le dialogue n'est pas seulement entre les disciplines mais à l'intérieur d'elles ,d'abord. Avant d'en arriver à l'interdisciplinarité, nous aurions besoind'intra-disciplinarité (mais je ne veux surtout pas proposer de nouveauconcept). C'est aussi une difficulté pour quiconque veut dresser, comme PatrickCharaudeau, un tableau des disciplines. Par exemple, ce dernier associeétroitement la sociologie au concept de domination, mais ce n'est là qu ' une sociologie, au minimum, car le concept de dominationest loin d'avoir une signification facile à délimiter (Boltanski, 2009). Onpourrait argumenter que ces écarts intradisciplinaires favorisel'interdisciplinarité, en conduisant les différents courants théoriques de lamême discipline à chercher des alliés chez d'autres. La sociologie de l ' ant (Actor Network Theory )trouve beaucoup de matière chez les historiens, qui, sans nécessairementutiliser le vocabulaire théorique correspondant, remontent, au fil desdocuments, et de façon très dense, des réseaux d'acteurs occupés à construire lesocial. Lesdits historiens se sentent souvent plus mal à l'aise avec dessociologies plus structurales, plus statiques, simplement parce que la questiondu changement est plus difficile à y introduire : le dialogue entre leshistoriens et Pierre Bourdieu a été complexe, pour dire le moins, même sicertains qui se sont occupés de la naissance d'un « champ » ont pu apporter del'eau au moulin bourdivin. Mais comme ces exemples le montrent, le dialogue està sens quasi unique, et relèvent des efforts de mobilisation pour renforcer saplace au sein d'une discipline donnée : je suis historien mais je maîtrise tellethéorie sociologique, ou inversement. Les désaccords fondamentaux sur ce qui fait la société sont loin d'avoir disparu ,et l'on est allé trop vite de la fin des idéologies à la fin des oppositionsthéoriques. Comme il n'y a pas d'accord sur ce qu'est la société et lesagents/individus/acteurs qui la constituent, il devient difficile de la découperen « morceaux ». Et même si l'on découpe, au sein de chaque charcuterie sur laplace, on n'est pas d'accord sur ce qui fait l'essence de la viande, ou del'animal à découper. Si la société est d'abord un ensemble d'individusrationnels (acceptons provisoirement le terme de rationnel), si elle est unensemble d'individus dotés de répertoires de valeurs changeantes (passons survaleur), si elle est d'abord faites d'entités collectives dans lesquelles lesindividus s'emboîtent; je peux, dans tous les cas, être défini comme sociologue( et même partager un bureau avec un collègue, quoique le dialogue risque de selimiter au menu de la cafétéria), je ne pratiquerai pas les mêmes méthodes detravail, je n'aurai pas la même relation avec l'histoire, avec la sémiologie, laphilosophie. Plutôt qu'une définition conceptuelle, on peut proposer une définition matérielleet sociale. Précisons que je ne prétends pas y réduire les disciplines, mais ilme paraît illusoire d'ignorer cette dimension. Les disciplines sont desstratégies – concurrentes pour l'essentiel – qui cherchent à imposer desperspectives d'analyse du monde (et pas seulement du monde social). Lesdisciplines se construisent comme coalitions d'intérêts (plus ou moins durables ,plus ou moins locales/nationales/internationales), autour d'un champ et/ou deconcept et/ou de méthodes, regroupant des chercheurs qui proclament l'existencede leur disciplines, d'où création le postes, de revues universitairesspécialisés, ou, consécration suprême, de départements et d'institutions (enFrance, de commissions nationales universitaires). Une discipline est consacréeaussi par l'existence d'un langage spécifique (d'un jargon, pour le dire defaçon plus dépréciative), au premier chef le nom de la discipline. Ici ,l'analyse du discours des disciplines a un vaste travail, certes local, mais quisera d'une grande richesse. Travaillant sur un même objet à partir dedisciplines différentes, on se voit changer tout d'abord de langues, devocabulaire, sans même songer aux problèmes théoriques différents que l'on pose .Mais aussi, si l'on reste dans la même discipline en traversant l'Atlantique –ou la frontière canadienne –, on découvre que ce n'est peut-être plus tout àfait la « même » discipline (pour un cas ancien mais toujours piquant, voirLamont, 1988). Si je peux me permettre un exemple personnel, face à mon jury dethèse d'histoire qui portait sur une grande organisation (la radio télévisionfrançaise) et ses métiers, un membre me fit remarquer que j'avais négligé lasociologie des organisations et des professions et je m'entendis répondre ,sentant la discipline s'emparer de moi, que j'avais bien pris connaissance, avecgrand intérêt, de ces travaux, mais qu'écrivant une thèse d'histoire avec grandedensité d'archives, je n'avais pas éprouvé le besoin d'y faire référence endétail (je n'ajoutais pas que les autres membres du jury n'auraient sans doutepas apprécié). J'avais parlé la langue de l'historien : archives, sources ,documents, corroboration, en incluant les sources contemporaines de l'histoireorale (que je n'appelais bien sûr pas entretien sociologiques, ni même récits devie). Pour en revenir aux noms des disciplines, souvent plus cruciaux que leurdéfinition, voici un petit inventaire pour citer quelques-unes des disciplinesrencontrées par l'auteur sur son parcours : « théorie du cinéma » ,« sémiologie », « histoire culturelle », et aussi, avouons -le, « analyse dudiscours ». Rencontrées avec une envie de ne s'identifier à aucune et de lesabandonner toutes : car on se trouve très vite mobilisé par le besoin de définiret justifier une discipline par rapport à d'autres. On se trouve mobilisé pardes communautés de chercheurs qui réclament que l'on revête ce qui apparaît trèsvite comme un uniforme. Pour comprendre le pouvoir de la discipline, en ce sens ,partons du chercheur et de sa stratégie individuelle (procédons en adoptant, aumoins provisoirement, l'individualisme méthodologique de certains sociologues) .Si l'on rencontre un chercheur, aujourd'hui, il doit se définir par unediscipline – il n'a pas le choix. Une discipline est d'abord une contrainte .Ainsi l'auteur de ses lignes est-il « chercheur en communication », publieprincipalement dans des revues de « communication », etc. Il se définiraitbeaucoup plus volontiers comme sociologue et historien que les hasards et lesnécessités de la carrière ont poussé à s'intéresser beaucoup aux médias, maiscela fait désordre curriculaire. Et soyons francs, historiens et sociologues quisont plus prêts du cœur de leurs disciplines respectives ne l'accueilleraientpas nécessairement à bras ouverts (sans parler de postes). Résumons : la notion de discipline ne nous permet pas d'ouvrir la voie à celled'interdisciplinarité de façon fructueuse au plan scientifique. Pour la bonneraison que l'effort scientifique est composite par nature. On pourrait dire quel'interdisciplinarité est partout, c'est-à-dire nulle part. Car les dynamiquessociales, institutionnelles (et personnelles, de surcroît, on le verra plusloin) nous forcent à des affiliations disciplinaires qui peuvent être vécuescomme profondes, mais qui demeurent largement artificielles. Quant aux effortsinterdisciplinaires, ils sont, mais à un degré supérieur, des conglomérats( d'intérêts, de budgets, de concepts, de territoires, de méthodes, d'affectsencore plus incertains, plus instables que les disciplines). Plus instables carils s'inscrivent dans le jeu permanent des rivalités entre disciplines. C'estici que la promotion de l'interdisciplinarité peut participer, comme lesdisciplines, d'un effort commun pour créer un rapport de forces favorables àl'émergence d'un objet, parfois le temps de l'obtention d'un contrat derecherche ou d'édition, parfois un peu plus durablement. De ce point de vue ,considérons la thématique proliférante des « études », ou des « études de »( cinéma, culturelles, de mémoire, de genre, etc.). Elles apparaissent comme unétat intermédiaire entre la discipline établie et l'interdisciplinarité quelquepeu durable. Elles ont (mais pour combien de temps ?), leurs revuesscientifiques, leurs programmes universitaires qui luttent pour devenir desdépartements. Dans les sciences sociales, plus que l'interdisciplinarité, ilfaudrait comprendre la dynamique de ces « paquets », de ces « clusters » enreconfiguration permanente. Il faudrait faire bonne place à la notion« bourdivine » de stratégie de reconversion de ressources d'un champuniversitaire dans un autre : ainsi la reconversion des littéraires dans lasociologie des médias, dans les études culturelles, dans l'analyse du discours ,qui permet de sauver au moins une partie d'un capital culturel chèrement acquis .L'essor présent des études de mémoire en sciences sociales (Sage a lancé en 2006la revue Memory Studies), rassemble ainsi des sociologues( pour beaucoup des médias), des historiens, des psychologues sociaux, autourd'une notion composite de la mémoire qui ne recouvre pourtant qu'une partie duconcept. Sous la politesse et l'effort fait pour créer des coalitions, il y aaussi la persistance de méfiance ou de désintérêt, aussi bien à l'intérieur desdépartements, ou l'on cohabite tant qu'il y a de la place (et des budgets) pourtout le monde, qu'entre départements. Les voyages entre disciplinespermettraient ainsi d'établir l'axiome : la discipline fondamentale de l'un esttoujours la science auxiliaire de l'autre. De même que l'on peut essayer deréduire le concept à un territoire, on peut traiter une discipline comme unescience auxiliaire (ce qu'on ne dit plus guère aujourd'hui, mais la stratégiedemeure), voire comme une simple méthode. Certains territoires sont traitéscomme des préalables utilisés par d'autres. Aujourd'hui, la plupart des curricula de départements de communication intègrent lasémiologie, mais avec, clairement, un statut de science auxiliaire d'analyse desmessages (singulièrement de l'image), ce qui est une défaite par rapport àl'ambition initiale. L'analyse du discours est encore traitée par beaucoup commeune science auxiliaire, non comme une discipline bonafide. Mais l'histoire, pourtant mieux établie, peut être traitée de lamême façon. L'expérience (ici personnelle, mais une fois de plus, je le crois ,représentative) de l'historien « spécialisé » fréquemment confronté à desnon-historiens pourrait se résumer ainsi : ah ! Vous faites de l'histoire ?C'est bien, vous repérez les faits et les dates, et cela nous permet, à nous ,les sociologues, de nous passer de ce travail nécessaire et accessoire et depasser aux choses sérieuses, plus théoriques, plus urgentes. Bien sûr, cela nefut jamais dit comme cela. Mais la place aussi de l'histoire dans bien des curricula, ou des ouvrages, comme savoir de fondnécessaire, suffirait ici à nous éclairer. Traitons de l'arrière-planhistorique, puis passons à l'essentiel. Compliquons notre affaire avec une troisième définition de la discipline ,individuelle et psychologique. Une discipline c'est aussi – au niveau individuel– un fétichisme, pour dire bref un attachement primitif qui seul donne duplaisir (le discours m'importe, la statistique m'importe, l'inconscientm'importe) qui travaille des individus et crée des attachements durables ,constitutifs pour beaucoup d'entre nous. Cette vue plus psychologique de ladiscipline peut s'articuler à la vue matérielle et sociale : les attachementsindividuels se rencontrent et s'organisent en coalitions d'intérêts. On affirmela primauté de tel objet, de telle méthode. De ce point de vue, les choixépistémologiques peuvent dissimuler des énoncés radicalement simples. Vous devezanalyser le sens d'un texte (d'un film). Pourquoi ne pas compter les plans ?Aller voir le metteur-en-scène ? Organiser un « focus group » ? Votre disciplinele justifie -t-elle ? Ou tout simplement, vos affects ? Pour faire tout cela, ouune partie, il faut aussi en avoir l'envie. L'inter - commel'intra-disciplinarité se heurtent souvent ici à de puissants non-dits. Un bon point d'appui pour analyser ces fétichismes disciplinaires seraitl'analyse les recensions d'ouvrage d'une discipline à l'autre. Il y a, làencore, une vieille affaire, depuis le temps où les disciples de Émile Durkheimcritiquaient la géographie ou la science politique naissante dans L'Année sociologique, revue fondée en 1898. Mais on peutfaire le même exercice aujourd'hui. La critique permet d'utiliser un ton parfoisplus acerbe, plus humoristique, bref, elle dévoile l'affect. Un exemple toutrécent. Une revue (que je recommande au passage) en ligne, Participations, qui met en avant les études du public (mais enconvoquant chercheurs du cinéma et des médias ensemble, ce qui contribue à faireson intérêt), propose une critique de deux ouvrages de théories du cinéma ,renouvelée par la psychologie cognitive, mais persistant dans le textualisme, etla vieille guerre citée plus haut de reprendre. L'auteur de la critique (Barker ,2009) écrit : « De différentes façons, ces deux livres illustrent le refuspersistant de beaucoup d'études de cinéma de prendre en compte les acquis desrecherches sur le public et d'intégrer les résultats dans leur recherche ». Surdes exemples précis, Michael B. Barker se moque d' ' un des auteurs qui, enpartant du texte seulement, procède à ces généralisations étranges du type :« Le spectateur comprend ». Le spectateur jaillit du texte, mais, nous ditMichael B. Barker, il est d'abord dans la salle. Sans entrer dans le débat, il ya là une incompréhension qui demeure totale. Peut-elle être résolue tout àfait ? Elle ne le peut, en tout cas, si l'on ignore que chacun défend ici unfétiche qu'il brandit, autant qu'un argument intellectuel qu'il manipule. Cherchons malgré tout à prendre l'interdisciplinarité par un autre bout. Malgréle scepticisme de l'auteur, n'a -t-elle pas connu des réussites éclatantes ? Onpourra citer, à l'instar de Patrick Charaudeau (2010), la rencontre entrephilosophie et histoire chez Michel Foucault, ou encore le structuralisme deClaude Levi-Strauss ou de Roland Barthes. Mais il faut ajouter ici que cesinterdisciplinaires appartiennent pour partie à une époque révolue, où uneconception de la société inspirée de la linguistique et baptisée structuralismeprétendait retrouver les mêmes logiques à l' œuvre dans des champs extrêmementdivers. À nouveau, une tentation totalisante qui a fait long feu, d'autant quele dernier Roland Barthes n'a plus grand-chose de structuraliste, et qu'il estimpossible de réduire Michel Foucault à cette vision à laquelle on l'a associé .Il est ironique de traiter Michel Foucault, archéologue/déconstructeur desdisciplines, d'interdisciplinaire puisqu'il transcende les disciplines plusqu'il ne les croise. Mêle -t-il la philosophie et l'histoire, ou propose -t-il pasune autre façon de faire de la philosophie et de faire de l'histoire ? Cettefaçon de faire provoque des effets profonds en histoire, mais aussi descontestations silencieuses d'historiens méticuleux (peu « conceptuels ») quitravaillent dans les mêmes domaines mais avec leurs vieux et respectablesoutils. On pourrait trouver d'autres exemples, plus récents, de grandsinterdisciplinaires. Je pense à un auteur qui est cité par des disciplines aussidiverses que celles qu'il cite, Paul Ricœur. Il convoque librementphénoménologie, linguistique, pragmatique, et de vastes pans de l'histoire de laphilosophie. Les narratologues, les sociologues et les historiens de la mémoire ,n'ignorent pas Paul Ricœur, mais ils ne se font pas philosophes pour autant. Ilsretournent, avec des notions nouvelles, dans leur discipline, un peu comme MarcBloch qui disait que les sociologues lui avaient appris « à penser… moins bonmarché » (in : Ricœur, 2000 : 216). Rare moment où unpenseur d'une discipline veut bien payer ses dettes à une autre (avant derepartir chez lui). À bien y réfléchir, les grands interdisciplinaires, s'il yen a, sont d'abord des philosophes, qui occupent encore, au moins dans lepaysage intellectuel français, une position de surplomb par rapport au reste desdisciplines, malgré la lutte discrète amorcée par la sociologie depuis sesorigines. Dernier exemple, un auteur comme Jacques Rancière (2008 : 40) s'estrécemment intéressé à la notion « d'émancipation » du spectateur de l'art enessayant de ranimer la notion de pensée critique. Il le fait en philosophe, ilréfléchit sur la pensée de l'art, attaquant à plusieurs reprises – de façon nonfortuite – « les sociologues », y compris l'un d'entre eux qui publie, la mêmeannée, un ouvrage analysant de façon fort différente – plus sociale – la notionmême d'émancipation. Terminant par l'invocation d'Emmanuel Kant, il se situedans la tradition philosophique de l'analyse de l'art. Je doute fort qu'ilappréciât le titre d'interdisciplinaire – même si cela ne l'empêche pas d'écrireun livre qui fera réfléchir, parmi beaucoup d'autres, les sociologues de l'artet des médias. Précisons que cette « grande interdisciplinarité », ou toutsimplement cette place de la philosophie dans les sciences sociales, appartientaussi à un paysage intellectuel que l'on peut dire latin, en tout cas français .La rencontre entre les humanités et les sciences sociales se fait beaucoup plusmalaisément dans le monde anglo-saxon, et singulièrement aux États-Unis .L'interdisciplinarité est aussi une notion qui change en se traduisant, mais sil'idée de mélanger des disciplines est, ou a été, partout à la mode, parce quecela peut aider à obtenir des crédits ou à publier des ouvrages qui obtiennent( si l'on intervient au bon moment) un crédit d'originalité. Ceci peut expliquerla vogue persistante de la notion d'interdisciplinarité, mais ne lui donne guèred'assise. Comme le raconte Robert Darnton (1990 : 97) a propos de son expérienced'éditeur universitaire aux presses de Princeton : « Soyez interdisciplinaire .Mélanger les domaines : cela vous fera paraître novateur. Vous pouvez mêmemélanger les métaphores pour montrer que vous êtes sur la frontière avancée dusavoir » (lecture recommandée à ceux qui veulent comprendre le jeu de la modeuniversitaire). À défaut d'une « grande » définition de l'interdisciplinarité, qui suppose une« grande » définition des disciplines qui se rencontreraient et sefertiliseraient mutuellement, peut-on se rabattre sur une définition modeste ?Le lecteur aura noté que j'ai donné quantités d'exemples d'approches que l'onpourrait qualifier d'interdisciplinaires. Cette conception modeste paraîts'imposer. Je tiens qu'elle est illusoire, comme la grande interdisciplinarité ,mais d'une autre façon. Prendre un « objet », disons une émission de télévisionspécifique (réservant le débat sur la notion je réduis volontairement la taillede l'objet). Qu'est -ce que faire travailler l'objet par plusieurs disciplinesdifférentes ? Je commencerai par l'historien que je suis (ou fus). Il racontera( puisque l'on raconte que les historiens racontent) comment l'émission est née ,il y a vingt ans, d'un dialogue entre le directeur des programmes et lesréalisateurs, fouillera dans les archives pour en raconter la genèse, letournage. Il analysera le contenu pour montrer comment il reflète lespréoccupations de la télévision de l'époque. Il s'intéressa à la réception àtravers la critique, le courrier des spectateurs, les archives du centred'études de l'audience. Bref, l'historien sera tenté (toujours la tentationimpériale des grandes disciplines et parfois aussi des petites) de dire qu'ilfait le travail d' à peu près tout le monde. Bien sûr, il le fera en tâchant desituer les phénomènes dans une évolution plus que dans une structure, et dansune langue que les non-spécialistes trouveront lisible. Le sémiologue/analystedu discours analysera l'émission en respectant la clôture du texte avec unarsenal méthodologique différent, y trouvera des carrés greimassiens quiintrigueront fort l'historien (mais notre sémiologue sera -t-il greimassien ?) .Il déplorera courtoisement le caractère impressionniste, littéraire, du travailde son collègue. Le sociologue utilisera, peut-être plus que l'historien, lesinterviews, et moins les archives qui gardent un peu de leur statut sacré enhistoire; il entrera plus avant dans la société de l'époque, y trouvera de ladomination (mais est-il un sociologue critique dénonciateur de la domination ?) ,y trouvera peut-être des sujets actifs, capables d'évaluation diversifiés (s'ilest un sociologue plus pragmatique, ou s'il se reconnaît, sociologue des médias ,dans le champ actuel des études de la réception). L'économiste… J'arrête là moninventaire. Les problèmes posés par ce tableau sont multiples. Je crains d'abord que lesdialogues ne soient très limités, à nouveau. Au fond, les approches sontdifférentes. Il y a des dialogues possibles, mais ils sont fragiles et trèsinégalement répartis. La sémiologie dure est condamnée, par une languespécifique, à s'isoler (ce qui fait aussi, à un autre point de vue, sa force) .Le sociologue et l'historien dialogueront peut-être plus facilement, mais trèsvite ils rencontreront, eux aussi, leurs limites. Plus profondément, onretrouvera là les problèmes de l'intra-disciplinarité qui sont, aujourd'hui ,tout aussi cruciaux, et montrent la tendance des sciences sociales à se diviserà l'infini, à l'abri de pavillons officiels qui abritent des marchandises deplus en plus diverses. Ainsi certains historiens de la culture, notamment ,empruntent-ils largement à la sociologie et réfuteront-ils la vision simpliste ,un peu trop descriptive, un peu trop positiviste. Ils réclameront, par exemplepour la notion de culture populaire/de masse, un peu d'élaboration théorique ,quitte à entrer en débat avec beaucoup d'autres disciplines etsous-disciplines. Autre problème. Un énoncé du type « faire tourner un objet » suppose que nosinterdisciplinaires s'accordent sur la définition de l'objet et sur l'importancede son analyse. Or, nul besoin d' être relativiste pour constater que leschercheurs, s'ils ne font pas leurs objets tout entiers, contribuent tous à lesfaire émerger par le travail d'analyse. Quels sont ces mystérieux objets derecherches (ou sujets ? ou territoires ?) qui peuvent faire l'objet d'un telaccord ? Une émission de télévision, une seule, est -ce l'unité pertinente ? Etd'ailleurs qu'est -ce ? Un seul épisode de l'émission littéraire disparue Lecture pour Tous pourra intéresser un sémiologue ,peut-être un historien de la littérature se penchant sur un auteur précis, maisle sociologue, l'historien de la télévision, trouveront que c'est un peu court ,et réclameront la série ou la journée entière. Et ceci est un exemple de débatsimple. Si l'on élargit et pense, par exemple, à un autre objet abstrait ,complexe, déjà lourd de théories. Non pas un groupe de films, mais « le public »( Bourdon, 2004). Qu'est -ce qu'une approche interdisciplinaire du public ? Lepublic existe -t-il en dehors dans les discours sur le public ? (voilà l'analysedu discours satisfaite, et pouvant s'approprier un objet) ? Dans lesconstructions sociales (certains sociologues apprécieront ce point de vue) ?Est-il possible au contraire de reconstituer un public, en chiffres, encomportements concrets, sur toute une durée (certains historiens s'y essaierontpeut-être, je doute que le terme « histoire du public » puisse avoir un sensaussi simple) ? Les philosophes se réjouiront de revenir à la querellefondatrice entre John Dewey et Walter Lippman pour débattre de la possibilitéd'un public autonome, participant, dans les démocraties modernes, mais sansforcément analyser sur le terrain les configurations concrètes (réunionsélectorales, sondages, etc.) qui donnent des formes tellement diverses au« public ». Si j'ai volontairement radicalisé mon pessimisme, ce n'est pas pour dire qu'ilest impossible de faire collaborer des disciplines ou des approches différentes .Mais deux conditions doivent être réunies, qui donnent alors au motinterdisciplinarité un sens plus modeste, à tout point de vue (scientifique etspatial), encore que celui suggéré par Patrick Charaudeau. Le plus souvent, unchercheur combinera plusieurs approches méthodologiques au sein sa disciplinespécifique. Il ne s'agira pas d'un grand projet rassemblant une équipe, mais del'effort d'un tout petit nombre pour jouer avec deux outils différents. Ainsi unchercheur historien qui travaille sur l'évolution du magazine télévisé aura -t-ilintérêt à recourir à des méthodes formalisées d'analyse d'un échantillon, pourconstater, par une bonne analyse de contenu, que la place du commentaire en voixoff (la voix de Dieu), a reculé avec le temps (c'estun exemple imaginaire). Il sera alors un historien qui utilise une méthode de lacommunication (mais l'analyse de contenu est pratiquée comme méthode, par dessociologues ou des psychologues sociaux). Autre exemple, cette fois bien réel ,d'interméthodologie réussie, l'ouvrage d'Annette Kuhn (2008) sur le cinéma .Étudiant les souvenirs de spectateurs de cinéma anglais d'avant-guerre pourcomprendre la place du cinéma dans la vie quotidienne de l'époque (œuvred'historien ?) mais aussi son écho très précieux plus tard dans le cycle de viede la population concernée (œuvre de sociologue ?), elle combine les récits devie de spectateurs de cinéma et l'analyse de moments très précis de films, quisont demeurés dans la mémoire, pour montrer que les caractéristiques« textuelles » bien spécifiques doivent aussi être analysées en relation avecles lectures du public. Est -ce de l'interdisciplinarité ? Je serais tenté de répondre que tout cela nousdonne une passionnante histoire du cinéma, qui n'ignore rien de méthodesdiverses et sait s'appuyer sur les traditions d'analyse textuelle mais sansrejeter le public réel. C'est de la bonne histoire et de la bonne sociologie quipratiquent tout simplement, une diversité de méthodes, plus précisément, de deuxméthodes seulement, mais combinées de façon cohérente et systématique. C'estl' œuvre d'une chercheuse qui pourra féconder d'autres recherches de ce type. Onl'aura compris, je pense que la notion d'interdisciplinarité demande moins unplaidoyer qu'elle n'est qu'un symptôme de l'état des sciences sociales ,parcourues de multiples divisions. Ce qui ne signifie pas qu'il faut empêcherles rencontres entre chercheurs et outils, et travailler ensemble. C'estscientifiquement souhaitable, intellectuellement stimulant. Mais difficile .Dernière définition de l'interdisciplinarité, emprunté à l'entrée « Amitié », duDictionnaire du Diable d'Ambrose Bierce (1911) : « Unbateau assez grand pour transporter deux personnes par beau temps, une seuleseulement par mauvais temps » .
L'interdisciplinarité est une notion d'apparence sympathique, brandie fréquemment comme un fétiche d'ambition scientifique, de surcroît appréciée des autorités universitaires et des agences qui donnent des crédits. Pourtant, pour parler d'interdisciplinarité, il faudrait que nous disposions de disciplines clairement définies. Or, nous n'avons aucun critère clair de ce qui constitue une discipline (la tension entre le domaine social considéré ― avec les aléas historiques et épistémologiques du découpage) est insoluble. Les disciplines sont souvent des conglomérats d'intérêts instables, ayant eux-mêmes grand besoin de dialogue intra-disciplinaire. De plus, les luttes de pouvoir entre disciplines sont légion; elles considèrent volontiers leurs rivales comme des « préalables » ou des « sciences auxiliaires » pour leur propre travail. On pourrait, à la rigueur, parler de petite interdisciplinarité, ou plus modestement, d'interméthodologie, comme objectif souhaitable (et souvent nécessaire au sein d'une discipline donnée). Ce sont des méthodologies que nous combinons avec fruit, et cela au sein d'une discipline spécifique. Abandonnons donc l'interdisciplinarité, concept qui ne sert qu'à lutter et/ou qu'à obscurcir (au mieux, à décrocher des crédits de recherche).
sciencesInfo_13-0090593_tei_1002.xml
termith-406-communication
Les recherches qui ont mené au développement du système Iscore partent du constat que les évolutions de la technique et de la musique au XXe siècle ont conduit les compositeurs à créer des pièces sur support (bande magnétique, supports numériques actuellement) non jouables autrement qu'au travers de leur diffusion sur des systèmes d'écoute. Le travail de composition se situe alors dans la fabrication du matériau sonore (synthèse, captation, traitement. ..) et dans l'organisation des éléments de ce matériau dans le temps pour aboutir à une pièce enregistrée. Ce travail de composition s'effectue de plus souvent au travers d'outils informatiques de plus en plus sophistiqués, mais qui peinent à prendre en compte la dimension de l'interaction avec les pièces lors de l'interprétation de celles -ci par des musiciens. Dans ces conditions la part d'interprétation de ces pièces passe par leur mise en espace lors des concerts. Cette situation a privé une partie des œuvres modernes de l'apport de l'interprétation dont a toujours profité la musique instrumentale. Notre objectif est donc de développer un système permettant l'interprétation de pièces électro-acoustiques au travers des mêmes vecteurs que celle des pièces instrumentales. Partant de là nous avons construit un formalisme permettant de représenter des pièces de musique interactives, ainsi qu'un format de sauvegarde associé. Nous commençons par référencer quelques travaux autour des formats numériques de documents multimédias dont on peut dans une certaine mesure rapprocher nos partitions. Puis, nous revenons sur le formalisme des partions interactives. Nous présentons ensuite le format de sauvegarde des partitions avant de proposer quelques extensions du modèle et de survoler les champs d'application de notre système. Les partitions numériques que nous cherchons à manipuler et donc à représenter au travers de notre format sont constituées d'éléments musicaux (sonores) agencés dans le temps, possédant entre eux des relations temporelles décrites sous forme de relations de Allen et dont le début et la fin peuvent être interactivement déclenchés lors de l'exécution. Par certains aspects, une partition numérique est ainsi comparable à un document multimédia. Cette approche pose la question de la nécessité d'un format particulier pour encoder ces partitions. En effet, plusieurs formats de documents multimédias ont naturellement émergé suite au développement d'applications manipulant ce type de documents. Après l'apparition de formats propriétaires liés à des applications particulières (Com, 1991), des tentatives de standardisation ont vu le jour. Les plus marquantes sont certainement HyTime (HyTime, 1992) et SMIL (SMIL, 2008) qui sont tous deux des formats de type SGML comme l'est notre propre format. Ces deux formats sont intéressants car ils disposent de mécanismes permettant de spécifier des contraintes temporelles entre les éléments qui les constituent et d'autoriser des comportements interactifs. Erfle (1993) montre par exemple comment utiliser le système de dates relatives de Hytime, ainsi que les balises HyOp et HyFunk pour spécifier entre les éléments d'un document des relations de Allen et élaborer des contraintes temporelles basées sur des expressions arithmétiques, pour par exemple définir comme constant un intervalle de temps séparant deux événements. L'auteur cite des possibilités d'interaction simple. Notons enfin la présence dans cet article d'une intéressante étude comparative des capacités de quelques formats de l'époque en ce qui concerne l'écriture du temps et de l'interaction. Wirag et al. (1995) utilisent également HyTime pour créer des documents acceptant des modes d'interaction un peu plus élaborés comme des “sauts” entre différentes parties du document, ou encore des situations de choix entre plusieurs scénarios d'exécution du document. Ces efforts présentent des précédents notables de formalisation d'une écriture de la temporalité d'un document multimédia et des possibilités de modifier cette temporalité au cours de la présentation du document. Cependant, si une première approche permet de rattacher des partitions numériques interactives à des documents multimédias interactifs, la spécificité des partitions musicales et les modes d'interaction avec elles méritent que l'on s'attache à produire un formalisme les décrivant ainsi qu'un format associé. Notre démarche initiale fut de fournir pareil formalisme ainsi qu'une application permettant de manipuler des partitions conforme avec ce formalisme. La création d'un format associé a été rendu nécessaire avec la volonté de sauvegarder les partitions réalisées à l'aide de cet outils. Au-delà de l'intérêt strictement pratique de la sauvegarde des productions des utilisateurs, la description d'un format de partitions interactives nous a paru une bonne occasion d'entamer la réflexion autour de la spécificité de l'interaction musicale par rapport aux documents multimédias plus généraux cités précédemment. Naturellement, notre modèle de partitions encore neuf reste actuellement limité, et de son caractère “simple” peut naître l'idée que les partitions qu'il décrit sont assimilables à des présentations multimédias. On trouvera d'ailleurs au sein de notre formalisme des éléments comme les relations de Allen, également présents dans les documents multimédias. Cependant, la spécificité des partitions se fait déjà sentir. Au moment de décider du format à adopter pour représenter les partitions, l'idée de se rattacher à un format existant s'est naturellement présentée. Les adaptations nécessaires pour effectuer un tel rattachement qui de surcroît risquaient de s'accroître au fur et à mesure des évolutions de notre formalisme, nous ont poussés à franchir le pas de la création d'un format. Bien sûr, comme nous l'exposons dans la suite, des passerelles vers des formats moins spécifiques sont envisagées. Nous rappelons ici les éléments théoriques qui sous-tendent notre système. Sans développer totalement notre formalisme de partitions interactives dont le lecteur pourra trouver les détails dans (Allombert et al., 2007), revenons quelques instants sur l'origine de ce travail à savoir la possibilité d'interpréter des pièces de musique électro-acoustique. La question de l'appropriation de pièces électro-acoustiques par des musiciens s'éloignant peu ou prou de la stricte référence au matériau composé reste à ce jour relativement ouverte (Dahan et al., 2008). En effet, à la différence de la musique strictement instrumentale consignée sous forme de partitions symboliques, la musique électro-acoustique et en particulier sa composante dite “sur support” ne bénéficie pas des possibilités de modification d'un matériau non plus représenté mais directement enregistré. Plus exactement, certains champs de l'interprétation échappent à des musiciens dont l'intervention lors de la diffusion des pièces est concentrée dans la mise en espace au travers de choix de mixage sur un système d'écoute. Notre motivation initiale a donc été d'étudier la possibilité d'un formalisme de partitions adapté à la pratique des compositeurs et permettant l'interprétation par des musiciens. Pour mettre à jour notre formalisme, nous nous sommes tournés vers l'interprétation de la musique instrumentale pour chercher à en adapter les mécanismes à des types de partitions plus générales. L'interprétation se différencie de l'improvisation par le fait que les modifications effectuées par le musicien lors de l'exécution sont encadrées par des indications du compositeur. Par conséquent, les libertés proposées au musicien ne sont pas infinies. Pour caractériser ces libertés ainsi que leurs limites, nous nous sommes appuyés sur les travaux de Jean Haury (Haury, n.d.) qui identifie les possibilités pour l'interprétation. Elles sont au nombre de 4 : les variations dynamiques, i.e. des variations continues de volume sonore l'accentuation qui consiste à modifier très localement le volume l'articulation qui correspond à la manière dont les notes vont être liées entre elles les modifications agogiques à savoir les décalages des débuts et des fins de note. Dans le cadre de notre étude, nous ne nous sommes intéressés qu'aux modifications agogiques et donc à la possibilité pour un musicien d'anticiper ou de retarder le déclenchement ou l'arrêt d'une note. Ces modifications sont continuellement à l' œuvre dans la pratique instrumentale, par exemple lors de l'exécution d'un point d'orgue ou lors d'un changement de tempo (accelerando. ..). Par conséquent, nous avons délaissé temporairement le matériau musical des partitions, pour nous intéresser d'un point de vue temporel au déroulement des éléments qui les constituent. L'hétérogénéité des matériaux sonores impliqués dans les compositions électro-acoustiques rendent le terme de “notes” caduc. Nous considérons donc qu'une pièce est constituée de processus sonores dont dont la mise en œuvre au moment de l'exécution de la pièce va fournir la matière sonore. La nature de ces processus peut être variée, lecture d'un fichier son ou algorithme de synthèse pour citer des exemples simples. Comme nous l'avons dit, les opérations effectuées par ces processus sont en dehors du cadre actuel de notre travail; nous considérons par conséquent que les éléments constitutifs d'une partition et donc qui sont manipulés par le compositeur sont des représentations symboliques de l'exécution des processus sonores. Comme nous nous intéressons aux modifications agogiques donc à la possibilité de modifier des caractéristiques temporelles (date de début et de fin) des éléments des partitions, les représentations de ces éléments doivent permettre de visualiser et de manipuler ces caractéristiques temporelles. En outre, le travail de composition va se focaliser sur l'écriture du temps, à savoir l'organisation temporelle des éléments de la pièce. Un modèle de représentation adaptée du temps est nécessaire. Différentes représentations du temps ont été développées dans le cadre des outils informatiques pour la composition assistée par ordinateur. Le lecteur trouvera une introduction à différents modèles temporels ainsi qu'une comparaison entre ceux -ci dans (Desainte-Catherine, 2004). Le choix d'un modèle temporel a répondu à notre volonté d'adapter la pratique de l'interprétation dans la musique instrumentale à la musique électro-acoustique. Jean Haury insiste sur le fait que l'intérêt de l'interprétation réside dans les relations temporelles qu'entretiennent entre elles les notes d'une pièce, c'est-à-dire les possibilités d'enchevêtrement des débuts et fins de notes. Il nous a donc paru important de disposer d'un outil formel permettant de représenter ces relations temporelles. En outre, nous avons préserver les apports des modèles hiérarchiques tel celui utilisé par le logiciel Boxes (Beurivé, 2000). Ce type d'approche permet de tirer parti de différents niveaux hiérarchiques pour exprimer l'organisation de la pièce en structures enchâssées, comme par exemple un découpage en mouvement/partie/mesure/temps. Ainsi, on peut qualifier notre modèle temporel de modèle hiérarchique avec relations temporelles. Dans une première approche, nous avons choisi comme formalisme de relations temporelles les relations de Allen. Ces relations introduites par J.F. Allen en 1983 pour des travaux de linguistique ont été largement utilisées dans différents champs de recherche depuis. Ces relations binaires permettent de décrire l'agencement temporel de deux éléments de durée non nulle. Nous présentons ces relations sur la figure 1. Allen définit à partir de l'ensemble de base et des opérateurs logiques et et ou une grammaire de description temporelle. Pour notre formalisme, nous nous sommes limités à la possibilité de spécifier une seule relation entre 2 objets. Une partition contient donc des objets représentant le déroulement de processus sonores, insérés sur des lignes de temps et disposant entre eux de relations de Allen. La multiplicité des lignes de temps est une conséquence de la hiérarchie du modèle. Un objet qui contient d'autres objets (une structure) dispose de sa propre ligne de temps dont l'origine coïncide avec le début de la structure. La spécification des dates de début des objets se fait donc relativement au début de la structure dans laquelle ils sont inclus. La figure 2 présente un exemple de partition composé d'une structure principale (S 1) contenant trois objets : deux objets simples représentant l'exécution de processus (E 1 et E 2) et une structure (S 2) contenant elle -même un objet simple (E 3). Chaque structure possède sa propre ligne de temps, et les dates de débuts des objets sont relatives au début de la structure qui les contient. Enfin, des relations de Allen overlaps et before ont été définies par le compositeur. Ces relations sont impératives, ce qui signifie que si le compositeur modifie la date de début d'un objet et que la nouvelle date ne respecte pas l'une des relations, le système va calculer des dates pour les autres objets, de telle manière que les relations soient de nouveau respectées. Au cours de la composition, les relations sont une aide au compositeur qui peut définir l'organisation temporelle de sa pièce avant d'ajuster les dates des objets plus précisément en étant sûr que l'organisation générale sera maintenue. Nous avons utilisé une représentation graphique des objets sous forme de “boîtes” dans la mesure où le matériau musical associé à ces dernières peut être varié. La représentation par boîte à l'avantage d' être suffisamment abstraite pour représenter des objets temporels sans connotation particulière. En outre ces représentations par boîtes permet d'appréhender simplement la hiérarchie. La description de structures complexes regroupant des éléments dans un même ensemble s'effectue de manière naturelle. Notons que l'axe des ordonnées n'a pas de signification, une boîte située au-dessus d'une autre boîte n'a pas de raison de représenter la synthèse d'un son plus aigu par exemple. Comme nous l'avons déjà précisé, la représentation des objets met l'accent sur les caractéristiques temporelles de ces objets à savoir leur début et leur fin, mis en valeur par ce que nous appelons des points de contrôle. Chaque objet a donc deux points de contrôle. Les points de contrôle de l'ensemble des objets d'une partition sont appelés les événements de cette partition. Dans le cadre de la musique instrumentale, Jean Haury précise également que le musicien a accès aux possibilités de l'interprétation à travers des points placés dans la pièce qu'il appelle “points d'interaction ”. Ils s'agit de moments précis où le musicien va pouvoir modifier les paramètres de la partition. Naturellement, on trouve des points d'interaction pour l'ensemble des modalités d'interprétation. Comme nous nous restreignons aux modifications agogiques, nous ne nous sommes intéressés qu' à des points d'interaction permettant de modifier la date d'un point de contrôle (début ou fin d'un objet). On parlera alors d'événement interactif puisque le musicien va pouvoir contrôler explicitement le déclenchement de l'événement au travers du point d'interaction. Un point d'orgue est un bon exemple de point d'interaction pour la musique instrumentale dans la mesure où le musicien ou chef d'orchestre peut choisir la durée du point d'orgue et donc de contrôler la fin de la note sur laquelle s'exerce le point d'orgue. En outre, ces possibilités d'interaction et donc demodification de la pièce s'accompagnent de la définition par le compositeur d'un cadre dans lequel celles -ci vont pouvoir s'exprimer. Dans la musique instrumentale, ce cadre est fixé au travers d'indications du compositeur par exemple de volume (p, ff…) ou de tempo (accelerendo…). Ainsi l'interprète est amené à jouir d'un certain nombre de libertés laissées par le compositeur tout en restant dans un cadre fixé par ce même compositeur. Dans le cadre des modifications agogiques et donc à la possibilité de décaler des notes ou d'en modifier la durée par rapport à ce qui est écrit par le compositeur, celui -ci doit être en mesure de définir une organisation temporelle de sa pièce qu'il souhaite voir respectée quels que soient les choix de l'interprète. Les relations de Allen assurent évidemment cette tâche et leur utilité se trouve donc dans les deux phases d'utilisation du système : la composition où elles sont une aide pour le compositeur, et l'interprétation où elles définissent le cadre dans lequel l'interprète va exprimer ses libertés. A partir de ce moment la partition écrite ne représente plus que la trame d'une interprétation possible parmi de nombreuses autres, les dates écrites des points de contrôle des objets n'ayant plus de raison d' être strictement respectées. Cependant, lors de l'exécution et de la même manière que lors de la composition, lorsque le musicien modifie la date d'un point de contrôle, le système va recalculer des dates pour les points de contrôles n'ayant pas encore été déclenchés vérifiant d'une part la date choisie par le musicien, et d'autre part les relations de Allen. Reprenons l'exemple précédent de partition dans laquelle nous rendons le début de E 2 interactif, en ajoutant un point d'interaction (Pi). Par conséquent le musicien va pouvoir anticiper ou retarder E 2. Mais les deux relations de Allen devant être respectées, en cas de retard sur le début de E 2, la fin de E 1 devra être elle -même retardée pour respecter la relation overlaps et le début de S 2 devra également être retardé pour respecter la relation before. On peut noter qu'il existe une relation de Allen during implicite entre un objet et la structure qui le contient. Par conséquent, l'objet E 3 sera lui même décalé de part le décalage de l'origine de la ligne de temps de S 2. La réaction du système à la modification d'un point de contrôle est pour l'instant limitée à un comportement de type “point d'orgue ”. Ce qui signifie que pareille modification introduira dans la partition un délais, positif ou négatif, qui va se propager aux points de contrôle succédant le point modifié et ayant un lien avec celui -ci au travers des relations de Allen. Des stratégies de réaction plus élaborées notamment pour modéliser des situations musicales classiques sont à l'étude. Pour conclure cette présentation, on peut signaler que les modifications temporelles des objets impliquent naturellement des modifications sur les processus dont ils représentent le déroulement. Les processus mis en œuvre doivent donc être capables d'accepter des modifications de la durée de leur exécution et prévoir des stratégies d'adaptation, comme par exemple la génération de valeurs en temps réel si la lecture d'une table à atteint le dernier élément alors que l'exécution nécessite encore des valeurs. Il existe actuellement deux implémentations de Iscore l'une développée au Labri et l'autre prenant place dans le système des Maquettes du logiciel de composition assistée par ordinateur de l'équipe Représentations Musicales de l'Ircam OpenMusic (Assayag et al., 1999). Cette dernière version étant la plus aboutie, nous la présentons ici. Les Maquettes sont un environnement spécifique qui se présente sous la forme d'une feuille blanche sur laquelle le compositeur vient placer ses éléments musicaux sous forme de boîtes, l'axe des abcisses représentant la flèche du temps, celui des ordonnées n'ayant pas de signification a priori. Ce formalisme graphique étant en accord avec la représentation de nos partitions, nous avons introduit dans les Maquettes les éléments nécessaires à l'ajout de relations de Allen et de points d'interaction. Comme nous ne cherchons pas à synthétiser nous même les sons de la pièce, nous utilisons pour ce faire une application extérieure dédiée (typiquement Pure Data) avec laquelle le système va communiquer au travers du protocole Open Sound Control 1 selon le schéma de la figure 3. L'objectif est donc de déporter la création et la manipulation des processus associés aux objets de la pièce. La conception de ces processus, de telle manière qu'ils soient capables de s'adapter aux modifications temporelles est de la responsabilité du compositeur, aucune vérification à ce sujet n'est opérée par le système. Pour l'exécution de la partition, nous la compilons pour la transformer en réseau de Petri (Diaz, 2001), une structure à états permettant la représentation de processus concurrents devant parfois se synchroniser. Dans cette version du système un message OSC est associé à chaque événement de la partition, lors de l'exécution de celle -ci, ces messages seront envoyés aux applications concernées lors du déclenchement de chaque événement. Dans le cadre de cette implémentation de Iscore au sein des Maquettes d'Open-Music, nous avons dû nous pencher sur les possibilités de sauvegarder les partitions interactives sous la forme de documents indépendants. Du fait que plusieurs implémentations de Iscore sont amenées à coexister nous nous sommes tourner vers un format indépendant de l'implémentation. L'importance de la hiérarchie dans notre formalisme, ainsi que la popularité des formats de type XML et les facilités de passage entre eux nous ont conduit à écrire une DTD XML. Notre format ayant pour but premier de sauvegarder les partitions, il contient pour l'instant le strict minimum permettant de décrire une partition interactive. Nous reproduisons ici le fichier résultant de l'export de la partition de la figure 2. Comme indiqué précédemment, les éléments contenus dans notre format sont simples. La balise racine est la balise <score>. On trouve ensuite quelques informations succinctes sur l' œuvre puis l'ensemble des éléments présents dans la partition sont décrits. La balise <application> permet de coder les informations relatives à une application tiers vers laquelle la partition va envoyer des messages OSC pour exécuter les processus qu'elle utilise Dans notre exemple, une seule application a été définie : Pure Data. Le fichier contient les informations d'adresse réseau permettant à Iscore de communiquer avec cette application. Vient ensuite la liste des boîtes présentes dans la partition. Pour chacune d'entre elle on code leur nom et les informations permettant de les redessiner, comme nous utilisons un système de dates relatives exprimées en fonction de la hiérarchie, les dates de débuts sont données dans le référentiel temporel de la structure qui contient l'objet; cette information est contenue dans la balise <start-date>, tandis que la balise duration contient la durée de la boîte. En outre, on enregistre l'identificateur de l'application chargée d'exécuter le processus dont l'exécution représentée par la boîte, ceci pour permettre l'envoi desmessages OSC associés au début et à la fin de la boîte. On trouve bien entendu ces messages OSC dans les balises <start-message> et <end-message>. Les éventuels points d'interactions permettant le déclenchement du début ou de la fin de la boîte sont également présents. Dans notre exemple, l'objet “tempobj” possède un point d'interaction contrôlant son début (event=”0”). Dans notre implémentation, ces points d'interaction sont déclenchés au travers de la réception d'un message OSC, cette information est donc présente grâce à la balise <control-message>. On trouve ensuite la liste des relations de Allen avec leur type et les boîtes entre lesquelles elles ont été définies. Enfin, est codé le port d'écoute sur lequel le système attendra les messages de déclenchement des points d'interaction (la balise <receiving-port>). Comme on le voit, ce format est pour l'instant uniquement destiné à recevoir les informations nécessaires à la sauvegarde des partitions telles que décrites pour notre formalisme actuel. Déjà évoquée, sa simplicité actuelle l'apparente à un format de description de documents multimédias généralistes, notons au passage que le protocole OSC est implémenté dans des applications non musicales ce qui permettrait à notre système de manipuler des contenus variés, un projet 2 est d'ailleurs en cours pour adapter notre formalisme à la régie numérique du spectacle vivant. Cependant, notre formalisme est issu d'une réflexion autour de l'interprétation de pièces de musique. Ainsi l'écriture du temps et de l'interaction s'appuient -t-ils sur des concepts hérités de l'analyse des mécanismes de l'interprétation dans la pratique instrumentale. En particulier, la place centrale qu'occupent les relations temporelles de Allen, ainsi que la possibilité de disposer des points d'interaction sur chaque point de contrôle, différencient notre modèle des formats de documents existants. En outre, le parti pris de l'interprétation à savoir la modification sous contraintes d'un matériau musical composé distingue notre formalisme d'autres travaux autour de la musique interactive. Plusieurs pistes s'ouvrent pour les développements futurs de notre système et de son format associé. En ce qui concerne le formalisme lui -même, nous envisageons d'introduire des stratégies de réaction aux modifications du musicien calquant des comportements classiques en musique instrumentale : changement de tempo, rubato … Ces ajouts ancreront encore plus le modèle dans une spécificité musicale. Concernant le format nous souhaiterions l'étoffer pour lui permettre d'accueillir des informations “annexes” du type de celles concernant le nom du compositeur et de l' œuvre. Une des pistes serait de s'inspirer du format MusicXML 3 et notamment des manières de coder les pièces “complexes” en utilisant les notions de “parties ”, “voix”… L'objectif est de compléter notre format pour qu'il devienne réellement un format de codage de partitions musicales comblant une des lacunes des formats actuels, à savoir le codage de la musique électro-acoustique. Cet objectif ambitieux dépasse de loin le cadre de notre étude car pour être complet, un tel format devrait être capable de coder des informations totalement en dehors de notre étude comme par exemple les processus permettant de produire les sons associés aux objets des partitions. Notons que des travaux en ce sens ont déjà été réalisés et citons le langage Faust (Gaudrain et al., 2003) qui permet de décrire des algorithmes impliqués dans des applications musicales, ou encoreMML 4 langage XML permettant de décrire également des processus de synthèse et de traitement sonores. L'idée serait de s'appuyer sur ces travaux en incluant des parties codées dans ces formalismes pour décrire les processus utilisés dans la pièce. Une autre voix d'amélioration touche à la question de la représentation graphique des objets et des différents éléments d'une partition. En effet, de nombreux compositeurs ont défini leur propre nomenclature plus ou moins éloignée des représentations traditionnelles. La représentation sous forme de boîtes, même si elle présente de nombreux avantages n'est pas forcément celle retenue dans les systèmes de notation des compositeurs. Une piste serait de permettre la prise en compte de systèmes de notation personnalisés pour les objets. Le format graphique vectoriel SVG 5 pourrait être un bon candidat pour coder les systèmes de représentations des compositeurs. Ainsi, un compositeur pourrait produire son propre système de représentation avec des outils de dessin adaptés puis venir appliquer ses motifs sur les boîtes dans Iscore tels des calques pour obtenir la représentation de partition voulue. Le format SVG est également pressenti comme format d'export en vue d'imprimer les partitions ou de les publier sur la toile. Des possibilités d'export depuis notre format vers des formats de documents multimédias (SMIL par exemple) en retirant les données inadaptées avec le format cible sont envisagées. Cela permettrait éventuellement de publier sur la toile des simulations des partitions. Concernant les utilisations possibles de Iscore, il y a naturellement la création et l'interprétation de pièces de musique électro-acoustique, une pièce est d'ailleurs actuellement en cours de création par Joseph Larralde, assistant musical au Scrime 6. Cependant d'autres utilisations sont envisagées comme par exemple un système de play-back qui suivrait le jeu dumusicien au travers de points d'interaction.Cette application particulière utiliserait principalement des partitions issues du répertoire instrumental. L'écriture directe d'une partition instrumentale sous forme de boîtes s'avérant assez fastidieuse, nous cherchons à produire directement une partition utilisable par notre système à partir d'une partition existante. Le choix d'un format XML s'avère alors judicieux compte tenu des possibilités de passage entre les divers formats XML. Dans le cadre de cette utilisation, nous cherchons à créer un module de transformation de fichiers Midi et MusicXML en partitions interactives. Ce module devra instancier automatiquement des boîtes et inférer des relations entre elles en fonctions des données du fichier d'entrée. Une dernière utilisation prévue concerne la pédagogie pour permettre à des musiciens débutants de faire l'expérience de l'interprétation de pièce avant de posséder la maîtrise technique pour jouer effectivement la pièce. L'idée est donc de déléguer une partie des notes au système et de conserver un nombre limité de points d'interaction pour contrôler des parties réellement pertinentes pour l'interprétation. D'une manière générale, le système peut permettre d'adapter des pièces aux capacités de jeu des musiciens : débutants, virtuoses, handicapés… Dans ce contexte, le module d'importation de fichiers midi ou musicxml est également central. Nous avons présenté dans cet article un formalisme ainsi qu'un format associé permettant de représenter des partitions numériques interactives. Impliquant des objets sonores organisés dans le temps au travers de relations de Allen, ce formalisme se distingue des documents multimedias généralistes par la référence qu'il fait à l'interprétation musicale dans la musique instrumentale. Le format XML associé permet d'une part de sauvegarder les partitions composées dans notre système, mais également de faire l'interface avec d'autres formats. Ces liens avec des formats existants permettraient d'inclure des parties spécifiques codées dans d'autres formats ou de générer automatiquement des partitions interactives à partir de partitions numériques existantes .
Nous présentons dans cet article un format XML créé pour coder les partitions interactives générées via le système Iscore. Le développement de Iscore est l'aboutissement de travaux de recherche menés au LaBRI en collaboration avec l'Ircam, visant à aboutir à un système de partitions interactives pour la composition et l'interprétation, basé sur des contraintes temporelles. La question du format de sauvegarde des documents édités au travers de ce système s'est rapidement posée et devant les évolutions récentes vers les technologies XML, nous avons décidé d'y répondre par la rédaction d'une DTD (document type définition). Pensé à la base comme support pour le système de sauvegarde de Iscore, ce format pourrait également servir d'interface avec d'autres formats XML et participer à l'élaboration d'un format général de partitions numériques.
sciencesInfo_09-0255892_tei_DN_113_0029.tei.xml
termith-407-communication
Actuellement on ressent de plus en plus la nécessité de diffuser les connaissances contenues dans les thèses à partir d'Internet. Les projets de bibliothèques numériques actuels offrent à l'utilisateur l'accès aux thèses à partir d'une recherche en utilisant le titre de la thèse, le nom de l'auteur, le nom du directeur de recherche et la date de soutenance. Ce type de recherche ne permet pas d'accéder directement aux parties pertinentes de la thèse mais seulement à la thèse entière ou au mieux à des chapitres entiers. L'utilisateur doit donc lire des chapitres entiers pour savoir si la thèse correspond à son besoin, tâche fastidieuse et souvent décourageante. Le projet CITHER 1 (Consultation en texte Intégral des Thèses En Réseau) de l'INSA de Lyon dans lequel s'inscrit cette étude, porte sur la mise en ligne des thèses. CITHER a mis en place une diffusion des documents sous forme de texte intégral, en format PDF (Portable Document Format). De ce fait, lors d'une recherche il est impossible de récupérer en une seule requête toutes les parties pertinentes des thèses. Avec CITHER on accède au contenu d'une seule thèse à la fois, par le biais de chaque chapitre. Ces thèses, lors de leur diffusion, contiennent certaines métadonnées. Une métadonnée est un indicateur porteur de sens qui est rajouté au sein d'un document pour souligner une idée, une information. Ces métadonnées proviennent du format Dublin Core [DC, <ref target="#http://dublincore.org"/>] (« auteur », « titre de la thèse », « laboratoire », « résumé », etc.). Le problème réside dans le manque de précision des métadonnées utilisées qui ne reflètent pas suffisamment le contenu d'une thèse. Or ces éléments servent de base pour la recherche d'information. Dès lors, il est évident que pour des recherches simples (c'est-à-dire des recherches se faisant sur un mot-clé), il y aura énormément de réponses, souvent non pertinentes. Le problème ne réside pas uniquement au niveau de la recherche de l'information, mais aussi dans la manière dont ont été indexés les documents. En effet le moteur de recherche n'est capable de travailler qu'avec les éléments qu'on lui fournit, à savoir les mots-clés qui sont censés refléter la thèse. Ces mots-clés ne sont pas des éléments constitutifs d'une thèse, mais bien des éléments externes ajoutés à cette thèse. On a donc d'un coté la thèse et de l'autre les éléments qui la reflètent. L'objet de notre travail vise à permettre l'accès à l'ensemble des thèses par leur contenu sémantique. Nous proposons un accès au contenu de façon précise grâce à l'utilisation de « tags sémantiques » rajoutés au sein de la thèse. Ceci consiste donc, dans une première phase, à définir les « métadonnées » (concepts) qui permettraient une description plus fine du contenu des thèses (Abascal et al., 2004a). Pour définir notre nouvelle structure nous allons analyser finement chaque partie de la thèse afin de connaître son organisation liée à la « structure sémantique ». Cette structure permettra d'extraire les éléments les plus porteurs de sens (« modèle », « méthode », « outil », etc.). Grâce à ces éléments nous allons pouvoir définir de nouvelles « métadonnées », puis nous pourrons insérer dans la thèse des « tags sémantiques » correspondant à ces « métadonnées ». Ces indicateurs seront eux -mêmes traduits par des balises XML (eXtensible Markup Language) au sein de la thèse. Pour ce faire, nous proposons de définir un nouveau modèle de documents en nous appuyant sur l'étude des différentes structures de la thèse (structure logique et structure sémantique). Notre approche est fondée sur la modélisation sémantique des thèses scientifiques à partir des concepts issus des thèses. Nous avons utilisé un outil de Traitement Automatique de Langues (TAL), Nomino (Plante et al., 1997), capable d'extraire automatiquement des concepts pertinents d'un corpus. Cette proposition a été implantée dans notre prototype, pour aider le doctorant à baliser sa thèse pendant la phase de rédaction. Ces « tags sémantiques » seront exploités pour effectuer une recherche plus performante et plus ciblée. Après une présentation synthétique de la Recherche d'Information (RI) dans les bibliothèques numériques de thèses, actuelles, nous proposons dans la section 3, notre méthodologie pour l'identification de la structure de la thèse scientifique. Cette méthodologie s'appuie sur l'utilisation d'un outil de TAL dédié à l'extraction de concepts. Puis nous décrivons la base de concepts du domaine créée qui permettra à l'auteur de la thèse de structurer sémantiquement sa thèse. Dans la section 5, nous proposons une modélisation sémantique de la thèse. Nous utilisons des balises provenant de la structure logique mais aussi de nouvelles balises provenant de la structure sémantique. La structure sémantique intègre de nouvelles balises que le doctorant a ajoutées lors de sa rédaction. Ces balises ont été insérées sous la forme de « tags sémantiques ». Nous terminons par la présentation de notre prototype et par notre conclusion. La plupart des systèmes de recherche et de consultation de thèses sont assez limités. En effet, ils n'offrent que des recherches à partir de mots de la thèse, ou à partir de valeurs de quelques mots-clés relatifs à une thèse (comme le nom de l'auteur, la date de soutenance, le titre de la thèse). Un autre inconvénient de ces systèmes est de n' être capables d'afficher que des chapitres ou le contenu entier d'une thèse, alors que la recherche porte sur une expression précise. L'utilisateur est ainsi obligé de rechercher lui même, en lisant la thèse, le ou les passages qui l'intéressent. Ces systèmes ont donc deux limites majeures. La première concerne la recherche d'information : ils ne savent rechercher qu' à partir des mots-clés (titre, auteur, date de soutenance, nom du directeur) décrivant une thèse. La seconde limite est liée à la restitution de l'information : il n'y a pas de possibilité pour restituer les fragments ou les parties de thèses les plus pertinents pour l'utilisateur. L'utilisation de standards associés aux documents pour structurer l'information facilite le partage de l'information contenue dans les documents numériques (Tsinaraki et al., 2005). Cependant, cette utilisation est encore réduite et les études proposées actuellement ne permettent pas d'affirmer que les standards développés sont bien adoptés par tous les utilisateurs (Heath et al., 2005). Le choix des métadonnées constitue une phase importante pour la structuration d'une bibliothèque numérique. Les métadonnées peuvent être définies comme étant des données relatives à d'autres données (Amerouali, 1999). Une métadonnée permet de donner du sens au contenu des ressources afin que leur localisation et l'interrogation soient plus aisées et plus pertinentes. Pour les utilisateurs, le choix des métadonnées est critique pour trouver l'information pertinente, particulièrement lorsque l'information se situe au niveau du web (Heath et al., 2005). Actuellement, la plupart des bibliothèques numériques commencent à planifier l'utilisation des métadonnées. Dans certaines propositions on utilise des standards tels que : Dublin Core, DTD (Définition de Type de Document) Open eBook (h), DTD DocBook (), entre autres. Ces standards permettent de définir différentes structures d'un document, telles que la structure logique, physique et sémantique. Par exemple, la structure logique d'un document décrit l'organisation d'un document par chapitres, sections, paragraphes, etc. De plus, cette structure peut être manipulable, indépendamment, du document, en permettant l'identification des différents segments de texte (Goecke et al., 2006). Une des possibilités offertes en décrivant et identifiant la structure logique est, par exemple, la possibilité de trouver des « anaphores » aux termes précédemment utilisés dans un document (Goecke et al., 2006). Dans ce cas, le cycle de vie d'une expression linguistique peut être suivi à partir de la structure logique. De cette manière, il est possible de trouver l'anaphore d'une expression. Cette approche s'appuie sur la DTD DocBook pour ajouter des balises logiques aux documents scientifiques et le résultat est extrait en documents XML. Cependant, les standards associés à la définition des métadonnées, ne permettent pas l'insertion des connaissances propres au domaine (Tsinaraki et al., 2005). De ce fait, la recherche documentaire s'appuie encore sur seulement quelques éléments significatifs du document, à savoir le titre de la thèse, le nom de l'auteur et la date d'apparition. Ces éléments ne permettent pas d'accéder de manière précise au contenu sémantique du document. Afin de résoudre ce problème, quelques auteurs proposent d'introduire une ontologie pour guider, de façon standardisée, la définition de métadonnées du domaine (Tsinaraki et al., 2005; Singh et al., 2004; Tenier et al., 2006). D'autres travaux portant sur la création automatique de résumés s'appuient sur la structure de documents (Leskovec et al., 2005). Par exemple, les résumés sont produits à partir d'un graphe sémantique issu du document original et à partir, aussi, de l'identification de la sous-structure afin d'extraire les phrases qui vont composer le résumé. Le graphe sémantique est composé de phrases (sous la forme de triplets) construites à partir de termes reliés, en s'appuyant sur WordNet. Ceci permet d'établir des relations de synonymie entre les termes et de trouver des équivalences entre les autres triplets (Leskovec et al., 2005). Dans le cas des documents historiques (anciens) le processus de structuration des documents commence lorsque le document est numérisé, et les historiens explorent le passé à partir des annotations trouvées dans les documents numérisés. Le document ancien est composé de la structure physique, sémantique, structurale, fonctionnelle et légale. Ceci est modélisé en utilisant le format XML (Antonacopoulos et al., 2004). Dans les architectures client-serveur, le format XML est essentiellement utilisé dans la partie serveur. Pour qu'il soit accessible au client, XML est transformé en XHTML. Afin d'éviter ce processus de transformation, la plupart des utilisateurs préfèrent utiliser directement XHTML pour produire leurs documents. Pour faciliter la tâche de création et d'édition de documents bien structurés et sémantiquement riches, dans la partie serveur comme dans la partie client, on peut utiliser le langage Xtiger (Campoy et al., 2006). Ce langage permet la communication des documents tagués, avec XML, entre le serveur et le client. La plupart des systèmes qui indexent des documents structurés supportent des documents fondés sur la structure des éléments et ne considèrent pas les documents fondés sur la structure des attributs. Dans ce cas, quand les éléments sont utilisés pour décrire la structure du document, cette structure devient statique et peu extensible (Seung-Kyu et al., 2002). Les auteurs proposent une nouvelle méthode pour indexer les documents fondée sur la structure des attributs. Ainsi, l'information contenue dans une structure fondée sur les éléments et sur les attributs est intégrée afin de produire une structure générale du document. L'exigence d'une nouvelle génération du web, le web sémantique, est d'intégrer des documents bien structurés afin de rendre la recherche d'information plus précise. McCalla (2004) pense que le web sémantique doit aussi ajouter de la pragmatique au contexte afin de donner à l'utilisateur l'information pertinente. Il propose d'ajouter des balises contenant le profil de l'utilisateur (par exemple, la façon dont l'utilisateur apprend et réagit à certaines situations). La création de documents structurés est une tâche qui peut être faite en partie par l'auteur du document. La conceptualisation et catégorisation de documents sont, à notre avis, des caractéristiques à intégrer dans les systèmes de thèses en ligne. Face aux problèmes classiques de la structuration d'information, les standards actuels essaient de pallier ces problèmes en apportant du sens aux documents. L'apport du sens doit aussi s'appuyer sur des techniques de TAL. Notre approche est fondée, entre autre, sur l'utilisation d'un outil de TAL capable d'extraire automatiquement des concepts pertinents. Cependant, les outils de TAL nécessitent encore l'avis d'un utilisateur expert pour différencier un concept non pertinent d'un concept pertinent. Ces points font l'objet de notre étude dans le paragraphe suivant. Une thèse est un ensemble de données semi-structurées. Elle est composée d'éléments (chapitres, sections, paragraphes, etc.) de taille et de format variables. Une donnée semi-structurée est une donnée dont la structure est incomplète ou irrégulière (Abiteboul, 1997). Plus généralement, un document semi-structuré comporte à la fois des informations sur le contenu du document et sur son organisation. Une thèse est aussi un document scientifique très codifié. Sa représentation se fait habituellement selon deux structures : la structure physique et la structure logique. Nous proposons d'identifier une troisième structure : la « structure sémantique » Un des problèmes essentiels pour envisager la structuration sémantique d'une thèse réside dans l'acquisition des métadonnées pertinentes. La plupart des projets de thèses en ligne reposent sur l'existence d'une base de métadonnées associées aux ressources. Le défi d'aujourd'hui est d'essayer d'automatiser le plus possible les processus d'acquisition des métadonnées. Actuellement, l'acquisition des métadonnées est encore une tâche essentiellement manuelle, assez lourde. Il est indispensable que les bases de métadonnées soient complètes et suffisamment renseignées. Il existe, pour des domaines précis, des thesaurus et des ontologies sur lesquels peut s'appuyer le processus d'automatisation de l'acquisition des métadonnées. Cette acquisition est principalement fondée sur l'utilisation des techniques et des outils de TAL. Parmi les différents types d'outils de TAL dédiés à l'analyse de textes nous trouvons les outils dédiés à l'acquisition automatique de termes. Les termes sont des représentations linguistiques de concepts d'un domaine en particulier. Aujourd'hui les travaux de divers groupes de recherche liés au TAL sont orientés vers la constitution de ce que l'on nomme « bases de connaissances terminologiques ». L'objectif de ces travaux est de construire des outils capables d'extraire des connaissances d'un texte et de produire une information terminologique solide (Biebow et al., 1997). Les logiciels d'acquisition automatique de termes utilisent généralement des techniques d'analyse sémantique et des statistiques du corpus en exploitant la fréquence d'apparition de mots. Nous parlerons plus précisément des logiciels fondés sur une analyse morphosyntaxique. Cette analyse considère que « la construction d'unités terminologiques obéit à des règles de formation syntaxique bien stables » (Séguéla, 2001). Les outils d'acquisition automatique de termes reposent sur l'analyse statistique de termes trouvés dans un corpus (Beguin et al., 1997). Ils trouvent un grand nombre de termes et nécessitent une assistance manuelle pour choisir les termes adéquats. Nous trouvons plusieurs exemples d'extracteurs de termes. Afin de choisir un outil pour notre travail, nous avons choisi d'évaluer, selon leurs fonctionnalités requises, quatre outils : 1) Copernic Summarizer de NRC (), 2) Nomino de Nomino Technologies (), 3) TerminologyExtractor de Chamblon Systems Inc. (), et 4) Xerox Terminology Suite de Xerox (XTS,). Notre évaluation s'est faite sur un corpus de documents scientifiques provenant du domaine de l'informatique (Abascal et al., 2003b). Le corpus d'évaluation est constitué de 25 documents scientifiques (20 thèses et 5 articles) d'une taille de 1 105 565 mots. Notre démarche s'est fondée sur la comparaison de la liste de concepts produite par chaque outil avec une liste de concepts extraite manuellement par un expert du domaine pour chaque document. Les mesures utilisées pour l'évaluation viennent du domaine de la Recherche d'Information (RI) (Salton et al., 1983; Baeza-Yates et al., 1999). Ces mesures sont : la « précision » et le « rappel ». Le tableau 1 montre les résultats généraux pour l'analyse de notre corpus. Ces résultats montrent que c'est Nomino qui offre à la fois le meilleur taux de « précision » et le meilleur taux de « rappel » (taux > 60 %). Suite à cette étude (Abascal et al., 2003b), nous avons retenu Nomino comme étant l'outil le mieux adapté à nos besoins. Nomino est un logiciel développé par l'Université du Québec à Montréal (Van Campendhoudt, 1998), il est fondé sur l'utilisation extensive du pouvoir d'attraction des UCN (Unités Complexes Nominales). Ces unités sont des expressions composées qui permettent de clarifier le sens de certains mots et permettent la structuration du sens. C'est à partir de ces unités que nous définissons les nouvelles métadonnées à ajouter. Résultats de « précision » et de « rappel » obtenus en appliquant les quatre outils au corpus d'entrée XTS Copernic Summarizer TerminologyExtractor Nomino Précision 2.8 % 33.9 % 6.8 % 83.4 % Rappel 90.5 % 51 % 64.8 % 65.1 % L'analyse des concepts extraits de la thèse nous permet de connaître les parties dans lesquelles l'auteur utilise la plupart des concepts qui caractérisent le mieux la thèse. Notre analyse est fondée sur l'analyse de la structure logique et de la structure sémantique, Nomino sera l'outil d'extraction de termes. Un auteur s'intéresse au contenu du document qu'il rédige, à son organisation, c'est-à-dire à son découpage en composants et aux relations entre ces composants. La structuration est perçue avant tout par l'auteur comme un des critères de bonne présentation visant à apporter au lecteur, un confort pendant la consultation du document. Aussi essaie -t-il d'associer à chaque composant un rôle défini. Une thèse peut alors être découpée en : titre, auteur, résumé, chapitres, sections, annexes. Elle peut aussi comporter des notes, des figures, etc. La notion de structure logique, du point de vue de l'auteur, prend également en compte l'ordre des composants. C'est ainsi que le titre d'un chapitre précède toujours son contenu. En effet, non seulement un titre renseigne sur le contenu de la suite mais il contribue aussi à une lecture plus aisée en offrant la possibilité de ne lire que les parties pour lesquelles on a de l'intérêt. Les composants d'un document et leurs relations déterminent l'organisation du document : c'est la structure logique du document. Nous travaillons avec des thèses composées selon les recommandations du ministère de l'Education (Jolly, 2000). Ces recommandations stipulent qu'une thèse peut se décomposer en trois parties : (1) Préliminaires (page de titre, dédicace, remerciements, table des matières, table des illustrations, table des annexes, résumés et mots-clés, éléments d'indexation spécialisée), (2) Corps du texte (introduction, chapitres, sections, paragraphes, conclusion) et (3) Postliminaires (bibliographie, glossaire, index, annexes). L'analyse des concepts extraits selon la structure logique de chacune des thèses est fondée sur le découpage du document en chapitres ou en sections et sur l'organisation de ceux -ci. Nous avons utilisé Nomino pour extraire les concepts correspondant aux différents découpages logiques de la thèse que nous avons retenus : thèse complète, introduction, chapitres, conclusion. Concernant la « thèse complète », nous exploitons, dans notre analyse, uniquement l'introduction, les chapitres et la conclusion. Nous avons supprimé les parties correspondant aux préliminaires (page de titre, liste de professeurs, liste de figures, index, etc.), les parties correspondant aux post-liminaires (annexes, bibliographie, etc.) et les parties relevant des aspects plutôt administratifs (folio administratif, etc.). Une première analyse a consisté à extraire tous les concepts de chacune des « thèses complètes » de notre corpus. Il est important de mentionner qu'en appliquant Nomino avec le « calcul de saillance » à l'ensemble du corpus, il y aura des concepts très répétitifs qui ne seront pas extraits. Ce calcul repose sur deux principes : le « gain à la portée » et le « gain à l'expressivité ». Le principe du gain à la portée stipule qu'une information sera d'autant plus « payante » qu'elle est rare. Le gain à l'expressivité, quant à lui, classera les arbres en fonction du caractère spécifique de l'information qui s'y trouve. Nous avons effectué une deuxième analyse qui a consisté à extraire les concepts de l'ensemble des chapitres (sans l'introduction ni la conclusion). En faisant la comparaison entre le nombre de concepts extraits pour la thèse complète et le nombre de concepts extraits des chapitres seuls, nous pouvons remarquer que : dans la plupart des thèses, en enlevant l'introduction et la conclusion, le nombre de concepts extraits (des chapitres exclusivement) augmente (tableau 2). Nombre de concepts extraits de la thèse complète et de l'ensemble des chapitres seulement Thèse Nombre de concepts extraits de la thèse complète Nombre de concepts extraits de l'ensemble des chapitres seulement Thèse Nombre de concepts extraits de la thèse complète Nombre de concepts extraits de l'ensemble des chapitres seulement T1 293 296 T11 50 57 T2 36 38 T12 36 40 T3 66 64 T13 46 54 T4 45 43 T14 47 51 T5 69 73 T15 81 85 T6 42 42 T16 23 24 T7 38 42 T17 36 43 T8 115 124 T18 17 14 T9 40 38 T19 29 32 T10 52 54 T20 35 33 Une troisième analyse a consisté à extraire les concepts qui apparaissent dans des parties très particulières de la thèse (introduction, chapitres et conclusion) afin d'y étudier la répartition des concepts et leur poids. Après observation de la structuration généralement faite des thèses, nous avons considéré que les thèses de 5 chapitres constituaient une organisation souvent retenue. Nous avons calculé la moyenne des pourcentages de concepts qui apparaissent dans chaque partie analysée (table de matières, introduction, chapitres, conclusion), par rapport à l'ensemble de la thèse. Ceci nous a permis de connaître les parties de la thèse qui contiennent le plus grand nombre de concepts. La recherche de l'information pertinente pourra donc s'envisager à partir de certaines sections ou chapitres de la thèse. Le tableau 3 résume les résultats obtenus en analysant des thèses constituées de 5 chapitres (C1 à C5). Ce tableau présente la moyenne obtenue dans chacune des analyses effectuées. La table des matières (TM) représente (en moyenne) 9,51 % de concepts pertinents pour toute la thèse. L'introduction (I) et la conclusion (CO) apportent moins de 14 % de concepts chacune. En revanche, les autres chapitres apportent plus de 20 % de concepts pertinents chacun. Le chapitre 2 est le chapitre qui contient le plus de concepts pertinents. Ce chapitre est la plupart du temps consacré à la présentation des thèmes principaux traités dans la thèse. Comparaison de la moyenne de pourcentages obtenus pour chacune des parties qui constituent la structure logique de la thèse TM I C1 C2 C3 C4 C5 CO 9,51 % 12,98 % 20,77 % 25,93 % 22,23 % 25,71 % 23,60 % 13,42 % Nous pouvons conclure de ces expérimentations que les parties correspondant à l'introduction et à la conclusion sont d'un intérêt moindre, puisqu'elles sont seulement un résumé de toute la thèse (Abascal et al., 2005). L'analyse de la structure logique vérifie nos premières suppositions sur l'importance d'analyser essentiellement les chapitres. La table des matières, l'introduction et la conclusion apportent peu de concepts pertinents. Le chapitre 2 apparaît le plus pertinent. La structure sémantique sera, elle, capable de fournir des passerelles vers une interprétation cohérente du document. Dans la structure sémantique, les données sont organisées selon leur sens et leur définition respective. La structure sémantique est étroitement liée à la notion de concept. Une thèse regroupe un ensemble de concepts et ceux -ci sont ordonnés. Par exemple le concept « équation » est composé d'une « hypothèse », de « conditions d'applications » et d'un « raisonnement ». Ce dernier utilise des « variables » et des « théorèmes » pour mener à bien son « équation ». Un « théorème » a un « titre » et un « auteur ». Une thèse peut contenir plusieurs « équations ». Ainsi, une thèse peut être représentée non seulement par le biais de son articulation physique ou logique mais aussi sous une forme structurée d'un ensemble de concepts. Ces concepts sont représentés par des métadonnées caractérisées selon le contexte d'utilisation du document. Ainsi, une thèse pourra contenir plusieurs « équations » chacune ayant la même structure mais traitant de sujets différents. Une thèse peut alors être modélisée sous la forme d'un arbre de concepts (ou de métadonnées). Dans le but de mieux caractériser le contenu des thèses, nous avons décidé d'utiliser de nouvelles métadonnées ou « tags sémantiques » définis à partir des concepts décrivant chacune des thèses. Afin d'identifier des tags pertinents nous avons commencé par extraire des concepts pertinents issus de la thèse. Par « concepts pertinents » nous faisons référence à des concepts significatifs de la thèse, capables d'apporter une information pertinente sur le contenu de la thèse. La définition de concepts associés à une thèse peut s'effectuer manuellement ou assistée d'outils de TAL, ce sera Nomino dans notre cas. En observant l'organisation des thèses scientifiques on constate que, généralement, la thèse suit un plan dont la structure est fondée sur le découpage logique sous forme de chapitres et de sections. Les chapitres sont eux mêmes souvent en partie liés à une structure plutôt « sémantique ». Ainsi on retrouve généralement en début de thèse une partie consacrée à « l'état de l'art du domaine », puis un ou deux chapitres proposant une nouvelle approche, souvent présentée sous forme de « modèle » plus ou moins formel. Ensuite vient une partie où sont décrites les « implémentations » et la « mise en œuvre » des nouvelles « techniques » du domaine. Enfin, la dernière partie est plutôt dédiée à la validation et à « l'évaluation de la proposition ». Si ce découpage s'appuie principalement sur la notion de chapitres, il apparaît de façon sous jacente, mais bien perceptible, une structure sémantique du document de type « thèse ». Nous avons étudié de manière expérimentale comment s'articulaient ces découpages logiques et sémantiques à partir de l'analyse des concepts extraits dans les différentes parties de la thèse. Un « segment sémantique » est issu d'un découpage permettant d'accéder au contenu des thèses par le biais des thèmes ou sujets traités, ce qui diffère de la section précédente où l'on s'appuyait sur le découpage logique. Quelques « segments sémantiques » d'une thèse scientifique Segments sémantiques Présentation du segment Etat de l'art On le retrouve dans différents chapitres de la thèse mais la plupart du temps c'est le deuxième chapitre qui est consacré à l'état de l'art général. Ensuite on peut trouver dans certains chapitres, des états de l'art plus ciblés comme par exemple : « état de l'art de méthodes », « état de l'art d'outils », … Méthodologie On la retrouve pour la représentation d'une démarche proposée en vue de la résolution d'un problème . Modèle Ce segment peut se retrouver dans plusieurs chapitres . Algorithme Une des approches trouvées dans la plupart de thèses consiste à modéliser un problème en utilisant des algorithmes. Architecture Concerne les principales caractéristiques du prototype créé . Prototype ou Etude de cas Partie généralement présentée dans les derniers chapitres décrivant l'expérimentation. En analysant manuellement le contenu des thèses scientifiques, nous avons détecté des « segments sémantiques » particuliers traitant de manière ciblée un aspect particulier de la thèse (« état de l'art », « méthodologie », « modèle », « algorithme », « architecture », « prototype ou étude de cas »). Nous exploiterons quelques uns de ces segments repérés par voie expérimentale (tableau 4), pour proposer notre modèle. Il peut exister d'autres segments à partir desquels une thèse peut être découpée sémantiquement. La première partie de notre analyse a consisté à découper les thèses analysées (20 thèses du domaine informatique) en « segments sémantiques ». Le découpage sémantique varie selon la thèse analysée. Ce découpage provient de notre observation des thèses. Ce type de découpage, une fois validé expérimentalement, nous permettra de modéliser la thèse selon les différentes possibilités de structuration sémantique. La deuxième partie de notre analyse a consisté à extraire tous les concepts de chaque « segment sémantique » que nous avons défini par observation pour chacune des thèses du corpus analysé. Les concepts ainsi obtenus et validés pourront alors être utilisés en tant que « tags sémantiques » et insérés dans le document. Il est important de préciser que toute l'analyse sémantique menée pour les différents « segments sémantiques » a été faite manuellement. Seule l'extraction de concepts a été faite de manière automatique en utilisant l'outil Nomino. Nous présentons par la suite quelques résultats de l'extraction de concepts pour certains « découpages sémantiques » distincts : « état de l'art général », « état de l'art de méthodes », « modèle » et « prototype ». Nombre de concepts extraits pour le découpage sémantique correspondant à la partie de l'état de l'art de méthodes de chaque thèse Thèse nombre de concepts issus de l'état de l'art de méthodes nombre de concepts issus de la thèse complète et similaires à ceux de la partie dédiée à l'état de l'art de méthodes Pourcentage de concepts extraits de l'état de l'art de méthodes par rapport à la thèse complète T2 23 7 19,44 % T6 34 12 28,57 % T10 17 14 26,92 % T19 26 8 27,58 % Le tableau 5 présente 4 thèses qui possèdent le « segment sémantique » nommé « état de l'art de méthodes ». Dans ce cas, le pourcentage de concepts extraits pour l'état de l'art de méthodes par rapport au nombre de concepts extraits pour la thèse complète se situe entre 19 % et 29 %. Donc plus de 70 % restant de concepts pertinents pour chaque thèse ne se trouvent pas dans l'état de l'art de méthodes. L ' « état de l'art général » est l'état de l'art le plus important. Il se situe presque toujours dans le premier ou le deuxième chapitre de la thèse. Cette partie présente tous les travaux du domaine existants sur lesquels l'auteur s'appuie pour traiter son sujet de recherche. En général, cet état de l'art situe la problématique et les travaux de recherche en cours du domaine. Nombre de concepts extraits pour le découpage sémantique correspondant à la partie état de l'art général pour chaque thèse Thèse Nombre de concepts issus de l'état de l'art général Nombre de concepts issus de la thèse complète et similaires à ceux de la partie dédiée à l'état de l'art général Pourcentage de concepts extraits de la partie état de l'art général par rapport à la thèse complète T1 241 107 36,51 % T2 22 6 16,66 % T3 51 29 43,93 % T5 59 26 37,28 % T6 24 5 11,90 % T7 24 23 60,52 % T8 100 38 33,04 % T9 32 17 42,50 % T10 47 23 44,23 % T11 56 26 52 % T12 14 11 30,55 % T13 46 21 45,65 % T14 54 20 42,55 % T15 65 49 60,49 % T16 26 18 78,26 % T17 65 15 41,66 % T18 7 4 23,52 % T20 25 10 28,57 % Le tableau 6 présente les résultats de l'analyse du segment « état de l'art général ». Nous voyons que seulement deux thèses « T4 et T19 » des 20 analysées ne contiennent pas ce segment. De plus, on constate qu'en moyenne 40 % des concepts pertinents se trouvent dans ce segment de la thèse. Pour les thèses « T3 », « T7 », « T9 », « T10 », « T11 », « T13 », « T14 », « T15 », « T16 » et « T17 » nous avons obtenu un pourcentage supérieur à 40 %. Les thèses « T7 », « T15 » et « T16 » contiennent plus de 60 % des concepts pertinents dans ce segment. C'est-à-dire, qu'il suffirait d'analyser ce segment pour trouver un panorama général des concepts qui caractérisent le mieux chaque thèse. Parmi les concepts extraits de ce segment nous trouvons : « algorithme de compression », « apprentissage à distance », « base de donnée », « échange d'information », « interaction homme/machine », « interface H/M », « système d'exploitation », « système d'information », « travail coopératif », etc. Pour la partie dédiée au modèle, nous avons non seulement analysé les chapitres ou sections qui décrivent le modèle à utiliser mais aussi les parties décrivant la manière selon laquelle le modèle est appliqué : modélisation. Nous parlons de proposition du modèle quand l'auteur de la thèse reprend un modèle déjà utilisé dans la littérature pour l'améliorer et l'appliquer à la validation de sa recherche. Le tableau 7 décrit les résultats issus de 13 thèses analysées. En général, le nombre de concepts extraits n'est pas très significatif mais la plupart des concepts extraits apparaissent comme pertinents. Par exemple pour la thèse « T3 », 31 concepts ont été extraits et de ces concepts, 29 sont pertinents. Nombre de concepts extraits pour le découpage sémantique correspondant aux parties « Modèle » de chaque thèse Thèse Nombre de concepts pour le Modèle Nombre de concepts issus de la thèse complète et similaires à ceux de la partie dédiée au Modèle Pourcentage de concepts extraits du Modèle par rapport à la thèse complète T1 Proposition du modèle : 54 45 15,35 % T2 Modèle : 8 6 16,66 % T3 Proposition du modèle : 31 29 43,93 % T4 Modélisation : 30 30 66,66 % T5 Proposition du modèle : 19 14 20,28 % T6 Proposition du modèle : 17 16 38,09 % T9 Proposition du modèle : 17 17 42,5 % T11 Modélisation : 20 12 24 % T13 Proposition du modèle : 20 19 41,30 % T14 Modélisation : 19 16 34,04 % T16 Modèle : 6 5 21,73 % T17 Proposition du modèle : 10 10 27,77 % T19 Proposition du modèle : 3 2 6,89 % La dernière partie de la plupart des thèses du domaine de l'informatique présente un prototype de validation. Dans notre corpus, 19 thèses consacrent un chapitre à la présentation du prototype. Généralement, le chapitre consacré au prototype présente aussi la résolution de la problématique et les résultats de la recherche faite pendant la thèse. Le tableau 8 présente les résultats de l'évaluation de ce segment. Nombre de concepts extraits pour le découpage sémantique correspondant à la partie PROTOTYPE de chaque thèse Thèse Nombre de concepts issus de la partie Prototype Nombre de concepts issus de la thèse complète et similaires à ceux de la partie dédiée au Prototype Pourcentage de concepts issus de la partie Prototype par rapport à la thèse complète T1 105 60 20,47 % T3 3 13 19,69 % T4 16 11 24,44 % T5 30 21 30,43 % T6 18 7 16,66 % T7 6 3 7,89 % T8 77 45 39,13 % T9 19 8 20 % T10 12 11 21,15 % T11 23 20 40 % T12 23 12 33,33 % T13 8 8 17,39 % T14 26 19 40,42 % T15 57 29 35,80 % T16 15 14 60,86 % T17 18 12 33,33 % T18 4 3 17,64 % T19 6 5 17,24 % T20 13 12 34,28 % L'objectif des analyses présentées précédemment est de détecter quels sont les segments sémantiques contenant le plus de concepts, donc les segments contenant le plus de sens et qui pourront être utilisés pour extraire l'information précise et pertinente. Pour bien comprendre les résultats décrits dans la section précédente, nous présentons par la suite la comparaison des résultats de l'extraction de concepts pour deux segments sémantiques distincts : « état de l'art général » et « modèle ». Afin de comparer ces deux segments sémantiques, et de montrer l'importance du découpage correspondant à l' « état de l'art général », nous avons choisi de traiter seulement les thèses contenant au moins ces segments car, comme nous l'avons déjà souligné : les thèses n'ont pas toutes la même structure sémantique. Le tableau 9 indique le nombre de concepts extraits pour chaque thèse selon ce découpage sémantique. Par exemple, pour la thèse « T1 » le segment « état de l'art général » se trouve réparti dans les chapitres 1, 2 et 3. Pour ce segment, nous avons obtenu 241 concepts. En revanche pour le segment du « modèle » qui correspond au chapitre 4, nous avons obtenu 54 concepts. La thèse « T5 » présente un autre cas d'étude où les segments « état de l'art général » et « modèle », sont imbriqués dans le chapitre 3. Pour l' « état de l'art » nous avons obtenu 32 concepts provenant donc du chapitre 3, alors que les 17 concepts du segment « modèle » proviennent des sections 3.3 et 3.4 du chapitre 3 ainsi que la section 4.1 du chapitre 4. Le tableau 9 illustre la différence qui existe entre le nombre de concepts extraits pour chacun de ces deux découpages. Concepts extraits pour le découpage sémantique correspondant aux segments : « État de l'art général » et « Modèle » de la thèse Thèse concepts extraits pour la partie dédiée à l'état de l'art général concepts extraits de la partie dédiée au modèle Nb concepts Dans chapitres (sections ) Nb concepts Dans chapitres (sections ) T1 241 1, 2 et 3 54 4 T2 22 1(1, 2, 3 ) 8 4 T3 51 1, 2 et 3 31 4 et 5 T4 59 1, 2, 3 et 4 19 5, 6, 7 et 8 T5 32 3 17 3 (3.3, 3.4), 4(4.1 ) T6 56 2 20 3 T7 46 1 20 2 T8 26 2 6 3(4 ) T9 65 2 10 3 Afin de souligner l'importance de l'analyse de la structure sémantique, nous avons comparé le poids (en pourcentage) des concepts extraits selon notre découpage sémantique par rapport à la totalité des concepts extraits de la thèse incluant l'introduction, les chapitres et la conclusion. Nous avons constaté que le pourcentage de concepts apparaissant comme pertinents dans l'ensemble de la thèse est plus important pour le segment « état de l'art général » par rapport aux autres segments sémantiques. Donc, le segment, « état de l'art général », permet d'extraire une grande partie des concepts des thèses. Ainsi, avant d'étudier l'ensemble de la thèse, il peut être intéressant d'analyser la partie concernant à l' « état de l'art général ». L'analyse de la structure sémantique nous a permis de valider l'intérêt du découpage de la thèse en « segments sémantiques », de localiser les parties de la thèse les plus riches en information sur le contenu de la thèse et d'extraire les concepts présents dans la plupart des thèses. Les analyses présentées précédemment ont servi à déterminer les fragments les plus intéressants de la thèse mais aussi à extraire les concepts pertinents de chaque thèse. Nous avons ensuite construit une base de concepts du domaine que nous allons présenter dans la section suivante. Dans notre proposition, nous allons intégrer cette base de concepts, que le doctorant pourra utiliser lors de la rédaction de sa thèse. Elle sera organisée en catégories à partir des concepts extraits expérimentalement. Pour la création de la base, nous avons tout d'abord extrait tous les concepts de toutes les thèses à l'aide de l'outil Nomino. Ensuite, nous avons classé les thèses selon le nombre de concepts extraits de manière descendante. Puis, un expert du domaine a analysé les concepts extraits afin d'éliminer ceux qui ne correspondaient pas au domaine. De cette manière, l'expert a éliminé manuellement environ 200 concepts, dont certains ne correspondaient pas au domaine de l'informatique, par exemple : « communauté urbaine », « compacité CoH », « enquête de satisfaction », « modulation par impulsion », etc., l'expert a aussi éliminé certains termes extraits par Nomino qui n'étaient pas des concepts comme par exemple : « besoin d'information », « caractéristique globale », « situation de travail », « tâche de création », entre autres. A partir des concepts extraits, nous avons classifié les concepts en pertinents et non pertinents afin de créer notre base de concepts. Nous avons comparé les concepts extraits des chapitres (sans l'introduction ni la conclusion, uniquement les chapitres) des thèses analysées avec les concepts extraits de la partie dédiée à l'état de l'art général. Nombre de concepts extraits pour l'ensemble des chapitres et pour le segment sémantique « état de l'art général » Thèse Nombre de concepts pertinents uniquement pour les chapitres Nombre de concepts pertinents de l'état de l'art général Thèse Nombre de concepts pertinents uniquement pour les chapitres Nombre de concepts pertinents de l'état de l'art général T1 296 52 T11 57 56 T2 38 71 T12 81 80 T3 64 31 T13 54 46 T4 43 21 T14 51 43 T5 73 59 T15 85 67 T6 42 37 T16 24 26 T7 40 20 T17 43 65 T8 124 52 T18 14 7 T9 38 32 T19 32 34 T10 54 19 T20 33 22 Nombre de concepts extraits et nombre de concepts retenus comme pertinents pour le domaine de l'informatique Thèse Nombre de concepts extraits de l'ensemble de la thèse Nombre de concepts pertinents qui appartiennent au domaine de l'informatique Thèse Nombre de concepts extraits de l'ensemble de la thèse Nombre de concepts pertinents qui appartiennent au domaine de l'informatique T1 296 89 T11 43 23 T2 85 53 T12 40 21 T3 124 46 T13 54 20 T4 81 35 T14 73 20 T5 51 30 T15 38 18 T6 43 29 T16 38 18 T7 57 29 T17 64 16 T8 54 28 T18 33 11 T9 32 24 T19 24 10 T10 42 24 T20 14 3 Le tableau 10 dresse l'état des lieux résultant de l'analyse de tous les chapitres (sans l'introduction ni la conclusion) et de l'analyse du segment sémantique état de l'art général pour toutes les thèses analysées. Dans 50 % des cas, la quantité de concepts extraits dans l'état de l'art général est très proche de l'analyse de l'ensemble de la thèse. Nous avons comparé manuellement la liste des concepts issus de tous les chapitres et celle issue du segment état de l'art général afin de compter le nombre de concepts différents. Nous avons extrait au total 2 126 concepts pour l'ensemble des chapitres. Nous avons épuré la base en éliminant les doublons et les concepts dont le sens est proche (exemple : « domaine de l'informatique » et « domaine informatique »). Ainsi, nous avons retenu 241 concepts significatifs. En comparant les deux listes (liste de concepts pour l'ensemble de chapitres et liste de concepts pour le segment état de l'art général), l'analyse montre que le segment état de l'art général apporte 192 concepts différents de ceux issus de l'ensemble des chapitres. Au total, notre base de connaissances contient donc 433 termes pertinents issus du domaine de l'informatique. La deuxième colonne du tableau 11 présente le nombre de concepts extraits pour chaque thèse. La troisième colonne présente le nombre de concepts retenus comme pertinents, c'est-à-dire le nombre de concepts correspondant au domaine de l'informatique. La catégorisation des concepts aura pour but d'aider l'utilisateur à trouver aisément les concepts sémantiques à insérer dans le texte comme des tags sémantiques. Cette catégorisation est établie manuellement, alors que l'extraction initiale de concepts est effectuée automatiquement. Nous avons défini, à partir d'une analyse de concepts existants dans la plupart des thèses, 17 catégories de base : « Algorithme », « Apprentissage », « Base de données », « Documents », « Groupware », « IHM », « Intelligence artificielle », « Langages », « Logiciel », « Matériel », « Multimédia », « Programmation », « Recherche d'information », « Réseaux », « Système d'information », « Web sémantique » et « Workflow ». Ces catégories contiennent des sous-catégories regroupant les concepts obtenus par Nomino. Un concept peut être classé dans plusieurs catégories (ou sous-catégories). La classification est fondée sur la syntaxe du concept mais surtout sur la sémantique, le sens du concept. Par exemple, dans la catégorie « Algorithme » nous trouvons le concept « Algorithme génétique » lequel est également dans la catégorie « Intelligence artificielle ». Faute d'existence de thésaurus du domaine de l'informatique, nous avons complété la base de concepts en utilisant le « Glossaire informatique des termes de la Commission ministérielle de terminologie informatique » 2. Ce document est le résultat d'une compilation de divers arrêtés issus des travaux de la Commission ministérielle de terminologie informatique ainsi que du projet d'arrêté qui était en cours lorsque le dispositif terminologique a fait l'objet d'une profonde réforme. Notre base de concepts n'est toutefois pas complète, en effet, durant l'établissement de cette base, nous avons rapidement constaté, qu'il y aurait d'autres concepts du domaine de l'informatique à intégrer. Par exemple des concepts de psychologie cognitive peuvent être très fortement liés à des concepts informatiques. C'est pourquoi, nous avons décidé d'implémenter physiquement la base de connaissances sous forme de différents fichiers correspondant aux concepts de l'informatique proprement dite et aux domaines d'applications. Ainsi, chaque fois qu'une communauté crée son thésaurus, nous pouvons l'intégrer à notre base grâce à son mode de gestion modulaire. En ce qui concerne, l'évolution de la base de concepts nous avons évalué expérimentalement la progression du nombre de concepts apportés par chaque nouvelle thèse et la progression reste voisine de 2,2 %. Ces expérimentations sont à poursuivre pour confirmer nos premiers résultats mais nous pouvons déjà prétendre que la taille de la base de concepts évoluera très progressivement. L'ensemble de ces résultats va nous permettre de définir un nouveau modèle de documents intégrant la dimension sémantique. La construction du document de type « thèse » repose sur deux étapes : (1) la mise en place de la structure logique et (2) l'ajout des éléments sémantiques utilisés comme indiqué dans les paragraphes précédents. Pour la première étape, nous avons suivi, à quelques détails près, les recommandations du ministère de l' Éducation (Jolly, 2000). Pour la seconde étape, nous avons exploité le mécanisme de XML Schéma 3 pour formaliser la structure globale d'une thèse scientifique. A partir d'une étude de différentes normes utilisées pour la structuration des documents, nous avons retenu XML Schéma. Certaines caractéristiques ont attiré notre attention, ce sont les possibilités de création des types complexes, d'attribution de cardinalité maximum, de manipulation de fichiers etc. Par exemple, nous devons traiter la notion de spécialisation pour gérer les établissements, car certains doctorants préparent leurs thèses en cotutelle avec un autre établissement, et les soutiennent dans les établissements d'origine. Ainsi la structure générale « Etablissement » possédant un « nom » et des « coordonnées » sera définie comme un type complexe qui sera attribué à chaque établissement. Le format DTD (Définition de Document Type) ne nous permet pas d'implémenter cette spécificité. Le ministère de l' Éducation recommande, au maximum, neuf subdivisions dans une thèse. Mais dans une DTD, il n'est pas possible d'implémenter cette cardinalité maximale, alors que XML Schéma permet de mettre en place une structure de neuf « Sous-sections » dans une « Section ». Etant donné que de nombreux auteurs rédigent leurs thèses à partir du logiciel Word, nous aurions tout à fait pu choisir d'utiliser le schéma « XML document 2003 » fourni par Microsoft dans la bibliothèque des schémas WordprocessingML pour Office 2003 4. Mais celui -ci est un format propriétaire et les fichiers générés sont assez lourds à manipuler. Nous avons donc préféré créer notre propre modèle en utilisant XML Schéma (Abascal et al., 2005). Avec ce modèle, nous pouvons générer uniquement des fichiers de données, ce qui rend plus aisé le traitement et la manipulation des documents dans le cadre de la recherche de l'information. Les éléments les plus utiles pour la recherche d'information sont les métadonnées insérées par le rédacteur, qui sera assisté d'une part par Nomino pour extraire s'il le souhaite des concepts des paragraphes sélectionnés, et d'autre part par la base de concepts que nous avons définie. En se basant sur la description de la structure semi-formelle d'une thèse, nous avons créé une structure formelle exprimée par XML Schéma à l'aide de l'outil de développement XMLSpy (Berisha-Bohé et al., 2005). Ce schéma comprend 9 types complexes globaux qui seront repris par différents éléments ou types du document et 15 éléments globaux qui apparaîtront dans le corps d'une thèse. Une « Introduction » de thèse est constituée de son « Titre » et d'un ou plusieurs paragraphes (figure 1). Les paragraphes peuvent être « tagués » ou « non tagués », et c'est pourquoi nous avons introduit le terme générique « BlockParagraphe » pour les deux types de paragraphes. Nous les intitulons « tagué » quand ils sont entourés par une ou plusieurs métadonnées (concepts). Donc, au début du paragraphe réside l'entête de la métadonnée « EnteteMetadata ». Dans l'entête, nous trouvons le « TagOuvrant », un (ou plusieurs) « Concept », et la variable booléenne « Précédent ». Le pied de la métadonnée « PiedMetadata » réside à la fin du paragraphe. Cet élément est constitué par la variable booléenne « Suivant », le (ou les) « concept » déjà apparu(s) dans l'entête et le « TagFermant ». La présence de tous les éléments (entête de métadonnée, paragraphe et pied de métadonnée) est obligatoire dans un paragraphe « tagué ». C'est pourquoi nous avons défini les cardinalités minimum de chaque élément à 1. Par contre, un ou plusieurs concepts peuvent entourer un ou plusieurs paragraphes successifs. De même, pour les structures « EnteteMetadata » et « PiedMetadata », tous les éléments les constituant sont obligatoires. Comme nous venons de le souligner, plusieurs concepts peuvent apparaître dans un paragraphe ou dans une suite de paragraphes. De cette manière, une introduction contenant plusieurs paragraphes peut contenir plusieurs métadonnées. De la même façon, seront construites les « Parties » (un groupement de chapitres traitant la même approche comme par exemple l'état de l'art, ou le développement du prototype), les « Chapitres », les « Sections » et les « Sous-sections » de la thèse, qui sont des regroupements de paragraphes. Les paragraphes eux -mêmes peuvent également contenir plusieurs métadonnées, au début, mais aussi dans le corps. Cela est possible par le regroupement de plusieurs blocs de texte (qui sont la plus fine partie de la structure du document « THESE ») entourés par des métadonnées de la même façon que les blocs de paragraphes. L'utilisation des variables booléennes « Précédent » et « Suivant » est nécessaire pour la gestion des blocs de texte. Si, par exemple, un segment sémantique est constitué de la dernière phrase d'un paragraphe courant, et des deux premières phrases du paragraphe suivant, nous allons être capables de reconstituer le segment au delà de la structure logique « Paragraphe » grâce à ces éléments booléens. Ainsi, le rédacteur pourra insérer des métadonnées dans n'importe quelle partie du corps de la thèse en fabriquant un document bien décrit. Grâce à ces métadonnées, l'application pourra localiser l'information pertinente durant un processus de recherche. Afin de simplifier l'utilisation des métadonnées dans notre modèle, nous avons décidé d'utiliser des attributs. Pour cela, un « ParagrapheTague » peut être composé d'un ou de plusieurs « Paragraphe » qui peuvent eux mêmes posséder (être composés de) une ou plusieurs « Metadata » avec un attribut nommé « Concept » (figure 2). Pour améliorer l'accès au contenu des thèses, nous proposons d'ajouter les tags sémantiques lors de la création du document selon trois modalités : (1) Manuellement : à partir des choix propres à l'utilisateur, (2) A partir d'un outil de TAL permettant l'extraction automatique de concepts du document ou de parties du document, avec une possibilité de sélection possible des concepts, par l'auteur, (3) A partir d'une base de concepts du domaine proposée à l'utilisateur. En sachant que c'est l'auteur qui connaît le mieux sa thèse, l'insertion manuelle des tags sémantiques permet de caractériser la thèse en faisant confiance à l'auteur. Au cours de la saisie, les annotations peuvent être utilisées pour ajouter des informations non prévues par le concepteur du document (Bringay et al., 2004). La recherche d'information en exploitant les métadonnées comme des « annotations » permettra d'accéder aux ressources selon leur contenu plutôt que par simples mots-clés. Notre prototype permet d'effectuer balisage logique et sémantique de la thèse. A partir des résultats obtenus, nous avons constaté que la thèse rédigée de cette manière est mieux organisée. L'auteur doit prendre en compte le schéma XML afin de valider sa thèse. Les balises sémantiques permettent de donner plus de sens à la thèse. C'est par le biais de ces balises que l'utilisateur pourra ensuite obtenir l'information pertinente. Le prototype construit pour la recherche d'information concerne les fonctionnalités actuelles du projet CITHER (recherche par titre, par nom de l'auteur, par date de soutenance) et propose de nouvelles fonctionnalités pour extraire des fragments pertinents des thèses. Ainsi, l'utilisateur peut choisir entre la restitution par fragments, par chapitres, par résumé, etc., mais aussi par la thèse entière. Nous avons effectué quelques tests afin de valider les possibilités obtenues en utilisant notre prototype par rapport à la version initiale de CITHER. Même si les tests restent encore limités, les premiers résultats de nos travaux semblent tout à fait prometteurs. La prochaine étape est de passer à une plus grande échelle. Notre travail s'inscrit dans le cadre du projet CITHER, projet de mise en ligne d'une bibliothèque numérique de thèses en utilisant le format PDF. Une des restrictions imposée par ce format est que lors d'une session de recherche il est impossible de sélectionner exclusivement des extraits pertinents. Le problème réside dans le manque de précision des métadonnées utilisées. Notre approche vise à permettre la recherche d'information pertinente en proposant un nouveau modèle de documents pour les thèses, fondé sur l'utilisation de nouvelles métadonnées. Nous proposons donc à l'auteur de la thèse de décrire son document avec des métadonnées caractérisant le contenu de sa thèse. Afin d'aider l'auteur dans sa démarche de description, nous avons envisagé : (1) l'utilisation d'un outil de TAL capable d'extraire automatiquement des concepts d'une thèse et (2) la construction d'une base de concepts, à partir de thèses du domaine, disponible pour proposer de nouvelles métadonnées. La recherche d'information pertinente, telle que nous l'envisageons, s'appuiera sur de nouvelles métadonnées rajoutées au sein de la thèse comme des « tags sémantiques ». Dans cet article, nous avons présenté notre proposition d'un nouveau modèle de document pour les thèses permettant un accès pertinent à l'information. Cette proposition est fondée sur l'utilisation d'un outil de TAL et sur l'étude de la structure logique et sémantique des thèses. Nous avons également conçu un système qui permet au doctorant, pendant la phase de rédaction de sa thèse, d'ajouter des « tags sémantiques » à sa thèse selon trois modalités : (1) sur choix propre de l'utilisateur, (2) en s'appuyant sur la base de concepts et (3) en utilisant le logiciel Nomino pour l'extraction des concepts d'un fragment de texte sélectionné. Dans notre système, les traitements sont transparents à l'utilisateur. L'utilisateur n'a pas besoin de connaître XML pour ajouter les balises. De plus, grâce à l'utilisation des balises le doctorant est capable de mieux organiser sa thèse et évitera les répétitions des concepts. Notre système permet ainsi de restituer à l'utilisateur plusieurs fragments de thèse(s) pertinent(s). Nous travaillons actuellement sur l'aspect recherche d'information. Nous proposons d'utiliser une ontologie qui permettra au système de réaliser une expansion de la requête en utilisant des concepts proches de ceux proposés par l'utilisateur (Gruber et al., 1993; Maedche et al., 2002; Abascal et al., 2003a) .
Les projets de bibliothèques numériques actuels offrent à l'utilisateur l'accès aux thèses à partir d'une recherche qui ne permet pas d'extraire les parties pertinentes de la thèse et ne renvoie que la thèse intégrale. Ainsi, l'utilisateur doit lire des chapitres entiers pour connaître les parties qui correspondent à son besoin. Le projet CITHER (Consultation en texte Intégral des THèses En Réseau) de l'INSA de Lyon dans lequel s'inscrit cette étude, porte sur la mise en ligne des thèses. Nous proposons de permettre un accès pertinent au contenu des thèses grâce à l'utilisation de « tags sémantiques » rajoutés, par le doctorant, au sein de sa thèse lors de la rédaction. L'exploitation de ces tags permet de cibler la recherche et ainsi mieux satisfaire l'utilisateur. Notre travail porte d'une part sur la constitution d'une base de concepts utilisés pour le « tagage » de la thèse et, d'autre part, sur la définition d'un nouveau modèle de documents à partir des différentes structures de la thèse.
sciencesInfo_08-0226813_tei_DN_102_0009.tei.xml
termith-408-communication
PENDANT LES ANNÉES CINQUANTE 1, pour résoudre la « crise de la documentation scientifique », de grandes banques de références documentaires sont créées, qui mettent à disposition des fonds d'articles de revues, de rapports techniques, de communications de congrès, etc. Ces banques de données prennent appui sur les capacités des premiers ordinateurs et sont rapidement associées à des serveurs spécialisés qui en proposent l'accès à travers les réseaux de télécommunication, d'abord aux États-Unis avec Dialog/Lockeed et Orbit (On line Retrieval of Bibliographic Information Timeshared) au début des années soixante, puis partout à travers le monde, notamment en France avec Questel en 1978. Il apparut bientôt que les index produits pour répondre à des usages « papier » (KWOC, KWIC) ne suffisaient plus à répondre aux besoins. Le traitement documentaire à partir de descripteurs, puis de thésaurus documentaires 2 [<hi rend="italic">voir hors texte page 78</hi>] apportait une réponse concrète et efficace pour un accès à distance à cette documentation. Ces thésaurus sont donc apparus dès l'origine de l'informatique, grâce aux possibilités conjointes de cette technique et de la logique combinatoire. La recherche documentaire en ligne associée aux thésaurus documentaires a donc à présent cinquante ans. Parmi ces thésaurus pionniers, citons le MeSH (1964) associé à la base Medlars et établi à partir de l'Index Medicus (index d'articles publié entre 1879 et 2004) ou le Chemical Engineering Thesaurus réalisé par Mortimer Taube (1961). En France, le système DARC (Description, Acquisition, Recherche et Corrélation) dédié à la chimie fut développé par Jean-Émile Dubois à partir de 1954. Ce fut une époque d'intense « production documentaire » et de construction parallèle de thésaurus : il s'agissait de capitaliser les ressources scientifiques et techniques et de les rendre accessibles via les réseaux de télécommunication. Les serveurs proposent un accès unifié à un ensemble de bases documentaires, aux contenus variés (chimie, physique, nucléaire, médecine, etc.), dont les structures documentaires et les langages contrôlés sont adaptés à ces données, l'ensemble étant exploitable par un langage de commande informatique spécifique à chacun des serveurs. Aux difficultés inhérentes à la recherche multisources – que certains découvrent aujourd'hui sur le Web – s'ajoutaient alors des obstacles dus à la faiblesse des débits et aux coûts élevés des équipements nécessaires, obstacles freinant considérablement l'utilisation de ces fonds. Les serveurs ont donc cherché en permanence à améliorer l'efficacité de leurs services, d'abord en enrichissant dès les années quatre-vingt les fonctionnalités proposées : recherche sur index groupés (index de base), recherche multibases (OneSearch de Dialog ou Duplicate de STN; DialIndex de Dialog qui fonctionne comme les métamoteurs actuels), tri des résultats, etc. Parmi ces fonctionnalités d'orientation technique, citons une fonction dédiée aux langages documentaires, zoom, qui oriente l'interrogateur vers les sources les plus adaptées à partir de l'analyse des termes contrôlés recueillis au cours d'une première recherche et affichés par ordre décroissant d'occurrence et par bases. Toujours à cette période, l'interrogation plein texte sur les notices est proposée avec de nombreux opérateurs dont ceux de proximité. Les ressources des micro-ordinateurs ont été mises à contribution dès l'apparition de ces outils, et les offres sur cédérom se sont multipliées au début des années quatre-vingt. En France, le Minitel, souvent émulé sur un ordinateur pour bénéficier des possibilités de stockage, a été un vecteur de démocratisation de l'accès à ces ressources documentaires. L'intérêt porté à ces ressources d'information par des publics spécialistes des domaines considérés mais non-spécialistes de la recherche documentaire a conduit les serveurs à développer différentes offres. Des interfaces guidées, accompagnées d'une structuration par grands domaines des dizaines de banques de données proposées, offraient d'honnêtes solutions aux non-professionnels de la recherche documentaire, mais aussi aux spécialistes occasionnels. Des interfaces hors ligne – STN Express de STN ou Imagination de Questel-Orbit – permettaient aux spécialistes visés, sans contrainte de coût de connexion, de préparer des requêtes précises et de les sauvegarder. Dans toute cette effervescence, les vocabulaires contrôlés, en particulier les thésaurus, sont restés sous leur forme papier pour l'interrogation de ces bases professionnelles. Avec l'arrivée du Web au début des années quatre-vingt-dix, les serveurs, cherchant à étendre leur clientèle aux internautes, ont poursuivi leurs efforts sur ce nouveau réseau qu'est l'internet. Des interfaces similaires à celles des moteurs de recherche furent proposées : simplifiées à l'extrême, avec toutefois la possibilité d'utiliser des commandes associées à des opérateurs plus complexes et plus efficaces. Puis plus récemment (2000), et parallèlement à une concentration du marché des serveurs, le formidable développement de l'informatisation des activités et de la production de documents numériques a conduit à deux stratégies distinctes suivant les familles de données diffusées. Les serveurs « presse » ou proposant des informations à haute teneur textuelle, fortement numérisées comme pour la documentation juridique 3, ont pu passer rapidement à des techniques d'accès « texte intégral » et de diffusion numérique des documents, avec une politique commerciale et technique de mise à disposition directe sur les intranets. Les traitements des corpus éditoriaux se sont fortement automatisés tant sur le plan de l'indexation 4 que sur celui de leur classification, cette dernière pouvant être soit totalement automatique, soit supervisée à partir de vocabulaires contrôlés existants. Fréquemment, une indexation humaine, plus légère, complète ces traitements informatisés. Aux origines des termes descriptor, thesaurus et information retrievalLe principe du descriptor * est posé dès les années cinquantepar Calvin Northrup Mooers **, du Massachusetts Institute of Technology (MIT), dans le cadre de solutionsmécanisées. Celui -ci introduit les termes descriptor et information retrieval dans sa thèse de 1949. Ces premières réalisations ont conduit au thésaurus comme dictionnaire de descripteurs. Le terme même de thesaurus appliqué en recherche documentaire (information retrieval) est souvent attaché au nom de Peter Luhn d'IBM (1957). Mais avec Luhn le thésaurus est associé à des traitements automatiques statistiques. Nous pensons plus vraisemblable d'inscrire la notion classique de thésaurus documentaire (utilisé pour l'indexation humaine) dans la descendance des travaux d'Helen Louise Brownson, de l'American National Science Foundation (ANSF). Lors d'une intervention faite à la « Dorking conference on classification research », pendant cette même période (1957), celle qui avait précédemment été secrétaire de Vannevar Bush, le père de l'hypertexte, parlait en effet d' « application of a mechanized thesaurus based on networks of related meanings ». « Descripteur : mot-symbole ou groupe de mots, représentant une idée ou un concept, généralement de portée assez large », utilisé par Mooers dès 1947 (voir : www. cbi. umn. edu/ collections/ inv/ cbi00081. html et http:// web. utk. edu/ alawren5/ mo). Le système UNITERM développé par Mortimer Taube (IBM) s'appuyait sur les propositions de Mooers [1 ]. Voir : Eugene Garfield. « A tribute to Calvin N. Mooers, a pioneer of information retrieval ». The Scientist, 1997, vol. 11, n° 4, p. 9. http:// garfield. library. upenn. edu/ commentaries/ tsv11(06)p09y19970317. pdf En même temps que cette numérisation (au sens de production d'information numérique), un important travail de structuration 5 des documents et des méthadones a été mené. Pour d'autres types de secteurs où le développement du document numérique s'avérait plus difficile 6, le modèle d'accès à l'information est resté le même, les serveurs facilitant l'acquisition des documents directement à partir de la notice. Par ailleurs, la démocratisation de la publication et de la diffusion électroniques a eu pour effet de pousser certains producteurs de bases documentaires à devenir leurs propres diffuseurs et à innover à partir d'une réflexion sur les usages de leurs publics et les spécificités de leurs fonds. On peut citer l'interrogation des bases brevets en langage naturel via la classification des brevets avec Lingway 7 ou encore l'interrogation conjointe d'Embase et Excerpta Medica. Les langages contrôlés gardent ici leur rôle d'accès par sujets, mais le plus souvent en back office comme pour la fonction d'expansion du MeSH sur PubMed [3 ]. Notons que le développement d'interfaces dédiées à des fonds particuliers est une constante chez les serveurs 8. Dans tous les cas, les ressources continuent à être indexées avec des thésaurus et un grand nombre de nomenclatures spécialisées. Parallèlement à ce mouvement lié aux banques de données professionnelles et au même moment, de nombreux changements ont lieu dans les centres documentaires et les bibliothèques spécialisées. Les années soixante-dix voient la multiplication des bases documentaires dans les organismes de recherche et les grandes entreprises, avec à la clé la construction de thésaurus spécialisés. Ce qui est accessible sur les réseaux informatiques des entreprises reste la notice avec les indexats 9. Le thésaurus lui -même est encore utilisé sur support papier sous ses différentes formes de présentation : liste alphabétique (globale avec ou sans environnement sémantique), liste permutée, champs sémantiques et aussi schémas fléchés. La conception et la maintenance de ces thésaurus font souvent l'objet d'applications internes. Mais cette période voit aussi se développer des logiciels de gestion documentaire et des modules « thésaurus » associés, comme ceux de Mistral (Bull), de Basis (Open Text) ou de Texto. La micro-informatique, au tout début des années quatre-vingt, a donné une forte impulsion aux bases documentaires et aux thésaurus. L'informatique sur micro-ordinateur offre alors aux documentalistes la possibilité de rechercher et de sélectionner des descripteurs au sein du thésaurus, celui -ci étant « embarqué » dans le logiciel. Le modèle indexation-thésaurus-recherche est alors conforté et s'installe pour les vingt années suivantes avec l'apparition de modules dédiés utilisables d'une façon identique pour la recherche et pour l'indexation : Polybase de Polyphot, JLBDoc, le module Thesauplus proposé avec Texto ou encore Superdoc sont ainsi disponibles dès 1982. Mais l'informatique de l'époque a poussé les développeurs à opérer certaines simplifications fonctionnelles : ainsi de la polyhiérarchie, des fonctions de renvois d'une notion vers deux descripteurs ou encore des schémas fléchés 10, pour ne citer que trois fonctions expressément décrites dans les normes des années soixante-dix. Mises en œuvre manuellement dans une période plus ancienne, elles sont quasiment absentes des modules « thésaurus » des progiciels documentaires de cette période. Entre 1990 et 1998, la GEIDE 11 n'a pas modifié ce schéma global. Durant vingt ans, une partie importante de la profession a fini par adopter la vision des thésaurus telle qu'elle s'est construite dans ces centres documentaires et bibliothèques spécialisées. Parallèlement au déploiement des bases documentaires dans les centres documentaires des organismes, les « technologies de l'information » étaient utilisées pour informatiser de nombreuses activités professionnelles, en premier lieu la production des documents et plus généralement de l'information et des données. Cette informatisation s'est opérée dans les organismes à des rythmes différents suivant les secteurs professionnels et les domaines, mais de façon continue. Vivier de nouvelles pratiques liées à l'information et aux documents numériques dans le cadre de systèmes de veille, de gestion de connaissances et plus récemment de records management, cette « informatique documentaire » s'est très tôt orientée vers le « texte intégral » et plus récemment vers l'articulation de ces techniques automatiques avec des nomenclatures métiers. Face à des flux et des volumes toujours plus importants, se trouve ici cristallisée la double problématique documentaire de fédération de ressources multiples et variées et d'exploitation du contenu d'importants corpus numériques. Les vocabulaires contrôlés ou taxonomies, pour utiliser le vocabulaire de ces environnements professionnels, sont plus que jamais présents, sous diverses formes : le thésaurus dans sa version simplifiée en liste de synonymes, de multiples nomenclatures associées à des métadonnées métiers, des classifications pour les gestionnaires de contenus et pour les portails, un outillage évolué avec des moteurs linguistiques, ou encore des ontologies pour des dispositifs de gestion de connaissances. Un certain nombre de rachats – Askonce par Documentum en 2004 pour la fédération de ressources, Datops en 2006 par LexisNexis pour l'exploitation de contenu, et Synapse par Factiva en 2005 pour la gestion des thésaurus et des taxonomies 12 – constituent des indices forts de cette situation. À partir des années quatre-vingt-dix, la technologie du Web a impulsé un formidable mouvement autour des documents numériques, de l'accès à l'information via les réseaux informatiques, mais aussi autour de l'idée d'une informatique plus simple, plus souple, plus riche. Dans les centres documentaires et les serveurs de banques de données professionnelles dès 1990, un peu plus tardivement dans les bibliothèques, le Web a été utilisé comme un autre réseau de télécommunication pour la diffusion des banques de références documentaires ou des catalogues, à la suite de Transpac et du Minitel. Après une période, courte mais douloureuse, entre 1993 et 2000, du tout automatique (indexation, classification) où les principes mêmes des bases documentaires et bien sûr des thésaurus étaient remis en cause, on est revenu depuis quelques années à des positions plus modérées mais aussi plus crédibles : il s'agit désormais, au lieu de les mettre systématiquement dos à dos 13, de prendre en compte le meilleur des différents modèles ou techniques. Il nous semble que l'on assiste aujourd'hui à une certaine convergence des problématiques documentaires entre ces trois environnements – organismes, lieux documentaires dédiés (archives, bibliothèques, centres documentaires) et serveurs de banques de données professionnelles. Chacun avait abordé et traité la « documentation informatisée » selon des méthodes et avec des outils différents, traçant durant ces cinquante dernières années des histoires relativement autonomes. Mais aujourd'hui chacun prend en charge des documents numériques articulés à tout un ensemble de méthadones construites pour partie à partir de vocabulaires contrôlés; les interfaces orientées utilisateurs, ergonomiques, prennent toutes en compte les règles de l'art du Web; et les outillages informatiques structurés optimisent et simplifient la production et l'accès à l'information. Si un consensus semble se dessiner sur la nécessité d'innover en exploitant au mieux les techniques et méthodes les plus nouvelles, la tendance est encore grande de s'appuyer sur des pratiques anciennes pour définir les architectures des systèmes d'information. Ainsi du document qui a du mal à sortir de son schéma traditionnel ou des thésaurus coincés entre l'indexation et la recherche. Et que dire de l'utilisateur, confiné depuis les origines – image d' Épinal – dans le rôle de destinataire de systèmes mis en œuvre pour lui ? Notion de document et place des utilisateurs : voilà deux points qui devraient structurer nos réflexions sur la place à venir des vocabulaires contrôlés et plus particulièrement des thésaurus .
Quelles relations entretiennent les thésaurus documentaires et l'informatique documentaire ? Cette question est abordée par Sylvie Dalbin, sous l'angle technique des fonctionnalités et des usages, dans une autre contribution à ce numéro. Dans le présent article, elle se place dans une perspective historique pour étudier un demi-siècle de relations marquées par l'apparition des serveurs de banques de données professionnelles, par les évolutions induites dans les centres documentaires, dans les entreprises et dans les organisations, puis par l'apparition et le développement du Web.
sciencesInfo_08-0113840_tei_DOCSI_idPAS_D_ISBN_pu2007-01s_sa14_art14.tei.xml
termith-409-communication
Il est aujourd'hui établi que le développement de nouveaux produits repose sur un ensemble de processus socio-techniques complexes. Dans ce contexte, les phases amont des projets de conception (avant-projets, études préliminaires, projets de R&D. ..) constituent des périodes propices à l'introduction d'innovations technologiques. Nous avons souligné dans de précédents travaux (Legardeur el al., 2000) les difficultés et les caractéristiques de ces phases préparatoires aux projets, en particulier lorsqu'il s'agit de proposer de nouvelles idées en forte rupture avec les dispositifs routiniers. En effet, certains acteurs sont parfois tentés d'explorer de nouvelles alternatives innovantes basées par exemple sur de nouveaux concepts de solutions techniques, sur des nouvelles technologies ou sur l'introduction de technologies utilisées dans d'autres secteurs d'activités. Ces acteurs, porteurs de nouvelles idées potentiellement innovantes, engagent des stratégies particulières afin de les valoriser et de les faire partager par l'ensemble des acteurs. Il en découle des processus informels peu structurés qui interviennent parallèlement aux processus « officiels » du projet proprement dit. Pourtant, ces phases d'intéressement, de négociation et de prospective constituent des enjeux stratégiques car elles permettent parfois d'aboutir à des solutions innovantes exploitables en projet. Dans ce contexte, ces acteurs sont alors confrontés à des dispositifs peu stabilisés sur le plan du réseau d'acteurs et des connaissances mobilisées. Notre problématique est d'étudier comment les mécanismes informels de coopération qui interviennent lors des phases amont de conception peuvent être instrumentés. Notamment, il s'agit d'étudier comment les informations manipulées par les acteurs peuvent être capitalisées, structurées et réutilisées pour faciliter la diffusion et l'apprentissage d'idées nouvelles et donc de l'innovation. Dans cette optique, nous présentons dans la première partie de cet article, les principales analyses d'un cas d'étude de terrain industriel concernant l'introduction de nouveaux matériaux pour la conception de véhicules au sein de l'entreprise Renault VI. Dans un deuxième temps, nous présentons la maquette d'un environnement collaboratif, nommé ID2, destiné à favoriser la coopération des acteurs. Cette maquette a été spécifiquement développée à partir du cas d'étude industriel et notamment pour instrumenter les processus informels des phases amont de conception. Nous considérons alors dans une troisième partie dans quelle mesure un outil de SGDT (systèmes de gestion de données techniques, en anglais PLM Product Life cycle Management, ou PDM Product Data Management) générique peut permettre d'instrumenter ces processus informels. En effet, bien qu'ils soient reconnus comme des environnements favorisant une coordination préétablie de processus élémentaires (Miller, 2000), nous proposons alors une configuration possible basée sur l'environnement Windchill (PTC, 2002). Nous concluons alors sur les perspectives qu'ouvrent ces orientations vis-à-vis de l'évolution des outils de PLM. Notre démarche de recherche est essentiellement basée sur une approche socio-technique (Boujut et Tiger, 2002) qui consiste en l'observation participante et l'étude empirique de différents cas industriels. Les résultats que nous présentons font suite à une étude de terrain de 18 mois qui s'est déroulée dans un des bureaux d'études de l'entreprise Renault VI. Le choix des technologies y est particulièrement orienté dès le début d'un projet de conception. Ce choix reste généralement dans le domaine des technologies de l'acier et des procédés associés (laminage, emboutissage, pliage, etc.), qui sont traditionnellement utilisés et connus par les concepteurs. Par contre, nous avons pu encourager, par notre participation en tant qu'acteur dans un des projets, l'introduction de matériaux composites de type SMC (sheet molding compound) sur une application innovante. L'objectif principal de ce projet était de reconcevoir une partie d'un véhicule industriel en proposant, dès les phases amont du projet, la technologie des matériaux composites SMC. De ce fait, nous nous sommes retrouvés dans une situation très paradoxale car, bien que le matériau et le process SMC soient connus et utilisés industriellement depuis plus de 30 ans, dans le contexte du bureau d'étude partenaire, cette technologie était considérée comme totalement nouvelle par les acteurs qui en avaient une connaissance très limitée. Dans ce contexte, nous avons pu observer un décalage et des changements dans les pratiques de conception lors du déroulement de ce projet innovant par rapport aux situations de conception plus routinières basées sur des habitudes de conception fortement liées et ancrées à l'histoire du produit et à la technologie acier traditionnellement utilisée. De nouvelles connaissances et de nouveaux participants dans le processus de conception ont ainsi été introduits. Suite à cette première étude de terrain, nous avons cherché à étudier les dispositifs qui pouvaient exister au sein de l'entreprise partenaire pour favoriser l'introduction d'innovation produit/process lors des phases amont de conception. Nous avons pu identifier certaines situations où la question du codéveloppement entre le bureau d'études et un fournisseur expert d'une technologie différente est parfois mise en tension autour du choix du couple matériau/process. Nous avons pu observer que ces situations sont souvent encouragées par un acteur particulier, dénommé l'expert matériaux, qui constitue un acteur-clé dans l'entreprise partenaire pour encourager l'intégration de nouvelles technologies. De ce fait, nous avons analysé l'activité de ces acteurs en suivant ces derniers sur le terrain, en observant leurs pratiques et en les interrogeant sur les méthodes qu'ils mettaient en œuvre pour proposer de nouvelles technologies aux bureaux d'études. Notre analyse de terrain est essentiellement basée sur la théorie de l'acteur réseau proposée par (Callon et Latour, 1985). Notre étude montre que le rôle de l'expert matériaux est multiple car il doit pouvoir fournir des conseils et des données sur le matériau ou sur le process mais il joue également un rôle-clé d'acteur pilote dans le prédéveloppement de nouvelles solutions innovantes. En effet, il se retrouve parfois dans une position de « facilitateur » et d'animateur de compétences. Son rôle est de diffuser et de faire accepter une idée nouvelle, qui n'est encore qu'au stade de concept pour la faire passer progressivement au stade d'application industrielle. C'est ce mouvement que nous caractérisons ici de processus d'innovation. Pour cela, l'acteur pilote est amené à constituer par stratégie d'intéressement, un réseau de compétences au sein duquel il se retrouve en position centrale vis-à-vis de tous les métiers de son entreprise et du fournisseur. Il analyse les différents besoins, les traduit, et fait circuler les contraintes et les informations qu'il a recueillies auprès de ses interlocuteurs, afin de trouver un vecteur commun pour le développement de l'idée. L'expert matériau endosse un statut stratégique d'acteur d'interface. On pourrait être tenté de croire que, de par les qualités intrinsèques de l'innovation proposée, les différents acteurs (experts métiers, responsables techniques et opérationnels, chefs de projet…) se mobilisent spontanément pour concrétiser ces nouvelles alternatives. Dans la pratique, cette dynamique d'adoption de l'innovation n'est pas toujours aussi directe et dépend surtout de l'aptitude d'un ou plusieurs acteurs pilotes (l'expert matériaux par exemple) à susciter l'adhésion de nouveaux alliés et instaurer la coopération entre ceux -ci. En effet, nous avons montré que dans un univers de conception orienté vers les technologies de la métallurgie, il n'est pas évident pour une solution composite de s'imposer. Les avantages des matériaux composites (légèreté, palette de formulations, faible sensibilité à la corrosion, capacité à intégrer plusieurs fonctions, etc.) ne sont pas uniquement confrontés aux arguments techniques des technologies déjà en place. Le processus d'adoption, ou au contraire de rejet, d'un nouveau matériau s'inscrit dans un processus plus complexe qu'une « simple » confrontation technique entre process. A ce sujet, dans le domaine de la sociologie, certains travaux (Callon et Latour, 1985) proposent le modèle de la traduction pour décrire le processus d'innovation où chacun résiste ou adhère à une innovation en fonction de ses intérêts propres. Une première analyse des logiques d'acteurs, des dynamiques de connaissances mobilisées et des processus d'apprentissage dans ce contexte de forte instabilité, lié au degré d'incertitude des projets observés, montre que les acteurs remettaient en cause les dispositifs existants. Ces observations nous ont conduits à formuler trois hypothèses qui caractérisent les processus d'innovation suivis (Legardeur et al., 2000). Premièrement, il n'y a pas d'innovation sans une certaine évolution de l'organisation et sans la mise en réseau des acteurs. De leurs interactions émerge un dispositif de « qualification » (ou d'acceptation) du nouveau matériau porté par les promoteurs d'une solution innovante, et un dispositif de « déqualification » (ou de rejet) porté par les promoteurs d'une solution plus routinière. Deuxièmement, il n'y a pas d'innovation à savoir constant et sans création et partage des connaissances. Dans notre cas, l'introduction d'une nouvelle technologie conduit la majorité des acteurs à découvrir un matériau et un procédé et implique le développement de nouvelles connaissances au sein du réseau. L'enjeu est donc d'organiser l'émergence et la confrontation des savoirs produit/process. Troisièmement, il n'y a pas d'innovation sans remise en cause des outils et dispositifs d'évaluation du couple produit/process. En effet, dans le cas de projets plus routiniers, la cartographie des acteurs impliqués et les principaux critères mobilisés sont relativement vite établis et stabilisés (souvent aspects techniques tels que choix de solutions, calculs, simulations et aspects économiques tels que devis ou estimations). Par contre, lors des situations de projets innovants, nous avons vu que cette cartographie est très instable avec l'arrivée progressive de nouveaux acteurs, apportant de nouveaux critères d'évaluation à différents stades du projet. Nous avons vu à travers l'analyse du cas d'étude précédent, que l'innovation est accompagnée généralement d'une certaine « déstabilisation » de l'organisation. Dans ce paragraphe, nous allons insister sur la nécessité de prendre en compte cette évolution pour favoriser la diffusion de l'innovation produit/process. A ce sujet, (Crozier et Friedberg, 1977) ont défini le concept de zone d'incertitude en expliquant que tout l'effort d'une organisation consiste à maîtriser les aléas auxquels elle est confrontée. C'est ce qui explique la définition des responsabilités, de procédures, de cahier des charges, de contrats, qui tenteront de rendre l'avenir et les comportements prévisibles. Cependant, il subsiste toujours des imprévus et l'innovation favorise cette émergence et soulève alors de multiples zones d'incertitudes. L'existence même de ces zones d'incertitude ouvre des possibilités de jeu entre les acteurs de l'organisation. C'est donc une source de conflit où les jeux de pouvoir vont s'installer. Identifier ces zones d'incertitude permet de déterminer les lieux où vont s'élaborer des alliances, des résistances et des négociations entre les acteurs et finalement conduire à faire progresser l'innovation. L'opposition entre innovation et organisation se retrouve dans l'observation de situations de travail présentées dans (Alter, 1993). Nous nous intéressons plus particulièrement aux « espaces d'innovation » qui se déploient, en marge de l'organisation, dans la structure informelle de l'entreprise. Dans les « phases préparatoires au projet », il arrive parfois qu'un acteur, porteur d'une nouvelle idée, explore différentes alternatives, en rassemblant un certain nombre d'informations, en constituant un premier réseau d'acteurs, en identifiant un certain nombre d'avantages et d'inconvénients de la nouvelle solution proposée, etc. Ces phases présentent un caractère fortement informel car, fréquemment ce type de développement se développe de manière non contractuelle, en dehors des projets officiels, sans ressource allouée. Les processus de coopération et de confrontation des points de vue impliquent alors des modes de partage et d'échange d'informations qui empruntent souvent des circuits informels et peu identifiés au sein des entreprises. Cependant, les résultats de ces phases, approuvés et validés par les décideurs de l'entreprise, peuvent alors parfois conduire au lancement de projets officiels et à l'émergence d'applications innovantes. A partir des études menées au sein de Renault VI, nous avons procédé à la spécification d'un environnement collaboratif s'appuyant sur la structuration autour d'un « projet d'innovation » de la collaboration des acteurs et proposant une structuration des informations manipulées. Sous le pilotage de chaque acteur pilote, porteur d'une proposition innovante, cet environnement doit tracer, classer et diffuser les informations manipulées et favoriser les interactions entre les acteurs en vue de permettre le transfert de cette proposition innovante vers un statut d'industrialisation. Il vise à apporter une aide opérationnelle en instrumentant les stratégies développées par l'acteur pilote (l'expert matériaux par exemple) lorsqu'il se retrouve en situation de porteur de l'innovation produit/process. Certains travaux portent sur la possibilité de réaliser et de capitaliser une construction commune du produit en cours de conception en tenant compte de l'ensemble des intervenants du cycle de vie du produit (Tichkiewitch, 1995). Les acteurs ont besoin d'informations concernant la solution (matériaux utilisés, côtes…) mais ils cherchent également à retrouver des informations sur les phases antérieures de conception comme l'historique des différents critères de décisions, le contexte initial du projet, les alternatives de conception (Karsenty, 1996). L'approche proposée est de modéliser en cours d'action une certaine représentation du produit sous forme de « concepts » (représentant les solutions possibles de choix de matériaux et/ou de procédés) évalués par des « critères ». Cela permet également de conserver une représentation synthétique de la logique de conception mise en æuvre par l'ensemble des acteurs pour évaluer et faire évoluer la solution. Cet outil est articulé autour de quatre concepts principaux : construire un tableau de bord du projet associant les concepts et les critères, permettant l'évaluation des différentes alternatives, favoriser la mise en réseau des acteurs, argumenter et crédibiliser les solutions proposées, capitaliser et réutiliser les informations pour favoriser les apprentissages. La figure 1 modélise à l'aide d'un diagramme de classe les différents éléments destinés à être mis en œuvre. La classe « évaluation » désigne pour un concept et un critère donnés l'évaluation réalisée par un acteur. Les classes « link », « warning » et « question » permettent la discussion entre les acteurs autour des évaluations menées. Cet outil vise à proposer une représentation synthétique dans toutes les dimensions explorées pour présenter un argumentaire aux décideurs et constituer une source de connaissances sur les projets innovants. Les recherches actuelles dans le domaine du concurrent engineering montrent les difficultés du travail aux interfaces des métiers (Finger et al., 1995) et la nécessité de proposer des supports pour instrumenter ces interactions entre les différents métiers. Les informations issues des différents domaines de compétences (design, conception, marketing, fabrication…) sont formalisées dans ID dans un « tableau concepts/critères TCC » (figure 2). Celui -ci constitue un véritable tableau de bord du projet et permet de montrer à l'ensemble des participants du projet les différents critères mobilisés par les acteurs. Ceux -ci, progressivement définis et proposés, permettent une évaluation comparative des différents concepts proposés par rapport à une solution de référence qui peut être la solution existante à reconcevoir ou la solution idéale à atteindre. Ce support commun a pour but de favoriser le débat au sein du réseau d'acteurs et en ce sens, il intervient comme un objet intermédiaire ouvert (Jeantet, 1998). L'outil fournit ainsi un support pour instrumenter les interactions par l'intermédiaire de trois modes d'annotation : les liens, les questions et les alarmes (figure 2) : les liens permettent aux acteurs de relier deux critères dépendants, les alarmes signalent une remarque d'un acteur sur un critère particulier, les questions illustrent les besoins d'information sur un critère. Chaque apport dans le tableau sous forme de liens, alarmes et questions est validé par l'acteur pilote pour constituer peu à peu l'historique du projet. L'acteur pilote constitue le réseau d'acteurs de son projet d'innovation selon les intérêts stratégiques ou techniques qu'il estime pertinents pour crédibiliser sa proposition à partir de ses « connexions relationnelles » (Régnier, 1995). Lors des phases préparatoires, l'outil proposé permet d'obtenir une synthèse de tous les éléments concernant la logique de conception. De ce fait, cette synthèse permet à l'acteur pilote de construire une justification et une argumentation solide concernant sa proposition de nouvelle technologie. Ces représentations des échanges aux interfaces des métiers sont des supports qui peuvent permettre d'améliorer la coopération et l'apprentissage des acteurs en situation de conception. L'outil ainsi présenté constitue une réponse spécifique au besoin de favoriser l'émergence d'innovations technologiques dans les phases préalables ou initiales des projets de conception de produits nouveaux. ID2 propose une structuration multiniveaux d'informations traditionnellement peu ou pas formalisées, synthétisées via le tableau concepts/critères. Il permet de tracer au fil de l'eau la « logique » du processus d'innovation qui a pour caractéristique d' être non planifiable, car il dépend essentiellement d'acteurs humains qui pensent, agissent, anticipent, développent des stratégies, et s'inscrivent dans des processus non prédictibles. Il assure ainsi la capitalisation de connaissances tacites selon (Nonaka, 1995). Un tel outil pose toutefois des difficultés de déploiement au sein des entreprises : d'un point de vue technique il s'agit d'un outil expérimental, qui de plus s'ajoute aux systèmes déjà en place tels que les outils SGDT, d'un point de vue organisationnel, sa logique basée sur la constitution autonome de réseaux transverses dans l'entreprise implique l'aval des organes de direction et un changement culturel important. Même validé par le personnel impliqué dans l'expérimentation, ID2 n'est toujours pas déployé à ce jour au sein de notre entreprise partenaire. Les outils SGDT sont de plus en plus utilisés aujourd'hui pour coordonner l'évolution des documents produits durant les projets de conception. Dans la partie suivante, nous étudions les conditions nécessaires pour qu'un outil SGDT puisse répondre à ce besoin de diffusion de l'innovation et d'instrumentation de l'informel. A l'origine, destinés à résoudre les problèmes de gestion des fichiers issus des outils CAO (unicité de l'information et versionnement par exemple), les SGDT fournissent à la bonne personne, la bonne information au bon moment, et dans le bon format. Ils gèrent désormais l'ensemble du cycle de vie du produit (Randoing, 1995). Les SGDT évoluent aujourd'hui vers le développement collaboratif de produits (ou CPC Collaborative Product Commerce), renforçant ainsi leur position de système d'information transversal dans l'entreprise. Cette tendance explique aussi pourquoi ces outils se tournent actuellement vers les technologies internet pour construire les interfaces utilisateurs et s'appuyer sur les technologies d'intégration correspondantes avec des applications tiers. Les SGDT deviennent de véritables collecticiels (Johansen, 1988; David et al., 2001) dédiés au travail collaboratif. C'est pourquoi nous souhaitons étudier comment de tels systèmes peuvent être exploitées pour mettre en æuvre les concepts d'instrumentation de l'informel que nous avons identifié au sein du cas d'étude précédent. Pour (CIMdata, 2001) les SGDT reposent sur cinq concepts fondamentaux : la gestion de documents destinée à structurer les informations relatives au produit, à assurer leur unicité, leur accessibilité par les utilisateurs, leur sécurité et leur versionnement via leur cycle de vie; la gestion de processus (ou workflow) qui permet d'automatiser et de contrôler l'évolution des documents de façon dynamique (Liu et al., 2001; Eynard et al., 2002), par le déclenchement de séquences d'actions prédéfinies; la gestion de la structure produit, composant métier spécifique d'un SGDT : la gestion de la classification, participant à la standardisation des produits; la des projets, qui commence à être intégrée ou associée aux SGDT. Nous nous focalisons ici sur les deux premiers concepts, essentiels pour pouvoir répondre aux besoins de structuration de l'informel. Dans ce contexte, une information produit est représentée dans un SGDT par un objet de type document. Celui -ci peut être associé à un fichier externe (CAO, bureautique…) contenant des informations non gérées par le système. Un objet est caractérisé par un cycle de vie qui représente ses différents états de sa création à son obsolescence. A chacun d'eux sont associés des droits pour lire, modifier ou valider l'objet. La figure 3 présente le cycle de vie de la classe « critère », introduite dans la figure 1. Dans un SGDT, un workflow décrit une séquence de tâches connectées entre elles par des liens séquentiels et des conditions autorisant des boucles. Il définit aussi les droits applicables aux utilisateurs au niveau de chaque activité. Ce workflow s'applique sur un objet afin de gérer son cycle de vie. La figure 4 montre le workflow de validation associé à la classe « critère » et pilotant les changements d'états associés. Afin de rendre générique la configuration des workflows et des cycles de vie, le concept de rôle s'ajoute à celui d'utilisateurs et de groupes. Nous abordons à présent l'exploitation de ces principes en vue de réaliser une maquette opérationnelle répondant au cas d'étude précédent. Nous nous sommes appuyés sur le SGDT Windchill (PTC) et en particulier sur le composant Project Link du fait de son IHM et des fonctions plus adaptées à la collaboration d'acteurs au sein d'un projet commun. En premier lieu nous avons considéré les classes définies dans la figure 1 en regard de leur utilisation. Un SGDT ne permettant pas de réaliser l'équivalent du tableau concepts/critères, nous avons choisi une structure arborescente pour représenter ses éléments : en premier lieu un dossier représentant chaque concept proposé; et en second lieu un document générique « évaluation » instancié pour chaque évaluation d'un critère. La figure 5 représente dans sa partie gauche la structure arborescente résultante de dossiers et de documents pour un projet d'innovation produit/process et correspondant au tableau de bord du projet. Nous voyons sur sa partie droite le détail de l'évaluation du document associé au critère « Assembly » : son état actuel (« proposition ») et son historique (2 itérations réalisées). A partir de cette structuration, les échanges entre les acteurs relatifs aux évaluations peuvent être tracés sous Windchill Project Link à l'aide de liens commentés entre les documents « évaluation de critère » (classe « lien »), mais aussi à l'aide forums de discussion qui peuvent être associés au projet comme à chaque document « évaluation de critère » (classes « warning » et « question »). Enfin, nous avons défini un cycle de vie et un workflow conformes aux figures 3 et 4 pour le document générique « évaluation ». De façon à assurer le contrôle des propositions et leur mise à disposition par l'acteur pilote, ce workflow comporte plusieurs tâches gérant le cycle de vie du document générique « évaluation » : une tâche de soumission dévolue à un membre du projet quand celui -ci modifie un document-évaluation, une tâche de validation dévolue au chef de projet, une tâche de modification si l'acteur pilote ne valide pas une évaluation. Ces tâches sont accessibles via une liste de tâches mais pourraient faire l'objet de notifications. Ce workflow est réexécuté à chaque nouvelle itération. Ces itérations permettent de tracer l'historique des modifications subies par une évaluation. Enfin, les membres d'un projet peuvent s'abonner à des événements spécifiques tels que le passage d'un document à l'état « validé » via une notification électronique. Seuls deux types de rôles sont nécessaires : chef de projet et membres. Les membres ont le droit de lire et modifier l'ensemble des éléments constitutifs du projet (documents et forums) ainsi que d'attacher à des documents des fichiers externes complétant l'information des acteurs. Comme chef de projet, l'acteur pilote dispose de la totalité des droits, dont ceux de définir les membres qu'il souhaite inviter, de restreindre les droits de certains membres vis-à-vis de certains documents. Par cette expérimentation, nous avons montré qu'il est possible à travers un SGDT générique de réaliser un environnement de collaboration adapté au caractère informel des échanges entre acteurs de la conception. Nous avons toutefois dû opérer des restrictions par rapport au développement d'un outil spécifique tel que ID2. D'une part, avec la configuration proposée du SGDT, les informations sont structurées autour de la mise en place d'une arborescence de dossiers et de documents. Dans cette configuration, nous répondons au besoin de capitalisation des informations mais nous ne disposons pas d'une vision synthétique sous forme d'un tableau multivues tel que le TCC, ce qui pénalise l'interaction entre acteurs. De plus, toutes les informations correspondant aux cellules du TCC doivent être saisies dans un document. Ainsi, ce formalisme proposé dans le SGDT nous paraît moins adapté et moins souple dans son usage par rapport à celui proposé dans un outil spécifique tel qu'ID2 et qui découle d'une structuration plus détaillée. D'autre part, dans le SGDT considéré, plusieurs éléments dépendent désormais d'un contrôle manuel. Ainsi l'acteur pilote doit vérifier que tous les documents associés aux critères existent dans chaque dossier et que chacun possède une désignation correcte. De même, les acteurs du réseau doivent indiquer dans la désignation d'un nouveau forum s'il s'agit d'un warning ou d'une question. Ce dernier point illustre le fait qu'un SGDT ne permet pas une configuration détaillée de la structure des informations. Dans ce cas, il faut envisager un développement spécifique en modifiant la structure des bases de données du SGDT. Par contre, les fonctionnalités proposées par le SGDT considéré (forums de discussions, abonnements à des événements, etc.) peuvent permettre de répondre à certains des besoins identifiés pour instrumenter les échanges informels. Toutefois, il n'existe pas à ce jour un SGDT unique qui rassemble l'ensemble des fonctionnalités nécessaires et permette une configuration adaptée aux échanges informels. Dans cet article nous avons posé la problématique de la gestion d'informations semi-structurées dans le contexte de l'introduction d'innovations produit/process lors des phases préparatoires aux projets de conception. Distinct d'un projet « officiel » de conception, cette introduction est pilotée par un acteur expert comme un projet à part entière mais mobilisant des processus informels et des stratégies d'acteurs particulières. Nous avons étudié cette situation au sein d'un bureau d'études de l'entreprise Renault VI et défini les processus de collaboration qui intervenaient. Nous en avons déduit les spécifications nécessaires au développement d'un outil collaboratif (ID2), support à ces projets d'innovation où les informations sont encore peu structurées. Nous avons ensuite procédé à la configuration d'un SGDT et montré que leurs fonctions génériques peuvent répondre en partie à ces mêmes besoins en réalisant des compromis portant sur la représentation des évaluations et en disposant de réelles fonctions de collaboration de type forums ou abonnements. Notre travail montre que la configuration d'un outil SGDT permet en partie de proposer un environnement adapté à la structuration des échanges informels. Par contre, certaines fonctionnalités (tableau multivues, champs, etc.) permettant de favoriser l'interaction et l'échange rapide d'information et présentes dans un outil tel qu'ID2 ne sont pas rassemblées dans un seul outil SGDT du commerce. Ainsi, il nous semble que le développement d'outils spécifiques adaptés au contexte de l'entreprise constitue actuellement une réponse pertinente pour favoriser les espaces d'innovations, les échanges informels, et le partage d'informations peu structurées. A l'inverse, le développement et le déploiement de ces outils spécifiques posent un certain nombre de problèmes à la fois sur le plan technique mais également sur le plan stratégique. En effet, ces outils sont souvent conçus et imaginés comme des prototypes, des premières versions, des outils démonstrateurs de concepts, etc. Ils présentent généralement quelques incomplétudes liées au fait qu'ils sont issus de résultats de travaux de recherche dont la finalité première n'est pas l'industrialisation ni la maintenance de produits informatiques. De ce fait, la phase d'appropriation de ces outils par les acteurs, qui se déroule généralement en parallèle avec une phase de mise au point technique, peut être retardée ou éventuellement compromise. Par ailleurs, le problème du déploiement de tels outils se situe aussi dans l'intégration avec les outils existants de l'entreprise, l'objectif n'étant pas de proposer un outil déconnecté et isolé des systèmes d'information existants de l'entreprise, mais au contraire, un outil intégré dans l'organisation déjà en place. De ce fait, pour mieux répondre aux besoins de collaboration liés aux échanges informels et à l'innovation en conception, nous envisageons d'étudier les possibilités de personnalisation et d'intégration de développements spécifiques au sein des outils SGDT au regard de nouvelles expérimentations en industrie .
Les phases amont des projets de conception peuvent être des périodes propices à l'introduction d'innovations technologiques dans les produits. Lors de ces phases, les processus de coopération et de confrontation des différents points de vue entre les acteurs impliquent des échanges d'informations qui sont parfois informels, non contractuels et peu ou pas structurés. Pourtant, ces phases de négociation et de prospective constituent des enjeux très stratégiques pour la diffusion de l'innovation. Dans le cadre d'une étude de terrain industriel, l'observation participante de l'émergence de solutions innovantes nous a conduits à élaborer un environnement collaboratif spécifique dénommé ID2 (innovation développement et diffusion). Cet outil propose une structuration semi-formelle des informations manipulées afin de favoriser les interactions entre les acteurs et la diffusion de l'innovation. Dans cet article, nous étudions dans quelle mesure les principes proposés dans ID2 peuvent être mis en oeuvre dans une configuration particulière d'un système de gestion de données techniques (SGDT) générique. Nous appuyons alors notre propos sur le maquettage du SGDT Windchill (PTC) et nous montrons les limites des deux outils proposés.
sciencesInfo_04-0592889_tei_DN_081_0051.tei.xml
termith-410-communication
My dictionary defines « artificial » as, « Produced by art ratherthan by nature; not genuine or natural; affected; not pertaining to the essenceof the matter ». Herbert Simon, The Science of Artificial. Depuis quelques années, les questionnements sur les technologies de l'information etde la communication TIC ont donné lieu à une profusion de publications sur supportpapier et électronique concernant, d'une part, l'avenir de l'imprimé et, d'autrepart, les dimensions économiques, sociales, linguistiques et épistémologiques desmodes de communication digitale. Au sein de cet environnement, les perspectivesherméneutiques et heuristiques ouvertes par la dimension hypertextuelle corollaireau texte multilinéaire invitent à une réflexion sur la pensée en réseau, sur lesréseaux eux -mêmes et sur les dimensions théoriques de la navigation hypertextuelle .Divers outils supradisciplinaires et, en quelque sorte, paradigmatiques vont donner lieu à des interprétationsenrichissant le point de vue sur l'hypertexte. Dans les prochaines pages, nousallons caractériser le texte multinéaire dit « circulaire » (Rojo et Cabré, 1996 )aussi nommé le « texte tabulaire » (Vandendorpe, 1999). Nous allons aussiconceptualiser l'hypertexte et la pensée paradigmatique en évoquant quelques pointsde ressemblance entre les propriétés de la navigation hypertextuelle et la théoriedes jeux. La naissance du texte linéaire imprimé avait, aux XV e et XVIe siècles, contribué à la fixation de l'orthographe ,donc à la disparition progressive des variantes orthographiques etmorphologiques qui étaient le fait d'une société d'oralité primaire. Le texteimprimé se constitue d'un centre unique et d'une logique phraséologique etsémantique progressive allant du moins vers le plus avec une introduction, undéveloppement et une conclusion. Cette linéarité du développement du texten'empêche pas l'existence des gloses au Moyen Âge, puis l'apparition du titre àla Renaissance. Plusieurs procédés de présentation textuelle annoncent lanaissance de l'hypertexte comme le titrage et le sous-titrage journalistiques ,les notes de bas de page, les renvois analogiques, les corrélatsencyclopédiques. Dans les années 1930 et 1940, Vannevar Bush s'intéresse à lagestion de l'information et développe le microfilm. Il sera le premier àconceptualiser l'hypertexte en développant la notion de « trails ». L'innovation du microfilm rapid selector de Bush permet desolliciter semi-automatiquement et de visualiser les anciens résultats d'unerecherche. Au début des années 1950, Bush cherche toujours une façon de créerune machine analogue aux mécanismes que le cerveau humain utilise pour stocker ,catégoriser et interroger l'information. La machine conceptualisée par Bush ,Memex, tient son nom du fait qu'elle améliore la puissance de la mémoire humaineet l'association. Sa caractéristique essentielle est de lier deux éléments entreeux. Ted Nelson, dans la foulée, reprend les mêmes objectifs que Bush etdéveloppe l'hypertexte : In Bush's trails, the user had no choices to make as he movedthrough the sequence of items, except at an intersection of trails, withcomputer storage, however, no sequence need to be imposed on the material; andinstead on simply storing materials in their order of arrival or of beingnoticed, it will be possible to create overall structures of greater usefulcomplexity (Nelson, 1991 : 253). Nelson, alors professeur de sociologie, crée en 1965 le terme « hypertexte »inspiré des travaux de l'ingénieur Bush, et nourrit sa réflexion en se basantsur des expériences cinématographiques. L'analogie entre le film et l'hypertexteest propice au logiciel interactif et à l'affichage digital, en continu. Nelsonaffirme à ce sujet : « Any interactive software, from video games to officesoftware is literally a branch of cinema. The design of electronic media is nottechnology but a very special art form » (Nelson,). Ainsi, sauf exception (Nielson, 1990 : 10), l'hypertexte est une technique quisupporte aussi les interfaces multimédias comme les graphiques, la vidéo et leson alors que les cédéroms utilisent en général plus de fonctionnalitéshypermédias. Le rapprochement entre la projection filmique et l'affichage d'un site comprenantdes fonctionnalités hypermédias est intéressant dans la mesure où l'on peutconsidérer l'hypertexte à la fois comme un processus et comme le résultat d'unesérie de fragments textuels plus ou moins dépendants les uns des autres. Mais lefilm et le microfilm sont imprimés sur une pellicule fixe et localisée alors quela page hypertexte est enregistrée sur disque dur sans localisation définitivedes informations. Les déplacements par association que permettent certains logiciels commeRégateapportent aux experts de nouveaux modes de recherche d'information etd'apprentissage. La recherche d'information ne se fait plus uniquement à partirdes éléments dont l'expert a connaissance, mais aussi à partir des concepts quisont réellement présents dans la base (Léveillé, 2000). Par ailleurs, l'hypertexte est essentiellement lié à la pensée en réseau, unepensée réticulaire-relationnelle qui se décompose enautant d'éléments que des arcs qui lient les nœuds entre eux forment desgraphes. Non seulement peut-on comparer le fragment cinématographique àl'affichage hypertextuel, mais en outre, on peut comparer la théorie des jeux enmathématiques aux fondements des stratégies de navigation sur la toile. Lacompréhension du paradigme de navigation se fait en se basant sur les optionssuccessives des relations entre les nœuds du réseau exécuté par l'internaute etassimilable aux déplacements d'un joueur de jeu d'échecs. L'espace non linéairepermet de permuter les nœuds, de modifier les paradigmes, comme tout autant destratégies de jeux. Il y a tout autant de paradigmes de navigation qu'il y ad'internautes, car une même stratégie de navigation peut donner lieu à unesélection de traits sémantiques divergents. Herbert Simon affirme : « They seekto define the decisions that would be substantively rational in thecircumstances defined by the outer environment » (1996 : 23). Christian Vandendorpe caractérise le concept d'hypertexte en ce qu'il permet « ledévoilement par le locuteur des éléments d'information que ce dernier jugenécessaires. Cette caractéristique situe l'hypertexte dans une pragmatique del'interactivité » (1999 : 90). Ces deux citations traduisent des concepts élémentaires de la théorie des jeux ence qu'elles évoquent notamment la question de l'historicité des déplacementset le fait d'avoir ou non une informationcomplète et parfaite sur un autre joueur (Haurie et Krawczyk, 2003 : 14). Il est évident qu'un déplacement symétrique de la part des internautes et desparcours de lecture ne signifient pas forcément qu'il y ait des configurationsherméneutiques similaires. Le retour vers un site Web antérieur rompt le schémade la linéarité progressive et du même coup, celui auquel nous a habitué lapensée historique occidentale. De plus, la rétroversion d'un site vers un autre( sur le plan logique, il s'agit d'une inférence) ou vers le lieu de partancedifférent (le paradigme épistémique de départ) pour arriver vers un sitesimilaire à un autre internaute témoigne d'une pratique que je nomme le« déplacement symétrique inversé » ou « convergeant ». Cette pratique conduit àsélectionner sur le parcours de navigation des éléments d'information différents( en empruntant parfois le chemin le plus court, problème typique de la théoriedes graphes) avant d'arriver à un nœud commun équivalent à une position spatialesimilaire. Les études épistémologiques d'abord puis les sciences humaines en général ontlargement diffusé les idées de Karl R. Popper et de Thomas Kühn. Le premier athéorisé les principes méthodologiques d'une recherche scientifique dont lesfondements ont trouvé des applications en criminologie, en sociologie et dansles sciences sociales en général. En effet, la conduite d'une démarche empiriqueimplique l'émission d'hypothèses dont la propriété est leur falsifiabilité. Enraison de sa nature imparfaite, une hypothèse est toujours susceptible decheminer entre un raisonnement logique de type inductif ou de type déductif parla voie d'une inférence notamment. D'ailleurs, ces types de raisonnement sont denos jours automatisés à des fins d'application en intelligence artificielle eten traitement automatique des langues. La falsifiabilité d'une proposition relève en partie de son interactivité avecd'autres hypothèses liées à des récentes découvertes ou à d'autres facteurs. Lefait qu'elle soit validée ou invalidée par une communauté scientifique témoignede son appartenance au paradigme dominant d'une époque. J'emprunte le mot« paradigme » dans le sens où Kühn l'a employé, c'est-à-dire l'ensemble deshypothèses partagées par une communauté scientifique en un lieu et en une époquedonnés. Si cette notion de paradigme trouve une application dans la pluralitédes usagers d'Internet (que l'on peut par exemple vérifier par la fréquence deconnexion à un site Web), en revanche la dimension cognitive n'est pas toujourssous-entendue dans le concept de Kühn. De plus, Gerhard Budin fait remarquer queles disciplines des sciences humaines, contrairement aux sciences naturellescomme la physique, […] do not have any predominant paradigm (in the sense of T. S .Kuhn) but rather a plurality of theories, hypotheses, schools of thought etc .concerning the same « objects » This means that several differing concepts areformed about the same object according to the framework of the respective theory( 1991 : 338). D'ailleurs, Kuhn lui -même, dans sa seconde édition de TheStructure of scientific revolution, avait modifié sa conception deparadigme préférant le terme « disciplinary matrix », ce qui semblerait à prioriplus approprié pour notre application dans la recherche d'information parcequ'il permet des appréciations et des investissements heuristiques différentsselon les disciplines et les sous-disciplines. Cependant, nous continueronsd'employer le terme « paradigme » en spécialisant son emploi à l'activité del'internaute ou à toute activité informatique nécessitant la prise de décisionsimpliquant le passage d'un nœud à un autre. Si je préfère conserver l'usage du terme « paradigme », c'est que je lui confèreune application individuelle. Le paradigme de navigation correspond au programmeheuristique, sémiotique et herméneutique d'une seule entité, d'un seul joueur oud'un seul point de vue épistémique sur un objet. Bien qu'il soit possibled'adopter une vision intertextuelle qui confronte différents groupes de pointsde vue, l'approche paradigmatique adopte une vision individualiste où, paranalogie, l'on peut comparer la stratégie de navigation à celle des décisionsprises au cours de jeux ou à la formulation d'hypothèses liées à des prises dedécision. Cette notion rattachée au terme « paradigme » me semble d'autant plusimportante que l'un des reproches récurrents faits à l'environnement Internet ,c'est de fournir une masse d'information dont l'internaute n'est pas toujours àmême de juger la valeur. La démarche cognitive d'Internet suscite de nombreuxdébats, car naviguer sur le Web consiste aussi à s'imprégner d'une culture degestion de l'information. Si nous adoptons une perspective individuelle du paradigme de navigation, ildevient dès lors important de mettre en relief le fait que la dimensionpolyédrique du nœud hypertextuel relève aussi d'une construction intertextuellemultilinéaire. La multiplicité des discours sur un même objet (donc desparadigmes d'approche) implique que « hay pues, una conciencia clara de que todotexto está ligado a un contexto y a una intertextualización, y esto no es demodo estático, sino vivo y cambiante » (Royo, 2002 : 3). L'information sur le Web, dynamique, est organisée de manière non structurée parsa dimension multilinéaire même si l'on peut la représenter graphiquement parune arborescence. La multiplicité des paradigmes de navigation fait d'ailleursétat de la non-existence d'un centre et d'une périphérie. Gadamer écrit : […] le terme de structure veut dire qu'il n'y a pas d'abord unecause et ensuite un effet mais qu'il s'agit au contraire d'un jeu commund'effets. C'est ainsi que Wilhelm Dilthey fait intervenir un autre concept, quia été pour moi d'une grande importance, à savoir le concept d'un « systèmed'effets » (Wirkungszusammenhang) qui vise non pas la distinction entre cause eteffet, mais la mise en évidence de ce qui lie les uns aux autres des effets quisont tous en relation mutuelle (2001 : 29). Si l'usage du terme « organisation » nous semble plus juste pour traiter de ladisposition non linéaire et non séquentielle que celui de « structure », lesaffirmations de Gadamer et Dilthey nous semblent quant à elles tout à faitappropriées. L'interconnexion des savoirs par le réseau confère à la toile une dimensionuniverselle. Le dynamisme de celle -ci est lié à sa nature expansive en mêmetemps que virtuelle. Ainsi, le déroulement progressif du support imprimé danslequel le tout ne se dévoile qu' à la fin est supplanté par un affichage digitaloù il n'y a plus de centre préétabli, où le tout se manifeste dans la diversité .C'est d'ailleurs ce qui fait de la toile un élément constitutif de la penséeréticulaire. Pour l'architecte qui prend part à la conception hypertextuelle età la fabrication d'un site, faisant souvent l'objet de changements, cela constitue un ensemble de prises dedécision relatives à la résolution de problème de recherche d'information, doncde positionnements sur la toile susceptibles d' être repérés par un internaute ,et ce, d'autant plus que son site sera indexé sur des moteurs de recherche .Plusieurs emprunts métaphoriques dans la terminologie relative à la navigationhypertextuelle s'expliquent par les similitudes entre le fait d'opter pour desstratégies d'optimisation des déplacements semblables à ceux que l'on retrouvedans la navigation maritime : repérage d'un cadre de navigation qui tiendracompte des bascules de vents, des vent favorables, des adonnantes plutôt que desrefusantes et des phénomènes microclimatiques qui vont influer sur lestrajectoires à suivre par les régatiers. Pragmatiquement, l'hypertexte consiste en une liste de titres, d'unitéshypertextuelles (ou nœuds) sur lesquels l'internaute clique pour pouvoir faireafficher le contenu. Lorsque vous et moi naviguons sur la toile, notre séance denavigation est donc soumise à des épisodes de lectures linéaires. On nous répèteen outre que nous naviguons au sein d'un texte circulaire. Pourtant, l'absencede marqueurs, de centre et de périphérie, de début et de fin n'implique pasforcément une vision circulaire de l'organisation de l'information. L'internaute construit son paradigme de navigation à l'aide d'une dispositionpréconstruite sur le Web. Certes, l'organisation hypertextuelle de la pensées'oppose à l'expérience univoque et linéaire. L'innovation du microfilm résidaitdans le fait qu'il permettait non seulement de réduire l'espace de stockage ,donc de minimiser et de rentabiliser la gestion de l'information, mais aussiqu'il s'inscrivait dans une étape importante sur le plan social et culturel dansnos sociétés postmodernes, à savoir l'expérience fragmentée. À ce sujet, ThomasDe Koninck affirme ceci : « [m]ais le problème central demeure la fragmentationde la vision sociale, qu'aggrave l'influence d'expériences fragmentairesentretenues par les médias, télévision en tête » (2000 : 42). Évitons aujourd'hui de nous plonger dans le débat éthique sur la penséefragmentaire. Considérons l'hypertexte comme un processus interactif de penséeen réseau plutôt qu'un simple outil médiatique permettant une économie d'espacede stockage des informations. Enfin, considérons que l'internaute investit dansdes mécanismes heuristiques de type relationnel réticulaire et, de surcroît ,universel du savoir .
Les perspectives herméneutiques et heuristiques ouvertes par la dimension hypertextuelle corollaire au texte multilinéaire invitent à une réflexion sur la pensée en réseau, sur les réseaux eux-mêmes et sur les dimensions théoriques de la navigation hypertextuelle. L'A. tente de caractériser le texte multilinéaire dit encore tabulaire ou circulaire. Il conceptualise l'hypertexte et la pensée paradigmatique en évoquant quelques points de ressemblance entre les propriétés de la navigation hypertextuelle et la théorie des jeux. L'hypertexte est considéré comme un processus interactif de pensée en réseau, au sein duquel l'internaute investit dans des mécanismes heuristiques de type relationnel réticulaire et universel du savoir.
sciencesInfo_06-0291107_tei_986.xml
termith-411-communication
Au cours du dernier quart de siècle, il est devenu coutumier de concevoir lesrelations internationales sous le signe de la mondialisation, constituée par unensemble de phénomènes tels qu'une interdépendance croissante des populationsessaimées sur la planète et un amoindrissement du pouvoir de l' État-nation au profitd'entités privées ou publiques transnationales telles que les compagniesmultinationales et l'Union européenne. En facilitant les communications de masse ,les médias ont joué un rôle central dans ces processus, tout autant sur le terrainque dans la prise de conscience de l'évolution en cours. Jusqu'aux années 80, lavaste majorité des téléspectateurs n'avaient à leur disposition qu'une poignée dechaînes réglementées par l' État où ils résidaient et dont le rayon de diffusiondépassait à peine les frontières de cet État. Aujourd'hui, l'offre télévisuelles'est multipliée massivement, permettant à de nombreux consommateurs de capter deschaînes diffusées par câble, satellite ou internet à partir de pays en dehors decelui où ils résident. À cheval entre plusieurs pays, les migrants internationaux et leurs descendants sontparticulièrement concernés par cette nouvelle offre transfrontière. En tant que sitede flux migratoires et de réseaux médiatiques transnationaux particulièrementdenses, le bassin méditerranéen constitue un laboratoire extrêmement riche pourl'étude des relations entre médias et migrations internationales. Ces relations sontau cœur d'un projet de recherches multinationales, Médiamigraterra « Médias et migrations dans l'espace euro-méditerranéen » ,entamées en 2009 sous la direction de Tristan Mattelart avec le soutien de l'Agencenationale de la recherche (anr). Le caractère transnational de l'objetd'étude a nécessité des modes de travail eux aussi transnationaux. Ainsi une équipede chercheurs basés sur les deux rives de la Méditerranée a -t-elle été constituée etcomplétée par un conseilleur externe, Alec Hargreaves, basé aux États-Unis. Grâce à cette équipe, des recherches collaboratives ont été conduites, d'une part ,dans les trois principaux pays du Maghreb (le Maroc, l'Algérie et la Tunisie), etd'autre part, dans les trois pays du sud de l'Europe (l'Espagne, la France etl'Italie) dans lesquels les émigrants originaires du Maghreb ont été les plusnombreux à s'installer. Conscients des dangers de cantonner les recherches dans unaxe purement binaire entre pays d'origine et pays d'accueil, nous avons égalementenquêté dans d'autres pays (par exemple, l' Égypte et le Liban) d'où sont diffuséesdes chaînes panarabes intéressant les populations maghrébines sans se limiter àcelles -ci. Par ailleurs, nous avons pris soin de tenir compte d'autres chaînesencore, émanant notamment du monde anglophone, ayant une présence souvent fortmarquée dans la consommation médiatique des populations minoritaires. Au fur et à mesure de l'avancée des travaux, l'équipe a dû relever de nombreux défisrelevant du caractère transnational de l'objet d'étude, de la rapidité del'évolution de celui -ci, de la diversité des conditions caractérisant les différentspays englobés dans l'étude, et de l'état parcellaire des recherches existantes surceux -ci. En discutant ces défis, les solutions que l'équipe a tenté d'y apporter ,les difficultés rencontrées sur le terrain et les résultats auxquels elle estparvenue, la présente contribution propose une étude de cas des complexitésscientifiques et pratiques caractérisant l'internationalisation des savoirs. Pour cette étude, les méthodologies retenues ont été définies en fonction desobjectifs, des moyens à la disposition de nos collaborateurs et de la diversitédes pays et des conditions de travail dans lesquels les recherches devaients'effectuer. Dans la définition des objectifs, ont été privilégiées desquestions conçues pour surmonter la fragmentation des recherches menées jusqu' àprésent et pour combler des lacunes particulièrement importantes dans le domaineconcerné. Dans les pays d'accueil situés sur la rive nord de la Méditerranée ,les études sur la représentation des populations d'origine immigrée dans lesmédias grand public (« mainstream media ») se sontmultipliées à partir des années 80 en France et, plus récemment, en Espagne eten Italie. Les études sur les pratiques des producteurs médiatiques, à la foisdans les grands médias et dans les médias dits de la diversité (c'est-à-dire lesmédias ciblant et/ou produits par des populations minoritaires) sontsensiblement moins nombreuses. Les études sur la consommation et la réceptiondes médias, notamment par les populations d'origine immigrée, sont plus raresencore. En effet, ces populations sont rarement identifiables et ,vraisemblablement, rarement incluses dans les études d'audience quantitativesmenées par les entreprises privées proposant ce genre de service aux opérateursde médias. Les études sur ces sujets sont globalement moins développées sur larive sud de la Méditerranée. Il en existe notamment très peu sur la consommationet la réception des médias par des personnes ayant émigré de ces pays ou quicherchent à le faire. L'état parcellaire des recherches contraste fortement avecune supposition souvent présente mais rarement testée, selon laquelle les médiasjoueraient un rôle important sinon primordial tant dans les projets migratoiresconçus dans les pays de départ que dans les perceptions et relationsinter-ethniques dans les pays de destination ainsi dans la construction d'uneconscience diasporique parmi les populations d'origine immigrée. Nous avons été particulièrement attentifs à ces lacunes en définissant desobjectifs scientifiques qui, précisément, ont visé à clarifier les relationsentre les médias et le départ des émigrés, l'accueil qui est réservé auxmigrants et à leurs descendants dans les pays où ils s'installent, et les liensdiasporiques qui peuvent exister entre ces populations et leurs pays d'origine .Par contraste avec les recherches antérieures, ces objectifs nous ont conduits àenquêter tout autant dans les pays de départ que dans les pays de destination .Il s'ensuivait la nécessité de réunir des partenaires scientifiques ayant lesressources et compétences requises pour englober l'ensemble de ces questions surles deux rives de la Méditerranée. Par exemple, pour les enquêtes sur leterrain, il fallait non seulement mobiliser des réseaux de contacts àl'intérieur de chaque pays mais aussi des connaissances du contexte historiqueet institutionnel caractérisant celui -ci ainsi que des compétences non seulementdans les langues « nationales » (l'arabe, le français, l'italien et l'espagnol) ,mais aussi dans des langues régionales et/ou minoritaires telles que letamazight (berbère), le catalan. .. Dans les analyses et réunions de travail, le français a servi comme lingua franca, conjugué là où celaparaissait utile avec des emprunts aux langues utilisées dans les enquêtes surle terrain et parfois à l'anglais, qui a souvent été précoce dans l'élaborationd'outils conceptuels propres aux « media studies » etaux études portant sur les relations médias et migrations. Ces objectifs etprocédures ne nous ont pas pour autant amenés à imposer à l'ensemble despartenaires une seule méthodologie. Une telle démarche aurait été incompatibleavec la complexité des questions que nous cherchions à élucider, la diversitédes conditions existant dans les différents pays englobés dans notre étude, etla rapidité de leur évolution. En effet, chaque pays est caractérisé par desconditions historiques, démographiques, politiques et culturelles qui lui sontpropres et dont il faut tenir compte tout en focalisant sur les tendancesmédiatiques qui sont plus ou moins communes à l'ensemble du bassinméditerranéen. Ces différences concernent notamment l'ancienneté des fluxmigratoires, les politiques publiques menées dans les pays de départ etd'accueil, et les outils scientifiques utilisés jusqu' à présent dans l'étude desmigrations et des phénomènes médiatiques qui y sont liés. Par exemple ,l'installation de minorités originaires du Maghreb est plus récente en Espagneet en Italie qu'en France, entraînant des différences significatives dans leurprésence médiatique, et la conceptualisation des médias, notamment minoritaires ,varie d'un pays à l'autre. Par ailleurs, en Espagne, la reconnaissanceinstitutionnelle des langues et cultures régionales a façonné un paysageaudiovisuel qui est plus ouvert à ce type de diversité que celui que l'on trouveen France. En outre, entre la première et la dernière étape du projet, lepaysage médiatique a sensiblement évolué, avec l'essor toujours plus puissantd'internet, dont il a été essentiel de tenir compte au cours de nos enquêtes. Etde manière totalement imprévue, les conditions sociales et politiquescaractérisant les pays d'origine des migrants ont changé brutalement avecl'avènement du « printemps arabe » en 2011, dont nous avons cherché à tenircompte dans la dernière phase des enquêtes. Si les limitations des moyensfinanciers n'ont pas permis de mener des études quantitatives standardisées surl'ensemble de l'espace dans lequel nous avons enquêté, cet inconvénient a étélargement compensé par la construction des enquêtes qualitatives. En effet ,celles -ci ont été réalisées avec suffisamment de souplesse pour tenir largementcompte de la diversité des situations et pour permettre aux interviewés des'exprimer avec une liberté susceptible d'avoir une forte valeur heuristique ,car un des grands inconvénients des études quantitatives est de limiter lesinterrogés à une gamme de réponses prédéterminées par l'enquêteur, à qui risqued'échapper ainsi d'autres éléments pouvant préoccuper davantage lesinterviewés. En cherchant à englober les relations entre migrations et médias dans le bassinméditerranéen, nous avons voulu clarifier tant le rôle que peuvent jouer lesmédias vis-à-vis de l'émigration, à partir des pays d'origine, que celui qu'ilspeuvent jouer vis-à-vis de l'immigration, dans les pays d'accueil, et dans lesliens que ressentent les populations minoritaires avec différents espacesvéhiculés par les médias (pays d'origine, pays d'accueil, pays arabes en dehorsdu Maghreb, et espaces plus éloignés, notamment les États-Unis, occupant uneplace importante dans l'économie globale des médias). Un des enseignements quiressort le plus fortement des recherches, au sud comme au nord de laMéditerranée, concerne la nécessité de prendre pleinement en compte le caractèrevolontariste des pratiques médiatiques des migrants et de leurs descendants .Loin de consommer passivement les médias, en modelant leurs comportements surdes messages préconçus véhiculés par ceux -ci, ces populations témoignent debeaucoup de discernement en sélectionnant dans les médias les éléments les plusconformes à leurs projets de vie. Par exemple, prenons le cas des départs. Commepeu de ceux qui ont émigré du Maghreb ou qui cherchent à le faire ont puconnaître de première main les pays de destination avant de partir, il estsouvent affirmé que les projets migratoires sont fortement motivés par lesimages véhiculées par les médias. Il est néanmoins très difficile de traiterempiriquement cette question, le danger étant de tomber dans une visionfonctionnaliste qui postulerait que les médias font l'émigration. Pour tenter decontourner l'obstacle, nous avons choisi de nous pencher sur la manière dont lesmédias, aux côtés d'autres facteurs économiques, politiques et sociaux qu'ilfaut solidement arrimer à l'analyse, nourrissent moins l'émigration en tant quetelle qu'une « émigration mentale », selon l'expression forgée par Tarik Sabry( 2010 : 95-155) pour désigner la manière dont les jeunes Marocains s'évadentdans d'autres univers symboliques pour fuir leur ordinaire local. De mêmeavons -nous, au travers d'enquêtes qualitatives menées au Maroc et en Tunisie, cernéla manière dont, aux côtés des images de la télévision, les rêves d'ailleursétaient alimentés par une variété de sources, en particulier les récitsd'émigration des proches, de même que, de façon croissante, les contenusd'internet. Les enquêtes menées dans ce cadre montrent à quel point le désird'émigration constitue, dans les trois pays du Maghreb, un « fait socialmajeur », pour employer les termes de Riadh Ferjani (2010). Néanmoins, il estdifficile de cerner et d'isoler la part qu'ont les médias dans ces désirs departir. D'autant plus que le rôle de ceux -ci est contradictoire. Images d'un certain Eldorado occidental ou oriental, ou, pour l'internet, moyende nouer des relations amoureuses à distance pouvant mener au mariage et par làmême à la possibilité d'émigrer (Sabry, 2011), les médias et les nouveaux médiassont aussi un miroir des difficultés économiques que traversent les pays du Nordet de ceux qui s'efforcent d'y trouver, en émigrant, une vie meilleure .Symptomatique de la difficulté d'évaluer le rôle que peuvent avoir les médiasdans ces projets migratoires est l'échec des politiques médiatiques, menées auniveau national ou international, conçues pour essayer d'influencer la volontéde partir et de contrôler les flux migratoires. En Égypte, le programme« Information Dissémination on Migration (idom) » aété lancé en 2005 avec le soutien financier de l'Italie dans le but de dissuaderles émigrants potentiels de partir en leur montrant les difficiles conditions devie dans les pays d'accueil. Malgré la diffusion de ces images ainsi que lesatroces risques courus par les clandestins qui, dans un nombre significatif decas, trouvent la mort avant d'atteindre leur destination, la volonté d'émigrerreste forte (Sakr, 2011). Il en va de même au Cameroun où des interventionsmédiatiques analogues financées par l'Organisation internationale pour lesmigrations en vue de freiner les migrations vers le Nord semblent avoirrencontré une forte dose de scepticisme chez les candidats au départ qui se sontparfois ouvertement moqués de ces initiatives (Heller, 2011). Au fond, descalculs fondés sur la perception des déséquilibres économiques entre les pays duNord, relativement riches, et ceux du Sud, relativement pauvres, semblentprévaloir sur les tentatives d'utiliser les médias pour manipuler directementles projets de départ. Articulant analyses qualitatives sur les publics des médias ou des nouveauxmédias avec des perspectives davantage inspirées par l'économie politique de lacommunication, notre projet s'est également efforcé de cerner la manière dontles pays de départ tentaient d'utiliser les médias afin de maintenir un lienavec leurs concitoyens émigrés et leurs descendants. De fait, après avoir usé dela presse (Gastaut, 2011) et de la radio, les États du Maghreb emploient depuisles années 90, les télévisions par satellite et, de plus en plus depuis lesannées 2000, l'internet pour essayer de façonner les « mondes imaginés » de lapatrie à des fins économiques – pour inciter les émigrés à réinvestir une partiede leurs revenus dans l'économie nationale –, et à des fins politiques – pourimposer leurs vues dans le champ de l'exil. Les discours tenus par lesresponsables de ces politiques sont révélateurs de la volonté de maintenir ,malgré l'éloignement et le temps, l'allégeance des émigrés et de leurs enfants àl'égard des pays d'origine : ceux -ci ne sont-ils pas présentés comme appartenanttoujours à la « mère-patrie » ? Le dispositif télévisuel mis en place n'estcependant pas à la hauteur de cette volonté de garder un lien. Tant la chaînetunisienne TV7 destinée à l'émigration que Canal Algérie que les chaînesmarocaines rediffusent principalement des programmes pensés pour les audiencesnationales et soumis aux mêmes logiques de contrôle politique que leurshomologues intérieures. « Trait d'union », la seule émission produitespécifiquement pour les audiences émigrées, a beau avoir battu tous les recordsde longévité de la télévision tunisienne, elle a été tellement soumise à lavolonté des pouvoirs publics d'esquiver tout signe de difficulté ou demécontentement parmi les populations concernées que celles -ci se sont montréesde moins en moins intéressées par une émission aussi aseptisée (Ferjani, 2011) .Pour toucher les Marocains résidant à l'étranger, le royaume chérifien a quant àlui d'abord compté sur la rediffusion dans les années 90 des chaînesgénéralistes nationales tvm et 2 m, avant de créer, en 2004, une chaîne spécifique pour les Marocainsrésidant à l'étranger, Al Maghribia, qui se contente de rediffuser une sélectiondes programmes des deux précédentes – programmes qui ont l'avantage, aux yeuxdes autorités, d'avoir déjà fait l'objet d'un contrôle (Benchenna, 2011). Ainsitant les chaînes marocaines que tunisiennes éprouvent-elles les plus grandesdifficultés à prendre en compte les demandes sociales spécifiques de leurstéléspectateurs émigrés. Dans les pays d'accueil, les initiatives médiatiques lancées par les pouvoirspublics ont débouché sur un bilan tout aussi mitigé – et c'est l'intérêt duprojet que de pouvoir articuler l'étude de celles -ci avec celle des initiativesmédiatiques des pays de départ. En France, par exemple, Mosaïque, la première émission spécifique conçue à l'intention despopulations immigrées, a été créée en 1976 à l'initiative du gouvernement avecle soutien financier du Fonds d'action sociale (fas )en vue d'encourager les immigrés à repartir dans leur pays d'origine etd'alléger le poids qu'ils étaient accusés de représenter pour un marché del'emploi affaibli par le choc pétrolier de 1973. Si la forte audience attiréepar Mosaïque – 4,5 millions de téléspectateurs en 1977selon un sondage réalisé par FR3 – semble avoir beaucoup apprécié le fait devoir sur le petit écran des reportages et des animations culturelles ayant traitaux pays d'origine, les retours vers ces pays ont finalement été peu nombreux .Au lieu de stimuler des départs – comme l'avait souhaité le gouvernement – ,l'émission a plutôt aidé à conforter les immigrés dans leur sédentarisation enFrance. Pour les populations nées en France de parents immigrés, les problèmesd'insertion dans le pays d'accueil sont nettement plus importants qu'un mythiqueprojet de retour dans un pays lointain qu'ils connaissent à peine. Au cours desannées 80 et 90, le fas refaçonne ainsi les émissionsqu'il finance dans l'espoir d'aider l'intégration des jeunes issus del'immigration en leur proposant une vision accueillante de leur situation enFrance et en encourageant la population autochtone à adopter une attituded'ouverture envers les populations minoritaires. Malgré leurs bonnes intentions, le caractère pédagogique de ces émissions et leurtendance à édulcorer les problèmes d'inégalité et de discrimination vécus parles populations issues de l'immigration aboutissent à une offre télévisuelleassez insipide qui s'avère de moins en moins capable d'attirer une audiencesignificative. Face à cet échec, le fas abandonne lesémissions spécifiques ciblant les populations d'origine immigrée en faveur d'unenouvelle politique audiovisuelle consistant à apporter un soutien financier àdes émissions grand public à condition que les réalisateurs de celles -ci yincorporent des éléments perçus comme favorisant l'intégration des populationsminoritaires. En France, il faudra attendre la toute fin des années 90 pour quel' État, aiguillonné par l'action de différentes associations, prenne la mesuredes discriminations médiatiques subies par les minorités et perçoive cesdiscriminations comme une menace majeure pour la cohésion nationale. Lespolitiques dites de « diversité » qui, dans ce cadre, seront développées etportées par des agences publiques visant à améliorer la représentation despopulations tant à l'écran que dans les rédactions, s'efforcent d'ériger latélévision en incontournable instrument d'intégration. Malgré les limites de cespolitiques – et, en particulier, le décalage existant entre la rhétoriqueemphatique de la diversité et la réalité des mesures prises (Spitz, 2010) – ,celles -ci n'en ont pas moins placé la question de la représentation médiatiquedes minorités au cœur des débats publics. L'intérêt de l'optique comparatisteinternationale adoptée par le projet est de pouvoir mettre en perspective le casfrançais par rapport à celui de ses voisins du sud, l'Espagne et l'Italie, qui ,traditionnels pays d'émigration, sont devenus, dans les années 90, d'importantspays d'immigration. Si la France est souvent considérée comme étant en retardpar rapport à des pays comme le Royaume-Uni en matière de représentationmédiatique des minorités – ce qu'illustre la manière dont celui -ci est cité enmodèle dans nombre de rapports sur la question (Blion etal., 2006) –, elle apparaît très en avance par rapport à ses voisinsméridionaux. Ainsi, à ce jour, l'Espagne n'a -t-elle pas, selon les travaux menéspar Laura Navarro (2011), mis en place, au niveau fédéral, de véritablepolitique de diversité à l'attention des minorités ethniques dans le domaine desmédias. Néanmoins, certaines communautés autonomes, à l'image de la Catalogne ,ont, sous la pression d'associations et sous l'effet d'incitations de la partdes institutions européennes, développé de telles politiques. Pour l'Italie ,Eugénie Saitta (2011) aboutit à un constat encore plus sévère qui note la totaleabsence de politique publique destinée à améliorer la représentation despopulations issues de l'immigration en Italie. Absence qu'elle attribue à laprésence importante sur la scène politique italienne d' « entrepreneurspopulistes de la xénophobie » qui empêchent l'apparition d'un débat sur lareprésentation médiatique des minorités ethniques. De même, la question des télévisions par satellite en provenance du monde arabeet reçues dans les foyers issus de l'immigration ne s'est-elle pas posée dansles mêmes termes dans les trois pays. Autant ces télévisions ont été perçues enFrance, dès le milieu des années 90, comme risquant d'entraîner une montée ducommunautarisme et ou/de l'islamisme parmi ces populations (Hargreaves ,Mahdjoub, 1997; Ferjani, 2007), autant elles ne semblent pas avoir suscité nien Espagne, ni en Italie, de controverse majeure. En contrepoint de ces discoursalarmistes, une enquête menée au cours de la deuxième moitié des années 90 avaitdéjà souligné que les chaînes à caractère islamiste étaient plus que marginalesdans la consommation médiatique des populations minoritaires, et mis en évidencele fait que ces publics étaient beaucoup moins monolithiques qu'il n'est souventpensé (Hargreaves, Mahdjoub, ibid.). L'étude de réceptiondes médias et des usages des nouveaux médias qui a été menée dans le cadre denotre recherche et dans la continuité des précédents travaux par Karima Aoudiaet Elyamine Settoul, auprès d'une quarantaine de téléspectateurs d'originemaghrébine vivant majoritairement en Île de France, permet à son tour derelativiser les peurs suscitées par la croissante disponibilité des médiastransnationaux en provenance du monde arabe. Sans en offrir une synthèseexhaustive, notons que l'étude souligne d'abord l'hétérogénéité des pratiquesmédiatiques de ces populations. Chacun des interviewés semble bricoler uneconsommation personnelle où se mêlent chaînes françaises, chaînes du Maghreb ,chaînes panarabes et chaînes émanant d'autres espaces, notamment anglophones –avec de fortes variations dans la composition du mélange en fonction de l' âge ,du sexe, de l'origine sociale, des langues comprises, de la date d'arrivée enFrance, du rapport entretenu avec la culture du pays d'origine des parents et ,naturellement, en fonction aussi de la variété des inclinaisons télévisuellesindividuelles. Sans se détourner entièrement des chaînes françaises, les immigrés qui ont grandiau Maghreb avant de s'installer en France consomment abondamment les chaînes dupays d'origine, en dépit de leurs insuffisances précédemment évoquées et, dansune moindre mesure, d'autres chaînes du monde arabe qui leur permettentd'épancher une soif d'images du pays non dénuée de nostalgie, mais aussi decombler une demande en programmes comiques, mélodramatiques et en informationssur le pays d'origine ou, plus généralement, sur l'espace arabe que les chaînesfrançaises ne semblent pas, à leurs yeux, être en mesure de satisfaire. Lespratiques médiatiques des jeunes, moins focalisées sur l'axe binaire reliant lepays d'origine au pays d'accueil, sont à bien des égards en porte à faux aveccelles de leurs parents. Consommant souvent les images à part dans leur chambre ,sur leur poste de télévision ou leur ordinateur, ils plébiscitent, comme lesautres jeunes Français, les programmes hollywoodiens, les émissions detélé-réalité, ou d'autres types de divertissements. S'ils dénoncent volontiersle déficit des représentations que les chaînes françaises offrent tant de leursréalités locales que des conflictualités du monde arabe, ils le contournent pluspar la fréquentation d'une variété de sites d'information sur le Web, pour lesplus diplômés, ou par la fréquentation d'Al Jazeera, pour ceux qui encomprennent la langue, que par l'écoute des télévisions des pays d'origine desparents. Dans certains foyers, la fracture entre les pratiques des parents et celles desenfants se mue en véritable séparation spatiale. « Chez moi, chacun a soncôté », déclare une émigrée marocaine. « Y a le côté arabe avec la télévisionmarocaine et les chaînes arabes et le côté des enfants avec leur propretélévision. Comme ça personne n'embête l'autre et on n'est pas obligé de zappertoutes les cinq minutes » (Settoul, 2011). Ce serait néanmoins une erreur des'en tenir à ce clivage générationnel dans les pratiques : il y a de nombreuxmoments de rencontre suscités par les uns et les autres, à la recherche du lienqu'offre la télévision. Ces moments de rencontre familiale s'accompagnent denégociations quand sont regardés les programmes de la télévision françaisepuisque les normes de permissivité morales ne correspondent pas toujours àcelles qui ont cours au sein de ces familles. L'analyse des usages destechnologies, menée dans le cadre de la même enquête, converge avec cesrésultats. Les parents se montrent d'abord très dépendants de leurs enfants pouraccéder à l'ordinateur ou à l'internet. Ce sont les enfants qui installent lematériel, qui les introduisent dans cet univers qui semble demeurer un grandmystère pour les parents, qui saisissent néanmoins toutes les opportunitéstechniques ou les offres commerciales pour pouvoir communiquer avec leursproches restés au pays ou émigrés ailleurs. Cependant, ces offres ne sont passeulement utilisées pour communiquer avec l'étranger : tel opérateur est choisiparce que son offre comprend la possibilité d'appeler, à partir d'une lignefixe, en illimité non seulement l'Algérie, mais aussi les portables en France .Mieux, les répondants utilisent plus systématiquement l'internet pour desraisons utilitaires en lien avec leur vie quotidienne locale – faire lescourses, chercher les programmes télé, consulter un site médical, trouver unerecette de cuisine, chercher une solution à un problème de bricolage – que pourcommuniquer avec la famille éloignée. Quant aux jeunes, ils se montrentmajoritairement désireux d'utiliser les réseaux pour garder un contact avecleurs amis ou contacts en France, le plus souvent proches géographiquement, quepour communiquer de façon assidue avec le bled. Certains vont même jusqu' à fuirles sollicitations des membres de leur famille d'outre-Méditerranée : « Toute lafamille au bled me demande comme amie sur Facebook » ,fait remarquer une lycéenne française d'origine algérienne âgée de 16 ans .« Mais je ne les accepte pas car je n'ai pas envie d' être en contact avec eux » .On comprend que sur la base de données de ce type, Elyamine Settoul puisseconclure à la faible prégnance de l'idée d'une « communauté transnationaleimaginée » (Settoul, 2011). Ici, l'étude de réception des médias ainsi que celle des usages des technologiesrelativisent les discours alarmistes qui présentent l'immigré et ses descendantscomme évoluant dans un espace communicationnel qui serait branché de manièreunivoque sur le pays d'origine. « Plus que le lien national », constate ElyamineSettoul (2011), « notre étude met en lumière l'idée que c'est la recherche d'uneémotion particulière qui constitue le moteur de leur consommation. Dans cettelogique, ces publics choisissent des programmes qui leur procurent les émotionsrecherchées et ce, indépendamment de l'origine nationale du programme ». Il enva de même pour les téléspectateurs et les usagers de l'internet dans les paysd'origine, où la consommation médiatique, y compris parmi les publics intéresséspar la perspective d'émigrer, est loin de se construire autour d'un axe binairereliant les deux rives de la Méditerranée. Des connexions transversales avecd'autres pays arabes tout comme avec des pays anglophones, notamment lesÉtats-Unis, font partie des mediascapes de cespopulations, dont nos recherches ont tenté de faire ressortir la complexité etla diversité .
À partir d'une présentation des résultats intermédiaires d'un projet de recherche consacré aux « Médias et migrations dans l'espace euro-méditerranéen », financé par l'Agence nationale de la recherche (ANR), l'article propose une étude de cas des complexités scientifiques et pratiques caractérisant l'internationalisation des savoirs. En se penchant sur les réalités de l'espace euro-méditerranéen, ligne de front Nord-Sud, l'objectif du projet est d'appréhender la contribution des médias tout au long du circuit migratoire, depuis l'émigration jusqu'à l'immigration. Il s'agit dans ce cadre, en combinant les perspectives de l'économie politique et des études sur la réception, d'articuler l'analyse du rôle que jouent les médias et les nouveaux médias en amont de la dynamique migratoire dans les pays du sud avec l'étude de leur rôle en aval de cette dynamique, dans les pays du nord de la Méditerranée.
sciencesInfo_13-0090565_tei_1027.xml
termith-412-communication
Les débats sur les rapports entre information et milieux d'affaires ne datentévidemment pas d'aujourd'hui. Pour s'en tenir au domaine franco-belge, depuis lespremiers balbutiements du journalisme moderne, dans les années 1830, jusqu'aux plusrécents débats sur le quotidien Le Monde – ou, pour le direen n'épinglant que deux noms, d'Honoré de Balzac à Pierre Péan et Philippe Cohen( 2003) – la presse n'a cessé de faire l'objet de soupçons plus ou moins avérés, dediatribes plus ou moins pertinentes, de mises en cause plus ou moins radicales, etcela que ces attaques aient été le fait de polémistes enragés, de courtisans écartéspar la profession ou encore de journalistes en mal de confessions au crépuscule deleur carrière. Dans cette littérature abondante, le plus souvent sans prétentionscientifique et, faut-il le dire, d'inégale qualité, il convient de s'arrêter uninstant sur deux « modèles » contestables que constituent la « théorie du complot »et l'analyse « dysfonctionnelle ». Dès la fin du XIXe siècle, des écrits tous plus incendiaires les uns que lesautres se sont enchaînés avec un même objectif : démasquer les turpitudes d'uneprofession qui, rongée de l'intérieur, comme on aimait à le dire, par des« magouilles » et un esprit de chantage, incarnait alors la servilité cynique àl'égard du pouvoir financier. Pour d'autres, plus radicaux encore, la presseentretenait non seulement des liaisons coupables – maladroitement qualifiéesd' « incestueuses » – avec les « puissances d'argent » mais se trouvait aussi etsurtout au cœur d'une conspiration mondiale, le plus souvent d'origine sionisteou bolchevique, que les mieux informés se donnaient pour mission de dénoncerauprès du grand public. C'est probablement l'extrême droite littéraire etpolitique française qui, sans avoir le monopole de ces fantasmagories, a proposéle modèle le plus abouti de cette « théorie du complot » – songeons, enparticulier, à l' œuvre du polémiste Henry Coston. Si les travaux de ce type, au demeurant souvent très documentés, constituentaujourd'hui encore un matériau historique non négligeable pour la recherche ,leurs excès langagiers, leur rhétorique nauséabonde et, plus encore, leurpropension à n'envisager les relations entre médias et économie que sous le seulspectre de la conspiration n'en restent pas moins idéologiquement irrecevables .On soulignera par ailleurs combien cette approche – si tant est qu'elle puisseêtre qualifiée comme telle – fait obstacle plus que tremplin à une véritableconstruction critique de l'objet en question dans la mesure où la théorie ducomplot repose, comme l'ont très bien montré Carl Graumann et Serge Moscovici( 1987 : 247), sur une représentation psychologisante des dynamiques sociales. Enscrutant ainsi les intentions subjectives, généralement « malveillantes », desprincipaux acteurs de la scène historique, les partisans du modèle« conspirationniste » sacrifient l'analyse des solidarités objectives entre lesdiverses fractions de la classe dirigeante – patrons de presse, financiers dehaut vol et responsables politiques de premier plan – sur l'autel d'unereprésentation fantasmée de l'élite. Une autre perspective dont il faut aussi tenter d'éviter l'écueil est celle quel'on pourrait qualifier, faute de mieux, de « dysfonctionnelle ». On peut lavoir à l' œuvre dans nombre de classiques consacrés hier au « scandale dePanama » ou, plus près de nous, aux manipulations grossières dont une certainepresse s'est rendue « coupable » à l'occasion de la couverture du dossier« Clearstream ». Ces « affaires » répondant à la logique médiatique de l'audimats'inscrivent, en réalité, dans le paradigme de la vaccine barthésienne, entendueau sens d'indicateur idéologique dont la fonction consiste à reconnaîtrepubliquement les manquements aux normes déontologiques les plus élémentairespour mieux masquer le fonctionnement normal de l'institution. Axée sur les seulsscandales et révélations en tout genre, cette grille de lecture n'éclaire, quandelle est éclairante, que la face visible d'un réseau bien plus complexe derelations d'imbrication structurelle entre médias, industrie et haute finance .En outre, il convient de souligner combien cette logique confortable du« procès » ,imprégnée à la fois d'expiation et d'autocélébration, est devenueincontournable dans la profession journalistique, à un point tel qu'il n'est pasexcessif d'évoquer l'existence d'une loi implicite des trois « p » de la presse dite sérieuse – péché, pénitence etpardon – répondant en un curieux chiasme à celle des trois « s » – sexe, sang, sport – de la presse people. Le principe de la régulation, qu'elle soit interne ou externe, pourrait donc nonseulement nous détourner des véritables enjeux et problèmes mais encore agir, deconcert avec l'éthique, comme une « autocritique exorcisante », pour reprendrel'expression de Boris Libois (1994 : 3). Ainsi est-il significatif que lesdébats, conférences et colloques consacrés à ces questions strictementdéontologiques soient le fait des journalistes eux -mêmes invitant, à l'occasionde ces « purges expiatoires », l'un ou l'autre intellectuel mainstream à même de conférer à ces réflexions secondaires toutel'importance dont elles pourront, par la suite, se parer; ces événements nefaisant que rarement place aux théoriciens critiques des médias, exclus de faitde ces fausses polémiques. Preuve s'il en est que l'intérêt de cesmanifestations réside moins dans la volonté réelle des professionnels de trouverdes solutions viables aux préoccupations du moment que dans le désir desintervenants de délimiter une frontière proprement politique entre débatteurslégitimes et illégitimes. Dans le « procès réel » ,pourtant,non seulement les pratiques journalistiquesviennent régulièrement contrebalancer les déclarations d'intention des agentssociaux en question, mais encore, il faut souligner que les incantations à lamorale déclinées sur tous les tons, aussi généreuses et sincères soient-elles ,continuent d'agir auprès du grand public comme autant de discours écrans faisantl'impasse sur les véritables questions. Les dernières interventions médiatiquesopérées par les officines professionnelles de l'éthique ne sont d'ailleurs pasde nature à nous rassurer sur l'avenir à court terme d'une véritable réflexioncritique au sein des organisations professionnelles. On pensera ainsi, enparticulier, à cette campagne publicitaire de Reporters sans Frontières (2003 )montrant le corps gisant de Christine Ockrent, abattue d'une balle en pleinfront et accompagné de la mention suivante : « N'attendez pas qu'on vous privede l'information pour la défendre. Plus de 500 journalistes ont été tués en 10ans dans le monde ». Un choix pour le moins étonnant lorsque l'on étudie de prèsla trajectoire professionnelle et, plus encore, le carnet d'adresses (voirencadré) de cette star du petit écran censée incarner l'indépendance dujournalisme à l'égard des pouvoirs. Précisons enfin que si les partisans des deux modèles brièvement décritsci-dessus semblent comme pris dans une antinomie insurmontable –les adeptes de la « théorie du complot » s'évertuant à trouver les indices d'unecollusion généralisée; là où les professionnels de la vaccine ont pour fonctionobjective d'éviter une remise en cause globale du système – les uns et lesautres n'en restent pas moins dépositaires d'une même vision moralisatrice duproblème. C'est toujours d'éthique en effet qu'il est question, qu'il s'agissede déplorer la déchéance d'une profession ou, plus modestement peut-être, deregretter des pratiques condamnables au sein de la corporation. En toutelogique, l'alternative indexée par ces deux paradigmes se résume alors tantôt auremplacement d'une élite « corrompue » par une élite vertueuse, tantôt àl'adjonction d'un supplément d' âme au système par le renforcement de sesprincipes déontologiques. Au risque de choquer, il faut donc répéter que la presse, dans ses relations àl'argent, a finalement peu à voir avec la responsabilité individuelle et laliberté de la personne humaine et que les discours sur l'éthique professionnellen'ont souvent pour seule fonction, à suivre Pierre Bourdieu (1996 : 10), quecelle de permettre à un groupe social de « se donner bonne conscience tout endonnant de lui -même une bonne image ». Par conséquent, on peut rendre comptesignificativement d'une certaine orthodoxie journalistique, à travers larésistance que cette orthodoxie, dans le chef de ses agents les plus autorisés ,exerce à l'encontre de toute approche non seulement critique des rapports entremédias et pouvoir économique – ce qu'elle peut à la rigueur accepter – maissociologiquement déconstructrice – ce qu'elle n'est guère prête à tolérer. Christine Ockrent est la fille d'un diplomate belge qui occupasuccessivement les postes de secrétaire du Premier ministre et du Conseil desministres, de secrétaire général pour l'administration du Plan Marshall enBelgique, d'ambassadeur à l ' ocde et de présidentexécutif de l'Agence internationale de l'énergie. Diplômée de l ' iep, elle sera collaboratrice de l'émission « 60Minutes » sur cbs avant d'entreprendre une longuecarrière dans les médias français comme journaliste à Europe 1, présentatrice dujt de 20 h sur Antenne 2, directrice généraleadjointe de tf 1 et responsable de la rédaction de L'Express. Présentatrice de magazines politiques surFrance 3, elle sera placée à la tête de « Dimanche Soir », « France EuropeExpress » et finalement « Duel sur la 3 » en 2007. Nommée directrice générale dugroupe France Monde en 2008 par le Président Sarkozy, Christine Ockrent a étéconseillère du groupe Metro International et pdg dusite économique BfmBiz.com. Elle est aujourd'hui conseillère d'un grand nombrede think tanks français, pro-européens et/ouatlantistes : Institut français des Relations internationales (Paris) Laplus influente des « boîtes à idées » françaises en matière de politiqueétrangère compte parmi ses administrateurs Bertrand Collomb (Lafarge), RobertBadinter, Michel Camdessus, Jean-Claude Casanova, Jean-Pierre Hansen (Suez) ,André Lévy-Lang (bnp), Jean Peyrelevade, LouisSchweitzer (Renault, Le Monde) et Christine Ockrent. Centre for European Reform (Londres) Membre du comitéconsultatif avec Giuliano Amato, ancien Premier ministre italien devenu« conseiller international » de Textron (industrie américaine de la défense) ;Lord Kerr, ex-secrétaire général de la Convention européenne et administrateurde Shell; Pascal Lamyet Lord Robertson, passé du secrétariat général de l ' otan à la firme de télécoms Cable & Wireless. International Crisis Group (Bruxelles) Spécialisé dans « laprévention et la résolution de conflits militaires », l ' icg a soutenu l'intervention militaire américaine en Irak, et cela dès2002. Dans un briefing daté du 4 décembre, le directeur de l'institut devaitaffirmer : « Pour la communauté internationale, la principale questionaujourd'hui est de savoir si l'on doit ou pas faire la guerre. Pour le peupleirakien, qui depuis 1980 a survécu à un conflit dévastateur avec l'Iran, àl'opération Tempête du désert, à une décennie de sanctions, d'isolationnismeinternational et d'attaques aériennes périodiques des Etats-Unis et de laGrande-Bretagne, un état de guerre existe déjà depuis 20 ans. La question n'estpas de savoir si la guerre aura lieu. C'est de savoir si l'état de guerre seterminera finalement ». Co-présidé par Lord Patten – passé de la Commissioneuropéenne à Cadbury Schweppes – et Thomas Pickering (Boeing), l ' icg rassemble notamment George Soros, Shlomo Ben-Ami( ex-ministre israélien des Affaires étrangères), Wesley Clark (ancien commandantde l ' otan), Ricardo Lagos (ex-Président chilien), WimKok (tnt, klm, Shell) etLawrence Summers, conseiller économique du Président Obama. Côté familial, la sœur de Christine Ockrent a été conseillère duministre de la Défense puis du délégué général à l'Armement (1985-1986) avantd' être nommée directrice de la communication chez Altadis (ex-Seita), n° 1européen du tabac. Quant à son compagnon, Bernard Kouchner, il a été hautreprésentant de l ' onu au Kosovo (1999-2001) etministre délégué à la Santé (2001-2002) avant d' être choisi comme ministre desAffaires étrangères par le Président Sarkozy. Ex - pdg de la firme bk Consultants, il est administrateur dePlanetFinance, une organisation internationale dont la mission officielle est de« lutter contre la pauvreté en soutenant le développement de la microfinance » .Présidée par Jacques Attali, son conseil d'administration réunit MichèleBarzach, ancienne ministre de la Santé passée chez GlaxoSmithKline; HenriLachmann (Schneider Electric); Jacques Stern (Bull); Rachida Dati ou encoreAnne-Claire Taittinger (Taittinger). Figures incontournables de la classe dirigeante française ,Christine Ockrent et Bernard Kouchner sont, bien évidemment, tous deux membresdu très sélect club parisien Le Siècle. Dès lors, les diverses polémiques qui se sont engagées ces dernières années entreprofessionnels de l'information et intellectuels hérétiques pourraient bienporter sur les formes mêmes de la critique des médias autorisée dans la sphèrepublique. On songera en particulier à la controverse qui opposa, en 1997, ledirecteur de la rédaction de Libération àl'auteur des Nouveaux chiens de garde .Dans ce livre coup de poing, Serge Halimi – journaliste au Mondediplomatique – devait mettre au jour les relations de connivence entrel'élite française des médias, les « puissances d'argent » et les responsablespolitiques hexagonaux ainsi que l'adhésion – plus ou moins sentie et consentie –des hérauts de la presse à ce qu'il est désormais convenu d'appeler l'idéologienéo-libérale. Face à ces « accusations », Laurent Joffrin se contentera, toutd'abord de rappeler l' « efficacité » des chartes déontologiques en la matière ,ensuite de dénoncer chez son confrère « tout à la fois du simplisme économiste et du mépris à l'égard desrègles professionnelles » (Lemieux, 2000 : 98), enfin d'affirmer qu'en ignorantces mêmes dispositifs d'auto-régulation, Serge Halimi était coupabled' « accusations gratuites ». Le risque est alors grand, en quittant lesplates-bandes balisées des débats éthiques, de se voir soupçonné de violerl'intégrité psychique des acteurs, sinon de pratiquer l'amalgame et le procèsd'intention, ou tout au moins de porter un regard foncièrement désenchanteur surle monde. Le problème principal réside probablement dans le fait que le subjectivismeméthodologique demeure la matrice théorique d'une large majorité desprofessionnels dans leurs réflexions sur le métier. Or, faut-il le rappeler, lerecours au concept d' « individu » fait l'impasse sur les conditions deproduction et de reproduction du système et, dans un même mouvement théorique ,sur les structures mentales qu'elles soient de caste ou de classe qui endécoulent. Un chercheur tel que Cyril Lemieux (2000) récuse pourtant cetterupture de principe, considérant qu'il n'est de critique « juste » et« efficace » que celle qui, bien disposée à l'égard de son objet, part desprésupposés mêmes des acteurs. Cette position ne nous semble passcientifiquement tenable et nous pensons, au contraire, que le premier actesociologique à poser est celui qui consiste à mettre en suspens l ' illusio propre à chaque champ,cette « conditionindiscutée de la discussion », qui réunit hérétiques et orthodoxes dans une mêmefoi et qui interdit de fait, affirmait Pierre Bourdieu (1997 : 122-123), « lamise en question des principes de la croyance, qui menacerait l'existence mêmedu champ ». Lors des débats, la réaction des journalistes aux opuscules de Pierre Bourdieu (Sur la télévision. Suivi de L'emprise du journalisme, 1996) et de Serge Halimi (Les nouveaux chiens de garde, 1997) consistait essentiellement àopposer que nul – ni à la direction ni au conseil d'administration – ne leur ajamais dicté ce qu'ils devaient écrire, cette déclaration de principe en formede profession de foi étant, à leurs yeux, la preuve indubitable de l'évidenteindépendance de la presse. En réalité, ce que les « professionnels des médias » ,comme on aime d'ordinaire à les présenter, se refusent à reconnaître, surtoutceux qui remplissent les rôles les plus déterminants au sein des rédaction ,c'est que, s'ils occupent des postes de commandement dans la presse, c'estprécisément, comme l'a très bien montré Alain Accardo (2004 : 43), parce qu'ilsont pu faire la preuve qu'ils étaient capables de produire, sans directive, uneinformation orientée « vers des prises de position sinon toujours favorables auxthèses officielles, du moins compatibles en dernière analyse avec la défense etla reproduction de l'ordre établi ». Victimes de l'idée, socialement reçue mais sociologiquement fallacieuse, selonlaquelle les agents sociaux seraient parfaitement libres de leurs choix et deleurs opinions, certains journalistes pratiquent alors eux -mêmes l'amalgame ,confondant la description des réseaux de sociabilité des « gens de presse » avecon ne sait quelle chasse aux sorcières. Or, si la mise en évidence de ces liensne vise pas à mettre en doute l'intégrité des rédacteurs cités, ces liens n'enconstituent pas moins autant d'éléments structurants de l'habitus de classe desélites journalistiques et de leur adhésion au système économique dominant. Enaccusant ainsi l'auteur du livre de verser dans le « tous pourris », on serefusait de voir les réalités d'un corps journalistique hétérogène composé deprofessionnels dominés et d'une élite entretenant d'étroites relations avec lespouvoirs politique et financier. On observera au passage combien les divers griefs proférés par les élitesmédiatiques à l'encontre de la sociologie critique sont, à bien y regarder, pourle moins contradictoires, mais aussi emblématiques de la situation de double bind dans laquelle se trouvent plongés lesjournalistes. D'un côté, on rejette massivement l'analyse structurelle dusystème médiatique au nom de l'autonomie irréductible de ses acteurs; del'autre, on refuse l'analyse sociographique de ces mêmes « acteurs » au nom dela défense de la profession « attaquée de l'extérieur ». En réalité, ce n'est làque l'expression bien connue de cette attitude caractéristique par laquelle lesproducteurs de biens symboliques se trouvent généralement portés à se réclameren même temps et contradictoirement d'une vision individualiste de la professionet de la production mais aussi d'une conception corporatiste de leur propreunivers social. La démarche qui sera ici présentée entend somme toute renouveler la problématiquedes rapports entre État, capital et industries de la communication, et cela enévitant autant les limites imparties à une définition strictementinstrumentaliste des choses – vision véhiculée, aux extrêmes, par les partisansde la « théorie du complot » – que les déclarations d'intention desprofessionnels de la presse concernant l'autonomie présumée de leur sphèred'activités. Avant même de décrire les principes, concepts et démarches d'unetelle approche, il nous faut cependant revenir sur l'économie mainstream des médias, laquelle présente au moins un intérêt majeur :celui d'étudier la façon dont cette production véhicule, à l'instar des travauxrelevant des global studies ,les principaux topoï associés au triptyque« déréglementation/privatisation/mondialisation » (Geuens, 2007). En ce sens ,l'analyse des rapports entre presse et pouvoir économique n'échappe pas, commeon va le voir, aux idées reçues, que cette analyse adopte les contours balisésde la biographie individuelle ou collective, de la littérature journalistique etsemi-savante ou, plus largement encore, d'une sociologie des élites que l'onpourrait volontiers qualifier de naïve. Empruntant abondamment aux clichés les plus éculés sur les conquérants de laSilicon Valley, Media Mogulset autres Tycoons, nombre de travauxanglo-saxons comme francophones délivrent, tout d'abord, une imagestéréotypée des managers de l'ère numérique, dépeints comme d'infatigablescompétiteurs apolitiques et apatrides ainsi que le note Anne-CatherineWagner (1998 : 13) : « Toute une littérature économique et managériale célèbrel'émergence d'une figure nouvelle, le manager international, appelé parcette globalisation des échanges. L'interpénétration des économiesproduirait des cadres transnationaux, attachés à la défense d'intérêtscommuns, qui se définiraient d'abord par leur participation aux affairesmondiales. Ce modèle du manager international, libre de toute attachenationale, est un modèle d'identification très présent dans la presse etdans la littérature destinée aux cadres. [La] mondialisation des échangesproduirait […] des individus a-nationaux, au sens où ils seraient commeabstraits de toute détermination nationale, totalement inscrits dans lesmouvements mondiaux de l'économie ». Si de pareils ouvrages constituent donc, en quelque sorte, un matériau depremière main pour le chercheur, ils se signalent aussi et malheureusementpar leur caractère hagiographique ou démonologique, selon les cas; parl'importance démesurée qu'ils accordent aux incidents heureux ou malheureuxd'une vie; et enfin, plus fondamentalement, par leur propension à envisagerl'analyse du pouvoir dans une perspective très clairement individualiste. Leportrait du dirigeant d'une transnationale lambda de la communication seraainsi soit celui d'un Self-Made Man, parti de nullepart pour construire, à la seule force de son ambition et de sa volonté, ungéant des médias; soit celui d'un employé modèle ayant gravi tous leséchelons de l'entreprise méritocratique avant de prendre les rênes dupouvoir et d'imposer ainsi sa volonté aux actionnaires. Dans un cas comme dans l'autre, on reviendra tout d'abord sur le caractèreparticulièrement singulier de ces entrepreneurs de génie tout à la foisvisionnaires et pionniers dans leur domaine (Peters, 2003). Hommes de défis ,ambitieux et à l'appétit de conquête insatiable (Carlier, 2002), les« guerriers de l'économie » sont alors donnés pour de finsstratèges engagés dans une rude et sauvage bataille commerciale (Swisher ,1998; Hack, 2003). L'issue de cette lutte concurrentielle et sans merciest, quant à elle, connue d'avance : d'un côté les perdants de laglobalisation, incapables de s'adapter aux contraintes imposées par lamarchandisation de l'information, de l'autre, les « champions » del'économie, dirigeants de ces royaumes du multimédia régnant sans partagesur le monde (Flower, 1991; Shawcross, 1997; Masters, 2001; Tuccille ,2003; Auletta, 2004). Ensuite, on suivra pas à pas la carrièreparticulièrement brillante de ces êtres d'exception. Retraçant, dans lesmoindres détails, l'histoire d'une saga professionnelle s'apparentant à unevéritable épopée antique (Fallon, 1991, 1994; Mair, 1998), il sera alorsfait mention de cet incroyable destin ayant métamorphosé un homme venu derien en un commandeur d'Empire dont on annonce, pour certains en tous cas ,le déclin sinon la chute imminente (Emmanuel, 2002; Klein, 2003; McNish ,Stewart, 2004; Siklos, 2005). Devenus les « maîtres du monde » – selon une formule qui est elle -même uneffet de mode autant que d'imposition – les nouveaux patrons de lacommunication sont également perçus comme autant d'effigies suprêmementindividuelles de la globalisation de l'économie. On mentionne alors quasisystématiquement les noms de l'Américain d'origine australienne RupertMurdoch (rachat du Sunday Times à la famille Thomsonen 1981), du Canadien Conrad Black (reprise du DailyTelegraph et du Sunday Telegraph en 1985) ,de Robert Maxwell (rachat du Mirror Group à ReedInternational en 1984), né Tchèque, ou encore de l'Irlandais Tony O'Reilly( prise de contrôle total de The Independent en 1995) ,installé aux États-Unis. Un avis partagé par Fabien Blanchot et Jean-GustavePadioleau pour qui la mondialisation s'identifie, sans ambiguïté aucune, àces multinationales des médias qui subvertissent « le capitalismepatrimonial indépendant de grandes familles […] le capitalisme managérialdes technostructures […] et à plus forte raison les formulesorganisationnelles hybrides de trust et de fondationsautonomes (Guardian, Bertelsmann) » (Blanchot ,Padioleau, 2003 : 64). Bref, au technocrate d'antan, keynésien et présidentd'un monopole d' État confiné dans son territoire national, aurait succédé ,selon Jean-Marie Charon (1996 : 95-106), le prototype même du pdg libéral et globe-trotter se jouant de toutesles frontières géographiques et diplomatiques. Pourtant, en y réfléchissant bien, il convient de reconsidérer le poids deréalité de la trans-nationalisation de l'économie, notamment dans le secteurdes médias (Geuens, 2007) : on soulignera tout d'abord le fait que certainsdes hommes d'affaires cités ci-dessus ont pris, à la suite de leursacquisitions respectives, la nationalité britannique (Maxwell, Black) ;ensuite que la plupart de ceux -ci appartenait déjà à l'organisationpolitique et culturelle du Commonwealth (Rupert Murdoch); enfin que lesadministrateurs et conseillers de ces sociétés (News Corporation ,Independent News & Media, Hollinger International) demeurentmajoritairement à ce jour des dirigeants nationaux. Ce seul constat permet àtout le moins – on en conviendra aisément – d'interroger le bien-fondé decertaines approches par trop « globalisantes ». En se focalisant, pourl'essentiel, sur les joint-ventures réalisées entrefirmes de communication américaines, européennes et asiatiques, des plumesaussi expérimentées que Robert McChesney (McChesney, Wood, Foster, 1997) ouDan Schiller (2000) sont par conséquent amenées à faire leur l'idée d'unemondialisation totale de l'économie des réseaux, et cela sans aller plusavant dans l'étude de leur objet. En outre, il convient, et pour finir sur ce point, d' être attentif au faitque les différents travaux susmentionnés participent à leur corps défendantà une forme de réification du pouvoir économique, et cela quand bien mêmeleur approche reposerait-elle sur une représentation hyper-individualistedes dirigeants de médias. En portant continuellement l'accent sur les seulesrelations de connivence s'établissant entre MediaMoguls etpuissances d'argent, un auteur aussi bien informé que NoamChomsky, par exemple, peut ainsi – lui aussi – retomber dans une forme defétichisation de la grande entreprise. Parce qu'il associe aux firmesmultimédia, comme beaucoup d'autres chercheurs américains, la rhétorique dugigantisme, de la démesure et de la monstruosité – en témoignent lesformules du type Conglomerate Media et Megamedia – Noam Chomsky tombe dans une forme deréification du pouvoir économique, alors même que les industries culturellesne font jamais qu'exprimer et cristalliser des rapports sociaux dedomination que ces dernières consolident en retour. Cette impasse tout à lafois lexicale et théorique limite ainsi la portée proprement sociologique dece modèle sans qu'il ne soit question pour autant d'assimiler – accusationaussi grossière que convenue – l'analyse de Noam Chomsky à une quelconque« théorie du complot ». Les polémiques nées des dégâts sociaux et économiques associés à lamondialisation pourraient donc bien, paradoxalement, obscurcir plusqu'éclairer la problématique qui nous occupe ici; les nombreux travaux« dévoilant » le pouvoir grandissant des « transnationales » du multimédiaet des tic se révélant singulièrement stéréotypés .Même sous couvert d'abondance, c'est en effet un principe de rareté quiapparaît clairement, à savoir que, à quelque catégorie qu'ils appartiennent ,l'ensemble formé par ces discours se confond largement avec l'orchestrationd'une poignée de lieux communs et de clichés, au premier rang desquelsfigure la dénonciation du pouvoir grandissant des lobbies de lacommunication. Perçues comme hérétiques, les condamnations de ce genre n'en demeurent pasmoins tributaires d'une représentation idéologique – au sens proprementmarxien du terme – des relations entre information, économie et politique .Relayée par la très grande majorité des travaux relevant des global studies, la dissociation artificielle del' État et du marché témoigne en réalité de l'existence, chez certainsintellectuels, d'un fétichisme politique s'exprimant à travers la référenceincantatoire à la « citoyenneté », le soutien indéfectible à la « sociétécivile » et le rappel constant des gouvernements à leur devoir d' « intérêtgénéral ». Investi d'une neutralité, l' État ne pourrait ainsi y échappersauf à trahir par la pratique la mission sociale qu'il est censé en théorieincarner. Virus travaillant au corps sain du politique, les groupes de pression et autres réseaux d'affairess'identifieraient alors à de véritables parasites perturbant le belordonnancement dont était garant l' État keynésien. Les affinités électives entre élites économique et politique doivent pourtantplutôt être pensées comme le résultat de trajectoires socioprofessionnellescomparables – s'illustrant, entre autres, par la circulation ininterrompuede certains agents sociaux entre divers lieux de pouvoir –; une telledynamique de classe assurant l'intégration relative des diverses fractionsdirigeantes (Geuens, 2007). Les stratégies de reconversion adoptées par laplupart des anciens commissaires européens en charge de la « société del'information » ou des questions de concurrence ne rendent-elles pas scientifiquement intenable ladistinction de nature – sinon même de principe – entre économie etpolitique ? « Influence », « pression », « immixtion », « instrumentalisation » ,« corruption », ces termes se renforcent mutuellement et avec eux l'implicitedont ils sont porteurs : celui de l'extériorité réciproque des entreprisesprivées et des pouvoirs publics, toute relation plus organique avec l' Étatrelevant du « dysfonctionnement » ou de l' « anomalie » pour reprendre letitre du livre d'Adrien Candiard (2003) consacré à Silvio Berlusconi. C'estque le patron de multinationale – figure désincarnée s'il en est – doittenir bon dans le discours social contre la noblesse d' État (Bourdieu, 1989 )et les héritiers de la haute finance, et avec lui le mythe de l'entreprisetechnologique symbolisant la toute-puissance d'une économie de l'immatériel« libérée » de l'emprise politique, pour le meilleur comme pour le pire, etdu pouvoir par trop brutal du capital. Par conséquent, le renouvellement de la socio-économie des médias exige unerupture théorique et programmatique avec ce type de littérature académique etsemi-savante tout à la fois ultra-globalisante et hyper-individualiste; lalibéralisation du marché des communications n'a pas encore condamné les patronsde presse, les grands actionnaires familiaux et les mandataires publics auxoubliettes de l'Histoire. À cet égard, l'étude serrée de la composition des conseils d'administration desentreprises médiatiques – interfaces par excellence de la propriété et de lagestion – s'avère être un point d'entrée particulièrement précieux pour repenserles articulations entre information, économie et politique, et les médiationssociales participant à l'intégration des diverses fractions dirigeantes. Pourêtre tout à fait précis, cette approche sociographique est en réalité porteused'un triple intérêt scientifique. Elle permet tout d'abord de s'affranchir del'opposition « managers/capitalistes » formulée, dans le courant des annéesquarante, par divers économistes, sociologues et politologues nord-américains( Burnham, 1941; Berle, Means, 1948). Présumés indépendants des « prédateurs »financiers et des actionnaires familiaux, les directeurs seraient devenus, avecla fragmentation croissante du capital social des firmes, les seuls détenteursd'une autorité de fait appelée à transformer radicalement non seulement lefonctionnement en interne des sociétés mais, plus largement, le capitalismelui -même. Cette distinction qui a encore cours aujourd'hui – faut-il lerappeler – est le plus souvent surestimée puisque diverses médiations existentqui visent précisément à l' « assimilation » des cadres supérieurs à la grandebourgeoisie traditionnelle : origines sociales et stratégies matrimonialessimilaires, communauté de vue et d'esprit (Miliband, 1973 : 33-61; Domhoff ,2002 : 63-64), participation conjointe aux bénéfices voire au capital dessociétés (Kolko, 1962 : 67; Mills, 1959 : 121-122; Villarejo, 1961 : 33-77 ,45-65). Les oppositions non antagonistes et secondaires traversant le groupesocial dominant n'excluent donc nullement l'existence en son sein d'une cohésionde classe prioritaire. En ce sens, le discours convenu sur l' « ère desmanagers » tend inévitablement, comme l'affirment Michel Pinçon et MoniquePinçon-Charlot (2000 : 112), à faire l'impasse sur les grandes familles en tantque principaux bénéficiaires de la plus-value extorquée sur le travail. L'analyse des structures dirigeantes facilite en outre – comme on vient del'évoquer – la compréhension des mécanismes sociaux permettant à la grandebourgeoisie de consolider simultanément son autorité dans l'entreprise ainsi queson unité, et cela en dépit même de la persistance de contradictions internes augroupe. Beth Mintz et Michael Schwartz (1985 : 135) ont ainsi montré comment auxÉtats-Unis l'entrelacement des directoires économiques constituait un système decooptation et de communication particulièrement efficace pour dépasser leséventuels conflits d'intérêts et les différends idéologiques; lesadministrateurs multiples – issus pour la plupart du secteur financier et/ou dela haute fonction publique – agissant, en quelque sorte et pour reprendrel'expression un peu vieillie d'un Gramsci, comme les « intellectuelsorganiques » de la fraction hégémonique du « bloc au pouvoir » (Geuens, 2007) .Quant à l'appareil d' État, il serait toujours le lieu privilégié de« détection/sélection » des futurs responsables des grandes entreprises privéeset publiques; les nationalisations et privatisations successives n'ayantpratiquement rien modifié en la matière, comme l'ont montré Michel Bauer etBénédicte Bertin-Mourot (1997). Les conseils d'administration des groupes médiatiques peuvent enfin êtreconsidérés comme des circuits d'information privilégiés et fermés grâce auxquelsles hommes d'affaires identifient collectivement leurs intérêts avant d'établirl'agenda des actions politiques à entreprendre afin de les préserver (Zeitlin ,Ratcliff, 1988; Zeitlin, 1989). Le principe de la cooptation desadministrateurs indépendants a d'ailleurs pour avantage, si l'on suit MichaelUseem (1984 : 114), d'éviter les principales lourdeurs associées aufonctionnement des organisations patronales telles que le caractère ouvertementpublic de leurs activités. Ces réseaux économiques (entreprises) et sociaux( administrateurs) – redoublant généralement des affinités personnellespréexistantes – construisent donc un méta-réseau semi-officiel d'organisationsaffiliées les unes aux autres et permettant une prise de décision, non passecrète, mais discrète et collective. À ce stade, il est très important de préciser que l'usage que l'on fera duconcept de « capital social » présuppose une forme d'abolition du tempshistorique puisque les réseaux de sociabilité sont pour partie, comme on lesait, le résultat de positions occupées antérieurement. En outre, trois autresraisons justifient ce retour dans le passé. Se limiter aux seuls postes occupéssimultanément par un même agent aurait tout d'abord rendu pratiquementimpossible le fait de penser les articulations entre économie et politique; lesmembres de la classe dirigeante ne détenant jamais au même moment – saufexception notable – un mandat au sein de l'exécutif gouvernemental ainsi qu'unposte de conseiller d'une puissante compagnie industrielle ou financière. Ilconvient ensuite d' être attentif au fait que les nominations de nouveauxadministrateurs « indépendants » s'éclairent, le plus souvent, à la lumière dela surface sociale de ces personnalités, dépositaires d'un capital quel'historien Jean Garrigues (2002 : 152), qualifie d' « extrêmement précieux etrecherché : la connaissance du monde politique et la maîtrise des rouagesadministratifs ». Or, cette familiarité avecl'univers de la haute fonction publique s'exprime essentiellement à traversl'existence d'un réseau de connaissances se construisant au fil du temps et desopportunités professionnelles. Notons enfin que l'analyse des imbrications« société à société » (« interlocking boards ») ne doitpas être limitée aux seules relations qui se tissent entre plusieurs groupesindustriels partageant simultanément un même administrateur. Il convient aucontraire de rappeler que les réseaux d'entreprises se nouent dans une largemesure sur la longue durée; les sociabilités nées de positions multiplespouvant être potentiellement réactivées à tout instant. En effet, les exemplessont nombreux qui traduisent l'importance stratégique des affinités personnelleset des amitiés d'affaires dans un univers social prétendant fonctionner à laseule rationalité économique : la nomination des directeurs exécutifs, lesrapprochements entre firmes, ou encore le soutien des institutions financièresnationales à des sociétés familiales menacées d ' opa par des investisseurs étrangers, illustrent la persistance de mécanismesspécifiqueséchappant à une vision strictement marchande – et donc réductrice –des « marchés ». La détermination du capital social des administrateurs des entreprises decommunication ne peut cependant faire l'économie d'une réflexion spécifiqueportant sur l'appartenance de ces derniers à des organisations de mécénat ,fondations philanthropiques et autres cercles d' « élite ». Hauts lieux consacrésà l'accumulation du capital social, les clubs participent plus que toute autreinstitution, à une forme de collectivisation de la vie sociale (Agulhon, 1977) ;la sociabilité étant, dans cette perspective, considérée non seulement comme uncapital stratégique personnel associé à une trajectoire singulière, maiségalement comme une des ressources les plus efficaces qui soient pour assurerl'unité relative des diverses fractions dirigeantes. Les cercles remplissent parconséquent une fonction éminemment politique, étant entendu qu'ils assurent, àleur tour, une communication permanente et discrète entre représentants du mondedes affaires, du gouvernement et de l ' intelligentsiamédiatique. À l'image des conseils d'entreprises, ils constituent descénacles fermés sur eux -mêmes où se distillent au compte-gouttes desinformations capitales pour l'une ou l'autre catégorie socioprofessionnelle .Enfin, il n'est pas inutile de préciser que l'étude sociologique de cesinstitutions « mondaines » (conseils d'administration, clubs privés, etc.) estrendue cependant d'autant plus délicate que les pratiques associées à la hautesociété s'expriment généralement sous le sceau de la discrétion et de laconfidentialité. C'est que la vieille bourgeoisie patronale – comme la noblessed' État et les nouveaux barons de la presse (Pinault, Arnault, etc.) – cultiveune intense sociabilité se signalant par la recherche perpétuelle, méthodique etobstinée de l'entre-soi, faisant d'une bourgeoisie libérale et individualiste enthéorie une classe pragmatique et collectiviste en pratique (Pinçon ,Pinçon-Charlot, 2000 : 103). L'idée est donc bien de lister pour chaque dirigeant de médias les divers mandatsdétenus dans le monde de l'entreprise, de l'appareil d' État, des organisationspatronales, des cercles privés ou encore des boîtes à idées; les personnalitésainsi « fichées » n'étant pas considérées dans leur singularité propre mais entant qu'elles sont autant de formes incarnées de relations sociales génériquesentre presse et pouvoir. La logique de l'interpénétration réciproque des sphèreséconomique, politique et informationnelle a toujours besoin en effet des'incarner dans des individus en chair et en os – à la fois singuliers etinterchangeables – pour s'accomplir pleinement. Précisons encore que la démarchesocio-économique décrite dans les pages précédentes n'autorise pas seulementl'abandon d'une définition strictement financière du pouvoir des« multinationales » de la communication. Elle devrait également permettre dedépasser les clivages artificiels introduits par des découpages institutionnelset disciplinaires masquant l'importance des relations personnelles dans ladynamique d'intégration des diverses fractions dirigeantes. Montrer commentcertains réseaux de sociabilité et d'influence s'incarnent dans despersonnalités qui en sont comme les marqueurs, et corréler des données que lapratique ordinaire et parfois même scientifique sépare encore trop souvent ;c'est enfin, et plus fondamentalement peut-être, initier une rupture avec unecertaine forme d'académisme dans le domaine des sciences de l'information et dela communication .
Une approche scientifique des relations entre médias et milieux d'affaires ne peut se réduire aux déclarations d'intentions des professionnels de la presse concernant l'autonomie présumée de leur sphère d'activités à l'égard des « puissances d'argent », à la description de prétendus réseaux de collusion « occultes » auxquels participerait l'élite des médias - vision par trop instrumentaliste de la question - ou encore à cette littérature anglo-saxonne tout à la fois ultra-globalisante et hyper-individualiste consacrée aux Media Moguls et autres Tycoons. Le renouvellement de la problématique en question exige, au contraire, que l'on opère une rupture avec ces représentations psychologisantes et moralisatrices des pratiques sociales. La sociologie critique des administrateurs des groupes médiatiques s'avère être, à cet égard, un point d'entrée particulièrement précieux pour repenser les articulations entre information, économie et société, et cela, en évitant l'écueil d'une certaine forme d'académisme en matière de sciences sociales.
sciencesInfo_11-0029020_tei_1065.xml
termith-413-communication
« Les artisans sont surtout fiers du savoir-faire qui mûrit. C'estbien pourquoi la simple imitation ne procure pas une satisfaction durable; lacompétence doit évoluer. La lenteur même du temps professionnel est une source desatisfaction; la pratique s'enracine et permet de s'approprier un savoir-faire. Lamême lenteur permet aussi le travail de réflexion et d'imagination – au contraire dela course aux résultats rapides. La maturation demande du temps; on prenddurablement possession d'une compétence » Richard Sennett (2008 : 395). Je voudrais profiter de l'occasion qui m'est donnée de faire le point sur larhétorique aujourd'hui et défendre un point de vue dont j'ai bien conscience qu'ilest assez marginal parmi les théories contemporaines qui s'intéressent aux discours .Je la crois pourtant digne d'intérêt. La voici. Aristote n'a jamais été d'une aussigrande actualité. La première raison est trop simple. La portée de l' œuvre de cegrand humaniste le rend indémodable. La deuxième raison, plus complexe, fera lamatière du développement qu'on va lire. Tout d'abord, il faut noter qu' à l'instar detous les esprits libres, Aristote a souvent fait l'objet d'incompréhensions, deréductions, voire de récupérations. C'est le cas, en particulier, de sa Rhétorique, œuvre dans laquelle on a aujourd'hui coutume devoir tantôt un ars bene dicendi quelque peu poussiéreux ,tantôt un ensemble de syllogismes abstraits. Les spécialistes de l'art oratoire etde son premier théoricien savent pourtant qu'il n'en est rien. Dans cette œuvre, onpeut lire entre les lignes une volonté obstinée de sonder en détail la nature del'homme : son logos bien sûr, mais aussi sa sagacité, salucidité, son agilité, et même son courage face à l'incertitude. À mes yeux, larhétorique est l'outil destiné à cet homme, animal politique, animal délibérant ,animal décidant. Ni philosophe, ni homme de science, l'homme de la rhétorique estl'acteur du contingent, le figurateur de la réalité sociale, le décideur ,commémorateur, blâmeur et loueur. Un citoyen qui utilise et produit des discourspublics dont l'ensemble définit l'art rhétorique. Un art dont la fonction est defaire fonctionner les institutions. Définie en ces termes, la rhétorique estnécessaire à toute vie sociale. Mais je voudrais montrer ici pourquoi il estimportant d'en redécouvrir et d'en réinvestir toutes les facettes, depuis lesracines aristotéliciennes, et même au-delà. Pour ce faire, il faut montrer que denombreux aspects de la pensée d'Aristote, que l'on n'associe pas spontanément à lapratique du débat, sont pourtant directement pertinents pour une meilleurecompréhension des rapports entre discours et société et cela, en particulier, àl'heure actuelle. Or, justement, ces autres aspects sont moins ceux qu'on al'habitude d'associer à la Rhétorique (comme on le fait de la Dialectique, soncélèbre analogue) que ceux d'un humanisme sensible, curieuxdes hommes, de leurs sensations, de leur rapport à l'amitié, du regard qu'ilsportent sur le monde et même de la façon dont ils habitent leur corps. Au terme dece parcours, j'espère avoir pu convaincre de l'importance d'Aristote au XXI e siècle, mais surtout de l'urgence qu'il y a à réinvestir uneattitude humaniste dans ce qu'on a coutume d'appeler la communication. Utiliser la parole publique pour faire fonctionner les institutions est le proprede la rhétorique. Mais celle -ci se pratique par la délibération à l'issue delaquelle les décisions sont prises. Bien sûr, pas n'importe lesquelles : cellequi auront pu emporter l'adhésion. Relisons une autre définition qu'Aristote (Rhét., I, 2, 1355b) donne de la rhétorique au débutde son œuvre : « Admettons donc que la rhétorique est la faculté de découvrirspéculativement ce qui, dans chaque cas, peut être propre à persuader ». Arrêtons -nous pour commencer sur le terme « faculté ». Alors même qu'Aristotedéfinit la rhétorique comme un art (une tèchnè), cetteautre définition laisse entendre qu'il s'agit d'une compétence naturelle etréputée universelle : une faculté. Le terme grec « dunamis » rendu par le français « faculté », désigne d'abord la force ,la puissance, mais ensuite, de façon dérivée, l'art. Dès maintenant, cetteremarque philologique me permet de mettre en lumière une réalité aussi évidentepour Aristote que devenue peu intuitive pour nous : les facultés naturelles sontprolongées par les techniques qui, toutes ensemble, forment un artisanat. Or ,c'est bien selon ce modèle naturaliste et continuiste des fonctions de la paroleet de la raison humaine qu'il faut, je crois, comprendre le propos d'Aristote .Mais cette faculté naturelle, prolongée dans et par la technique, ne se limitepas à la prise de parole et encore moins à l'éloquence, comme on en a tropsouvent l'image, même si la parole est centrale dans l'exercice de cet art .L'art rhétorique qui prolonge la force persuasive, sollicite de nombreusesaptitudes humaines, que j'évoquerai bientôt. Mais auparavant, il faut s'arrêtersur un autre terme grec de la définition donnée par Aristote. En effet, cette« faculté » rhétorique permet à l'homme de « découvrir », traduit MédericDufour, dans chaque cas, ce qui est propre à persuader. Le deuxième aspect de ladéfinition qui doit retenir notre attention est le choix de ce verbe, en Grec ,« théôrèsai », que l'on peut traduire par« contempler », « examiner par l'intelligence » et finalement « juger ». Dans lanature de cette faculté, on trouve donc une dimension sensorielle ,intellectuelle et, finalement, heuristique. Ces domaines de l'activité humaineque nous avons l'habitude de dissocier sont ici conçus et pensés ensemble, en unmême mouvement rationnel dont il faut, je pense, considérer toute la portée. Carc'est bien au sein de ce continuum entre nature etculture, entre les sensations, les jugements et l'action, qu'il convient desituer cette « compétence rhétorique » qui est le propre de l'homme. Exprimé parle vecteur de la parole publique, en amont de celle -ci, un ensemble de facultésde sensations, de discernement et d'action est à l' œuvre, qui, toutes ,concourent à la puissance de la persuasion. Pour cerner la portée de cette proposition, il faut retourner aux canonsculturels dans lesquels est née la rhétorique. Ceci me permettra de dresser leportrait de cette discipline, d'abord naturelle, puis technique, qui pourraitbien être la pierre angulaire du système aristotélicien, alors même que notrevision du philosophe a eu tendance à marginaliser cet aspect de sa pensée dansles cours de philosophie. J'irai droit au but, ce qui me permettra, je l'espère ,d'atteindre le XXI e siècle aussi vite que possible .Lorsque naît la rhétorique, la Grèce est encore marquée par la culture del'artisanat, essentiellement orale, portée par la raison pratique ,l'apprentissage collectif par imitation, mais aussi une association spontanéeentre qualités éthiques et qualités intellectuelles, entre jugement et action .Pour les Sophistes, premiers commentateurs de la rhétorique, cette activitétrouve son lieu naturel dans la culture de l'artisanat, à tel point qu'ils ladéfinissent comme l ' artisan de persuasion, selonl'expression de Gorgias : « Peithous dèmiourgos ». Ce nesont pas là de vains détails philologiques. Au contraire, les termes quidéfinissent la rhétorique offrent à la réflexion une discussion qui doit serévéler essentielle pour nous car ce terme de dèmiourgos ,qui désigne l'artisan à l'ancienne mode, un peu prophète, un peu devin, un peuguérisseur, une peu rhéteur, est un homme orchestre, efficace mais pas toujourscernable, dont Platon, et même Aristote, ne veulent plus. C'est ce que souligneRichard Sennett (2008 : 36) dans une pénétrante réflexion sur l'épistémologie del'artisanat : « Aristote abandonne le mot ancien de dèmiourgos, pour employer celui de cheirotechnon, qui veut dire simplement « travailleur de la main ». Or, cet abandon par l'auteur de la Rhétorique ne relèvepas uniquement d'un choix linguistique à mettre sur le compte d'un capriceesthétique. C'est une culture entière qui est mise à distance, pour des raisonstant politiques que philosophiques. Quoi qu'il en soit, un orateur ne peut être« seulement » un cheirotechnon : un « travailleur de lamain », puisqu'il est avant tout un artisan de la parole. S'il ne peut plus êtreun dèmiourgos, un artisan à l'ancienne mode, il devientdonc celui qui est capable de voir, de sentir, de découvrir et de juger (théôrèsai) ce qui, dans chaque cas, est propre àpersuader. En somme, d'un geste, Aristote immunise la rhétorique contrel'héritage magico-religieux de l'ancien monde de l'artisanat mais, de l'autre ,il nous dit dans sa théorie de l'art oratoire, que l'homme qui a cettecompétence, ce savoir faire, le possède, d'abord parce que c'est une faculté ,ensuite parce qu'il existe un art, une technique (en somme, un artisanat) quechacun peut exercer pour améliorer ce savoir faire, cette faculté spontanée .Toute l'ambivalence d'Aristote est nichée au cœur de cette définition quis'éclaire par la réalité culturelle du monde de l'artisanat. C'est à l'évidenceune question épistémologique que nous n'avons pas résolue et que je n'entendspas résoudre ici. Mon propos, on l'a compris, est d'attirer l'attention dulecteur sur une série de liens entre la notion de rhétorique et une certaineconception de l'intelligence et de l'action humaines. Cet éveil a pour ambitionde souligner l'importance de cette discipline pour les contemporains. Revenons une fois encore à théôrèsai : ce verbe contientle palimpseste de toute une généalogie de la raison à laquelle Aristote adhéraitet qu'il semble parfois vouloir conserver pour l'art rhétorique, quoi que defaçon instable (Tindale, à paraître). Ces éléments sont d'ailleursdéveloppés plus directement dans d'autres ouvrages que nous devons à l'auteur dela Rhétorique. Du plus sensible au plus conceptuel, duplus spéculatif au plus opératif. Cette action intelligente, produit d'unefaculté humaine, trouve sans doute sa source dans la conception aristotéliciennedu rapport au monde et à Autrui, dont on trouve l'exposé dans l ' Éthique à Nicomaque mais aussi dans le De Anima. Dans ces textes, en bon généalogiste de la rationalité ,Aristote repart de la sensation et en particulier d'une notion qui me paraîtcentrale pour la discussion qui nous occupe : la sunaisthèsis, dont la traduction, comme souvent, n'est pas univoque .Comme l'explique Daniel Heller-Roazen (2007 : 83-84) : « Constitué par l'adjonction du préfixe « avec » (sun -) au verbe « sentir » (aisthanesthai), ce terme, selon toute probabilité, désignait un« ressenti en commun », une perception partagée par plusieurs personnes. Il estrévélateur que le Stagirite l'ait utilisé au sein de son analyse de l'amitié ,tant dans l ' Éthique à Eudème que dans l ' Éthique à Nicomaque. À ce stade du développement de lalangue grecque, le mot s'appliquait à la vie collective, et son sens était loinde celui que lui attribueraient plus tard les commentateurs ». Il convient, à mon sens, de rapprocher cette réflexion sur l'éthique, lasensation, et le sens commun, d'une réflexion sur la conception aristotéliciennede la rhétorique. Ainsi, dans le projet de replacer la Rhétorique au centre d'une réflexion contemporaine sur la« rationalité discursive », il me semble que le rapprochement critiquedes notions de « théôrèsai » et de « sunaisthèsis » mérite qu'on s'y arrête un moment. En effet, on peutrecomposer une activité de la raison humaine qui, tout à la fois, estsensorielle, intellectuelle, individuelle et collective. En somme, c'est àpartir de la faculté humaine de sens commun que peut se produire l'échange et lacritique des arguments qui font la matière des débats dans la vie publique. Maisla condition de cette action rhétorique qui est la confrontation des argumentssur la place publique est tout à la fois l'exercice conscient de ce sens communet la conscience individuelle d'une possibilité de mise en commun des sensationset des jugements. Ainsi la rhétorique serait-elle la faculté, puis l'art dedécouvrir (théôrèsai) ce qui est propre à persuader àpartir d'un sens commun (sunaisthèsis). Une belle étudede Danielle Lories (1998 : 119-120) permet de saisir les liens, distendus pournous, mais évidents pour les Grecs, entre action pratique, sens commun, capacitéà juger, à délibérer et à faire le bon choix. C'est ce lien que je chercher àmettre en évidence ici : « La délibération en question n'est pas une délibération technique où il s'agit de déterminer les moyens de produire ce qui est visé comme une fin particulière, telle la santé […] La délibération où excelle le phronimos concerne le bien-vivre comme tel, il s'agit dedécouvrir, en fonction des situations singulières, chaque fois données, lamanière de bien agir : qui toujours agit bien accomplit le bien vivre ». Bien sûr, l'art de délibérer s'apprend au sein de la rhétorique même si, nousrappelle Danielle Lories, le bon délibérateur en général peut avoir d'autresvisées que la stricte décision « politique ». Quoi qu'il en soit, on voit dansla délibération en général l'action de celui qui sait comment bien agir pour finalement bien vivre. Il est à mes yeuxparticulièrement pertinent de noter que son étude très détaillée fait le pointsur l'ensemble de ces qualités éthiques et intellectuelles qui définissent celuiqui sait comment délibérer, comment faire le bon choix et, en définitive ,comment persuader, sans jamais faire allusion à la Rhétorique, laquelle n'est d'ailleurs pas citée dans sa bibliographie .Ce n'est pas l'auteur de l'essai pénétrant qui est visé dans cette remarque maisAristote lui -même, qui évoque peu la rhétorique dans ses développements surl'éthique et sur le sens commun. Pourtant, la description générale de cesaptitudes propre à l'homme, celles qui exercent toutes les facettes du senscommun, présente la même structure, celle de l'artisanat, que l'on retrouve dansla définition de la rhétorique. Il s'agit, souligne Danielle Lories, d'apprendreà découvrir, dans chaque situation spécifique, la « manière de bien agir ». Cecommentaire nous permet, je crois, d'envisager la rhétorique en tant quefaculté, puis en tant qu'art, comme une activité qui intervient aussi bien enamont qu'en aval des décisions politiques. Elle se donne comme le passeur entreles disciplines pratiques et les réflexions théoriques. Elle est fondée sur unecapacité, celle du bon délibérateur (le phronimos) àexercer une dynamique entre l'expérience du sens commun et les jugements àopérer en contexte. On se trouve là au cœur de l'épistémologiearistotélicienne : « L'expérience elle -même, au sens où l'entend Aristote, est ,selon l'expression d'Aubenque, " à mi-chemin de la sensation et de la science " etassure " un équilibre entre la science et la familiarité ", elle est ce sans quoi" la familiarité est inaccessible et la science impuissante " » (ibid. : 127). Comment acquérir cette expérience de l'action consciente si ce n'est par ledéveloppement d'une intelligence pratique (une faculté) grâce à un exercicerégulier que les Grecs nommaient la praxis. Mais avec ledénigrement de la culture de l'artisanat, nous avons appris à mépriser lesdisciplines pratiques et leurs spécificités épistémologiques. La tentationmoderne puis contemporaine d'offrir un modèle scientifique (c'est-à-dire fiableparce que théorique et systématique) de la communicationpolitique et du débat public nous fait pourtant passer à côté de cette catégorieessentielle pour la pensée, et, partant, pour la théorie : la pratique ,l'exercice réel, d'entraînement au débat public. Je postule donc que la rhétorique est cette discipline qui se caractérise par unrôle de passeur entre théorie et pratique, entre senscommun et science, entre faculté et technique qui permet d'organiser la vie encommun par la production et la confrontation de discours, de débats, d'argumentset de décisions. S'exercer à la rhétorique, c'est donc s'exercer à la jouteargumentative, comme apprentissage à l'art de délibérer en vue de persuader (etd' être persuadé en retour). Mais comme dans toute technique, il faut toutd'abord apprendre la base. Ici, le premier exercice, déroutant mais nécessaire ,consiste à apprendre à prouver les contraires. CommeAristote (Rhét., I, 1, 1355a) tient à le rappeler en uneformule prudente : « De plus, il faut être apte à persuader le contraire de sathèse, comme dans les syllogismes dialectiques, non certes pour faireindifféremment les deux choses (car il ne faut rien persuader d'immoral), maisafin de n'ignorer point comment se posent les questions, et, si un autreargumente contre la justice, d' être à même de le réfuter ». Ce passage me paraît important en ce qu'il souligne une hésitation sur la viséede la rhétorique. En somme, il s'agit de s'exercer, comme l'enseignaient lesSophistes, à prouver une thèse, comme son contraire, et cela, de façon àacquérir une agilité dans les débats. Mais le philosophe souligne immédiatementqu'il ne faut rien persuader d'immoral et que cet entraînement a un but trèsprécis, en accord avec la doctrine de son maître Platon : celui de défendre lajustice. Il y a là pourtant un grand écart qui conduit le Stagirite à gommer lavisée proprement pratique qui se trouve au cœur de l'art de persuader. En effet ,dans un environnement contingent et complexe, comment être toujours sûr a priori de ce qui est juste ensoi ? Il convient à l'évidence de s'immuniser contre toute accusationd'immoralisme, comme les Sophistes en ont été l'objet. Mais la mise en avantd'une visée telle que la justice idéalise et théorise artificiellement l'horizonde l'art rhétorique. Pourtant, un peu plus loin, Aristote (Rhét., I, 1, 1355b) précise un point qui lui permet de réassocier cetart de la parole publique avec le système humaniste et naturaliste dans lequelil faut, je crois, replacer l'antique discipline : « En outre, s'il est honteux de ne se pouvoir défendre avec soncorps, il serait absurde qu'il n'y eût point de honte à ne le pouvoir faire parla parole, dont l'usage est le plus propre à l'homme que celui du corps ». Ainsi l'exercice de rhétorique n'a -t-il pas pour seule visée de défendre lajustice, même s'il peut s'avérer très utile en la matière. En amont de ce choixphilosophique, il permet avant tout de développer des facultés qui sont les pluspropres à l'homme, et de les prolonger dans les arts. Il serait même « absurde »( atopon), ajoute Aristote, qu'il en fut autrement. Àtravers cette expression qui en appelle au sens commun, l'auteur dela rhétorique répond à un argument bien connu selon lequel il faut se méfier deces exercices en ce qu'ils seraient potentiellement vecteurs de relativisme oude cynisme. Il s'agit donc de redécouvrir le projet d'Aristote qui consiste àrelier, dans la pratique rhétorique, l'exercice de l'échange d'arguments etl'exercice plus large de découverte de ce qui produira le bon choix, la bonnedécision, dans une situation donnée. Cet art de découvrir (théôrèsai) ce qui est propre à persuader en vue d'effectuer le bonchoix est à la fois plus profond, plus naturel, mais aussi, certes, plusaléatoire que l'engagement philosophique de défendre la justice comme viséeidéale. Cette proposition d'élargissement du champ de la rationalité propre à larhétorique n'est donc en rien une relativisation philosophique de la notion dejustice. Elle a pour visée d'offrir à la vie publique et à la réflexionthéorique un modèle à la fois plus réaliste et plus opératoire de la raisonpratique et de sa mise en œuvre dans le débat public. Ainsi la rhétorique développe -t-elle cette puissance, cette énergie qui consisteà savoir se défendre par la parole. Mais dans le système aristotélicien, cettepuissance s'inscrit dans l'exercice de l'action pratique, laquelle dépasse deloin l'usage de la parole. Cette puissance est dans l'action. Elle a la forceheuristique de la découverte (toujours théôrèsai) et elleproduit, par l'exercice, une aptitude à décider, à opter, par la délibération .Cette production, la persuasion, est l'effet d'une capacité à agir consciemment ,capacité qui est une faculté chez l'homme, mais qui peut se prolonger par desoutils bien pensés. Ainsi, c'est le produit de cet exercice et des actions (passeulement discursives) qui débouchent sur une disposition à la décision. Au seinde cette disposition à l'action citoyenne, il est aussi important de persuaderque d' être persuadé en retour, les rôles d'orateur et d'auditoire étantconstamment échangés et liés à la contingence de la vie citoyenne. Je croisqu'on ne comprend la nature de la persuasion, pierre angulaire des débats sur laplace publique, que par ce détour important. Un détour qui nous conduit àrassembler au sein du système aristotélicien, bien davantage que la rhétoriqueet la dialectique. Il y a aussi l'éthique, le sens commun, la raison pratique etl'action en général. Si l'on accepte la pertinence de ce modèle, on s'aperçoit bientôt de la nécessitéqu'il y a à l'utiliser aujourd'hui. Je crois même que le modèle pratique de ladélibération publique dans un monde incertain, tel qu'il est conçu par Aristoteest paradoxalement encore plus indispensable aujourd'hui qu'alors. C'est ce queje vais chercher à montrer dans la fin de cette contribution. D'abord, on doit percevoir que le modèle aristotélicien suppose l'indéterminisme .Ceci me paraît un point important qui a une implication directe sur la nature dela discipline. En effet, l'indéterminisme impose un lien entre avenir etincertitude, mais aussi entre incertitude, liberté et action. C'est donc aussigrâce à cet arrière-plan indéterministe que l'on comprend les différentesfacettes de la délibération. La délibération est l'action commune des citoyenspour tenter d'intervenir sur un avenir toujours incertain, or cette incertitudetrace notre espace de liberté. On comprend mieux aussi en quoi les différentesfacettes de la prudence des Anciens – la phronèsis – rassemblent ces qualités éthiques et intellectuelles, formées par le courage etla lucidité face à l'action. Des qualités qui, toutes ensemble, incarnent le« délibérateur » idéal. Mais ce point de vue aristotélicien est encore plussaillant si l'on transfère l'indéterminisme à l'ère contemporaine, et ceci pourtrois raisons. La complexité des décisions a augmenté en proportion avec lacomplexité du monde. Mais ensuite, nombre de décisions politiques ont pourhorizon l'exigence d'universalité, totalement absente du monde aristotélicien .Enfin, la notion de « prudence » est aujourd'hui teintée d'émotions négativesliées à un sentiment de défiance en l'avenir largement répandu. Nous voici aucœur du paradoxe. L'incertitude liée à l'indéterminisme est décuplée dans unesociété comme la nôtre, héritière, à la fois d'universalisme et dedésenchantement. Dans une telle société, l'exercice de la délibération, tel quedécrit au sein du modèle aristotélicien est plus que jamais nécessaire, alorsmême qu'il est soit méconnu soit peu déconsidéré. Et le paradoxe se renforceencore lorsqu'on songe que le cœur du débat est surtout épistémologique. En unabsurde préjugé, on croit garantir à la société des décisions de qualités enthéorisant artificiellement les modèles de discussion publique. Pourtant, lesqualités développées dans les exercices de rhétorique sont plus précieuses quejamais parce qu'elles sont héritées de la culture de l'artisanat et développentla raison pratique : la force, l'agilité, la lucidité, la confiance, lasouplesse mais aussi l'empathie. Pour étayer cet argument, j'aborderai finalement une notion technique centralepour les débats contemporains, qui à mon avis milite en faveur d'une lecturenaturaliste et humaniste du modèle de la rhétorique classique, tel que je l'aidéfendu ici. Il s'agit de l'auditoire universel pensé par Chaïm Perelman etLucie Olbrechts-Tyteca (1958). Comme j'ai cherché à le montrer ailleurs, jecrois que l'auditoire universel de la rhétorique perelmanienne ne se comprendque s'il est perçu, non pas comme une maxime universelle kantienne, mais commel'invitation lucide et courageuse à exercer son « sens commun » dans un mondeouvert et incertain. En d'autres termes, l'appel à l'auditoire universel dansles débats (qu'on le nomme « sens commun » ou « conscience de tous les hommes » )relève de cette faculté propre à chacun de mettre en œuvre une raison pratique ,catégorie intuitivement partagée de ce qui est raisonnable et de ce qui ne l'estpas. Cela signifie que la notion d'auditoire universel a une pertinence dans lesdébats de sorte que chacun pourra s'y référer lorsqu'il cherche à persuader unauditoire. Mais l'appel au sens commun par l'auditoire universel ne saurait secantonner à une règle théorique, prémisse d'une inférence, laquelle n'aurait quepeu d'efficacité dans les débats réels. Au contraire, celui qui en appelle àl'auditoire universel aura souvent tendance à présenter son point de vue commeindiscutable au nom même d'un sens commun (affiché comme) nécessairementpartagé. Et c'est bien ce caractère indiscutable qui en fait toute la forcepersuasive. Or, je pense que cette tension entre l'efficacité etl'indiscutabilité de l'appel au sens commun n'est problématique que dans uneconception strictement théorique d'un modèle pour le débat public. Au contraire ,dans la conception dynamique que je cherche à décrire ici, l'appel à l'auditoireuniversel témoigne d'une compétence rhétorique commune, faculté universelle, quipeut s'exercer au cœur des échanges argumentés. Il n'est ainsi jamais interditd'opposer une position à une autre en faisant, dans les deux cas, appel au senscommun (il faut savoir prouver les contraires). Et c'est le cas dans tous lesdébats publics où s'opposent souvent de façon polémique des points de vuedivergents pour la défense de principes communs (liberté, égalité, dignité ,etc.) autant de valeurs que tous acceptent, à l'ère des droits de l'homme commes'adressant à l'auditoire universel. Il y a finalement à tout ceci des conséquences épistémologiques qu'il fautsouligner en guise de conclusion. La rhétorique n'est pas une science. Elle nedoit pas prétendre à l' être. Elle est une théorie mise en pratique, mais aussiune pratique réfléchie. À l'instar de tous les arts (au sens grec du terme) ,elle doit certes se nourrir des sciences de son temps (psychologie ,linguistique, neurologie, sciences cognitives, droit, etc.). Quant à elle, elleest le passeur humaniste entre la théorie et la pratique, la nature et laculture. J'ai ainsi essayé de montrer dans ces lignes que, non seulement ,Aristote a encore quelque chose à dire au XXI e siècle, maisqu'en un sens, ce qu'il avait à dire du modèle rhétorique n'a pas étéparfaitement compris jusqu'ici. En outre, dans la société qui est la nôtre, cemodèle de la raison pratique se révèle d'une très grande utilité. Il y a toutd'abord la nécessité de l'exercice et la reconnaissance de son efficacité dansle développement intellectuel, cognitif et humaniste des citoyens. La facultéexercée par une technique bien comprise favorise la lucidité, la hauteur de vue ,la sagacité et l'empathie, dans un monde toujours plus complexe et plusincertain. Enfin, au plan de la recherche théorique, la reconnaissance d'unevision plus large mais aussi plus réaliste de la raison humaine et de sa mise enoeuvre dans le débat public offre de nombreuses perspectives dont la rechercheinterdisciplinaire sur les liens entre action, persuasion, délibération etraison, peut et doit s'emparer .
Dans cet article, on défend le point de vue que le modèle de la rhétorique aristotélicienne est plus pertinent que jamais pour comprendre le débat public. On s'en rend compte si l'on veut bien retourner aux racines culturelles de l'antique discipline: celle, humaniste et naturaliste de la culture de l'artisanat qui sait mêler théorie et pratique, nature et culture. Il y va d'un élargissement de la notion de rationalité.
sciencesInfo_13-0090579_tei_1013.xml
termith-414-communication
Depuis plus de 20 ans, inlassablement des centaines de personnes travaillent en France et dans bien d'autres pays à ce qui pourrait s'apparenter à bien des égards à la quête du Graal : le dossier médical standardisé centralisé à la fois universellement communicable et sécurisé. Les derniers épisodes de cette vaste saga au cours de laquelle tant d'énergie a été dépensée dans de nombreux pays sont représentés par la tentative de mettre en œuvre en France le dossier médical personnel (DMP) du patient. Plutôt que de persévérer dans cette voie centralisatrice, certes idéale mais qui porte en elle -même les raisons de ses échecs répétés, ne devrait-on pas s'orienter vers un autre modèle de gestion des dossiers médicaux sur un mode décentralisé, déstructuré, mais pragmatique, sécurisé et opérationnel à très court terme. Tel est le sens de cet article proposant, face au constat des difficultés de dossier centralisé standardisé, l'alternative d'une gestion décentralisée des dossiers médicaux, déjà mise en place en Israël (Clalit HMO et hôpitaux publics) et à Pittsburg (Pennsylvanie – UPMC) (Martich et al., 2008) et en cours d'implémentation à Bruxelles (hôpitaux IRIS) (Belgium hospitals use dbMotion for interoperability eHealth Europe, 2008), à l'UMass Memorial Health Care à Worcester Massachussets et en Franche-Comté (EMOSYST) (Leavy, 2008). Hormis les inévitables difficultés liées au manque de moyen humain et financier qu'une telle entreprise nécessitait, la mise en œuvre de ce programme de gestion des dossiers médicaux comportait au moins deux difficultés majeures qui sont devenues des causes d'échec. Une littérature abondante entoure ce sujet (Cooper et al., 2007; Alemi et al., 2007; Ceusters et al., 2005; Netter et al., 2003; Mays et al., 2002; Kruse et al., 2001; Omar Bagayoko et al., 2008; Quantin et al., 2007a; Quantin et al., 2007b; Quantin et al., 2007c), que ce soit au niveau national ou des différents pays de la communauté européenne pour ne limiter notre sujet qu' à ce territoire. La question principale est en fait de déterminer à quelle échelle il est nécessaire de disposer d'une identification unique du patient, au niveau régional (comme en Italie ou en Espagne), national (comme aux Pays-Bas, au Royaume-Uni et en France) ou au niveau de l'Europe ? Quel que soit le niveau retenu, il faut prévoir de mettre en place une infrastructure permettant l'identification et l'authentification du patient, l'identito-vigilance ainsi que les rapprochements d'identité nécessaires au chaînage des données du patient, dans le respect des standards existants (Global IHE standards-based profiles adopted by several national and regional projects.). L'intérêt et la faisabilité de telles infrastructures ont été démontrés, notamment dans le cadre de la gestion de l'identité et du rapprochement (par exemple les Entreprise Master Patient Index). Toutefois, en pratique l'harmonisation de l'identification du patient est très difficile à obtenir dans de nombreux pays. En France par exemple, la volonté tout à fait respectable de ne pas utiliser le numéro national d'identification dans le registre des personnes physiques de l'Institut National de la Statistique et des Etudes Economiques (INSEE) au regard des risques qu'il comporte pour le regroupement des fichiers a conduit à rechercher des alternatives diverses, comme l'utilisation du numéro de sécurité sociale enregistré systématiquement pour les besoins de l'assurance maladie. Toutefois, le numéro de sécurité sociale présente le même risque que le numéro INSEE en matière de regroupement des dossiers puisqu'il en est issu, et a de plus l'inconvénient de changer lorsque la personne ne relève plus du régime de protection de ses parents. Quelle que soit la solution envisagée, par les différents pays (identifiant patient unique national, régional ou autre solution) elle doit s'inscrire dans une perspective d'interopérabilité à l'échelle de l'Europe en attendant une éventuelle convergence de tous les pays sur un système commun. La structuration unique des dossiers médicaux des patients constitue également l'un des grands mythes de l'informatique médicale. Combien d'heures ont été consacrées à définir un format unique pour tous les médecins, pour toutes les pathologies alors que chacun n'a de cesse que de faire valoir sa singularité. De plus si une volonté de fer ou un responsable particulièrement charismatique avait pu réaliser l'exploit de parvenir à un consensus au niveau d'un établissement, comment le généraliser à d'autres et plus encore comment l'imposer à des éditeurs de logiciels qui voient dans leurs spécificités, un mode de protection de leur marché. Certes quelques filières ont vu le jour, mais l'on est loin d'une standardisation des recueils de données même si d'importants efforts ont été consacrés à ce sujet au niveau de chaque pays comme en France par l'Association française de Normalisation (AFNOR) mais aussi au niveau international par les associations d'informatique médicale (AMIA, IMIA) et le Centre Européen de Normalisation (CEN). Quelques profils standardisés ont été définis par IHE et adoptés dans le cadre de plusieurs projets nationaux et régionaux (et plus particulièrement dans le domaine des résultats de laboratoire et du partage d'information d'imagerie). En pratique, il est très difficile d'obtenir un accord de l'ensemble de la communauté médicale sur le contenu du dossier minimum commun. Malgré ces efforts très importants, nous sommes encore très loin de la proposition d'un système standardisé pour le recueil des données médicales. En particulier, l'harmonisation de la structuration des données médicales n'est encore pas aboutie au niveau de la plupart des pays et a fortiori au niveau de l'Europe. Le seul domaine où une véritable harmonisation a été obtenue est le codage, en particulier grâce à la nomenclature SNOMED, terminologie largement acceptée mais encore dans les débuts de son implémentation. On peut citer également l'utilisation de la classification internationale des maladies (CIM) pour le codage des pathologies dans le cadre du recueil de l'activité médicale dans les établissements hospitaliers sur le modèle des « Diagnosis Related Groups » (DRG) américains. Toutefois si les codes de cette classification sont effectivement présents dans les dossiers relatifs à l'activité, on pourrait se demander qui les intègre dans la partie clinique du dossier du patient. Il est à craindre que la réponse à cette question soit plus que décevante de même qu'il est peu probable que l'utilisation de la CIM soit la règle pour la gestion au quotidien des dossiers médicaux dans les différents pays de l'Union Européenne. Regardons avec lucidité ce qui se passe pour les traitements médicamenteux des patients, information fondamentale, et pour lesquels il existe une dénomination commune internationale (DCI) que personne dans l'industrie pharmaceutique ne saurait remettre en cause dans le monde quels que soient les Etats. Quel usage en a, dans la pratique, le corps médical qui en général prescrit en nom de marque et en conséquence fait figurer le nom de marque dans le dossier du malade, alors que la DCI n'apparaît pas. Dans ces conditions, ne devrait-on pas s'interroger sur la nécessité véritable de cette standardisation de la forme et du contenu des dossiers médicaux ? Certes son utilité est indéniable pour les besoins des études épidémiologiques ou la réalisation de statistiques médico-économiques mais quelle serait son utilité directe en pratique clinique ? Pour la prise en charge du malade, il est surtout essentiel de rassembler un maximum d'informations très rapidement. La difficulté majeure est liée à la dispersion de ces informations dans différents centres ou cabinets médicaux dont parfois le patient n'a aucun souvenir. Bien sûr, la synthèse des informations est utile au médecin. Mais ne serait -ce pas un immense progrès que d'avoir en quelques instants l'information disponible même si celle -ci n'est pas standardisée ni même bien ordonnée plutôt que de ne rien avoir comme actuellement. Bien sûr, les défenseurs du dossier unique stigmatiseront que la synthèse induit d'une charge de travail majeure mais avant d'abonder dans ce sens, ne devrions -nous pas nous interroger sur la charge réelle qu'elle constitue ? N'est -ce pas ce que nous faisons déjà lorsque par exemple nous lançons une recherche sur internet sur un sujet donné ? Avec quelle fréquence avons -nous vraiment besoin de reconstituer tout l'historique d'un patient ? Combien de patients ont effectivement un dossier réparti sur plus de cinq structures de santé ? Cette étude de base ne paraît pas, à notre connaissance, avoir été faite alors qu'elle fournirait des éléments fondamentaux pour évaluer le bénéfice/coût de la standardisation des dossiers médicaux. Par un miracle extraordinaire, imaginons un instant que la construction de la tour de Babel des dossiers médicaux ait été rendue possible et que tous les dossiers aient désormais la même structure, soient rédigés selon la même langue au travers de l'usage de classifications univoques utilisées et reconnues dans tous les hôpitaux et cabinets médicaux de tous les pays, que les producteurs de logiciels aient abandonné leurs rivalités économiques ou que l'un d'entre eux ait conquis le marché à lui seul. Le fait que toutes les informations soient contenues en un seul lieu est un rêve qui témoigne d'une vision ancienne de l'organisation où le centralisme était la voie unique qu'il soit inspiré du jacobinisme à la Française ou du centralisme démocratique cher aux partisans des systèmes collectivistes. Il y a pourtant plusieurs décennies que les pouvoirs publics ont pris conscience du danger intrinsèquement lié à cette organisation centrale qui expose à tout perdre si elle est détruite. Comment ne pas imaginer que tous les hackers du monde prendraient comme un défi le fait de s'introduire dans la banque nationale des dossiers médicaux des patients pour les consulter ou pire changer les informations qu'ils contiennent ? Comment ne pas craindre que des terroristes de toutes convictions pourraient y voir une chance extraordinaire de déstabiliser tout un pays en s'attaquant à un domaine auquel les citoyens accordent une importance majeure : leur santé et la confidentialité des informations qui s'y rattache ? Comment accepter le risque que fait courir une telle organisation pour la vie privée et la sécurité des personnes si l'Etat qui l'a mis en place s'écartait des voies de la démocratie et du respect des libertés individuelles. Il y a déjà plusieurs décennies, la question du risque d'une informatique centralisée des systèmes de commandement militaire avait suscité aux Etats-Unis des questions fondamentales face au risque de leur destruction par la création du champ électromagnétique résultant de l'explosion d'une bombe atomique dans la stratosphère. Rappelons qu'en effet, l'ancêtre d'internet a vu le jour dans les années 1960 pendant la guerre froide. Le ministère de la défense américaine désirait créer un réseau pouvant fonctionner en cas de cataclysme après avoir réalisé la fragilité d'un système centralisé. L'idée germa alors qu'un réseau présentait l'avantage de conserver des structures utilisables, même en cas de destruction majeure et qu'il fallait imaginer un système pouvant utiliser les structures restantes. En 1969 le système fut créé grâce à un organisme militaire baptisé ARPA (Advanced Research Projects Agency) sous le nom d'ARPANET. C'est aussi durant cette période que R. Tomlinson mis au point le courrier électronique qui permettait l'échange d'informations par le réseau ainsi que le protocole de contrôle de transmissions (TCP) donnant la possibilité de transmettre les données en petit paquets par le réseau. Dans le domaine de l'information médicale, le maintien d'une répartition de l'information en des milliers de lieux paraît offrir de plus grandes sécurités autant pour la préservation du capital d'informations que possède chaque patient sur sa santé que de la protection de leur vie privée. Par ailleurs, cette centralisation des données pourrait conduire les médecins producteurs de l'information à se sentir moins responsables que s'ils en restaient les dépositaires. On imagine également le volume colossal d'information qu'un système centralisé serait amené à gérer, les difficultés de sa sauvegarde, et les conséquences de chaque panne aussi courte soit-elle au vu de l'ensemble des personnes qui dépendraient de ce système. Toujours dans l'optique d'un système centralisé, la gestion sécurisée des accès devient un vaste problème ne serait -ce que par le nombre d'accès simultanés à gérer puisque toute demande d'informations serait amenée à passer par lui. Il conviendrait alors de prévoir un très grand nombre d'accès simultanés pour éviter des délais d'accès trop importants pouvant faire perdre tout l'intérêt d'un système d'information centralisé. Mais au-delà de cette gestion matérielle des accès se pose également le problème de la gestion des droits d'accès. On peut imaginer que soit mis en place un système de gestion d'ouverture ou de fermeture des droits d'accès des médecins sous le contrôle des patients mais ceci imposerait qu' à la fois le médecin et le patient soient dotés de cartes d'identification cryptographique pouvant assurer leur authentification pour les accès ou pour la gestion des droits. Bien sûr il est possible d'imaginer qu'en attendant une carte d'identité cryptographique, les transactions au niveau du dossier du patient soient validées par l'utilisation d'une carte de patient mais la sécurité sera alors de faible niveau. Au-delà du contrôle d'accès, dans ce système centralisé se posera également le problème de la modification éventuelle des données par le patient lui -même ou de leur éventuel masquage; un sujet qui a lourdement gêné en France la mise en œuvre du dossier médical partagé. Une gestion décentralisée avec la recherche épisodique d'informations simplifierait sans doute beaucoup l'organisation de la gestion de ces droits d'accès notamment par une diminution drastique des volumes d'informations gérés. En effet, le médecin qui aura fait l'effort de reconstituer l'historique de la prise en charge du patient, voire même de la synthétiser, n'aura plus besoin, contrairement au dossier centralisé, de se connecter à chaque nouvelle consultation du patient, mais simplement à mettre à jour sa synthèse sur son propre site. Un premier constat est que globalement dans tous les établissements de santé, publics ou privés, des pays industrialisés, un système d'information a été mis en place, contenant des dossiers médicaux informatisés, structurés ou non structurés. Le second constat est qu'au quotidien, le contenu informationnel des dossiers médicaux des patients présents dans l'établissement suffit pour assurer les besoins d'informations des professionnels de santé. Le regroupement de toute l'information disponible mais éparse sur un patient n'est nécessaire à sa prise en charge que dans des situations relativement rares. De ce fait le travail de synthèse certes lourd ne constitue qu'un élément épisodique du suivi au long cours du patient et l'effort de synthèse requis par le médecin représente, sauf cas exceptionnel d'une très grande mobilité du patient, une charge non négligeable mais ponctuelle. Cet élément mériterait comme nous l'avons déjà indiqué d' être chiffré par une étude conduite en pratique quotidienne. Sur la base de ces deux constats, face aux difficultés et aux dangers de la mise en œuvre d'un système centralisé, il paraîtrait intéressant de pouvoir mettre en œuvre un système permettant à chaque médecin, avec l'autorisation du patient, de recueillir en toute sécurité l'information disponible à son égard dans les différents systèmes d'informations des structures de santé (hôpitaux, cabinets médicaux). A charge pour le médecin référent d'en effectuer la synthèse pour son utilisation personnelle et de l'enregistrer dans le système d'information dont il dispose sur son lieu d'exercice et de la mettre à jour régulièrement. Cet effort de synthèse du dossier se réduira rapidement, puisque le travail réalisé par le médecin référent pourra bénéficier au prochain médecin prenant en charge le malade. Celui -ci pourra ainsi avoir accès à cette synthèse, en plus de l'intégralité des informations disponibles, sous réserve du consentement du patient. Cette collecte d'informations serait possible par la mise en œuvre d'une gestion décentralisée des dossiers médicaux et d'un système de recherche des données réparties des patients. L'avantage de cette organisation, certes plus rudimentaire, est qu'elle pourrait être opérationnelle très rapidement car elle réduit considérablement les difficultés d'harmonisation et suscite beaucoup moins de risque à l'égard de la sécurité des informations. La principale difficulté pour le patient qui désire accéder à ses données médicales est l'éparpillement de ses données. L'accès sécurisé à travers le système de recherche des données réparties du patient suppose que les informations du dossier soient disponibles et accessibles. Il est indispensable de s'assurer de la sécurité de l'environnement avant d'y stocker une information médicale. La technologie des grilles est une alternative aux moteurs de recherche sur internet, insuffisamment sécurisés (avis 1/2008 sur les aspects de la protection des données liés aux moteurs de recherche), (Nicolas, 2008). En effet, elle permet de stocker de façon sécurisée des données médicales distribuées. Les grilles peuvent être définies de façon générale comme des infrastructures complètement distribuées, dynamiquement reconfigurables et autonomes qui fournissent un accès sécurisé, indépendant du lieu, fiable et efficace à un ensemble coordonné de services. L'intérêt des grilles pour la gestion de l'information médicale a été étudié dans le cadre de l'initiative HealthGrid (Breton et al., 2005a; Breton et al., 2005b; Olive et al., 2007; Montagnat et al., 2006; Erberich et al., 2007). L'utilisation des grilles évite les difficultés inhérentes à un système de stockage centralisé en termes de coût et de complexité. Les grilles permettent aussi de stocker des données à l'endroit où elles sont produites ou tout près. Grâce à ses mécanismes d'authentification, d'autorisation et de comptabilité, seules les personnes dûment autorisées peuvent accéder aux données qui sont encryptées ou anonymisées quand elles sont transférées (Mohammed et al., 2007). C'est donc sur une infrastructure de grille que s'appuie le système de recherche des données médicales patients décrit dans cet article. Dans la perspective d'une interopérabilité des systèmes d'information et donc des identifiants au niveau international, comme il est notamment envisagé dans le cadre de l'Europe (Cooper et al., 2007; Alemi et al., 2007; Ceusters et al., 2005; Allaert et al., 2003; Quantin et al., 2007d), l'utilisation d'un numéro d'identifiant à valeur régionale ou nationale paraît à proscrire. La biométrie est parfois proposée comme un moyen de lier le patient à ses propres données médicales, car elle présente l'avantage de fournir un numéro d'identification très spécifique du patient et intégrable dans tous les systèmes d'information, quel que soit le pays. De plus, les contraintes pour le patient sont limitées car il n'a pas à mémoriser un code ou à se munir d'une carte lors de ses déplacements. Bien que la biométrie constitue un réel progrès à la fois pour l'authentification et l'identification des personnes, plusieurs questions relatives à la fiabilité de la biométrie et des coûts qui y sont associés restent en suspens. Mais le principal problème est l'acceptation de cette technologie par les associations de patients, et les comités nationaux d'éthique. En France par exemple, l'utilisation de la biométrie dans le domaine de la santé n'est pas autorisée par le comité national d'éthique (Vaclav et al., 2006). Devant ces difficultés, la solution ne consisterait-elle pas à prendre comme éléments de référence les éléments d'identification les plus triviaux, uniformément répandus, et qui ont déjà fait leur preuve malgré leur faiblesse d'homonymie potentielle et d'erreur d'orthographe : les noms, prénoms, dates de naissance, voire des informations complémentaires telles que le pays, le numéro d'identification du patient dans le pays ou à défaut la commune de naissance ? L'une des approches pourrait être de prendre l'ensemble des éléments concernant la personne contenus dans la carte Vitale et, selon un algorithme prédéfini, les combiner en un identifiant unique. Cela implique la création d'une carte Vitale pour chaque individu, indépendamment de sa couverture d'assurance médicale. Dans cet espace de recherche de l'information, les données trouvées suite à une requête concernant un patient sont amenées à être partagées. Le droit d'accès à la donnée, comme celui d'adresser la requête au système, doivent être vérifiés ce qui implique le déploiement d'une politique de contrôle d'accès qui nécessitera la mise en commun de ressources entre établissement santé comme les annuaires. Pour un système décentralisé, le degré de complexité de cette tâche pourra bénéficier du fait que chaque établissement de santé à une meilleure visibilité que toute autre entité extérieure quant à l'activité et à la mobilité de son personnel. Egalement, les moyens techniques pour l'authentification des personnes pourront être mutualisés. Le partage de l'information implique d'aller au-delà de la protection des systèmes (contrôle d'accès, attribution de droits d'accès en lecture et écriture, traçabilité des accès, audit, détection d'intrusion). Il ne s'agit plus seulement d'assurer la protection de l'information dans sa communication ou son stockage mais de garantir une véritable continuité dans la protection, de la création à la destruction de la donnée. Il devra être possible de remonter l'existence de toute donnée échangée et mise à jour en dehors de son système d'information d'origine. Par exemple, dès sa création une information médicale enregistrée et transmise au patient doit absolument être signée électroniquement par le praticien de santé. Cette signature, dont la légalité est reconnue permet de s'assurer de l'accord du signataire pour le partage de cette information et aussi qu'aucune modification non autorisée n'a été faite. Pouvoir vérifier l'origine d'une donnée et son intégrité permet d'induire un degré de confiance dans la donnée, ce qui est essentiel dans la pratique médicale. Certes cette signature devra pouvoir évoluer dans le temps du fait de l'amélioration des algorithmes de signatures, du changement du cadre législatif et aussi de la possibilité de modifier la donnée. Néanmoins, dans un souci de traçabilité, il est préférable d'adjoindre à la donnée ces nouvelles signatures ainsi que l'historique des modifications. Ce contexte impose donc le déploiement d'une protection orientée du point de vue des contenus échangés (e.g. compte rendu, images, résultats d'examens) au-delà de la simple communication point à point entre deux systèmes. Ici, la traçabilité n'est plus limitée aux actions conduites au sein d'un système d'information d'un établissement et à ses fichiers de log. En effet, l'information peut être amenée à être extraite du système et gardée par le patient. Comment alors établir un degré de confiance dans une information qui sortie du système doit être exploitée par un professionnel de santé ? L'intégrité et l'authenticité des données doit pouvoir être établie à tout instant et en tout point géographique du système et bien entendu en dehors. Dans le même temps, comment vérifier qu'une information n'a pas été détournée de sa finalité par un utilisateur habilité à y accéder ? Le tatouage ou « watermarking » est peut être un début de réponse à ce besoin de continuité dans la protection de l'information, dans tous les cas il vient enrichir et compléter les mécanismes de protection déjà existants. A l'origine proposée comme mécanisme pour la protection de la propriété intellectuelle de documents multimédias audiovisuels diffusés sur internet, cette technologie peut aussi permettre le contrôle de l'intégrité d'un document, de son authenticité ou autoriser l'ajout de métadonnées (Tatouage de documents audiovisuels numériques, Hermès). De manière plus générale, le tatouage offre un moyen original de partager un document multimédia et des données ancillaires. Des techniques de tatouage ont été proposées pour la protection des informations à caractère médical. Elles visent essentiellement les images mais les principes généraux peuvent être étendus à d'autres types de support (signaux, vidéo, texte). Ainsi, le tatouage des images est fonction du niveau du signal indépendamment du format de de stockage de l'image, ce qui veut dire que la donnée tatouée (insérée) peut être récupérée après une conversion du format de stockage de l'information. L'opération de marquage consiste en une perturbation imperceptible du signal image (e.g. par modulation des niveaux de gris de l'image) qui permet cependant de coder le message à insérer. Du fait de cette insertion, après la conversion d'une image tatouée stockée au format DICOM, standard de référence pour les images médicales, en une image JPEG, standard de compression multimédia « grand public », il est possible de retrouver le message tatoué dans l'image JPEG. Par définition, la marque, c'est-à-dire l'ensemble des perturbations du document hôte permettant le codage du message, ne doit pas interférer avec l'usage de ce document. Pour les images, la marque de ne doit changer l'interprétation de l'image. Suivant le lien établi entre le message et son hôte diverses applications ont été envisagées. En imagerie médicale, le tatouage a été suggéré avec pour principal objectif de vérifier l'intégrité d'une image en y insérant par exemple une signature numérique de l'image. Il a été également proposé pour l'insertion de métadonnées de manière à enrichir le contenu image ou pour faciliter la gestion des documents. Par ailleurs, l'accès aux données tatouées peut être contrôlé par une clé, comme pour le chiffrement, dès lors la confidentialité de données chiffrées tatouées est améliorée (Coatrieux et al., 2006). Ainsi, le tatouage est une composante des systèmes de sécurité qui n'ajoute aucune information ancillaire dans un en-tête de fichier et qui par construction, n'interfère pas avec les mécanismes déjà existants. Une image DICOM tatouée peut être lue par n'importe quel lecteur DICOM. Par contre, les logiciels qui sont compatibles ou conformes accèdent quant eux à un niveau de protection et de gestion au plus près de l'information. L'accès ou le partage d'un document médical isolé exige que ce document puisse être identifié à l'intérieur comme en dehors du système. Un code d'authentification tatoué peut permettre d'identifier le professionnel de santé qui a consulté en dernier lieu les données du patient pour des raisons de traçabilité ou d'identification du patient lui -même. Si l'identité tatouée est rendue anonyme (Quantin et al., 2007d), alors il est non seulement possible d'y accéder mais aussi de relier les informations de ce même patient tout en ignorant son identité réelle et donc de garantir à la fois la protection de l'intimité du patient et l'interopérabilité du système. Beaucoup reste à faire pour déployer cette technologie et sa généralisation à tout type de support multimédia utilisé dans le domaine de la santé. Les raisons principales de l'échec de la gestion centralisée des dossiers médicaux sont relatives non seulement à l'insuffisance des ressources humaines et financières mais aussi aux difficultés liées à la mise en place d'un identifiant unique pour le patient et au manque de standardisation des dossiers médicaux. Dans cet article nous avons discuté l'intérêt d'une solution pragmatique reposant sur l'accès aux données déjà collectées et stockées de façon décentralisée, grâce à la mise en place d'un système de recherche et d'accès aux données réparties du patient. Il est effectivement possible d'envisager une gestion décentralisée des dossiers médicaux et l'accès aux données réparties des patients grâce aux avancées technologiques, en utilisant les techniques de grille et de tatouage. Bien entendu les données déjà standardisées comme les résumés du PMSI pourraient bénéficier d'une gestion centralisée. Ceci conduirait à mettre en place un système mixte (décentralisé pour les données standardisées et centralisé pour les données déjà standardisées) .
Depuis plus de 20 ans, plusieurs pays ont essayé de mettre en place un dossier médical standardisé centralisé (au niveau régional ou national). La plupart de ces tentatives ont échoué, principalement pour deux raisons liées aux difficultés de mise en place d'un identifiant unique pour le patient et à l'absence de standardisation des dossiers médicaux. Dans cet article nous discutons l'intérêt d'une solution pragmatique reposant sur l'accès aux données déjà collectées et stockées de façon décentralisée, grâce à la mise en place d'un système de recherche et d'accès aux données réparties du patient. L'originalité de cette procédure repose sur des avancées technologiques, notamment les techniques de grille et de tatouage. Les données déjà standardisées pourraient bénéficier d'une gestion centralisée. Ceci conduirait à mettre en place un système mixte (décentralisé pour les données standardisées et centralisé pour les données déjà standardisées).
sciencesInfo_11-0059503_tei_DN_123_0023.tei.xml
termith-415-communication
Le centre de recherche Kolb-Proust de la bibliothèque de l'Université d'Illinois procède depuis 1994 à la constitution d'une base de connaissances sur la vie intellectuelle, mondaine, culturelle et artistique en France pour la période 1870-1925, sous forme d'un outil hypertexte 1. Le centre, établi en 1993, est basé dans le cabinet de travail du professeur Philip Kolb (1907-1992), un chercheur américain qui a établi l'édition de la correspondance générale de Marcel Proust (1871-1922). La base trouve son point de départ dans un vaste système de fichiers élaboré par Kolb pour gérer les masses d'informations nécessaires à l'édition critique des lettres de Proust. Ce projet se distingue des nombreuses ressources littéraires qui se sont développées avec les hypermedias depuis plusieurs années. A la différence d'autres projets 2 dont l'objectif est de transférer sur de nouveaux supports des textes et des documents déjà existants tels que des œuvres complètes et leur appareil critique, des manuscrits ou des correspondances d'auteurs, ou encore des documents historiques, le projet Kolb-Proust consiste en un travail de réécriture et d'amplification des sources et des notes de recherche personnelles d'un chercheur, elles -mêmes centrées autour de la correspondance d'un auteur, structure qu'on peut comparer à des matriochkas, ces poupées russes en bois de taille croissante qui s'emboîtent les unes dans les autres 3. Chaque nouveau niveau d'écriture vient se superposer au précédent, en cercles concentriques, tout en gardant un rapport direct aux niveaux antérieurs. On peut distinguer trois, voire quatre couches successives d'écriture qui s'accumulent de façon quasiment ininterrompue depuis maintenant plus d'un siècle. La correspondance de Marcel Proust représente la première, ou les deux premières couches d'écriture, si l'on considère comme une couche distincte la citation littéraire dont Proust émaille ses lettres tout au long de sa vie. La couche suivante est constituée par les travaux de Philip Kolb, qui enveloppent et éclairent la correspondance et dépassent par leur ampleur le statut de simple appareil critique, mais qui ne trouvent véritablement leur cohérence qu'en relation avec les lettres dont elles découlent. Les diverses opérations suscitées par la transformation de ce matériau critique en un nouveau document primaire apportent la dernière couche (en date !), par la numérisation, le reformatage des contenus et l'élargissement du sujet visé. Le nombre des lettres de Proust publiées à ce jour s'élève environ à 5 500, si l'on compte l'édition générale, quelques recueils séparés comme la correspondance avec Gaston Gallimard ou les lettres à Lucien Daudet, et des publications récentes en revues. Se référant aux diverses mentions de lettres écrites mais jamais retrouvées, conservées dans des collections privées ou tout simplement jamais expédiées ou détruites, Philip Kolb situait le nombre total de lettres écrites par Proust aux alentours de 20 000. De nouvelles lettres apparaissent régulièrement dans les catalogues de ventes aux enchères et de marchands d'autographes et viennent petit à petit combler les vides de ce grand puzzle. La correspondance de Proust a largement été utilisée comme source de renseignements sur l'élaboration de l' œuvre proustienne et la vie de son auteur par les critiques littéraires et les généticiens mais elle a été encore peu étudiée pour elle -même, en tant que corpus à part entière. Cela tient sans doute en partie au fait que l'édition générale de Kolb n'a été achevée que relativement récemment (le vingt et unième volume est paru fin 1993). Si la fonction première de la correspondance de Proust est de servir de lien entre le monde extérieur et son auteur, certains critiques voient en elle d'autres rôles, parmi eux celui de « cordon sanitaire » pour tenir le monde extérieur à distance et préserver sa solitude, ou de terrain d'essai pour l'élaboration du style de A la recherche du temps perdu [ROB 96 ]. Ce corpus est composé de très nombreux éléments autonomes, qui au contraire des chapitres d'un livre, ne s'enchaînent pas selon un ordre préétabli par son auteur, mais s'accumulent tout au long de sa vie. On peut aussi distinguer dans ce corpus deux niveaux d'écritures, le premier composé des lettres, le second sous la forme de nombreuses citations littéraires serties dans le texte de ces missives. Proust en fait un usage très fréquent, dans sa correspondance encore plus que dans ses œuvres. Le fichier des citations littéraires constitué par Kolb sur la base des 5 000 lettres éditées contient environ 1 100 fiches, qui correspondent chacune à une citation différente, plus une liste d'une cinquantaine de citations pas encore identifiées. C'est d'autant plus considérable que certaines citations se retrouvent dans plusieurs lettres. Les auteurs représentés vont des classiques grecs et latins aux auteurs traditionnels, à ses contemporains. Un projet lancé en 1998 par l'équipe Proust de l'Institut des textes et manuscrits modernes (ITEM) du CNRS 4 cherche à retracer les lectures de Proust, à reconstituer en quelque sorte sa bibliothèque, grâce à un relevé systématique de toutes les notations de lecture présentes dans la correspondance, dont les citations littéraires. Une étude préliminaire du relevé jusqu' à l'année 1904 montre que la citation littéraire joue des rôles différents suivant les lettres : simple citation pour illustrer ou commenter, pastiche, déformation et morcellement des textes cités pour en adapter le sens à ses besoins et s'en approprier les termes, procédé qui devient un travail de réécriture de la part de l'écrivain, « il s'agit bien pour Proust de chercher, avec les mots des autres, à composer sa propre voix » [LAM 99 ]. Philip Kolb a consacré toute sa carrière à l'édition de la correspondance de Marcel Proust, depuis son doctorat entamé en 1935 jusqu' à son décès. Après sa thèse, qui propose des principes généraux d'édition et une redatation systématique des lettres de Proust déjà publiées à l'époque [KOL 49 ], Philip Kolb entreprend une édition générale organisée de façon chronologique, en accord avec la nièce de l'écrivain. Défi de taille, quand on sait que l'écrivain ne datait que très rarement ses lettres. Très tôt, Kolb élabore un système de fichiers croisés pour enregistrer et classer la masse des informations dont il se sert pour la datation et l'annotation de la correspondance. Ces informations proviennent des lettres elles -mêmes, d'échanges avec des contemporains de Proust, ou résultent de recherches incessantes, véritables travaux de détective privé, dans les journaux et revues de l'époque, les biographies et mémoires de contemporains, les annuaires mondains et professionnels, les encyclopédies, les répertoires accumulés au fil des années dans le cabinet de travail alloué par la bibliothèque universitaire. Chaque bribe, nom de personne, titre, lieu, date, événement, est reporté manuellement sur une fiche bristol de 3 x 5 pouces (7 x 12,5 cm), immédiatement classée dans l'un des fichiers suivants : fichier bio-bibliographique des personnes réelles ou imaginaires citées dans la correspondance (11 300 fiches); fichier biographique complémentaire de personnes n'apparaissant pas dans la correspondance : homonymes ou parents de personnes citées, personnalités dont Kolb pensait qu'elles pourraient apparaître dans des lettres restant à découvrir (4 800 fiches); chronologie des petits et grands événements qui jalonnent la vie de Proust et fournissent une trame de référence pour la datation des lettres (9 500 fiches); fichier d'identification des lettres, qui permettait à Kolb de classer et reclasser les lettres au fur et à mesure de ses découvertes (6 900 fiches); fichier toponymique de la correspondance (2 100 fiches); bibliographie de tous les écrits publiés par Proust et de tous les écrits à son sujet jusqu' à sa mort en 1922 (1 380 fiches); index des périodiques de l'époque (400 fiches); fichier des citations littéraires trouvées dans la correspondance, dans la/les version(s) de Proust et dans leur version originale (1 100 fiches). Certaines de ces fiches, comme les notices bibliographiques ou la majeure partie des fiches chronologiques, ont été rédigées en une seule fois. D'autres, notamment les fiches de citations, les fiches topographiques ou biographiques, représentent l'accumulation de données au fil des ans 5. Ensemble, elles résument, sous forme de symboles, d'abréviations et de notes elliptiques, les connaissances mises au jour par Philip Kolb. Ces fiches sont par nature des documents inachevés parce qu'elles sont essentiellement des listes de renseignements divers glanés au cours de nombreuses années de travail. Au contraire de la structure des fichiers, très bien définie, la structure interne de chaque fiche est beaucoup plus floue. Mis à part un en-tête qui permet de retrouver et de reclasser la fiche, les informations sont reportées dans l'ordre de leur découverte, parfois classées par catégories, mais le critère principal est souvent l'espace blanc restant sur la fiche. Les fichiers représentent un ensemble documentaire de structure très fragmentaire où l'on n'accède pas de façon linéaire, suivant un plan préétabli, mais où chaque fiche est un point d'entrée potentiel, suivant les besoins de l'utilisateur. Après le décès de Philip Kolb, on recense dans son cabinet transformé en véritable laboratoire proustien plus de 40 000 de ces fiches, ainsi que 2 000 volumes et microfilms, et 400 dossiers dans lesquels il conservait, triées par correspondant, les reproductions et les transcriptions des lettres et une multitude de documents tels qu'extraits d'actes de naissance ou de décès, notes de lecture, extraits de périodiques, etc. L'ensemble documente la vie et l' œuvre de Marcel Proust dans ses moindres détails, présente un panorama de la vie intellectuelle, artistique, et mondaine de l'époque et fixe les progrès des recherches de Kolb, dont l'état le plus abouti est fixé dans les parties liminaires et les notes de la correspondance éditée [PRO 70 ]. Conscients de la valeur documentaire de ce fonds, les héritières de Philip Kolb, la bibliothèque et le département de français de l'université décident d'en mettre le contenu à la disposition du public. Les ouvrages qui appartenaient à Philip Kolb et ceux extraits des magasins généraux constituent désormais une collection à part entière au sein de la bibliothèque. Les fichiers, trop fragiles pour être communiqués en l'état, sont en cours de numérisation. A ce premier projet viendront se greffer d'autres corpus comme le texte intégral de la correspondance éditée par Kolb, qui est au cœur de cette entreprise, les images numérisées des lettres originales, dont la bibliothèque possède une importante collection, ou d'autres matériaux comme des correspondances entre des tiers, des documents visuels ou sonores, etc. La mise en ligne des matériaux de recherche de Philip Kolb fait basculer la fonction de ces documents. Ils passent ainsi d'un statut de note de recherche ou d'aide-mémoire rédigé par et pour un seul individu à celui de notice documentaire à l'usage d'un public varié composé de chercheurs et d'étudiants, pas forcément spécialistes de Proust, d'amateurs plus ou moins éclairés, de journalistes, d'auteurs de jeux télévisés, etc. Cette nouvelle fonction amène des modifications dans la structure et le contenu des documents, comme une structuration plus homogène des données dans chaque fichier, le développement des notes de Kolb en langage clair pour plus de lisibilité, l'ajout de métadonnées qui multiplie les possibilités de consultation ou la mise à jour régulière du contenu des fiches au fur et à mesure de la découverte de nouvelles informations pour préserver l'utilité de ces données et élargir le point de vue au-delà de Proust. Plutôt que de s'embarquer dans la construction d'une base de données qui s'annonçait très complexe, les informaticiens de la bibliothèque ont recommandé en 1994 l'emploi du métalangage SGML (Standard Generalized Mark-up Language) et de la DTD TEI (Text Encoding Initiative 6) qui possèdent tous les éléments nécessaires pour une représentation détaillée des données. SGML est un langage libre de droit et multiplate-forme, ce qui facilite les transferts d'un logiciel à l'autre au fur et à mesure des progrès techniques, détail non négligeable pour un projet de longue haleine. Jusqu' à présent, l'exploitation des fichiers SGML s'est faite grâce au logiciel Livelink de la société Opentext. La bibliothèque universitaire ayant récemment abandonné ce logiciel pour l'exploitation de ses autres produits documentaires numériques au profit d'outils XML, une transition similaire est prévue pour le centre Proust dans un futur proche. Le langage SGML requiert une analyse distincte de la forme et du contenu des documents auxquels il s'applique. Les fiches de Kolb ne correspondant pas à l'un des types de documents prévus par la DTD TEI, il a fallu créer une structure type pour chaque fichier. Le résultat est une série de formulaires vierges dans les catégories desquels sont triées les données de chaque fiche. Trois fichiers ont été sélectionnés pour la première phase de numérisation : la bibliographie des écrits de et sur Proust, entièrement disponible en ligne; la chronologie, en cours d'achèvement, disponible en ligne jusqu' à l'année 1913 (à l'automne 2001); le fichier bio-bibliographique, en cours de traitement. La bibliographie a servi de banc d'essai pour l'établissement du processus de numérisation en raison de sa faible taille et de la simplicité de sa structure; les deux derniers fichiers ont été choisis pour leur importance pour la recherche proustienne et parce que la quantité et la complexité des informations à traiter demandent un investissement considérable en temps et en main d' œuvre. Un échantillonnage a permis de repérer les différents types de données présents dans chacun de ces fichiers. Les deux premiers fichiers sont constitués d'un nombre limité d'éléments clairement structurés : Bibliographie : Chronologie : Le fichier biographique est plus complexe. Mis à part l'en-tête de la fiche qui contient le nom et les dates de naissance et de décès, le contenu est très varié et sa disposition dépend entièrement de l'ordre dans lequel les informations ont été obtenues et de l'espace vierge disponible sur la fiche, puisque Kolb faisait tenir sur une seule fiche la totalité de ses renseignements concernant une personne, quelle qu'en soit la quantité : Biographie : A partir de cet échantillonnage, des formulaires ont été construits à l'aide de l'éditeur SGML Author/Editor (sociétés Softquad puis Interleaf) pour fixer la structure élémentaire des documents numériques et faciliter la saisie des données. La préparation du document électronique s'effectue en plusieurs étapes. La saisie consiste à déchiffrer l'écriture manuscrite de Philip Kolb et à classer les différents éléments à l'aide d'un des formulaires prédéfinis. Une fois ce premier tri établi, un gros travail éditorial est nécessaire pour rendre le contenu des fiches intelligible : il faut développer les nombreux symboles et abréviations, rendre à chaque citation la source qui lui correspond, éliminer les doublons, remplacer les références bibliographiques d'anciens volumes de lettres de Proust par la référence équivalente dans l'édition générale de Kolb, devenue la référence dans le domaine (celle -ci fournit pour chaque lettre la liste des publications précédentes : il n'y a donc pas de perte d'information). Il est souvent nécessaire de retourner aux documents d'origine pour confirmer le rapport entre une note et une source, ou pour étoffer une citation obscure parce que Kolb n'en a extrait que trois ou quatre mots en guise d'aide-mémoire. Le texte ainsi établi est pris en charge par une personne différente pour la suite des opérations, ce qui permet une relecture par des yeux « non avertis », plus susceptibles de repérer les coquilles et les passages confus. Des éléments du contenu déterminés à l'avance sont codés de façon systématique avec différentes balises et attributs SGML, qui permettent de valoriser certains aspects du fichier qui étaient pratiquement inaccessibles dans sa version papier et qui multiplient les critères de recherche proposés aux utilisateurs. Ce procédé a d'abord été testé sur le fichier bibliographique, mais il est aujourd'hui mis en œuvre à plus grande échelle dans le fichier chronologique, en cours d'édition. Il sera ensuite adapté au fichier biographique, actuellement en cours de saisie, puis aux fichiers restants. Dans la chronologie, les éléments suivants font l'objet d'un codage particulier : dates, titres, personnes, renvois et/ou corrélats. La date d'en-tête reçoit la balise <DATE> </DATE>. Chaque date est composée en théorie d'un jour, d'un mois et d'une année. Ces trois éléments sont convertis en une valeur numérique de modèle « AAAAMMJJ » qui est utilisée comme attribut pour permettre des recherches ultérieures sur des dates ou des périodes. « 1871 10 juillet » devient « <DATE VALUE=“18710710”>1871 10 juillet</DATE> » Le fichier chronologique recèle toutefois un nombre important de fiches aux dates incomplètes ou imprécises qui illustrent la complexité et le caractère d'inachèvement quasi permanent du travail de datation entrepris par Philip Kolb. La difficulté de dater une lettre ou un événement de façon précise à laquelle Kolb se heurtait à longueur de temps se retrouve dans la difficulté d'attribuer une valeur numérique détaillée à une date qui n'est souvent qu'une date butoir. Des conventions ont été adoptées pour représenter les différents cas de figure recensés au cours d'un échantillonnage et assurer que toutes les dates, qu'elles soient complètes ou non, précises ou non, soient prises en compte au cours de requêtes chronologiques à l'aide du moteur de recherche. Lorsque le jour et/ou le mois manquent, ils sont remplacés par le jour et/ou le mois « 00 ». Cette substitution permet au moteur de recherche de prendre en compte la totalité des fiches dans les recherches chronologiques. « 1912 » devient « 19120000 »; « 1901 mai » devient « 19010500 » Pour trouver toutes les fiches datées du mois de mai 1901, un utilisateur demandera à voir toutes les fiches comprises entre 1901 mai 00 et 1901 mai 31 (« 19010500-19010531 »). Il en va de même lorsque l'année est le seul élément chronologique disponible : 1912 devient « 19120000 ». Une requête pour toutes les fiches de l'année 1912 couvrira les dates 1912 00 00 à 1912 12 31 (« 19120000-19121231 »). Il n'est malheureusement pas encore possible de traduire toutes les hésitations et les nuances du langage naturel en valeurs numériques. Lorsqu'une date complète est nuancée par une expression telle que « vers », « peu avant », « quelques jours après », la date est codée comme une date normale. « 1896 vers le 12 mars » devient « 18960312 » Lorsqu'une date imprécise est limitée au début, à la fin, à la première ou la deuxième quinzaine d'un mois, la valeur numérique est ramenée à un jour précis. « 1907 2ème quinzaine de juin » devient « 19070615 » (« 1ère quinzaine » serait noté « 19070601 ») « 1904 début août » devient « 19040801 » (« fin août » serait noté « 19040831 ») De même, lorsqu'une date ne contient qu'une année et une mention telle que « début », « fin », « premiers » ou « derniers mois », la valeur numérique est ramenée à janvier ou décembre, sans jour précis. Les indications de saison ne sont pas prises en compte, après de longs débats qu'il ne convient pas de reprendre ici. Les dates concernées sont traitées comme des dates incomplètes qui ne contiendraient que l'année. Les dates multiples sont décomposées et codées date par date. « 1897 1er mai - 1897 15 juin » devient « 18970501-18970615 » Les titres reçoivent la balise <TITLE> </TITLE>. Les œuvres littéraires, musicales ou artistiques citées dans le corps de la fiche reçoivent un code de deux lettres associé à l'attribut « TYPE », qui précise leur genre. Les catégories suivantes ont été retenues : arts graphiques (ag), danse (ds), essai (es), musique (mu), opéra (op), poésie (po), récit (re), sculpture (sc), spectacle (sp), théâtre (th). Ce travail d'indexation nécessite l'identification d'une grande partie des œuvres citées à l'aide de divers ouvrages de référence, mais il ouvre de nouvelles possibilités dans l'utilisation du. « <TITLE TYPE=“th”>La Folle Enchère</TITLE>, comédie en 3 actes de Lucien Besnard » « […] <TITLE TYPE=“ds”>l'Après-midi d'un faune</TITLE> où Nijinsky dansait avec un génie qui rejoignait celui de Debussy ! » Toutes les personnes, réelles ou fictives, reçoivent la balise <NAME> </NAME> et un code alphanumérique unique, généralement composé des six premières lettres du nom de famille et d'un ou plusieurs chiffres, associé à l'attribut « KEY ». <NAME KEY=“proust1”>Marcel Proust</NAME> <NAME KEY=“proust2”>Jeanne Weil, Mme Adrien Proust</NAME> (mère de M. Proust) Ce balisage permet d'identifier une personne, quelle que soit la forme prise par son nom dans les fiches. Le module de recherche associé à cette balise est particulièrement utile pour lancer des requêtes 7 sur des auteurs qui utilisent des pseudonymes, comme Marcel Proust, qui écrivait sous les noms de plume « Horatio », « Laurence », « Dominique », « Marc Eodonte » (coquille malencontreuse pour « Marcel Dante »), ou pour suivre au cours des années des femmes dont le nom changeait au gré des mariages, comme Jeanne Hugo, pour n'en citer qu'une, qui devint successivement Mme Léon Daudet, Mme Jean Charcot, et Mme Michel Nègreponte. De la même façon, une fois leur identité établie, « l'auteur de Cyrano de Bergerac », un Président de la République en exercice ou la mère de la mariée reçoivent la balise et l'attribut qui leur reviennent. L'attribution d'un code unique à chaque personne identifiée a nécessité la mise en place d'une base de données afin d'éviter qu'un même code soit attribué à deux personnes différentes ou qu'une même personne reçoive deux codes différents, et pour permettre à plusieurs encodeurs de travailler simultanément. La base consistait au départ en une simple liste d'autorités de noms et de codes. Très vite, il est devenu nécessaire d'ajouter des informations supplémentaires pour distinguer les homonymes, particulièrement fréquents à cause de la présence de nombreux titres de noblesse. Au nom complet (incluant les surnoms et les pseudonymes) viennent s'ajouter, chaque fois que c'est possible, les années de naissance et de décès, de mariage(s) et de divorce(s) pour les femmes, la profession, le lien de parenté avec d'autres personnes recensées, la date de changement de titre de noblesse, ou si rien de tout ceci n'est connu, au moins l'année et les circonstances dans lesquelles la personne est citée : compte rendu mondain, témoin à un mariage ou un duel, etc. Parfois l'incertitude demeure : Mme Trousseau aperçue en 1894 à Trouville est-elle la même personne que Mme Trousseau rendant visite à Mme Aubernon en 1897 ? Dans de tels cas, deux identifications distinctes sont maintenues par prudence. Les titres de noblesse requièrent un gros travail de prosopographie : le titre de duc de Noailles est-il porté par la même personne en 1896 et en 1909, ou bien a -t-on affaire au père et à son fils ? Quelques chiffres : du début du fichier à l'année 1913, soit environ 6 800 fiches, on recense dans la chronologie plus de 6 400 personnes différentes. Des vérifications minutieuses s'imposent pour éviter les erreurs d'identification. Pour faciliter les requêtes, les informations associées à chaque personne sont accessibles au public dans le module « recherche de personne » du moteur de recherche. Chaque fiche bristol est traitée comme un document séparé, même si les fiches numérisées sont regroupées par série de trente ou quarante dans des fichiers SGML pour faciliter les manipulations informatiques. Chaque fiche, représentée par l'élément structurel <DIV0>, reçoit un numéro d'identification attribué automatiquement grâce à un petit programme PERL. Au cours du balisage, les fiches qui traitent d'un même sujet ou qui contiennent des renvois et des corrélats sont connectées par des liens hypertextes insérés manuellement avec la balise <XREF> </XREF>. Au fur et à mesure que l'édition du fichier chronologique progresse, des liens transversaux se tissent à l'intérieur du fichier pour mettre en valeur des sous-ensembles chronologiques ou thématiques. <DIV0 ID=“c67970” TYPE=“card”>1913 fin mars - 1913 début avril Emmanuel Bibesco invite Proust à une promenade en automobile à Champlâtreux et dans la vallée de Chevreuse, en compagnie de la comtesse Thérèse Murat à Emmanuel Bibesco, Cor XII, p. 118, n. 49 [Fin mars ou début avril 1913] Cf. peu après le 27 mars 1913 [<hi rend="bold"><XREF>c67980</XREF></hi>] Cf. vers le début d'avril 1913 [<hi rend="bold"><XREF>c67990</XREF></hi>] </DIV0> Le balisage structurel des fiches est assez simple car il n'utilise qu'un petit nombre d'éléments qui sont organisés à l'avance en formulaires dans lesquels les données sont ensuite classées. En revanche, le balisage du contenu est une tâche très minutieuse, impossible à automatiser. Si le codage des dates va relativement vite, une fois les conventions établies, l'identification des genres d' œuvres et surtout des personnes est sans conteste l'étape qui demande le plus de temps et de familiarité avec le sujet traité et les sources disponibles pour la période. C'est aussi celle qui accroît le plus la valeur du fichier chronologique et qui en étend l'utilité au-delà du seul domaine proustien. Le balisage des personnes citées décrit plus haut a donné lieu à la création « fortuite » d'un nouvel ensemble de données biographiques à partir d'un corpus existant. Ce fichier d'autorités qui, pour l'instant, constitue essentiellement l'index onomastique de la chronologie, englobera ultérieurement le fichier biographique de Philip Kolb, puisque les mêmes identifiants seront réutilisés pour son balisage. Nouvellement créé par l'extraction de ressources déjà présentes mais inaccessibles dans la version papier, il servira d'index biographique général pour toute la base de connaissances au fur et à mesure que celle -ci se développera. Un utilisateur pourra alors naviguer entre les différents documents pertinents pour sa recherche à partir d'une notice centrale. Afin de conserver toute leur valeur aux fichiers de Philip Kolb, qui représentent l'état de ses connaissances au moment de son décès, il est nécessaire d'effectuer une mise à jour constante des notices en incorporant des données nouvelles au fur et à mesure de la numérisation des fiches ou de la publication de nouveaux travaux. Cela revient à maintenir les principes de recherche et de classement établis par Kolb, même si les supports et l'environnement de travail ont complètement changé. En plus du balisage décrit précédemment, les encodeurs ont la possibilité d'introduire des annotations signées pour approfondir certains éléments, fournir des informations supplémentaires ou rectifier des faits inexacts. Le travail d'identification des personnes nécessité par le balisage du contenu des fiches et décrit plus haut fournit déjà l'occasion de mettre au jour des informations que Kolb n'avait pas recherchées ou pas trouvées. Un effort est fait pour retrouver le nom complet et les dates de naissance, de décès, et de mariage dans des répertoires biographiques généraux imprimés ou en ligne, des biographies, des avis mondains ou des rubriques nécrologiques de journaux, et enfin, en dernier recours, auprès des bureaux d'état civil, quand un lieu et une date approximative sont déjà connus. Les résultats sont ajoutés à la base de données des noms ainsi que sur des fiches annexes dans le fichier biographique, en prévision de sa numérisation prochaine. Il est également prévu que les notices d'autorité qui n'auront pas trouvé leur équivalent dans le fichier biographique, une fois celui -ci édité, seront étoffées. Ce travail aura pour effet de contrebalancer le point de vue majoritairement proustien qui existe pour l'instant dans les fichiers. En effet, Kolb par économie de temps et d'espace, omettait des informations importantes pour la connaissance générale de la période, mais superflues pour la tâche déjà considérable qu'il s'était fixée. Aujourd'hui, la technologie employée permet de restituer ces omissions tout en conservant la séparation entre le travail de Philip Kolb et les additions plus récentes. Le support informatique de cet outil hypertexte en pleine croissance réduit considérablement le délai nécessaire à la diffusion de nouveaux savoirs. Des liens peuvent être insérés pour diriger l'utilisateur vers d'autres ressources, internes ou externes, sur le même sujet ou des sujets apparentés. Les utilisateurs ont aussi la possibilité de participer à l'élaboration de cet outil qui leur est destiné en signalant des publications, des manifestations, ou en proposant des nouvelles données, des commentaires et des interprétations variées, qui peuvent être incorporés en regard des notices concernées. Ce procédé n'est pas sans risque et demande un travail de vérification soigné. Néanmoins, ce nouveau mode d'édition dynamique est particulièrement intéressant pour des projets futurs envisagés par le centre Kolb-Proust. Si la première phase de numérisation se distingue quelque peu d'autres projets littéraires, la seconde bénéficiera sans aucun doute de leur expérience et des principes qui ne manqueront pas de s'en dégager. Il s'agit en effet de la numérisation du texte intégral de la correspondance de Marcel Proust 8. Philip Kolb en a publié les vingt et un volumes de 1970 à 1993 [PRO 70 ]. Durant ces deux décennies, la découverte de nouvelles lettres et de nouvelles données l'ont amené à corriger les volumes déjà parus, à redater des lettres et à publier des lettres d'années antérieures en appendice des nouveaux volumes. Aujourd'hui, nombre de proustiens réclament une édition révisée et refondue pour intégrer ces nombreuses corrections et additions, mais il est peu probable que l'éditeur accepte de s'engager à nouveau dans un projet de cette envergure. Par contre, on peut parfaitement envisager une édition électronique qui, à partir du texte imprimé, incorporerait les lettres parues depuis 1993, toutes les modifications indiquées par Philip Kolb ainsi que celles suggérées par d'autres chercheurs. On peut imaginer qu'en cas de désaccord sur une date ou sur l'interprétation d'une allusion, la version électronique présenterait le texte disputé et les commentaires contradictoires, comme une glose moderne. Une telle édition aurait l'avantage d' être mise régulièrement à jour, offrirait des possibilités de manipulation des textes qui n'existent pas dans les éditions imprimées et serait présentée au sein d'une large collection où l'utilisateur trouverait à la fois son document primaire et les sources nécessaires à sa recherche. Par d'autres aspects, ce projet remet également en question la notion d'une édition dite définitive et la notion de pérennité de l'héritage écrit, sujets débattus depuis maintenant plusieurs années par diverses professions comme les chercheurs, les auteurs et les professionnels de l'information. Philip Kolb s'était donné pour mission de restituer aussi exactement que possible le portrait de Proust tel que celui -ci apparaît à travers ses lettres. Le centre Kolb-Proust poursuit aujourd'hui cette mission et l'étend au travail de Philip Kolb, en restituant aussi exactement que possible le contenu des notes du chercheur. L'entreprise de préservation de ces deux écritures tente d'intégrer en un même ensemble documents primaires et appareil critique, avec la situation curieuse que la correspondance de Proust était pour Kolb le matériau primaire, tandis que les notes de Kolb deviennent le matériau primaire pour l'équipe Kolb-Proust, au même titre que la correspondance de Proust. Chaque couche d'écriture possède une fonction particulière : la correspondance de Marcel Proust est un outil de communication entre un homme et son environnement; les travaux d'érudition de Philip Kolb permettent de reconstituer cette correspondance, de la replacer avec son auteur dans son contexte historique, littéraire et social et de la rendre compréhensible du public; le travail de l'équipe Kolb-Proust enfin reprend les matériaux accumulés par Kolb dans les coulisses de son édition et les fait également passer du domaine privé au domaine public grâce à toutes les transformations décrites plus haut, et ce faisant, passe d'une écriture individuelle à une écriture collective effectuée par les différents acteurs du centre, sa bibliothécaire, ses assistants de recherche aussi bien que les utilisateurs du site qui contribuent volontiers en mettant à disposition ceux de leurs résultats qui peuvent présenter un intérêt pour le développement de la base de connaissances. Cette entreprise fonctionne comme une série de poupées russes où chaque poupée peut s'ouvrir pour laisser apparaître une poupée de dimension inférieure, jusqu' à la plus petite, qui garde malgré tout son apparence de poupée. Dans le cas du projet Kolb-Proust, le plus petit élément serait la lettre de Proust, ou si l'on veut distinguer entre l'écriture de Proust et les emprunts, la citation littéraire sertie dans le texte de la lettre. Elle fonctionne également comme une mosaïque au motif concentrique dans laquelle chaque cercle est composé par la juxtaposition de multiples petits éléments autonomes : une lettre au sein de la correspondance, un renseignement sur une fiche, ou une fiche dans l'ensemble documentaire. Le motif peut être amplifié par l'ajout d'éléments supplémentaires autour du dernier cercle, mais chaque élément ne prend sa signification complète que par sa position dans le motif général .
La bibliothèque de l'Université d'Illinois développe depuis 1994 un outil hypertexte qui rassemble des sources secondaires sur la vie littéraire, artistique et mondaine en France pour la période 1870-1925, à partir des 40 000 fiches de recherche constituées par le professeur Kolb pour son édition de la correspondance de Marcel Proust. L'insertion de métadonnées, de liens hypertextes et de nouvelles informations nécessaires à la constitution de cette base apporte un niveau supplémentaire à cet édifice déjà formé par la superposition des écrits de Proust et de Kolb.
sciencesInfo_02-0446400_tei_DN_051_0135.tei.xml
termith-416-communication
La classification de données sémantiques relationnelles existe dans différents contextes, comme la classification de pages web (Zhang et al., 2006), la classification de documents (Bilgic et al., 2007), la détection de web spam (Abernethy et al., 2008), l'annotation d'image ou de vidéo (Cao et al., 2008; Wang et al., 2009), l'étiquetage de blog (Bhagat et al., 2007). En plus de la description par l'élément de contenu, une information relationnelle est disponible et peut être utilisée comme une source d'information complémentaire pour classifier les objets. La sémantique des relations diffère selon le problème et peut être exploitée de différentes manières. Cette information peut être implicite; dans ce cas elle est inférée directement depuis les données. Par exemple, la similarité entre deux éléments de texte, des images ou des vidéos a été largement explorée dans divers contextes de classification. L'information peut être aussi explicite comme les hyperliens sur le web, les citations dans un réseau bibliographique ou des relations d'amitié dans un réseau social. La plupart des travaux existants dans ce domaine ont considéré que les éléments sont connectés avec un seul type de relation, comme les citations, l'amitié etc. Il y a cependant beaucoup de problèmes concrets pour lesquels plusieurs types de relations sont disponibles et peuvent ou doivent être exploités. Considérons la tâche d'apprendre à annoter des images, qui est utile par exemple pour la recherche par mot clef. Du fait de la diversité des images et contextes d'annotation, les images seules ne fournissent pas assez d'information pour l'étiquetage. Il peut alors être nécessaire d'utiliser toute l'information, étiquettes et relations, fournie par les différents utilisateurs. Pour cela, il est nécessaire de savoir comment utiliser les différentes relations entre les images, qui ont chacune leur sémantique propre, et comment exploiter la valeur de chacune d'entre elles. Plusieurs travaux récents ont commencé à explorer cette direction. Par exemple, (Wang et al., 2009) exploite les relations entre différentes structures clefs représentées par plusieurs modalités pour annoter des captures de vidéos, (Tsuda et al., 2005) classifie des protéines en utilisant des réseaux de protéines multiples. Le principal problème de ces approches est que l'information de contenu est prise en compte uniquement à travers le calcul de similarités et n'est pas utilisée directement pour la classification. Par ailleurs ces algorithmes utilisent des méthodes d'optimisation complexes qui ne sont pas adaptées pour les grands réseaux. Nous considérons le problème d'annotation de documents dans des réseaux avec une information de contenu, où les éléments peuvent partager de multiples relations implicites ou explicites. Un exemple d'un tel réseau est le site Flickr avec des relations comme “ami ”, “auteur” ou “commentaire ”, des mesures de similarité ou des métadonnées qui peuvent être utilisées pour inférer des relations entre les éléments de contenu. La figure 1 montre exemple de problème d'étiquetage multirelationnel transductif dans un réseau bibliographique Le graphe présente différents types d'arcs dirigés et non dirigés modélisant différentes relations (représentées par des couleurs ou pointillés). Ici il y a trois relations : deux articles sont reliés s'ils ont le même auteur (SameAuthor) ou publiés la même année (SameYear) ou que l'un cite l'autre (Cite). Certains nœuds sont étiquetés (par exemple Machine Learning) et d'autres sont à étiqueter par le modèle (ceux annotés par un point d'interrogation). Nous proposons un nouveau modèle d'apprentissage pour annoter des documents. Il est basé sur le cadre de la classification transductive où sont disponibles en entraînement à la fois les données étiquetées et non étiquetées avec les différents types de relations. Ce cadre a été introduit tout d'abord dans le contexte de l'apprentissage semi-supervisé (Zhou et al., 2005; 2004; Belkin et al., 2006) pour des réseaux monorelationnels et nous allons l'étendre aux réseaux multirelationnels en apprenant automatiquement à pondérer les différents types de relations, en fonction de leur pertinence et importance pour la résolution de la tâche de classification ou d'annotation. Il s'agit du premier modèle pour la classification dans les graphes capable d'apprendre simultanément à partir du contenu des éléments à classifier et des relations multiples hétérogènes entre ces éléments. Les expériences sur différents jeux de données nous permettent d'évaluer la capacité du modèle à traiter une grande variété de contextes. Le modèle est comparé à des algorithmes monorelationnels et multirelationnels de l'état de l'art et démontre à la fois sa capacité à agréger l'information des différents types de relations, et à mélanger également le contenu et la structure pour améliorer la classification. L'article est organisé comme suit. À la section 3 nous introduisons un cadre d'apprentissage transductif classique pour apprendre les scores des nœuds dans un graphe monorelationnel, à la section 4 nous introduisons notre extension aux données multirelationnelles, à la section 5 nous présentons les résultats d'expériences sur différents jeux de données avec des comparaisons aux méthodes de l'état de l'art. La section 6 présente l'état de l'art. Nous considérons un multigraphe G = (V, E). Il est défini par : Un ensemble de N nœuds V = (v 1, … vN). Nous considérons que les nœuds ont une information de contenu (texte, image…) décrite par un vecteur de caractéristiques. Par la suite, vk dénotera à la fois le nœud et son vecteur de caractéristiques associé i.e vk ∈ ℝ d où d est la dimension du vecteur de caractéristiques. Ce vecteur peut être un histogramme pour une image ou une distribution de fréquences de mots pour un document textuel. Un ensemble de R types d'arcs où E (k) est l'ensemble des arcs de type k entre les éléments de V. E est un tenseur tri-dimensionnel où est le poids de l'arc de type k entre le nœud vi et le nœud vj. Si alors il n'y a pas de relation de type k entre vi et vj. Nous notons l'ensemble des nœuds étiquetés où Nl est le nombre de nœuds étiquetés. Pour tous ces nœuds, yi est un score connu associé au nœud vi. Le but est de calculer automatiquement un score pour tous les nœuds non étiquetés restants, où est le nombre de nœuds non étiquetés, en utilisant à la fois le contenu des nœuds et la structure complexe du multigraphe. Pour vi ∈ Vl, nous posons par définition. Dans notre contexte transductif, nous considérons que les scores des nœuds étiquetés sont connus durant tout le processus. Nous introduisons ci-dessous un classifieur transductif général pour les graphes monorelationnels. La plupart des modèles dans l'approche transductive font de la propagation d'étiquette depuis un faible nombre de nœuds étiquetés vers les nœuds non étiquetés. Ils n'utilisent pas de classifieur sur le contenu durant le processus d'étiquetage et ne font que propager les étiquettes. Un des premiers modèles de scorage pour les graphes, capable d'utiliser à la fois le contenu des nœuds et les relations durant l'inférence, a été récemment proposé dans Abernethy et al. (2008). Un algorithme similaire, opérant dans un contexte monorelationnel sera utilisé ici comme référence et point de départ pour nos extensions. Nous considérons qu'il y a un ensemble de nœuds étiquetés et non étiquetés disponible. Le but est d'attribuer un score à tous les nœuds non étiquetés en utilisant toute l'information disponible sur à la fois les nœuds étiquetés et non étiquetés. Cela est fait en deux étapes : La première étape consiste à entraîner un classifieur classique sur le contenu des nœuds étiquetés. Ce classifieur sur le contenu seul peut être n'importe quel modèle classique comme un perceptron, un SVM ou un modèle génératif. Une fois entraîné sur les nœuds étiquetés, il sera utilisé pour calculer un score initial,, pour tous les nœuds non étiquetés du graphe. À la fin de cette première étape, tous les nœuds dans le graphe auront un score initial. La seconde étape consiste à propager ces scores le long des arcs du graphe sous la contrainte que la valeur propagée reste relativement proche du score initial calculé dans l'étape 1. La propagation va régulariser les scores de manière à ce que les voisins dans le graphe aient des scores proches. À la fin du processus, le score final d'un nœud sera un compromis entre son score de contenu seul et le score de ses voisins. Nous détaillons ci-dessous les deux étapes puis nous présentons à la section 4 un modèle capable d'apprendre comment propager les étiquettes sur différents types de relations. Notons que dans notre contexte transductif, nous considérons que les scores des nœuds étiquetés sont connus durant tout le processus. Si les nœuds du graphe n'ont pas de contenu, cet algorithme peut toujours être utilisé en propageant simplement les étiquettes (étape 2 dans 3.1) sans calculer le score intermediaire (étape 1 dans 3.1). La première étape de l'algorithme est l'apprentissage inductif classique. Un classifieur est entraîné en utilisant les nœuds étiquetés pour classifier les nœuds non étiquetés. Dénotons θ les paramètres du classifieur et la fonction de classification correspondante. La méthode classique consiste à minimiser un risque empirique défini sur les nœuds étiquetés tel que : où est le coût de l'erreur consistant à prédire au lieu de yk et λ un hyperparamètre de régularisation L2. Différentes fonctions fco peuvent être utilisées ici. Dans nos expériences, nous avons utilisé une fonction linéaire avec un « hinge loss » minimisé par une descente de gradient (cf. 5). Le score du nœud vi prédit par le modèle sur le contenu seul est. Quand les nœuds du graphe n'ont pas d'information de contenu, ces scores peuvent être tirés au hasard. Les modèles de propagation classiques ont été développés pour les graphes monorelationnels, où R = 1. La plupart des modèles (Zhou et al., 2004; Belkin et al., 2006), reposent sur une hypothèse de régularité qui considère que deux nœuds connectés devraient avoir des étiquettes similaires. Cette contrainte est habituellement implémentée par un terme de régularisation. La fonction de coût pour ces modèles a la forme générale : où est le score prédit du nœud vi et α est un paramètre de régularisation. Ici est le poids de l'arc entre vi et vj dans un graphe monorelationnel. Terme 1 mesure l'erreur entre le score prédit et le score de contenu seul sur les nœuds non étiquetés. Ce terme agit comme une contrainte pour que reste proche de. C'est un changement par rapport à la formulation classique des modèles de régularisation transductive sur les graphes qui ne considèrent que la propagation (i.e. terme 2) et pas le classifieur de contenu. Terme 2 encourage la régularité sur le graphe. Le compromis entre les deux termes est réglé par α et nous permet de contrôler le degré de régularité sur le graphe. Une faible valeur de α encourage le modèle à fournir des scores finaux proches des scores du contenu seul, une forte valeur de α favorise plus de régularité sur le graphe. Les scores finaux des nœuds sont obtenus par la minimisation de cette fonction : Différentes variantes peuvent être utilisées pour les termes dans l'équation 2. Différentes techniques d'optimisation ont été proposées pour minimiser ce coût, allant de la descente de gradient (Abernethy et al., 2008) aux marches aléatoires (Zhou et al., 2005). Nous présenterons une technique originale à la section 4, qui nous permettra d'entraîner notre modèle multirelationnel. Nous décrivons un nouveau modèle capable d'apprendre à étiqueter dans un contexte multirelationnel. Ce modèle apprend une combinaison linéaire « optimale » des différents poids de relations. Il exploite un mécanisme d'inférence spécifique. Nous introduisons la fonction de coût à la section 4.1.1, la technique d'inférence à la section 4.2 et l'algorithme d'apprentissage à la section 4.3. Au lieu d'utiliser directement les poids des relations dans la fonction de coût comme dans l'équation 2 au travers du poids, nous utilisons une fonction paramétrisée ψγ (i, j) ∈ [0; 1] définie sur chaque paire de nœuds vi, vj où γ est l'ensemble des paramètres de ψγ (. ,.). ψγ (. ,.) est désignée comme la fonction sur les arcs par la suite. Ses paramètres sont appris depuis les données comme décrit dans la section 4.3. Cette fonction fournit des poids normalisés dans [0;1] pour les différents types de relations. La fonction du coût utilisée dans le modèle est Lmulti () : Notons qu'ici encore, la somme dans le terme 1 est faite sur les nœuds non étiquetés ce qui nous permet d'inférer à la fois sur le contenu et les relations. a la même forme que excepté que a été remplacé par la fonction ψγ (i, j). Décrivons désormais cette fonction. Soit Φ( i, j) un vecteur de caractéristiques décrivant les différentes relations entre vi et vj : Nous choisissons pour la fonction sur les arcs une fonction logistique sur le vecteur Φ : Ce choix considère que la fonction sur les arcs est définie avec un paramètre γr pour chaque type de relation. Ce paramètre représente l'importance de la relation r pour propager les scores sur les nœuds non étiquetés. Les paramètres γ sont appris depuis les données comme expliqué à la section 4.3. Ce modèle est donc capable d'apprendre l'importance relative des différents types de relations pour la propagation sur le graphe. La fonction logistique est utilisée ici pour deux raisons. Tout d'abord elle force le terme de régularisation à être positif, et elle empêche également les coefficients γ de diverger à l'infini et agit en pratique comme une contrainte de régularisation sur les γ. Si une simple combinaison linéaire avait été utilisée au lieu d'une fonction logistique, une des relations serait devenue très dominante à travers son coefficient. Cela arrive rarement en pratique avec notre formulation. Différentes variantes de cette fonction sur les arcs pourraient être définies. Par exemple, le contenu sur les nœuds pourrait également être incorporé dans l'expression de ψγ (i, j). Ce point n'est pas discuté ici. L'inférence consiste à calculer les scores prédits sur les nœuds non étiquetés de manière à minimiser Lmulti : Notons que cette fonction considère uniquement les nœuds non étiquetés, puisque sur les nœuds étiquetés nous avons posé par définition. Nous proposons de résoudre la minimisation de cette fonction par un algorithme itératif basé sur une méthode de descente de coordonnées. Cette méthode consiste à minimiser la fonction Lmulti coordonnée par coordonnée. Comme Lmulti () est une fonction convexe par rapport à, l'algorithme convergera au minimum de cette fonction. L'algorithme est décrit dans l'algorithme 1 étape 3. À l'itération t, on minimise la fonction sur une coordonnée particulière k sachant les scores prédits sur tous les autres nœuds. Le minimum est obtenu en résolvant l'équation suivante : Algorithme 1. Modèle transductif multirelationnel Cette minimisation est faite uniquement sur les nœuds non étiquetés et obtenue quand : La solution est donc : À chaque étape, la nouvelle valeur est une combinaison pondérée du score sur le contenu et des valeurs des voisins. Ainsi, les étiquettes se propagent à travers les relations avec prise en compte du score sur le contenu. Notons que l'algorithme utilise une formulation de graphe dirigé (les deux arcs (k, i) et (i, k) apparaissent dans l'expression), de manière à ce que des graphes dirigés puissent être utilisés. L'algorithme consiste à itérer l'équation 10 pour chaque nœud non étiqueté vk jusqu' à convergence. Il est décrit dans l'algorithme 1. Le but est ici d'apprendre les paramètres γ de la fonction sur les arcs. Nous considérons que les paramètres sur le contenu seul ont été précédemment appris comme expliqué à la section 3.2. Définissons, le coût de prédiction du score au lieu de yi en utilisant la procédure d'inférence proposée. Le coût empirique est défini sur les nœuds étiquetés comme étant : où est obtenu en utilisant la procédure d'inférence i.e. : Les paramètres de structure γ sont appris sur les données étiquetées. La figure 4.1.2 illustre le sous-graphe étiqueté extrait du graphe (étiqueté + non étiqueté). L'idée sous-jacente est de découvrir, pour chaque nœud, comment les étiquettes des voisins sont propagées sur les différents types de relations. Pour le sous-graphe étiqueté, nous générons un exemple d'apprentissage pour chaque nœud : il est composé de ce nœud et de ses voisins comme illustré à la figure 4.3. Nous calculons ensuite les paramètres γ sur ces exemples. Le principe de l'algorithme est de trouver pour les exemples d'apprentissage, les paramètres γ qui propageront correctement les étiquettes (+1 et −1) sur les nœuds non étiquetés comme expliqué dans l'équation 13. Pour les nœuds étiquetés, nous voulons prédire des scores aussi proches que possible du score réel yk de, calculé par la procédure d'inférence, qui dépend des paramètres γ (équation 10). Nous optimisons les valeurs γ pour obtenir des scores prédits aussi proches que possible des scores réels. Apprendre γ consiste ensuite à minimiser le coût de prédiction Δ défini pour chaque nœud étiqueté vk : Nous utilisons ici un coût d'erreur au carré classique : Ce coût peut être minimisé par un algorithme de descente de gradient. Nous avons fait des expériences sur quatre jeux de données : Le corpus Cora est une base d'articles scientifiques avec 10 thématiques possibles. Le contenu de chaque nœud correspond au vecteur TF-IDF normalisé sur le résumé de l'article. Il y a 5 types de relations dans ce corpus : Pour ce corpus, la tâche est de la classification multiclasse, mono étiquette. Le corpus Flickr (Peters et al., 2010) correspond aux images et à l'information textuelle extraite de Flickr. Chaque image est représentée par une description textuelle sur Flickr et a été annotée avec différents tags. La tâche est ici l'étiquetage automatique, i.e. assigner un ou plusieurs tags à chaque image. Les images sont connectées par 3 types de relations différentes : La tâche est ici de la classification multiclasse, multi étiquette. Des expériences ont été lancées sur une version avec 10 tags possibles et une autre version avec 50 tags possibles. Le corpus Email est une base d'emails extraits des emails des auteurs de cet article. Ces emails ont été classés manuellement dans 16 dossiers différents. Chaque email est décrit par son contenu textuel et les emails sont connectés par 4 types de relations : La tâche est ici de la classification multiclasse, mono étiquette. Le tableau 1 donne quelques statistiques sur les corpora. Statistiques sur les corpora Base Nb. nœuds Nb. d'arcs Nb. relations Nb. categories Tâche Cora 24 245 712 440 5 10 mono étiquette Flickr10 1 995 316 002 3 10 multi étiquette Flickr50 4 338 1 186 190 3 50 multi étiquette Emails 4 408 1 M 4 15 mono étiquette Le modèle présenté calculant des scores sur les multigraphes binaires, nous apprenons un modèle pour chaque catégorie possible. Dans le cas de la classification mono étiquette, la catégorie avec le plus gros score est choisie. Dans le cas multi étiquette, les scores de toutes les catégories sont utilisés pour calculer une précision @ n comme expliqué ci-dessous. Pour comparer notre approche avec les méthodes multi relationnelles existantes qui ont été développées uniquement pour les réseaux avec structure seule 1, nous avons lancé deux ensembles d'expériences : Les Expériences sur la structure seule (SO) ne font usage que de la structure sur les multigraphes, sans information de contenu. Pour ces expériences, nous avons utilisé trois modèles : Les Expériences sur le contenu et la structure (SC) où les modèles peuvent utiliser à la fois le contenu et la structure des multigraphes. Ici, nous avons comparé trois différents modèles : Pour les corpora multiclasse mono étiquette, les résultats sont évalués en utilisant les mesures classiques micro- F 1 (miF 1) et macro- F 1 (maF 1). La mesure F 1 pour une catégorie est la moyenne harmonique de la précision et du rappel. La macro- F 1 est la moyenne de la F 1 sur toutes les catégories du problème. Le micro- F 1 correspond à la moyenne pondérée par la taille de chaque catégorie. Pour les problèmes multiétiquettes, nous avons utilisé également les micro- F 1 et macro- F 1 en assignant une catégorie à un nœud si son score est positif. Pour évaluer la performance en ordonnancement, nous avons aussi calculé la précison à 1 (P@1) et à 3 (P@3) sur la liste ordonnée par score des étiquettes. Nous avons lancé les expériences sur diverses tailles en entraînement - 5 %, 10 %, 25 % et 50 % de nœuds étiquettés - et valeur de α - .01, 0.1, 1, 10, 100. Trois processus ont été lancés pour chaque expérience et les résultats présentés sont leur moyenne. Nous avons rapporté les meilleurs résultats en fonction de α. Les expériences sur la structure seule ont été faites principalement pour pouvoir comparer notre approche avec les approches multirelationnelles de l'état de l'art. Les résultats sur les différents modèles sont présentés dans les tableaux 2 et 3. Nous fournissons également des courbes de performance montrant les résultats des différents modèles - cf. figures 4 et 5. On peut observer que la performance sur chaque modèle monorelationnel dépend principalement de la relation utilisée. Par exemple, l'utilisation de la relation 3 sur Cora avec 10 % de nœuds en entraînement permet d'obtenir 33 % en micro- F 1 alors que la relation 1 n'atteint que 12 %. Cela est dû principalement au fait que l'hypothèse de régularité faite par les modèles monorelationnels n'améliore les performances que si le type de relation considéré respecte cette hypothèse - i.e. certains types de relations sont réguliers et d'autres pas. Le modèle Kato améliore clairement les performances par rapport au monorelationnel en obtenant par exemple 60 % en micro- F 1 pour la même taille en entraînement. En fonction du corpus et de la taille en entraînement, notre approche obtient en général des performances équivalentes ou meilleures que le modèle Kato, avec une amélioration nette quand le nombre de nœuds en entraînement n'est pas trop petit. Les figures 4 illustrent la précision à 1 des différents modèles sur les bases Flickr10 et Flickr50 démontrant la capacité de notre modèle à améliorer les performances par rapport aux algorithmes existants. L'exemple de Flickr démontre que les différentes relations sont réellement complémentaires et nous permettent d'éviter la variabilité et l'incertitude associés aux étiquettes pour ce corpus. Ces expériences démontrent que l'algorithme proposé apprend bien comment les étiquettes se propagent. Dans ce cas, le modèle multirelationnel est capable de tirer parti de l'information additionnelle apportée par les relations multiples et d'obtenir des performances significativement supérieures aux autres modèles. Par ailleurs, comme le modèle Kato est basé sur un algorithme d'optimisation alternée 2, le temps passé en entraînement par notre méthode est environ 3 fois inférieur. Sur le corpus CORA avec 5 % de nœuds en entraînement, notre approche met 2 minutes et 42 secondes pour inférer les étiquettes pour les nœuds non étiquetés alors que le modèle monorelationnel met 1 minute et 2 secondes pour une seule relation et le modèle Kato demande environ 10 minutes. Pour toutes les expériences, la complexité des modèles mono et multirelationnels respecte la même proportion. Pour CORA, l'entraînement d'un seul modèle multirelationnel est plus rapide que l'entraînement séparé de 5 modèles monorelationnels et que la méthode Kato de l'état de l'art. Performance des différents modèles pour les expériences sur la structure seule sur Cora et Email. SO-Mono n correspond au modèle SO-Mono utilisant la relation n. Les meilleures performances figurent en gras. ' - ' correspond aux relations qui n'existent pas dans la base concernée Modèle Entraînement Cora Corpus Email Corpus miF1 maF1 miF1 maF1 SO-Mono 1 5 % 10 % 25 % 50 % 10.71 12.02 13.44 14.12 4.96 5.62 7.50 8.14 45.22 51.52 59.48 63.60 19.25 25.38 32.67 35.41 SO-Mono 2 5 % 10 % 25 % 50 % 8.40 9.18 10.61 12.64 3.09 4.57 6.71 9.65 44.02 46.01 51.55 54.57 18.08 20.05 22.85 25.57 SO-Mono 3 5 % 10 % 25 % 50 % 29.44 33.41 40.56 50.93 25.50 30.66 38.28 48.61 9.14 10.15 11.80 12.29 5.94 6.94 8.73 8.83 SO-Mono 4 5 % 10 % 25 % 50 % 19.01 22.76 28.09 25.08 18.21 23.47 29.82 36.47 8.46 11.49 19.65 28.49 6.10 11.72 17.27 22.94 SO-Mono 5 5 % 10 % 25 % 50 % 24.10 26.92 31.60 35.17 19.23 22.14 28.04 32.03 - - - - - - - - Kato 5 % 10 % 25 % 50 % 57.02 60.72 65.33 68.39 46.12 53.50 59.99 64.61 63.10 64.74 70.85 73.71 25.14 28.42 35.66 38.78 SO-Multi 5 % 10 % 25 % 50 % 57.77 61.51 64.51 65.64 46.57 53.88 60.91 60.75 63.58 68.45 72.45 77.89 26.26 32.42 34.20 43.63 Performance des différents modèles pour les expériences sur la structure seule sur Flickr10 et Flickr50. SO-Mono n correspond au modèle SO-Mono utilisant la relation n. Les meilleures performances figurent en gras. ' - ' correspond aux relations qui n'existent pas dans la base concernée Modèle Entraînement Flickr 10 Corpus Flickr 50 Corpus miF1 maF1 P@1 P@3 miF1 maF1 P@1 P@3 SO-Mono 1 5 % 10 % 25 % 50 % 2.98 2.48 4.92 6.78 2.77 2.32 4.47 6.31 19.59 21.40 22.44 24.70 15.54 16.09 16.44 17.85 1.34 0.86 1.94 3.87 1.29 0.81 1.92 3.70 6.92 7.61 8.27 10.00 6.98 7.57 7.86 8.94 SO-Mono 2 5 % 10 % 25 % 50 % 14.79 14.61 10.79 12.60 14.24 12.11 8.73 7.70 22.16 21.34 25.59 26.66 16.86 16.93 17.80 18.45 3.96 2.27 1.71 0.27 2.26 1.54 1.09 0.31 10.47 12.66 15.68 17.03 8.41 9.68 11.49 12.74 SO-Mono 3 5 % 10 % 25 % 50 % 16.45 15.74 17.63 19.32 12.69 11.80 13.73 16.27 22.75 25.89 27.47 29.77 17.89 19.47 20.60 20.69 4.86 1.40 2.62 8.84 2.46 1.27 2.37 6.39 13.82 13.99 14.81 14.72 10.27 11.81 11.24 10.36 Kato 5 % 10 % 25 % 50 % 12.06 8.85 11.72 13.25 7.39 5.70 8.03 9.18 26.89 28.22 31.32 33.91 18.46 20.48 21.91 23.03 2.45 1.17 2.53 8.90 1.24 1.06 1.79 5.94 26.02 27.96 35.18 44.77 18.26 18.86 24.23 27.73 SO-Multi 5 % 10 % 25 % 50 % 8.02 20.04 29.14 36.93 6.30 15.23 24.89 33.64 30.28 37.06 43.13 49.75 21.88 24.43 24.19 26.84 6.51 15.17 29.80 34.72 5.03 11.49 22.16 27.40 26.29 33.60 40.82 43.58 17.52 20.04 23.88 24.54 Les résultats des expériences sur le contenu et la structure sont rapportés dans le tableau 4 pour les bases Cora et Email. Les résultats pour Flickr ne sont pas rapportés car le contenu de cette base n'est pas assez informatif pour faire de la classification sur le contenu seul 3 et les techniques de classification d'images ont donné des performances proches de l'aléatoire. À partir de ce tableau, on peut voir que l'utilisation simultanée du contenu et de la structure améliore grandement la performance pour toutes les approches. La figure 6 montre que sur Cora, SC-Multi est meilleur que tous les modèles SC-Mono à l'exception d'une taille en entraînement de 5 % où il est légèrement moins bon que le meilleur des modèles SC-Mono (SC-Mono 3). Par exemple, le modèle SC-Mono 3 sur Cora - taille en entraînement = 25 % - a une micro- F 1 de 74 % alors que la version en structure seule n'obtient que 40 %. Dans ce cadre, notre méthode obtient de meilleures performances que le meilleur modèle monorelationnel démontrant la capacité du modèle SC-Multi à associer l'information contenue dans les différents types de relations, tout en agrégeant cette information avec celle du contenu des nœuds. L'augmentation de l'écart de performances avec la taille en entraînement est assez intuitive, le modèle multirelationnel étant plus général il demande plus de données pour trouver les meilleurs paramètres et éviter le surapprentissage. La performance varie grandement selon les corpus. Pour le corpus Email, le modèle multirelationnel est équivalent au meilleur modèle monorelationnel. Cela est dû au fait que la relation Authorship (SC-Mono 1) porte vraisemblablement la totalité de l'information relationnelle, ce qui en fait la borne supérieure potentiellement atteignable par notre algorithme. Performance des différents modèles sur les expériences sur le contenu et la structure. Les modèles SC-Mono n correspondent au modèle SC-Mono utilisant la relation n. Les meilleures performances sont en gras Corpus Entraînement Cora Corpus Email Corpus miF1 maF1 miF1 maF1 SC-Mono 1 5 % 10 % 25 % 50 % 55.17 61.59 66.94 69.29 44.30 52.49 59.09 62.06 64.31 70.74 74.21 77.92 29.37 33.13 37.73 43.43 SC-Mono 2 5 % 10 % 25 % 50 % 54.97 61.43 66.38 68.91 44.32 52.36 58.56 61.34 57.07 62.31 67.99 71.01 23.47 28.16 33.66 36.38 SC-Mono 3 5 % 10 % 25 % 50 % 60.74 62.99 74.02 76.96 47.94 52.93 66.64 70.77 49.28 55.99 61.49 65.72 20.45 24.67 29.66 32.92 SC-Mono 4 5 % 10 % 25 % 50 % 59.60 62.58 71.73 74.73 48.67 52.70 64.70 67.91 54.09 58.88 64.29 67.15 23.99 26.68 32.06 35.85 SC-Mono 5 5 % 10 % 25 % 50 % 55.72 60.57 66.32 69.58 43.97 50.56 58.64 62.33 - - - - - - - - SC-CO 5 % 10 % 25 % 50 % 56.70 60.44 66.70 69.26 44.18 51.22 59.41 62.52 50.32 56.03 60.90 64.91 22.48 24.19 28.75 33.64 SC-Multi 5 % 10 % 25 % 50 % 59.21 64.49 76.24 79.16 46.55 55.30 69.44 74.05 61.82 66.92 75.90 79.79 23.95 25.52 35.25 43.58 La plupart des travaux dans ce domaine concernent l'apprentissage dans les graphes monorelationnels. Il y a deux perspectives principales sur ce problème. L'approche transductive, qui est celle suivie dans cet article, a été motivée initialement par l'apprentissage semi-supervisé et initiée par Zhou (Zhou et al., 2004) et Belkin (Belkin et al., 2006). Tous ces modèles reposent sur la minimisation d'une fonction objectif combinant une fonction de coût d'erreur de prédiction classique sur les données étiquetées et un terme de régularisation sur les arcs du type où fi est le score du nœud i et ωi,j est le poids de l'arc entre i et j. Plusieurs variantes différentes de ces modèles existent et ce cadre a été utilisé dans beaucoup d'applications. Ces modèles font habituellement de la propagation sur un graphe de similarités. Il n'y a pas de « classifieur de contenu » comme dans le modèle introduit ici, le contenu n'apparaît qu' à travers le calcul de la fonction de similarité utilisée pour construire le graphe. Notons que (Zhou et al., 2004) présente une relation intéressante entre les méthodes régularisées et une formulation de marche aléatoire dans le cas de la classification binaire. Ces modèles sont généralement développés pour des graphes non dirigés, mais des extensions pour les graphes dirigés ont été proposées (cf. (Zhou et al., 2005)). Le premier modèle général qui permet de combiner directement le contenu et l'information relationnelle est un article récent (Abernethy et al., 2008). Au-delà de la classification, les modèles de graphe ont été utilisés pour l'ordonnancement (Agarwal, 2006) ou le réordonnancement (Qin et al., 2008). Dans le cas de l'approche inductive, les modèles de classification collective sont généralement utilisés. Ils peuvent utiliser à la fois l'information de contenu et de structure. La plupart comportent deux étapes. La première consiste à apprendre un classifieur de contenu sur les données étiquetées, sans considérer l'information relationnelle. Les scores obtenus sont utilisés pour fournir des étiquettes initiales aux nœuds. La seconde étape consiste à apprendre un classifieur relationnel opérant sur une description agrégée du voisinage du nœud dans le graphe. Pour cette seconde étape, l'apprentissage est également inductif, i.e. n'utilisant que l'information fournie par les nœuds étiquetés. Une fois le classifieur relationnel appris, il est utilisé pour étiqueter de nouveaux nœuds. Différents algorithmes ont été proposés pour ce problème d'étiquetage. Ces modèles incluent Iterative Classification (Sen et al., 2008), Gibbs Sampling (Macskassy, Provost, 2003), Stacked Learning (Kou, Cohen, 2007) et SICA (Maes et al., 2009). Ils utilisent une fonction de réestimation pour mettre à jour à chaque itération la probabilité d'étiqueter le nœud i avec l'étiquette j sachant les étiquettes des voisins. Ces modèles sont plus rapides que ceux de la famille régularisée et permettent de traiter de très grands graphes. Peu de travaux traitent de données multirelationnelles (ou multigraphes). (Chen et al., 2009) utilise une combinaison pondérée de noyaux sur les relations. Cette approche produit un graphe fortement connexe, i.e. une complexité de l'algorithme d'apprentissage en n 2 qui est trop importante pour un usage sur des données réelles. (Bhagat et al., 2007) considère l'étiquetage de blogs dans un contexte multigraphe où les poids sont uniformes et pas appris. Zhou et al. (2007) étend les idées introduites dans (Zhou et al., 2005) aux multigraphes. Ils développent une méthode de clustering dans un hypergraphe en utilisant une forme de clustering spectral et en en dérivant une méthode de classification. Ici encore, la complexité pose problème. Dans un contexte inductif, différent de celui considéré ici, Peters et al. (2010) proposent une méthode de classification collective pour l'annotation dans des réseaux multirelationnels. Kato et al. (2008) proposent un algorithme simple du type Expectation-Maximization(EM) auquel nous avons comparé notre méthode dans nos expériences. Ce modèle apprend à pondérer les différents types de relations en alternant l'optimisation sur les scores des nœuds et le poids des types de relation. Cet algorithme consiste, en prenant des poids aléatoires au départ, à utiliser ces poids pour propager les étiquettes. Une fois les étiquettes propagées, le modèle mesure la régularité obtenue par chaque relation sur le graphe et met à jour les poids en augmentant les poids des relations régulières et en diminuant les poids des relations non régulières. Ils fournissent également une interprétation probabiliste bayésienne de leur modèle. Wang et al. (2009) proposent un modèle très proche de la régularisation sur les multigraphes dans un contexte différent (annotation de vidéo). Ici encore, une méthode alternée du type EM est utilisée pour apprendre une combinaison linéaire de laplaciens de graphes. L'hypothèse faite et l'algorithme que nous proposons dans cet article diffèrent de ceux de ces deux méthodes. Une différence importante est que notre modèle emploie directement durant l'entraînement et l'inférence à la fois un classifieur sur le contenu et la propagation à travers les relations. Par ailleurs nous n'avons pas besoin d'avoir une connaissance a priori sur la forme de la distribution des poids des types de relations, connaissance qui est nécessaire dans les modèles de type EM. Nous n'avons donc pas besoin de faire une recherche coûteuse d'hyperparamètres (avec de la validation croisée par exemple). Par ailleurs l'absence d'optimisation alternée fait que notre méthode est plus rapide que celles de l'état de l'art. Une troisième différence est que notre modèle est capable de traiter à la fois les graphes orientés et non orientés alors que les modèles existants se limitent au cas non orienté. Les expériences démontrent sur nos corpora que la plupart du temps, la méthode proposée est aussi bonne ou meilleure que les méthodes de l'état de l'art basées sur de l'optimisation de type EM (c'est particulièrement visible sur Flickr10). Nous avons proposé un modèle pour la classification multiclasse, multiétiquette dans les multigraphes. Ce modèle repose sur de nouveaux algorithmes d'apprentissage et procédure d'inférence. Il inclut comme cas particuliers différents modèles monorelationnels existants. Par ailleurs, en comparaison des modèles multirelationnels existants, il considère à la fois le contenu et la structure des multigraphes et l'apprentissage des poids des différents types de relations est fait en une seule étape. Les expériences faites sur différents jeux de données démontrent la capacité du modèle à extraire l'information pertinente de l'information relationnelle riche et obtient des performances supérieures par rapport aux modèles existants - à la fois monorelationnels et multirelationnels. Les perspectives résident dans différentes extensions de ce modèle et une analyse en profondeur de son comportement. En particulier, le modèle doit être amélioré pour une utilisation sur les très grands graphes, avec un très grand nombre de classes. Une autre direction de recherche consiste en l'application de cet algorithme aux réseaux hétérogènes et dynamiques .
Nous considérons le problème consistant à apprendre à annoter des documents avec des concepts ou des mots clefs dans des réseaux d'information avec contenu, où les documents peuvent partager plusieurs types de relation. Ces concepts associés au document dépendent à la fois de son contenu et de ses voisins dans le graphe à travers les différentes relations. Nous formalisons ce problème comme de la classification multiétiquette dans un multigraphe, les nœuds étant les documents et les arcs représentant les différentes relations. Nous introduisons une nouvelle méthode d'étiquetage des nœuds qui exploite à la fois le contenu et la structure multirelationnelle du graphe. L'algorithme apprend également à pondérer les différents types de relations selon leur importance pour la tâche d'annotation. Les expériences sur les différents corpora correspondent à différentes tâches d'annotation sur des articles scientifiques, des emails et des images de Flickr et montrent que le modèle est capable de tirer parti de l'information relationnelle riche.
sciencesInfo_12-0420382_tei_DN_id9782746239609_pu2012-01s_sa05_art05.tei.xml
termith-417-communication
Nous vivons une époque caractérisée par la croissance exponentielle des connaissances scientifiques (Alonso et al., 2010). Dans le même temps, de nouveaux défis (le climat, la pollution, l'habitat, la démographie, les nouvelles communications, l'économie, les finances. ..) nous invitent à réinventer les modes d'implication des scientifiques dans la vie de la cité ainsi que les modes d'interaction entre les différentes disciplines. De nouvelles formes d'organisation doivent permettre un échange entre les différents acteurs scientifiques, politiques, juristes et la société civile. Comment concevoir des dispositifs de débats qui permettent un échange éclairé entre les différents acteurs, scientifiques, juristes, politiques et la société civile ? Dans cet article, nous allons décrire l'organisation d'un projet ANR multidisciplinaire portant sur la co-conception d'une plateforme de débats en ligne. Cette plateforme fait partie d'un dispositif plus large (un dispositif mixte), composé en complément d'une partie de débat et de médiation scientifique en face-à-face. Au-delà de la dimension multidisciplinaire des thèmes de débats abordés (plans de gestion du territoire, débat sur les nanosciences et nanotechnologies), nous allons décrire les interactions entre les acteurs des différentes disciplines du projet. Nous ne prétendons pas pouvoir apporter de réponses méthodologiques à l'organisation d'un projet multidisciplinaire mais l'analyse d'un cas concret permettant d'illustrer les points de blocages et les points positifs émergeant des interactions. Dans une première partie, nous présentons le contexte du projet Intermed, dans une seconde partie nous présentons le cadre de collaboration multidisciplinaire à travers la présentation des expérimentations qui sont conduites au cours du projet, et dans une troisième partie, nous présentons les interactions disciplinaires. L'ANR Intermed est un projet multidisciplinaire visant à co-concevoir des outils de débats publics en ligne. Ce projet fait collaborer des chercheurs en sciences sociales, des chercheurs des sciences de l'information et de la communication, des sociétés informatiques, des professionnels du design d'interfaces et de l'ergonomie, et des chercheurs en informatique. Le projet Intermed porte sur la gestion intégrée des zones côtières (GIZC) pour l'élaboration participative et la mise en œuvre de chartes et plans de gestion des territoires. Pour cela, le projet vise à concevoir et développer un ensemble d'outils informatisés de débat et d'annotation de textes, adaptés aux besoins des acteurs locaux. A travers l'usage de cette plateforme, l'objectif sous-jacent de ce projet est de créer ou recréer un lien fonctionnel entre les citoyens et les gouvernants, au travers de technologies appropriées, adaptées progressivement aux contraintes ergonomiques et méthodologiques « du terrain ». De la conception des outils à l'analyse de leurs usages, la recherche recourt à différentes approches disciplinaires permettant d'une part, la conception de dispositifs technologiques et de médiation, d'autre part, l'analyse des usages et de l'ergonomie du dispositif informatisé. La méthode adoptée est une approche expérimentale, itérative et participative : chaque année, trois protocoles expérimentaux de conception-test sont conduits (un protocole égal : une question, un lieu d'expérimentation et des modules informatiques opérationnels). Quatre groupes d'utilisateurs-cibles sont concernés : les « gouvernants », les « gestionnaires » et les différentes parties concernées, chargés de la mise en œuvre d'un projet de territoire (charte de PNR, SAGE…), les scolaires et étudiants et les citoyens. Les expérimentations présentent des enjeux et projets réels de territoire pris comme supports dans le domaine de la gestion intégrée des zones côtières (GIZC) en lien avec des partenaires de terrain (PNR de Camargue, Syndicat Mixte du Bassin de Thau, Région Bretagne, PNR de la Narbonnaise). Cependant, des tests d'outils sur des sujets de débats sans lien à des territoires ont été mis en place pour compléter la démarche. C'est le cas de l'expérimentation autour du débat sur les nanotechnologies. La démarche expérimentale du projet correspond à une forme de recherche-action : les expérimentations que nous conduisons ont un impact sur les pratiques des utilisateurs et modifient leur cadre d'interaction. Il y a co-évolution au sens de (McKay, 1990), les technologies influencent les comportements des utilisateurs et en retour, les utilisateurs réinterprètent les technologies et les adaptent pour des usages non prévus initialement par les concepteurs. Les expérimentations que nous avons conduites ont donc proposé aux acteurs de débattre en ligne via une plateforme que nous avons développée et selon un protocole de débat que nous avons fixé : les conditions d'interaction et de débat entre les participants ont donc été créées et conditionnées par la plateforme et le protocole que nous avons mis en place. Chaque expérimentation tente de répondre à un ensemble de questions mais crée à son tour un ensemble de nouvelles attentes des utilisateurs et un ensemble de nouvelles questions pour les chercheurs. Créer une plateforme de débat participative incluse dans un dispositif mixte (réel et virtuel) de débat permet de répondre à un besoin d'impliquer davantage les citoyens dans la vie de la cité. Comme l'ont montré les débats nationaux sur l'identité nationale et les nanotechnologies, il n'existe pas encore de dispositif qui puisse conduire solidement une délibération publique et intégrer le citoyen et les opinions exprimées dans la prise de décisions. Ce projet propose donc de répondre à ce besoin en s'appuyant sur plusieurs hypothèses : la convivialité est un élément stimulant la participation; une consultation vise certes à recueillir les opinions des citoyens, mais elle doit être l'occasion de construire et d'accompagner une réflexion sur le thème. Les discussions et débats autour de thème sont une façon de produire de nouveaux contenus et ainsi, d'enrichir la construction des opinions; l'approche statistique des opinions par traitement de questionnaires est insuffisante pour construire une réflexion solide sur un thème et stimuler la prise de parti éclairée; le web permet de stimuler la participation des plus jeunes. Pour conduire un débat éclairé, une des approches envisagées est d'intégrer au dispositif de délibération une composante de formation et de consultation d'experts (chercheurs en sciences politiques, sociologues, physiciens, selon les thèmes du débat; professionnels des domaines). Dans ce contexte, nous nous intéressons à la co-conception de plateformes de débat permettant de passer à un nouveau stade de recueil d'opinions conceptualisées et exprimées par les utilisateurs eux -mêmes, en proposant une autre approche que les sondages/enquêtes classiques. Les opinions des citoyens sont de plus en plus consultées par les politiques dans leurs prises de décision (pour minimiser les freins éventuels d'application des décisions et intégrer en profondeur les citoyens dans la vie de la cité). Le processus de co-conception participative a mis en évidence plusieurs problématiques et questions de recherches. Le projet doit donc créer des applications « web 2.0 » (O'Reilly, 2005), dites « sociales », adaptées à la consultation publique et recueillir les données de la consultation pour favoriser la prise en compte de ces délibérations par les décisionnaires et politiques. Il nous semble que les questions introductives de (Testard Vaillant, 2009) résument bien le contexte de ce projet : « communiquer n'a jamais été aussi simple. Se fait-on mieux comprendre pour autant ? (…) Que changent vraiment les nouvelles technologies dans nos relations ? Et dans notre citoyenneté ? Enfin, quel rôle exact jouent ces instruments dans la quête du pouvoir politique ? ». Le projet Intermed s'inscrit donc dans les problématiques du web 2.0 de la production de données par les utilisateurs et de la navigation dans cette masse de données en constante expansion. Le projet s'inscrit aussi dans les problématiques de la démocratie électronique, reprenant la problématique définie par (Vedel, 2003) : comment créer un espace public de discussion ou la politique est transparente et ou les citoyens participent vraiment aux prises de décision ? La conduite de débats en ligne doit répondre à plusieurs problématiques, issues des analyses des débats existantes. Internet semble favoriser le partage, or, il a été observé que les forums de démocratie participative favorisaient l'expression des points de vue individuels au détriment de la délibération collective et de la mise en commun des délibérations. Pour délibérer sur des questions relatives à la gestion des espaces côtiers, il est nécessaire d'élaborer un dispositif de prise d'information adapté. Le projet comporte donc une dimension forte de médiation scientifique qui doit permettre d'éclairer les discussions des citoyens et de leur permettre d'aiguiser leurs arguments. Mais comment intégrer la médiation scientifique dans le débat ? Pour intégrer la médiation scientifique dans le débat tout en stimulant la participation, nous avons conçu un dispositif mixte, composé d'une partie en ligne et d'une partie hors ligne. La médiation scientifique est organisée de façon privilégiée dans les espaces en face-à-face par l'organisation de conférences et tables rondes sur les thématiques ou l'intervention en classe d'enseignants et d'acteurs des domaines concernés. Toutefois, la médiation en face-à-face pourrait être très utilement complétée par une médiation en ligne. Pour stimuler la qualité du débat, et favoriser l'échange entre les participants, le dispositif doit permettre de prendre des informations sur les thématiques relatives au débat, mais également, encourager une bonne formulation des arguments de façon à ce que les participations puissent être discutées. Ce dispositif a tout d'abord une visée pédagogique de construction : il s'agit de concevoir et développer un dispositif de délibération (Monnoyer Smith, 2005 : 48-49) adapté qui stimule la participation et l'expression argumentée d'un point de vue sur une problématique relative aux sciences et à la société. Toutefois, pour que les participants s'engagent, ce dispositif ne doit pas être un simple exercice d'école mais permettre une action civile réelle. Les citoyens doivent donc être informés par des experts sur le sujet et les résultats présentés par les experts aux décideurs sous forme de consultation. Comment encourager l'utilisateur à construire et structurer son argumentation ? Comment concevoir une plateforme de consultation publique qui accompagne chaque individu de la société civile dans la construction d'une opinion éclairée ? Nous avons donc incorporé au dispositif des formulaires préremplis qui permettent de reformuler les sujets de discussion et de formuler ses arguments. Dans la conception du dispositif, il s'est donc avéré nécessaire d'incorporer cette problématique de la participation et de la collaboration. Les interfaces de communication informatisée présentent des fonctionnalités qui ont un impact sur les usages que les utilisateurs en ont : un dispositif centré sur la description physique de la personne invite les utilisateurs à définir des critères de mise en relation centrés sur les champs descriptifs, un dispositif de réseaux sociaux centré sur la mise en relation par centres d'intérêt invite l'utilisateur à développer une stratégie de présentation de ses centres d'intérêt adaptée aux fonctionnalités d'appariement des individus (Cardon, 2008). Pour concevoir un dispositif qui stimule un échange entre les participants, il est donc nécessaire de proposer des fonctionnalités qui valorisent ces activités. Quelles fonctionnalités facilitent les débats en ligne ? Pour mesurer l'apport de ces fonctionnalités sur la participation, il a été en outre nécessaire de développer des outils et méthodes d'analyse de la participation, qui puissent être reportés dans toutes les expérimentations et construire un corpus cohérent. Quelles fonctionnalités facilitent les débats en ligne ? Comment évaluer la participation à un débat ? Comment articuler les débats en ligne et les débats en présence ? Comment intégrer la médiation scientifique dans le débat ? Comment encourager l'utilisateur à construire et structurer son argumentation ? Comment concevoir une plateforme de consultation publique qui accompagne chaque individu de la société civile dans la construction d'une opinion éclairée ? Comment mesurer le rapport entre les formes d'identification et les comportements en ligne ? Comment mesurer l'apport des nouveaux outils de réseaux sociaux (facebook, twitter…) et l'analyse des réseaux sur la participation ? Comment mesurer l'impact des interfaces alternatives (cartographie et visualisation d'information, environnements virtuels) sur la participation et l'accès à l'information, la gestion des débats et la rédaction de synthèses ? Comment mesurer l'apport des notifications (Haifeng et al., 2002; Ellis et al., 1989) sur la mobilisation ? L'ensemble de ces questions couvre plusieurs champs disciplinaires. Elles sont synthétisées par le double objectif de construire une plateforme de consultation et de délibération, et d'analyser des usages en vue de rendre la pratique de délibération en ligne plus efficace. En sciences humaines, l'objectif de ce projet est d'analyser les usages d'un dispositif mixte de débat sur les rapports entre sciences, techniques et société, qui permette à la société civile de délibérer en construisant son jugement via l'intervention d'experts et de scientifiques. Le dispositif doit être adaptable à plusieurs situations et thèmes de débat. La recherche en informatique dans le cadre du web invite à une approche multidisciplinaire. La conception et le développement d'applications innovantes doivent idéalement intégrer les problématiques de leurs usages par les utilisateurs. Le web est un environnement d'échange et de diffusion d'informations et de communication interpersonnelle. Issu des avancées en informatique et en analyse des usages, le web se présente comme interface multidisciplinaire qui invite à créer des ponts entre chaque discipline : en amont pour concevoir des produits adaptés aux usages, en cours de développement pour évaluer et intégrer les modifications nécessaires à la bonne ergonomie des applications et en aval pour analyser les usages et l'impact des nouvelles technologies sur la société et les interactions humaines. Le web en tant que science est naturellement multidisciplinaire (Berners-lee et al., 2006). Le web n'est pas abordé d'un point de vue purement technique dans le projet Intermed. Il ne s'agit pas uniquement de créer des outils innovants mais aussi d'observer les nouveaux usages qui vont en découler et d'observer l'impact de ces usages sur la structure des relations entre les utilisateurs et les objets de débats. Un ensemble d'expérimentations a été mis en place, permettant de tester l'annotation sur des terrains et des publics variés. Nous présentons ici succinctement les outils utilisés ainsi que chacune de ces expérimentations. L'annotation est dans Intermed une fonctionnalité centrale. C'est celle qui permet la discussion entre les utilisateurs. C'est pourquoi, au cours de nos expérimentations nous nous sommes concentrés plus particulièrement sur cette fonctionnalité. L'objectif était de développer un outil en ligne permettant de s'adapter à plusieurs contextes expérimentaux. L'outil doit permettre pour chaque expérimentation de redéfinir une forme d'annotation. A terme, l'objectif est de permettre à des communautés de définir elles -mêmes leurs formes d'annotation. Le processus de co-conception de cet outil d'annotation est décomposé de la manière suivante : le laboratoire propose, développe et évalue un prototype qui est ensuite repris partiellement ou intégralement par les entreprises pour l'industrialiser et le tester en conditions réelles. Se basant sur les résultats des tests industriels sur le terrain, une nouvelle itération de ce processus est initiée. Dans un premier temps, nous avons basé nos travaux sur un prototype préexistant d'un labo : ce prototype, développé dans le cadre d'un partenariat laboratoire LIRMM 1 entreprise Pikko 2, se présentait sous la forme d'un plugin pour une application web de type wiki (Xwiki 3). Ce premier prototype permettait l'usage de l'annotation dans un corpus de documents préalablement saisis dans un wiki. Les limites de ce prototype étaient liées à des problèmes d'exports de données difficilement automatisables et à une absence d'interopérabilité. Suite à ce prototype, le laboratoire a proposé un nouvel outil basé sur le protocole Annotea 4 et l'une de ses implémentations : Annozilla 5. Ce prototype permettait d'annoter n'importe quelle page web. L'implémentation du protocole Annotea garantit une forte interopérabilité par la présence de web services et de formats d'exports de données (basés sur RDF 6). La limite de ce prototype est la dépendance d'Annozilla au navigateur Firefox 7. Le prototype actuel, qui n'est pas encore passé en phase d'industrialisation, repose sur l'emploi du langage java, de la technologie portlets 8, et de mise en place de web services et d'exports de données au format RDF. Ce prototype est accessible via un portail web de n'importe quel navigateur et permet d'annoter n'importe quel contenu sur le web. Il permet aussi de créer ses propres formulaires d'annotation. Cet outil est donc paramétrable en fonction des expérimentations. L'objectif des expérimentations « lycées » est de tester les apports d'interfaces d'expression en ligne à des débats de type « jeu de rôle » sur l'aménagement de zones côtières. Ces expérimentations se déroulent dans le cadre scolaire et sur plusieurs séances. Les interfaces testées sont en particulier l'annotation textuelle, l'annotation géographique et les outils mobiles d'expression. Une première série d'expérimentation est présentée dans (Desquinabo et al., 2009a). Nous synthétisons ici les résultats de cette étude. Cette première série permet de comparer des débats en face-à-face à des débats utilisant un outil d'annotation discursive (Lortal, 2006) semi-structuré dans un cadre de participation contrainte, encadré par un enseignant. Les lycéens d'une même classe sont séparés en deux groupes. Le débat se déroule en deux phases de 90 minutes pendant lesquelles un groupe débat en face-à-face et un groupe débat via l'outil en ligne d'annotation. L'expérimentation a été reproduite sur les deux premières années du projet. Dans les deux cas, les lycéens ont du discuter de plans d'aménagement d'une zone géographique. Les lycéens jouaient le rôle de parties prenantes (promoteur immobilier, association écologique, agriculteurs…). Chaque partie proposait un plan d'aménagement. Chaque plan d'aménagement était soumis à débat en concurrence avec les autres propositions. Le but de l'expérimentation était de mesurer l'impact de l'utilisation de l'outil en ligne dans la qualité des argumentations. Les variables observées pour mesurer cet impact sont : le temps de parole de chaque participant; le niveau d'interaction (nombre de prises de paroles, nombre de réponses); le niveau de conflit (proportion de désaccords exprimés); la diversité de l'argumentation (le nombre d'arguments pour ou contre). Il est attendu que les débats en ligne permettent : de diminuer le temps de parole moyen de chaque participant (ce qui revient à montrer que les participants ont eu un temps plus partagé, donc que le temps de parole est plus équitablement réparti entre les participants); d'augmenter l'interactivité des débats; d'augmenter la diversité de l'argumentation. Les résultats montrent clairement que la participation en ligne est plus équitable. Les « timides » s'expriment plus facilement et les monopolisateurs de parole en face-à-face ne peuvent pas monopoliser les discussions en ligne. La structuration des débats, l'enchaînement question-réponse ou accord-désaccord, argument-contre-argument est plus facilement observable dans l'outil en ligne. Par contre, il y a plus de « flame 9 » en ligne qu'en face-à-face et les oppositions sont plus exprimées en face-à-face qu'en ligne. Les participants passent plus de temps à présenter leurs projets en face-à-face et plus de temps à discuter des projets des autres en ligne. L'objectif de l'expérimentation « Camargue » (février 2009) était de tester les apports d'outils d'annotation dans le cadre d'une consultation des collectivités, organisations professionnelles et associations sur un avant-projet de charte de Parc Naturel Régional. La consultation en ligne mise en place fait suite à une longue procédure de consultation « classique » (réunions face-à-face, consultations téléphoniques de décembre 2006 à décembre 2008). Cette expérimentation est en quelque sorte une première tentative d'utilisation de l'outil d'annotation pour les débats auprès d'utilisateurs non contraints. Dans cette expérimentation, 90 participants ont été invités par courrier électronique à débattre via un outil d'annotation permettant de discuter l'ensemble de la proposition d'aménagement en rattachant leurs remarques à des zones sélectionnées. Les participants étaient identifiés par des « logins » contrôlés par les administrateurs (aucun anonymat, les identifiants étaient générés par les administrateurs à partir des noms, prénoms réels). L'évaluation de l'efficacité du dispositif a été faite à partir des données produites par les utilisateurs et par des interviews des participants et organisateurs. D'après (Desquinabo et al., 2010), la mise en place du dispositif et l'organisation de la consultation en ligne étant peu coûteuses, la démarche est jugée bénéfique si : la proportion de flame en ligne est faible (peu différente de celle en face-à-face); le traitement des données est moins coûteux que en face-à-face. Il est attendu de cette consultation que : la proportion d'expression des participants est plus équitable; il y a plus de désaccords exprimés; les actes locutifs employés sont plus variés; l'impression de justice dans le débat et de progression des compétences des participants augmente. Les premiers résultats de l'expérimentation (Desquinabo et al., 2009b) montrent que : la meilleure répartition de l'expression des avis n'est pas confirmée. Seulement 10 des 90 participants ont écrit 88 % des messages. Et seulement 20 participants sur les 90 invités se sont exprimés au moins une fois via l'outil; cependant la plupart des invités disent avoir consulté le site au moins une fois; ceux qui ont consulté le site disent avoir trouvé les débats intéressants; la raison principale invoquée de non-participation est le manque de temps; peu d'utilisateurs ont exprimé le fait qu'internet ou la qualité de l'outil soit un élément freinant la participation; beaucoup d'oppositions ont été exprimées via l'outil; plus de thématiques ont été abordées que dans les débats en face-à-face. L'objectif de l'expérimentation sur les nanotechnologies était de suivre un débat sur la durée. Le thème ou sujet du débat annoncé est « faut-il un moratoire sur les nanos ? ». Le terme moratoire indique au participant la dimension juridique de ce débat, nécessitant une information minimale et donc une interaction avec les juristes du projet pour bien saisir le concept de moratoire. Le terme de « nano » permet de regrouper à la fois les nanotechnologies et les nanosciences. L'expérimentation est découpée en phases ou nous testons des outils et des formes de débats. Cependant, les utilisateurs sont encouragés à poursuivre les débats entre les phases via les outils en ligne toujours à disposition. Le contenu du débat à chaque phase produit de nouvelles synthèses qui servent de documents de référence aux nouvelles phases de débat. Cette expérimentation a commencé avec l'expérimentation sur les lycées en novembre 2008, la dernière phase d'expérimentation s'est déroulée en mars 2010 sur les trois campus universitaires de Montpellier. Les synthèses et documents du débat ainsi qu'une part des débats sont disponibles sur le blog de l'expérimentation 10. L'expérimentation sur les nanotechnologies est en marge du projet Intermed car elle ne porte pas sur des problématiques d'aménagement du territoire. Cependant, les outils et les questions soulevées rejoignent le projet. Nous souhaitons tester les hypothèses suivantes : l'utilisation de l'annotation permet de faciliter la pratique de débats sur le web; l'utilisation d'annotations semi-structurées permet de faciliter la production de synthèses. Particulièrement l'utilisation d'annotations encourage les utilisateurs à reformuler les zones de textes qui les font réagir; l'utilisation de cartographies, de modes de représentations alternatives (à l'opposé de représentation « plein texte ») des synthèses permet de relancer la participation; l'utilisation de dispositifs de votes lors de débats en face-à-face permet de mesurer rapidement l'accord ou le désaccord sur une proposition et permet plus d'expression de désaccord; une reformulation juridique des propos du débat permet une meilleure transmission du débat aux décisionnaires. Il faut aussi s'assurer que ces reformulations soient conformes au débat et acceptées par les participants; une reformulation juridique des propos d'un débat est une forme de synthèse qui permet de relancer une discussion auprès de nouveaux participants; l'usage de l'anonymat ou pseudonymat influe sur la qualité du débat. On s'attend à avoir plus de flame et d'insultes avec une modalité d'anonymat total; les outils de débat en ligne permettent de compléter les procédures classiques de débat en face-à-face. Les phases du débat ont été organisées de la façon suivante : débat en ligne dans un lycée en utilisant l'outil d'annotation à partir de documents rédigés par des experts du domaine; débat en ligne entre des étudiants de la faculté de droit de Montpellier à partir des débats lycéens, production d'une synthèse; restitution de cette synthèse auprès des lycéens; débat en ligne auprès des étudiants de Paristech 11 en utilisant l'outil d'annotation à partir des documents rédigés par les experts et de la synthèse faite par les juristes; débat en face-à-face dans les trois universités de Montpellier en parallèle à un débat en ligne utilisant un outil de forum sous Facebook. Le débat en face-à-face a lui -même été découpé en trois étapes : Les résultats de cette expérimentation sont encore en cours d'analyse. Cependant, certains résultats intermédiaires nous permettent de présenter les conclusions suivantes : l'annotation comme forme de débat est une pratique bien acceptée par des utilisateurs jeunes et contraints. Le temps de formation auprès des lycéens ou étudiants de la faculté de droit et de Paristech était court et il y a eu production de nombreuses discussions en ligne; l'utilisation d'un outil de débat en ligne et de pseudonymes entraîne la production d'un nombre non négligeable de flame; la mobilisation de participants non contraints dans le cadre d'un débat en ligne nécessite avant tout un environnement de débat dans lequel les utilisateurs ont toute confiance. Nous avons eu une participation quasi nulle dans le forum sous Facebook et les utilisateurs interrogés ou ayant exprimés d'eux mêmes les raisons de leur non-participation ont invoqué la raison de la non-confiance en Facebook. Nous avons eu l'occasion entre deux phases de l'expérimentation sur les nanos d'utiliser nos outils de débat à l'échelle d'un laboratoire, le LIRMM. Le laboratoire prépare en ce moment son changement de direction et l'ancienne direction a tenu à faire participer le personnel dans la production d'un bilan de l'activité du laboratoire. Cette expérimentation a été menée entre les phases « lycée » et « université » de l'expérimentation sur les nanos. Cette expérimentation a été l'occasion de passer d'utilisateurs contraints et encadrés par leurs professeurs à des utilisateurs non contraints. Les participants du laboratoire n'ont pas été obligés de s'inscrire. Par contre, nous avons pu compenser par la proximité certaines défaillances de l'outil en ligne. Nous avons installé à l'accueil du laboratoire un dispositif permettant de montrer aux utilisateurs comment utiliser l'outil. Nous avons ainsi profité de l'accueil pour former les utilisateurs et les inviter à participer. Cette expérimentation a montré : l'importance de la communication dans le recrutement de participants aux débats; que le jeu politique a une influence sur le sujet du débat. Les membres de l'ancienne direction et de la nouvelle direction ont tenu à tout moment à pouvoir intervenir pour éviter la dérive du débat. Ils ont été très présents au moment de la conception des outils de communication et d'annonce du débat; des interactions en face-à-face permettent de compléter la démarche en ligne et réciproquement. L'unité de lieu a permis de créer (ou recréer) un réseau social primordial pour la dynamique des débats et permet de combler des déficits de l'outil (notifications en face-à-face au lieu d'envoi de courriers électroniques, possibilité de modérer ses propos, de revenir sur ses explications, de discuter en privé avant de retravailler sa réponse…). Le projet Intermed est organisé en phases expérimentales et en projets d'expérimentation (figure 2). La conception de la plateforme d'expérimentation a été initialement guidée par un ensemble de choix technologiques et par un ensemble de questions de recherches. La conception de la plateforme a été le centre des interactions entre les disciplines dès le début du projet. Nous allons revenir ici sur les différentes étapes de co-conception de la plateforme au cours du projet. Les choix technologiques qui ont orienté la conception de la plateforme sont ceux de l'usage de l'annotation comme moyen de discussion, et l'utilisation d'un portail (technologies java web, portlets, servlets et web services) pour faciliter l'intégration des composants web fournis par les différents acteurs-développeurs du projet. Les questions qui ont orienté la conception de la plateforme sont celles listées précédemment dans la section 2. Le travail de conception a été organisé de la façon suivante : phase d'évocation des attentes des partenaires : tous les partenaires du projet se sont réunis pour lister leurs intentions et attentes dans la plateforme. Un ensemble de fonctionnalités de base ont été listées et validées par l'ensemble des partenaires (modération, gestion utilisateur, outil de discussion, géolocalisation, outils de sondage…); forum des besoins : des partenaires de terrain, représentant nos premiers utilisateurs, ont été invités à exprimer leurs besoins. Cette phase a permis de mesurer l'adéquation entre les attentes des partenaires et les attentes des utilisateurs. Les attentes de terrain exprimées se résumaient souvent en l'existant (wikis, blogs, forums, outils de mailing). Le travail de conception a été ensuite guidé par les expérimentations. L'un des premiers enjeux était de montrer l'intérêt de l'annotation comme moyen de discussion. Plusieurs outils d'annotations ont été développés. Les difficultés rencontrées dans la conception de ces divers prototypes sont : des difficultés classiques du développement informatique : la facilité d'usage (ergonomie), la portabilité des outils (versions compatibles uniquement avec Firefox ou Internet Explorer); des difficultés liées à la non prise en compte des besoins des sociologues par les informaticiens en ce qui concerne l'analyse des outils (pas de format d'export des données défini au moment de la conception, pas de système d'enregistrement des actions utilisateurs); l'absence de suivi par des techniciens au moment du déroulement des expérimentations. Les sociologues ont parfois du faire face sur le terrain à un « bug » d'outil sans avoir de techniciens pour les aider à ce moment précis. Suite à la première phase expérimentale, il a été acquis qu'un technicien devait être toujours disponible et le projet a recruté un ingénieur dédié au soutien technique et au suivi de l'évolution de la plateforme. Des exports de données au format tableur Excel ont été mis en place pour l'analyse des usages, à destination des participants en SHS, et dans le cadre de l'expérimentation sur les nanotechnologies, un travail de scénarisation des usages de la plateforme a été produit en collaboration avec une société de design, la société Intactile Design 12. L'organisation d'un projet multidisciplinaire cause de nombreux problèmes évidents mais souvent sous-estimés : logistique, les équipes proviennent de laboratoires différents et réunir tout le monde est pratiquement impossible et coûteux; compréhension, chaque discipline a son propre vocabulaire, ses références et ses habitudes de fonctionnement. Il est intéressant de noter que bien que le projet Intermed porte sur l'usage de nouvelles technologies de communication, l'outil de communication le plus utilisé dans le projet reste le courrier électronique. Un wiki a été installé, la visio-conférence a été utilisée lors de quelques réunions, et de plus en plus de documents sont édités et partagés via l'application « Google Document ». Mais majoritairement, les informations sont diffusées par courrier électronique ou par des réunions en face-à-face. Concernant la compréhension entre les différentes disciplines, il a été proposé à plusieurs reprises au début du projet de consacrer une page du wiki à la mise en commun d'un vocabulaire mais cette pratique n'a pas été suivie. La compréhension s'est opérée progressivement au cours des réunions de travail et par des échanges de références bibliographiques. Lors de la dernière session plénière (réunion regroupant tous les participants du projet), l'ensemble des participants se sont accordés sur le fait qu'une véritable collaboration interdisciplinaire se manifestait. Ce projet a été initié en 2008, il y a près de deux ans. Les passerelles méthodologiques et la communication interdisciplinaire ont mis du temps à se mettre en place. Il a été souligné dans le domaine des ontologies métiers que la mise en adéquation de vocabulaires requiert des compétences particulières (Gandon et al., 2008). Il reste que les véritables interactions attendues, celles par groupe de travail, ou des intervenants de disciplines différentes travaillent ensemble sur une même expérimentation sont peu fréquentes, voir marginales. L'organisation sous forme de groupe de travail a fini par produire des groupes peu homogènes. La préparation d'expérimentations a eu pour effet de placer les SHS en responsable de spécification et les TIC ou l'informatique en exécutants. Nous avons désormais 4 prototypes différents pour l'annotation. Cette situation vient d'un manque d'attention de la part des chercheurs d'une discipline vis-à-vis de leurs collègues de l'autre discipline. Les sociologues ont besoin d'outils permettant de tester leurs hypothèses et de reproduire des expérimentations en variant des paramètres (anonymat ou non…). Cela contraint alors les informaticiens à développer les outils dont ont besoin les sociologues et les place dans un rôle de techniciens. Les informaticiens, de leur côté, simplifient excessivement des théories de sciences sociales afin de justifier une recherche qui n'est réellement motivée que par de nouveaux jeux de données pour tester des algorithmes. On observe aussi dans la plupart des travaux de recherche en informatique ayant un lien expérimental direct avec l'utilisateur une sous-estimation des freins soulevés par les problèmes d'ergonomie et d'attractivité des applications. L'ergonomie et l'attractivité ne font pas à proprement parler de ce qui est évalué par les chercheurs. Ces éléments sont alors relégués au rang de détail ou de « bonus » qui finit souvent par ne pas faire l'objet de préconisations propres à être implémentées. Or, compte tenu de la facilité d'utilisation et d'accès au service des applications web 2.0, négliger ces paramètres peut être rédhibitoire pour l'utilisateur dès l'affichage de la page, avant même qu'il utilise l'application : l'absence d'évaluation ergonomique produit de l'interdisciplinarité, s'avère présenter un impact direct sur l'analyse des usages. On observe alors la nécessité d'un rôle « accompagnateur » de la partie informatique de la collaboration. Ils sont en effet présents dans la quasi-totalité des phases de travail et interagissent avec tous les acteurs. Leur rôle est souvent de recadrer pragmatiquement la faisabilité et les possibilités des systèmes conçus en intégrant les contraintes de chacun et en pensant à la suite, aux évolutions possibles des besoins. Les sociologues présentent alors des théories nouvelles et les moyens nécessaires à leur évaluation. Les informaticiens s'appuient sur l'état de l'art de leur discipline pour proposer de nouveaux usages, de nouveaux contextes applicatifs pouvant vérifier les théories proposées. Dans le cadre du projet Intermed, une dernière dimension a créé des difficultés d'interaction. Nous avons présenté la difficulté d'interaction rencontrée par les deux disciplines les plus représentées dans le projet, mais nous n'avons pas parlé du fait que collaborent dans Intermed des partenaires du monde de la recherche et du monde de l'industrie. La collaboration recherche-industrie pose encore une autre question : celle de la valorisation du travail de recherche. Si chaque discipline a ses propres habitudes de publication, les industriels eux ont leurs propres habitudes de valorisation et celles -ci sont loin des problèmes de publication. Un industriel espère que la collaboration va permettre le développement de nouveaux produits commercialisables. Or cette vision est parfois incompatible avec la vision expérimentale. Ou tout du moins, les délais ne sont pas les mêmes. Les expérimentations proposées par les chercheurs nécessitent parfois des développements « ad hoc » sur des temps très courts et non réutilisables pour les expérimentations suivantes. La valorisation scientifique multidisciplinaire pose le problème des stratégies de publication. Hors, il est malheureusement très compliqué de publier des travaux multidisciplinaires. L'essentiel des appels à communication étant généralement bien cadrés dans des domaines bien spécifiés et ne devant pas trop en sortir. Il s'ensuit alors un « éparpillement » et un découpage problématique des publications. Les sociologues vont valoriser leurs travaux dans des conférences traitant de démocratie participative où les informaticiens ne vont pas trouver leur place. A l'inverse, les informaticiens vont publier leurs modèles de données dans des conférences sur le web sémantique totalement déconnectées des préoccupations des sociologues. Nous n'avons pour l'instant dans le projet aucune publication multidisciplinaire (à part des publications entre sciences de l'information et de la communication et informatique). De plus, les pratiques et culture de publications ne sont pas les mêmes entres les différentes communautés (ordre des noms, organisation du contenu, remerciement ou co-auteur, etc.). Ces différences de pratique peuvent entraîner des tensions dans les interactions. Nous proposons dans cette section un bilan des freins et points positifs de la multidisciplinarité. Points positifs : échange de méthodologies de conception et d'évaluation. Apport d'une culture du qualitatif qui fait défaut aux informaticiens; mise en place d'expérimentations fréquentes par les sociologues en présence d'utilisateurs réels; les informaticiens proposent de nouvelles fonctionnalités non imaginées par les sociologues qui permettent d'envisager aux sociologues de nouvelles expérimentations, de nouvelles hypothèses et de nouveaux modèles; échange de points de vue permettant aux différents acteurs de prendre du recul par rapport à leur domaine d'étude. Freins : les différents acteurs sont en général peu conscients des compétences et attentes des gens qui ne sont pas dans leur domaine. Par exemple, la tendance à considérer tous les informaticiens comme étant des techniciens; les stratégies et cultures de publications sont différentes pour chaque domaine, ce qui rend complexe la valorisation équitable d'un tel projet; sous estimation du besoin de travail en présentiel pour limiter les clivages et incompréhension entre les représentants des différentes disciplines. Les problèmes logistiques peuvent devenir prépondérants et nuire à la bonne conduite du projet. Nous traitons dans cet article des difficultés rencontrées lors d'un projet multidisciplinaire regroupant des acteurs du monde de la recherche et des acteurs du monde de l'industrie. La représentativité de ce projet est limitée et il faudrait étudier des projets multidisciplinaires de nature et avec un nombre de composantes variables. Les problèmes d'interaction ne sont sûrement pas les mêmes entre deux ou trois disciplines, entre des acteurs de la recherche uniquement, ou des acteurs de la recherche et des acteurs de l'industrie, entre des sciences basées sur l'observation et l'analyse ou des sciences orientées vers les technologies. La pluridisciplinarité nécessite de façon vitale et fondamentale une planification, une prise de recul et une organisation extrêmement complexe. La difficulté, mais aussi la clé de la réussite de tels types de projets résident essentiellement dans la capacité des « responsables » et « organisateurs » à mettre à disposition les moyens et les conditions nécessaires aux interactions entre les bons acteurs. Il y a nécessité aussi d'ouverture d'esprit, surtout méthodologique, de tous les acteurs pour comprendre les différentes façons de travailler. Il ne faut pas sous-estimer le travail de management des projets multidisciplinaires. Finalement, c'est peut-être avant tout dans cette composante de management qu'il manque des modèles d'interactions et de gestion efficace. Il existe des méthodologies de travail pour un groupe d'informaticien, il en existe pour des groupes mixtes dans le cas de disciplines ayant l'habitude de collaborer, ergonomes et informaticiens par exemple, mais il n'existe pas, à notre connaissance, de méthodologie générale pour une approche multidisciplinaire .
Cet article présente l'organisation d'un projet multidisciplinaire portant sur la co-conception d'une plateforme de débats en ligne. Nous décrivons les interactions entre les acteurs des différentes disciplines du projet. Nous analysons ce cas d'étude concret et soulignons les difficultés rencontrées ainsi que les points positifs.
sciencesInfo_13-0053290_tei_DN_id9782746233034_pu2011-01s_sa02_art02.tei.xml
termith-418-communication
L'HOMME A TOUJOURS UTILISÉ DES systèmes de classification dans les divers domaines de la connaissance. C'est en traçant des frontières, en définissant des catégories d'objets, des familles de plantes ou d'animaux que nous arrivons à mieux comprendre le monde. Nous dessinons des plans, des graphes et des diagrammes pour représenter des idées. Nous avons besoin de tels outils pour trouver notre chemin dans un monde virtuel où les corpus sont de moins en moins identifiables. Ces techniques et ces outils, les professionnels de l'information-documentation les connaissent bien : description documentaire selon des structures normalisées; indexation documentaire pour décrire et caractériser un document à l'aide de représentations des concepts contenus dans ce document, mais sans oublier que l'indexation permet d'alimenter des index et donc d'ouvrir un chemin d'accès pour parvenir aux informations relatives aux documents; classifications comme moyens de mettre de l'ordre dans une collection, d'aider voire d'enrichir les recherches des utilisateurs. Les requêtes de type booléen, parce qu'elles ne sont pas contextualisées, trouvent vite leurs limites : bruits importants dans les résultats, quand ce n'est pas aberrations. .. Par sa nature même, le Web ne peut exister sans ces techniques documentaires, et ceci est d'autant plus criant que le volume d'informations et de documents potentiellement accessibles croît chaque jour. Les pionniers de la Toile se sont approprié ces techniques parfois sans le savoir, répondant ainsi aux besoins des consommateurs d'information; mais aujourd'hui ces consommateurs deviennent acteurs et, de la même manière qu'ils alimentent le Web, qu'ils y apportent des commentaires et y créent des communautés actives, ils s'approprient à leur tour ces techniques et ces outils. Dans ce contexte il n'est pas inutile de rappeler qu'indexer un corpus selon les règles de l'art nécessite un environnement ad hoc. Traditionnellement, un système de classification travaillé et évolué est de nature hiérarchique. Une liste plate de catégories peut souvent être utile, mais un système hiérarchique est plus riche et permet une utilisation plus précise et plus exhaustive. Indexer un corpus avec un thésaurus est naturel pour un documentaliste. Mais ce n'est pas le cas d'un utilisateur d'Internet qui a pour simple but d'organiser les références et les sites qui l'intéressent. Ce qui forme un atout pour une utilisation professionnelle peut alors apparaître comme un handicap pour une utilisation personnelle. Voici quelques points qui peuvent rendre l'indexation documentaire difficile pour un non-documentaliste. • Un document ne correspond pas nécessairement à une seule catégorie. Ce qu'il est possible d'appliquer à un champ multivalué dans un système professionnel de gestion documentaire s'appuyant sur un référentiel l'est beaucoup moins quand on ne dispose que d'un système arborescent de classement. • Une hiérarchie est par définition rigide. Il est difficile de déplacer un sous-dossier d'un dossier à un autre. Cette difficulté n'est pas d'origine technique mais sémantique. • En ce qui concerne l'indexation documentaire, la représentation est dans une certaine mesure subjective et dépend du documentaliste. • La structure ainsi que le contenu d'un thésaurus dépendent du métier et du contexte. Ce qui est contradictoire avec la navigation libre sur Internet, avec le besoin d'indexer des sites correspondant à des domaines très différents. En étudiant l'évolution de l'utilisation d'Internet, nous constatons une amélioration parallèle des outils et méthodes de classification. Nous en distinguons quatre niveaux : la classification personnelle, l'indexation par l'auteur, l'indexation par l'utilisateur et la classification à usage global. Les navigateurs web peuvent être plus ou moins sophistiqués, mais ils disposent tous d'un élément indispensable : la boîte de saisie de l'uniform resource locator (URL). C'est cet élément qui nous permet de choisir la page que nous voulons charger et consulter. Voulant faciliter la vie aux utilisateurs, les éditeurs ont depuis longtemps pensé à intégrer une fonctionnalité nous permettant de mémoriser une ou plusieurs adresses dans des « favoris » ou « signets ». De cette manière, l'internaute a commencé à disposer de son premier outil d'organisation de données web. La nouvelle génération de navigateurs nous donne la possibilité d'organiser nos favoris dans des dossiers à plusieurs niveaux. Nous pouvons même demander l'ouverture automatique de toutes les adresses qui se trouvent dans un dossier de favoris. Le problème de perte de ces informations lors de l'installation d'une nouvelle version, d'un navigateur différent ou même d'un nouvel ordinateur, a été résolu par les éditeurs à l'aide d'outils d'import/export de fichiers contenant ces favoris. Ce type d'organisation reste suffisant pour un nombre limité de dossiers et à condition d'utiliser un seul poste de travail. Les portails grand public ont permis de dépasser cette limite par la mise à disposition en ligne de ce que l'on désigne par page personnelle. En fait, ces portails ont proposé un système de gestion de liens. Au lieu d'enregistrer une URL dans le système de favoris de son navigateur, l'utilisateur pourra l'enregistrer directement sur le Web, dans sa page personnelle. De cette manière, la référence d'un site archivée au bureau pendant la journée sera directement accessible le soir à partir de l'ordinateur familial. L'auteur d'une page web dispose au minimum d'un moyen simple de décrire son œuvre par les métatags. La balise HTML <meta>, quand il s'agit de l'attribut « name » égal à « keywords », peut contenir un ou plusieurs mots clés qui décrivent le contenu de la page en question. L'usage des mots clés par les auteurs prend aussi toute son importance avec le développement des blogs et de l'autoréférencement des sites dans les annuaires. Ces mots clés sont visibles pour les moteurs de recherche et sont parfois utilisés dans le calcul du rang d'affichage du document dans une liste de réponses. Folksonomie (selon Wikipedia )Une folksonomie est un néologisme désignant un système de classification collaborative décentralisée spontanée. Le concept étant récent, sa francisation n'est pas encore stabilisée, bien que le grand dictionnaire terminologique l'ait ajouté à sa base de données. Le terme folksonomie est une adaptation française de l'anglais folksonomy, combinaison des mots folk (le peuple, les gens) et taxonomy (la taxinomie). Certains auteurs utilisent à la place les termes potonomie ou peuplonomie. À l'inverse des utilisateurs de systèmes hiérarchiques de classification, les contributeurs d'une folksonomie ne sont pas rivés à une terminologie prédéfinie, mais ils peuvent adopter les termes qu'ils souhaitent pour classifier leurs ressources. Ces termes sont souvent appelés mots clés ou tags ou, en français, étiquettes. L'intérêt des folksonomies est lié à l'effet communautaire : pour une ressource donnée, sa classification est l'union des classifications de cette ressource par les différents contributeurs. Ainsi, partant d'une ressource et suivant de proche en proche les terminologies des autres contributeurs, il est possible d'explorer et de découvrir des ressources connexes. Le concept de folksonomie est considéré comme faisant partie intégrante du Web 2.0. (extrait de la présentation en ligne Open directory * )La croissance du Web se poursuit à une vitesse stupéfiante. Les moteurs de recherche automatisés ont de plus en plus de difficultés à fournir des résultats satisfaisants. Les petites équipes d'édition professionnelles travaillant sur les sites commerciaux des répertoires ne peuvent plus répondre aux requêtes, et la qualité comme le contenu de leurs répertoires s'en ressentent. Les liens deviennent obsolètes et ne peuvent plus suivre le rythme de croissance d'Internet. Au lieu de combattre la croissance explosive d'Internet, le projet Open Directory ** permet à celui -ci de s'organiser. Parallèlement à ce développement d'Internet, le nombre de citoyens du Web augmente. Ces citoyens sont habilités à organiser une petite partie du Web et à la présenter au reste de la population, en supprimant les éléments inutiles ou inintéressants à leurs yeux et en conservant les meilleurs éléments. L'Open Directory marche dans les pas de certains des plus importants projets collaboratifs du XXe siècle. Tout comme l'Oxford English Dictionary qui a fini par l'emporter en matière de mots de la langue anglaise grâce aux efforts de bénévoles, l'Open Directory tente de devenir « le » catalogue du Web. Il compte aujourd'hui, entre autres, environ quatre millions de sites en anglais et cent mille sites en français. www. aef-dmoz. org/ http:// dmorz. org/ world/ francais/ about. html Malgré leur utilité, ces catégories trouvent vite leur limite : l'utilisateur final, selon son profil, peut s'intéresser à des aspects d'un document qui ne sont pas forcément « taggés » par l'auteur; les catégories choisies sont indépendantes des autres catégories utilisées par d'autres auteurs; enfin, si le choix des mots clés est toujours subjectif, la présence d'un langage documentaire contrôlé n'est pas là pour faire garde-fou. On ne prendra pour exemple que l'indexation sur deux blogs différents d'un post sur l'exil en Suisse d'un certain chanteur français. Pour le premier : Musique/Nicolas Sarkozy/Rap et HipHop, Suisse, Transports; pour le second : Emploi, MEDEF, Ministère de l'intérieur, Musique, Suisse. L'indexation par l'auteur est pensée dans une perspective de promotion de l'information, il lui faut utiliser des tags correspondants au vocabulaire et aux centres d'intérêt des utilisateurs. L'auteur se confronte là à toute la difficulté de l'indexation documentaire. Pour aller plus loin, et en s'inspirant de la fonctionnalité offerte par les champs multivalués, des sites tels que del.icio.us, furl ou encore yoono ont donné à l'utilisateur la possibilité de décrire une URL à l'aide de plusieurs mots clés (ou étiquettes, d'où le terme anglais tag). L'évolution la plus intéressante offerte par ces sites est celle qui consiste à mettre les mots clés proposés par une personne à la disposition de la communauté. Quand un terme est utilisé par plusieurs personnes pour indexer la même URL, il obtient la mention « populaire » pour celui -ci. Ainsi, avant d'indexer une URL, le système peut suggérer à l'utilisateur les mots clés considérés comme « populaires ». Très souvent, ceux -ci correspondent (partiellement ou totalement) aux besoins d'indexation du nouvel utilisateur. L'indexation du même site par plusieurs personnes profite de l'effet de masse pour constituer un tronc commun de mots clés qui sera une sorte de consensus acceptable par une majorité d'utilisateurs. Ce type d'indexation nous permet de parler de folksonomie [<hi rend="italic">voir ci-contre</hi> ]. Avec la multiplication rapide du nombre de documents sur le Web, le besoin de trouver les documents intéressants a suscité le développement de deux types d'outils : un outil de classification de documents sous forme de répertoire : Yahoo !, qui est très vite devenu populaire grâce à son système, a profité de la fonctionnalité des liens « HyperText » pour la mise en place de pages de liens contenant des catégories et des sous-catégories. Dans chacune, il a placé des liens vers des URLs ayant un contenu qui lui correspond. Le système de navigation offert par le logiciel et par les liens permettait à l'utilisateur de passer d'une catégorie à l'autre pour trouver les informations recherchées; un outil de recherche en texte intégral : plusieurs sites ont fait leur apparition sur le net pour aider l'utilisateur à trouver, à partir de quelques mots clés, les pages web souhaitées. Nous ne développerons pas ce type d'outils qui sortent du cadre de cet article. Plusieurs éditeurs de sites ont adopté ce type de catégorisation, avec plus ou moins de succès. Cependant, ce qui est clair dans ce type de démarche, c'est l'aspect subjectif de cette catégorisation. La personne qui analyse un document (ou une URL) décide de le classer sous une ou plusieurs catégories existantes. L'ajout d'une nouvelle catégorie obéit aux mêmes règles que celles qu'appliquent les documentalistes depuis des dizaines d'années. Au-delà de la classification automatique par les éditeurs, on trouve également ce type de classification sous la forme d'indexation collaborative. Un des premiers projets collaboratifs sur Internet qui ait vu le jour est l'Open Directory Project [<hi rend="italic">voir ci-contre</hi> ]. Cet annuaire s'est construit et se construit chaque jour grâce à des milliers d'utilisateurs d'Internet dans le monde; toutefois les catégories proposées ne sont pas libres comme elles le seraient dans une folksonomie. On est ici dans une démarche documentaire plus stricte que l'on retrouve dans les modes de recherche : recherche sur l'URL, sur le titre, sur les descriptifs ou sur les catégories. Les folksonomies prennent donc une place croissante dans l'internet d'aujourd'hui. Sans préjuger de ce qu'elles deviendront dans la durée, il semble intéressant de creuser un peu leurs mises en œuvre et leur efficacité. Une folksonomie n'est pas structurée. Un terme faisant partie de celle -ci n'a pas de liens avec les autres termes de la même folksonomie (synonymes, génériques, spécifiques, etc.). Cette propriété n'a pas empêché les sites tels que del.icio.us d'aider l'utilisateur en détectant des liens d'une manière automatique, non pas par rapport au sens des mots employés, mais en utilisant les associations existant entre les termes d'indexation. Exemple : considérons quelques documents relatifs aux outils et langages de développement indexés comme le montre le tableau 1. À l'utilisation, le système pourra proposer une interface de navigation basée sur les combinaisons des différents termes. En sélectionnant JavaScript, les termes relatifs suivants seront détectés : AJAX, DHTML et Composant. Un terme employé pour indexer un document peut être n'importe quel mot reconnu et accepté par l'utilisateur. Ce mot peut ne pas exister dans le dictionnaire. Mais, du moment où il sert à faciliter la vie de l'utilisateur au niveau de l'organisation de ses pages web, ce terme sera considéré comme valide du point de vue individuel. Précisons cependant que la plupart des internautes prennent l'habitude d'employer des termes qui peuvent être utiles pour les autres personnes qui s'intéressent au même document ! Le principal inconvénient de cette liberté est la possibilité de se trouver, dans sa liste de mots clés, en présence de termes écrits de différentes manières mais ayant le même sens. Plusieurs raisons peuvent être à l'origine de cette multiplicité. Les plus fréquentes sont : l'utilisation ou non d'un trait d'union dans les noms composés (exemple : Open-Source, Open Source ou OpenSource); l'utilisation des initiales (exemple : IE ou Internet Explorer); des erreurs de frappe; l'utilisation ou non du pluriel. En analysant les étiquettes les plus populaires dans del.icio.us, nous constatons que les utilisateurs choisissent des termes qui ont des fonctions différentes au niveau de l'indexation descriptive du document. Nous prenons quelques exemples dans le tableau 2 en indiquant, pour chaque rubrique, la nature des termes utilisés. Les termes utilisés par une personne peuvent être très clairs pour elle mais plus ou moins ambigus pour la communauté. L'utilisation de plusieurs termes peut réduire cette ambiguïté, et souvent l'éliminer. Une dernière limite de taille est bien sûr que chacun ne rattache pas la même réalité conceptuelle à un même descripteur… Exemple d'indexation de documents relatifs aux outils et langages de développement URL Termes (DHTML, AFlash, Outil, Open SAJAX, CComposant Les systèmes qui deviennent populaires ne sont pas nécessairement ceux qui sont très bien préparés, analysés et étudiés pendant des années, mais ceux qui répondent le mieux aux besoins de l'utilisateur. Quels sont les éléments qui ont aidé à populariser les systèmes à indexation folksonomique ? Pour indexer un document de cette manière, l'utilisateur n'a pas besoin de comprendre la structure d'un thésaurus, le niveau de spécificité qu'il doit appliquer ni les termes associés auxquels il doit réfléchir. Tout ce qu'il a à faire, c'est de poser les termes auxquels il pense même d'une manière spontanée. L'effort à fournir est donc négligeable et son coût est proche de zéro. Du côté technique, les interfaces homme-machine proposées sont très simples et intuitives pour ne pas décourager l'utilisateur de recourir aux services du site. L'indexation folksonomique ne consiste pas uniquement en l'indexation d'un document par un utilisateur pour ses propres besoins. Sa force provient surtout de l'agrégation des termes proposés par les différents utilisateurs et de l'affectation d'une importance supérieure aux termes les plus fréquemment utilisés. Exemples de termes choisis par des utilisateurs pour indexer des documents Termes Nature correspondante advertising, architecture, finance, politics , Sujet ou thème du document design, etc . apple, firefox, google Noms propres de marque book, comics, database, images, mp3, movies Description de l'objet formant le document ou présenté par celui -ci Christmas, daily Informations relatives au temps funny, interesting Ce type de termes, formés d'un adjectif , décrit un avis donné sur le document flash, html, javascript, linux, php Noms de technologies toread C'est un élément organisationnel . Une personne peut utiliser ce type d'étiquette d'une manière provisoire pour faciliter la navigation dans les documents qu'elle trouve intéressants NB : Les listes des termes cités ci-dessus ne sont pas exhaustivesLes sites fonctionnant sur ce principe assistent l'utilisateur au moment de l'indexation d'un document. En fait, ils lui proposent les termes les plus populaires. À ce moment là, trois actions sont possibles. • Accepter les termes proposés sans aucune modification. Ceci renforce les poids accordés à ces termes. • Ajouter un ou plusieurs termes. Selon leur rang, les termes ajoutés pourront être pris en compte par le système lors d'une prochaine assistance offerte à un autre utilisateur. S'ils sont acceptés par les nouveaux arrivants, ils pourront prendre de l'importance et feront partie des termes populaires qui catégorisent le document. Sinon, et si la différence continue à augmenter entre les termes populaires et ceux -ci, ils disparaîtront des prochaines propositions, tout en restant disponibles pour l'utilisateur qui les a créés. • Supprimer un ou plusieurs termes. Le poids des termes supprimés baissera, en comparaison avec les autres termes. Si cette opération est répétée par plusieurs personnes, ces termes finiront par disparaître de la liste des mots proposés à cause de leur faible popularité. Plusieurs sentiments de nature positive peuvent pousser une personne à participer à ce type d'expériences. • Être « vu » sur Internet dépasse le sentiment de jouer un rôle de figurant au cinéma, car c'est la personne elle -même qui décide de l'action à effectuer. • Voir son avis « accepté » par les autres internautes donne à la personne (consciemment ou non) une confiance en soi. • Se sentir utile en participant à l'organisation du net encourage l'utilisateur à ne pas hésiter à continuer, d'autant plus qu'il est le premier à profiter directement de la catégorisation d'un document. De la même manière que le Web a « libéré » le lecteur de l'auteur, le laissant libre de son parcours, le lecteur par empirisme a découvert le besoin d'indexation et celle -ci a vu son statut désacralisé. Les sites utilisant ce type d'indexation offrent les outils nécessaires pour effectuer des recherches sur les termes de la folksonomie. Ceci est surtout utile quand les documents indexés ne contiennent pas du texte (par exemple : les images sur www. flickr. com ou les vidéos sur www. youtube. com). D'un autre côté, la possibilité de « parcourir » les listes de termes en affinant ses choix ressemble à la notion de construction assistée d'une requête en choisissant les critères à la souris. Ainsi, en choisissant un premier terme, le système affiche les termes liés. En en sélectionnant un autre, le système l'ajoute à ses critères en arrière-plan et filtre les documents selon les deux critères. Le nombre de niveaux d'affinage dépend surtout de l'outil logiciel utilisé par le site et du nombre de mots clés utilisés pour indexer les différents documents. Un des outils les plus novateurs dans la présentation des mots clés est celui du « nuage de mots-clés » (de l'anglais tag cloud). Il consiste à afficher les n mots clés les plus populaires, triés par ordre alphabétique. Il donne à chacun un style qui dépend de la fréquence de son utilisation pour indexer les documents. Les nuages permettent de rattraper la disparité de l'indexation au sein d'un site. Il est difficile d'imaginer l'utilisation des sites publics pour l'indexation collaborative dans les organisations. En revanche, l'implémentation d'outils spécifiques à l'enrichissement du contenu pourrait être très utile. Cette tâche consisterait à ajouter des mots clés libres, mais permettant d'accentuer certains aspects du document, ou tout simplement à indiquer, à l'aide d'un système de notation, que tel document est intéressant pour les personnes présentant le même profil que l'utilisateur. Ce type de collaboration ne pourra pas être accepté sans respecter un certain nombre d'exigences : l'interface doit être très simple et intuitive pour que le temps passé à l'utiliser soit négligeable; comme sur Internet, l'utilisation doit être fondée sur le volontariat; la sécurité des données doit être préservée à tous les niveaux. En fait, les droits d'accès aux documents par les différents services doivent être appliqués aux termes utilisés pour les catégoriser; pour qu'une folksonomie reste la plus propre possible, il faut conférer l'importance nécessaire aux outils d'assistance à la saisie des mots clés; il ne faut pas délaisser l'indexation professionnelle quand elle existe. L'indexation collaborative trouvera dans ce contexte une plus grande pertinence parce que les personnes concernées appartiennent aux mêmes services et que leur vocabulaire et leurs besoins sont communs. On connaît bien sûr la difficulté aujourd'hui de mobiliser ses collaborateurs simplement pour déposer leurs productions documentaires dans un système commun, mais nous ne sommes qu'au début de ces pratiques sur Internet et tout reste ouvert. Pour les professionnels, nous rejoindrons ici certains auteurs comme Gilles Balmisse sur l'idée que l'étude de l'écart entre le langage des documentalistes et celui des utilisateurs-contributeurs permettrait d'améliorer la pertinence du service de recherche d'information, mais aussi de mieux identifier les collaborateurs susceptibles d'aider dans tel ou tel domaine et, au-delà, de localiser les experts. En quelques années, nous sommes partis de pages vierges ou presque de méthadones puis, progressivement, ces méthadones se sont développées sous le contrôle des auteurs et des webmestres pour arriver aux tags attribués par les lecteurs ou les auteurs en toute liberté, et maintenant à la hiérarchisation de ces tags. Les professionnels de l'information-documentation ne seront pas surpris d'une telle évolution, même si souvent ils n'ont pas pu ou pas su faire valoir leur professionnalisme dans ce monde virtuel. Nous ne chercherons pas à trancher ici sur l'identité de ceux qui devraient construire ces folksonomies. Les utilisateurs finals ont l'avantage d'effectuer une indexation en nombre, à un coût moindre, et d' être représentatifs de la diversité des profils qui naviguent et recherchent. En l'absence de langage documentaire, l'indexation ainsi effectuée pose toutefois des problèmes de cohérence et, si un consensus peut émerger, on est en droit de se poser la question de savoir si les « taggeurs » ne s'influencent pas mutuellement. Nous souhaiterions toutefois conclure sur une réflexion plus globale et un peu provocatrice sur le passage de la consommation à l' « activisme » sur Internet. L'indexation par l'utilisateur répond à l'atomisation de la production d'information mais, quel que soit le mode d'indexation, il semble aujourd'hui difficile de distinguer ce qui relève de l'opinion commune de ce qui relève de la connaissance scientifique, juridique, historique, etc. Le « Je crois que » ne pourrait-il devenir un nouveau mot clé à s'approprier ? Il nous semble qu'aujourd'hui l'indexation collaborative permet autant de valider la qualité de l'information que de promouvoir la non-qualité .
À l'heure où, de multiples façons, les consommateurs d'information deviennent acteurs sur le Web, ils s'approprient peu à peu les techniques et les outils qui étaient auparavant l'apanage des professionnels de l'I-D. Élie Francis et Odile Quesnel présentent ici quatre modes d'indexation et de classification sur la Toile: la classification personnelle, l'indexation par l'auteur, l'indexation par l'utilisateur et la classification globale. Ils précisent ensuite les propriétés, le fonctionnement et les raisons du succès des folksonomies, systèmes d'indexation collaborative libre, décentralisée et spontanée qui peuvent apporter le meilleur (qualité d'information) mais dont on peut redouter le pire (désinformation).
sciencesInfo_08-0113837_tei_DOCSI_idPAS_D_ISBN_pu2007-01s_sa09_art09.tei.xml
termith-419-communication
Bien que l'on puisse dire que « the migration of library material to an online environment using the same paper distribution paradigm [is] a simple technical feasibility issue » (Stern, 1999), nous pensons que ce sujet ancien soulève encore de nombreuses questions difficiles pour les chercheurs. L'expérience fondatrice en matière de numérisation de document est peut-être le photo-télégraphe d'Arthur Korn (1904). Dans cet appareil, une cellule au sélénium balaie une photographie en un nombre fini de lignes. Le signal électrique résultant est transmis sur une ligne téléphonique au récepteur qui, à son tour, déplace une source lumineuse - au dessus d'un papier photosensible. Lorsqu'il juge de la qualité de reproduction de ses facsimilés, Korn montre bien les relations entre le nombre de lignes de balayage, le temps de transmission et les limitations de la technologie des lignes (Brethes, 1995). Il a cependant fallu attendre une vingtaine d'années pour qu'Harry Nyquist propose une explication formelle du processus d'échantillonnage. Ce qu'on appelle maintenant le théorème de Nyquist donne une borne inférieure à la fréquence d'échantillonnage liée à la bande passante du signal d'origine. Quand l'échantillonnage se fait à une fréquence inférieure à la limite de Nyquist, le signal résultant contient des formes absentes de l'original : du moiré 1 Les technologies de numérisation actuelles sont bien différentes du phototélégraphe de Korn, mais la nature même de la numérisation comme processus d'échantillonnage reste inchangée. Afin d'éviter le moiré, il faut examiner soigneusement la bande passante du signal d'origine. Il est en pratique difficile de décider de la pertinence des signaux « émis » par une bibliothèque et les ouvrages qu'elle renferme et les exemples de sous-estimation sont fréquents, du fait des contraintes techniques ou économiques (sans oublier les approches naïves). La numérisation en niveaux de gris est ainsi encore très courante dans les projets de numérisation du patrimoine imprimé, comme par exemple notre Conservatoire numérique des arts et métiers (Cubaud et al., 2003) (CNUM, hcnum. cnam. fr). On sait cependant qu'une captation couleur renforce considérablement la lisibilité des fac-similés. Le traitement des planches hors-textes dépliantes est un exemple moins trivial. Cette technique de mise en page a été intensivement utilisée dans l'édition scientifique et technique jusqu'au milieu du XIXe. Elle permet en effet un commentaire (pour l'auteur) ou un examen (pour le lecteur) en parallèle, évitant les allers-retours entre pages dus aux limites physiques imposées par la typographie. A notre connaissance, aucune interface de consultation de bibliothèque numérique actuellement en service ne transcrit ce type de fonctionnalité. Bien souvent, c'est à cause de la limitation des métadonnées associées au fac-similé. Dans le projet CNUM, nous avons bien distingué les hors-textes des autres fac-similés, mais pas le fait qu'une planche soit dépliante ou non. On doit dès lors considérer la version numérique du livre à planches comme un alias. En plus des limitations de metadonnées, les bibliothèques numériques souffrent de la métaphore WIMP (Window Icon Menu Pointing device) qui est à la base de leurs interfaces. La consultation de plusieurs documents en parallèle se traduit par des superpositions de fenêtres et des actions très nombreuses de redimensionnement (O'Hara et al., 1997) et, de fait, la plupart des utilisateurs préfèrent télécharger et imprimer leurs documents de travail (Cubaud, 2005). De ce point de vue, les interfaces Web actuelles n'offrent finalement guère d'avantages vis à vis du FTP utilisé auparavant… Avec la multiplication des bibliothèques en ligne, d'accès international, les utilisateurs sont confrontés à un nouveau problème : évaluer l'adéquation de ces collections avec leur besoin de documentation. Pour estimer la valeur d'un corpus, il faut avoir recours à un moteur de recherche, ce qui suppose la capacité de l'utilisateur d'énoncer une telle requête. Comment dès lors déambuler dans une bibliothèque numérique ? Quelles techniques de visualisation utiliser quand la taille de corpus peut atteindre le million d'items ? Il nous semble que des techniques du type de celles communément employées en CAO permettraient d'y répondre. En reconstituant les caractéristiques géométriques (3D) et visuelles des documents et en les insérant dans une scène 3D commune, il devient possible de les manipuler comme le designer manipule ses pièces mécaniques ou ses éléments architecturaux. De nombreux auteurs ont étudié le potentiel de cette approche pour le document numérique natif (voir en particulier Rao et al., 1995 et Card et al., 1999 pour une discussion des articles séminaux). Les fac-similés de livres posent des problèmes spécifiques : la grande diversité des formats et la nature même des facsimilés images ne permettent pas de réaliser des interfaces aussi plastiques que celles gérant des documents numériques natifs. Après un bref état de l'art, nous décrivons dans la première partie de cet article un prototype d'atelier de lecture immersif dont les briques de base sont un outil de parcours dans les collections par visualisation exhaustive et un outil de navigation/lecture de fac-similés. Dans tous les prototypes d'interfaces offrant l'accès à une bibliothèque numérique, l'élément de base est le fac-similé, la page numérisée en mode image. Celle -ci est acquise via l'utilisation d'un scanner, qui, aussi évolué soit-il, ne permet que rarement de restituer la page de manière optimale. Il faut, pour être dans ce cas d'utilisation optimal, pouvoir désolidariser les différentes pages à numériser de manière à les mettre à plat, une par une, et éviter ainsi les légères transformations dues à leur partie reliée. Une presse, manuelle ou automatique, peut également être utilisée pour appuyer le livre relié et ainsi minimiser ces déformations. Les deux méthodes sont cependant inacceptables pour des ouvrages fragiles ou rares. D'autre part, il peut être intéressant de conserver la réalité physique d'un ouvrage, en particulier lorsque les dimensions de sa typographie ou de ses illustrations sont importantes. Dans ce cas, la numérisation 2D n'apporte aucune solution satisfaisante. Nous proposons donc dans la deuxième section de cet article une approche employant la photogrammétrie pour extraire les informations volumiques d'une page. Les prises de vue n'altèrent pas l'ouvrage par une mise à plat forcée et permettent d'obtenir un maillage 3D assez précis. Un livre n'est pas seulement un ensemble de pages planes. C'est un volume, complexe, avec parfois une riche dynamique d'interaction lorsqu'il comporte des systèmes dépliables. C'est l'objet de notre étude en cours sur les livres à systèmes qui nécessitent une description beaucoup plus complète que les livres usuels. La description et la mise en œuvre de tels ouvrages sont présentées dans la dernière section. Les problématiques d'acquisition, de stockage, de diffusion des bibliothèques numériques peuvent aujourd'hui être considérées comme secondaires pour des fonds numérisés de quelques dizaines de milliers d'ouvrages. Les aspects touchant à l'indexation, à la recherche et à la visualisation de documents concentrent désormais l'attention des chercheurs. Sur ce dernier point, sujet de notre travail, une interface est nécessaire pour ouvrir l'accès à une collection, permettre la sélection des livres et faciliter la lecture et l'annotation des ouvrages. Pour cela, certains projets s'appuient sur des métaphores de navigation et de représentation réelles pour profiter de l'expérience des utilisateurs. D'autres proposent de nouvelles métaphores capables d'offrir de nouveaux services. Nous passons en revue quelques travaux significatifs dans le domaine de la visualisation 3D de documents avant de présenter nos propres travaux. Lesk précise que la majorité des utilisateurs préfèrent « fureter » dans un fonds d'ouvrages plutôt que d'y effectuer une recherche directe (Lesk, 1997). Très souvent, les lecteurs n'ont pas une idée précise des ouvrages qu'ils cherchent mais plutôt une idée du sujet qui les intéresse. Dans ce cas, ils parcourent un ensemble d'ouvrages visuellement puis, par éliminations successives, sélectionnent quelques ouvrages répondant à leurs critères de choix initiaux. Dans ce contexte, le choix d'une interface en images est judicieux car elle permet la mise en place de ces heuristiques visuelles pour aider dans la recherche de livres d'intérêt. De leur côté, Jones et Dumais jugent que les interfaces documentaires classiques offrent de nombreux avantages parmi lesquels les systèmes de recherche multicritères et le classement à la volée, mais ne permettent pas à l'utilisateur de se souvenir de l'endroit où un ouvrage a été trouvé (Jones et al., 1986). L'intérêt d'une interface pour accéder aux bibliothèques numériques est donc à la fois de stimuler la mémoire spatiale et visuelle et de faciliter la lecture croisée. Une initiative intéressante a été réalisée avec LibViewer (Rauber et al., 2000) qui offre plusieurs heuristiques visuelles 2D pour rendre plus intuitives les recherches et la représentation des ouvrages dans un important fonds documentaire. Dans ce système, les auteurs ont avant tout souhaité donner à chaque élément des caractéristiques particulières afin d'offrir aux utilisateurs des repères visuels directs. Chaque type d'objet (journal, magazine, manuscrit, enregistrement audio, etc.) est représenté différemment. Les couleurs sont utilisées pour informer l'utilisateur de certaines spécificités de l'objet (langage, genre etc.). Les interfaces 3D pour visualiser le fonds d'une bibliothèque numérique sont très intéressantes car elles permettent littéralement de se rendre compte du volume occupé par ce fonds. Bon nombre de projets proposent des représentations virtuelles de la véritable bibliothèque. Certaines bibliothèques « virtuellement réelles » comme (Kipp, 1997), (Fingerhut, 2000) et (Plenacoste et al., 2001), reproduisant à l'identique la bibliothèque réelle prise pour modèle, peuvent offrir d'appréciables services. Les habitués d'une telle bibliothèque retrouveront probablement sans problème les différents ouvrages, puisqu'ils (re)connaîtront les lieux. Cependant, peu d'utilisateurs accédant à une bibliothèque en ligne se trouvent dans ce cas. Pour la grande majorité, une représentation fidèle du lieu ne sera d'aucune utilité. Si toutefois la bibliothèque est reconstituée en utilisant des livres texturés, l'utilisateur peut tout de même trouver des livres d'un simple coup d' œil. Dans le projet de Kipp, les ouvrages disposés dans des salles, sur des étagères, sont habillés avec des couleurs unies, distinctes, signifiant qu'ils appartiennent à telle ou telle catégorie. Ce genre d'information n'est pas forcément nécessaire et apparaît être bien moins utile que de fournir l'image du dos ou des plats du livre. Il est en effet impossible de discriminer un livre d'un autre dans une même catégorie. Notons toutefois que la bibliothèque décrite dans (Kipp, 1997) est une collection de thèses et d'articles dont le dos et la couverture ne fournissent aucune information discriminante. En règle générale, la reproduction d'un univers réel tel qu'une bibliothèque avec ses salles, ses allées et ses rayons a souvent pour conséquence directe de nous focaliser sur les explorations déambulatoires, au détriment des recherches directes et spécifiques. Pour cette raison, nous avons décidé de prototyper une interface 3D aussi intuitive que possible, mais très éloignée de la représentation contraignante des bibliothèques réelles. Ces dernières considérations s'attachent à la création d'une interface de recherche. Pour les postes de lecture, tous les projets buttent sur un problème de taille qu'est la lecture sur écran. La majorité des lecteurs sont gênés par les contrastes des supports informatiques et par la nécessité de devoir faire défiler verticalement le document. Gould et Grischokowsky soulignent bien ce rapport entre la représentation et la vitesse d'acquisition des informations (Gould et al., 1984). Pour les documents numériques, ils constatent que la résolution du dispositif de sortie est un élément déterminant dans la vitesse de lecture (Gould et al., 1987). Or, la résolution d'un écran excède rarement 100 points par pouce alors qu'un confort optimal de lecture sans distinction du moiré est atteint à une résolution supérieure à 300 points par pouce. Malgré ces points négatifs, fortement dépendant des progrès technologiques, la lecture sur écran est devenue une pratique courante et acceptée depuis l'avènement de l'internet. Il reste toutefois d'autres aspects d'ordre logiciel à améliorer pour, par exemple, faciliter la lecture croisée, l'organisation d'un espace de travail. En cela, une solution 3D offre des possibilités de représentation beaucoup plus riches que la 2D sans pour autant pénaliser de manière rédhibitoire le rendement des utilisateurs comme le montrent certaines études (Cockburn et al., 2001). Le Web Forager (Card et al., 1996) est une interface conçue pour organiser une collection de pages HTML. Bien qu'il ne traite pas directement des bibliothèques numériques, les métaphores proposées en sont issues. Cet outil de data mining propose une interface très conviviale et intuitive dans laquelle l'organisation des informations se fait sur deux niveaux différents. Le premier autorise l'utilisateur à regrouper des pages HTML dans une sorte de classeur, les Web Books qui ont l'apparence et la structure séquentielle des livres. Plusieurs outils sont offerts pour pouvoir manipuler ces classeurs, parmi lesquels un outil de feuilletage et une loupe à document pour pouvoir examiner toutes les pages en un coup d' œil (Card et al., 1991). Le deuxième niveau d'organisation concerne le rangement des Web Books. L'utilisateur dispose pour cela de différents « meubles » pour y déposer les livres. Il pourra, par exemple, ranger des livres qu'il n'est pas certain de réutiliser dans un avenir proche dans les étagères alors qu'une collection de pages qu'il utilise souvent pourra rester sur le bureau au premier plan. L'utilisation de telles métaphores (étagères, bureau) permet, d'après les auteurs, de profiter de la mémoire spatiale de l'utilisateur et de la rendre encore plus efficace en se reposant sur les habitudes de rangement que l'on peut avoir dans un bureau réel. Les détails d'implémentation du Web Forager ne sont pas explicités et aucune démonstration n'est plus disponible. Beaucoup de questions se posent quant à son fonctionnement interne. Le point de vue est-il fixe ? Quelles sont les contraintes de positionnement des livres ? L'interaction est-elle fluide ? Néanmoins, les principes décrits par cette interface (la spatialisation des livres, le feuilletage interactif, l'organisation de l'espace de travail) sont une grande source d'inspiration même si nous ne partageons pas cette approche orientée réalité virtuelle très contrainte qui induit une surcharge inutile de l'interface avec des objets réels. Certes, il est important de limiter les mouvements et les actions de l'utilisateur dans une interface 3D sous peine de la rendre inutilisable. Mais certaines métaphores ne nous paraissent pas judicieuses pour permettre un travail efficace sur les livres. Le bureau, par exemple, oblige l'utilisateur à poser les livres à plat, horizontalement par rapport au point de vue. Nous doutons que la lecture soit possible à cause de cette vue en perspective. Un livre positionné perpendiculairement à la direction du point de vue permet une lecture nettement plus confortable. Le Web Forager n'interdit pas de lire verticalement un livre en arrière plan mais la place de choix au premier plan est tenue par le bureau et son plateau horizontal. Avec le Web Book a été proposée la première tentative de feuilletage interactif. Dans le domaine des bibliothèques numériques, cette fonctionnalité est apparue à l'initiative de la British Library en 1998 lors d'une exposition publique sur les livres anciens (Carpenter et al., 1998). La technique a été améliorée dans des travaux plus récents (Card et al., 2004; Chu et al. 2004) par l'adjonction d'une navigation 3D complète. Ces différentes tentatives ne permettent que de lire un livre à la fois. Aucun environnement n'est proposé pour travailler sur plusieurs livres en parallèle. Or le but premier du poste de lecture est de reproduire cette tâche de lecture croisée que l'on effectue couramment sur un bureau réel. Dans l'interface reproduite figure 8(2), la scène 3D est limitée verticalement par un sol. La caméra est fixée en permanence au dessus de ce sol et son champ est fixe. Les fac-similés sont présentés sur un outil spécifique en forme de trépied (sorte de lutrin simplifié). Le livre peut être positionné de manière arbitraire sur le sol, repoussé, tiré ou pivoté par une action de l'utilisateur sur le cylindre au bas du trépied. Cette manipulation s'effectue en temps réel et de manière continue avec un pointeur ordinaire du type souris : deux degrés de liberté suffisent en effet pour déterminer la position du trépied sur le sol. Plusieurs trépieds peuvent ainsi être positionnés sur le plan de travail. Le déplacement d'un trépied peut se voir contraint par la présence des autres si on choisit de détecter les collisions éventuelles de ces objets 3D. Il est également possible de modifier l'apparence du trépied pour permettre l'affichage du livre ouvert. L'action de feuilletage peut alors être simulée de manière assez convaincante par une animation de la circulation de la page courante d'un bord vers l'autre. La destruction du trépied s'effectue par un clic droit sur la partie cylindrique du trépied reposant sur le sol. Il est possible d'imaginer d'autres raccourcis pour l'interaction pour, par exemple, permettre le passage rapide du trépied en premier plan (mode plein écran). Ces raccourcis devraient trouver leur place sur des équivalents de boutons ou de menus sur la base du trépied. Le défilement dans les pages du livre se fait par un clic sur la page courante. Comme pour une fenêtre 2D conventionnelle, le trépied dispose sur son axe vertical d'un « ascenseur » pour accélérer la progression dans le document (représenté figure 8(2) par une boule rouge). L'axe horizontal permet de contrôler le rapport entre la dimension (en pixels) du fac-similé et celle choisie pour le trépied. On réalise ainsi une fonction de zoom indépendante de la position du trépied sur le plan de travail. La taille du trépied lui -même est négociable par le biais d'une poignée spécifique (boule bleue en haut à gauche du trépied). Le design proposé pour le trépied/lutrin de lecture est évidement arbitraire. Pour des raisons de performance du rendu 3D, nous l'avons limité à des primitives géométriques élémentaires, et l'analogie avec une fenêtre conventionnelle est voulue. L'intérêt principal du dispositif, en comparaison aux propositions de (Card et al., 2004) et (Chu et al., 2004), réside dans la possibilité de faire coexister un assez grand nombre de trépieds sur le même plan de travail. Il est également possible de le compléter par des outils de recherche et de navigation dans des collections. La navigation dans les collections est réalisée avec l'aide d'une métaphore d'étagère cylindrique, sorte de roue de Ramelli géante englobant le lecteur. L'objectif de cet outil est de faciliter l'exploration libre de la collection par simple consultation des dos des ouvrages, comme dans une bibliothèque réelle. Le rangement des ouvrages peut tout à fait respecter les règles de bibliothéconomie et les lois de la gravité : classifications thématiques ou par formats, lourdes encyclopédies au « sol », petits in-12 précieux à la hauteur des yeux. Les heuristiques visuelles des habitués des salles de consultation et des librairies restent ainsi opérantes dans la scène 3D. Il est aussi possible d'imaginer que la collection se réorganise à la demande de l'utilisateur. Une organisation cylindrique de la collection permet de répondre par exemple à des requêtes portant sur deux critères d'interrogation (par ex. sur un thème et une époque). Il est en effet possible de classer les titres par ordre de pertinence sur deux axes dans les deux dimensions du cylindre (Cubaud et al., 1998). Le principe peut se généraliser avec des géométries plus complexes, comme des hyper-phères (Topol, 2002), au prix d'une complexification de la navigation dans l'espace de réponses. Un premier démonstrateur basé sur OpenGL a été présenté à des professionnels des NTIC lors des conférences JFT'2003 et ECDL'03. Une audience plus large a été atteinte durant l'exposition grand public Image par image (Montreuil, mars 2003) et les journées nationales Sciences en fête auxquelles le CNAM participe (oct. 2003). A chacune de ces expositions, nous avons installé un poste dédié à l'atelier 3D et un autre pour l'accès au site web du CNUM. La session était limitée par une horloge à quelques minutes et les actions de l'utilisateur étaient enregistrées. Nous avons pu conclure de ces démonstrations que les utilisateurs atteignent vite une certaine aisance dans la manipulation des trépieds de lecture. La fonction de pagination a été bien accueillie du grand public et des bibliothécaires (mais pas toujours par les informaticiens professionnels). Quelques modifications du démonstrateur ont paru nécessaires. L'amplitude de déplacement des trépieds a été bornée : un trépied ne peut pas être plus grand que l'écran ni réduit au-delà d'une taille limite raisonnable. La détection de collision entre les objets a été améliorée, ainsi que l'éclairage et le rendu des ombres. Plusieurs fonctions de notre atelier de visualisation 3D de documents restent à mettre en œuvre. Le démonstrateur actuel n'inclut en effet qu'une collection simplifiée, la création/destruction des trépieds et le feuilletage. Nous entreprenons à cette fin une réécriture complète du logiciel en utilisant un moteur 3D pour jeux vidéos (Dupire et al., 2005). Plusieurs logiciels très intéressants ont en effet été introduits récemment dans l'industrie du jeu vidéo pour s'affranchir des limitations de standard de programmation 3D tels que OpenGL et Java3D. En parallèle aux améliorations logicielles, nous avons débuté des expériences avec un dispositif d'affichage immersif. Travailler avec de multiples documents n'est pas une tâche facile. Avec les documents numériques, les techniques classiques de visualisation et d'interaction sont particulièrement inefficaces comparées à la lecture sur papier (O'Hara et al., 1997). Dans un environnement 3D, les différents livres peuvent être positionnés automatiquement, mis en avant, sans occulter les autres éléments de l'interface, pour être distingués par l'utilisateur. Il a également la possibilité de les placer lui -même et d'organiser ainsi son espace de travail et de mettre à profit sa mémoire spatiale. Dans ce contexte, l'apport essentiel d'un dispositif de visualisation immersif est d'englober l'utilisateur et de monopoliser sa concentration en minimisant les stimuli extérieurs. Un tel environnement immersif permet d'utiliser plus profitablement la « cognition externe », essentielle pour gérer une telle tâche complexe (Scaife et al., 1996). Procurer à un utilisateur une meilleure immersion dans l'espace virtuel 3D nécessite de modifier les conditions de restitution visuelle de celui -ci. (Patrick et al., 2001) a montré que la visualisation d'une scène qui occupe tout le champ de vision de l'utilisateur peut lui apporter une plus grande appropriation cognitive de l'espace virtuel (figure 1). Dans cette perspective, seuls de rares périphériques, comme le casque de réalité virtuelle et les écrans larges, remplissaient les conditions préconisées. Nous avons choisi comme système de visualisation immersif la VisionStation de la société Elumens. La VisionStation est un écran hémisphérique de diamètre 1,5 m couplé à un vidéo-projecteur à lentille modifiée pour fournir une image visible sur un champ de 160 par 160 degrés. L'utilisateur est assis devant une petite tablette qui contient le vidéo-projecteur et sur laquelle peut être placé un périphérique d'interaction. La VisionStation n'est pas seulement un grand écran : un logiciel spécifique est utilisé pour adapter les images de la scène 3D projetée à l'écran hémisphérique. Quatre rendus de la scène doivent être produits simultanément pour que le champ de vision atteigne 160° car une projection conventionnelle produirait des distorsions de perspective. Les quatre rendus doivent être assemblés en temps réel dans une image unique, qui est ensuite déformée sphériquement pour apparaître plane sur l'écran. Le principal inconvénient rencontré dans l'utilisation de la VisionStation comme outil de consultation de documents numériques est la résolution de l'image projetée. Elle est au maximum de 1 024 x 768 pixels (limitation du vidéo-projecteur). Cette résolution reste très satisfaisante pour des applications comme les simulateurs de vol, les jeux vidéo et de manière plus générale, pour l'affichage d'images animées. Par contre, lors d'un travail plus précis sur des documents textuels ou graphiques, la qualité de l'image perçue devient un critère essentiel pour le confort et la bonne compréhension des informations par l'utilisateur (Kasik et al., 2002). Mutter et Maurutto montrent que la vitesse de lecture sur un écran d'ordinateur est proportionnelle à la résolution de l'image affichée (Mutter et al., 1991). C'est dans ce contexte particulier que la VisionStation montre ses limites. On peut en effet discerner à l'affichage le détail des pixels projetés. Ce phénomène constitue un obstacle important à l'utilisation de ce dispositif, dans cette configuration, pour ce type d'application. (Baudisch et al., 2001) a proposé un dispositif composé de matériel courant (un vidéo-projecteur, un écran de projection et un moniteur) permettant de projeter simultanément une vue globale de la scène et une partie de celle -ci à une résolution plus élevée. Ce système a été testé pour la visualisation et le travail informationnel en 2D tel que l'analyse de cartes ou d'images satellitaires. Ce dispositif ne semble pas approprié pour gérer simultanément des contextes différents, la vue détaillée étant inévitablement une partie de l'image globale. De plus, le problème du bruit visuel lié aux écrans traditionnels se retrouve encore un peu dans ce système. Nous avons donc ajouté à notre dispositif un écran plat tactile (TFT 17 pouces). Celui -ci est capable d'afficher des résolutions plus fines que la VisionStation (jusqu' à 1 280 x 1 024). Nous avons envisagé l'utilisation de ce moniteur pour différentes tâches. Il pourrait permettre d'afficher une partie de la scène 3D, qui nécessiterait des conditions compatibles avec un travail sur les documents (confort visuel), ou d'isoler une partie de la scène, permettant une vision précise et plus détaillée de celle -ci. Nous pourrions, d'autre part, permettre à l'utilisateur d'accéder, par cet affichage complémentaire, à des éléments d'interaction non disponibles dans la vue globale. Plusieurs essais-erreurs ont été nécessaires pour obtenir une visualisation satisfaisante des fac-similés d'ouvrages sur la VisionStation. Du fait du pitch important du projecteur, les images de fac-similés sont fortement moirées. Comme l'affichage de la scène nécessite quatre calculs de rendu par trame, un sur-échantillonnage s'avère trop consommateur d'espace mémoire. Une alternative satisfaisante consiste à flouter légèrement les fac-similés et à recourir à du mipmapping pour gérer les transformations dynamiques de textures. Au final, le dispositif fonctionne correctement et est simple d'utilisation (figure 8(3)). Le déplacement dans la scène 3D pour la sélection d'ouvrages fonctionne de manière fluide, malgré la charge de calcul imposée au sous-système de rendu 3D (nous avons eu recours à une carte QuadroFX 3000 sur PC Pentium4 3,2 GHz). La VisionStation, à la différence d'autres dispositifs immersifs comme les casques de visualisation, ne fatigue pas l'utilisateur dans une utilisation longue (on regrette toutefois le bruit de ses ventilateurs !). La visualisation par le deuxième écran offre un plus grand confort quand des informations plus détaillées sur le document désiré sont nécessaires. Bien que l'idée de sélectionner directement les documents, par la main par exemple, soit tout à fait intéressante, la manipulation directe semble impraticable parce que les objets au-delà de la position de l'objectif de projection produisent des ombres sur les images projetées. Un mode plus intuitif de sélection de document reste à définir et fait l'objet de travaux en cours. La numérisation de livres s'effectue en général par prise de vue par le dessus. L'ouvrage est déposé tel quel sur un plateau équilibrant, ou maintenu ouvert à 90° si son état le nécessite. Les déformations des images peuvent ensuite être traitées par logiciel, selon diverses heuristiques : rectification des bords (Brown et al., 2003), des lignes de texte (ex. du logiciel I2S Book Restorer), inclinométrie (Wada et al., 1995; Zang et al., 2004). Bien que tout à fait acceptables pour des ouvrages reliés, modernes et en bon état, aucune de ces techniques ne peut s'appliquer à corriger les artefacts apparaissants sur le fac-similé reproduit figure 2. Il n'existe pas à notre connaissance d'étude de l'impact de ces déformations sur le confort de lecture. Il semble dès lors naturel de chercher à capturer la géométrie de la page par une numérisation 3D. Les premiers travaux en ce sens ont été réalisés dans le cadre du projet Digital Atheneum (Brown et al., 2000), par utilisation du scanner MINOLTA 3D1500. Dans cette technique, un motif lumineux connu, par exemple une grille, est projeté sur la surface, et une prise de vue effectuée sous un angle différent. La déformation du motif sur l'image permet de déduire la surface. La précision obtenue est liée à la finesse du motif. Il existe également des appareils « tout en un », appelés « scanner 3D », constitués d'un laser à balayage associé à un appareil photographique numérique. Il s'agit d'un cas particulier de lumière structurée, où la ligne projetée est générée par le balayage d'un rayon laser (dans un plan perpendiculaire à celui de la figure), elle -même balayant l'objet (dans le plan de la figure). Nous avons pu tester le scanner Minolta VIVID 700, qui fonctionne selon ce principe, sur des exemples de livres anciens. La précision de restitution est très bonne dans les autres zones : inférieure au 1/10e de mm. Un dispositif plus économique a été décrit dans (Brown et al., 2001). Il consiste en un balayage du document par une ligne lumineuse, les images étant successivement photographiées. La précision semble comparable à celle obtenue par laser. La photogrammétrie offre plusieurs avantages par rapport aux techniques de lumière structurée : le couplage entre acquisition de la texture et acquisition de la surface, la séparation totale entre la phase d'acquisition (rapide) et la phase de calcul (lente), la rusticité de l'installation : un matériel photographique standard, orienté approximativement et non étalonné donne déjà des résultats. Si l'on procède à un étalonnage de l'équipement, il est possible d'obtenir directement des informations métriques absolues sur la surface du document (il devient ainsi possible d'exploiter un plan coté, par ex.). En revanche, la photogrammétrie présente deux inconvénients : la nécessité de la présence d'une texture sur le document, qui exclut son utilisation pour des zones uniformes (marges, interlignes, etc.) et le risque de fausse corrélation, qui reste le problème majeur de la photogrammétrie si on l'envisage sans aucun contrôle humain. La prise de vue de document a quelques caractéristiques qui la distinguent des applications plus courantes (photogrammétrie aérienne ou architecturale par exemple). Certains aspects facilitent le processus de reconstruction 3D : l'orientation externe des prises de vue est fixe et connue; l'objet est relativement plat, sans discontinuités ni occlusions dans le cas général, ce qui facilite la corrélation entre les images. Cependant, la mise au point est rapprochée et variable, ce qui rend difficile un étalonnage unique préalable. La forte convergence entraîne de problème de profondeur de champ. Les livres présentent une texture avec une grande répétition de motifs (les lettres dans du texte, traits de gravure dans les illustrations), ce qui présente un danger de fausses corrélations. On trouvera dans (Hass, 2003) et (Cubaud et al., 2004) la description d'une chaîne photogrammétrique qui tient compte de ces spécificités. Dans un logiciel de photogrammétrie, la partie délicate est en effet l'identification des couples de points homologues sur les deux vues. Pour chaque point d'intérêt de la vue gauche par exemple, on cherche à identifier son homologue sur la vue droite par corrélation automatique. La description d'une surface nécessitant des dizaines de milliers de points, le temps de calcul peut devenir rédhibitoire et ceci d'autant plus qu'on cherche une fiabilité (absence de fausses corrélations) élevée. Nous utilisons dans ce logiciel une approche itérative destinée à minimiser ce temps de calcul. En effet, la surface d'une page de livre a des propriétés de continuité qu'il convient d'exploiter : la hauteur d'un point n'est jamais très éloignée de celles de ses voisins. Un premier semis de points est sélectionné sur l'image de gauche. Les points d'intérêt retenus dans l'image sont, classiquement, des « coins » (Ma et al., 2003) : zones de l'image présentant de brusques variations d'intensité dans les directions horizontales et verticales (méthode de Harris). Le calcul de leurs homologues à droite n'est pas très long puisqu'ils sont peu nombreux (environ 60 points). Une approximation de la surface est ensuite obtenue par triangulation des points objets alors calculés. Un second semis de points, quatre fois plus dense, est sélectionné à gauche. Pour chacun d'eux, la surface approximative obtenue précédemment permet de prédire la plage de hauteurs possibles du point objet correspondant. La recherche de l'homologue à droite se fait alors sur un segment « prédicteur », ce qui réduit le temps de calcul de corrélation pour chacun des points. Une surface plus proche de la réalité est obtenue par triangulation entres ces nouveaux points. On recommence ensuite le processus : à chaque boucle, le nombre de points à corréler est plus grand, mais la surface triangulée étant plus précise, l'approximation de la hauteur des points-objets est meilleure, et les segments de recherche sont plus courts. L'algorithme général du logiciel est le suivant : Chargement image et paramètres d'orientation approximatifs repeaterProduction des points d'intérêt à gaucheSélection d'un jeu de points d'intérêtRecherche des points homologues à droiteAffinage de l'orientation et calcul des points-objetsAjout de points à la triangulation jusqu' à nombre de points suffisants Production du fichier VRML, de la texture et de l'ortho-image Sa mise en œuvre représente 5 600 lignes de code Java, sous Windows. Il est complété par une feuille de calcul Excel où sont entrés les paramètres géométriques du banc de prise de vue et les paramètres extrinsèques des caméras, dont on déduit la résolution à attendre du modèle 3D. Un banc expérimental a été monté sur un bâti de prises de vues professionnel. Sur le socle, deux appareils photographiques (Konika Digital Revio KD500Z et Canon PowerShot S45, 4Mpix) ont été fixés à l'aide de deux « bras magiques » et visent le document à 30° par rapport à la verticale. Le banc est équipé de quatre projecteurs tungstène, deux de chaque côté, orientés à 45°. La résolution attendue est de l'ordre de 0,1 mm. Nous avons fait l'impasse sur l'étalonnage des appareils. Celui -ci aurait nécessité une petite étude à part entière, en particulier la réalisation d'un objet étalon aux dimensions parfaitement connues. Cet aspect n'a pas été jugé prioritaire, dans la mesure où l'on peut faire de la restitution 3D non métrique (c'est-à-dire à un facteur d'échelle près) en se passant des paramètres d'orientation interne (focale et coordonnées du point principal d'autocollimation). Dans les faits, une échelle approximative est déterminée par l'entrée manuelle dans le logiciel de la longueur de la base stéréoscopique, mesurée au double-décimètre. En ce qui concerne la distorsion, sa non-prise en compte (même si celle -ci est prévue dans le logiciel) conduit à rechercher chaque point homologue non plus strictement sur un segment, mais sur une plage autour de ce segment, ainsi qu' à une légère erreur dans le positionnement des points-objet. Trois ouvrages anciens ont été utilisés pour l'expérimentation, dans chacun desquels nous avons numérisé une ou quelques doubles pages (voir figure 3 pour un exemple). Les clichés ont été utilisés en niveaux de gris, tel quels dans un premier temps. Il s'est cependant révélé nécessaire d'effacer le fond (le plan de travail), pour éviter les recherches de corrélation inutiles. Dans le cas d'une page de texte, le détecteur de coins de Harris fournit une grande quantité de points d'intérêt assez bien répartis. Dans le cas d'une gravure, de grandes zones sont dépourvues de points d'intérêt. Il faudrait ajouter des points par simple détection de gradient horizontal. D'autres méthodes sont encore à évaluer (Schmidt et al., 2000). On compte quelques dizaines de fausses corrélations parmi des milliers de points. Celles -ci sont cependant très gênantes, car elles provoquent des aberrations desurface inacceptables. À l'exception de rares cas, les fausses corrélations se concentrent sur les zones contenant des lignes, contours et motifs répétitifs (figure 4) parallèles à la base stéréoscopique. Dans ce cas, le segment de recherche leur est parallèle et l'ambiguïté dans l'identification de l'homologue est grande. Ce problème peut être contourné par une rotation du document. Les bords de page posent également problème du fait de l'absence de texture. La triangulation produite (figures 5 et 6) est calculée en moins de 5 min. sur un ordinateur de type Pentium IV cadencé à 2 GHz. Ce temps devrait pouvoir être considérablement diminué par optimisation de l'algorithme, ne serait -ce que par sa parallèlisation. Nous ne nous sommes pas penchés sur cet aspect. La robustesse, qu'il s'agisse d'éviter les fausses corrélations ou bien de les supprimer a posteriori, peut être considérablement améliorée par un certain nombre de techniques. Ceci constitue un sujet pour une étape ultérieure de ce travail. Parmi ces techniques, citons l'introduction : d'une troisième image, d'une corrélation croisée : l'homologue de l'homologue d'un point doit être ce point lui -même (Ulges et al., 2004), d'une fenêtre de corrélation adaptative, c'est-à-dire tenant compte de la surface approximative locale déjà calculée, de contraintes sur les vecteurs normaux de la triangulation, afin de tenir compte des éventuelles propriétés de continuité et de dérivabilité de la surface. A partir de la connaissance de la surface 3D du document numérisé, on peut tenter de le mettre à plat. C'est utile pour les manuscrits reliés, pour lesquels les heuristiques de rectification de lignes de textes sont inopérantes (registres paroissiaux, ou manuscrits d'auteurs importants, par exemple). C'est historiquement la première application envisagée pour la numérisation 3D (Brown et al., 2000). Les progrès effectués en matière de visualisation 3D temps réel permettent toutefois de s'affranchir de ce procédé et d'offrir à l'utilisateur une interface de consultation purement 3D. Celle -ci rendrait ainsi possible la mesure de la taille réelle d'éléments graphiques présents sur le document, au gré de l'utilisateur. Dès lors que l'objet livre devient lui -même centre d'intérêt, la mise à plat devient de toute manière insuffisante. On peut citer ainsi les livres d'artistes, avec souvent de nombreux collages superposés, les herbiers et, bien sûr, les livres à systèmes 2. Ces livres ont comme particularité d' être agrémentés, voire construits autour de systèmes articulés (parties mobiles) de pièces de papier. De tels ouvrages procurent une expérience de lecture allant beaucoup plus loin que le simple parcours du texte et des illustrations. Les domaines investis par les livres à systèmes vont du ludique jusqu'aux ouvrages scientifiques et techniques (notamment en astronomie et en anatomie), pour lesquels les dispositifs sont réalisés à des fins pédagogiques. Nous prendrons comme exemple un texte de l'ingénieur de la Renaissance Salomon de Caus, consacré à la gnomonique. La page reproduite figure 8-1 inclut un modèle en papier de gnomon. Il est composé de deux plats posés initialement l'un sur l'autre. Le plus petit plat, qui représente le stylet du gnomon, doit être levé en premier. Le grand plat se lève ensuite en glissant le stylet dans une échancrure située sur le bord du grand plat. Une fois le modèle construit, le lecteur doit placer le livre au soleil, l'orienter dans la direction est-ouest et, grâce à l'ombre du stylet, lire l'heure solaire sur les graduations latérales. La numérisation de tels ouvrages est très intéressante dans un contexte de préservation du patrimoine et d'augmentation de l'accessibilité, en particulier vers le grand public. En effet, ces livres souvent très anciens sont fragilisés par les effets conjugués du temps et des manipulations répétées des systèmes en papier. Recréer virtuellement de tels ouvrages permettrait d'assurer à la fois leur diffusion vers des publics nouveaux, de faciliter leur accès pour un public déjà expert et d'assurer leur préservation. Devant la grande diversité des systèmes existants (qui n'a de limite que l'imagination des « ingénieurs papier » 3), nous avons proposé une première différenciation. Celle -ci se base sur les propriétés interactives des dispositifs. Ainsi, nous avons dégagé deux grands ensembles de systèmes animés (voir tableaux 1 et 2). D'une part, nous considérons ceux qui ne nécessitent aucune action spécifique du lecteur pour être activés. Le fait d'ouvrir le livre ou de tourner la page est le prérequis nécessaire et suffisant à leur déploiement. Dans cette catégorie viennent se ranger tous les livres connus sous le nom de « pop-up books », mais aussi les carrousels et les peep-shows. Nous avons regroupé, d'autre part, ceux qui demandent une interaction particulière pour être animés. Nous sommes généralement en présence de systèmes moins globaux, plus discrets, comme les tirettes, roues ou volets, dont les particularités sont développées dans le tableau 2. Ces systèmes constituent en outre les briques de base à d'autres systèmes plus complexes comme ceux présentés, par exemple, dans le tableau 3. Les types de livres animés Pop-up Livre en relief, dont les scènes ou éléments se déploient lors de l'ouverture des pages . Caroussel Livre s'ouvrant à 360°, et présentant une histoire en relief à la manière d'un manège . Peep-show (tunnel book ) Livre se déployant en profondeur, permettant de voir une scène en perspective, grâce aux différents plans illustrés qui le composent, donnant cette impression de « tunnel » Les systèmes élémentaires Volet Pièce de papier fixée à la page en un point et qui dévoile, lorsqu'elle est soulevée, le texte et/ou les images cachés dessous . Tirette Languette de papier qui, lorsqu'elle est tirée/poussée, entraîne l'animation d'autres pièces de papier de la page . Roue Disque de papier, souvent inséré dans l'espace de deux pages consécutives collées, actionné directement par une ouverture sur le bord des pages, permettant de modifier le contenu d'une fenêtre découpée sur la page courante Exemples de systèmes composés Métamorphose Système fonctionnant sur le même principe que les stores vénitiens. En déplaçant une languette de papier, on fait apparaître 2 images différentes . Volvelle Disques de papiers, concentriques, pouvant être manipulés indépendamment les uns des autres, permettant d'obtenir une information ou une image différente en fonction de leurs positions relatives . Harlequinade Illustrations repliées les unes sur les autres, permettant de modifier la scène de départ lorsqu'elles sont dépliées, faisant ainsi avancer l'histoire Cela ne signifie pas que l'interaction avec les systèmes de cette dernière catégorie soit plus simple, bien au contraire. Ce sont souvent ces systèmes qui vont demander des outils et/ou métaphores de manipulation plus élaborées dans l'interface de consultation (déplacements de la caméra, rotations du livre pour aborder tel ou tel angle, etc.). La virtualisation des livres à systèmes se décompose en plusieurs étapes. La phase de numérisation des pages, tout d'abord, comprenant l'habituelle numérisation du texte et des illustrations, à laquelle s'ajoute la numérisation spécifique des systèmes. Vient ensuite la phase de reconstruction, qui consiste à modéliser le livre, ses pages ainsi que les différents systèmes. La complexité des systèmes déterminera si il est nécessaire de les démonter, afin d'en extraire de manière sûre toutes les parties constituantes, ainsi que la configuration interéléments (mécanisme). Ce processus peut être simplifié si l'on décide de ne pas copier strictement le fonctionnement interne des systèmes. Deux options sont envisageables pour la reconstruction. Nous pouvons, d'une part, choisir de reconstruire toutes les parties du système, si elles présentent un intérêt d'un point de vue de l'ingénierie (ingéniosité d'un système par exemple). L'objet final sera une copie stricte de l'original : tous les mécanismes, même ceux qui sont invisibles, dissimulées dans l'épaisseur de la double page, leurs articulations et leurs effets seront préservés. Leur intégration se fait grâce à l'utilisation d'un moteur physique (par ex. Karma, Ode, etc.) dans l'environnement de consultation. Celui -ci permet de gérer un tel système articulé contraint. Les positions de chaque partie seront donc calculées, en temps réel, en fonction des actions de l'utilisateur. Nous pouvons, d'autre part, décider que ces mêmes mécanismes sont d'un intérêt négligeable et que leur numérisation n'apporterait aucune plus value à la consultation du livre. Seules les parties terminales (actionneur et actionné) doivent donc être prises en considération. Cette seconde option permet de s'abstenir de la reconstruction des structures cachées de la chaîne cinématique. D'un point de vue fonctionnel, la perte d'information (liens entre les parties du système) devra être compensée. Ceci peut être réalisé par différentes méthodes qui seront choisies selon la complexité des cas. La première technique consiste à copier les mouvements complets des parties mobiles et visibles des systèmes, en créant des animations des modèles 3D des systèmes. L'infographiste détermine et enregistre dans un fichier lié au modèle un nombre de positions clés caractéristiques du mouvement (key frames). Lors de la consultation, le système est capable de calculer, en temps réel et par interpolation, toutes les positions transitoires entre deux de ces positions-clés. Cette méthode est à privilégier lorsque les systèmes sont structurellement complexes et/ou que leurs mouvements sont difficilement décomposables en déplacements élémentaires (rotations, translations). L'inconvénient majeur de l'utilisation de fichiers d'animations est qu'ils sont spécifiques à une instance particulière d'un système (généralement inapplicables à d'autres systèmes) et que le travail d'infographie est proportionnel au nombre de systèmes. La seconde technique est à prescrire dans le cas d'animation de systèmes élémentaires ou de systèmes plus complexes dans lesquels des systèmes élémentaires sont facilement identifiables et pour lesquels la décomposition en mouvements simples est possible. Les systèmes de base, ainsi que leurs possibilités de déplacements, étant identifiés, le travail consiste à spécifier le type du système, ainsi que les bornes (amplitude) du mouvement et à lier ces métadonnées au modèle 3D, sous la forme d'un fichier texte structuré. Le système modifiera en temps réel, par des animations procédurales élémentaires, la position des parties manipulées en respectant les contraintes spécifiées dans les métadonnées. Cette solution est, de loin, celle à privilégier puisque c'est la plus générique et qu'elle ne nécessite pas de compétence spécifique d'infographiste. Pour ce faire, une description de la structure de la page et des systèmes liés reste indispensable pour stocker les informations d'interdépendance entre les parties et les fonctionnalités associées. Nous avons choisi de spécifier ces informations au travers d'un langage orienté objet (voir figure 7). Chaque type de système est représenté par une classe dérivée introduisant une forte sémantique. Ces différentes classes comportent des méthodes permettant d'opérer les actions spécifiques au type de système représenté. Chaque système d'une page est une instance d'une de ces classes. Tout système ainsi modélisé dérive d'une classe introduisant les transformations géométriques les décrivant. A ce niveau d'abstraction, on peut distinguer deux types de systèmes mettant en œuvre respectivement : une translation, caractérisée par une contrainte d'amplitude maximale et par son état courant, une rotation, caractérisée par un angle maximum (le cas échéant) et par sa valeur courante. Une classe de base commune à tous les systèmes rassemble les informations géométriques et hiérarchiques : la position du système dans le repère local du système père auquel il est rattaché, l'axe de rotation ou de translation du système, les informations pour savoir si un système peut être manipulé par l'utilisateur ou pas (isMovable) et s'il se trouve dans sa position finale ou pas (isActive), les références des systèmes attachés (les systèmes fils). Cette classe de base permet de construire un graphe de dépendance des différents systèmes. Tout système fils ne peut être activé que si le système père est activé. Tous les systèmes situés à un même niveau dans cette hiérarchie pourront être manipulés indépendamment les uns des autres. Ce mécanisme simple permet de définir les systèmes parallèles ou séquentiels. A chaque page d'un livre à système sera également associée une liste de systèmes présents sur cette page. Les méthodes de cette classe de base permettent d'effectuer les actions réalisables sur un type particulier de système. Nous avons modélisé le modèle de gnomon extrait de La pratique et démonstration des horloges solaires dont la reproduction virtuelle est donnée dans la figure 8(1) droite. La page est donc la racine de la hiérarchie d'objets, suivie du petit plat et enfin du grand plat. L'accès, pour l'utilisateur, au dernier niveau de cette hiérarchie (grand plat) en termes d'interaction, est conditionné par le déploiement complet du niveau précédent (petit plat). L'interaction avec les livres à système dans des environnements de lecture présente un niveau d'interaction supplémentaire par rapport aux livres « simples ». Celle -ci hérite en effet des possibilités de ce dernier (sélection, manipulation, suppression, feuilletage, etc.), auxquelles s'ajoutent les actions spécifiques sur les pages présentant des systèmes. Nous avons proposé dans (Cubaud et al., 2005) un langage de description hiérarchique permettant de traduire ces contraintes inter-éléments, qui sont le plus souvent des blocages. Dans une approche globale de la page d'un livre à système, il est donc nécessaire de pouvoir distinguer clairement les parties pouvant être manipulées (mobiles) des éléments fixes. Ce processus doit être réalisé de manière à ne pas surcharger la page qui contient elle aussi des informations (textes, images). Par exemple, l'utilisation de widgets 3D inadaptés peut avoir pour conséquence de masquer des informations situées sur la page du livre (en lecture simple). En outre, la nature de ces nouvelles interactions varie selon les systèmes rencontrés (soulever un volet, tirer une languette, etc.). Le lecteur doit pouvoir identifier efficacement quelle(s) action(s) sont réalisables sur le système qu'il considère. Ces interactions peuvent, par ailleurs, être combinées entre elles dans le cas de systèmes hiérarchiques, dans lesquels une partie du système en contraint une autre. Nous avons donc porté une attention toute particulière à assister les fonctions de sélection et manipulation des systèmes. La fonction de sélection d'un système doit se distinguer de l'interaction globale avec la page, qui est sémantiquement liée au feuilletage. Ainsi, l'accès au mode de sélection se fait de manière spécifique et différencié des commandes utilisées pour tourner la page. La difficulté suivante est liée au fait que le lecteur peut ne pas connaître a priori les systèmes qu'il peut sélectionner (l'ensemble fini des parties avec lesquelles il peut interagir sur la page). Nous avons donc implanté un mode de mise en valeur de l'ensemble les systèmes disponibles sur une page donnée. De cette manière, le lecteur peut savoir avec quelles parties de la page il va pouvoir interagir. Ce mode est accessible durant la phase de sélection ou indépendamment de celle -ci. Dans le premier cas, cohabitent sur la page les indicateurs de systèmes « sélectionnables » et de système « sélectionné ». Dans le même ordre d'idée, une assistance à la manipulation des systèmes s'est avérée être nécessaire. Elle se décline à deux niveaux : le premier niveau d'aide permet d'indiquer au lecteur quel est le type de transformation que peut subir un système donné (translation ou rotation) et d'induire ainsi l'action correcte via le périphérique matériel utilisé (gant de réalité virtuelle, stylet, doigt sur un écran tactile, etc.). Le second niveau permet de supplanter l'interaction fine avec l'utilisateur en automatisant le déplacement du ou des parties d'un système donné. On peut ainsi voir un système complexe se déployer entièrement suite à une simple commande (idée du raccourci). Ces différentes dispositions sont accessibles pour la totalité des systèmes que nous connaissons et permettent de guider plus efficacement le lecteur dans sa découverte du livre. La montée en puissance des système d'affichage et des connexions internet haut débit permettent d'espérer que l'accès aux bibliothèques numériques devienne dans un futur proche as easy as a game (Christoffel et al., 2002). C'est d'autant plus nécessaire que se développent en ce moment des initiatives de numérisations massives, à l'échelle mondiale. Pourtant, les bibliothèques numérisées, dans leur état présent, semblent souffrir d'un « moiré généralisé ». Un grand soin est en général pris dans la numérisation des textes, mais on ne prête pas assez attention au médium sous-jacent (le livre), à son environnement physique (la bibliothèque), ainsi qu'aux gestes et aux démarches des lecteurs. Passer de l'interface textuelle unidimensionnelle au volume, comme les technologies 3D temps réel l'autorisent dès à présent, pourrait permettre d'élargir le flux de communication entre les bibliothèques numériques et leurs usagers. Nous avons présenté dans cet article une synthèse de nos contributions à ce domaine. La première est un poste de lecture et de recherche qui est issu de travaux débutés en 1998. Cette interface rassemble dans un même environnement la collection et les livres ouverts pour la consultation. Ainsi, il est possible de remplir les deux tâches essentielles lors de l'appropriation d'un corpus : trouver par des heuristiques visuelles les textes d'intérêt et les parcourir. Notre prototype actuel intègre un feuilletage interactif des ouvrages, par le biais d'une métaphore d'interaction appelée lutrin. Les fac-similés de pages sont modélisés dans le lutrin par de simples faces 3D. Le feuilletage ne peut se faire que page par page, à l'aide de rotations de 180° autour de l'axe du lutrin. Les animations produites sont irréalistes puisque le maillage des pages ne subit aucune déformation lors du feuilletage. Une partie des développements en cours a pour but de rendre ce feuilletage plus réaliste comme cela a déjà été proposé dans (Card et al., 2004; Chu et al., 2004). Pour cela, les maillages représentant les pages seront fabriqués à l'aide de patches de Bézier dont l'intérêt est de permettre le réglage adaptatif des niveaux de détail. Un autre aspect, sans doute plus important à étudier, est le défilement accéléré des pages pour permettre une recherche visuelle rapide. Quelle que soit la manière de modéliser la page, elle n'apparaîtra qu'en deux dimensions (sur la face unique ou le long du patch de Bézier). La texture seule ne pourra en aucun cas donner des informations de relief. Or, pour les ouvrages anciens reliés, ce relief peut avoir son importance. Nous avons présenté une technique de reconstruction 3D adaptée à la capture de ce type de relief. L'objet-livre ainsi reconstruit pourra être naturellement reproduit dans l'environnement de lecture 3D que nous avons présenté, mais le feuilletage reste dans ce contexte à étudier. La numérisation classique ne permet pas non plus de traiter les livres à systèmes qui sont constitués de plusieurs parties articulées. Nous avons donc développé les briques de bases d'un modeleur spécialisé et il faudra enrichir les fonctionnalités de l'environnement de lecture 3D pour ce type d'ouvrage. Au-delà, nous souhaiterions étudier comment décrire dans un formalisme commun toutes ces métadonnées décrivant la matérialité des ouvrages. Il reste enfin à comparer, dans un cadre expérimental commun, les procédés proposés par les différentes équipes qui contribuent à ce thème de recherche. Les appels en ce sens comme (Chen et al., 2002) sont donc bienvenus, mais il faudra sans doute pour cela élaborer un corpus type (comme ceux utilisé en traitement automatique de la langue, ou de l'image numérique). Viendra ensuite la comparaison des pratiques de lecture sur les différents systèmes .
Les interfaces des bibliothèques numériques d'aujourd'hui ne transcrivent qu'une partie des activités qu 'effectue un usager de bibliothèque. Nous présentons dans cet article quelques expériences visant I) à étudier l'intérêt de métaphores d'interaction 3D pour la lecture et la navigation dans de grands corpus textuels numérisés, 2) à permettre l'acquisition de métadonnées décrivant l'aspect physique des ouvrages.
sciencesInfo_07-0417635_tei_DN_092_0083.tei.xml
termith-420-communication
Notre réflexion sur le non-usage de l'internet est née il y a environ une dizained'années en collaboration avec Graham Thomas et Tiziana Terranova alors que celui -ciet les premiers sites web en « .com  » étaient en pleine expansion (Wyatt, 1999). À la fin des années 90 etau début du XXI e siècle, la fracture numérique avait étél'objet de vastes enjeux politiques. Les décideurs politiques s'intéressaient auxindividus, aux groupes sociaux et aux pays qui commençaient à connaître l'exclusionsociale, politique et économique, produite par l'absence de connexion numérique .Mais dès la fin des années 90, des données sont apparues montrant que le non-usagede l'internet n'était pas toujours perçu comme un problème par ceux qui n'y avaientpas accès et relevait parfois d'un choix (Katz, Aspden, 1998). Souhaitant remettreen question la doxa qui présuppose que chacun serait unusager en puissance, nous avions choisi comme point de départ de nous démarquer del'idée dominante soutenant que le non-usage devrait toujours être perçu comme unmanque et/ou un problème à résoudre. Nous cherchions également à comprendre lasignification du non-usage de l'une des technologies majeures du XX e siècle dans les études scientifiques et techniques (Science and Technology Studies) et, plus généralement, dans les étudesconcernant les nouveaux médias. La première partie de cet article résume ce travailpionnier sur le non-usage. Dans une seconde, nous reprendrons cette question demanière plus empirique. Nous examinerons le cas de personnes cherchant desinformations sur la santé .Mobilisent-elles à cet effet l'internet et comment s'y prennent-elles ? Nousconclurons en présentant les termes d'un débat ouvert par des recherches récentessur le non-usage. À la fin des années 90, le non-usage de l'internet était perçu comme une questionpolitique majeure et de nombreux débats à ce sujet ont été nourris parl'hypothèse selon laquelle le non-usage ou l'absence d'accès était un manque àcombler .Ainsi, en mars 2000, la réunion des chefs d' État ou de gouvernement de l'Unioneuropéenne de Lisbonne avait-elle été baptisée « Sommet dot.com  », traduisantune prise de conscience de l'importance économique de la technologie del'information et de la communication en général et de l'internet en particulier .L'objectif du Sommet était de réfléchir à l'accroissement de l'usage via la promotion de l'esprit d'entreprise, de lacompétitivité et d'une économie dynamique fondée sur les connaissances. Chacunétait présumé être un usager potentiel. L'accès à la technologie étaitnécessaire et souhaitable, son augmentation devenant le défi politique à releverafin de donner corps à son potentiel économique. Certains chefs d' État ontexprimé de vives inquiétudes, craignant le développement d'inégalités socialessi la « fracture numérique  » devait augmenter. De telles préoccupationsconcernant l'exclusion sociale, louables au demeurant, sont toutefois fondéessur l'hypothèse que les « nantis  » numériques seront dans une meilleuresituation socio-économique que les « laissés pour compte  ». Comme le souligneDavid Neice (2002  : 67), « ceux qui luttent pourl'élimination de la “fracture numérique” croient tout simplement que l'accès à[ l' ]internet est toujours préférable à l'absence d'accès  ». Les raisons quipoussent les promoteurs privés de produits et des services en ligne à mettre enavant l'internet comme media universel sont évidentes, celles émanant deresponsables politiques sont moins claires. Le Sommet européen de mars 2000 est un exemple parmi d'autres du constat queferaient les politiciens et décideurs selon lequel le problème serait le manqued'accès à l'internet. Dans cette perspective, de nombreuses mesures ont étéprises pour que soient réduits des coûts et la facilitation d'accès aux systèmesd'éducation et de formation. Il était supposé qu'en surmontant les freins àl'usage, les populations pourraient adopter la technologie sans réserve. L'accèsà l'internet constitue nécessairement un bienfait, voire plus encore. Les hommespolitiques espéraient que les populations utiliseraient leurs connaissances del'internet et celles provenant du réseau pour créer de la richesse et del'emploi et devenir des citoyens actifs, tout en sachant qu'ils pourraientégalement l'utiliser pour – par exemple – visionner des productionspornographiques ou pratiquer des jeux. Au cours des quinze dernières années, la vie quotidienne a fait l'objetd'attentions particulières dans les études sur les technologies (Bakardjieva ,Smith, 2001; Lie, Sørensen, 1996; Silverstone, Hirsch, 1992; Oudshoorn ,Pinch, 2003). Plutôt que de focaliser les recherches sur les sites de créationet sur les usages professionnels des technologies, les chercheurs se sont plusparticulièrement intéressés aux pratiques quotidiennes au cours desquelles lesusages et les significations sont discutés par des personnes « ordinaires  » .Les usagers n'ont plus été perçus comme de simples récipiendaires passifs de latechnologie, mais comme des acteurs importants et actifs dans le façonnement etla négociation du sens de la technologie. Ce qui est significatif tant pour lacompréhension des processus de conception que pour la relation existant entrel'identité des technologies et leurs usagers. Inclure les usagers permet desurmonter les problèmes inhérents aux approches scientifiques, techniques et auxétudes d'innovation qui privilégient la place d'acteurs puissants dans laproduction des technologies comme les chercheurs, les ingénieurs, les hommespolitiques et les financiers. Les usagers s'immiscent de plus en plus dans lesétudes technologiques pour contrebalancer la place prise par les producteurs ,laquelle est présente dans une grande partie de la littérature scientifique ,même si toute catégorie provoque des exclusions. Rétablie par la reconnaissancede l'importance de l'usage et des usagers, la dialectique existant entreproduction et consommation peut toutefois faire surgir un autre problème. Eneffet, focaliser l'attention sur l'usage signifie l'acceptation implicite despromesses de la technologie et des relations capitalistes de sa production. Parconséquent, les usagers devraient être appréhendés en relation avec un autregroupe, moins visible, celui des non-usagers. À la fin des années 90, les rares études portant sur le non-usage ont identifiécomme raisons majeures de celui -ci le coût (du matériel informatique de même quecelui de la maintenance et de l'accès) et le manque de besoin ou d'intérêt( CyberDialogue, 2000). Sur la base de deux enquêtes téléphoniques nationalesaléatoires menées aux États-Unis, James Katz et Philipp Aspden (1998) suggèrentl'existence de figures du non-usage. Les personnes ayant cessé l'usage del'internet étaient plutôt pauvres et peu diplômées. Celles ayant été initiéespar l'intermédiaire d'un membre de la famille ou d'amis sont plus susceptibles« d'abandonner  » que celles qui ont appris par elles -mêmes ou qui ont reçu uneformation spécifique au travail ou à l'école. Les adolescents sont davantagesusceptibles d'abandonner que les individus âgés de plus de vingt ans. Lesmotifs « d'abandon  » varient en fonction de l' âge. Les personnes plus âgées seplaindraient volontiers du coût et des difficultés d'utilisation rencontrées ,tandis que les plus jeunes arrêteraient suite à une perte d'accès ou par manqued'intérêt. James Katz et Philipp Aspden ont attiré l'attention sur cettecatégorie importante de non-usagers. Bien que restant dans une approchefonctionnaliste, leurs justifications du non-usage mettaient l'accent sur desquestions de coût et d'accès. Le recours au terme « abandonniste  » est plutôtpéjoratif, et suggère que l'usage serait préférable au non-usage. Commel'affirme Ronald Kline (2003), aborder la résistance à la technologie dans uneperspective fonctionnaliste conforte les interprétations des promoteurs de sonsuccès. Dans son étude sur la résistance au téléphone et à l'électrification auxÉtats-Unis au début du XX e siècle, il définit la résistancedu point de vue des acteurs contemporains et démontre comment celle -ci peutelle -même induire un changement social et technique. Plusieurs catégories de non-usage sont à différencier. Comme le souligne MartinBauer (1995  : 14-15), une différence existe entre « comportement d'évitement  »passif et résistance active. De même, il faudrait distinguer le non-usage del'ensemble du système technologique (comme l'internet) du non-usage d'aspectsparticuliers (Miles, Thomas, 1995  : 256-257). Dans une précédente taxinomie ,nous avons identifié quatre types de non-usagers (Wyatt, Thomas, Terranova ,2002  : 36). Nous sommes parvenu à deux dimensions dont la première distinguaitle non-usage volontaire de celui involontaire, et la seconde qui opposait lesindividus n'ayant jamais eu un accès à l'internet à ceux qui en avaient déjà euun et l'avaient perdu pour une raison ou une autre. Cela a permis d'identifierquatre catégories  : les résistants, les « abandonnistes  » (rejectors), les exclus et les expulsés. Les résistants n'ont jamais euaccès et ne l'ont jamais souhaité. Les « abandonnistes  » ont essayé mais ontvolontairement renoncé. Les exclus n'ont jamais eu d'accès internet, là encoresans que cela relève de leur propre choix. Les expulsés ont eu un accès àl'internet mais l'ont perdu, après avoir terminé leurs études ou changé detravail; une perte ne relevant certainement pas d'un choix volontaire. Lesexclus et les expulsés sont les catégories à destination desquelles lespolitiques et les pourvoyeurs de technologie orientent leurs arguments. Nousestimions que les résistants et les abandonnistes étaient ignorés quand bienmême étaient-ils importants à plus d'un titre. Même si l'on accepte l'idée selonlaquelle l'inclusion numérique déboucherait d'une façon ou d'une autre surl'inclusion sociale, l'analyse des raisons pour lesquelles certains individusn'utilisent pas les technologies numériques pourrait éclairer notablement lesresponsables politiques et les fournisseurs. Peut-être que les non-usagerstrouvent les applications actuelles ni utiles ni agréables, alors que desapplications futures – non encore découvertes – pourraient les entraîner dans lasphère numérique ? À ce titre, les non-usagers peuvent-ils également modeler lestechnologies du futur ? Toutefois, les résistants et les « abandonnistes  » sontplus importants par le défi qu'ils lancent à l'impératif technologique (Ellul ,1964, 1980; Uitonen, 2003), voire à l'impératif numérique et à l'idée qu'ilexisterait une seule logique numérique pour tous les individus, lesorganisations et les pays. En d'autres termes, les personnes qui choisissent dene pas utiliser des technologies numériques rappellent que les choses « peuventavoir été autrement  » (Bijker, Law, 1992  : 3). Elles témoignent aussi du faitque, dans certains cas, l'exclusion numérique ne signifie pas toujours exclusionsociale. Dès que l'on inclut « l'ancien usager  » comme « l'usager actuel  » et « celuiqui n'a jamais été usager  », la notion « d'usager  » s'en trouve déconstruite .Que signifie exactement être usager ? Est-il possible de distinguer non-usagerset non-possesseurs ? La fréquence d'usage, les moyens d'accès et l'éventail desservices utilisés sont des considérations importantes pour la conceptualisationde l'usage de l'internet. L' « usager  » de l'internet doit être conceptualiséselon un continuum qui présente des variations dansl'intensité et les formes de participation. Les différentes modalités d'usagedevraient être appréhendées selon les types d'usagers, mais aussi en relationavec la diversité des trajectoires temporelles et sociales. Ces dernièrescomprennent les changements de mode de vie déterminés par des processus tels levieillissement, le changement de travail, les études et la mobilitégéographique. L'usage de l'internet englobe non seulement divers types d'usage ,mais aussi la possibilité d'inverser et de changer la direction des figuresd'usage individuelles et collectives. Outre les variables démographiqueshabituelles, des précisions sur la fréquence et la nature de l'usage aideraientà brosser un tableau plus complet des multiples usages et usagers. De nombreuxauteurs ont souligné les façons dont les producteurs et les concepteurs detechnologie dépeignent l'usager singulier comme indifférencié ou la pluralitéd'usagers comme groupe homogène dans la « e-methodology  », adoptant eux -mêmes le paradigme de l'usager (Lindsay ,2003). Incorporer de la sorte une variété de non-usagers permet égalementd'obtenir une description et une analyse plus subtiles de la multiplicité desusagers. La reconnaissance de l'existence des non-usagers amplifie certains problèmesméthodologiques dans l'analyse du changement social et technique. Nous avonsdéjà mentionné l'importance d'inclure les usagers dans les études technologiquesafin d'éviter les pièges consistant à suivre seulement les acteurs puissants .Une autre façon de les éviter est de considérer les non-usagers et les anciensusagers comme des groupes sociaux pertinents, comme des acteurs qui pourraientexercer une forte influence. Mais il faudra faire face à d'évidentes difficultésde méthode liées au repérage des non-usagers. Ceux -ci pourraient constituer ungroupe peu cohérent, chacun ayant peut-être des raisons fort différentes de nepas utiliser l'internet. Ce groupe invisible exprime à nouveau les difficultésposées par une surinterprétation de la maxime « suivez les acteurs  » (Latour ,2005). Pour la partie suivante, nous avons suivi des personnesqui, s'informant sur leurs problèmes de santé et les traitements possibles, ontessayé d'utiliser l'internet. Une grande partie de la littérature scientifique de la fin des années 90 et dudébut des années 2000 portant sur la fracture numérique – nos travaux compris –est restée à un niveau abstrait, se focalisant sur l'usager générique ou idéalsans examiner les pratiques quotidiennes de recherche d'information desindividus et la façon dont l'internet était intégré ou pas dans celles -ci .Conformément à l'approche des usages et des usagers mentionnée ci-dessus, nousnous sommes aussi engagé dans l'étude des usages et des usagers dédiés à larecherche d'informations médicales. Notre approche est pleinement placée sousles auspices des travaux de Pierre Bourdieu (1977, 1984) et de Michel de Certeau( 1984) en prenant en charge à la fois la nature symbolique et matérielle desartefacts et leurs rôles dans la production de relations sociales. Nouspartageons leurs préoccupations sur l'inégalité et sa reproduction de même quesur la perception de la nature active de la consommation et les possibilités derésistance que les individus peuvent exercer dans leur vie. Dans les pages quisuivent, nous nous intéresserons aux différences générationnelles et de genre ,telles qu'elles s'inscrivent dans les pratiques quotidiennes de l'usage del'internet. Dans la lignée de Sherry Turkle (1995) et de Maria Bakardjieva (2003), nosrecherches ont démarré par l'usage individuel de l'internet. Alors que ceschercheurs se sont concentrés respectivement sur la manière dont les individusutilisent l'internet pour les jeux et les processus de familiarisation, nousavons cherché à savoir si et comment, dans les pratiques quotidiennes ,l'internet était mobilisé pour recueillir des informations médicales .Reconnaissant que les individus disposent d'un large éventail de sourcesd'informations, comme les médias de masse, les professionnels de santé, lafamille et les amis, notre étude interroge la manière avec laquelle l'internets'inscrit dans ces paysages informatifs et comment il s'intègre dans lespratiques changeantes des individus. Cette recherche s'appuie sur le cas d'hommes et de femmes résidant dans lesud-est de l'Angleterre et qui cherchaient à s'informer sur des questions desanté liées au vieillissement, plus particulièrement sur le défaut d'érectionmasculine et la ménopause ainsi que leurs traitements les plus courants que sontle Viagra et la ths (thérapie hormonale de substitution). Ménopause etdysfonctionnement érectile ne sont ni des problèmes aigus ni des problèmesmettant en jeu le pronostic vital, les symptômes pouvant durer longtemps. Ainsiles personnes touchées disposent-elles de temps pour s'informer sur leur état etles possibilités de traitements. Nous examinons ici comment l'internet peut êtreutilisé comme un média donnant accès et communiquant des informations médicales. Des entretiens portant sur les raisons ayant conduit les sujets à penser à la thsou au Viagra ont été menés auprès de 32 femmes et 15 hommes. Il leur a étédemandé où et comment ils recherchaient et se procuraient ces informations ,comment ils les interprétaient et leur donnaient du sens (par eux -mêmes ou grâceà des échanges avec d'autres personnes, y compris lors de consultations avec desprofessionnels). Aux personnes ayant recours à l'internet, il a été demandédepuis quand et dans quels buts ils l'utilisaient. En cas d'utilisation del'internet pour la recherche en ligne d'informations médicales, ont étédemandées des précisions sur la façon dont ils s'y étaient pris ainsi que leuropinion sur les avantages et inconvénients de ce support comme sourced'information. Près de la moitié des participants – soit 16 femmes et 5 hommes –ont fait l'objet d'une seconde enquête, six à neuf mois après le premierentretien afin de voir si leur état avait évolué et s'il y avait eu deschangements dans leurs méthodes de recherche et de traitement de l'information .Les femmes ont été sélectionnées par l'intermédiaire d'un médecin de famille oude la clinique gynécologique d'une ville du sud-est de l'Angleterre. Les hommesont été choisis via une clinique urologique, un servicede conseils psychosexuels pour hommes souffrant de dysfonctionnement érectile ouune clinique pour diabétiques. Seuls les femmes et les hommes supposés avoirpris ou avoir récemment cessé de prendre de la ths ou du Viagra ont étésollicités. Les entretiens d'une durée allant d'une à deux heures se sont tenusentre novembre 2001 et janvier 2003. Les entretiens ont été enregistrés ettotalement retranscrits. La plupart ont eu lieu chez les participants, àquelques exceptions près, certains s'étant déroulés dans des bureaux au sein desstructures de soins. L' âge des femmes interrogées était compris entre 39 et 73ans avec un âge moyen de 55 ans. Parmi ces 32 femmes, 18 vivaient en couple. Leshommes étaient plus âgés  : 54 à 81 ans pour un âge moyen de 66 ans. Parmi eux ,dix vivaient en couple. L'échantillon provenait de différents groupessocio-économiques avec un niveau de formation et de qualification variable. Laplupart des sujets, mais pas tous, étaient hétérosexuels et majoritairementbritanniques blancs. Les sources d'information potentielles sont gigantesques. Comment lesparticipants s'informent-ils sur des questions médicales ? Globalement, tous ontpuisé, de manière plus ou moins active, dans diverses sources. Pour les hommeset les femmes, le médecin de famille est la source la plus importante. Puisviennent les membres de la famille, en général des femmes, deuxième source laplus souvent citée à laquelle on peut ajouter des amis, des pharmaciens et desprofessionnels de médecine douce. Les médias consultés sont les revues, latélévision, le Web, les livres traitant du développement personnel, les journauxet autres publications comme des brochures provenant de pharmaciens ou fourniesavec les médicaments par les laboratoires pharmaceutiques. Ce qui différencie leplus les hommes des femmes est avant tout le large réseau social sur lequels'appuient celles -ci pour parler de leurs problèmes de santé et qui englobe lafamille, les amis, les voisins et les collègues alors que les hommes s'adressentprincipalement à leurs médecins et à leurs partenaires sexuels. Cette vue d'ensemble offre des pistes de compréhension des expériences vécues auquotidien par des personnes essayant d'accepter les problèmes dus auvieillissement et cherchant à s'informer à ce sujet. Approfondissons cettequestion afin de comprendre comment l'internet s'inscrit dans un paysaged'informations et voir dans quelle mesure la fracture numérique serait uneexpérience vécue en nous intéressant plus particulièrement aux conditionsd'accès. Sur les 15 hommes enquêtés, 9 disposaient d'une connexion, dont un surson seul lieu de travail sans pour autant être autorisé à l'utiliser à des finspersonnelles. Quelques autres étaient en situation transitoire. Un homme avaitdéménagé récemment et n'avait pas encore déballé son ordinateur ni entrepris lesdémarches auprès de son fournisseur d'accès. Un autre possédait un téléphoneportable nouveau permettant un accès internet qu'il ne savait toutefois pasencore faire fonctionner. Finalement, un autre avait eu accès au Web parl'intermédiaire du travail de son épouse où son patron l'avait aidé à serenseigner sur son problème mais cela est resté une expérience unique qui ne l'apas incité à rechercher un accès régulier à l'internet. Sur les 32 femmes, 24possédaient une connexion internet au domicile et/ou au travail. Parmi lesenquêtés, huit hommes et 20 femmes utilisaient l'internet à la maison ou autravail mais tous ne s'en servaient pas pour chercher de l'information médicale .Seuls trois hommes et 18 femmes l'ont fait. Toutes les femmes disposant d'une connexion à domicile n'en font pas pour autantl'usage. C'est le cas de Janet dont l'ordinateur familial est essentiellementutilisé par le fils. Barbara explique également comment son fils monopolisaitl'ordinateur jusqu' à ce qu'il parte à l'université. Mais son fils n'a pasnettoyé l'ordinateur avant son départ. Ce dont elle parle avec émotion  : « J'ai eu pendant longtemps à la maison un fils adolescent quimonopolisait internet et ne voulait pas me montrer comment cela marchait parcequ'il disait que j'étais trop lente. Il vient de partir à l'universitémaintenant, alors j'ai vraiment essayé cette semaine de le mettre en route et del'arranger mais c'est un tel bazar… Ce qui arrive, c'est que quand je l'allume ,il met 20 minutes à démarrer… parce qu'il y a tellement d'affaires dedans, avecdes économiseurs d'écran et ce truc et celui-là… J'ai plusieurs voisins qui mepromettent toujours de venir m'aider, donc je vais y arriver. J'ai suivi uncours de base. Mais je n'aime pas. Je déteste cela… Cela ne m'intéresse pas. Jepense simplement que c'est très ennuyeux. L'idée de le mettre en route me faitautant envie que de repasser  ». Bien que reléguée par son fils au rang de vieille dame qui ne s'intéresse pas àl'usage des ordinateurs et qui ne possède pas les compétences nécessaires ,Barbara résiste à cette image. Elle comprend pourquoi la machine est ralentie .En demandant conseil à des voisins et en suivant des cours, elle a entrepris des'informer davantage et d'enrichir ses compétences. Néanmoins, elle garde uneforme d'ambivalence et se réfère à son rôle domestique lorsqu'elle exprime unmanque d'intérêt et un sentiment d'ennui. D'autres femmes parlent plutôt deleurs partenaires masculins que de leurs fils et racontent que leurs conjointspossèdent des ordinateurs avec un accès internet à domicile qu'elles n'utilisentjamais. Ainsi Betty explique -t-elle qu'il y avait avant un ordinateur connectéchez elle mais qu'il appartenait à son ex-conjoint  : « Il l'a emporté lorsqu'il est parti. Je n'en ai plus… Ill'utilisait surtout pour le travail… J'avais pensé m'en servir maismalheureusement nous nous sommes séparés  ». Frieda, elle, parle de son mari  :« Il possède quatre ordinateurs situés à l'étage. Il les utilise pour sontravail. Il est à la retraite… Il est architecte… Il fait des rajouts auxmaisons et modifie les intérieurs et des tas de choses comme cela, mais il peuttout faire sur l'ordinateur. Moi, je ne saurai même pas l'allumer  ». Ces exemples accréditent l'idée selon laquelle il convient d'interprétersoigneusement les résultats d'enquête à large spectre en matière d'accès àl'internet. Ces femmes vivent et ont vécu avec des ordinateurs connectés depuisleur domicile, mais n'en ont pas l'usage pour différentes raisons. Accéder àl'internet ne se réduit pas à une simple question d'équipement et de connexion ,ou de formation et d'obtention de compétences nécessaires à l'utilisation del'équipement. L'accès présuppose l'existence d'un sentiment de confort parrapport à la technologie et suppose de ne pas en avoir peur. Cela supposeégalement que la répartition des tâches ménagères permette aux femmes de sesentir concernées par les machines. En effet, dans de nombreux ménages, perdureun modèle traditionnel de répartition sexuée des tâches. Les partenairesmasculins et les fils monopolisent l'ordinateur, obligeant les femmes à renoncerà l'utiliser ou les contraignant à trouver un autre lieu pour y avoir accès. Cesexisme ne correspond cependant pas toujours aux stéréotypes comme dans le casde Peter (66 ans), séparé de sa femme. Il a quatre fils dont deux qui viventavec lui. Peter a quitté l'école avant d'avoir 16 ans et s'est occupé d'un petitcommerce de détail jusqu' à sa retraite qu'il a prise peu de temps avantl'entretien. Son foyer possède un ordinateur connecté à internet utilisé par sesfils. Ressentant une certaine pression à devenir usager il déclare  : « Je ne l'utilise pas. Je n'en ai pas envie… Je devraisdavantage utiliser l'ordinateur, tout simplement je, je ne sais pas, je n'en aisimplement pas envie. Je suis paresseux pour cela. Ce n'est pas mon truc. Jepréfère prendre le téléphone et appeler quelqu'un plutôt que lui envoyer uncourriel qui me prend trop de temps  ». Lorsqu'onl'interroge sur de précédentes expériences d'utilisation du courriel, ilrépond  : « Je ne me débrouille pas bien du tout. Je rate plutôt tout. Soit jeperds ma lettre d'une façon ou d'une autre, j'appuie sur le mauvais bouton oucela ne passe pas correctement. J'ai toujours des tonnes d'ennui avec cela  » .La préférence de Peter pour l'immédiateté et la présenceapportées par le téléphone ainsi que son incompétence avouée dans le traitementdes courriels conduisent à penser que les facteurs liés à l' âge et à lagénération – auxquels il faut ajouter le genre – jouent un rôle important dansles expériences personnelles à l'égard de l'usage de l'internet. L'histoire deVictor défie encore davantage le stéréotype de la masculinité à propos de latechnologie. Victor a 59 ans. Il est marié et a trois enfants adultes. Il a unemploi de direction et une formation de troisième cycle. Depuis un an environ ,il souffre d'un manque de libido. Certes, il a des érections mais ne ressentaucune envie d'avoir une activité sexuelle. Cela le dérange beaucoup bien queson épouse n'en fasse pas état. La prise de Viagra lui a permis d'avoir desérections mais ne lui a pas donné envie d'avoir des relations sexuelles. Victora d'abord parlé de ses problèmes à son épouse, puis à des professionnels de lasanté. Il ne consulte pas de guides pratiques de santé mais feuillette les pagesconsacrées à la santé dans les tabloïdes et les journaux sérieux. Il s'intéresseaux panneaux affichés dans les salles d'attente et a tendance à prendre lesinformations au pied de la lettre. Il n'a jamais eu à gérer des informationscontradictoires en matière de santé. Il aime discuter avec son épouse car celalui permet d'explorer toutes les possibilités et/ou de confirmer ce qu'ilressent. Il n'entreprend aucune recherche particulière avant d'aller consulterson médecin. Victor n'a jamais utilisé l'internet mais envisage de se procurerun ordinateur domestique à des fins professionnelles. Cette partie del'entretien est restituée ci-dessous  : « Enquêteur (E )  : Avez -vous le moindre accès à internet en cemoment ? Victor (V )  : Je pourrais avoir accès grâce à ma fille ou à sonpetit copain. E  : Mais vous ne l'utilisez pas ? V  : Non E  :Est -ce que vous vous en êtes déjà servi ? V  : Non E  : Mais, vous ypensez, n'est -ce pas ? V  : À contrecœur ! E  : Pourquoi dites -vous« à contrecœur” … ? V  : Je trouve qu'il est difficile de se familiariseravec les tâches techniques. E  : Ce n'est pas votre genre ? V  : NonE  : Alors pourquoi pensez -vous l'utiliser maintenant ? V  : Jepense que si je pouvais le maîtriser cela faciliterait beaucoup mon travail àtemps partiel. E  : Pensez -vous que vous pourrez envisager de chercher ded'information sur la santé sur internet ? V  : Je pense que c'est peuprobable. E  : Pourquoi ? V  : Parce que je pense que je préfèreraischercher dans un livre si je le veux vraiment ou en parler au médecin. E  : Je me demande pourquoi cela pourrait être le cas. V  : [énervé] Lesordinateurs ne m'intéressent pas. Je veux juste poursuivre ma vie le plustranquillement possible. Je ne vois pas l'avantage que cela me donnerait. Jepréfèrerais l'apprendre de source sûre et en parler avec quelqu'un plutôt que meperdre dans le cyberespace. Cela me paraît sacrément évident, et je pense quefaire cette recherche est une perte de temps  ». Poussé par l'enquêteur à être plus explicite, Victor est clairement sur ladéfensive lorsqu'on évoque son non-usage de l'internet. Toutefois, son hostilitéaux ordinateurs, à l'internet et à notre recherche semble sincère. Deuxinterprétations sont possibles. Il peut s'agir d'un défi à la relationhabituelle entre sexe masculin et technologie (Faulkner, 2000; Lie, 2003 ;Wajcman, 2004) qui présuppose que les hommes auraient un accès privilégié à latechnologie et aux compétences techniques. Manifestement, Victor ne pense pasêtre privilégié, ni à l'égard des ordinateurs ni par rapport aux autres tâchestechniques plus générales qui lui semblent toujours difficile à appréhender .Ensuite, il nous semble que la frustration à l'égard des ordinateurs, del'internet et de l'enquêteur est plus facile à exprimer que l'impossibilitéd'avoir des rapports sexuels. La masculinité et la compétence technique vont depair. L'aptitude à utiliser la technologie et à avoir des rapports sexuels étantsouvent associées à la masculinité, on peut penser que sa frustration en matièresexuelle se retrouve dans son rapport à la technique. Peter est un« abandonniste  », membre de la deuxième catégorie de non-usagers décriteprécédemment. Sur la base d'une faible expérience, Peter estime que l'internet ,tout du moins le courriel, serait plutôt ennuyeux. Il l'a essayé mais pense quecela ne lui correspond pas car il préfère l'immédiateté offerte par d'autresmoyens de communication. Quant à Victor, il constitue un bel exemple de« résistant  », correspondant à la première catégorie de non-usagers définieplus haut. Il n'éprouve aucun intérêt personnel à utiliser l'internet. En ce quile concerne, il existe d'autres façons tout à fait satisfaisantes des'informer. Cette étude portant sur des hommes et femmes d' âge mûr qui cherchent del'information sur la ménopause et les problèmes d'érection a permis de cibler ungroupe d'usagers relativement sous-étudié. Le recours à une approche s'appuyantsur des expériences de vie quotidienne des individus par rapport à l'internet etsur leur recherche d'information médicale permet de dépasser de façon fructueusel'immobilisme et la polarisation auxquels renvoie le concept de fracturenumérique. La fracture numérique ne saurait uniquement être appréhendée entermes de « nantis  » et de « laissés pour compte  ». Bien que Victor n'utiliseni ne dispose d'un accès à l'internet, les autres sujets devraient paraîtrecomme étant des « nantis  » dans les statistiques comptabilisant les personnespossédant un accès à l'internet domestique. Nous avons montré que « l'accès  »ne relève pas simplement d'une question de branchement. Les données disponiblesen la matière gênent la mise en évidence de la complexité des relationsdomestiques. Bien qu'utilisant l'internet au travail à des fins personnelles ,Janet le fait peu chez elle en raison de la mainmise de son fils. D'autrespersonnes interrogées, hommes comme femmes, ont mentionné qu'ils avaient chezeux des pc branchés mais qu'ils ne se connectaient pas, en général parce que lesordinateurs étaient monopolisés dans l'espace domestique par les fils ou lespartenaires masculins. Accéder à l'internet nécessite bien plus qu'une proximitéavec un bon équipement  : il relève aussi des rapports de genre etintergénérationnels qui façonnent le contexte dans lequel les individusinteragissent ou n'interagissent pas avec l'internet dans leur vie quotidienne .Les catégories auparavant élaborées sont utiles pour comprendre la résistance àla fois passive et active (Bauer, 1995; Rogers, 1986) aussi bien que lesabandons (Katz, Aspden, 1998). Les histoires de Peter et de Victor invitent àrepenser les prétentions optimistes et universalistes établies à l'égard del'internet. Ces expériences conduisent également à revoir la relationstructure-agent (Giddens, 1984). Comme Peter et Victor ignorent relativementtout de l'internet et de ses possibilités, peut-on pour autant dire qu'ilspèchent par manque d'engagement ? Même si leurs comportements correspondentdavantage à une esquive passive, les responsables politiques et les fournisseursd'accès le perçoivent comme résistance à la technologie. Nos premières recherches sur le non-usage ont surtout constitué en uneexpé­rience intellectuelle menée contre les nombreuses revendicationsgrandiloquentes proclamées lors du changement du siècle et une réponse critiqueà la trop grande simplification du débat politique sur la fracture numérique. Larésurgence de visions emphatiques prononcées autour du Web 2.0 et des réseauxsociaux montre combien le scepticisme analytique (Woolgar, 2002) estindispensable. Même si les applications et les interfaces peuvent avoir changé ,les nombreuses revendications et promesses du Web 2.0 semblent véritablementfamilières. L'usage de l'internet dans toutes ses formes par les individus, lesorganisations et les pays est considéré comme la norme, le non-usage étant perçucomme une insuffisance à corriger ou comme besoin à combler. L'hypothèsesous-jacente est que l'accès à la technologie est évidemment souhaitable, laquestion étant de savoir comment l'augmenter. Les solutions préconisent parfoisla mise en place d'investissements en matière d'infrastructure et dansl'éducation publique afin de surmonter l'ignorance et la peur, ou dans laformation et la standardisation pour améliorer l'usage. L'abandon de latechnologie par des personnes informées et volontaires n'est pas mentionné .Cette invisibilité reflète la persistance de la domination d'une lecturevertueuse du progrès technologique, de la part des responsables politiques maisaussi au sein de la communauté scientifique. Quelle sera la prochaine analyse théorique et empirique du non-usage ?Constatons, d'abord, que si la lutte contre la fracture numérique n'est plusprioritaire dans les agendas politiques, pour autant, le non-usage subsiste .Avec l'amélioration des taux de connexion dans les pays industrialisés, lavolonté de réduire la fracture numérique s'est apparemment estompée. Pourtant ,au niveau mondial, la fracture demeure. En 2007, les pays « développés  »comptaient 62 internautes pour 100 habitants contre seulement 17 dans les pays« en voie de développement  » (itu, 2009). L'écart reste toujours substantielbien qu'il se soit réduit au cours des premières années du XXI e siècle. Ces statistiques cachent également des différencesconsidérables au sein des pays développés et en voie de développement. C'estainsi que l'on compte moins 1 % d'internautes dans les pays africains comme leBurundi, le Congo et l' Éthiopie alors qu'il y en a 32 % au Maroc. De fortesdisparités existent au sein même de l'Union européenne  : les Pays-Bas, la Suèdeet le Danemark possèdent plus de 80 internautes pour 100 habitants alors que lePortugal et l'Italie en auraient moins de 50. L'accès aux ressources numériquesreste un problème majeur accentué au niveau mondial dans les pays les pluspauvres par d'autres difficultés liées aux infrastructures commel'approvisionnement en électricité et l'éducation. Il est également nécessairede prendre en compte les clivages dans la production du contenu en ligne et dansles infrastructures. Malheureusement, tous les pays ne disposent pas des donnéesles plus récentes. Parmi les pays les plus riches du monde, il reste encored'énormes disparités en termes de production de contenu (sites web) et dematériel informatique (brevets). Le nombre moyen de sites web pour 1 000habitants était de 32 pour l'ensemble des pays de l'ocde alors qu'il étaitseulement de 10,5 en France et de plus de 80 en Allemagne (nationmaster.com) .Alors que la diffusion devrait vraisemblablement se poursuivre, elle n'est pasconforme au rythme exponentiel prédit lors de la décennie précédente et, suivantla même évolution que d'autres technologies, l'internet pourrait égalementatteindre un niveau plateau qui serait bien loin d'une diffusion et d'un accèsgénéralisés (Thomas, Wyatt, 2000). En deuxième lieu, plusieurs chercheurs ontrelevé le défi empirique d'étudier le non-usage sous différentes perspectives .Dans la recherche par enquêtes, le non-usage n'est plus simplement évoqué pourcompléter les calculs, mais il est devenu une catégorie à part entière. C'estainsi que Ulrich Riehm et Bettina Krings (2006) ont montré à travers une enquêteconduite en Allemagne en 2004 que parmi les 45 % de la population qui étaientdes non-usagers, 35 % étaient des résistants, 25 % des « abandonnistes  », 20 %des exclus et autant d'expulsés. Une enquête menée aux États-Unis a mis enévidence le fait que plus de la moitié des non-usagers sont des résistants oudes « abandonnistes  » (Lenhart et al, 2003). AgnethaBroos (2006) a mis en évidence un groupe significatif de jeunes Flamands qui ,estimant que l'internet n'est plus « branché  », s'occupent avec d'autrespasse-temps d'adolescents. Cependant, comme le montre cette contribution, lesenquêtes de grande envergure doivent être complétées par des analyses plus finesportant sur les raisons qui poussent les individus à utiliser ou non l'internetdans leur vie quotidienne et sur la façon dont les figures d'usages ont évoluéau cours du temps. Pour développer du matériel de formation adapté, Mike Cushmanet Ela Klecun (2006) ont choisi comme point de départ de dépasser le cadre desexplications socio-économiques du non-usage dans une recherche-actionidentifiant les raisons qui poussent à ne pas utiliser l'internet. Neil Selwyn ,Stephen Gorard et John Furlong (2005) combinent des méthodes qualitatives etquantitatives pour comprendre qui sont les usagers et les non-usagers del'internet dans la vie quotidienne. Finalement, un cadre conceptuel plus dynamique et plus élaboré est nécessaire .Plutôt que de rester dans une vision manichéenne opposant usagers etnon-usagers, l'usage des technologies numériques doit être conceptualisé àtravers un continuum et selon divers degrés et typesd'implication qui pourraient évoluer en fonction de l'éducation, de l'emploi ,des enfants et des déménagements. Le non-usage n'est pas la seule pratique àdéchiffrer. De façon symétrique, l'usage se doit également d' être explicité etne devrait pas être considéré comme une pratique normale et tenue pour acquise .Les catégories doivent également être affinées afin d'intégrer non seulementl'abandon, la résistance, mais aussi « l'usage sélectif  » (selective use) (Oudshoorn, 2008), « l'usage de remplacement  » (surrogate use) (Selwyn, Gorard, Furlon, 2005), « l'usageforcé  » (forced use), « l'usage réticent  » (reluctant use) et « l'usage partiel  » (partial use). Ces catégories plus nuancées rappellent quel'usage et le non-usage ne relèvent pas simplement des choix individuels etvolontaristes. En effet, les résultats qui ressortent de l'analyse des personnescherchant des informations médicales de même que ceux provenant de recherchesplus récentes montrent que les choix des individus sont enracinés dansl'économie morale du ménage, dans les relations sociales et culturelles ainsique dans les relations de production .
Cet article rassemble une partie des premiers travaux sur le non-usage de l'internet. La première partie est essentiellement conceptuelle et avait été présentée en 1999, au moment du pic de la première explosion des sites en « .com » et lorsque les attentes à l'égard de l'internet et les craintes en matière de fracture numérique étaient à leur apogée. Les auteurs démontrent comment le non-usage pouvait être un choix volontaire et n'aboutissait pas toujours à l'exclusion sociale, ni n'en était le produit. La seconde s'appuie sur une étude empirique qui s'est intéressée à la manière dont des personnes d'âge mûr trouvent des informations en matière de santé et les raisons pour lesquelles, dans ce cadre, ils utilisent ou non l'internet. La conclusion engage une réflexion sur des travaux récents traitant du non-usage de l'internet et propose des axes théoriques et empiriques pour les recherches futures.
sciencesInfo_11-0395855_tei_1058.xml
termith-421-communication
La recherche d'information (RI), comme presque toutes les activités scientifiques, doit construire un modèle sur lequel se base la réalisation d'un système de recherche d'information 1 (SRI). L'histoire du domaine de la RI a vu l'émergence de nombreux modèles, bien différents les uns des autres : le modèle vectoriel (Salton et al., 1975), le modèle logique (Lalmas, 1998), le modèle probabiliste (Jones et al., 2000) et le modèle de langue (Song et al., 1999) pour n'en citer que quelques-uns. Modéliser, c'est représenter partiellement mais formellement la réalité. En RI, cela consiste à représenter le contenu d'un document dans le but de le retrouver plus tard, lorsque survient une requête d'un utilisateur. Un SRI est en effet un médiateur informatique entre le besoin d'information d'un utilisateur et l'information contenue dans des documents. Quelques efforts de modélisation comme les travaux de (Sándor, 2000) ou de (Nie, 1988) ont tenté de réaliser une modélisation plus générale. Cependant, nous n'avons trouvé aucun travail dont l'objectif est de représenter l'expressivité des modèles de RI. D'abord, qu'entendons -nous par expressivité ? L'expressivité d'un modèle de RI représente ce que ce modèle est effectivement capable de décrire. Souvenons -nous qu'un modèle de RI est destiné à représenter une partie du contenu des documents et des requêtes. En fait, la particularité de la RI est de ne représenter que la partie du contenu susceptible d' être utilisée pour la recherche des documents : c'est pour cette raison que l'on parle alors d'un index d'un document. Ainsi, le modèle de RI décrit les index des documents. Ensuite, quel peut être l'intérêt d'exprimer explicitement cette expressivité ? Modéliser est non seulement utile pour construire un système, mais aussi pour en comprendre le fonctionnement et en évaluer, par exemple, les limites. Exprimer explicitement l'expressivité d'un modèle de RI doit donc nous permettre de le comparer et de le positionner par rapport à d'autres. Aussi, le choix du niveau d'expressivité pour la mise au point d'un modèle peut avoir un impact important sur les performances du futur système. Concrètement, un modèle de RI sans structure, comme les modèles à base de " sac de mots " est incapable de représenter les liens entre les mots des documents, l'ordre des mots dans le document n'est donc pas pris en considération. Rajouter plus d'expressivité au modèle, par exemple en représentant certaines relations entre les mots, permet d' être plus précis et donc de répondre plus précisément à une recherche. C'est notamment le cas dans les domaines d'expertise où la résolution de requêtes précises nécessite des représentations expressives. Essayez donc de trouver : " comment enlever les hyper-liens dans le logiciel Pages de chez Apple ". Une requête comme : pages " remove hyperlink " apple, ne fonctionne pas sur un moteur de recherche (ex : Google), simplement parce que le système ne peux pas établir de lien entre le mot " pages " et " apple " pour exprimer que " pages " est un logiciel de la société " Apple ". On trouve même dans les premières réponses un résultat sur un logiciel 2 d'une société concurrente tout simplement parce que les mots de la requête apparaissent proche dans le document en réponse : " points to a page named apple.htm ". Nous proposons dans cet article de modéliser l'expressivité des modèles utilisés en RI. Dans ce but nous définissons la notion de support de vocabulaires pour décrire les modèles dans un seul et même formalisme. Nous présentons de prime abord un panorama de l'expressivité telle que l'utilisent les SRIs textuels. Suite à ce panorama, nous présentons un cadre pour la modélisation de l'expressivité. Nous utilisons finalement le cadre proposé pour définir des modèles d'expressivité variable que nous évaluons sur une tâche de RI médicale. L'expressivité représente le nombre de points de vue utilisés pour représenter les documents et l'espace d'expression de chacun de ces points de vue. Sur un même document, plusieurs points de vue peuvent être proposés. Par exemple sur la figure 1, nous proposons plusieurs points de vue sur une image; l'un à l'aide d'un histogramme de couleur, l'autre à l'aide de mots désignant ce qui apparaît sur l'image, ou encore un dernier à l'aide de mots donnant un sens à l'image. Ces points de vue n'ont pas le même espace d'expression, en revanche ils peuvent être complémentaires. Dans cet article, nous nous intéressons à l'information textuelle. Pour ce type d'information, nous supposons que l'expressivité est monodimentionnelle et peut se représenter sur un axe qui s'étend des systèmes à expressivité faible vers ceux à expressivité forte. Les systèmes à expressivité faible représentent le document à l'aide d'un seul point de vue et ce point de vue utilise des descripteurs simples, c'est le cas des systèmes à base de mots-clés. Les systèmes à expressivité forte représentent les documents à l'aide de plusieurs points de vue et utilisent des descripteurs expressifs tels que des descripteurs sémantiques. Par exemple, les systèmes à base de graphes de concepts sont expressifs, leurs représentations fournissent plusieurs points de vue et ces points de vue sont sémantiques. L'expressivité d'un SRI se manifeste à travers le langage de représentation des documents (langage d'indexation) et le langage de représentation des requêtes (langage d'interrogation). Au sein de ces représentations, elle se manifeste par le nombre de points de vue adoptés, ce qui correspond aux différents types de descripteurs utilisés. Elle se manifeste aussi par l'expressivité de ces descripteurs. Actuellement, il n'existe pas de modélisation générique qui mette en avant l'expressivité, et de fait, comparer ou positionner des systèmes sur leur niveau d'expressivité se révèle difficile. Pourtant une telle modélisation est particulièrement intéressante dans des domaines d'exper-tise où sélectionner la bonne expressivité permet de mieux répondre à des besoins d'information complexes. Nous classons dans cet état de l'art des SRIs textuels qui utilisent des langages d'indexation d'expressivité diverse. La figure 2 symbolise l'expressivité des modèles selon cet axe qui s'étend des langages à expressivité faible (ou langages simples) vers des langages à expressivité forte (langages complexes). Sur cet axe, nous présentons différentes familles de langages d'indexation utilisés en RI : les langages fondés sur des informations morphologiques sont essentiellement des langages à base de mots-clés. Ces langages constituent la majorité des représentations utilisées en RI, mais leur expressivité est faible; les langages fondés sur des informations syntaxiques sont des langages qui intègrent des descripteurs ou des structures syntaxiques. Cette intégration se fait sou-vent par l'ajout de descripteurs syntaxiques dans des langages à base de mots-clés (Strzalkowski et al., 1998, Zhai et al., 1997, Gaussier et al., 2000). Plus rarement, des modèles plus expressifs utilisent directement les structures syntaxiques (Matsumura et al., 2000, Metzler et al., 1989, Smeaton, 1999, Gao et al., 2004) et effectuent une correspondance sur ces structures; les langages fondés sur des informations sémantiques utilisent des descripteurs ou des structures sémantiques. Certains sont à base de concepts, notamment sur le domaine médical (Vintar S, 2003, Zhou et al., 2007), d'autres utilisent des structures sémantiques (Berrut et al., 1989, Genest et al., 2005, Maisonnasse et al., 2007). Ces langages sont les plus expressifs, toutefois leur obtention à partir du texte est difficile. Nous constatons qu'en RI différents niveaux d'expressivité sont utilisés, cependant comparer ces systèmes sur leur expressivité est complexe. S'il est facile de positionner un système utilisant des informations morphologiques d'un autre utilisant des informations sémantiques, il est plus difficile de différencier des systèmes proches et plus encore de sélectionner le niveau d'expressivité adapté à une tâche. Pour ces diverses raisons, nous proposons de modéliser l'expressivité. Nous proposons la définition de modèles dans lesquels des supports de vocabulaires mettent en avant l'expressivité. Le support de vocabulaires définit l'ensemble des vocabulaires utilisés pour représenter les documents ou les requêtes. Un vocabulaire est utilisé pour décrire un point de vue sur le document, il est constitué d'un ensemble de descripteurs, ou unités de vocabulaires. La majorité des modèles de RI reposent sur une expressivité faible, ils n'utilisent qu'un seul vocabulaire formé d'une seule sorte de descripteurs éventuellement associé à un poids. Par exemple, dans les modèles vectoriels sur les mots-clés, le support de vocabulaires est constitué d'un seul vocabulaire : l'ensemble des mots-clés pondérés. Sur d'autres médias, des modèles utilisent plusieurs vocabulaires, cela permet d'exprimer différents points de vue. Par exemple, une vidéo peut se représenter à l'aide d'un vocabulaire visuel et d'un vocabulaire auditif. Dans ce cas, le support de vocabulaires contient deux vocabulaires qui fournissent deux points de vue sur le document. Le support de vocabulaires dénote l'expressivité de la représentation par deux aspects : le premier aspect correspond au nombre de vocabulaires utilisés. Cela constitue le nombre de points de vue par lesquels le système interprète le document ou la requête; le deuxième aspect correspond à l'expressivité de chaque vocabulaire utilisé. Cela dépend de la définition des unités de vocabulaires. Les mots-clés constituent un type simple dont l'expressivité correspond au niveau morphologique. Les relations syntaxiques constituent des unités de vocabulaires complexes formées de plusieurs types : deux lemmes et une étiquette de relation. Leur niveau d'expressivité est syntaxique. Ces deux aspects nous permettent de positionner les systèmes les uns par rapport aux autres sur l'axe de l'expressivité. Les supports de vocabulaires, tels que nous les proposons, permettent de modéliser l'expressivité des systèmes de RI. Ils modélisent le langage d'indexation et le langage d'interrogation. Nous les utilisons pour définir un cadre dans lequel différents modèles peuvent s'exprimer. Ce cadre permet de comparer plus facilement des systèmes entre eux. Nous définissons au préalable deux éléments qui servent à la formation d'un modèle de RI : le support de types et le support de vocabulaires. À partir de ces éléments, nous donnons la définition d'un SRI. Nous définissons le support de types qui détermine les types de base manipulés par un SRI. Un SRI dispose d'un certain nombre de types T. Un Ttype se compose d'éléments t ayant des caractéristiques communes, par exemple : Tmots un ensemble qui représente les mots détectés dans des textes : Tmots = {la, plévre, dans, la, cage, thoracique, …} Ttermes un ensemble de termes : Ttermes = {plévre, cage thoracique, …} Tconcepts un ensemble de concepts. Un concept est une entité abstraite que nous écrivons à l'aide d'un identifiant (ex : C0817096) et d'un terme entre parenthèses illustrant le concept : Tconcepts = {C 0817096( poumon), C 0032225( plévre), C 0222762( cage thoracique), …} Trelations un ensemble de noms de relations sémantiques. Trelations = {localisation, partie de, touche, …} On appelle support de types ST la liste des types utilisés par un SRI. Un support de types ST est constitué d'un n-uplet formé de nst types que l'on ordonne de 1 à nst. ST = (T 1, T 2, …, T nst) avec nst >= 1 Par exemple, pour un SRI basé sur des graphes, on peut définir le support de types : STgraphes = (T 1, T 2) où nst = 2, T 1 = Tconcepts, T 2 = Trelations Nous définissons les supports de vocabulaires qui permettent de modéliser des représentations. Ces supports possèdent l'avantage de définir les éléments qui constituent une représentation, leur expressivité, leur complexité et par conséquent l'expres-sivité de la représentation. Un vocabulaire V se compose à partir d'un ou plusieurs types Ti de ST. Ce même vocabulaire peut posséder une ou plusieurs pondérations restituant l'importance des éléments. Nous distinguons de fait deux axes pour classer les différents vocabulaires : un vocabulaire V représente un vocabulaire simple si et seulement si il n'utilise qu'un seul Ti, ou représente un vocabulaire complexe si et seulement si il en utilise plusieurs; un vocabulaire V désigne un vocabulaire pondéré si et seulement si V associe une ou plusieurs pondérations à un vocabulaire simple ou complexe. Vocabulaire simple Un vocabulaire simple V correspond à un seul type. V ⊆ Ti avec 1 ≤ i ≤ nst On appelle unité de vocabulaires uv un élément du vocabulaire V. Pour un vocabulaire simple, si uv appartient à V alors uv appartient à Ti. Sur le support STgraphes, présenté dans la section 3.2.1.2, nous définissons le vocabulaire simple VsimpleConcepts. Ce vocabulaire est constitué d'unités de vocabulaires simples : les concepts, définis par le type Tconcept. Il s'écrit : VsimpleConcepts ⊆ Tconcept Une unité de vocabulaire uv appartenant à VsimpleConcepts est un des concepts de Tconcept, par exemple uv = C 0817096( poumon). Vocabulaire complexe Un vocabulaire complexe V se compose de plusieurs types Ti d'un support de types ST. Un vocabulaire V formé de nt types s'écrit : V ⊆ Tfv(1) × Tfv(2) … × Tfv(nt) avec nt > 1 et fv : [1..<hi rend="italic">nt</hi>] → [1…<hi rend="italic">nst</hi>] La fonction fv détermine le type fv(i) du support ST utilisé par le ième type du vocabulaire. Une unité de vocabulaire uv se décompose ici en plusieurs éléments uv = (v 1, …, vnt )qui correspondent aux types utilisés par le vocabulaire vj ∈ Tfv(j). Par exemple, sur le support de types STgraphes (section 3.2.1.2), le vocabulaire complexe VcplxRelations qui représente des relations sémantiques entre concepts s'écrit : VcplxRelations ⊆ Tfv(1) × Tfv(2) × Tfv(3) avec nt = 3 VcplxRelations ⊆ Tconcept × Trelations × Tconcept Ce vocabulaire utilise la relation fv : {1 → 1, 2 → 2, 3 → 1} Une unité de vocabulaire uv appartenant à VcplxRelations s'écrit par exemple : uv =( C 0817096( poumon), partie de, C 0222762( cage thoracique)) où l'unité uv décrit le fait qu'un poumon est une partie de la cage thoracique. Vocabulaire pondéré Soit V ′ un vocabulaire simple ou complexe tel que défini précédemment. Un vocabulaire pondéré V consiste en l'association d'une ou plusieurs pondérations à ce vocabulaire V ′. Soit np le nombre de pondérations associées à V, nous définissons l'ensemble V par le produit cartésien entre un vocabulaire V ′ et un ensemble de np pondérations P. V = V ′ × Pnp avec P = R et np > 0 Une unité de vocabulaire uv se compose alors d'une unité de vocabulaire simple ou complexe uv ′ et d'une pondération np : uv ∈ V avec uv = (uv ′, p) tel que uv ′ ∈ V ′, p ∈ Pnp Sur un vocabulaire simple V = VsimpleConcepts, nous formons le vocabulaire pondéré VpdsConcepts en utilisant une seule pondération : VpdsConcepts = V ′ × P 1 avec np = 1 Une unité de vocabulaire uv appartenant à VpdsConcepts se représente par exemple par : uv =( C 0817096( poumon), 0.4) avec C 0817096( poumon) ∈ VsimpleConcepts et 0.4 ∈ P 1 qui représente l'importance de ce concept dans un document. Sur un vocabulaire complexe V ′ = VcplxRelations, nous formons le vocabulaire pondéré VpoidsRelations en utilisant deux pondérations : VpoidsRelations = V ′ × P 2 avec np = 2 Une unité de vocabulaire uv appartenant à VpdsRelations s'écrit par exemple : uv = (( C 0817096( poumon), partie de, C 0222762( cage thoracique)), 0.4, 0.7) avec uv ′ ∈ VcplxRelations et (0.4, 0.7) ∈ P 2 où, par exemple, l'une des pondérations représente l'importance de la relation dans un document et la deuxième reflète la confiance dans la détection de cette relation sur le document. Résumé des vocabulaires Un vocabulaire se compose donc de nt types et np pondérations : V ⊆ Tfv(1) × Tfv(2) … × Tfv(nt) × Pnp avec nt ≥ 1, np ≥ 0, fv : [1..<hi rend="italic">nt</hi>] → [1..<hi rend="italic">nst</hi>] Un vocabulaire simple est formé avec un seul type (nt = 1) et aucune pondération (np = 0). Un vocabulaire complexe est formé avec plusieurs types (nt > 1) et sans pondération (np = 0). Enfin un vocabulaire pondéré se compose d'un ou de plusieurs types (nt ≥ 1) et avec une ou plusieurs pondérations (np ≥ 1). On appelle support de vocabulaires SV une liste de vocabulaires utilisée par un SRI qui définit un langage de représentation. Ce support constitue un n-uplet formé de nsv vocabulaires ordonnés de 1 à nsv : SV = (V1, V 2, …, Vnsv) avec nsv ≥ 1 Par exemple, un SRI qui représente des graphes utilise un support de vocabulaires constitué de deux vocabulaires, soit nsv = 2, l'un représentant les concepts, l'autre représentant les relations entre ces concepts. SVgraphes = (V 1, V 2) où V 1 = VpdsConcepts =, V 2 = VpdsRelations Nous écrivons directement : SVgraphes = (VpdsConcepts, VpdsRelations) Un SRI manipule un corpus de documents qu'il transpose à l'aide d'une fonction d'indexation en un corpus indexé. Ce corpus lui permet de résoudre des requêtes traduites à partir de besoins utilisateur. Un tel système repose sur la définition d'un modèle de RI M qui effectue ces deux transpositions et qui fait correspondre les documents aux requêtes. La transposition d'un document en un document indexé repose sur un modèle de document. De même, la transformation du besoin utilisateur en requête repose sur un modèle de requête. Enfin, la correspondance entre une requête et des documents s'établit par une relation de pertinence. Le modèle M définit ces trois éléments. Corpus Nous disposons d'un corpus C de documents d de cardinalité nc et d'un corpus indexé CI constitué de l'ensemble des documents di indexés. A chaque document d du corpus C correspond une indexation de ce document di qui représente le contenu du document d selon le modèle de documents. Requêtes Le besoin d'information b représente la motivation de l'activité de recherche. Lorsque l'utilisateur s'adresse directement au SRI, il formule le besoin d'in-formation b sous forme d'une requête q. Cette requête représente de manière plus ou moins approximative le besoin d'information sous-jacent dans le modèle de requête. Un modèle M de RI se définit par un quadruplet formé d'un support de types ST, de deux supports de vocabulaires SV définis sur le support de types ST que l'on nomme SV D et SV Q qui représentent le modèle de document et le modèle de requête, et d'une relation de correspondance RC. M = (ST, SV Q, SV D, RC) avec : ST = (T 1, T 2, …, Tns) SVD = (V 1, V 2, …, Vnvd) avec ∀ Vi ∈ [1..<hi rend="italic">nvd</hi> ], Vi défini sur ST SVQ = (V 1, V 2, …, Vnvq) avec ∀ Vi ∈ [1..<hi rend="italic">nvq</hi> ], Vi défini sur ST RC = {(q, di)} avec q défini sur SV Q et di défini sur SV D Nous remarquons que dans de nombreux SRI, le modèle de document SV D et le modèle de requête SV Q sont identiques. Pour un modèle M, nous appelons support de vocabulaires de document SV D la liste des vocabulaires utilisés pour représenter les documents indexés. Le support SV D correspond à un support de vocabulaires constitué de nvd vocabulaires : SV D = (V 1, V 2, …, Vnvd) avec nvd ≥ 1 Ce support forme le modèle de document et spécifie le langage d'indexation. Nous distinguons deux types de modèles de document : nvd = 1 : les modèles de document mono-index qui utilisent un seul ensemble de vocabulaires. Ces types d'index constituent ceux habituellement utilisés en RI textuelle. Un système d'indexation conceptuel n'utilise qu'un seul vocabulaire pour l'in-dexation, celui des concepts; nvd > 1 : les modèles de document multi-index qui utilisent plusieurs ensembles de vocabulaires. Ces systèmes utilisent plusieurs vocabulaires pour représenter de façon multiple les documents : un système de recherche de vidéos peut utiliser d'une part un vocabulaire textuel pour décrire les scènes du film et d'autre part un vocabulaire visuel pour décrire les images de ce film. Dans un modèle de RI conceptuel Mconceptuel où le modèle de document représente les documents à l'aide de concepts, le support d'indexation consiste en un mono-index SV Dconcepts tel que : SV Dconcepts = (VpdsConcepts) avec nvd = 1 Dans un modèle de RI multi-index Mgraphes où le modèle de document représente les documents à l'aide de concepts et de relations entre concepts, le support d'indexa-tion consiste en un multi-index SV Dgraphes tel que : SV Dgraphes = (VpdsConcepts, VpdsRelations) avec nvd = 1 Un document indexé di se compose de nvd ensembles DV tels que : di = (DV 1, …, DVi, …, DVnvd) avec DVi ⊆ Vi DVi forme un sous-ensemble de vocabulaires défini par la sélection dans Vi des éléments représentant le document. Un ensemble DVi se constitue de nuiunités de vocabulaires uv, tel que : uv ∈ DVi et || DVi || = nui Dans le support de vocabulaires de document SV Dgraphes la représentation di d'un document d se définit par : di = (DVpdsConcepts, DVpdsRelations) avec : DVpdsConcepts ⊆ VpdsConcepts et DVpdsRelations ⊆ VpdsRelations Une représentation de di pour un document s'écrit par exemple : di = ({ (C 0817096( poumon), 0.4), (C 0032225( plévre), 0.6), … }, {(( C 0817096( poumon), partie de, C 0222762( cage thoracique)), 0.4,0.7), (( C 0032225( plévre), partiede, C 0222762( cagethoracique)), 0.4,0.7), … }) où le document est constitué d'un ensemble de concepts pondérés selectionnés dans VpdsConcepts et d'un ensemble de relations pondérées de VpdsRelations. Pour un modèle de RI M, on appelle support de vocabulaires de requête SV Q la liste des vocabulaires utilisés pour représenter les requêtes, ce support détermine le modèle des requêtes. Le support de vocabulaires de requête SV Q représente un support de vocabulaires constitué de nvq vocabulaires de SV : SV Q = (V 1, V 2, …, Vnvq) avec nvq ≥ 1 Une requête q se compose de nvq ensembles QV et s'écrit : q = (QV 1, …, QVi, …, QVnvd) avec QVi ⊆ Vi QVi forme un sous-ensemble de vocabulaires défini par la sélection dans Vi des éléments représentant la requête. Ces représentations sont identiques dans leur construction à celles proposées pour les documents dans la section précédente. Le modèle de correspondance se base sur la définition d'une relation de correspondance entre les documents et les requêtes. La relation de correspondance RC définit un ensemble de relations entre les documents et les requêtes : RC = {(q, di)} RC s'appuie sur la fonction de pertinence Pert qui, pour chaque document de la collection et chaque requête, calcule la pertinence du document vis-à-vis de la requête : Pert : SV Q × SV D → R (q, d) → valeur Le cadre proposé permet d'établir des modèles qui expriment plusieurs points de vue (modèle multi-index) sur les documents. Ce dernier met en avant la création de supports de vocabulaires qui permettent de décrire le modèle des documents et le modèle des requêtes. L'intérêt de ce cadre est de représenter des modèles divers par un même formalisme. Cette représentation, par l'utilisation de supports de vocabulaires, met en avant l'expressivité des modèles et permet de positionner des modèles les uns par rapport aux autres. Dans la suite, nous proposons deux séries de quatre modèles basés sur ce cadre et nous testons leur performance en RI médicale. Ces deux séries se basent sur des paradigmes de RI différents, mais explorent les mêmes niveaux d'ex-pressivité. Ces modèles nous permettent d'une part d'évaluer l'expressivité, mais aussi de comparer les deux paradigmes. Nous utilisons le cadre proposé pour évaluer l'intérêt de l'expressivité et de sa modélisation pour des requêtes expertes dans le domaine médical. Dans ce but nous utilisons la collection CLEF médicale (Müller et al., 2007). Cette collection fait partie de la campagne d'évaluation CLEF. Nous utilisons les requêtes anglaises 3 des campagnes de 2005, 2006 et de 2007 (55 485 documents et 85 requêtes avec jugements de pertinence) pour évaluer plusieurs modèles basés sur des expressivités variables. Certains des modèles proposés nécessitent de définir des paramètres. Par conséquent nous découpons les requêtes en deux ensembles; un de 43 requêtes utilisé pour l'ap-prentissage des paramètres et un de 42 requêtes utilisé pour évaluer les performances des modèles. Sur cette collection, nous étudions quatre niveaux d'expressivité croissante, illustrés par la figure 3. Nous instancions chaque niveau de deux manières différentes : soit en nous inspirant du modèle vectoriel, ou bien en nous inspirant du modèle de langue (Ponte et al. ,1998). Ce dernier se base sur le calcul de la probabilité P (q | Md) exprimant que le document d décrit par un modèle de document Md, génère la représentation de la requête q. Cela produit effectivement, huit modèles de recherche d'information distincts. On peut ainsi étudier l'influence sur la qualité d'une indexation, de deux aspects orthogonaux : l'expressivité de l'index et la manière dont est réalisée la correspondance. Dans la suite nous proposons un modèle à base de lemmes (une variation des modèles à base de mots-clés), un modèle à base de graphe syntaxique où les lemmes sont reliés par des relations étiquetées, un modèle à base de concepts et un modèle à base de graphe syntaxique où les concepts sont reliés par des relations sémantiques étiquetées. Le premier niveau se base sur un vocabulaire de lemmes. Les lemmes Tlemmes sont obtenus avec l'analyseur syntaxique MiniPar (Lin, 1998), un analyseur à large couverture de l'anglais. Ils sont détectés dans les documents après un filtrage des types syntaxiques qui ne conserve que les noms, les adjectifs et les abréviations. Ils sont finalement racinisés à l'aide d'un algorithme de (Porter, 1997). Les deux modèles ML de ce niveau partagent la définition du support de vocabulaire à base de lemme, pour les documents et les requêtes. Seul diffère le contenu effectif des index des documents, des requêtes et bien sûr la manière dont est réalisée la correspondance. Dans ce niveau, un document indexé, et une requête sont un sous-ensemble du vocabulaire pondéré VLlemmes. Pour les deux modèles, la pondération diffère, mais aussi le sous-ensemble du vocabulaire qui leur est associé. En effet, le modèle vectoriel pondère de manière non nulle, uniquement les termes effectivement présents dans le document. Ce n'est pas le cas du modèle de langue : à cause de la distribution de probabilité pour un document sur les termes de la collection, tous les termes de la collection sont présents dans l'index. Modèle vectoriel En s'inspirant du modèle vectoriel, une requête ou un document indexé est composée de l'ensemble des lemmes trouvés dans le texte initial. La pondération P 1 sur le document est une variation du tf.idf 4 : soit le tf seul calculé selon est le nombre d'oc-currences du lemme l dans le document; soit l'idf seul calculé selon où N est le nombre de documents de la collection et D (l )le nombre de documents contenant le lemme l; soit le tf.idf obtenu par la combinaison des deux. Sur les requêtes, la pondération P 1 est la fréquence du terme, ici un lemme, dans le texte. Les documents et les requêtes sont alors considérés comme des vecteurs, dont les dimensions sont les termes, et la valeur, la pondération P 1 si le terme est présent, et zéro sinon. Enfin, l'appariement RCL est obtenu par le produit scalaire de ces deux vecteurs. Modèle de langue Ce modèle s'inspire des modèles de langue. Il est appliqué aux lemmes. Dans ce modèle, un document indexé est formé de l'ensemble des lemmes de la collection. La pondération P 1 est calculée par P (l | Md), la probabilité unigramme d'un lemme l ∈ Tlemmes dans le modèle du document d. Cette probabilité est obtenue par une estimation standard des modèles de langue unigramme 5 et s'ap-puie sur un lissage de Jelinek-Mercer entre la probabilité au sein du document et celle dans la collection : où (respectivement) est le nombre d'apparition d'un lemme l dans le document (respectivement la collection) et (respectivement) est le nombre de lemmes dans le document (dans la collection). Une requête q représentée par un sous-ensemble QVLlemmes de VLlemmes, est constituée de l'ensemble des lemmes de la requête initiale. La pondération P 1 est leur fréquence dans le texte de la requête. Enfin, le calcul de la correspondance RCL est obtenu en estimant P (q | Md), et en considérant que les lemmes de la requête sont indépendants : où l est un lemme de la requête, et p son nombre d'occurences dans cette requête. Les modèles de ce niveau d'expressivité exploitent la structure syntaxique extraite des phrases des documents et des requêtes. Ils se basent sur un vocabulaire de lemmes et un vocabulaire de dépendances. Les lemmes et les étiquettes de dépendances Tdépendances sont produits par l'analyse syntaxique en dépendance de Mini-Par. Nous ne conservons pour les documents que les lemmes qui correspondent à des noms, des adjectifs ou des abréviations et seulement les dépendances qui relient ces lemmes. Le modèle MD obtenu, basé sur ces structures de dépendance est alors défini par : Modèle vectoriel Dans ce modèle, un document indexé di est constitué de lemmes pondérés appartenant à VDlemmes, et d'un ensemble de dépendances pondérées appartenant au vocabulaire VDdépendances. La pondération P 1 est calculée de manière similaire pour ces deux ensembles, par des variations du tf.idf. Dans le cas des requêtes, la pondération P 1 des deux vocabulaires est la fréquence. Le calcul de la correspondance RCD se réalise par le produit scalaire séparé des vecteurs 6 côté lemmes et côté dépendances. Ces deux valeurs sont finalement combinées par une somme pour correspondre à la valeur de correspondance effective. Modèle de langue L'adaptation d'un modèle de langue à une indexation par des structures syntaxiques a été décrite à l'occasion d'une participation à la campagne CLEF (Maisonnasse et al., 2008). Dans ce modèle, un document indexé di est constitué d'une part d'un ensemble de lemmes pondérés appartenant au vocabulaire VDlemmes, et d'autre part d'un ensemble de relations de dépendances syntaxiques pondérées appartenant à VDdépendances. L'estimation de la pondération des lemmes est une probabilité identique à celle calculée dans l'équation [1 ]. La pondération des dépendances correspond à la probabilité d'avoir une étiquette syntaxique e entre deux lemmes l et l ′, sachant un modèle de document MD et l'ensemble L des lemmes de la requête, soit P (E (l, l ′) = e | L, MD), où E (l, l ′) est une variable qui rend compte des étiquettes syntaxiques e ∈ Tdépendances possibles pour un couple de lemmes (l, l ′) ∈ T 2 lemmes. Cette probabilité est calculée par : où représente le nombre de fois où les lemmes l et l ′ sont reliés par l'étiquette e dans le graphe du document et. Les fonctions sont similaires mais définies sur toute la collection. De manière similaire aux documents, une requête q est constituée des lemmes pondérés QVDlemmes, et de dépendances pondérées QVDdépendances. La pondération des éléments de la requête est leur fréquence d'apparition dans la requête. La relation de correspondance RCD se base sur le calcul de la probabilité du graphe de dépendance de la requête q selon l'équation 7 : Ainsi, le modèle considère que l'on génère d'une part les concepts de la requête puis ses dépendances, sachant les concepts déjà générés. La probabilité P (DVDlemmes | Md) de l'ensemble des lemmes est calculée comme dans l'équation [3 ]. La probabilité des relations P (DVDdépendances, DVDlemmes, Md) basée sur l'hypothèse d'indépendance est calculée selon : où (l, l ′, e )est une relation syntaxique de la requête et p sa fréquence dans la requête. L'indexation à base de concepts permet d'augmenter le niveau d'abstraction de l'index. D'un point de vue " syntaxique ", les deux modèles de ce niveau sont similaires aux modèles à base de lemmes. Le fait d'utiliser des concepts à la place des lemmes, implique l'usage d'une base de connaissances définisant des concepts et d'un outil linguistique pour associer des concepts aux textes en langue naturelle des documents et des requêtes (Radhouani et al. 2006). De manière concrète, les concepts Tconcepts proviennent de la ressource UMLS 8 du domaine médical. Ce modèle MC à base de concept est décrit par : Modèle vectoriel La mise en place d'un modèle vectoriel sur ce niveau conceptuel est une simple transposition des calculs faits dans le niveau des lemmes. Pour cela, sur les documents nous substituons le nombre de fois où un concept c est détecté dans le document et nous substituons D (l) par D (c) le nombre de documents où le concept c est détecté. Sur les requêtes, la pondération P 1 correspond au nombre de détection du concept dans une requête. Modèle de langue De même, l'application aux concepts du modèle de langue produit un modèle similaire à celui qui utilise les lemmes. La pondération des concepts P 1 est calculée par la probabilité unigramme P (c | Md), d'un concept c ∈ Tconcepts. Cette probabilité est obtenue par un lissage entre la probabilité au sein du document et celle dans la collection. Elle correspond à l'équation [1] appliquée sur les concepts. Une requête est formée par l'ensemble des concepts automatiquement détectés, et associés à P 1, leur fréquence. Enfin, la correspondance RCC est obtenue par le calcul de P (q | Md) : où c est un concept de la requête, et p sa fréquence dans cette requête. Ce niveau d'expressivité reprend l'indexation par concepts du niveau précédent, et y ajoute des relations sémantiques. Ces concepts et ces relations forment un graphe dont l'extraction à partir des phrases est détaillée dans (Maisonnasse et al. 2007), les étiquettes de relation utilisées Trelations sont celles du réseau sémantique d'UMLS. Modèle vectoriel Ce modèle est similaire à celui des graphes syntaxiques, mais basé sur des fréquences de détection de concepts et de relations. Modèle de langue Sur ce modèle, un document indexé di est constitué DVLGconcepts ⊂ VLGconcepts, l'ensemble des concepts de la collection, et de DVLGrelations ⊂ VLGrelations, l'ensemble des relations de la collection. Dans le cas des concepts P 1 est la probabilité des concepts, identique à celle du modèle LC. Pour les relations P 1 correspond à la probabilité P (E (c, c ′) = e | C, Md )la probabilité d'attribuer une étiquette (sémantique) e ∈ Telations pour le couple (c, c ′) ∈ T 2 concepts sachant l'ensemble C des concepts de la requête. Cette probabilité est calculée de facon identique à l'équation [4 ], mais appliquée à des relations sémantiques entre concepts. Une requête q est constituée de QVLGconcepts ⊂ VLGconcepts, l'ensemble des lemmes de la requête, et de QVLGrelation ⊂ VLGrelation, l'ensemble des dépendances de la requête. Dans ces deux cas la pondération P 1 correspond à la fréquence de l'élément dans la requête. Résultats sur la collection CLEF médical, basés sur le modèle vectoriel, pour chaque niveau d'expressivité Modèle Pondération MAP GMAP P@5 P@10 P@20 ML tf idf 0.187 0.185 0.045 0.046 0.424 0.352 0.362 0.326 0.312 0.290 tf.idf 0.192 0.054 0.352 0.329 0.288 MD tf idf 0.189 0.190 0.047 0.049 0.395 0.352 0.355 0.338 0.302 0.296 tf.idf 0.196 0.057 0.343 0.340 0.298 MC tf idf 0.207 0.206 0.048 0.065 0.362 0.371 0.345 0.326 0.323 0.301 tf.idf 0.206 0.063 0.357 0.326 0.296 MG tf idf 0.214 0.217 0.054 0.070 0.376 0.395 0.357 0.359 0.334 0.323 tf.idf 0.217 0.069 0.390 0.350 0.314 La relation de correspondance RCG calcule la probabilité du graphe sémantique de la requête q selon l'équation définie dans (Maisonnasse et al., 2008) : La probabilité P (QVGconcepts | Md) d'un ensemble de concepts est calculée comme dans l'équation [7 ]. Et la probabilité des relations P (QVGrelations | DVGconcepts, Md se calcule par : où (l, l ′, e )est une relation sémantique de la requête et p sa fréquence dans la requête. Les tableaux 1, 2 et 3 présentent les résultats obtenus par les différents modèles sur la collection. Pour cette collection qui fournit des besoins d'information experts, les résultats montrent globalement que plus le modèle est expressif plus les résultats obtenus sont bons, cela quels que soient la pondération et le type de modèle. Sur le modèle vectoriel, nous remarquons que le tf.idf donne de bons résultats. Cependant les modèles basés sur le paradigme des modèles de langue fournissent des résultats largement meilleurs quel que soit le niveau sémantique. Cependant sur ce modèle la différence, en MAP, entre les résultats sémantiques et les résultats lexicaux est moins marquée. Résultats sur la collection CLEF médical, basés sur le modèle de langue, pour chaque niveau d'expressivité Modèle MAP GMAP P@5 P@10 P@20 ML 0.244 0.089 0.443 0.402 0.356 MD 0.245 0.089 0.443 0.390 0.361 MC 0.246 0.092 0.424 0.398 0.362 MG 0.250 0.091 0.452 0.405 0.369 Comparaison synthètique de la précision moyenne des deux types de modèles sur la partie évaluation de la collection CLEF médical Pondération ML MD MG MG Modèle vectoriel (tf.idf ) 0.192 0.196 0.206 0.217 Modèle de langue 0.244 0.245 0.246 0.250 Les expérimentations présentées montrent la capacité de notre cadre de modélisation à représenter des modèles différents basés sur différents paradigmes et différents niveaux d'expréssivité. Nous avons présenté huit modèles dont quatre multi-index. Sur ces huit modèles, l'utilisation du cadre facilite les comparaisons. Au sein d'un même paradigme, ces modèles varient essentiellement sur leur expressivité (nombre de vocabulaires et espace d'expression des vocabulaires). Ils utilisent les mêmes pondérations et des relations de correspondance proches. Cela permet d'étudier directement l'im-pact de l'expressivité, ce qui est fait lors de l'expérimentation. Entre modèles d'expressivité similaire, les modèles varient sur la portion de vocabulaire utilisée pour représenter le document; limité aux éléments du document dans le cadre vectoriel et éléments de la collection dans le cadre des modèles de langue. les modèles varient également sur les calculs de la relation de correspondance RC qui influe sur les pondérations au sein des documents. La modélisation permet donc de mettre en avant les différences entre modèles et d'étudier l'impact de ces différences sur les expérimentations. La tâche CLEF médical fournit des besoins précis. Plus ces besoins sont représentés expressivement, plus les résultats sont bons. Nous pouvons en conclure qu'amé-liorer l'expressivité est bénéfique pour cette tâche. Cela est validé par les deux paradigmes de modélisation présentés; le modèle vectoriel et le modèle de langue. Dans cette application, nous avons présenté les deux types de modèles. Nous en concluons que l'utilisation de modèles dérivés de l'approche modèle de langue fournit de meilleurs resultats, quel que soit le niveau d'expressivité, ce modèle intègre mieux un document dans son contexte en le représentant sur l'ensemble du vocabulaire de la collection. Dans certains domaines, notamment les domaines d'expertise, il est important de bien choisir l'expressivité du SRI. Cependant, peu d'outils sont disponibles pour positionner et évaluer l'impact de l'expressivité. Nous avons proposé dans cet article un cadre de définition des modèles de RI qui met en avant cette expressivité. Ce cadre permet, par l'utilisation de supports de vocabulaires, de définir différents modèles en mettant en avant leur expressivité, ce que nous avons fait dans les expérimentations. L'utilisation de ce cadre nous permet d'établir une étude sur l'intérêt de l'expressivité pour la résolution de requêtes expertes dans le domaine médical. Cette étude montre l'intérêt du cadre pour modéliser l'expressivité et pour étudier son impact dans différentes tâches de RI. Notre modélisation permet aussi de comparer différents modèles basés sur des expressivités similaires, ce que nous avons fait sur les différents niveaux d'expressivité et ce qui permet de sélectionner le meilleur modèle sur un niveau d'ex-pressivité. Dans la suite de ces travaux, nous souhaitons étudier ce qui caractérise les différent modèles de RI, dans notre cadre de modélisation, pour mieux comparer leurs performances. Par exemple, la quantité du vocabulaire utilisé pour représenter les documents et les requêtes n'est pas la même dans tous les modèles .
Nous proposons dans cet article de modéliser l'expressivité des systèmes de recherche d'information (SRI). En effet peu de cadres de modélisation sont disponibles pour spécifier les SRIs. Nous proposons un tel cadre sur lequel nous portons un intérêt particulier à la modélisation de l'expressivité, c'est-à-dire à ce que ce modèle est capable de décrire. Le niveau d'expressivité est important dans les SRIs, et positionner un système au bon niveau permet d'obtenir de meilleurs résultats. Le cadre de modélisation que nous proposons permet ainsi de choisir l'expressivité d'un modèle et de comparer des modèles sur leur niveau d'expressivité. Nous montrons en dernier lieu les possibilités offertes par ce cadre pour sélectionner le niveau d'expressivité sur une tâche de recherche d'information médicale, où les utilisateurs expriment des besoins complexes.
sciencesInfo_10-0065110_tei_DN_121_0107.tei.xml
termith-422-communication
« Sur la page de son blog, la citation semblait suspendue : « Latrahison, essence même de la vie politique. .. » Hier, une autre phrase a étéajoutée : « On l'appelait le Sphinx. .. » Un imparfait qui informe sobrement qu'AndréLabarrère, maire de Pau depuis 1971, député des Pyrénées-Atlantiques duranttrente-quatre ans, ancien ministre de François Mitterrand, ne sera plus là pourcontinuer son journal de bord ». Pascal Virot, Libération, « Pau a perdu son « Sphinx » » (17/05/07 ,p. 12). Annoncer la mort fait partie des plus anciennes fonctions de la presse : dès 1716 ,les Affiches de Paris comportent des faire-part de décès quiprennent le relais des annonces faites par les crieurs. À partir de 1777, le Journal de Paris, premier quotidien français, consacre chaquejour une page à la rubrique enterrements et ses successeurs ont pris le relais :aujourd'hui, Le Figaro et Le Monde ,les deux plus grands quotidiensnationaux généralistes, continuent d'avoir une rubrique dédiée aux articlesnécrologiques (Florea, 2010a). Ainsi l'annonce du décès de personnalités importantesest-elle une tradition solidement ancrée dans les pratiques de la presse. Etpourtant, dès lors qu'on y réfléchit, annoncer la mort dans le journal ne va pas desoi : comment faire part d'un décès entre les pages sportives et la météo – puisquec'est habituellement la place dévolue à la rubrique nécrologique ? Par ailleurs, iln'est pas aisé de représenter ce qui, par définition, n'est plus et cette difficultésémiotique se double d'une difficulté métaphysique : la mort est frappée d'un tabou( Ariès, 1977) qui rend sa représentation problématique, et ce, notamment dans lesmédias, comme nous avons pu le voir dans l'introduction du présent dossier (Rabatel ,Florea, 2011). Il s'agit donc ici de s'interroger sur les représentations de la mortdans les nécrologies de presse, à partir d'un corpus d'articlesnécrologiques issus de la presse française contemporaine. Dans la mesure où les représentations dela mort dépassent le cadre purement linguistique et sont pénétrées par les plansculturel et philosophique, l'analyse de discours que l'on pratiquera prendrésolument en compte la dimension anthropologique du langage. Nous commencerons enfaisant l'inventaire des divers moyens langagiers qui permettent de dire la mortdans les nécrologies. Ceci conduira à approfondir le lien entre nécrologie etbiographie : si la nécrologie a étymologiquement pour mission de dire la mort, ellene parle finalement que très peu du décès, qui est rapidement occulté au profit durécit de vie : cette tension entre mort et vie, entre nécrologie et biographie, esten elle -même une façon de dire la mort. La représentation de la mort se double alorsd'une re-présentation du mort, qui est plus qu'une description d'une réalitépréexistante et qui contribue à construire une autre réalité : il s'agit de mettrele disparu en présence, de lui redonner vie par le biais du discours. Nous allons dans un premier temps chercher à déterminer par quels moyenslangagiers la mort est dite dans les nécrologies. « Dire » peut prendre demultiples formes : la mort peut être signifiée directement, ou expriméeimplicitement, qu'elle soit sous-entendue ou qu'elle se déduise en creux par cequi justement n'est pas montré. Nous nous attarderons successivement sur lesindices lexicaux, syntaxiques, morphosyntaxiques et textuels qui permettentd'exprimer la mort. La mort se lit tout d'abord dans le lexique. De façon assez traditionnelle ,on trouve des euphémismes, destinés à éviter l'emploi du verbe « mourir » ,qui est ainsi au cœur de l'article tout en n'y figurant pas directement. Ils'agit là d'une forme de « tabou linguistique » qui avait déjà été décritpar Antoine Meillet (1948 : 281-291), dans lequel le signifié demeure, alorsque le signifiant est frappé d'interdit, et contourné par des expressionsmoins directes : le sens est dit, mais le mot est tu. Il peut s'agir depériphrases lexicalisées, comme dans les exemples 1 et 2, ou d'expressionsplus originales, comme dans l'exemple 3 : (1) L'actrice italienne s'est éteinte samedi à 84 ans (20minutes, 24/04/06 : p. 30 – Alida Valli); (2) C'est l'un des plus grands patrons d'industrie françaisequi a disparu, hier (L' Équipe, 27/05/06 : p. 18 –Édouard Michelin); (3) György Ligeti rejoint les nuages (Libération, 13/06/06 : p. 1 – György Ligeti). Toutefois, l'analyse de la séquence d'annonce de mort – que l'on retrouvesystématiquement dans les nécrologies, dont elle constitue généralement lapremière phrase –, au sein d'un sous-corpus représentatif de 54 articles ,montre que l'euphémisation n'est pas le moyen le plus courant de dire lamort, puisqu'elle n'est employée que dans 15 % des cas (notamment par lebiais des lexèmes « s'éteindre » et « disparaître »). Étonnamment, lesatténuations et contournements linguistiques ne sont donc pas la façonarchétypale d'annoncer la mort dans les colonnes des nécrologies, et deloin, contrairement à ce que l'on aurait pu attendre, au vu du tabougénéralisé qui s'empare de la mort, du moins dans les sociétés occidentales .Ainsi, dans l'ensemble, les moyens lexicaux pour dire la mort sont-ils assezpeu détournés : la dénomination de la mort est souvent crue, par le biaisdes verbes « mourir » et « décéder » ou leurs substantifs, qui sont bienplus fréquents que tout autre terme, puisque ces lexèmes sont retrouvés dansplus des deux tiers des séquences d'annonce de mort des nécrologies. De lamême façon, la mort peut être dite dans la séquence d'annonce par la mentionde la cause de la mort (dans 10 % des cas), y compris lorsqu'il ne s'agitpas d'une « belle mort ». Le nécrologue n'hésite pas à évoquer de façon trèsdirecte le suicide, l'assassinat ou la maladie (notamment le cancer ou lesida) : (4) L'écrivain et figure du trotskisme européen BorisFraenkel s'est suicidé à 85 ans en se jetant d'un pont à Paris (La Croix, 02/05/06 : p. 9 – Boris Fraenkel); (5) Le « foutu crabe » a finalement euraison du romancier (Libération, 03/11/04 : p. 33 –adg). Là où l'on aurait pu s'attendre à un silence lourd de sens ou à despériphrases destinées à adoucir la réalité, on voit que le nécrologuen'hésite pas à donner des détails sur les circonstances du décès, y comprislorsqu'elles sont dérangeantes. C'est d'ailleurs l'occasion de se demanderce qui peut être dit et ce qui doit être tu, et si le décès modifie larépartition entre ces deux catégories : par exemple, on ne parle pas desdéfauts d'un défunt, ou en tout cas pas tout de suite. Cela dit, les détailsdonnés dans ces derniers exemples pourraient apparaître comme des atteintesà la face positive du disparu et éventuellement à celle de ses proches .Toutefois, ils peuvent également être interprétés comme des indices desouffrance, ce que vient confirmer par exemple le cotexte du dernierexemple : (5) « J'ai souvent entendu dire que le cancer est unemaladie longue et douloureuse. C'est surtout une maladie chiante, disait adg à Libération il y a unan tout juste. Le foutu crabe a finalement eu raison du romancier, dans lanuit de lundi à mardi, à Paris ». On voit que la formule « le foutu crabe » fait écho à la citation d ' adg qui précède l'annonce de sa mort, introduisantune certaine complicité entre le journaliste et le disparu, qui prenaitlui -même de son vivant des libertés avec les convenances lorsqu'ils'agissait d'évoquer sa maladie. Cette connivence linguistique est, comme onle verra plus tard, une façon de recréer par le discours le lien entre lesvivants et le mort, alors même que les mots disent la coupure qui lessépare. Quoi qu'il en soit et quelles qu'en soient les raisons, ce souci desdétails des circonstances de la mort témoigne d'une façon de dire la mortqui va droit au but et ne s'encombre que rarement de contournementslexicaux. La mort se lit enfin, de façon plus implicite, dans les empruntsfréquents au champ lexical de l'absence, comme dans les exemplessuivants : (6) Ligeti a cessé de battre (L'Humanité, 13/06/06 : p. 23 – György Ligeti); (7) Les Aïnous restent sans voix au Japon (Libération, 10/05/06 : p. 12 – Shigeru Kayano); (8) « Le Parisien » orphelin de Philippe Amaury (Libération, 25/05/06 : p. 1 – Philippe Amaury). Le champ lexical de l'absence est alors le signe du lien coupé entre le mortet les vivants. C'est d'ailleurs souvent le point de vue de ces derniers quiest mis en avant, comme dans les exemples 7 et 8, où l'absence est perçuedepuis la perspective de ceux qui restent. Ainsi voit-on que le lexiquecomporte des implications énonciatives, puisque le choix des mots dit laréaction des vivants face au décès. Cette assimilation de la mort à la perte, à l'absence, se poursuit dans ledomaine syntaxique avec une utilisation importante de la forme négative quiest un moyen privilégié dans l'expression du décès. Là encore, la formenégative est un indice du lien coupé entre les vivants et le mort, séparéspar les adverbes de négation : (9) Raymond Devos ne reviendra pas saluer (Libération, 16/06/06 : p. 3 – Raymond Devos); (10) On ne le prendra plus en flagrant délire (L'Humanité, 16/06/06 : p. 22 – Raymond Devos); (11) Jojo ne suivra pas le Tour de France cet été à latélévision (L'Humanité, 23/05/06 : p. 6 – GeorgesFrischmann). Dans ces exemples, la mort n'est donc pas dite explicitement : ces énoncés ,hors de tout contexte, pourraient même s'appliquer à des vivants. Mais encontexte, la mort se laisse lire en creux et elle se conçoit alors comme lanégation de certains gestes, de certaines attitudes dont le défunt avait pufaire preuve de son vivant. Au point que ces phrases négatives finissentparfois – a contrario – par raconter la vie dudisparu, comme c'est le cas pour cette nécrologie de Patrick Pierre paruedans le Figaro, rédigée par celui qui fut soncollègue : (12) Nous ne verrons plus sa silhouette de bon nounoursruisselant de pluie garer son scooter en bas du journal et lancer à lacantonade : « Beau temps pour les escargots ! » Nous ne l'entendrons plusévoquer avec l'ami Pierre les murs roses d'Odaïpur et la petite cabane surla plage de Goa. Il ne nous redira pas, pour la cent-unième fois, que, non ,la statuette sur son ordinateur n'est pas le roi Babar mais Ganesh, lafameuse divinité hindoue (Le Figaro, 22/05/06 :p. 13 – Patrick Pierre). Là encore, c'est en grande partie le point de vue de ceux qui restent qui estadopté, et la forme négative se lit à nouveau comme un indice de la ruptureentre les vivants et le mort, irrémédiablement séparés par les adverbesprivatifs (« Nous ne verrons plus sa silhouette », « Nous ne l'entendronsplus »). Poussée à son extrême, cette utilisation de la négation pour direla mort aboutit à une réduction binaire : on est, ou on n'est plus, ce quipeut donner lieu à des titres tels que ceux des exemples suivants, quireviennent fréquemment dans les nécrologies : (13) Claude Piéplu n'est plus (Libération, 26/05/06 : p. 26 – Claude Piéplu); (14) Le combattant de l'insolence n'est plus (Le Figaro, 22/05/06 : p. 13 – Christophe dePonfilly). Élégante formule pour dire le néant, la fin de la vie. La coupure y estrenforcée par le fait que la négation, en plus d' être absolue, porte dansces exemples sur le titre : ainsi la rupture est-elle signifiée et mise envaleur d'entrée de jeu. Dans les nécrologies, la mort est également dite par des moyensmorphosyntaxiques, notamment dans l'expression du temps, et en premier lieupar le biais de l'emploi de temps du passé : (15) Sur la page de son blog, la citation semblaitsuspendue : « La trahison, essence même de la viepolitique. .. » Hier, une autre phrase a été ajoutée : « On l'appelait le Sphinx. .. »Un imparfait qui informe sobrement qu'André Labarrère, maire de Pau depuis1971, député des Pyrénées-Atlantiques durant trente-quatre ans, ancienministre de François Mitterrand, ne sera plus là pour continuer son journalde bord (Libération, 17/05/07 : p. 12 – AndréLabarrère). Dans ce passage de la nécrologie d'André Labarrère, le journaliste commentel'emploi de l'imparfait sur la phrase qui a été rajoutée sur le blog dudisparu pour annoncer sa mort : on constate l'équivalence entre cetimparfait et l'emploi du futur associé à la négation privative dans « nesera plus là », sur le modèle de ce que l'on vient d'étudier, les deux étantdonnés comme deux façons synonymes de dire la mort. Tous les temps du passépeuvent être convoqués pour informer du décès : (16) C'est l'un des plus grands patrons d'industriefrançaise qui a disparu, hier. À quarante-trois ans, Édouard Michelin étaità la tête du premier groupe mondial de fabricant de pneumatiques. Il avaitpris la suite de son père en 1999 (L' Équipe ,27/05/06 : p. 18 – Édouard Michelin); (17) L'homme qui fut le conseiller de tous les présidents[ …] et qui fut l'un des piliers de l'université […] laisse derrière lui uneimpressionnante liste de trente-trois ouvrages économiques (Le Figaro, 02/05/06 : p. 18 – John Galbraith). Les temps employés vont du passé composé (« a disparu ») à l'imparfait( « était »), du plus-que-parfait (« avait pris ») au passé simple( « fut ») : dire la vie au passé informe donc de la mort présente. C'est également par l'aspect des verbes que la mort est dite. On observe unemploi important des temps composés qui, par la valeur d'accompli qu'ilsapportent au procès qu'ils décrivent, signifient eux aussi la mort, à leurfaçon, et ce, quel que soit le temps, qu'il s'agisse du plus-que-parfait( exemple 18) ou, de façon plus inattendue, du futur antérieur (exemple19) : (18) Jeudi dernier, [Vincent de Swarte] avait mis ladernière main à son prochain livre (Le Figaro –Supplément littéraire, 27/04/06 : p. 2 – Vincent de Swarte); (19) Karel Appel aura été un extraordinaire artiste àrebonds et reprises (Libération, 06/05/06 : p. 31 –Karel Appel). D'ailleurs, on peut noter qu'en français, les différents termes qui désignentle mort sont justement des participes passés substantivés, comme si cettevaleur aspectuelle d'accompli était la mieux à même de dire, en langue, cequi n'est plus. C'est le cas pour « mort », pour « disparu », ou encore pour« défunt », de par son origine (du latin defunctus ,participe passé de defungi), comme le souligne cetextrait d'un dictionnaire du XIX e siècle qui attirenotre attention sur l'adéquation entre l'origine du mot et sasignification : « C'est une excellente idée que celle de défunt. Ce mot signifie, à la lettre, qui s'est acquitté de lavie. De fungi, s'acquitter d'une charge, faire unefonction, fournir une carrière, remplir sa destination ou son devoir. Defungi désigne proprement l'action d'achever sacharge, de terminer sa carrière, de consommer sa destinée, mais surtoutcelle de se délivrer d'un onéreux fardeau. La charge de l'homme, sa chargepar excellence, c'est la vie; le défunt s'en estacquitté » (Guizot, 1809 : 948). De plus, l'ordre dans lequel les temps apparaissent dans l'article n'est pasanodin, comme le montre l'analyse du premier paragraphe de la nécrologie dePatrick Pierre déjà évoquée ci-dessus : (12) Nous ne verrons plus sa silhouette de bon nounoursruisselant de pluie garer son scooter en bas du journal et lancer à lacantonade : « Beau temps pour les escargots ! ». Nous ne l'entendrons plusévoquer avec l'ami Pierre les murs roses d'Odaïpur et la petite cabane surla plage de Goa. Il ne nous redira pas, pour la cent-unième fois, que, non ,la statuette sur son ordinateur n'est pas le roi Babar mais Ganesh, lafameuse divinité hindoue. Il avait 54 ans, dont vingt-deux passés au Figaro. Il était né au Cambodge, il avait grandi enAfrique. Il aimait Mozart, les Rolling Stones et le roman américain. PatrickPierre a posé le typomètre et ce portemine en métal d'où sont sorties tantet tant de pages du Figaro. Comment allons -nousboucler sans lui ? En premier lieu vient le futur, signe de la souffrance du manque, premièreréaction au décès. On se souvient que l'emploi de la forme négative pourdire la mort porte souvent sur le titre, ou du moins sur le début del'article : le fonctionnement est identique ici pour le futur qui signified'entrée de jeu la douleur de la rupture. Après le futur viennent les tempsdu passé : d'abord un imparfait qui nous place dans un passé proche, lepassé du moment du décès, un passé qui s'est interrompu d'un coup avec lamort, tranchant avec la valeur commentative traditionnelle de l'imparfait .Puis un retour en arrière, avec des temps composés qui racontent la vie, ense rapprochant de plus en plus du moment présent : on passe ainsi duplus-que-parfait (« était né », « avait grandi »), signe d'un passé révolu ,au passé composé (« a posé », « sont sorties »), plus directement articuléau présent, et qui se perpétue même encore aujourd'hui, comme en témoigne lasuite de l'article, qui montre à quel point le disparu a imprimé sa marqueau journal. Revient enfin le futur proche (« allons boucler »), donnantl'impression que la douleur du manque se fait ressentir par vagues. Dans cet exemple, la mort est dite essentiellement par deux moyenscomplémentaires : d'une part, les temps du passé, qui placent la vie dudisparu dans une antériorité révoquée et, d'autre part, le futur, dans lesdeux passages qui encadrent le paragraphe. Si l'emploi de temps du passéest, comme on l'a vu, un moyen classique de dire la mort, en revanche lerecours au futur a de quoi étonner : tout d'abord parce qu'il s'agit d'unrécit, or comme le rappelle Jacques Bres (2009 : 198) dans un article sur lefutur dans la textualité narrative, dans un récit, « le savoir du narrateur[ …] ne peut guère s'appliquer qu' à un fait qui s'est passé, c'est-à-dire àun événement à narrer antérieur à l'acte narratif ». Mais aussi parce que lerécit qui sous-tend la nécrologie ne peut se déployer vers l'avenir, il estirrévocablement bloqué dans le passé, du fait de la mort de sonprotagoniste. Et pourtant, ce futur revient régulièrement dans lesnécrologies, semblant défier la classique rétrospectivité de la narration ,et qui plus est de la narration nécrologique. Or, si l'on observeprécisément les différentes occurrences de futur dans ce passage, on voitque ce temps est associé soit à la forme négative (comme dans la premièresérie de futurs : « nous ne verrons plus », « nous ne l'entendrons plus » ,« il ne nous redira pas », ou comme dans les exemples 9 à 11 étudiés plushaut), soit à la modalité interrogative (« Comment allons -nous boucler sanslui ? »). Cette association entre l'utilisation d'un temps par lequell'auteur se projette dans l'avenir, et la négation ou l'interrogationillustre une tension fondamentale dans les nécrologies : en utilisant lefutur, l'auteur voudrait faire comme si le mort était encore en vie, commes'il y avait encore un avenir possible, en évoquant la vie à partir d'unpoint de référence ancré dans le passé. Dans le même temps, la négation etl'interrogation sont ancrées dans le présent d'énonciation et indiquentcombien cet envisagement de l'évènement est tiraillé entre des valeurscontradictoires : le sentiment illusoire de vouloir arrêter le temps etrevenir en arrière, et la conscience que c'est impossible. Ainsi ladiversité des valeurs temporelles et aspectuelles souligne -t-elle unetension entre vie et mort qui sous-tend l'ensemble de la nécrologie. Pour finir, ce sont des procédés sémio-discursifs qui sont à l' œuvre pourdire la mort. En effet, la nécrologie étant insérée dans le journal ,diverses informations permettent d'emblée au lecteur de savoir à quel genrede discours elle appartient, orientant ainsi son interprétation avant mêmela lecture du texte. C'est le cas des surtitres qui surplombent parfoisl'article : « Décès », « Disparition » ou encore « Nécrologie » (voirl'exemple 20), ainsi que des indications de rubriques, telles« Disparitions » dans Le Monde (voir l'exemple 21) ,ou « Deuils » dans Le Figaro. Ici ,les indications « Nécrologie » et « Disparitions », placées avant le corpsde l'article, informent déjà le lecteur que la personne dont l'article faitl'éloge est décédée. D'ailleurs, il est à noter que, contrairement à ce quel'on avait observé dans la séquence d'annonce de mort qui ouvrehabituellement la nécrologie, ces éléments de titraille ou de rubricage sontfréquemment euphémisés : cela tend à montrer que si l'atténuation lexicaleest quantitativement rare, elle est néanmoins qualitativement à des endroitsstratégiques. La disposition du texte peut, elle aussi, jouer un rôle –toutefois plus marginal – dans l'annonce de la mort, comme dans cette Une dujournal Présent qui, par sa forme rectangulaire ,redoublée par le dessin en son centre et par l'encadré noir qui entoure lapage, ressemble à un faire-part de décès, voire à un tombeau ,montrant ainsi la mort par des moyens non langagiers. Ici, la mort n'est pas dite telle quelle par des moyens linguistiques, elleest exprimée indirectement, sous-entendue par le dessin qui présuppose queGeorges-Paul Wagner est déjà mort puisque ses compagnons lui disent adieu .La rupture est manifestée ici par le biais d'indices iconiques : la portequi ouvre d'un monde vers l'autre, le contraste entre le noir d'ici-bas etle blanc de l'au-delà. Toutefois, là encore, même si le dessin et la mise enpage disent la mort, la scénographie montre que ce sont les vivants quis'honorent de dire la mort et de continuer la vie, et l'adieu se dédoubleentre celui qui dit adieu en allant à Dieu, et ceux qui lui disent adieutout en allant vers la vie. Ainsi, les moyens utilisés dans les nécrologies pour dire la mort sont-ilstrès divers : la séquence informative de l'annonce de la mort qui ouvre lanécrologie dit généralement la mort dans des termes crus et de façon trèsdirecte. Mais la mort se lit aussi dans le reste de la nécrologie, notammentdans la titraille, dans le corps du texte, dans la mise en page, dans lesillustrations, et la mort y est alors habituellement signifiée de façonimplicite : la nécrologie abonde de marqueurs lexicaux, morphosyntaxiques ,discursifs, iconiques, qui – chacun dans leur domaine – représentent larupture entre le monde des vivants et celui des morts, le lien coupé entrecelui qui part et ceux qui restent, et malgré cela le besoin de continuersous une forme ou sous une autre. C'est à l'autre versant de cette tension entre la vie et la mort qui sous-tendles nécrologies que l'on va maintenant s'intéresser. En effet, l'annonce de lamort semble ne pouvoir se faire sans le récit de vie, comme s'il n'étaitacceptable de parler de la mort qu' à condition de parler aussi de la vie. Lanécrologie, qui a étymologiquement pour mission de dire la mort, devient alors biographie, récit de vie. Dans la nécrologie, ce récit de vie prend une place bien plus importante quel'annonce de la mort, comme nous le montrent plusieurs indices concordantsdans divers domaines que l'on étudiera successivement : du point de vue duvolume et de l'ordre des passages consacrés respectivement à l'annonce de lamort et au récit de vie, du point de vue de la progression thématique dutexte, et enfin du point de vue de la focalisation énonciative. Cetteprimauté du récit de vie sur l'annonce de la mort se lit d'abord dans levolume textuel alloué à ces deux passages : dans presque toutes lesnécrologies, l'annonce de la mort couvre uniquement le premier paragraphe ,dans lequel la mort est dite sous la forme que l'on a étudiée plus haut. Lerécit de vie quant à lui occupe tout le reste de l'article (soithabituellement deux ou trois colonnes). Ainsi, voit-on que le volumerespectif de ces deux passages est très déséquilibré, le récit de viecomptant en moyenne pour 90 % du volume textuel de la nécrologie. On noted'ailleurs une inversion des contenus par rapport à l'ordre chronologiqueque l'on aurait pu attendre : dans le déroulement des faits, la mort arrivelogiquement à la fin de la vie. Or, dans la nécrologie, la mort estsystématiquement dite en premier, ce qui permet de vite en balayer lanouvelle, pour se concentrer sur la biographie. Les analyses précédentes – qui montrent que l'annonce de la mort devientparfois secondaire – sont confirmées par l'étude de la progressionthématique des nécrologies : dans un certain nombre d'articles (certesminoritaires, mais pas anecdotiques non plus, puisque le phénomène seretrouve dans une trentaine d'articles du corpus), la position syntaxique dela séquence d'annonce de la mort la met en retrait par rapport à l'ossatureprincipale de la phrase dans laquelle elle survient : (23) « Beaucoup de ceux qui aiment les textes érotiques sansvulgarité ont lu La négresse muette [… ]. Parfois sansmême retenir le nom de son auteur, car Michel Bernard, qui est mort d'uncancer jeudi 28 octobre à Paris, à l' âge de 70 ans, avait refusé, en dépitde ce succès, de se spécialiser dans la littérature érotique » (Le Monde, 02/11/04 : p. 30 – Michel Bernard); (24) Jacques Cellard, qui est mort jeudi 11 novembre à l' âgede 84 ans, a été, de 1971 à 1985, le chroniqueur, au Monde, de « La vie du langage » (Le Monde ,14/11/04 : p. 19 – Jacques Cellard); (25) « Acquérir à bon marché et vendre cher […] », avaitrésumé The Economist lors de la retraite del'industriel britannique Lord James Hanson, mort lundi 1 er novembre d'un cancer, à l' âge de 82 ans (LeMonde, 06/11/04 : p. 2 – James Hanson). Dans les exemples 23 et 24, l'annonce de la mort apparaît sous la forme d'uneproposition subordonnée relative à valeur explicative, et dans l'exemple 25 ,sous forme d'un syntagme adjectival, épithète détaché de « Lord JamesHanson » : dans ces trois exemples, le message est donc bien en retrait parrapport à la structure prédicative de la proposition principale. L'annoncede la mort est reléguée dans le thème de la phrase, alors qu'on se seraitattendu à la trouver dans le rhème, dans l'information nouvelle apportée parla phrase, ce qui montre bien que le but de l'article est la rétrospective ,et non l'annonce de la mort en soi. L'exemple 26 fonctionne de manière unpeu différente mais les effets sont identiques : (26) « C'est un homme d'esprit, un homme de cœur, un hommeaimable qui disparaît » (Le Monde, 17/06/06 : p. 32– Raymond Devos). En l'occurrence, la focalisation par le présentatif « c'est… qui » permet uneinversion thématique : les qualités du défunt qui sont mises en relief parla structure clivée deviennent l'information capitale de l'énoncé, l'annoncede la mort étant déportée dans le thème et donc supposée connue. Ainsi, cesur quoi l'énoncé focalise, ce n'est pas la mort, mais le vivant que ledisparu a été. Par conséquent, l'annonce de la mort peut être considéréedans ces exemples, au vu de leur structure syntaxique, comme une informationde second plan, un point de départ impulsant le récit de vie. Il s'agitalors presque d'un prétexte, au sens figuré comme au sens littéral etétymologique, puisque c'est aussi un pré-texte, un événement déjà connu : lanécrologie n'est dès lors pas tant une annonce qu'un « monument » érigé enhommage au disparu, un moment de célébration qui suit l'annonce. Enfin ,cette focalisation sur la vie se retrouve dans le point de vue souventadopté par le journaliste : si l'on représente le déroulement du temps parun axe (figure 1), sur lequel on place la vie du personnage racontée par lanécrologie, entre les deux bornes que sont la naissance et la mort, on peutpositionner le moment de l'énonciation juste après la fin de la vie. On aurait pu supposer que ce soit à partir de ce moment de l'énonciation quele journaliste ait choisi d'observer et de raconter la vie du disparu. Maissouvent, ce point focal depuis lequel la vie est observée est déplacé à unmoment de la vie du personnage, l'énonciateur adoptant empathiquement lepoint de vue du disparu au cours de sa vie. C'est le cas dans l'exemple27 : (27) « Billy Preston est alors loin d'imaginer que, quelquesannées plus tard, il créera pour les Fab Four le son unique de Get Back » (Libération, 08/06/06 : p. 33 – BillyPreston). Le « alors » de l'énoncé représente l'année 1962, où Billy Preston se produiten concert à Hambourg. C'est à partir de ce repère temporel que sontorganisés les temps verbaux, le présent de « est » et le futur de« créera ». Le fonctionnement temporel est le même dans les exemples 28 et29 : (28) « Il découvrira bientôt que le sang conserve en outre ,par ses caractères innés, la trace de nos origines » (LeMonde, 22/04/06 : p. 26 – Jean Bernard); (29) « Pierre Tabatoni appartient désormais à ce petitgroupe d'universitaires qui s'efforcent de moderniser nos institutions » (Le Monde, 21/04/06 : p. 27 – PierreTabatoni). En 28, le journaliste se permet une prolepse narrative (autorisée par laconnaissance que lui a de l' « après », étant donné que le lieu del'énonciation est postérieur à la mort du personnage, ce qui lui donne unevision surplombante de l'ensemble de sa vie), mais l'emploi du futur ,redoublé par l'adverbe temporel « bientôt », indique que le point focaldepuis lequel la vie est considérée est bien positionné pendant la vieelle -même. En 29, la lecture du début de la phrase permet d'envisager unesuite du type : « Pierre Tabatoni appartient désormais à ce petit grouped'universitaires qui se sont efforcés de modifier nos institutions ». Maisl'emploi du présent dans la subordonnée, et non du passé composé (ou dupassé simple) auquel on se serait attendu, contraint à modifier notrelecture du début de la phrase : le « désormais » représente non pas lemoment de l'énonciation, mais bien le point focal depuis lequel la narrationest opérée, et pourrait être paraphrasé non pas par « maintenant qu'il estmort » mais par « après avoir passé une année à Harvard » (événement qui estmentionné dans l'article immédiatement avant le texte de l'exemple cité) .Dans ces trois exemples (27-29), significatifs du fonctionnement desnécrologies, l'énonciateur observe résolument la vie du disparu depuis lavie elle -même, délaissant le point de vue rétrospectif permis par saposition énonciative sur l'axe temporel. Cela permet de recentrer lanécrologie sur la vie du disparu, la mort étant reléguée vers un futurlointain qui, d'ailleurs, n'est quasiment jamais évoqué : le récit sedéroule généralement dans l'ordre chronologique, mais il s'arrête avant la« fin », puisqu'il ne s'achève qu'exceptionnellement par la mort dupersonnage. De plus, en se replaçant en des points du passé et enenvisageant le futur à partir de moments de la vie du disparu, l'énonciateurse livre à une lecture empathique qui, au plan énonciatif, est le signe d'unpartage de l'expérience et des valeurs entre le mort et le vivant qui reviten osmose la vie du mort. Cette primauté de la biographie, qui prend le pas de diverses façons surl'annonce de la mort, s'explique par deux raisons principales. D'abord, lerécit de vie sert en quelque sorte à légitimer l'annonce de la mort : lerécit de vie montre à quel point le disparu était un personnage hors ducommun, ce qui donne du sens à l'annonce de sa mort, puisque ce n'était pas« n'importe qui ». Mais cette place dévolue au récit de vie dans lanécrologie témoigne aussi probablement de l'impossibilité à dire la mortsans parler de la vie : il n'est pas acceptable de dire qu'untel est mortsans ajouter qu'il a vécu, et même bien vécu. Toutefois, ce lien indissoluble entre mort et vie peut être retourné : nousavons vu qu'il était impossible de dire la mort sans parler de la vie, maisinversement, la vie ne prend tout son sens que parce que la mort a eu lieu .La mort joue en effet le rôle de clôture du sens : elle permet d'appréhenderla vie dans son ensemble, d'accéder à un rapport global au sens. Et c'estcette clôture de sens qui permet de poser un regard nouveau sur la vie : unefois cette totalité signifiante constituée, il est possible de la reliredans son ensemble, de lui donner sa pleine signification, de la percevoircomme une destinée. C'est donc la mort qui permet de donner une orientationunique à l'hétérogène, élément qui permet, comme le suggérait Paul Ricœur( 1983), de donner corps au récit. La mort donne aussi du sens à la vie parceque souvent on meurt comme on a vécu. Ceci est valable en premier lieu pourla mort « réelle » : les journalistes se plaisent à souligner que le disparuest décédé en se livrant à son activité favorite : (30) « Le copilote Henri Magne décède en course » (20minutes, 06/06/06 : p. 23 – Henri Magne); (31) « Son bâton de pèlerin [… ], qu'il avait une fois encoreà la main, au moment où la mort est venue le faucher en Égypte, terrebiblique… » (La Croix, 19/11/04 : p. 18 – JeanPotin). Mais c'est également valable pour la mort « médiatique », autrement dit pourla façon dont la mort est annoncée dans le journal : (32) « Ligeti a cessé de battre » (L'Humanité, 13/06/06 : p. 23 – György Ligeti). Dans ce titre de la nécrologie de György Ligeti, la façon de dire la mort seveut parallèle à la vie du défunt, en l'occurrence à une de ses œuvresmajeures, Poème pour cent métronomes, dans laquellecent métronomes cessent de battre, les uns après les autres. En soulignant ,dans la façon même de dire la mort, le rapport entre la mort et la vie dudisparu, le journaliste donne un sens à la vie comme à la mort. Cette tension entre la vie et la mort, dont on vient d'étudier successivement lesdeux versants, la nécrologie tente de la dépasser, en re-présentant le mort, ausens propre, c'est-à-dire en le mettant en présence, le faisant ainsi accéder àune certaine forme d'immortalité. Cette re-présentation se fait par le biais dedeux mouvements complémentaires, que l'on étudiera successivement : elle est àla fois passive – et il s'agit alors d'entretenir l'héritage du disparu et de lefaire passer à la postérité – et active – la nécrologie vise alors à redonnercorps au défunt par le biais du discours. « Devos ne nous redira plus rien de nouveau, mais ce qu'il laisse estsuffisant », nous dit Bruno Frappat dans l'éditorial que La Croix (16/06/06 : pp. 1-2) consacre à la mort de Raymond Devos .La formule est représentative du fonctionnement des nécrologies : aprèsavoir fait part de l'absence, de façon assez classique, comme on l'a déjàvu, par l'association du futur et de la forme négative, le nécrologue setourne vers ce que nous laisse le défunt. De façon générale, les nécrologiesportent une attention toute particulière à l'héritage (au sens large duterme) du disparu, à ce qu'il reste de lui par-delà sa mort : il s'agitalors, selon la formule bourdieusienne, d' « hériter l'héritage », des'approprier ce que le disparu laisse par-delà sa mort. Les nécrologies sontainsi souvent l'occasion de faire l'inventaire de ce que le défunt laisse àla postérité, notamment sous forme de listes biblio -, filmo - oudiscographiques : (33) Filmographie Shohei Imamura a réalisé vingt-sixfilms dont : Désir volé (1958). L'histoire d'unetroupe d'acteurs ambulants. Désir inassouvi (1958). Un groupe d'hommes tente de récupérer un stock de morphine cachéavant la guerre. Cochons et cuirassés (1960) .Film antiaméricain, avec guerre de gangs entre yakuzas (Le Monde, 01/06/06 : p. 29 – Shohei Imamura). C'est de façon plus générale l' œuvre du défunt qui est mentionnée : (34) « De l'essaim sonore des Ramifications (1968-1969) à la machine folle qu'est Continuum (1969), [… ], Ligeti marque donc de sonempreinte de microchirurgien du son la polyphonie industrieuse de sescompositions » (Le Monde, 14/06/06 : p. 30 – GyörgyLigeti); (35) « Une trentaine de longs métrages, cinqcompagnes-épouses, deux filles, Philippe de Broca […] s'éclipse à 71 ans » (Libération, 29/11/04 : p. 36 – Philippe deBroca). Dans l'exemple 35, au-delà du caractère savoureux de l'accumulationhétéroclite, l'énumération sous forme de bilan chiffré permet de lister cequi reste une fois le personnage décédé. De même, dans l'exemple suivant, lejournaliste mentionne que Jean Bernard a laissé son nom à une maladie qu'ila découverte : (36) « Mais si c'est surtout dans le domaine des leucémiesque l'hématologue s'est illustré, c'est une autre maladie sanguine qui porteson nom. Le syndrome de Bernard et Soulier (un de ses collaborateurs) estune atteinte héréditaire des plaquettes » (Libération, 22/04/06 : p. 13 – Jean Bernard). Ainsi, même au delà de la mort, l' œuvre du disparu permettra -t-elle de sauverde nouveaux malades. Cette préoccupation de la postérité du défunt seretrouve dans le champ lexical de la permanence, particulièrement représentédans les nécrologies, notamment par le biais du diptyque « rester » /« laisser » : (37) Pierre Bettencourt laisse une œuvre foisonnante etremarquable (Le Monde, 19/04/06 : p. 27 – PierreBettencourt); (38) « Forte d'une trentaine de titres [. .. ], son œuvrerestera celle d'un témoin de la décolonisation » (Libération, 02/05/06 : p. 30 – Pram). La mention de l'héritage est d'ailleurs une figure tellement ancrée dans lanécrologie qu'elle peut donner lieu à un retournement satirique, comme dansl'exemple suivant : (39) Édouard Michelin, patron de l'entreprise, est mortnoyé. Les restructurations restent (L'Humanité ,29/05/06 : p. 11 – Édouard Michelin). Dans cet exemple, on retrouve la double séquence caractéristique desnécrologies : annonce de la mort (« Édouard Michelin, patron del'entreprise, est mort noyé ») et mention de l'héritage (« Lesrestructurations restent »), mais cet héritage, contrairement aux habitudesdu genre, est négatif. Un tel renversement n'est possible que dans la mesureoù cette mention de l'héritage est une pratique très routinière de lanécrologie. Cet intérêt porté par le nécrologue à ce qui reste du défunt après son décèsest enfin illustré par une orientation originale donnée au portrait qui estdressé du disparu dans la nécrologie. Habituellement, un portrait serépartit entre la description de traits physiques et la description detraits de caractère. Or, dans les nécrologies, la description gomme en trèsgrande partie les traits physiques (voués à disparaître avec la mort dupersonnage) au profit des traits de caractère (qui, eux, restent à jamais) .Ce qui est décrit dans les nécrologies, c'est donc ce qui perdure au-delà dela mort. Toutefois, il arrive que les nécrologies se livrent à unedescription physique du disparu : mais il apparaît que, dans ce cas, cettedescription physique est presque systématiquement mise au service de ladescription de ses traits de caractère, comme dans les exemplessuivants : (40) « Sa haute stature, qui impressionnait autant qu'ellefascinait, restait pour beaucoup un point de repère dans le paysage sportifen mutation accélérée » (L'Humanité, 30/05/06 :p. 16 – Robert Parienté); (41) « Kayano, qui impressionnait les Japonais par sonphysique de géant, avait porté sur ses épaules la fierté d'une minoritéethnique » (Libération, 10/05/06 : p. 12 – ShigeruKayano). Dans ces deux exemples, la taille imposante n'est mentionnée qu'en tantqu'elle est mimétique du caractère du personnage qui, justement, en impose .La mention de traits physiques peut aussi servir la description du caractèredans l'autre sens : l'apparence est alors mentionnée comme étant non plus enconcordance avec le caractère mais en contradiction avec lui. C'est unphénomène que l'on retrouve dans toutes les nécrologies consacrées à RaymondDevos, dont la corpulence est systématiquement évoquée, mais précisémentafin de pointer la discordance de cette dernière avec la finesse de son art ,comme dans les trois exemples suivants : (42) « C'est la première fois que Devos, ce gros homme légercomme une plume, ne fait pas rire son public » (Présent, 20/06/06 : p. 2 – Raymond Devos); (43) « Trop gros le Devos ? Non, trop fin » (20minutes, 16/06/06 : p. 28 – Raymond Devos); (44) « Fort de ses succès, Devos ne cesse dès lors debalader son gros quintal […] d'humour et de finesse sur toutes les scènes dela francophonie et d'ailleurs » (France Soir ,18/06/06 : p. 20). Tous ces exemples sont traversés par des figures d'opposition – notammentl'oxymore : « gros homme léger » ou l'antithèse : « Trop gros ? Non, tropfin » –, qui soulignent le décalage entre l'apparence et le caractère deRaymond Devos. La description physique est ainsi à nouveau au service de ladescription morale qui prime dans les nécrologies : la corpulence de RaymondDevos disparaîtra après sa mort, mais sa finesse, elle, continuera de nousaccompagner tant que l'on se souviendra de son humour. L'étude des illustrations qui accompagnent la nécrologie vient confirmercette analyse. On peut d'abord noter leur rareté, contrairement à ce qui sepasse dans le genre du portrait de presse (voisin de la nécrologie par lecontenu – description et biographie du personnage qui fait l'objet del'article), dans lequel l'article est systématiquement accompagné d'unportrait du personnage. Ainsi, là encore, la représentation physique dudisparu semble -t-elle secondaire. Mais rareté ne veut pas dire absence : ilarrive que les nécrologies soient illustrées. Toutefois, ce que l'on avaitconstaté pour les représentations discursives du défunt se retrouve dans lesreprésentations iconiques : ce qui est représenté, ce n'est pas le mort, nimême le personnage au terme de sa vie, c'est le personnage dans la force del' âge, comme sur cette photographie d'Alida Valli qui illustre sa nécrologiedans Le Monde. Sur cette photographie, elle paraît éternelle, telle une gravure de mode :cette image -là restera à l'abri de toute déchéance physique. Ainsi ce quiest représenté dans les nécrologies, que ce soit dans le texte ou dansl'image, est ce qui ne meurt pas, ce qui ne peut pas être atteint par ledécès. Au-delà de cette postérité que le disparu a en quelque sorte créée tout seul ,et que le journaliste se contente de refléter, la nécrologie vise égalementà faire accéder le défunt à une forme d'immortalité. Nous avons vu que lamort est souvent dite par l'absence, notamment par l'absence de parole, queles nécrologies rappellent fréquemment. La nécrologie vise précisément àcombler ce vide, en dialoguant avec le disparu, comme nous l'avions déjàentraperçu dans l'analyse de quelques exemples ci-dessus, notamment lanécrologie de Georges-Paul Wagner, ou encore celle d ' adg, dans lesquelles des indices iconiques et discursifspermettaient déjà de maintenir les relations entre le disparu et ceux quirestent. Un double mouvement s'instaure alors, en vue de redonner au disparule rôle de partenaire de l'énonciation dont la mort l'a privé, aussi biencomme allocutaire que comme locuteur. Le disparu est tout d'abord réintégrédans son rôle d'allocutaire, notamment par le biais de phénomènesinterpellatifs : (46) « Ô François… […] rappelle -toi du temps où ClaudeChabrol, lorsqu'il avait terminé un film, nous invitait tous les trois (ses« cocos ») dans une gargote de bon aloi dont il avait le secret » (L'Humanité, 15/05/06 : p. 22 – François Maurin); (47) « À Dieu, Devos ! que votre verbe scintillantretentisse désormais, par delà les étoiles, au paradis des anges » (Présent, 17/06/06 : p. 2 – Raymond Devos). Dans ces deux exemples, le disparu est interpellé par le journaliste .L'interpellation est ici le procédé qui permet de le faire passer du statutde non-personne à celui de personne. En effet, la non-personne, c'est-à-direla troisième personne grammaticale (Benveniste, 1966 : 253), « lorsqu'elleest employée pour référer à un être humain, [. ..] le met en absence ,instaure avec lui une distance importante, une rupture » (Détrie, Siblot ,Verine, 2001 : 24). L'interpellation du disparu dans les nécrologies permetde renverser ce mouvement et de mettre en présence le disparu, de lere-présenter (Hammer, 2010; Florea, 2010b). Ce mouvement trouve son pendantdans l'instrumentalisation de la parole du disparu, que la nécrologie faitaccéder au statut de locuteur, instaurant ainsi un véritable dialogue aveclui. Ce dialogue fictif peut d'abord s'établir entre le nécrologue et ledisparu, comme dans l'exemple suivant : (48) « Fort de ses succès, Devos ne cesse dès lors debalader son gros quintal – « J'aimerais être beau mais je hais les régimes »– d'humour et de finesse sur toutes les scènes de la francophonie etd'ailleurs » (France Soir, 18/06/2006 : p. 20 –Raymond Devos). L'incise entre tirets est une citation du disparu qu'il a réellementprononcée, mais qui est ici recontextualisée pour donner la réplique aunécrologue, ce qui entretient l'illusion de la présence du défunt. Ledialogue peut également s'établir entre le disparu et le lecteur de lanécrologie, comme dans cette nécrologie d'un des derniers Poilusfrançais : (49) « [Léon Weil] devient alors [après avoir été au front ]représentant en vêtements féminins. Eh oui, ce n'est pas parce que vousétiez allé risquer votre vie qu'on allait vous offrir à manger » (La Croix, 08/06/06 : p. 21 – Léon Weil). La citation du disparu fonctionne de façon dialogique. Plus précisément, elleest une forme de dialogisme interlocutif anticipatif (Bres, Mellet, 2009) :le « eh oui » qui introduit la citation montre qu'il s'agit d'une réaction àun discours autre. Or, ce discours autre ne peut pas être ce qui précèdeimmédiatement, puisqu'il n'y a pas de lien logique entre la parole dunécrologue et celle du disparu. Ce « eh oui » ne peut donc se comprendrequ'en restituant une parole qui ne figure pas dans l'article, celle dulecteur, dont on peut imaginer la réaction de surprise à la lecture dumétier de Léon Weil. On peut en effet lui prêter le discours suivant :« Représentant en vêtements féminins ? ? ! », discours sur lequel rebonditla citation du disparu ici recontextualisée. La voix de l'allocutaire (doncla nôtre, à nous, lecteurs) se laisse entendre dans les paroles du locuteur ,ce qui donne l'impression que c'est à nous que parle le défunt. Là encore ,un échange s'établit, même si c'est de manière implicite, et le disparuaccède à nouveau au statut de partenaire de l'énonciation. Parfois, le défunt n'est convoqué que par le biais de sa voix : en ajoutantdes précisions de description physique à la citation, et en contextualisantdonc la parole, le journaliste donne véritablement corps au disparu : (50) « Enfin, quel amoureux fou du français à travers lesâges n'aimerait pas l'érotisme et le XVIII e siècle ?Peut-être « quelque pisse-froid dont je ne suispas », aurait sans doute ri Jacques Cellard, l' œil malicieux derrièrela fumée de son cigare » (Le Monde, 14/11/04 : p. 19– Jacques Cellard). La double modalisation (au moyen du conditionnel et de l'adverbe « sansdoute ») indique que la citation est imaginaire. Toutefois, le syntagmecirconstanciel détaché « l' œil malicieux derrière la fumée de son cigare »donne malgré tout des détails sur l'attitude du locuteur, même si la paroleest imaginaire, ce qui rend la proximité d'autant plus tangible. Ce double mouvement (réinstauration du disparu dans son rôle d'allocutaire etde locuteur) trouve son aboutissement dans le recours à l'hyperstructure, unmode de présentation original de l'article de presse qui répartit soncontenu entre plusieurs modules textuels complémentaires, phénomène décritnotamment par Gilles Lugrin (2000). Les nécrologies se présentent volontierssous la forme d'hyperstructures, ce qui est significatif de la volontéd'instaurer un dialogue avec le disparu : la dimension tabulaire de ce texte( Florea, 2009) permet de tisser des liens entre les différents modulestextuels, en les insérant dans une structure de dialogue. Ainsi, dans lesnécrologies hyperstructurelles, l'un des éléments de l'hyperstructure est-ilgénéralement consacré à livrer la parole du mort de façon brute, sansmédiation apparente par le journaliste, comme dans l'exemple suivant, où lacolonne gauche de la page de droite est une suite de citations de RaymondDevos, qui est donc mis sur le même plan que les journalistes et que lesdifférentes personnalités qui lui rendent hommage (articles du centre de lapage de droite). La spatialité de la page et les relations qui s'y tissentre-présentent donc le dialogue qui se crée entre les différents membres dela communauté. Plus rarement, le dialogue entre le journaliste, le disparu et les lecteurspeut également s'inscrire, non plus dans l'espace (celui de la page), maisdans le temps (lorsqu'il se tisse au fil des éditions quotidiennessuccessives). Parfois, la « nécrologie » déborde du moule traditionnel del'article simple – voire de l'hyperstructure – dans lequel elle se glissehabituellement, pour s'étaler sur plusieurs articles, qui se font écho lesuns les autres au fil du temps qui passe après le décès. C'est le cas pourla « nécrologie » que Présent a consacrée àGeorges-Paul Wagner (l'un des fondateurs officieux du quotidien), quiregroupe des articles publiés sur cinq éditions différentes entre le 13 etle 20 juin 2006 (le décès étant survenu le 11 juin). Nous avons déjà vu( exemple 22) que cette nécrologie ne se contentait pas d'annoncer la mort ,mais qu'elle mettait en scène les vivants accompagnant le défunt versl'au-delà. L'analyse de la textualité originale de cette nécrologie complexevient confirmer cette hypothèse. La nécrologie y est éclatée sur quatorzemodules textuels distincts (sans compter les annonces en Une), eux -mêmesrépartis sur trois hyperstructures (dans les éditions des 13, 16 et 20 juin )et deux articles isolés (dans les éditions des 14 et 17 juin). Parmi cesnombreux modules, beaucoup sont constitués d'une ou plusieurs lettres, cequi totalise treize lettres en tout. Ces lettres tissent un enchevêtrementénonciatif original au sein duquel le journal, les lecteurs, le disparu ,mais également ses proches, dialoguent entre eux au fil des éditions quiscandent le temps du deuil, chacun étant tour à tour locuteur etallocutaire. En effet, Georges-Paul Wagner y est une fois locuteur et deuxfois allocutaire, les lecteurs y sont huit fois locuteur et neuf foisallocutaire, les proches du disparu, cinq fois locuteur et deux foisallocutaire. Une sorte de nécrologie épistolaire se met ainsi en place ,chaque séquence de la nécrologie traditionnelle (annonce de la mort, récitde la vie, hommage) étant assurée par une ou plusieurs lettre(s). C'est parexemple le cas pour l'annonce de la mort : (52) « Chers amis de Présent, j'ai latristesse de vous annoncer la mort de mon père, ce dimanche 11 juin 2006, à11 heures » (Présent, 13/06/06 : p. 1 – Georges-PaulWagner). Le début de cette lettre adressée par François Wagner – fils du défunt – aujournal et aux lecteurs, prend la place de la séquence initiale classique dela nécrologie visant à annoncer la mort. Au point de vue référentiel, lesinformations fournies sont identiques. Cependant, au point de vueénonciatif, les choses fonctionnent fort différemment, puisque la mort dontil est question est une mort en deuxième personne (Jankélévitch, 1994 : 29) ,la mort d'un proche. Mais en plus d'assurer les fonctions traditionnelles dela nécrologie, cette structure nécrologique épistolaire met également enscène le deuil en train de se faire. En effet, la proximité n'existe passeulement entre les vivants et le mort, mais également entre ceux quirestent, qui partagent leur peine et sont unis dans la douleur : (53) « Chers amis de Présent, enrentrant de voyage, mardi soir, j'ai trouvé Présent et appris le décès de Georges-Paul Wagner. Je mesure votre douleur et cellede toute votre équipe. Je voulais vous faire part de la mienne » (Présent, 20/06/06 : p. 4 – Georges-Paul Wagner). De nombreux énoncés de ce genre font écho au titre surplombant la premièrehyperstructure du 13 juin : « Le mouvement national est en deuil ». Ce quiest représenté dans cette nécrologie originale, c'est d'abord ce deuil vécucollectivement. Mais cette tristesse partagée permet aussi d'accompagner ledéfunt vers l'au-delà, comme en témoignent les derniers mots de cette lettreadressée au défunt, publiée dans la dernière édition que le journal luiconsacre : (54) « Merci, cher gp et à Dieu ,c'est-à-dire, au revoir ! » (Présent, 20/06/06 :p. 4 – Georges-Paul Wagner). Cette nécrologie n'a pas un fonctionnement classique; cela tientprobablement, d'une part, au rôle du défunt (Georges-Paul Wagner faisaitpartie du journal dans lequel il publiait une tribune hebdomadaire) et ,d'autre part, au fait que Présent fonctionne commeune contre-société militante : il s'agit donc de saluer un frère de combat .Toutefois, tout marginal qu'il soit, le fonctionnement de cet ensembled'articles montre que la nécrologie peut devenir un rite funéraire à partentière, qui permet de retisser des liens entre les membres de lacommunauté : cette communion des vivants avec le mort, mais aussi de ceuxqui restent entre eux, est ainsi représentée par le contenu comme par laforme qu'adopte la nécrologie qui met en scène les liens entre les membresde la communauté, que le décès de l'un d'entre eux ne suffit pas àrompre. Dans les nécrologies, la représentation se construit sur deux plans distincts :on assiste à une première forme de représentation qui met en scène, selon desprocédés très variés, une mort individuelle et la vie à laquelle elle met fin .La nécrologie ne se contente toutefois pas de dire la mort : tout en mettant enavant cette coupure irrémédiable entre celui qui part et ceux qui restent, elletente de tisser à nouveau des liens entre eux par le biais du discours. Dèslors, la nécrologie se lit également comme une re-présentation du mort, unefaçon de le rendre présent à nouveau, de le convoquer par le discours, et dansla forme même qu'adopte le discours, qui reconstruit au niveau textuel lesrelations entre les vivants et le mort. Ces phénomènes de représentation, qui s'inscrivent dans les rituels destinés àsurmonter un décès, ont une double fonction : il s'agit en premier lieu de fairemémoire au disparu, de l'accompagner dans sa mort. En effet, la nécrologiepermet de se souvenir du défunt en évoquant sa vie comme sa mort, non pasuniquement pour se remémorer le passé, mais pour le rendre présent, en donnantcorps à l'absent. Mais la nécrologie vise aussi à faire société pour lesvivants, et ainsi à s'accompagner soi -même face à la mort. En perpétuant lesouvenir du défunt au sein de la communauté à laquelle il appartenait, on seprojette dans sa propre mort, qui devient non plus une rupture irrémédiable avecles vivants, mais une autre façon d'interagir avec eux : le lien social devientlien mémoriel. Ainsi le travail du deuil permet-il de s'ouvrir vers la vie quicontinue .
Cet article procède à une analyse de discours énonciative des nécrologies de la presse française contemporaine, afin de montrer sous quelles formes la mort y est représentée. Il s'agit en premier lieu de montrer comment la mort est dite dans les colonnes des nécrologies: le décès y est mis en scène comme une rupture entre les vivants et le défunt, ce lien coupé étant manifesté par divers indices concordants, qu'on étudiera de façon détaillée, notamment lexique de la perte, forme négative, temps du passé, aspect accompli. Mais tout en disant cette coupure irrémédiable entre celui qui est parti et ceux qui restent, la nécrologie vise aussi à re-présenter le mort, au sens littéral, à le rendre présent à nouveau par le biais du discours, au travers de divers phénomènes tels que l'attention portée à la postérité du défunt ou encore la mise en scène d'un dialogue avec le disparu, notamment grâce au dialogisme interlocutif et aux choix de mise en page. Ce faisant, la nécrologie fait partie des rituels du deuil moderne, visant à la fois à faire mémoire au disparu et à faire société pour les vivants.
sciencesInfo_13-0090584_tei_1010.xml
termith-423-communication
La réorganisation des entreprises, en regard des objectifs du marché, amène tous les acteurs du processus de conception de produit à collaborer de plus en plus étroitement (Campagne et Sénéchal, 2002) afin de spécifier et concevoir au mieux ces produits à la fois plus complexes et plus performants. Cependant, à l'heure actuelle, les nombreux métiers impliqués possèdent leur propres cultures techniques et scientifiques, méthodes de conception, objets manipulés ou encore propres représentations via des outils logiciels spécifiques. Ces concepts manipulés et utilisés peuvent néanmoins s'avérer relativement éloignés les uns des autres en fonction du métier concerné. Dans ce contexte, des discordances ou conflits peuvent néanmoins apparaître entre les concepteurs, dues essentiellement à la multiplicité des expertises et points de vue des acteurs rassemblés autour du projet de conception. Aussi, cet article traite plus particulièrement de la résolution de conflits apparaissant autour des problèmes de conception. Des travaux antérieurs ont permis de définir un protocole définissant les modalités de résolution de conflits (Rose et al., 2004). Cette proposition a été par la suite enrichie par un modèle de données permettant de capitaliser les actions menées dans le protocole proposé (Gzara et al., 2003). Cet article s'intéresse plus particulièrement à l'application de ces propositions à un cas industriel; celui de la conception d'une partie d'éolienne chez Alstom Moteurs. Après avoir présenté le processus de gestion de conflit en conception collaborative de produit (section 2), le cas industriel sur lequel est basée cette étude est présenté en soulignant les problèmes rencontrés et les besoins en collaboration (section 3), puis la prévalidation de ces propositions sur l'exemple industriel est développée. Ce travail s'inscrit dans le cadre du projet RNTL IPPOP 1 (IPPOP, 2001) dont l'un des objectifs est de proposer un référentiel complet pour la conception collaborative et de l'implémenter dans une solution logicielle. L'apparition de conflits dans les activités de conception correspond au cas le plus contraint et le plus complexe de la collaboration entre acteurs puisqu'il s'agit de résoudre la plupart du temps dans l'urgence un problème non prévu tout en mettant en relation les acteurs les plus à même de répondre aux nouveaux besoins soulevés. A partir de la typologie de conflits définie par (Matta et al., 1996), ce travail a été cadré sur les conflits portant sur une proposition, qu'ils soient de type « compréhension » (problème de vocabulaire ou d'échelle de données, etc.) ou encore de type « acceptabilité » (diamètre d'un rotor défini par le bureau d'étude – calculs rejetés par l'expert en calcul électrique en regard de ses savoir-faire métiers). Parallèlement à cette décomposition sur le contenu du conflit en lui -même, et dans un contexte d'ingénierie de système d'information support à la gestion de conflit, il est intéressant de mettre en exergue le contenant du conflit, à savoir si celui -ci apparaît sur une classe, une méthode, un attribut ou un lien, en fonction des propriétés de chacun, voire même en fonction de leur existence ou de leur absence (figure 1). Parmi les travaux de recherche qui se sont intéressés à la conception collaborative, un certain nombre de travaux se sont focalisé sur la gestion de conflits en conception (Matta et al., 1996), (Castelfranchi, 1996). Ces travaux présentent différentes taxinomies (figure 1) de conflits et techniques de management intéressantes sans toutefois souligner le lien entre les types de conflits rencontrés dans un contexte donné et les connaissances collaboratives utilisées pour résoudre les conflits en présence. Klein (Klein, 2000) propose quant à lui un référentiel très large visant à anticiper, détecter et résoudre des conflits en conception de produits sans proposer de solutions de gestions pragmatiques. Quant aux outils support à la gestion de conflits, il n'existe pas à notre connaissance de systèmes spécifiquement dédiés à ce domaine. On serait tenté d'assimiler les outils de travail collaboratif assisté par ordinateur (TCAO) à une réponse potentielle au management de conflits mais ils ne peuvent satisfaire les besoins à l'heure actuelle. En effet, si les fonctions de coordination et de communication sont globalement couvertes par les outils actuellement disponibles sur le marché, la notion de collaboration est faiblement supportée. Les outils actuels ne présentent pas la possibilité de modéliser la collaboration ni l'opportunité de disposer au sein d'un référentiel des informations et des connaissances adéquates au bon moment. L'objectif de notre travail étant alors d'offrir une solution visant à : disposer d'un référentiel capable de capitaliser toutes les connaissances mises en œuvre lors de la résolution de conflits afin de proposer une solution permettant de suggérer des situations similaires; mettre en place un processus, s'intégrant dans le processus global de conception, visant à gérer la dynamique du référentiel proposé. Le paragraphe 4 présente les fondements du référentiel visé qui sert de base à l'élaboration d'un système gérant ces types de conflits. Avant cela, le cas industriel auquel les propositions seront appliquées est présenté. L'un des objectifs d'Alstom Moteur au sein du projet IPPOP porte sur la maîtrise des échanges d'information en conception. Cela porte sur la capitalisation des solutions évoquées, rejetées ou validées lors de la résolution des conflits pour se constituer une « mémoire collective » pour l'entreprise. En effet, aujourd'hui, même si l'entreprise s'est dotée d'un outil SGDT, l'unique outil logiciel permettant de suivre la conception d'un moteur suite à une commande est un workflow implémenté dans ce SGDT. Les autres informations (telles les normes utiles et à respecter, instructions, critères de décisions…) ne sont pas prises en compte. De même, les autres processus spécifiques (en l'occurrence le processus de gestion de conflit) ne sont pas supportés par les workflows actuels. De plus, il n'existe aucun outil capable de faire le lien entre deux commandes clients, pour rapprocher certains éléments ou problèmes qui pourraient être communs et nécessairement rencontrés lors de la conception d'une nouvelle machine et aucune solution n'est implantée pour rendre plus accessible à tous les connaissances et données emmagasinées au fil des projets. Concernant les données produit, même si les choix physiques et technologiques sont suffisamment documentés dans l'outil SGDT implanté, un manque certain apparaît quant à la justification de ces choix et changements éventuels. En effet, même s'ils sont globalement dépendants de facteurs marketing et stratégique, certains changements en termes de solutions technologiques peuvent néanmoins être intuités ou proposés par le système suite à l'analyse des situations précédentes. L'illustration de certains de ces problèmes est proposée sur la résolution de conflits survenus lors de la conception d'une tôle stator. Ce qui suit présente ce support et les problèmes rencontrés. Le processus de conception étudié concerne un segment de tôle stator utilisé pour la conception d'un générateur d'éolienne de forte puissance. Ce produit est issu en partie des bureaux de recherche et développement de l'usine ALSTOM Moteurs Nancy, en étroite collaboration avec le client qui a en charge une partie des composants du générateur électrique. La conception de ce produit fut réalisée entre mars et septembre 2002. L'intérêt de ce support d'étude est double. D'un point de vue technologique, ce type de produit est une nouveauté pour l'entreprise. Néanmoins, même si les concepts électrotechniques, mécaniques et électriques faisant le cœur de la compétence de l'entreprise ont été utilisés pour son élaboration, il n'en demeure pas moins qu'un certain nombre de conflits techniques sont apparus lors des différents échanges entre les différents acteurs du projet, conflits dus notamment à la nouveauté du produit et des technologies et principes utilisés (position du refroidisseur, technique d'implantation des bobines…). En parallèle, un changement organisationnel a été opéré au sein de l'entreprise passant d'une organisation par produit à une organisation par segments d'activités. Ainsi, l'équipe de R&D Conception se retrouve en permanence plus étroitement impliquée au cœur du projet de conception, permettant ainsi une communication beaucoup plus efficace avec les différents partenaires du projet, internes comme externes à l'entreprise. Ce changement d'organisation correspondait aussi à un changement de l'outil de production, lors de l'installation dans un nouveau site plus moderne et spacieux, capable de supporter un volume de commandes annuelles plus important. D'autre part, ce projet fut lancé en tant que projet pilote suite à l'installation dans l'entreprise d'un nouveau système de SGDT/CAO Unigraphics©/Iman©. Il fut ainsi le banc de test permettant de définir des procédures de validation et d'archivage de documents pour la partie SGDT ainsi que les volumes de référence et les différentes règles de conception et de calcul pour la partie création de volumes 3D CAO et plans (l'utilisation de ces nouvelles ressources étant devenue vitale pour l'entreprise car devant, à terme, permettre un gain de productivité d'environ 40 % sur les temps d'études par rapport aux méthodes et ressources précédemment opérationnelles. Enfin, une autre spécificité de ce projet fut le partage des éléments à concevoir entre le client et l'entreprise d'une part, et entre l'entreprise et les sous-traitants d'autre part; le concept d'entreprise étendue prenant ici toute son ampleur. La figure 2 représente l'enchaînement des activités de conception du support d'étude précédemment exposé dans un diagramme de séquences UML. Dans cette représentation, les différents conflits rencontrés ainsi que les actions entreprises par les initiateurs et différents protagonistes impliqués, sont mis en évidence. Le premier problème est un problème d'acceptabilité portant sur des résultats intermédiaires intervenant suite aux divers calculs réalisés par le bureau d'étude. Suite à ces calculs, l'expert en calcul mécanique s'aperçoit que le diamètre de la carcasse préconisé correspond exactement au mode de résonance à la fréquence nominale d'utilisation F0 de la culasse (mode de résonance propre sans lobe), ce qui engendrerait une déformation radiale uniforme. Ce mode est le plus dangereux pour les générateurs car il correspond à un mouvement relatif de l'intégralité de la structure, provoquant des risques de dégradations plus importants ainsi que des problèmes de bruit. Il s'agit dans ce cas de figure d'un problème de passation de connaissances entre les acteurs. En effet, l'expert en calcul mécanique possède les connaissances relatives au calcul des différents modes de résonance et doit être capable d'externaliser ce savoir auprès de ses collègues afin de parvenir à une collaboration effective et déclenchée a priori avant la commande (c'est-à-dire avant la détection accidentelle du conflit). Ceci peut-être fait sous la forme d'une fiche d'instruction, utilisable à l'offre, qui permettrait de formaliser et vulgariser cette connaissance propre. Par vulgarisation, on entend le processus qui consiste à rendre la connaissance propre d'un acteur accessible et compréhensible auprès des autres acteurs. Cette détection de conflit pourrait donc éventuellement faire l'objet d'un mécanisme automatique en appliquant l'algorithme de calcul de la résonance propre mode 0 décrit dans la fiche d'organisation, permettant ainsi de cibler les acteurs impliqués dans cette partie du processus. En outre, le logiciel devrait permettre de mettre ces derniers en contact pour la première phase de résolution du problème. Néanmoins, cette détection automatique des conflits ne peut se faire que sur un nombre très limité de paramètres et ne concerne que des problèmes particuliers récurrents. Le second conflit est détecté tardivement et » manuellement » par un acteur du processus. Ce conflit porte en effet sur les raccords des tubes du refroidisseur. La pièce préconisée par les plans réalisés par le bureau d'étude n'existe pas en tant que standard dans le catalogue du fournisseur, d'où la naissance du conflit. Ce conflit mettant directement aux prises le fournisseur et l'acteur de la fabrication et plus indirectement le bureau d'étude est donc un conflit d'acceptabilité portant sur les éléments faisant l'objet du travail de conception. Il aurait pu être évité ou découvert et solutionné en amont dans le processus de conception en mettant en place une collaboration plus forte et au plus tôt entre les acteurs impliqués. Le troisième conflit rencontré est un problème de compréhension, relevant d'une erreur d'interprétation des données par le client. Ce dernier a mal interprété ces données issues du calcul mécanique, du bureau d'étude et du calcul électrique. En reprenant les différents calculs effectués dans un but de vérification, il a trouvé une erreur concernant la capacité de refroidissement du générateur. Après en avoir été informé, le bureau d'étude a repris ces calculs et a retrouvé et validé les valeurs initialement diffusées. Ce problème relevait donc de la formalisation des résultats. Les conflits relatés au travers de cet exemple illustrent donc le manque de structuration des échanges de données et de connaissances de vulgarisation entre les acteurs intéressés par le conflit. On peut en outre noter qu'aucune action de capitalisation de ces connaissances, en regard du contexte donné, n'a été engagée. Le processus de gestion de conflit en conception coopérative peut s'articuler autour de trois phases successives : Observation du conflit : en fonction des informations saisies sur le produit, issues des activités de conception, le conflit est détecté manuellement s'il porte sur le contenu, et automatiquement s'il porte sur le contenant (cf. section 3.1). Dans ce cas, le système déclenche alors un processus décisionnel visant à résoudre le conflit. Décision de la solution : cette phase consiste à initialiser le système par la création d'une « activité de collaboration » (activité de conception avec des spécificités particulières) pour référencer le problème à traiter et une première « itération » qui permet de garder trace de l'intervention du premier acteur qui interviendra dans le processus de décision. En fait, le processus de décision est organisé en itérations successives de résolution du problème où une itération correspond à l'action d'un des acteurs dans le processus de décision. Par ailleurs, un message est envoyé à l'acteur qui a observé en premier le conflit pour lui demander de déclarer dans le système à l'aide de la « saisie » les éléments-clés qui caractérisent le conflit qu'il a observé, à savoir l'élément du produit sur lequel porte le conflit, le type de conflit, etc. Une fois que le processus de décision est initialisé, le problème est alors traité par l'ensemble des acteurs concernés par le conflit pour trouver une solution convenable. Cette phase de traitement est menée en des itérations successives, chacune constituée d'une alternance d'actions de vulgarisation et de médiation. Ces deux actions mettent en œuvre des tâches d' « explication », « justification » et proposition de « solution ». Information aux acteurs : cette phase vient pour clôturer le processus de gestion du conflit dès lors que les acteurs concernés se mettent d'accord sur une solution construite lors du processus de décision (« diffusion » de la solution). Cette phase permet en outre de présenter une solution pragmatique et formalisée de la solution, qui sera stockée dans la base. Ces trois phases sont modélisées dans un diagramme de classes UML (Gzara et al., 2003). Le processus de décision (Rose et al., 2004) à suivre est composé d'actions de : vulgarisation : l'acteur qui mène la vulgarisation explique d'abord le problème qu'il rencontre avec les choix actuels sur le produit. Ensuite, il justifie ou argumente sa motivation pour modifier la solution actuelle en précisant les mauvaises conséquences des choix actuels sur le produit. Cette action doit se faire en des termes simples et connus de tous; médiation : cette action a pour objectif de préconiser la solution à adopter pour palier le problème rencontré et éviter ainsi les mauvaises conséquences de l'ancienne solution. Elle provient soit de l'acteur qui vient de vulgariser son problème pour proposer sa solution, soit d'un autre acteur concerné par le conflit et qui veut approuver la solution proposée. A préciser que ces actions sont menées à tour de rôle par les différents acteurs concernés pour construire la solution convenable. Au final, cela revient à transmettre aux acteurs concernés par la nouvelle solution retenue les éléments de la décision. Dans le cas où, après un nombre d'itérations prédéterminées n ou une durée d, les acteurs ne convergent pas vers une solution commune, le problème est alors résolu par voie hiérarchique, en faisant le plus souvent appel au chef de projet. A partir de la description du processus de conception de la tôle présentée précédemment (section 3), l'impact d'un outil permettant de structurer les échanges entre acteurs afin d'éviter les conflits est présenté. Le déroulement du processus de conception de la tôle stator, tel qu'il devrait se dérouler avec l'apport d'un système de conception collaborative en s'intéressant plus particulièrement à la résolution du premier conflit rencontré, est exposé. Ce premier conflit peut être évité par la transmission au système des données calculées. La corrélation avec le système de règles internes permet au logiciel d'appliquer un algorithme de vérification des données calculées du stator et de définir ainsi si le diamètre rentre dans la tolérance autorisée afin d'éviter les problèmes de résonance. Ainsi, la notification au bureau d'étude, au client, au calcul électrique ainsi qu' à l'expert calcul mécanique est tout de suite envoyée et permet d'éviter de perdre du temps en calculs inutiles (calcul force électro-motrice, vérification calculs thermiques et mécaniques du bureau d'étude par l'expert calcul mécanique). de plus, la transmission des données au logiciel implique un formalisme et une saisie rigoureuse des éléments; ce qui facilite et améliore la lisibilité ainsi que la communication de ces mêmes résultats aux différents acteurs du projet. La résolution de ce conflit est ensuite menée par les différents acteurs intéressés via la médiation de l'application logicielle. Néanmoins, les acteurs du conflit restent les seuls maîtres de la décision finale. Différents outils de communication (email, téléphone, visioconférence et tableau blanc) sont utilisés durant les phases de médiation et d'argumentation (figure 3). La figure 4 présente le déroulement du processus présenté à la section 4 avec les différentes itérations menées par les acteurs de la conception, détaillant les différentes explications, justifications et solutions avancées par chacun d'eux en faisant référence aux messages numérotés dans le diagramme de séquence. Le second conflit n'aurait pu être détecté automatiquement, puisqu'il a trait aux compétences du fournisseur. Cependant, une collaboration « au plus tôt » sur ce problème ainsi qu'une propagation immédiate de l'information pourrait être engagée via le système. Ceci a donc permis d'informer rapidement les acteurs du conflit précédent. En augmentant la « concourance » (Garel et al., 1995) des actions entre les différents protagonistes (la diffusion par l'application logicielle des informations plus tôt dans le processus peut permettre à l'acteur de la fabrication de prendre contact directement avec le fournisseur tandis que le bureau d'étude finalisait ses calculs), on peut ainsi gagner en productivité. De ce fait, le conflit n'est plus un verrou risquant de bloquer totalement le processus. Le troisième conflit porte sur une erreur technique relevant d'un problème de compréhension. Ce problème était donc lié à la communication plus ou moins structurée entre les différents acteurs. L'apport d'une application collective dans le projet implique un formalisme et une rigueur dans la saisie et la transmission des données qui en permettent une structuration beaucoup plus facilement interprétable, notamment par l'émission de rapports de calculs. Cette structuration demande un effort de traduction et de présentation des résultats mais permet une synchronisation des points de vue et peut ainsi éviter des erreurs d'incompréhension ou de mauvaise interprétation. Dans cet article, une méthodologie et un protocole dynamique de gestion de conflits ont été appliqués à un projet industriel. Les spécifications proposées restent à intégrer dans le référentiel du projet IPPOP. Le prototype logiciel aura à charge de répondre à la fonction de gestion des conflits en conception collaborative, tout en étant complémentaire à d'autres solutions actuellement disponibles visant à faciliter la communication et les échanges entre acteurs. Ce démonstrateur répond à un besoin réel chez ALSTOM afin de répondre aux lacunes des outils existants dans l'entreprise et sur le marché aujourd'hui. Les perspectives de développement de ce logiciel concernent l'automatisation du processus de détection de conflit, la mise en place d'éléments de mesure de l'impact dynamique sur le processus et des gains générés par l'utilisation de cette méthodologie ainsi qu'une quantification des coûts des solutions proposés par le logiciel en regard des éléments rentrés dans la base de données .
Les nouveaux modes de travail en conception de produits impliquent des collaborations de plus en plus fortes entre les acteurs et des échanges de connaissances entre des métiers d'origines variées. Des cas de conflits peuvent néanmoins apparaître. Cet article propose un protocole dynamique définissant les modalités de résolution de conflits en conception collaborative ainsi qu'un modèle de données permettant de capitaliser les données échangées ; tous deux appliqués à la conception d'une tôle stator d'un générateur d'éolienne chez Alstom moteurs.
sciencesInfo_04-0592336_tei_DN_081_0081.tei.xml
termith-424-communication
Les évolutions technologiques donnent naissance à de nouveaux objets pour lesquels il n'existe pas de dénomination. Souvent, par analogie avec les objets existants, on reprend une dénomination courante à laquelle on ajoute des qualificatifs. Il en est ainsi du terme « document numérique », incidemment titre de la revue dans laquelle cet article paraîtra. Nous nous interrogeons dans cette introduction sur la définition de la notion de document, et partant celle de « document numérique », puis sur celle d'espace documentaire. Un document est une relation quaternaire asynchrone entre un auteur, un discours, un support et un lecteur : « L lis un D produit par A sous forme S ». Une telle définition exprime de façon statique que le discours inscrit sur son support constitue le média au travers duquel le lecteur entre en contact avec l'auteur. Elle dit aussi que seuls les discours inscrits sur un support sont à même de devenir documents. Un document est donc nécessairement un objet matériel. De plus, cet objet est un construit ou artefact, à la fois œuvre d'auteur, et ouvrage de scripteur car l'auteur du discours n'est pas toujours celui qui l'inscrit sur le support. Cette définition dit enfin que œuvre et ouvrage ne sont qu'une face du document, l'autre face étant construite par le lecteur. C'est le lecteur qui dote cet artefact du statut de document. Ainsi, un support de discours devient document par celui qui en reçoit le discours, celui qui l'interprète. Autrement dit, nous postulerons qu'un document sans lecteur n'est pas un document. Un document sans lecteur est assurément un objet construit, un artefact mais tant qu'il n'a pas atteint un destinataire, il reste lettre morte. Ainsi, la Grotte Chauvet est devenue document le jour où des spéléologues l'ont découverte. Ceux -ci en ont fait une première lecture qui a été reprise et amplifiée par des archéologues. La notion de lecteur recouvre une grande diversité de statuts : c'est avant tout une entité humaine prise dans sa dimension sociale. Elle peut être individuelle ou collective, elle peut revêtir des fonctions diverses : conservateur, groupe de chercheurs, critique littéraire… Un même artefact ne sera pas considéré de la même façon par des lecteurs différents, il y a donc au-delà d'un même artefact autant de documents que de lecteurs. Un document numérique est un document qui a pour caractéristique d' être sur un support électronique, d' être perceptible via la technologie numérique. Nous rejoignons, en cela, Carla Hesse (Hesse, 1996) qui voit dans les nouvelles technologies non pas un nouveau média de communication mais un nouveau mode de communication. Or, le support numérique interdit l'enregistrement d'objets du monde, comme spécimens d'un herbier, et se limite alors à l'enregistrement de représentations de ces objets. Au sein des documents numériques, il existe de nombreuses variantes issues du mode de codage des données, ou des programmes. Pour un lecteur donné, un document s'insère dans un ensemble documentaire plus vaste. Un document n'a de valeur documentaire que parce qu'il participe à un ensemble documentaire plus vaste, à une collection. Il vient le compléter, il s'agence avec et conduit à poser la définition de l'espace documentaire. L'espace documentaire est le lieu où s'organisent les collections. Aux rôles classiques d'auteur et de lecteur, viennent se superposer d'autres fonctions : sélection, description, structuration, diffusion. L'espace documentaire apparaît alors comme un support matériel de médiation entre les deux pôles de la communication, support qui autorise la désynchronisation entre les deux processus de production-énonciation d'une part et de réception-interprétation d'autre part, car sa matérialité lui permet de traverser le temps. C'est un lieu de mémoire, de structuration, de mise en relation de documents. Matérialité et rémanence donnent à l'espace documentaire ce rôle de transmetteur. C'est donc un moyen de communiquer en traversant le temps. L'espace documentaire est constitué de documents mais aussi de fragments de documents, ou unités documentaires, quelle que soit leur granularité. Cet espace documentaire, aussi nommé corpus ou collection, se caractérise par quelques propriétés essentielles : homogénéité dans le sens où les documents partagent des propriétés semblables, sont soumis à des régularités (règles, contraintes). Cette homogénéité peut se manifester suivant quelques-uns des critères suivants : documents émanant d'une même source (personne morale ou physique), documents émis pendant une période donnée, documents traitant d'un même sujet, et plus généralement documents réunis dans un même but; dynamisme du contenu, car le corpus possède, à l'image d'une mémoire, une dimension diachronique, historique : ajout, suppression, modification de documents, que cette opération soit dictée par des instances extérieures, ou qu'elle résulte d'un choix; dynamisme de la structuration : au sein de cet espace, il existe une cohésion interne, cohésion qui se manifeste par des liens entre documents, et même entre fragments de documents, ces liens pouvant être explicites (référencement, commentaires…) ou reconstruits et pouvant donc évoluer. Exemple1. ― Considérons une série de « journaux télévisés » recueillis sur une chaîne pendant une période donnée. L'homogénéité de ce corpus réside dans trois critères : genre télévisuel, source, période. Chaque journal télévisé est pourtant un assemblage de séquences, dont certaines sont des extraits provenant d'autres documents tournés à des périodes différentes, dans des lieux différents, par divers réalisateurs. Ces derniers documents s'intègrent naturellement dans la collection initiale. Il en est de même de tous les commentaires ultérieurs que susciteraient les journaux télévisés recueillis initialement. Exemple2. ― Considérons des articles scientifiques rassemblés par un chercheur, autour d'un thème. Chaque article s'appuie sur des travaux antérieurs qui suivant leur degré d'assimilation seront ou non cités. On peut évoquer maintenant la théorie de relativité sans citer explicitement les travaux d'Einstein. La collection évolue pendant la durée d'activité du chercheur. Il peut y ajouter ses propres productions. Un corpus documentaire joue le rôle de mémoire matérielle constituée par des personnes dans le cadre d'une activité. Un tel corpus, de façon analogue à une mémoire évolue dans le temps, au gré des ajouts, des oublis (effacements volontaires ou accidentels), des restructurations internes. Ces fonctions exécutées par des personnes s'inscrivant dans l'univers social, intermédiaires entre les auteurs des documents et leurs lecteurs. Par ailleurs, un corpus ne doit son existence qu' à l'activité dont il est la trace. Cela s'applique aussi bien aux collections d' œuvres picturales ou d'objets réunis par un amateur d'art (Barnes, Winthrop, André Breton…) ou par un musée qu'aux liasses de documents liés à un projet d'ingénierie dans une entreprise, qu'auxarchives d'un chercheur d'une équipe de recherche ou d'un collectionneur (Duc d'Aumale). Cette activité s'ancre nécessairement dans l'univers social auquel les acteurs appartiennent. Cet univers s'appréhende relativement au contexte dans lequel le corpus est exploité. Il peut se limiter à un nom de projet au sein d'une entreprise mais verra au cours du temps et des évolutions de l'entreprise la précision e son contexte s'enrichir (projet XXX, mené au sein de la division YYY à telle période). Cependant, certains corpus sont appelés à être exploités dans des sphères beaucoup plus larges que celles qui les ont produits et la reconstruction du contexte social dans lequel ils furent construits, s'avère indispensable comme préalable à leur interprétation. Enfin, un corpus est constitué de documents contenant des textes, des figures, des enregistrements de paroles, d'images animées… Ceux -ci sont perçus comme étant des discours aux yeux de celui qui en prend connaissance. Chaque discours est porteur de son univers de discours reconstruit par l'interprétant (le lecteur). Et alors se tissent de liens internes et externes à cet univers de discours : des liens internes entre les univers des différents discours dans l' « intertextualité », des liens entre le contexte social qui habite l'interprétant et les univers de discours. Les conséquences peuvent avoir une portée variable : elles peuvent être source de nouveaux liens entre documents du corpus, donner naissance à de nouveaux documents qui seront joints à ce corpus, et aller jusqu' à modifier l'univers social. Pour ces raisons, nous posons l'existence de trois univers distincts : l'univers documentaire, celui où se situe le corpus documentaire, l'univers du contexte dans lequel les acteurs évoluent qu'ils soient auteurs, lecteurs, « collectionneurs » …; et l'univers créé par le discours ou univers discursif. Par ailleurs, nous plaçons l'univers documentaire au centre de notre dispositif. En effet, il a pour spécificité d' être le seul perceptible dans sa matérialité. Bien sûr, en tant qu'artefact, il ne peut être observé comme l'est un élément naturel, mais plutôt interprété. Un univers documentaire, puisque trace d'une activité sociale, pourrait être intégré dans l'univers social. Nous n'optons pas pour cette solution pour plusieurs raisons. Nous considérons qu'un univers documentaire de par sa matérialité n'est pas de la même nature que les faits sociaux qui constituent l'univers social : il est de nature symbolique. Il en est la trace sensible. Il permet donc une communication asynchrone comme le permet la mémoire d'un humain qui se trouve en situation de témoigner de faits qu'il a vécus. Les documents permettent ainsi à l'instar de la mémoire humaine d'accorder au discours qu'ils renferment une autonomie temporelle par rapport à l'univers social. En d'autres termes, l'enregistrement d'énoncés sur support matériel (hors de la mémoire humaine) leur permet ainsi de s'affranchir du temps social. L'univers documentaire est en outre le lieu où les documents se positionnent les uns par rapport aux autres (société documentaire – intertextualité), où tout document est une reprise au moins partielle de documents qui le précèdent. En outre, le document traverse le temps social, mais il est soumis comme tout objet à destruction, détérioration, découverte. Enfin, le constat d'une dualité s'impose : l'univers documentaire contribue à la construction de l'univers social pourtant aucun des documents le composant ne peut être interprété sans être inscrit dans le temps social. L'énonciateur et l'interpréteur appartiennent tous deux à l'univers social et le partagent, mais grâce à l'univers documentaire, ils peuvent désynchroniser leur activité. L'univers documentaire recèle des discours. Ces discours jouent un double rôle vis-à-vis de l'univers social : ils en sont le reflet, et participent à sa construction. Car le sujet interprétant a pour vocation de reconstruire l'univers social de l'auteur à partir des discours. La distinction entre univers discursif et univers social s'illustre aisément au travers de la distinction entre « journaux » et « mémoires ». Pour reconstituer l'univers social d'une période écoulée, on peut s'appuyer sur les documents produits à cette époque, les journaux intimes ou publics, ou sur les documents écrits plus tardivement par ceux qui ont vécu cette période, les mémoires. Dans le cas des journaux, le temps de l'énonciation, celui où le locuteur parle, s'identifie au temps social des événements relatés. En contrepartie, le lecteur interprétant d'aujourd'hui doit reconstruire cet univers pour pouvoir situer les énoncés dans leur contexte de production. Dans le cas des mémoires, le temps de l'énonciation est différé par rapport à celui des événements relatés. Le temps de l'énonciation est donc distinct, car différé, de celui des événements. La reconstruction du contexte s'effectue en deux étapes par deux acteurs différents. L'auteur doit reconstruire le contexte social de ses souvenirs, tandis que le lecteur doit reconstruire l'univers dans lequel l'auteur a écrit. Ces mémoires, censées recueillir les souvenirs d'une vie sont tournés vers le futur, car il s'agit de construire l'image à transmettre aux générations suivantes. Chacun des trois univers que nous venons de distinguer est fondamentalement historique : des événements s'y produisent, des successions et des durées y sont observables. Et chacun de ces univers a une temporalité qui lui est propre. Il suffit pour s'en convaincre d'examiner les procédés narratifs de réminiscence (flash-back) ou d'anticipation, ou les discours sur le temps cosmique. Le temps documentaire est marqué par les événements qui affectent le champ documentaire : apparition de nouveaux documents, destruction, modification, mais aussi par les événements qui en affectent l'organisation (construction ou suppression de liens). Et, au lieu de considérer que l'univers documentaire n'est fait que d'une série d'événements homogènes (les interprétations individuelles), on doit distinguer, dans l'épaisseur du corpus, plusieurs plans d'événements possibles : plan des unités documentaires elles -mêmes dans leur émergence singulière; plan de l'apparition des modalités d'interprétation, des concepts, des choix stratégiques; plan de la dérivation de nouvelles règles de formation à partir de règles qui sont déjà à l' œuvre (exemples : apparition d'un nouveau document impliquant une réorganisation d'un corpus documentaire, changement de paradigme interprétatif entraînant un réaménagement du matériel documentaire). Relèvent, entre autres, du temps documentaire, la succession des chapitres, des paragraphes, des phrases, des mots d'un texte; ou encore celle des plans, des séquences et des scènes d'un film. D'autre part, toute unité documentaire étant considérée comme un événement surgissant dans un champ d'interprétation, le temps de lecture fait partie intégrante du temps documentaire. Le temps documentaire n'est pas superposable au temps social, il n'obéit pas à la chronologie régissant l'évolution sociale. Il est, encore moins, la traduction de la temporalité de la conscience humaine. Ainsi, la découverte en l'an 2000 d'une nouvelle œuvre de Shakespeare, est un événement se produisant dans le champ documentaire (inscription à l'inventaire) qui n'affecte que très peu l'univers social. L'univers de discours est un ensemble de domaines où des objets peuvent apparaître, des relations peuvent être assignées. Ce sera par exemple un domaine d'objets matériels possédant un certain nombre de propriétés physiques constatables, es relations de grandeur perceptible; ou, au contraire, ce sera un domaine d'objets fictifs, dotés de propriétés arbitraires, sans instance de vérifications expérimentales ou perceptives; ce sera un domaine de localisation spatiale et géographiques, avec des coordonnées, des distances, des relations de voisinage et d'inclusion; ou, au contraire, un domaine d'appartenances symboliques et de parentés secrètes. Ce sera un domaine d'objets qui existent dans ce même instant et sur cette même échelle de temps où se lit le document, ou bien ce sera un domaine d'objets qui appartient à un tout autre présent : celui qui est indiqué et constitué par le document lui -même, et non pas celui auquel le document appartient lui aussi. L'univers de discours n'est point constitué de « choses », de « faits », de « réalités », ou « d' êtres », mais de lois de possibilité, de règles d'existence pour les objets qui s'y trouvent nommés, désignés, décrits ou représentés, pour les relations qui s'y trouvent affirmées ou niées. L'univers de discours est le lieu, la condition, le champ d'émergence, l'instance de différenciation des individus ou des objets, des états de choses et des relations qui sont mises en jeu par le document lui -même. Cet univers n'est pas figé, il est soumis au changement, il est lieu d'apparition de nouveaux individus, de nouveaux objets, et le lieu de modification des relations entre ces individus, ces objets. Il essentiellement temporel et cette temporalité est construite par le document lui -même. Le lecteur qui souhaiterait connaître l'état de la réflexion en la matière peut consulter les travaux de philosophes comme Michel Foucault (Foucault, 1969) et Paul Ricœur (Ricœur, 2000), et aussi ceux de linguistes comme Emile Benvéniste (Benvéniste, 1966) ou Catherine Fuchs (Fuchs et Léonard, 1979). Le temps social, contrairement aux deux précédents, ne relève pas a priori d'une construction intellectuelle, il est celui dans lequel s'inscrit une société humaine. Il est fait d'événements et de durées, projetés sur un calendrier. Ces durées portent des dénominations distinctes suivant les disciplines : ères géologiques, périodes historiques, âges de la vie. Si nous devons admettre que le temps social est un « donné » a priori, de nombreux événements qui le scandent sont néanmoins très dépendants de certains documents, qui participent à leur construction; l'annonce par les médias d'une mesure gouvernementale peut déclencher des mouvements sociaux, l'apparition de nouveaux témoignages peut modifier une décision de justice, la sortie d'un nouveau film peut changer influencer comportements sociaux, etc. Le temps documentaire lié à l'univers médian (médiat) de notre représentation est un temps ponctué d'événements. Il relève d'une logique qui lui est propre. Il est articulé au temps de l'univers social grâce aux différentes personnes qui participent à son évolution, personnes qui, avec leur niveau d'autorité, agissent en fonction du contexte social. Dans l'univers social, le temps de l'auteur précède toujours celui du lecteur. Réciproquement, des événements sociaux peuvent changer la nature d'un document : nous empruntons l'exemple qui suit à H. Hudrisier : les élections présidentielles de 1969 et 1974 modifient profondément, transforment ' interprétation que l'on peut faire d'une photo de presse représentant le président de la République C. De Gaulle en présence de G. Pompidou et V. Giscard d'Estaing (prise avant 1969). Si parfois le discours permet de créer un univers autonome, il peut aussi se construire à partir du temps social au moyen des dates, ou de référence à des événements. En outre, il peut aussi se référer à d'autres discours de l'univers documentaire. A l'heure actuelle, nous ne sommes pas en mesure d'aller au-delà pour clarifier les articulations entre les trois temps. Mais existe -t-il des lois générales ? N'avons -nous pas affaire à autant de modalités d'articulation que de corpus documentaires ? Le support numérique des documents ne bouleverse pas cette distribution en trois univers. Il nous incite à mieux en comprendre l'organisation, les contours, les caractéristiques et rend nécessaire sa description, sa caractérisation et sa modélisation. En effet, nombreux sont les problèmes auxquels il nous faudra apporter des solutions : la facilité avec laquelle on peut diffuser des copies de fichiers numériques contribue à la négation de la distance temporelle, car le temps d'acheminement n'est plus proportionnel à la distance parcourue; le numérique oblige à discrétiser les continuums et autorise la délinéarisation, donc les ruptures, créant ainsi de nouveaux parcours dans les espaces documentaires; les espaces documentaires sont constitués de fichiers qu'il convient de nommer, mais à l'heure actuelle aucune « norme » ne régit le « nommage » des fichiers, si ce n'est que sur un même espace disque on ne peut avoir deux fichiers portant le même nom. De ce fait un même document, peut porter des noms différents, selon le lieu où il réside, et ce contrairement aux règles qui président à l'attribution de numéros standards pour les documents papiers, comme l'ISBN (International Standard Book number) et l'ISSN (International Standard Series Number). Ce problème a été identifié par l'International DOI Foundation, qui propose d'uniformiser le nommage des fichiers au moyen d'un DOI Digital Object Identifier. « Un identificateur d'objet numérique diffère des pointeurs en usage sur internet comme l'URL parce qu'il identifie un objet comme une entité à part entière, et non simplement l'endroit où est situé cet objet 1 » (IDF, 2004). Cette solution devrait résoudre à terme la question de désignation des documents déposés afin d'en protéger la propriété intellectuelle. Mais lui échappent encore nombre de documents échangés au sein d'organisations. Il devient nécessaire dans de nombreuses applications informatiques liées à la conservation numérique, à la restitution et diffusion de documents de prendre en compte la dimension temporelle (Jourdan et al., 1998). Ce faisant, les fondements du raisonnement logique atteignent un haut niveau de complexité (Bellini et al., 2000). Or il nous faut admettre qu'une dimension temporelle unique ne permet pas de construire un modèle apte à représenter les interactions entre les trois univers présentés ci-dessus. Ainsi, certaines applications informatiques intègrent la prise en compte du temps dans la gestion et l'interrogation de fonds documentaires (Aramburu, Berlanga, 2001). L'analyse de la situation à modéliser les conduit naturellement à distinguer l'événement documentaire (parution d'un article par exemple) de l'événement social dont le document traite. Malgré cette distinction justifiée, le modèle proposé se limite à une seule dimension temporelle : le temps de la physique, continu et linéaire, avec ses repères arbitraires et inopérants que sont les dates. Le temps de la narration, par exemple, avec ses étirements et ses suspensions temporels, avec ses retours dans le passé et ses intrusions dans le futur ne se prête guère à cette continuité et cette linéarité. Avant, après, événement, succession, durée, passé, présent, futur, devenir. Autant de termes qui réfèrent à cette notion très complexe de temps. Il y a temps s'il y a changement; changement d'un état de choses, changement au sein d'un univers. Le monde est tout ce qui arrive, écrit L. Wittgenstein (Wittgenstein, 1990) en ouverture de son Tractatus logico - philosophicus, référence essentielle de la logique contemporaine. Nos trois univers, documentaire, représenté (ou discursif) et social, ont en commun cette essence temporelle. Un document ? certes, mais avant ou après d'autres documents. Un fait social ? certes, mais avant ou après d'autres faits sociaux. Un changement raconté ? certes, mais avant ou après d'autres changements racontés. Ces univers sont distincts, ils relèvent d'ordres différents, ils sont néanmoins solidaires et leurs temporalités respectives interfèrent. Les modalités actuelles de l'information, et de la transmission (spatiale et temporelle) nous poussent à nous interroger sur ces temporalités, qui constituent l'une des clés de l'accès à la signification et au sens. Tout dispositif numérique d'information et de communication ne peut aujourd'hui négliger le temps, et doit l'appréhender dans toute sa complexité. Un vaste chantier s'ouvre à nous .
Cet article propose une modélisation capable de rendre compte des différentes dimensions temporelles portées par un document. Après la définition de la notion de document, nous introduisons trois univers : l'univers social, l'univers documentaire et l'univers du discours. Chacun d'eux contient sa propre dimension temporelle. Nous pensons ainsi ouvrir des perspectives à ceux qui auront à concevoir des bibliothèques numériques.
sciencesInfo_06-0189511_tei_DN_084_0011.tei.xml
termith-425-communication
Les entreprises se trouvent de plus en plus confrontées à une concurrence mondiale très rude les incitant à rechercher une meilleure productivité de leurs systèmes industriels. Il s'agit de concevoir et de produire avec une meilleure qualité, au moindre coût et dans les délais les plus brefs. Dans ce contexte, un intérêt particulier a été porté au développement de méthodes et de moyens pour la maîtrise du processus de conception. Cette activité, créatrice de valeur ajoutée, est à la charnière des autres activités car elle prend en compte les différentes phases du cycle de vie du produit. Au milieu des années quatre-vingts, l'industrie japonaise a vu émerger une nouvelle forme d'organisation qui est l'ingénierie simultanée dite aussi ingénierie concourante (Concurrent Engineering) (Foulard, 1994; Kosanke, 1997; Stadzisz, 1997; Bonnevault et al., 2001) et qui consiste en une mise en parallèle des activités de développement du produit et du système de production ayant pour but principal de réduire les coûts et les délais et aussi d'améliorer la qualité. L'idée est de faire participer tous les acteurs du projet, directs ou indirects, y compris en aval les clients, destinataires du produit final ou en amont le fournisseur. Cette idée repose sur deux grands principes : la simultanéité et l'intégration. Le premier consiste à développer en même temps différentes activités concourant à la conception du produit et de son système de production, le second principe est caractérisé par l'établissement d'une interdépendance étroite entre les différentes phases de projet dans le dessein de prendre en compte à chaque niveau de développement, des considérations relatives à l'ensemble du cycle de vie du produit Dans cette organisation, le groupe de travail est assimilé à un système en interactions permanentes afin de dépasser les limites du travail individuel (rationalité limitée selon Simon (Simon, 1991)) et de regrouper les efforts élémentaires dans des actions conjointes. Ceci nécessite des mécanismes de régulation et de coordination entre les différents acteurs. Dans ce sens, chaque acteur du collectif doit avoir une vision globale de l'environnement de travail auquel il participe et dans lequel il interagit. C'est à travers le modèle de cette situation, qu'il identifie les attentes des autres partenaires ainsi que l'impact de ses actions et de celles des autres sur l'environnement. La représentation de ce contexte peut être établie sous forme d'une carte dite cognitive (Picard, 2003). Après un aperçu sur les différents aspects de la conception collaborative (section 2), nous analyserons le concept de situation (section 3) et enfin nous formaliserons notre modèle de la situation (section 2). La conception est une activité complexe nécessitant l'intégration de multiples points de vue (cognitif, technique, social, économique, organisationnel, temporel…) Les travaux dans ce domaine couvrent de nombreux aspects depuis l'étude théorique du concept (Hatchuel et al., 2002; Micaëlli et al., 2003), jusqu' à la modélisation du processus et des activités de conception (Eynard, 1999), en passant par la capitalisation des connaissances produites au cours du processus de conception (Harani, 1997; Bernard, 2000). Certains travaux concernent l'organisation de la conception (Midler, 1997), le pilotage des processus (Girard et al., 2002), et l'intégration des compétences et des métiers dans le processus de conception (Boucher, 1999; Lefebvre et al., 2002). D'autres travaux ont pour but de développer des supports pour aider les concepteurs dans leur travail (Vargas et al., 1995; Bouchard et al., 1997)… Une conséquence de la complexité est que cette activité n'est jamais individuelle mais présente un caractère collectif et distribué (Blanco, 1998). L'effort collectif est une réponse à la complexité. Les acteurs ou sujets de la conception proviennent d'univers disciplinaires et culturels différents, d'où la nécessité d'avoir des mécanismes de compréhension. Il est donc clair que le rôle de la coopération est déterminant dans les processus de conception (Boujut, 2000b). De plus les informations circulant en conception sont le plus souvent non structurées (Menand 2002). Il est parfois difficile pour un concepteur de disposer d'informations à la fois complètes et pertinentes, au moment opportun, d'où une nécessité d'interaction avec les autres acteurs. Différents objectifs de la coopération en conception peuvent être identifiés à savoir : obtenir une meilleure qualité de l'organisation du projet, et par conséquent une meilleure gestion de ce dernier. Cette organisation tente au mieux d'optimiser le par l'efficacité de toutes les compétences qui interviennent. Cette organisation est obtenue (Perrin et al., 2001) soit par répartition d'une tâche de même nature sur différents acteurs (pour réduire le temps de réalisation, dans ce cas on a une augmentation des efforts par composition des efforts élémentaires), soit par répartition des tâches de conception de différentes natures selon les compétences requises, disponibles dans l'entreprise afin d'avoir une meilleure qualité; disposer du maximum de connaissances disponibles dans l'entreprise et à l'extérieur de l'entreprise. Ces connaissances sont distribuées sur différents niveaux, réparties dans différents services et détenues par différents acteurs de métiers différents (Mer et al., 1998); harmoniser des décisions (coordination et synchronisation) : dans l'activité de conception, plusieurs centres de décision coopèrent entre eux afin de prendre en compte l'impact d'une décision issue d'un centre amont sur un centre aval et inversement, le retour d'informations vers un centre amont suite à une décision donnée d'un centre aval. Il s'agit aussi de faire face aux événements imprévus ou partiellement inconnus résultant des différentes décisions; contribuer à l'intégration et la régulation de la dynamique des métiers de la conception (apprentissages croisés), cette dynamique est souvent perturbée par trois principaux facteurs (Lefebvre et al., 2002) à savoir la dynamique des connaissances, la création de nouvelles compétences et l'influence de l'identité et du parcours professionnel de chaque concepteur. L'évolution des technologies de l'information et de la communication contribue à favoriser les interactions en conception (Tarpin-Bernard, 1997). Les logiciels de CAO traditionnels sont maintenant dotés de systèmes d'aide au travail collaboratif (Bernard et al., 2003) reliant les services de l'entreprise entre eux et avec leurs partenaires externes. Les travaux de recherche dans le domaine de la conception collaborative présentent deux difficultés : trouver un vocabulaire commun à différentes disciplines et élaborer des modèles et outils plus efficaces pour le travail collaboratif. Par exemple, le terme coopération est utilisé dans des sens différents, selon les disciplines et les besoins. Pour notre part, nous considérerons qu'il s'agit d'une forme d'interaction parmi d'autres (coopération, coordination, collaboration et concertation), chacune possédant ses propres spécificités. Il n'existe pas de définitions unanimes de ces différentes interactions (Leplat, 1997; Dillenbourg et al., 2002; De La Garza et al., 2000). Les modèles et outils développés sont faits pour assister la coopération entre acteurs et ne permettent pas toujours de répondre à un certain nombre de questions : Quelles sont les conséquences de l'activité collective sur les connaissances, les décisions et les activités de chaque acteur et inversement, l'influence de chacun sur l'activité collective et sur la performance globale de l'acteur collectif ? On sait qu'une conséquence importante des interactions entre acteurs est l'apprentissage croisé (Hatchuel, 1996) ou l'apprentissage collectif (Le Boterf, 2000; Dillenbourg et al., 2002). L'intérêt qui se développe pour le concept de compétences et l'évolution de celles -ci (Bonjour et al., 2002) nécessite de s'intéresser aux différents modes de l'apprentissage collectif. L'étude des interactions peut permettre d'analyser les dynamiques de production, d'acquisition et de transfert des connaissances et des compétences. Quelles sont les motivations individuelles qui conduisent à l'instauration d'une relation de coopération ? (Compagne, 2000). Au-delà d'un besoin formalisé, la situation réelle de l'acteur génère un besoin d'interactions (régulation). Ceci nécessite une vision globale de chacun sur l'ensemble de ce collectif. Un des objectifs d'un dispositif de pilotage est de trouver les moyens ou les leviers d'actions qui permettent d'augmenter l'occurrence des interactions accroissant la performance à court terme (résultats de l'activité) ou à long terme (apprentissage et évolution des compétences). Il s'agira de créer les conditions favorisant l'émergence de ces interactions. Le concept de situation (l'environnement) devient un concept de base pertinent qui permettra de répondre aux questions soulevées et de contribuer à l'amélioration de la conception collaborative. Le concept de situation est un concept abordé par plusieurs disciplines. En psychologie sociale, la situation représente une organisation de la perception avec laquelle les gens assemblent les objets et les actions d'une façon logique selon eux. La situation est définie par un ensemble de rôles interconnectés qui donnent les liens-clés entre les perspectives et les comportements de l'individu. Cet ensemble de rôles doit permettre à l'individu d'anticiper l'action de ceux avec qui il interagit ou de donner un sens à l'action des autres, à défaut de pouvoir l'anticiper. Toutefois, la situation n'a pas de signification absolue et unanime (Thomas, 1923). Plus concrètement, l'action de l'acteur n'est pas le résultat de l'état brut de son environnement mais de la représentation qu'il se construit de son environnement. Nous distinguerons trois niveaux de description d'une situation : Situation Concrète SC : la situation concrète est représentée par l'ensemble des entités réelles existantes qu'elles soient observées ou non par les acteurs. Situation Observable Soi :elle est représentée par l'ensemble des entités et relations qui peuvent être observées par un acteur. La différence entre la situation concrète et la situation observable chez un acteur est un indicateur du niveau de perception de ce dernier. Situation Utile Sui : c'est une représentation de l'ensemble des entités et relations observées et considérées comme pertinentes par un acteur i à un moment donné au cours de la réalisation de sa tâche. La différence entre la situation observée par un acteur et sa situation utile peut être un indicateur de comportement de l'acteur. Les degrés de pondération (les poids P) affectés aux attributs des entités et des relations (cf. section 4) permettent de prendre en compte le degré de pertinence que donne un acteur à chaque élément de la situation et par conséquent construire sa définition de la situation utile. On notera que la situation utile est en soi une manifestation extérieure de la représentation cognitive que s'est construit l'acteur de son environnement. Cette dernière n'est pas directement observable. Elle peut être déduite par une analyse de l'activité ou par distanciation (Piaget, 1973). A ces niveaux, on associe aussi une autre forme qu'on notera Situation modélisable Sm et qui contient l'ensemble des entités et relations observées ou explicitées par un modélisateur externe qui a une vision globale de l'environnement. Le modèle de cette situation regroupe l'ensemble des entités et relations observables par tous les acteurs. Le modèle de la situation donne une spécification des relations existantes entre les différentes composantes de cette situation qui rentrent en jeu dans le problème à résoudre. Selon Penalva (Penalva, 1999), trois éléments de base sont à considérer dans le modèle d'une situation complexe : l'action, l'acteur qui effectue cette action et l'objet de cette action. Cependant, l'activité n'est pas le seul « élément déterminant » dans une interaction et dans ce sens, le modèle de Penalva nous semble limitatif. En effet, la nature de la participation de chaque acteur dépend de son interprétation de ses tâches et de celles de ses partenaires, ainsi que son interprétation de leurs activités. Le modèle de situation que nous proposons (figure 1) couvre les différents aspects de l'environnement de travail à savoir : l'aspect structurel renseigne sur la façon dont sont reliés les différents éléments de l'environnement; l'aspect opérationnel décrit ce que fait chacun des éléments; l'aspect dynamique renseigne sur l'évolution de cet environnement. Ces différents aspects impliquent l'existence d'autres éléments abstraits de l'environnement sous forme de contraintes et de règles. L'identification et l'application de ces règles et contraintes sont fortement liées à la subjectivité de l'acteur (en tant que modélisateur, observateur) qui construit le modèle de la situation. Ces règles et contraintes constituent une forme de connaissances souvent négligées dans les systèmes de connaissances et qui pourtant peuvent donner des renseignements sur les mécanismes d'interprétation implicites d'un acteur. Nous proposons la définition suivante de la situation : « La situation est un ensemble d'entités et d'interactions (de différentes natures) qui caractérise de façon globale l'environnement externe dans lequel l'acteur mobilise sa compétence » Sur la base de cette définition, le modèle de la situation que nous proposons comporte un ensemble d'entités E reliées par un ensemble de relations R : S(t) =1E(t),R(t)1 Nous distinguerons deux types d'entités (figure 3) : les entités de base, notées EB, et dites entités concrètes : Ces entités regroupent les différents acteurs humains présents dans l'environnement ainsi que les différentes ressources matérielles. Nous distinguerons l'entité individu (qui représente un acteur humain) de l'entité tangible qui est une ressource matérielle (produit, outils de travail, des outils de communication…); les entités interactionnelles, notée EI, et dites entités abstraites : ces entités représentent les différents liens entre les entités correspondantes (exemple d'une entité tâche qui relie l'acteur, l'objet et éventuellement le support). Une interaction sera définie comme une mise en relation de deux ou plusieurs acteurs, les objectifs de chacun dans cette interaction pouvant ou non être identiques. Une entité Ei appartenant à E (ensemble des entités) est décrite par le triplet {Type; Etat; Poids} où le Type précise s'il s'agit d'une entité de base ou d'une entité interactionnelle, l'Etat informe sur l'activité de cette entité et le Poids mesure le degré de pertinence de l'entité pour un acteur par rapport à son activité. Type= {EB; EI} Etat = {0,1} = {Inactif, Actif} Poids Pi ∈ [0] [1 ], il mesure le degré de pertinence de l'entité i pour un acteur par rapport à son activité. Un poids zéro signifie que l'élément en question est négligé par l'acteur et inversement pour le poids 1, cet élément est très pertinent. Ces entités décrivent les différentes tâches que doivent effectuer les acteurs, elles donnent la réponse à la question : qui fait quoi ? Ces entités établissent un lien d'appartenance entre l'entité mère et les entités filles. Une équipe composée de trois individus est une entité interactionnelle de type communautaire. De même un groupe regroupe un ensemble d'équipes… Un processus regroupe un ensemble de tâches dans un ordre donné, il est donc une entité interactionnelle communautaire à laquelle appartiennent ces entités. Ce type d'entité fait apparaître le rôle de l'individu par rapport aux différentes équipes auxquelles il contribue. Chaque entité interactionnelle communautaire comporte ses propres règles de fonctionnement et de combinaison. L'entité interactionnelle transactionnelle est une forme particulière des entités opérationnelles. Elle décrit les différents mécanismes d'interaction et d'échange d'informations entre acteurs soit au cours de la réalisation de leurs tâches collectives soit lors de la demande de participation indirecte à des tâches individuelles. Toutefois, des niveaux de structuration et de complexité existent entre les différents modes d'interaction selon la nature. des informations échangées, les objectifs de cette interaction et le degré de dépendance entre les participants… Pour ce qui nous concerne dans ce travail, il ne s'agit pas de faire une énumération exhaustive des différents aspects du travail collectif mais plutôt d'utiliser ces différentes interactions pour qualifier les entités transactionnelles dans le but de nous renseigner sur la nature des échanges que peuvent avoir les acteurs dans une situation donnée. Nous utiliserons quatre formes d'entités interactionnelles transactionnelles possibles, à savoir la communication, la coopération, la coordination et la collaboration. C'est la forme la plus simple de contact entre individus, sans obligation de partage d'objectifs et n'ayant pas toujours un but final bien spécifié. C'est un processus de transmission de messages qui nécessite un émetteur, un ou des récepteurs, le message et le moyen ou le support de la communication. Les objectifs sont donc soit purement techniques liés à la tâche à réaliser, soit liés aux phénomènes sociologiques et aux exigences de la vie professionnelle. Dans cette dernière forme, le degré de dépendance des acteurs est le plus faible. Coopérer, c'est agir vers un but commun, c'est une interaction dont le but est bien identifié à savoir participer à une œuvre commune, directement ou indirectement. Cependant les différents objectifs individuels ne sont pas forcément en dépendance totale. Chaque acteur peut être concerné par les résultats d'un autre acteur sans avoir à réaliser la même tâche élémentaire. La coopération est donc un mécanisme de transaction plus complexe qui utilise la communication comme moyen. L'entité coopération donne donc un sens à l'entité communication, car sans communication, la coopération ne peut exister. La coordination est un processus d'élaboration de règles et de conventions entre acteurs. C'est une action régulatrice du processus de coopération. La régulation peut se faire sur la base d'un ordonnancement temporel des actions, de synchronisation entre les actions et les ressources et objets communs à ces actions… La coordination est un processus plus complexe imposant à ses participants d'avoir une forte dépendance entre leurs objectifs individuels et de se mettre d'accord sur des règles de fonctionnement précises à respecter au cours de tout le processus. Ces conventions peuvent être explicites ou implicites, émergeantes ou prescrites. Selon le dictionnaire, les termes de coopération et de collaboration sont souvent utilisés dans le même sens. Cependant le terme de collaboration peut être utilisé en lieu et en place de la coopération lorsque les actions individuelles ne sont pas différenciables. (Dillenbourg et al., 2002). Dans la collaboration les rôles sont fortement imbriqués. Chacun régule l'action de l'autre en permanence, le degré de dépendance entre les acteurs est maximal. Chaque acteur ne peut pas valider sa tâche sans l'approbation des autres participants. La coordination implique des processus de coopération entre les acteurs coordonnés d'un côté et le coordinateur d'un autre côté afin de réguler l'action de coordination. La collaboration nécessite un processus de coordination qui émerge au cours de l'action dans le dessein d'organiser l'intervention de chaque acteur dans la tâche à réaliser. Une relation Rij appartenant à R ensemble des relations, relie une entité de base ou une entité interactionnelle à une entité interactionnelle : Rij : Ei € {E} (ensemble des entités) → Ej € {EI} Une relation Rij entre deux entités Ei; Ej est décrite par le quadruplet : Rij = {Ei; Ej; Rôle; Poids} Le rôle donne une image de l'interprétation que peut avoir l'acteur de son environnement. Ces rôles peuvent avoir plusieurs significations selon la nature des entités auxquelles ils font référence. Le poids : P€ [0] [1] mesure l'importance accordée à la relation. Nous définissons cinq types de rôles qui couvriront les différentes facettes structurelles et organisationnelles. Ces rôles répondent à des questions génériques (tableau 1) : Classification des rôles Question Rôle Description Qui ? Acteur C'est la ressource qui participe directement à l'interaction Pour qui ? Client L'entité décrit le besoin et/ou la raison de cette interaction , l'ordre du client est toujours en aval Sur quoi ? Objet Entité sur laquelle porte l'interaction, par exemple sur quoi porte une tâche ou une communication Avec quoi ? Support C'est une entité qui participe d'une façon indirecte dans l'interaction Comment ? Manager C'est l'entité qui régule l'interaction. Selon la vision structurelle ou dynamique, elle organise ou ordonnance les entités filles dans l'entité interactionnelle mère Les figures 2 et 3 (ci-dessous) illustrent certains types de rôles. Dans la figure 2, la relation R13 entre l'entité 1 (individu) et l'entité 3 (tâche) est définie par le quadruplet {E1; E3; Client; Poids }, le rôle client signifie que l'entité 1 « individu » prescrit la tâche et attend son résultat. De la même façon, la tâche 3 joue le rôle de client par rapport à la tâche 4 signifie que le résultat de la tâche est nécessaire pour réaliser la tâche 3. Le processus a un rôle de manager pour une tâche car il ordonnance les entités-filles (tâches) dans l'entité mère. Pour les entités communautaires, nous proposons l'exemple suivant : Dans la relation (Individu 1; Equipe 1) de l'exemple 2 (figure 3) le rôle de client signifie que l'individu 1 est le prescripteur des activités de l'équipe; l'individu 2 a deux rôles suivant que l'on considère sa relation avec l'équipe 1 et l'équipe 2, dans le premier cas (support) il participe indirectement aux activités, dans le deuxième cas il est acteur et participe à l'exécution de la tâche. Le rôle de manager alloué à l'individu 3 signifie qu'il coordonne les activités de l'équipe 2. Dans le cas des entités transactionnelles, tous les participants actifs ont le rôle d'acteur. Les canaux de communication ou les acteurs participant d'une façon indirecte ont des rôles de support. Le rôle du manager est celui du coordinateur. La démarche de modélisation préconisée est une démarche progressive et itérative pour construire les différentes facettes du modèle. Elle se décompose en cinq phases : une première phase d'initialisation consacrée à l'identification du besoin, au repérage des sources d'informations et à l'élaboration du plan d'action à suivre. Dans la deuxième phase, on recensera tous les éléments existants dans l'environnement (acteurs, objets, structures organisationnelles). La troisième phase est consacrée à l'analyse du prescrit, il s'agit d'identifier les missions et les affectations des acteurs. Dans la quatrième phase, l'attention se porte sur les différents objets produits réellement (finaux ou intermédiaires). Il s'agira aussi de retranscrire l'activité réelle des acteurs par questionnement et accompagnement de ces derniers au cours de leur travail. Enfin dans la dernière phase, les éléments identifiés dans les phases précédentes sont structurés dans le modèle final. Nous avons proposé dans cet article un modèle de la situation de travail d'un acteur. Ce modèle a pour objectif d'apporter une aide pour la compréhension des différents mécanismes qui régissent les activités collaboratives. Il est complémentaire aux modèles basés sur les processus qui s'intéressent aux flux d'objets et à la combinaison des tâches. Ce modèle de la situation est centré sur un acteur (individuel ou collectif). Il décrit en détail de façon statique, son environnement de travail et de façon dynamique, son flux d'activités avec en particulier, ses interactions. Les dépendances mutuelles diverses qui peuvent exister entre les différents acteurs génèrent des besoins d'interaction implicites ou explicites. Chaque acteur doit avoir une vision globale sur l'ensemble du collectif pour pouvoir choisir ses partenaires et les modes d'interaction efficaces qu'il doit utiliser avec eux. Combiner une modélisation sur le processus et sur l'activité ouvre une voie intéressante pour décrire, évaluer et améliorer les compétences des acteurs. Le modèle des processus peut permettre la traçabilité des résultats individuels ou collectifs alors que le modèle de la situation de l'activité peut permettre d'analyser la contribution d'un acteur à ce collectif. Du point de vue du management, les interactions sont à la fois favorables (et donc à inciter) lorsqu'elles permettent d'améliorer la circulation des connaissances et les apprentissages croisés, et nuisibles car elles sont coûteuses en temps d'interactions. Le management doit donc organiser les processus pour limiter les interactions dans le cas de situations routinières maîtrisées et faciliter les interactions dans le cas de situations problématiques ou innovantes. L'analyse de ces interactions peut alors améliorer les transferts de connaissances et expliquer les bonnes pratiques. La coopération ou les interactions entre acteurs d'une façon générale, n'est pas une fin en soi mais elle répond souvent à un besoin de manifestation sociale et d'un besoin d'entraide. Les finalités et le cadre de chaque interaction sont formulés à partir des éléments de la situation. Les conséquences des actions sont observées sur les éléments de cette situation. Le modèle proposé conservant la traçabilité de l'activité collaboratrice, les perspectives de ce travail conceptuel sont nombreuses : contribuer à améliorer les outils de conception collaborative, favoriser la capitalisation des connaissances individuelles et collectives, permettre le diagnostic des causes de dysfonctionnement dans l'organisation, fournir une prédiction sur les résultats des actions collaboratives selon leur impact probable sur l'environnement et enfin, apporter des éléments de réponse aux questions soulevées à la section 2.2 .
Le caractère collectif des activités de conception nécessite le développement de méthodes et d'outils pour la maîtrise des processus de conception et des activités collaboratives. Le groupe de travail est assimilé à un système constitué d'entités en interactions de différentes natures et régi par des mécanismes de régulation et de coordination. Nous nous intéressons ici à la modélisation d'une situation de conception collaborative. Après une définition de la situation et la description de différentes perceptions de ce concept, nous proposons un modèle de situation dans lequel nous caractérisons les entités de différentes natures qui sont en interactions. Une classification des relations entre ces entités est proposée. Les perspectives de ce travail sont de contribuer à l'amélioration d'outils permettant de supporter une situation de conception collaborative et de capitaliser ces connaissances en vue d'une réutilisation efficace.
sciencesInfo_04-0592890_tei_DN_081_0093.tei.xml
termith-426-communication
Les changements technologiques actuels provoquent une large prise de conscience dans le monde au sujet de la conservation du patrimoine culturel produit ou stocké par le biais des technologies numériques. Une partie de la mémoire documentaire de notre société créée et conservée sur supports numériques est déjà compromise, et les coûts de restauration des documents électroniques sont très élevés et deviennent financièrement inaccessibles. Alors que le volume d'informations numériques de valeur qui ont été perdues ou qui ne sont aujourd'hui récupérables qu'au prix de grandes dépenses n'a pas été véritablement mesuré, il est déjà évident que la menace est réelle et généralisée. En outre, même si nous pouvions garantir la conservation des documents électroniques et vaincre la fragilité des supports et l'obsolescence technologique, les documents archivés sont de peu de valeur si nous ne pouvons pas être sûrs de leur authenticité, autrement dit qu'il s'agit de sources fiables. Pendant des siècles, la présomption de l'authenticité des documents d'archives a reposé sur la présence ou l'absence d'éléments formels visibles, tels que les sceaux et les signatures, et de contrôle des procédures de production, de transmission, d'utilisation et d'archivage des documents, et sur la continuité d'une garde légitime. L'utilisation des technologies numériques pour créer des documents a redéfini les éléments formels traditionnels de reconnaissance de l'authenticité des documents, autorisé à s'affranchir des contrôles, et fait de la conservation physique un concept plus lointain. Si jamais les documents électroniques sont un jour aussi dignes de foi que les documents sur supports traditionnels, les pratiques de création, d'archivage et d'utilisation doivent être analysées, afin de développer des stratégies et des normes pour leur conservation authentique. C'était la mission de la première phase d'InterPARES (International research on Permanent Authentic Records in Electronic Systems), une entreprise de recherche qui étudie comment maîtriser les documents liés à la responsabilité et aux besoins de l'administration. Dans la plupart des pays, ces documents représentent la majorité des archives conservées à titre définitif, et constituent une haute priorité tant pour le public que pour le secteur privé. Les documents sous forme électronique sont généralement créés via des bases de données et des systèmes de gestion électronique de documents (GED). L'authenticité de ces mêmes documents sur des supports traditionnels a été prise en compte par la plupart des systèmes juridiques qui ont énoncé des exigences explicites pour définir leur authenticité et qui peuvent servir de point de départ pour de nouvelles exigences pour leurs équivalents électroniques. La création, l'archivage et l'utilisation de ces documents d'archives est très contrôlée, de sorte qu'InterPARES 1 pouvait se concentrer sur la conservation de l'authenticité des documents qui ne sont plus d'usage courant pour les services producteurs dans la conduite de leurs activités, admettant leur authenticité dès lors qu'ils étaient créés et conservés en respectant certaines exigences 1. Quoi qu'il en soit, au cours des recherches il est devenu évident que les développements technologiques commencent à toucher même les procédures et la forme des documents officiels, que les décisions sont de plus en plus fondées sur des documents dont la création et la forme ne sont pas réglementées, et que la réflexion sur la conservation et la vérification de l'authenticité des nouveaux types de documents qui sont toujours plus universels prend de l'ampleur. Auparavant, la plupart des documents électroniques produits par les diverses tâches administratives étaient textuels, autorisant un stockage dans un format non propriétaire (ASCII par exemple), et requéraient, pour produire des copies dans une forme assez proche de l'original, des solutions logicielles et matérielles peu sophistiquées. Mais, un nombre croissant d'organismes et d'individus se sont mis à produire des documents d'une autre nature, dynamique, participative et interactive, qui exigeront des stratégies de conservation différentes et peut-être spécifiques à certains types de documents. Le contenu des documents dynamiques dépend de données extraites de bases de données dont les instanciations peuvent varier. Le défi que présentent ces documents, en tant qu'archives, à leurs producteurs et utilisateurs est leur manque de fixité, mais des problématiques plus graves émergent avec les documents participatifs et interactifs. Clifford Lynch décrit les objets numériques participatifs comme des objets dont la nature dépasse les trains de bits qui les constituent pour englober le comportement du système de restitution, ou au moins l'interaction entre l'objet et le système de restitution. Il soutient également que la définition de l'authenticité de tels objets est un problème plus complexe que pour des suites de données ou des documents traditionnels dans la mesure où elle ne dépend pas de la possibilité de créer une copie des trains de bits originaux, mais de la possibilité de recréer l'environnement dans lequel le document a été composé, ce qui induit des questions de vie privée, de propriété intellectuelle, etc. 2 Dans un système interactif, chaque saisie d'un utilisateur provoque une réponse ou une action du système. Pour que les documents produits puissent être conservés dans de tels systèmes, nous devons vérifier a) comment l'apport de l'utilisateur affecte la création et la forme du document électronique (par exemple dans le cas commerce en ligne); et b) si et quand le système interactif et ses fonctionnalités propres requièrent d' être préservés pour que les documents conservent leur sens et leur authenticité. Les exemples de systèmes interactifs vont des pages web des sites des services publics aux productions musicales basées sur une interaction homme-machine, en passant par les jeux vidéo commerciaux. Savoir si les objets numériques dynamiques, participatifs et interactifs sont réellement des documents d'archives dépend bien sûr de leur relation avec l'activité de leur créateur. Les industries culturelles, scientifiques et manufacturières ont une longue histoire de création de tels objets dans le cadre de leurs activités et, alors que le terme « document d'archives » ne s'applique pas généralement aux objets de ces secteurs d'activité, il est clair que les professionnels chargés de la conservation de ces archives peuvent être confrontés aux défis concrets de la conservation des vues de systèmes dynamiques, de la maintenance des fonctionnalités des documents interactifs, et de la recréation de l'environnement des objets participatifs. Il est important à la fois de savoir dans quelle mesure les exigences, méthodes et stratégies développées par le projet InterPARES 1 pour la conservation des documents électroniques authentiques produits via des bases de données et des systèmes de GED s'appliquent à ces nouvelles situations, et d'en étudier de nouvelles là où ce n'est pas le cas. Ces questions sont plus complexes encore quand les créateurs individuels ignorent comment et avec quels outils produire des documents électroniques archivables sur le long terme. Les recherches d'InterPARES 1 ont mis en évidence que les processus de création et de conservation des documents qui ont permis la création de documents électroniques textuels fiables ainsi que la conservation de leur authenticité sont vraisemblablement inadaptés aux types de documents plus complexes qu'on vient de décrire. Ce point peut être illustré par une réflexion sur le défi cité plus haut au sujet de la fiabilité et de l'authenticité des documents dépourvus d'une forme et d'un contenu stables. Curieusement, la facilité de manipulation de ces documents a suggéré à leurs producteurs, particulièrement dans les secteurs de la création et de la recherche, un nouveau motif de les conserver : pourvoir les « retravailler ». Les compositeurs et les distributeurs de musique et d'art numérique, de même que les concepteurs et les architectes, par exemple, font souvent abstraction du sens et de la valeur culturelle de leurs documents en considérant leur forme et leur contenu davantage comme des données numériques à réutiliser pour la production de nouveaux documents, en les décontextualisant de l'activité qui les a produits. Une large diffusion potentielle des documents retravaillés menace l'authenticité des matériels originaux, ainsi que les droits moraux des auteurs. Les documents créés dans le cours d'une activité scientifique, tout en réclamant des exigences de conservation plus rigoureuse, ont aussi un contenu susceptible d' être retravaillé. Pour ces raisons, il est nécessaire de développer une bonne compréhension de ces nouveaux documents, non seulement dans les dernières phases de leur cycle de vie, mais dès le moment même de leur création. En fait, il est sans doute nécessaire de réviser la notion même de document, afin de favoriser à la fois l'identification et la protection de ces nouveaux types. Nous devons considérer la possibilité de remplacer les caractéristiques de complétude, de stabilité et de fixité par la capacité du système qui abrite le document à tracer et à conserver la trace de tout changement subi par le document. Et nous pourrions peut-être regarder le document selon deux modes possibles : comme une entité en devenir, tant que le processus de création est à l' œuvre (même quand cette création se poursuit), et comme une entité fixée à chaque fois que le document est utilisé. Il est évident qu'il faut développer la connaissance et les stratégies susceptibles d'aider tant les créateurs et les conservateurs de ces nouveaux documents complexes. L'obsolescence technologique, qui représente un défi permanent pour l'accessibilité, la lisibilité et l'intelligibilité des documents électroniques, est encore plus sensible dans le contexte des activités artistiques et scientifiques que dans celui des activités administratives. Des pratiques de gestion et d'archivage inadaptées ont déjà accéléré la disparition de nombreux documents touchant à l'art et dépendant pour leur survie de logiciels et de matériels aujourd'hui obsolètes, y compris des objets musicaux interactifs, des objets d'art en environnement virtuel, et d'autres réalisations dont les paramètres fondamentaux étaient insuffisamment documentés pour permettre leur recréation. Ceci a engendré d'énormes difficultés pour les artistes concernés par la conservation à long terme de la version unique et probante de leur travail, exigé qu'ils consacrent du temps et de l'argent à ces efforts de conservation 3, provoquant une demande urgente de stratégies efficaces et éprouvées. Un bon nombre des problèmes liés à la gestion des documents électroniques dans les arts et les sciences se révèlent aujourd'hui pertinent pour les archives publiques, dans la mesure où les services administratifs utilisent des systèmes multimédias toujours plus complexes pour créer leurs documents. Au Canada, par exemple, l'initiative Gouvernement En Ligne s'est fixée comme but qu'en 2006 la plupart des transactions entre l'administration et les citoyens se fassent via internet. Ceci soulève d'importantes questions sur la création et la gestion des documents électroniques issus de cette interaction, d'une part parce que la confection du document n'est plus de la seule responsabilité de l'entité qui contrôle le système électronique (en l'espèce, le gouvernement), mais aussi de celle de l'utilisateur. De plus, lorsque les termes et les clauses qui régissent les transactions conclues entre l'administration et les citoyens sont liés à des pages web, ces pages sont susceptibles de devoir être préservées, avec leurs fonctionnalités, pour des raisons de traçabilité et de responsabilité. Répondre à ces défis exige une compréhension de la nature des nouveaux documents électroniques et des processus de création de documents dans les arts créatifs et les arts du spectacle, dans les sciences sociales et physiques et dans l'interaction entre les citoyens et l'administration et entre les commerçants et les consommateurs. Pour que notre société puisse jouer son rôle légal, social et culturel de conservation à long terme de ces documents et de leur authenticité, il faut engager des recherches sur leurs caractéristiques et leur évolution, les exigences de fiabilité, d'exactitude et d'authenticité vérifiable, et élaborer des méthodes et des stratégies pour leur sélection et leur conservation. A cette fin, l'équipe internationale de chercheurs d'InterPARES 1, avec le concours d'autres chercheurs spécialisés, a décidé de lancer une seconde phase de recherche, appelée InterPARES 2. InterPARES 2 a démarré en 2002 et son achèvement est programmé pour fin 2006. Son but, ses objectifs, sa structure et ses principes méthodologiques ont été organisés dans un cadre intellectuel approuvé par tous les participants du projet. Le but d'InterPARES 2 est de garantir que la part de mémoire de la société produite sous forme numérique dans des systèmes interactifs, dynamiques et participatifs et résultant de façon organique d'une activité artistique, scientifique ou d'administration électronique, peut être créée dans une forme exacte et fiable, et conservée en une forme authentique, tant sur le court que sur le long terme, pour l'usage de ceux qui l'ont créée et plus largement de la société, en dépit de l'obsolescence technologique et de la fragilité des supports. – Développer une connaissance des systèmes interactifs, dynamiques et participatifs et des documents qu'ils produisent et stockent, de leur processus de création, et de leur utilisation actuelle et future dans les secteurs artistique, scientifique et administratif. – Elaborer des méthodes pour garantir que ces documents sont créés et conservés par le créateur de telle façon que l'on puisse s'y fier, contenu (exactitude et fiabilité) et forme (authenticité archivistique). – Elaborer des méthodes pour sélectionner les documents qui doivent être conservés après leur durée d'utilité pour le créateur dans le cours ordinaire de son activité, en raison de leur valeur légale, administrative, sociale et culturelle. – Développer des méthodes et des stratégies pour conserver les documents archivés pour une conservation permanente et authentique sur le long terme. – Développer des processus d'analyse et des critères d'évaluation des technologies avancées pour la mise en œuvre des méthodes énoncées plus haut, en respectant la diversité culturelle et le pluralisme. – Et enfin, identifier et/ou développer des spécifications pour les principes directeurs, les métadonnées et les outils nécessaires à la création d'une infrastructure électronique capable de supporter la création et la conservation de documents numériques exacts, fiables et authentiques. Le projet est interdisciplinaire dans la mesure où son but et ses objectifs ne peuvent être atteints que grâce à la contribution de plusieurs disciplines et de toutes les parties prenantes : des créateurs individuels d'archives (scientifiques, artistes, services publics, entreprises et industries), le secteur des technologies de l'information, des archivistes et des bibliothécaires, etc., sont impliqués dans la formulation et la sélection des études de cas, dans le recueil des expérimentations, et dans l'analyse. Un tel mode de fonctionnement garantit que les résultats de la recherche seront bien acceptés par les communautés concernées. Les chercheurs du projet viennent des disciplines suivantes : archivistique, chimie, technique et science informatiques, danse, diplomatique, cinéma, géographie, histoire, documentation, droit, bibliothéconomie, linguistique, science des médias, musique, arts du spectacle, photographie et théâtre. Les pays impliqués activement dans le projet sont : le Canada, les Etats-Unis, l'Australie, la Belgique, la Chine, la France, l'Irlande, l'Italie, le Japon, les Pays-Bas, le Portugal, Singapour, l'Espagne et le Royaume-Uni. La commission consultative comprend également un archiviste d'Afrique du Sud. Le projet de recherche a été organisé selon la matrice suivante : Chaque thème et chaque secteur correspondent à trois groupes de travail qui conduisent la recherche ensemble suivant tel thème ou tel secteur. Les approches transverses regroupent des représentants de chaque groupe de travail en formant des équipes transverses. La raison d' être de cette structure complexe est de permettre la collecte de la connaissance dans chaque domaine spécifique d'investigation (thème), de la partager pour chaque fonction documentaire ou archivistique (secteur) et de construire, par cette fertilisation croisée, une nouvelle connaissance applicable à tous les champs de découverte et définie par une terminologie commune, des modèles, des schémas descriptifs, par des principes directeurs, des stratégies et des normes (approches transverses). Pour élargir les résultats de cette dynamique, chaque activité de recherche (pour chaque thème, secteur ou approche transverse) est menée selon la méthodologie la plus appropriée, telle que l'équipe dédiée a pu la définir. Par exemple, les études de cas sont menées dans le contexte de chaque enquête suivant la procédure jugée la plus fructueuse dans chaque cas. Puis, les résultats de l'étude de cas sont examinés par d'autres chercheurs s'appuyant sur l'analyse textuelle, l'analyse diplomatique, l'analyse statistique, etc. Le but final du projet est de nature archivistique, dans la mesure où il vise au développement d'un système fiable de création et d'archivage de documents 4 et d'un système de conservation garantissant l'authenticité des documents archivés sur le long terme. Ceci suppose que les travaux conduits dans le cadre du projet dans les diverses disciplines puissent être en permanence traduits en termes et concepts archivistiques, qui constituent la base de conception des systèmes de protection des documents. Ceci dit, à l'issue des recherches, les systèmes d'archivage devront être accessibles et compréhensibles pour les producteurs de documents, les entreprises et les institutions, et les chercheurs eux -mêmes. Autrement dit, les résultats de recherche doivent être traduits dans le langage et avec les concepts de chacune des disciplines qui les manipulent. En conséquence de quoi, tous les chercheurs sont invités à apprendre les concepts archivistiques-clés identifiés par les archivistes de l'équipe comme le cœur de la recherche InterPARES 2, de sorte que chaque discipline puisse en établir la correspondance avec son propre corpus de connaissances. InterPARES 1 puisait ses racines épistémologiques dans les sciences humaines, particulièrement la diplomatique et l'archivistique. Inversement, InterPARES 2, tout en inscrivant dans son programme de recherche le test de certaines conclusions d'InterPARES 1 par une série de mesures, ne retient aucune perspective épistémologique ni aucune définition intellectuelle a priori. Au contraire, les chercheurs de chaque groupe de travail définissent la ou les perspective(s), le modèle de recherche et les méthodes qu'ils croient être les mieux adaptés à leurs investigations. La raison de cette ouverture est que InterPARES 2 est conçu pour fonctionner comme un environnement de « savoirs étagés », dans le sens où certaines recherches se greffent sur les connaissances développées par InterPARES 1, d'autres s'appuient sur des problématiques similaires développées dans d'autres disciplines et les appliquent à la création et à la conservation des documents d'archives, d'autres encore s'efforcent de concilier les connaissances actuelles de diverses disciplines sur les documents et leurs attributs, éléments, caractéristiques, comportement et qualités intrinsèques et de les enrichir dans une perspective archivistique, et d'autres enfin entendent explorer de nouvelles problématiques, étudier des entités encore jamais étudiées et mettre à jour de nouvelles connaissances. Comme il a été dit, chaque activité de recherche est menée à l'aide d'une méthodologie et d'outils que l'équipe de recherche dédiée considère les plus appropriés. Les méthodes utilisées sont : rapports, études de cas, modélisation, prototypage, analyse diplomatique et archivistique, analyse textuelle, etc. La recherche est guidée par une série de questions détaillées visant : le processus de création des documents dans chacun des champs d'investigation, et les caractéristiques, la structure et les interrelations des documents produits; les questions relatives au développement d'une chaîne de conservation pour ces documents, laquelle commence à la création et comprend l'évaluation, la description et la reproduction comme autant de procédures d'authentification; le sens des concepts d'exactitude, de fiabilité et d'authenticité dans les disciplines artistique, scientifique et administrative; les principes directeurs, les stratégies et les normes dans chaque champ d'activité couvert par la recherche; les schémas descriptifs nécessaires à l'identification, l'utilisation et la conservation des documents de chaque activité tout au long de leur cycle de vie; et les modèles qui caractérisent le mieux les objets numériques étudiés et leurs processus de création, d'archivage, d'utilisation, de sélection et de conservation. Le besoin de concentrer les premières phases de la recherche sur la compréhension du processus de création des documents dans un environnement numérique interactif, dynamique et participatif, a été particulièrement encouragé et soutenu par les membres du projet. C'est pourquoi, pendant les trente premiers mois du projet, les activités de recherche ont d'abord été menées par les groupes de travail thématiques et les équipes transverses, tandis que les groupes de travail par approche transverse se sont employés à soutenir l'étude et l'analyse de données collectées sur les différents thèmes. Les groupes de travail thématiques ont mené des études de cas et des études générales. Les premières ont été identifiées selon le type spécifique d'activité productrice de documents, et menées par des équipes interdisciplinaires afin de favoriser l'étude de tout le cycle de vie des documents en cause. Chaque équipe comprenait au moins un spécialiste de l'activité étudiée, un expert en technologie, un expert en archivistique et un étudiant assistant de recherche. Suivant la complexité du cas étudié, d'autres experts ou étudiants pouvaient renforcer l'équipe. Les études générales visaient des problématiques communes aux trois types d'activités productrices de documents, sans s'appliquer à un cas en particulier. Les études de cas sont notamment : les travaux du théâtre Arbo Cyber, une compagnie dont l'apport artistique touche les arts du spectacle, les arts visuels et les arts médiatiques. Arbo a créé plus de 20 spectacles, de nombreux laboratoires et des ateliers pédagogiques entre 1985 et 2001. Dans une démarche de conservation de leur travail, les membres d'Arbo recherchent aujourd'hui à numériser leurs œuvres artistiques. L'équipe de recherche s'attache à suivre les processus de numérisation et de transformation des documents de création produits par Arbo à l'occasion de ses productions originales; les œuvres de Stelarc, un multi-artiste qui travaille souvent avec des programmeurs informatiques, des techniciens et des scientifiques. Son art est exposé ou joué dans des environnements variés : galeries, suspensions aériennes et internet. L'équipe de recherche s'attache à comprendre où commence et où s'arrête la création des documents dans l' œuvre de Stelarc. Par ailleurs, la fragilité des environnements de création et de représentation suscite des questions quant à leur fiabilité et leur authenticité; Obsessed Again. .., une œuvre pour basson et électronique interactive écrite en 1992 par un compositeur canadien, Keith Hamel. L' œuvre était conçue pour utiliser les matériels et logiciels du commerce mais les équipements nécessaires sont vite devenus obsolètes. Le commanditaire de l' œuvre a émis le souhait de la reconstituer. L'objectif de l'équipe de recherche est d'identifier les documents, numériques ou non, associés à l' œuvre, d'organiser sur cette base les exigences d'une authenticité musicale, de permettre que l' œuvre authentique soit jouée, et d'élaborer une méthode pour le stockage, le repérage, la migration et l'accès à l' œuvre dans le futur; le café électronique intentionnel (Electronic Cafe Intentional – ECI), un réseau multimédia international qui se veut une vitrine des télécommunications collaboratives, créatives, multiculturelles et multidisciplinaires. On y trouve une grande variété de types de supports et de formats obsolescents. Les activités d'ECI ont débuté au milieu des années 1970, avec des expériences dynamiques et interactives qui correspondent aux préoccupations actuelles d'InterPARES 2. L'étude souligne les difficultés posées par les documents interactifs des années après leur création; l'Atlas cybercartographique de l'Antarctique, un projet de recherche qui vise à explorer les nouvelles théories de la cybercartographie pour laquelle une carte est considérée comme un nouveau système d'organisation de l'information numérique. L'Atlas, dynamique, multidimensionnel, multisensoriel et multimédia deviendra un important capital numérique de connaissances scientifiques qui, dès le départ, intègre l'archivage comme une composante à part entière du projet. L'idée est d'explorer le processus de création des documents, le rôle des documents dans l'activité cartographique et d'identifier quels éléments permettront d'établir son authenticité et d'assurer sa conservation dans le temps; le système d'information géographique du Centre d'archéologie désertique de Tucson en Arizona. L'étude doit rechercher si le système comporte des documents d'archives et, si oui, comment ils sont créés et peuvent être conservés d'une manière exacte, fiable et authentique dans le temps. L'étude s'intéresse aussi à la relation entre les documents et le concept de mémoire chez les archéologues, les paysages et les habitants des régions étudiées par les archéologues; les documents électroniques d'ingénierie et de fabrication créés par des outils de CAO (conception assistée par ordinateur), DAO (dessin assisté par ordinateur) et des systèmes industriels automatisés. Cette étude se concentre sur l'aptitude de documents d'ingénierie complexes à représenter les produits et l'aptitude des documents de fabrication à représenter les processus nécessaires à la production; trois expositions en ligne des Archives de l'Ontario créées pour développer l'accès aux collections. L'équipe de recherche étudie les documents participatifs et interactifs issus de la création et de la diffusion de ces expositions, ainsi que l'exploitation, actuelle et future, de ces documents par l'administration; les services en ligne du Département des véhicules à moteur de l'Etat de New York. Les utilisateurs effectuent des opérations légales et financières via ce site. Le système, éminemment interactif, représente une série complexe d'activités électroniques entrelacées; l'informatisation du livre foncier d'Alsace-Moselle, en France. Chaque saisie requiert la signature d'un juge, avec une infrastructure à clé publique (ICP) qui combine accès biométrique et signature numérique. L'étude porte principalement sur les signatures numériques dans un système d'information dynamique destiné à améliorer l'efficacité des relations entre l'Etat et les citoyens dans le contexte du droit de la preuve français; le système de classement électronique de la Cour suprême de Singapour, un système de gestion en ligne des dossiers d'affaires civiles, censé d'une part faciliter le traitement des contentieux grâce à des services de classement et d'information électroniques, et d'autre part favoriser l'utilisation des documents électroniques dans les juridictions. Cette étude permet l'analyse de la fiabilité et de l'authenticité des services d'administration électronique dans l'environnement juridique de Singapour. Les études générales sont notamment : une étude des pratiques d'archivage des compositeurs, afin de collecter des données sur les types de documents produits, l'idée que ce font les compositeurs de l'accès à leurs documents dans le futur, et la nature et la variété des systèmes de musique numérique utilisés. Cela éclairera également la façon dont les compositeurs créent leurs documents, ce qu'ils attendent en termes d'accès et comment ils garantissent cet accès sur le long terme; l'initiative MUSTICA. L'équipe cherche à construire une typologie des morceaux de musique numérique interactive, pour servir de base à une discussion et une analyse des besoins de conservation en identifiant les composantes physiques et intellectuelles des documents parmi la diversité d' œuvres musicales numériques interactives créées par les compositeurs de l'Institut de recherche et coordination acoustique/musique (IRCAM) et du Groupe de recherches musicales (GRM) de l'Institut national de l'audiovisuel (INA). Cette recherche est partiellement financée par le Centre national de la recherche scientifique (CNRS); les archives permanentes fondées sur des grilles de données. Cette étude s'intéresse au projet du Centre de Supercalcul de San Diego de développer un prototype d'archives permanentes fondées sur la technologie des grilles de données pour la NARA (National Archives and Records Administration). Elle examine le minimum requis pour que la technologie des grilles puisse conserver les archives gouvernementales, en insistant sur les activités de conservation des collections numériques sélectionnées par la NARA; une étude de la littérature informatique sur les formats de fichiers et formats d'encodage utilisés pour les données, informations et documents scientifiques non textuels. Les formats sont aussi étudiés pour la structure des données, informations et/ou documents, et pour les autres propriétés liées aux concepts d'exactitude, de fiabilité et d'authenticité des objets numériques en cause. En outre, il s'agit de déterminer des classes d'équivalence entre les formats et d'identifier des outils de migration; une étude des sites web gouvernementaux aux Etats-Unis. Onze Etats ont été retenus, avec des densités de population très variables. L'étude était limitée à cinq départements au sein de chaque Etat, à savoir : éducation, éducation spécialisée, services sociaux et de santé, écologie et protection de l'environnement, et permis de conduire. Les résultats vont guider les recherches dans le Département des véhicules à moteur. Par ailleurs, cette étude accompagnera l'étude en cours sur l'interactivité des sites web gouvernementaux où sont impliqués : l'Australie, la Colombie - Britannique, le Canada, l'Inde, l'Ontario et Singapour. En attendant les résultats de ces études de cas, le groupe de travail sectoriel n˚ 2, chargé d'approfondir les concepts-clés d'exactitude, de fiabilité et d'authenticité des trois axes de recherche, a réalisé des bibliographies critiques et une base de données bibliographique. Les connaissances acquises guideront l'analyse des conclusions des études de cas et le développement des stratégies de conservation qui en découleront. L'équipe transverse « modélisation » a développé un modèle d'activité pour la gestion de la chaîne de conservation, le modèle d'entités correspondant, et une méthodologie pour naviguer dans le modèle grâce aux données des études de cas; le modèle est en cours de test avec la revue d'une sélection d'études de cas achevées; un modèle pour la conservation du point de vue du producteur des documents a été entrepris; un protocole de modélisation des résultats des études de cas a été conçu dans le cadre du rapport général du projet; enfin, des modèles pour la création des documents sont en cours de développement pour les études terminées. L'équipe transverse « principes directeurs » a réalisé une étude bibliographique des principes directeurs et stratégiques, des guides, des normes et de la législation existante pour les trois thèmes; elle a repéré les outils internationaux élaborés sur la liberté d'expression, les droits moraux, la vie privée et la sécurité nationale, et a étudié comment chaque pays les a mis ou les met en œuvre; elle a élaboré une méthode comparative de ces principes directeurs et l'a mise en œuvre; enfin elle a identifié la législation et les codes d'éthique concernés et les a analysés au regard des questions sectorielles posées. L'équipe transverse « description » a effectué une étude bibliographique sur l'ensemble des thèmes, afin d'identifier les institutions qui répondent aux critères d'exactitude, fiabilité et authenticité et de conservation des documents par des schémas ou des normes de métadonnées; elle a élaboré une base de données des traits caractéristiques des schémas et normes de métadonnées descriptives les plus pertinents; elle a élaboré des guides et dispensé des formations aux chercheurs utilisateurs de la base de données; elle alimente la base de données; elle a créé un registre des schémas de métadonnées (spécifications, DTD XML) et l'a alimenté avec une série pilote; le test est en cours avec les normes identifiées par les chercheurs des thèmes scientifique et artistique; enfin, elle examine dans quelle mesure les schémas et normes de métadonnées identifiés dans la base de données et dans les études de cas achevées répondent aux questions de l'approche transverse « description ». L'équipe transverse « terminologie » a élaboré une base de données terminologique comprenant une liste de mots et de phrases, un glossaire, un dictionnaire et un thésaurus; une procédure pour la construction du glossaire pour chaque équipe, précisant également sa structure, sa forme et ses composantes; le cœur du glossaire est enrichi et affiné en permanence; la structure du dictionnaire inclut les définitions formelles et officielles des dictionnaires les plus utilisés et reconnus pour chaque discipline du projet; et le cœur du dictionnaire est lui aussi constamment enrichi et affiné. Une structure de thésaurus a été élaborée dans le but d'intégrer, tout au long du projet, l'ensemble des termes utilisés par InterPARES 2 et leurs définitions respectives pour chaque discipline ou champ de recherche; le thésaurus est en cours de développement. Pour conforter les recherches menées par chaque groupe, l'équipe toute entière a élaboré plusieurs outils : un cadre intellectuel qui organise les principes méthodologiques inspirateurs du projet, en vue de diriger le travail des chercheurs; la politique d'organisation du projet; le protocole de la commission consultative, un modèle de projet d'étude, avec les courriers afférents; le choix de questions que chaque enquêteur est censé aborder dans son étude de cas; les questions auxquelles chaque étude de cas devra répondre dans ses conclusions, un cadre de rapport pour les études; et un outil de comparaison des résultats de l'ensemble des études, à la lumière des problématiques en cause. A noter que le site web du projet a été utilisé comme un outil pour la recherche, en plus de la diffusion faite par ailleurs. Ainsi, le site web sert d'interface à plusieurs bases de données de collecte des résultats, de point d'accès pour les rapports utilisés dans les études générales, et d'interface pour les divers forums où les chercheurs discutent de leurs travaux. Le projet InterPARES 2 est à mi-parcours. Ainsi qu'on l'a vu, il a déjà produit une grande quantité de documents et informations sur lesquels s'appuieront les livrables du projet, notamment les guides pour les producteurs de documents indiquant les méthodes d'une production et d'une conservation fiables des documents dont l'authenticité peut être préservée, des prototypes de systèmes de tri et de conservation, et des guides pour les conservateurs des documents; des canevas pour l'élaboration de principes directeurs, de stratégies et de normes, plus un autre pour le développement de normes de description qui est à l'étude; des listes de schémas de métadonnées; et des bases de données bibliographiques et terminologiques. Quoi qu'il en soit, en tant que directeur de projet, je dois avouer que, sans préjuger des livrables finals, la plus grosse part du projet est d'ores et déjà achevée; la collaboration harmonieuse des chercheurs et des professionnels issus de disciplines, de formations et de cultures si variées vis-à-vis de la conservation à long terme de leur culture numérique est le fruit inestimable d'InterPARES que je respecte et chéris chaque jour, au fur et à mesure que le travail avance .
Cet article expose le but, les objectifs, la structure et la méthodologie d'InterPARES 2, la seconde phase d'un projet de recherche international pluridisciplinaire sur la conservation permanente de l'authenticité des documents d'archives électroniques, et présente l'état d'avancement de la recherche.
sciencesInfo_05-0036274_tei_DN_082_0073.tei.xml
termith-427-communication
Nous nous intéressons ici aux aspects temporels des documents audiovisuels diffusés par voix hertzienne, câble ou satellite, c'est-à-dire essentiellement aux émissions télévisées et radiophoniques, et plus particulièrement aux émissions de télévision. Nous décrivons d'abord les principales caractéristiques temporelles de ces documents et nous examinerons ensuite la manière dont ces caractéristiques peuvent être exploitées par des processus automatiques à des fins d'analyse, de structuration et de documentation. Jusqu'aux dernières évolutions liées aux possibilités de la télévision interactive, le temps intrinsèque des documents audiovisuels est par nature continu, monodimensionnel et sans branchement, c'est-à-dire qu'il peut être vu comme un axe orienté. Le temps de présentation de ces documents, quant à lui, a considérablement évolué au fur et à mesure des avancées technologiques, depuis les émissions en direct des débuts de la télévision jusqu'aux possibilités de mise en pause d'émissions diffusées (time shifting) offertes par les magnétoscopes avec capacité de stockage. Même si le temps intrinsèque de ces documents semble extrêmement simple, on peut toutefois différencier plusieurs niveaux de structure. Ainsi, pour une émission de télévision, on peut considérer : la succession temporelle des images (à 25 images par secondes pour la télévision française); la succession temporelle des plans. Un plan est ce qui est tourné en une seule prise de caméra : c'est ce qui est filmé entre l'instant où le réalisateur dit « moteur » et l'instant où il dit « coupez ». C'est dans la tradition du cinéma classique – tradition le plus souvent respectée à la télévision – l'unité syntaxique; la succession temporelle des plans formant des scènes (ou séquences). La plupart du temps (sauf pour les plans séquences), une scène, unité sémantique, est composée de plusieurs plans; la succession des séquences à l'intérieur d'un document : alternances des séquences de plateau et des séquences de reportage dans un magazine, par exemple; la succession des émissions dans une journée de diffusion ou dans une grille de programmes. Pour chacun de ces niveaux on peut définir une notion de cohérence. Ainsi les images consécutives d'un plan, unités discrètes, forment un flux continu pour le spectateur. Le contenu des images ne varie en général qu'assez faiblement entre deux images, cette variation étant due à un mouvement d'objets à l'écran ou au mouvement de la caméra. Cette cohérence temporelle est exploitée par les outils de compression de la vidéo. Schématiquement, les outils de compression ne codent entièrement que certaines des images, seules les variations du reste des images par rapport à ces images de référence étant inscrites dans le flux. Cette cohérence temporelle à l'intérieur des plans est également exploitée par les algorithmes de segmentation qui cherchent à détecter les ruptures, que ce soit des ruptures brutales (cuts) ou des ruptures progressives (fondus, fondus enchaînés, volets, etc.). Les plans constitutifs d'une scène respectent en général à la télévision un certain nombre de règles de montage qui aident à assurer la cohérence narrative de la scène. Ces règles constituent ce qu'on a pu appeler une « grammaire du film » (Arijon, 1976). Citons par exemple la règle des 180 degrés qui stipule que les différentes prises de vue d'une scène doivent toutes être faites à partir de points situés du même côté d'une ligne imaginaire coupant la scène en deux. Ainsi, sur un plateau de télévision, les différentes caméras sont la plupart du temps disposées en respectant cette règle. Les règles de raccord cherchent à rendre naturels les changements de plan : raccords regard : dans un dialogue filmé en champ contre-champ, les personnages doivent donner l'impression de se regarder l'un l'autre, même si les interventions sont tournées séparément; raccords des entrées et sorties des personnages du champ de la caméra, raccords des dialogues, raccords des mouvements de caméra; raccords de luminosité, d'ambiance sonore, de colorimétrie; etc. Aux plus hauts niveaux de structure, une cohérence est également assurée : cohérence du rythme de montage pour une émission, cohérence de l'habillage image sur une chaîne donnée, par exemple. Notons qu' à la structure temporelle linéaire intrinsèque des documents audiovisuels vient dans certains cas se superposer une structure périodique. C'est le cas de beaucoup de magazines (magazines d'actualité, politiques ou de divertissement) qui sont constitués d'une succession de séquences de dialogues (séquences plateau, plans du présentateur, interviews) et de séquences de reportage ou d'interventions (musique, danse, sketchs). De la même manière, la télévision peut être vue comme une alternance d'émissions et de publicités, et ce point de vue est loin d' être anecdotique dans la guerre commerciale que se livrent les diffuseurs et les concepteurs de magnétoscopes qui voudraient pouvoir détecter automatiquement les plages de publicité afin de pouvoir caler les débuts d'enregistrement. On peut également mentionner la structure périodique hebdomadaire, mensuelle pour certaines émissions, de la plupart des grilles de programme. La structure temporelle des documents audiovisuels peut être exploitée dans un processus d'analyse visant à la structuration ou à la documentation de ces documents. Les technologies du numérique permettent dans certains cas d'automatiser ce processus. Après avoir présenté les usages dans lesquels un tel processus d'analyse peut intervenir, nous décrirons les difficultés que rencontre l'automatisation de ce processus. La connaissance de la structure temporelle peut parfois faciliter le travail documentaire. Citons par exemple : la recherche dans des bases documentaires audiovisuelles. Ainsi, à l'INA, les notices documentaires sont à présent liées aux contenus audiovisuels au sein de la même application. Il est donc désormais possible pour un(e) documentaliste de visionner directement les documents résultant d'une requête; la thématisation d'un fonds audiovisuel. Les séquences, les extraits, les émissions, une fois repérés et documentés dans leur contexte, peuvent être regroupés selon différentes grilles de lecture; la navigation dans les documents. La structure temporelle peut être utilisée pour délinéariser les documents et offrir une navigation par séquence, par table des matières, etc.; le résumé de documents. Il est ainsi possible de condenser un match de tennis en ne montrant que les point importants, de faire un bout à bout des airs d'un opéra ou des reportages d'un magazine, des interventions d'un invité particulier dans un talk-show, etc. Dans tous ces cas, la structure temporelle doit être explicitée afin de pouvoir être mise en œuvre dans le processus documentaire. La première difficulté à surmonter est donc la question de la représentation de cette structure. Représenter la structure temporelle des documents audiovisuels est plus difficile qu'il ne peut paraître. En particulier, la norme MPEG-7 (ISO, 2003) de description de contenus multimédias ne permet pas de représenter finement des structures temporelles pourtant relativement simples. Nous proposons dans (Troncy et al., 2004) un formalisme de description permettant de représenter les aspects ontologiques non temporels des documents audiovisuels et les moyens d'étendre ce formalisme pour représenter les aspects structurels temporels. Les caractéristiques non temporelles (nombre de personnes à l'écran, présence de texte dans l'image, informations de catalogage, par exemple) peuvent être aisément représentées à l'aide de formalismes classiques de représentation de connaissances. En revanche, les aspects temporels nécessitent des langages de représentation plus puissants qui permettent d'exprimer différents types de relations temporelles, telles que la succession, le recouvrement ou la répétition (Carrive et al., 2000). Afin de pouvoir assister au mieux les processus documentaires décrits ci-dessus, il est envisageable de détecter automatiquement la structure temporelle de certains types d'émissions. On parle alors de structuration automatique. L'indexation automatique de documents audiovisuels est une discipline scientifique maintenant établie (Brunelli et al., 1999; Snoek et al., 2002) et la structuration automatique en est un des champs. Il peut s'agir soit de détecter automatiquement la structure temporelle d'une émission soit de retrouver une structure connue dans un document. On peut ainsi chercher les séquences d'une fiction sans information a priori, activité appelée parfois macrosegmentation (Hammoud et al., 2000), à retrouver les plateaux dans un journal télévisé ou à aligner un flux diffusé sur une grille de programmes annoncée. Ces algorithmes font en général appel à une analyse multimodale du flux où l'on cherche à extraire des descripteurs des différents canaux et à les combiner entre eux : détection de logos, de textes incrustés, détection de visages, reconnaissance de la parole, segmentation en plans, segmentation en locuteurs, segmentation de la bande son en parole/bruit/musique, par exemple. Les avancées technologiques récentes, et en particulier l'apparition des magnétoscopes numériques avec capacité de stockage, offrent des possibilités d'utilisation remettant en cause le modèle purement linéaire des émissions de télévision traditionnelles. Il est ainsi techniquement possible à certains moments d'une émission diffusée d'accéder à des compléments de programme diffusés sur des canaux complémentaires et, après consultation de ces compléments, de reprendre l'émission initiale à l'endroit où elle avait été interrompue. Le modèle temporel sous-jacent reste profondément linéaire, avec quelques branchements possibles, et n'est pas, en cela, réductible aux modèles temporels utilisés pour le multimédia .
Cet article présente différents aspects de la structure temporelle des documents audiovisuels, émissions télé ou radiodiffusées principalement. Il décrit tout d'abord les spécificités de ces documents quant à la notion de temps avant d'examiner la manière dont ces aspects peuvent être exploités automatiquement à des fins d'analyse et de documentation, et les problèmes que cela pose.
sciencesInfo_05-0351805_tei_DN_084_0049.tei.xml
termith-428-communication
POUR APPRÉHENDER LE NOUVEAU PAYSAGE de l'information-communication, les pays arabes d'Afrique du Nord (Algérie, Égypte, Libye, Maroc, Mauritanie, Tunisie) ont éprouvé le besoin de chercheurs de haut niveau en bibliothéconomie et science de l'information (BSI), capables de réfléchir sur l'impact de l'information et des technologies de la communication sur la société et sur les comportements informationnels des usagers, d'analyser et d'évaluer les systèmes d'information multilingues, d'étudier les différents outils et services de communication de l'information numérique. La science de l'information, en tant que nouvelle discipline, est ainsi devenue objet d'investigation dans des unités de recherche nord-africaines. Ce sont les universités arabes qui ont pris en charge, depuis un demi-siècle, l'essentiel de la formation des spécialistes de l'information et de la recherche en science de l'information. D'autres structures sont impliquées dans cet effort, à de moindres degrés, comme les associations et les fondations scientifiques. Le présent travail vise à analyser les caractéristiques des recherches en bibliothéconomie et science de l'information en Afrique du Nord et d'en tirer des conclusions sur la contribution des spécialistes arabes au développement d'une pensée théorique en science de l'information et dans l'analyse et l'organisation des grandes mémoires informationnelles (bibliothèques et services d'information et de documentation). Pour ce faire, nous nous proposons d'interroger les indicateurs suivants : quel est l'état de la recherche en bibliothéconomie et science de l'information dans les pays d'Afrique du Nord ? Quels sont les établissements d'enseignement et de recherche en BSI dans ces pays ? Quelles sont les récentes études arabes sur la théorie et la méthodologie en science de l'information ? Quels problèmes rencontre dans ces pays l'édition des travaux de recherche dans le domaine de l'information-documentation ? Les premières études sur le livre et les bibliothèques dans les pays arabes remontent au Moyen Âge, époque à laquelle des penseurs arabes ont développé une réflexion sur l'écrit et sur les acteurs de la chaîne de production du véhicule du savoir, le livre. Parmi ces œuvres figure celle de l'égyptien al-Kalkashandi (1355-1418), L'art de la rédaction 2, une encyclopédie monumentale sur l'écrit manuscrit, où l'auteur analyse l'acte d'écrire, le schéma mental des idées, le système d'inscription, le producteur de l'écrit, son statut social, ses qualités et sa conduite, sa formation. Il propose aussi un schéma de classification de la bibliologie. Le Tunisien Ibn Khaldhoun (1331-1405), précurseur de la sociologie, s'intéressa aux différents métiers du livre manuscrit (scribe, papetier, relieur, libraire, colporteur, etc.) dans leurs rapports avec les industries urbaines 3. D'autres se sont intéressés à l'art de la rédaction, à la calligraphie arabe, au rédacteur « Katib ou secrétaire de la chancellerie », au comportement des producteurs de l'écrit, aux questions relatives à la lecture, aux lecteurs et au métier de bibliothécaire, montrant ainsi un début d'ouverture vers l'élaboration d'une théorie de la communication écrite. Dans le même temps, avec cette réflexion théorique, une action a été menée en vue de concevoir et d'élaborer des instruments de travail bibliographique. Il s'agit de bibliographies (le Fihrist d'Ibn Nadim au Xe siècle) et catalogues de bibliothèques, de dictionnaires biographiques (Tabakat, titre de plusieurs ouvrages de généalogie, Wafayat, titre d'ouvrages de type « who was who ? », etc.), de dictionnaires et encyclopédies, de plans de classification avec la contribution de philosophes (tels que al-Farabi et al-Khawarizmi) et bibliothécaires. Ces outils ont été d'un grand secours pour les différentes bibliothèques implantées dans toutes les régions d'Afrique du Nord, à commencer par la célèbre Maison de la sagesse (Beit al-hikma) de Kairouan en Tunisie (IXe siècle), la Bibliothèque scientifique (Dar al-Ilm) du Caire (Xe siècle) et les différentes bibliothèques universitaires (Médressa) et publiques des grandes villes arabes. Cet effort de réflexion sur le livre, les acteurs et les intermédiaires de la communication écrite s'est interrompu au cours des temps modernes (XVIe-XIXe siècles), période de décadence du monde arabe sur tous les plans. Il suffit d'évoquer l'usage de l'imprimerie qui a accusé un retard de deux siècles et demi après la découverte de Gutenberg avant d'obtenir droit de cité dans le monde arabe. Il a fallu attendre la deuxième moitié du XXe siècle (après l'indépendance des pays du Maghreb), pour assister à un regain d'intérêt pour les questions relatives aux bibliothèques et aux usages des documents, dans un nouveau contexte marqué par la création d'une infrastructure de bibliothèque et une large utilisation des nouvelles technologies de l'information. Depuis la fin du XXe siècle, avec l'avènement d'Internet et la mise en place de la stratégie néo-libérale de la mondialisation de l'économie et de l'information, le décalage s'est encore creusé entre des modes de développement extrêmement variés, avec des pays riches en information et des pays pauvres en information. Ce qui a pour conséquences un déséquilibre du flux de l'information entre les différents pays, des inégalités quant à la maîtrise de l'outil informatique et l'accès à l'information. Dans les pays arabes d'Afrique du Nord, des efforts sont déployés pour faciliter le transfert et l'usage de l'information : renforcement de l'infrastructure de l'information-communication, création de technopoles, réformes de l'enseignement, développement de l'économie de l'information, campagnes d'alphabétisation. Pourtant les difficultés d'accès à l'information subsistent, qui ne sont qu'une manifestation des profonds problèmes socio-économiques de ces pays. Les points d'accès public au savoir dans les pays arabes d'Afrique du Nord sont nombreux. Certains sont liés au système d'enseignement (écoles et universités) et d'autres au système culturel (bibliothèques, centres culturels, cybercafés, etc.). Nous limitons notre analyse aux bibliothèques 4 pour étudier le degré de leur implication dans la diffusion de la pensée et dans l'accès à la culture et aux sciences. Les principaux traits qui caractérisent le réseau des bibliothèques en Afrique du Nord peuvent être présentés de la manière suivante [6 ]. • Les statistiques exhaustives et les données descriptives relatives aux bibliothèques font défaut en raison de l'absence de répertoires complets de bibliothèques et de sites des associations de bibliothécaires arabes. • Les infrastructures des bibliothèques et services d'information et de documentation (SID), toutes catégories confondues, sont assez bien implantées dans tous les pays arabes. Toutefois, les ressources humaines et matérielles de ces établissements sont inégalement réparties selon les pays et même à l'intérieur de ceux -ci. DÉPARTEMENTS ET ÉCOLES NORD-AFRICAINES DE BSI • Algérie Département de bibliothéconomie. Université d'Alger, Faculté des sciences humaines et sociales. www. univ-alger. dz/ fshs_dep_biblio. html Département de bibliothéconomie et de l'information. Faculté des sciences humaines et sociales. Université Mentouri de Constantine. www. umc. edu. dz/ VersionFrancais/ menu%20vertical/ presentation%20universite/ Facultes/ sc%20sociales. htm Département de bibliothéconomie. Faculté des sciences humaines et sociales, Université d'Oran es Sania. www. univ-oran. dz/ Contact.html • Égypte Librarianship, archive and information Department. Cairo University, Faculty of Arts. www. calias. org Librarianship and archive Department. Alexandria University, Faculty of arts. www. alex. edu. eg Library and information Department. Helwan University, Faculty of Arts. http:// web. helwan. edu. eg/ art/ index. html Library science Department. Minufiya University, Faculty of arts. www. menofia. edu. eg/ ? en/ faculty_generalInfo. asp ? id= 3 Archives and library Department. Tanta University, Faculty of arts. www. tanta. edu. eg/ ar1/ Tanta/ Arts_depart. htm#depart • Libye Library and information Department. al Fateh University, Faculty of Education, Tripoli Library and information Department. Garyounis University, Faculty of Arts and Education, Benghazi Library and information Department. al Jabal al Gharbi University, Faculty of Education • Maroc École des sciences de l'information de Rabat. Ministère de la planification. www. esi. ac. ma • Tunisie Institut supérieur de documentation. Université de La Manouba, Tunis. www. isd. rnu. tn. • La plupart des bibliothèques et SID ont été fondés au XXe siècle, à l'exception de certains qui ont pris naissance plus tôt. Certains établissements ont réussi à présenter des services documentaires performants, comme la Bibliothèque nationale d'Alger, la Grande Bibliothèque du Caire, la bibliothèque universitaire de Rabat, le Centre d'études et de recherches en information scientifique et technique (CERIST) d'Alger, la médiathèque de Tunis. • Les infrastructures documentaires sont placées sous le contrôle de plusieurs autorités de tutelle sans la moindre coordination entre elles. Signalons aussi l'absence de politique documentaire dans les pays d'Afrique du Nord et à l'échelle interarabe. • Le financement des bibliothèques se fait sur fonds publics mais les budgets sont insuffisants et ne répondent pas aux besoins croissants des établissements. La société civile commence à s'intéresser au secteur des bibliothèques, à l'exemple de la bibliothèque de l'Association d'assistance sociale du Caire. • Quant à l'usage des technologies de l'information et de la communication (TIC), les grandes bibliothèques ont commencé à développer des systèmes de gestion de bases de données (SGBD), des sites web pour mettre en ligne leurs catalogues (OPACs), et d'autres produits et services tels que les bibliothèques numériques et les liens vers les ressources électroniques. Toutefois, beaucoup de travail reste à faire pour établir une infrastructure d'Internet, numériser le patrimoine écrit, former le personnel et les usagers à la bonne exploitation des TIC. Cette radioscopie de l'état des bibliothèques montre que ces établissements ne sont pas tout à fait en mesure de répondre aux besoins informationnels des usagers et ne donnent pas accès rapide aux connaissances. Les principales difficultés que rencontrent ces bibliothèques et services d'information en Afrique du Nord sont d'ordre économique (budgets insuffisants, hausse des abonnements de périodiques, coûts des TIC élevés, etc.), social (sous-intégration sociale des TIC, réticence à la lecture et taux d'analphabétisme inquiétant), technique (manque de normes et d'autres outils de travail documentaire, fonds documentaires peu riches et toujours sur support papier, avec quelques exceptions, absence de coopération entre bibliothèques), managérial (personnel insuffisant, manque de compétences, absence de politique de marketing de l'information, peu de formation continue, etc.). Les chercheurs et professionnels de l'information ne sont pas restés indifférents à ces problèmes, ils se sont penchés sur ces différentes questions au sein des diverses structures de recherche scientifique. Le démarrage de la formation universitaire dans le domaine de l'information-documentation a été relativement tardif 5. Il date du milieu du XXe siècle, et plus précisément en 1951, date à laquelle le premier département des bibliothèques et des archives a vu le jour à l'université du Caire. Quelques cycles de formation continue avaient auparavant été organisés, sous l'égide d'associations (Association égyptienne des bibliothèques fondée en 1944), d'organisations régionales et internationales (comme l'Unesco). Les universités arabes ont mis du temps à reconnaître l'intérêt d'un enseignement particulier dans ce domaine. Certains intellectuels et décideurs, peu conscients du rôle des documentalistes et bibliothécaires, pensent que le métier pourrait être exercé par des profanes ou des amateurs, sans recourir à la moindre formation spécialisée. Dans les pays du Maghreb, la première école en documentation a vu le jour au Maroc (École des sciences de l'information, ESI, créée avec le concours de l'Unesco en 1974). Vint ensuite la Libye (Département de bibliothéconomie à l'Université al-Fateh, Tripoli, 1976), puis l'Algérie (Institut de bibliothéconomie et documentation d'Alger, 1975), enfin la Tunisie (Institut de presse et des sciences de l'information, IPSI, en 1979, et Institut supérieur de documentation, ISD, en 1981) 6. La Mauritanie n'a pas encore créé sa propre institution universitaire. Des cycles de formation professionnelle de cadres moyens ont précédé la fondation des écoles et départements de bibliothéconomie arabes. Ils ont été organisés par les bibliothèques et centres de documentation (Centre de documentation national d'Alger en 1962, BN de Tunis en 1965, etc.) 7. • Carte de la recherche universitaire en BSI. Il existe actuellement treize établissements d'enseignement et de recherche en BSI, inégalement répartis entre les pays d'Afrique du Nord : cinq départements en Égypte, trois en Algérie, trois en Libye, une école au Maroc et une autre en Tunisie [<hi rend="italic">voir encadré</hi> ]. Si certains pays ont préféré regrouper la formation au sein d'une seule institution universitaire, d'autres ont opté pour la décentralisation de l'enseignement en vue de répondre aux besoins en cadres dans les régions. Deux éléments relatifs à l'organisation de la recherche méritent d' être soulevés : l'appellation des institutions et leur tutelle. • Appellation des institutions d'enseignement et de recherche. On peut dégager trois orientations en la matière : utilisation à trois reprises du concept de « science de l'information », conjointement ou non à celui de « bibliothéconomie ». On peut supposer qu'il s'agit d'une reconnaissance du champ informationnel en tant que discipline scientifique, ce qui n'est pas tout à fait le cas pour la plupart des départements; utilisation du concept d' « information » conjointement à celui de « bibliothèques » (sept départements) : le domaine de l'information semble « ne pas atteindre le statut d'une science », il est rattaché au concept de bibliothèques tout court et non à « sciences des bibliothèques ou bibliothéconomie »; utilisation du concept de « documentation » : c'est le cas d'une école seulement, privilégiant, du moins en apparence, l'aspect technique qu'est la documentation par rapport à l'aspect scientifique (science de l'information). La présence de toutes ces notions indique que le passage de l'appellation traditionnelle « bibliothèque ou documentation » à la nouvelle appellation qu'est la « science de l'information » n'est pas du tout aisé. Le changement de libellé n'est pas handicapé seulement par le refus des décideurs universitaires ou administratifs (les enseignants-chercheurs de l'Institut supérieur de documentation de Tunis revendiquent en vain le changement de l'appellation depuis dix ans), mais aussi par l'hésitation des spécialistes de l'information eux -mêmes. Ils semblent s'interroger sur l'identité du champ informationnel et le contenu des programmes de formation à dispenser. • Tutelle des départements d'enseignement et de recherche. Cette question est en rapport avec la précédente car l'identité du département traduit le positionnement de la discipline informationnelle sur le plan épistémologique. La plupart des institutions sont rattachées aux facultés des sciences humaines et sociales (six départements) ou aux facultés des lettres (cinq). Les écoles sont placées directement sous la tutelle de la présidence d'université (ISD de Tunis) ou du ministère de la planification (ESI au Maroc). L'appartenance du domaine information-documentation aux sciences humaines et sociales est un fait marquant dans toutes les universités nord africaines. Les activités de recherche sont organisées au sein d'unités et laboratoires de recherche. Il existe actuellement, à notre connaissance, quatre structures : le Centre de recherche sur les systèmes et services d'information, Université du Caire; le laboratoire de recherche sur « Les nouvelles technologies de l'information et leur rôle dans le développement national » de l'Université de Constantine en Algérie; le Laboratoire de recherche en information scientifique et technique du Centre de recherche en information scientifique et technique (CERIST) d'Alger (www. cerist. dz); l'unité de recherche « La Bibliothèque numérique : pour la valorisation du patrimoine » de l'ISD à l'Université de la Manouba à Tunis (www. isd. rnu. tn). Mis à part ces quelques laboratoires, les autres institutions universitaires n'ont pas encore structuré leurs activités scientifiques, laissant ainsi libre cours au travail individuel et aux initiatives personnelles. L'absence de structures propres à la recherche pourrait trouver son explication dans la nature des statuts et carrières des universitaires; ces derniers sont recrutés essentiellement pour enseigner et non pas pour faire des recherches. Le système universitaire arabe, submergé par le flux des étudiants et les problèmes d'enseignement, n'adopte pas le principe de « publier ou périr » tel qu'on peut l'observer dans des universités européennes et américaines. Cependant, il est important d'indiquer que certains département organisent une recherche diplômante ou une recherche scientifique de base; ils dispensent une formation doctorale (master et doctorat) en vue de former de jeunes chercheurs, à l'exemple des universités du Caire, d'Alexandrie et de Constantine. REVUES SPECIALISÉES • Revue maghrébine de documentation et d'information (en arabe, français et anglais), publiée par une institution universitaire, l'Institut supérieur de documentation (ISD) de Tunis. www. isd. rnu. tn/ fr ? / article. asp ? • Madjallat el Maktabat wa el Maaloumat = Revue semestrielle des bibliothèques, de la documentation et des NTIC (en arabe et français), publiée par l'Université de Constantine, Algérie • Revue de la science de l'information (en ligne, arabe, français, anglais) publiée par l' École des sciences de l'information (ESI) de Rabat, Maroc. www. esi. ac. ma • Arab Journal of Science and Information, qui remplace Arab Magazine for Information (en arabe seulement), revue publiée par l'organisation ALECSO, Tunis. www. alecso. org. tn/ biblio_alecso/ detail_produit. php ? G_ID_PRODUIT= 373&G_ACTION= detail • Revue arabe d'archives, de documentation et d'information (en arabe, français et anglais), publiée par la fondation FTERSI, Tunis. www. refer. org/ fondationtemimi • Revue d'information scientifique et technique (en arabe, français et anglais), publiée par un centre de recherche, le CERIST, Alger. www. webreview. dz/ rubrique. php3 ? id_rubrique= 31 • Rassid ATD [<hi rend="italic">rassid</hi> veut dire fonds documentaire] (en arabe et français), publiée par une association professionnelle, l'Association tunisienne des documentalistes • Informatiste (en arabe et français) publiée par une association professionnelle, l'Association marocaine des informatistes • Nouvelles tendances des bibliothèques et de l'information (en arabe), publiée par un éditeur commercial, Bibliothè­que académique, Le Caire • Arabic Studies in Librarianship and Information Science (en arabe et anglais), publiée par un éditeur commercial, Gharieb Press, Le Caire • Cybrarians Journal (en ligne, en arabe, abstracts en anglais), publiée par des universitaires égyptiens. www. cybrarians. info/ journal/ en/ index. htm Certaines organisations et fondations arabes offrent un espace d'échange et de diffusion des travaux de recherche en BSI, grâce à l'organisation de colloques et séminaires, à la publication de leurs actes ainsi que de revues spécialisées. Parmi ces structures nous citons : l'Arab Federation for Libraries and Information (AFLI), une organisation non gouvernementale interarabe de bibliothécaires. Son siège est à Tunis depuis sa création en 1986. Elle a organisé seize congrès et en a publié les actes (www. afli. info); l'Arab League for Education, Culture and Science (ALECSO), organisation gouvernementale dont le siège est à Tunis depuis son transfert du Caire en 1981. Elle a organisé plusieurs congrès et publié des ouvrages spécialisés (www. alecso. org. tn); la Fondation Temimi pour la recherche scientifique et l'information (FTERSI) à Tunis : fondation scientifique privée créée par un universitaire (www. refer. org/ fondationtemimi); l'Association égyptienne de bibliothécaires, la plus dynamique des associations arabes; l'Association marocaine des informatistes; l'Association tunisienne des documentalistes. D'autres associations sont moins dynamiques même sur le plan professionnel, et s'intéressent peu aux activités scientifiques. La modeste contribution des associations n'est pas propre au secteur informationnel, tout le tissu associatif et la société civile dans les pays arabes ne sont pas influents en raison du climat politique peu favorable à la liberté d'expression, de rassemblement et d'échange. En l'absence de branche commerciale solide, sauf en Égypte, les universités et fondations prennent en charge les publications dans le domaine de la documentation et de l'information. Les unités d'édition universitaires ne communiquent pas assez rapidement les résultats de recherche. Il en résulte une accumulation de manuscrits en attente de publication, une édition lente de thèses et actes de congrès et une parution irrégulière de certaines revues. Les revues spécialisées en BSI sont au nombre de onze, publiées par des établissements universitaires, des organisations et fondations scientifiques, des associations professionnelles et des éditeurs commerciaux [<hi rend="italic">voir la liste ci-contre</hi> ]. Nous avançons ici quelques remarques sur les caractéristiques de ces périodiques : absence de protocole d'édition (politique éditoriale, consignes rédactionnelles); absence de dossiers sur des thèmes particuliers (pas de numéros spéciaux sur des sujets précis); irrégularité de certaines rubriques (notes de lecture, chroniques, présentation de thèses et mémoires); absence d'expertise éditoriale dans les revues professionnelles (le comité de lecture n'est pas indiqué); longueur excessive des articles : certaines revues acceptent parfois des articles dépassant les cinquante pages, ceci pour « combler » le vide en période de pénurie en articles; irrégularité de parution témoignant des difficultés de tous genres que rencontrent les comités de rédaction (retard d'expertise éditoriale, problèmes techniques et financiers); toutes les revues ne comprennent pas de résumés des articles ni de biographies des auteurs. Examinons maintenant le contenu scientifique de ces publications. Étudier les principales orientations de la recherche dans le domaine de l'information documentation et déterminer les contributions méthodologies et théoriques des chercheurs arabes n'est pas une tâche aisée. D'autant moins que la recherche est récente et que les travaux de synthèse qui pourraient nous aider font défaut. Cependant plusieurs études bibliométriques partielles qui mesurent la production scientifique en science de l'information ont apporté quelques données chiffrées intéressantes. Ces études sont limitées et concernent la production de la communauté de chercheurs en BSI d' Égypte [23 ], la recherche sur un thème particulier tel que l'Internet [1] ou la bibliologie [10 ]. On se limitera donc à une ébauche de travail sur la recherche en science de l'information, tout en essayant d'examiner la contribution théorique des chercheurs arabes d'Afrique du Nord sur cette discipline naissante. La principale source d'information utilisée dans cet essai est la bibliographie spécialisée dans le domaine des bibliothèques et de l'information du professeur égyptien Mohamed Fathi Abdelhadi [2] [3 ], qui recense les études et travaux de recherche arabes en la matière. Cette source, la plus importante, présente toutefois quelques lacunes relatives à la description bibliographique, à la classification des thèmes; elle ne prétend pas à l'exhaustivité puisqu'elle n'arrive pas à inventorier tous les travaux éparpillés sur différents médiums (livres, articles de périodiques, thèses, etc.) et dans différentes régions. Les recherches menées par des universitaires et professionnels arabes de l'information s'articulent autour de sept axes : théorie et méthodologie, conservation et patrimoine documentaire, traitement technique (analyse de contenu, langages documentaires), nouvelles technologies de l'information (numérisation et systèmes d'information bilingue), knowledge management, usages et usagers, et divers (sociologie de l'information, formation et métiers de l'information, formation à distance, etc.). Le nombre de travaux est inégalement réparti entre les différents thèmes. Les chercheurs arabes s'intéressent peu aux questions épistémologiques et méthodologiques : quelques études et recherches traitent des méthodes de recherche, des classifications de la BSI, de l'histoire de l'écrit, de la posture épistémologique. En revanche, les autres thèmes sont assez bien développés. Les chercheurs arabes sont préoccupés par la description du phénomène informationnel beaucoup plus que par sa compréhension et son explication. Ils s'intéressent aux moyens appropriés pour adapter les services d'information aux nouvelles technologies, et veulent agir sur des outils en perpétuelle transformation. Ceci se passe dans une période où le spécialiste arabe de l'information devrait innover, questionner les concepts, analyser le phénomène informationnel et communicationnel, développer des modèles, contribuer avec la communauté scientifique à la construction d'une base théorique pour le champ informationnel. Mais les enseignants chercheurs arabes continuent à privilégier les aspects pratiques et appliqués et d'agir peu sur le plan méthodologique 8. Un début de réflexion théorique est toutefois apparu au cours des dix dernières années. Que proposent les chercheurs d'Afrique du Nord pour organiser le domaine de l'information documentation en termes de concepts, d'objets d'étude, et de modèles ? Comment ont-ils structuré les disciplines et sections du champ informationnel ? Ont-ils avancé un plan de classification pour la science de l'information ? Il n'est pas facile de se positionner dans un champ « mal défriché » où un manque d'effort théorique en matière d'inventaire et de classification crée une certaine confusion. Pour établir cet inventaire, il faut se pencher sur les aspects épistémologiques et méthodologiques de la science. Une science se définit par son objet d'étude, par les modèles explicatifs qu'elle propose ou paradigmes, et par sa méthodologie. Voyons tout d'abord l'objet d'étude de cette science qui a vu le jour en 1958, et s'il est partagé par tous les spécialistes. Il est utile de rappeler la définition donnée par les Américains au concept d'information science : « La science de l'information étudie les propriétés et le comportement de l'information, les forces qui commandent les processus de son transfert et la technologie nécessaire pour la traiter de façon à optimiser son accès et son utilisation. [9] » Concernant l'objet d'étude de la science de l'information, on constate qu'il y a une divergence de vues entre les spécialistes. Certains pensent que son objet est « l'information consignée sur support » (Heilprin en 1963), d'autres avancent que c'est « le document écrit » (Welt en 1964) ou le « système d'information » (Hayes en 1964). Une approche « instrumentale » est défendue par d'autres chercheurs, tel Robert Fairthorne qui pense que « la science de l'information n'est rien d'autre qu'une fédération de technologies 9 » ou Weisman qui parle d' « une nouvelle branche de la science qui a pris naissance de la technologie qui génère les données et les instruments de traitement de l'information 10 ». Ces définitions s'intéressent aux activités de traitement automatisé de l'information et aux outils technologiques, ce qui entretient la confusion entre science de l'information et informatique, ou entre science et outils. Les chercheurs arabes ne se sont pas penchés profondément sur la question de l'objet d'étude, ils ne font que reprendre de façon mécanique les concepts développés par des chercheurs américains et européens. Dans leurs études sur l'information, ils s'intéressent surtout à l' « approche technoligisante ». Les études arabes sur la classification de la science de l'information sont extrêmement rares. La bibliographie arabe de la BSI de M. F. Abdelhadi [2] [3] n'avance pas un inventaire de ces disciplines, et ne présente qu'une liste alphabétique de vedettes matières. Seule une étude de l'Algérien Madjid Dahmane [11] propose un plan de classement synthétique entre une classification épistémologique de science de l'information et une classification documentaire de la bibliologie. Son schéma comprend sept classes : 0 - Science de l'information, bibliothéconomie, documentation et archivistique 1 - Organismes documentaires 2 - Sources d'information documentaires 3 - Analyse d'information et représentation de l'information 4 - Stockage et recherche de l'information 5 - Produire et reproduire, diffuser l'information 6 - Étude des usages et des utilisateurs 7 - Services et techniques de soutien Selon son concepteur, ce plan demeure ouvert en permanence pour accueillir de nouvelles sous-classes. Les chercheurs américains et européens ont proposé des modèles pour expliquer le phénomène informationnel, définir ses rapports avec les SIC et son caractère interdisciplinaire. Parmi ces modèles, citons le paradigme physique ou mécanique de Ellis [15 ], le modèle à trois processus fondamentaux (construction, traitement et usage de l'information), le modèle à quatre processus, le modèle classique de l'activité documentaire [17 ], le modèle de l'information retrieval, le paradigme cognitif, etc. Dans le contexte nord-africain, l'unique modèle proposé, à notre connaissance, est celui de deux chercheurs tunisiens. Abdelkader Ben Cheikh et Mustapha Hassen [8] avancent un modèle du processus de production qui pourrait constituer un cadre théorique à une réflexion critique de la communication écrite. Ce mode de production de la communication relève aussi bien de l'infrastructurel, à savoir l'ensemble des instruments de production, des méthodes de travail, des rapports de production (rapports de propriété, rapport émetteur-récepteur, division technique et sociale du travail), que du superstructurel, à savoir les concepts de représentations et de pratiques sociales (comportement interpersonnel, comportements de lecteur et de lecture, d'auditeur et de téléspectateur). Les mêmes auteurs intègrent dans ce schéma théorique deux notions périphériques qui sont l'espace et le champ. De son côté, l' Égyptien Saad al-Hajrassy reprend la notion de externalised memory de Ranganathan et parle de « théorie de la mémoire externe »; il considère la bibliothèque comme une extension de la mémoire interne. Mais le fait de considérer la notion de mémoire externe comme théorie n'a pas été partagé par d'autres chercheurs. Malgré ces contributions, l'effort théorique arabe reste limité pour pouvoir élucider les concepts et participer à l'avancement, sur la scène internationale, de la science de l'information. Les autres travaux théoriques publiés par des chercheurs arabes sont soit des synthèses de travaux anglo-saxons, soit simplement des traductions en arabe d' œuvres de langue anglaise. Dans la première catégorie figure la synthèse de l' Égyptien Ahmed Badr Information and library science : studies in theory and interdisciplinary [7 ]. Dans cet ouvrage, l'auteur reconnaît l'insuffisance de la réflexion théorique arabe pour construire des modèles et des théories dans la discipline. Un autre Égyptien, Hishmet Kacem, écrit Prolégomènes aux études de bibliothéconomie et science de l'information [21] où il considère que la science de l'information n'a pas atteint la phase de maturité sur le plan épistémologique et notamment dans ses aspects théoriques fondamentaux. Toutefois, il n'apporte pas de contribution personnelle sur des questions méthodologiques et théoriques. Pour illustrer le deuxième cas, nous citerons la traduction par Hishmet Kacem du livre de Brian et Lina Vickery Information science in theory and practice [25 ]. L'examen de ces travaux révèle des carences dans l'effort théorique de construction d'une science de l'information dans le monde arabe comme champ d'investigation scientifique et ce malgré la présence, depuis plus de cinquante ans, de chercheurs et d'institutions universitaires et la production d'importantes recherches appliquées. Le débat sur des questions épistémologiques n'est toujours pas engagé entre les spécialistes arabes. Ces derniers ne se sont pas encore constitués en une véritable communauté scientifique pour réfléchir sur le devenir de la recherche théorique en science de l'information. On voit bien que la recherche théorique arabe est peu développée et que, si on a cerné le champ informationnel, on ne l'a pas encore bien consolidé. Il convient donc de réfléchir aux modalités appropriées pour édifier la science de l'information dans les pays d'Afrique du Nord. En nous référant au modèle américain de la library and information science, nous proposons trois axes qui nous paraissent essentiels pour renforcer les recherches sur les fondements théoriques et les aspects méthodologiques de cette science : la communication scientifique, les ouvrages de référence et quelques orientations de la réflexion théorique. La pensée théorique en science de l'information ne peut se développer sans mettre à la disposition des chercheurs des outils de travail appropriés, encourager le travail de groupes et multiplier les échanges et les contacts. Quelques moyens sont indispensables dans ce sens. Création d'une base de données bibliographiques pour repérer et identifier les travaux arabes en science de l'information : la bibliographie spécialisée de Mohamed Fathi Abdelhadi servira de point de départ à cette base. Production d'un index de citation arabe : il est difficile de rendre compte du développement de la discipline et de planifier les travaux de recherche en l'absence d'un citation index. L'analyse de citation sert à mesurer les activités scientifiques, à dégager les tendances de la recherche et à établir une carte des liens entre différents travaux. Il est primordial de créer un index de citation dans le monde arabe dont la gestion serait confiée à un établissement universitaire ou à un laboratoire de recherche. Mise en ligne des revues arabes spécialisées en science de l'information : en plus d'une base de données bibliographiques, la numérisation des contenus des périodiques arabes et leur mise en ligne en mode open access servira à mettre en valeur les écrits de chercheurs (avec des traductions en langues étrangères), à leur assurer une meilleure visibilité sur le Net et à stimuler les débats à l'échelle régionale et internationale. Création d'archives ouvertes en science de l'information pour déposer les prépublications et postpublications et pour collecter les « commentaires publics ». Participation importante aux forums de discussion, aux news groups, etc. La publication de deux types d'ouvrages est nécessaire au développement de la recherche. Un dictionnaire de terminologie arabe en science de l'information : les échanges et débats ne sont pas fructueux tant que les chercheurs ne parlent pas le même langage. Selon leur appartenance à la culture anglophone ou francophone, ces derniers traduisent différemment les concepts. Il devient impératif de normaliser les termes du champ informationnel et de publier un dictionnaire unifié de terminologie arabe. Une encyclopédie arabe en science de l'information : l'intérêt d'une telle encyclopédie est de faire le point sur cette science et de présenter le système d'organisation des connaissances dans ce domaine. Il ne s'agit pas ici de traduire en arabe une encyclopédie existante mais plutôt de créer une œuvre qui reflète la conception que les spécialistes arabes se font de la science de l'information à un moment donné, tout en faisant appel à des contributions de la communauté scientifique internationale. Un projet scientifique dans cette direction ne peut être défini ni proposé qu'après de longues discussions entre différents groupes de recherche. C'est un travail collectif qui incombe à tous les chercheurs et universitaires arabes. Nous nous contentons d'avancer quelques idées en vue de contribuer à cette pensée. « Nous avons besoin, affirme Mohamed Fathi Abdelhadi, d'une pensée arabe originale qui assimile la pensée occidentale et qui explicite les habiletés du savant et chercheur arabe en matière de créativité et de contribution scientifique, et ce en référence à un grand patrimoine arabo-musulman et à une réalité spécifique malgré l'émergence de concepts sur la mondialisation. [4, p. 194] » Le questionnement des concepts, la modélisation du phénomène informationnel et la proposition de plan de classification, la redécouverte des origines culturelles des notions du champ informationnel constituent les jalons de cette réflexion. La recherche en science de l'information n'est pas une recherche pure, étrangère à tout contexte social. Bien au contraire, elle ne peut qu' être insérée dans l'histoire. Le phénomène informationnel se développe dans les conditions socioculturelles propres à chaque société. Le fait d' « enraciner les concepts [20] » signifie la nécessité de se libérer des modèles théoriques du savoir occidental et ensuite de produire un savoir adapté aux spécificités de la réalité arabe et africaine. Mars 2008
[ étude ] Quelle est la physionomie de la recherche en bibliothéconomie et science de l'information en Afrique du Nord ? Wahid Gdoura étudie dans cet article1 l'évolution récente et la situation de ce secteur de recherche dans ses rapports avec les mutations de celui de l'information. Après s'être penché sur les conditions et les moyens de la recherche et de la publication scientifiques dans six pays, il analyse les caractéristiques de base de leur production. Le volume de celle-ci est encore modeste, et son contenu est marqué par la prédominance des études appliquées et la relative absence de travaux théoriques et méthodologiques. Des propositions pour développer une recherche théorique nord-africaine concluent cette étude.
sciencesInfo_08-0479826_tei_DOCSI_idPAS_D_ISBN_pu2008-03s_sa02_art02.tei.xml
termith-429-communication
La catégorisation de textes consiste à identifier un lien fonctionnel ente un ensemble de catégories (ou étiquettes ou encore sujets) et un ensemble de textes. Usuellement, ce lien fonctionnel, plus communément appelé modèle prédictif, est estimé à l'aide de méthodes d'apprentissage supervisé. Un ensemble de textes préétiquetés, dénommé ensemble d'apprentissage, est nécessaire afin d'estimer les paramètres du modèle le plus efficace, c'est-à-dire celui ayant le plus faible taux d'erreur pour un nombre constant de paramètres. L'objectif de la catégorisation de textes est d' être capable d'affecter automatiquement les étiquettes d'un ensemble de nouveaux textes. Une application typique est le classement automatique de dépêches de presse, à l'aide de leur contenu, en différentes thématiques (i.e. « les actualités du monde », « l'économie » et « les sports ») (Moulinier, 1996). Plus précisément, dans la catégorisation de documents, chaque texte peut appartenir à un ensemble d'étiquettes en fonction de leur(s) thématique(s). Usuellement, l'étiquetage de l'ensemble d'apprentissage est réalisé par un expert. Ainsi, pour un texte donné, le préétiquetage peut varier en fonction de qui l'a étiqueté et à quel moment. Dans certains cas, ce préétiquetage peut être considéré comme inconsistant. Comme nous l'avons rappelé, le processus d'apprentissage génère un modèle capable de produire la probabilité qu'un nouveau document a d'appartenir à chacune des étiquettes définies dans l'ensemble d'apprentissage. Cependant, si cet ensemble est inconsistant, le modèle peut être de mauvaise qualité. Pour diminuer ces effets, une possibilité consisterait à regrouper un comité d'experts convenant ensemble d'un unique étiquetage pour chacun des documents de l'ensemble d'apprentissage. En effet, le gain de cette opération serait la réduction certaine de l'hétérogénéité entre les experts. Cependant, et spécifiquement pour les grands corpus, une quantité d'efforts et de temps est considérable pour obtenir un étiquetage consensuel pour l'ensemble des textes. Les textes pour lesquels les étiquettes associées seraient susceptibles de varier en fonction de l'expert ou du moment de l'étiquetage, peuvent être perçus comme des cas mal étiquetés ou comme du bruit. En outre, (Brodley et al., 1996; 1999) ont montré que lorsque le bruit concerne seulement l'ensemble d'apprentissage alors la suppression des individus mal étiquetés améliore considérablement les résultats de l'étape de généralisation, à condition que le ratio de bruit ne dépasse pas 20 % voire 40 % dans certains cas. Ce point de vue argumente que la subjectivité de l'étiquetage pénalise l'étape de généralisation. Par ailleurs, pour le traitement de données qualitatives mal étiquetées, (Wilson, 1972; John, 1995; Brodley et al., 1996, 1999) ont exploré la détection et suppression de telles données tandis que Lallich et al. (2002) et Muhlenbach (2002) ont choisi la détection pour le réétiquetage. Nous proposons ici une approche consistant à réétiqueter automatiquement l'ensemble d'apprentissage avant de réaliser le processus d'apprentissage. Cette étape peut être considérée comme étant un prétraitement de nos données, l'objectif étant de réduire le bruit sur l'ensemble d'apprentissage en atténuant les conséquences d'un étiquetage subjectif. Pour ce faire, nous utilisons un processus itératif de relaxation autorisant la modification du préétiquetage sous réserve d'améliorer l'homogénéité de ce dernier. En d'autres termes, ce processus examine toutes les étiquettes de chacun des textes de l'ensemble d'apprentissage et change certaines d'entre elles à condition d'obtenir une meilleure consistance (ce qui est équivalent à diminuer l'inconsistance). Cette inconsistance est évaluée par un critère mathématique combinant deux notions. La première est la similarité (S) évaluée à partir de la similarité entre l'étiquetage initial et l'étiquetage courant. La seconde est la cohérence locale moyenne (CLM), calculée en fonction des étiquettes du voisinage de chacun des textes. La propriété principale recherchée peut se résumer en ces mots : le réétiquetage doit d'une part rester le plus similaire possible de l'étiquetage initial, et d'autre part, les étiquettes de chaque texte doivent être similaires à celles des textes de leur voisinage. Cet article est organisé comme suit : les notations utilisées ici sont présentées dans la section suivante. La section 3 décrit la notion de graphe de voisinage. La section 4 définit la technique de relaxation et ses deux critères. En section 5, cette technique est appliquée sur la très connue collection de Reuters-21578 (ApteMod). Enfin, les résultats obtenus sont discutés en section 6. L'ensemble d'apprentissage Ω est composé de n textes préétiquetés composant l'étiquetage initial. Soit K l'ensemble des étiquettes et soit r le nombre d'étiquettes pouvant être affectées à chacun des textes, r =| K |. Ces étiquettes forment l'ensemble des variables exogènes du problème de catégorisation de textes. Pour un texte i ∈ Ω et une étiquette k ∈ K, nous définissons Pi,k comme la probabilité d'appartenance de i à l'étiquette k. Nous associons à chaque texte i un vecteur Pi =( Pi,1 ,···, Pi,r )∈ [0] [1] r donnant la probabilité d'appartenance de i pour chacune des r étiquettes; l'étiquetage initial du texte i est noté P 0 i. Nous faisons remarquer que la somme des probabilités d'appartenance pour un texte i n'est pas nécessairement égale à 1 puisque nous considérons qu'un document peut appartenir à plusieurs étiquettes. Par ailleurs, pour l'étiquetage initial la probabilité p 0 i,k qu'un texte i appartienne à l'étiquette k est égale à 1 si l'expert juge que le document appartient effectivement à cette étiquette, 0 sinon. Enfin, pour le corpus entier, l'étiquetage initial est noté P 0 et P note l'étiquetage courant. Pour chaque texte i ∈ Ω, nous lui associons le vecteur Xi suivant : où Xj est un attribut quantitatif et les Xj pour j ∈ [1,…,p] sont supposés être sélectionnés par une méthode de prétraitement appropriée aux données textuelles. Par exemple, l'ensemble d'attributs ainsi formé peut provenir de l'ensemble des mots présents dans le corpus et les Xji dénombrent les occurrences du mot j dans le texte i. Il existe un grand nombre de codages possibles des textes, voir (Scott et al., 1999) pour plus de détails. La première étape de notre méthode consiste à définir un graphe de voisinage afin de pouvoir établir une mesure de cohérence. En accord avec l'ensemble des attributs quantitatifs Xj pour j ∈ [1,···,<hi rend="italic">p</hi> ], chaque texte peut être vu comme étant un point de l'espace ℝp. A cet espace nous associons une métrique comme par exemple la distance euclidienne ou encore la métrique cosinus. Dès lors, nous pouvons construire un graphe de voisinage où chacun des nœuds représente un texte. Une arête entre deux nœuds indique que ces deux nœuds (textes) vérifient une relation binaire spécifique. Cette relation est symétrique et dépend du graphe de voisinage. Les deux nœuds ainsi reliés sont appelés voisins. Considérons un corpus de textes. Pour construire un graphe de voisinage sur cet ensemble, il existe plusieurs méthodes. Nous présentons dans les sous-sections suivantes quatre méthodes (Preparata et al., 1985; Muhlenbach, 2002). En complément des notations de la section 2, nous notons par Ni l'ensemble des voisins du texte i défini par la méthode de graphe de voisinage choisie. L'arbre de recouvrement minimum est un graphe de voisinage où la somme des longueurs des arêtes composant le graphe est minimale. Comme l'illustre la figure 1, ce graphe est sans cycle, donc est un arbre et dont le nombre d'arêtes est égal à (n-1). Dans ℝ p, (p+1) points définissent un polyèdre de Delaunay si et seulement si l'hypersphère circonscrite aux (p+1) points ne contient aucun point. Le graphe des polyèdres de Delaunay sera défini comme étant l'union des polyèdres de Delaunay. Dans ℝ2, comme sur la figure 2, on parle de triangulation de Delaunay, et les points α, β et γ forment un triangle de Delaunay car le cercle circonscrit à ces points ne contient aucun autre point. Cette méthode détermine pour chaque point un nombre important de voisins. Cependant, sa complexité algorithmique est très élevée. Le graphe de Gabriel est un graphe où deux points α et β sont voisins si ils vérifient la propriété suivante : l'hypersphère de diamètre [<hi rend="italic">α, β</hi>] doit être vide, i.e. qu'elle ne contient aucun autre point (voir figure 3). Le graphe des Voisins Relatifs est un graphe où deux points α et β sont voisins si ils vérifient la propriété suivante : la lunule, correspondant à la région hachurée dans la figure 4, doit être vide. En d'autres termes, les points α et β sont voisins si l'équation [1] est vérifiée : où d (a,b) est la distance entre a, b ∈ Ω dans ℝp. Les techniques de relaxation proviennent de méthodes de traitements d'images où elles ont été utilisées à l'origine pour restaurer les niveaux de gris d'images altérées. Ces techniques de restauration s'effectuent de manière itérative et s'appuient sur la valeur des pixels voisins. Dans ce papier, nous voulons évaluer si ce genre de technique peut apporter de larges bénéfices pour le traitement particulier de la catégorisation de document textuel où chaque document appartient à un ensemble de catégories. Dans cette section, nous définissons dans un premier temps les deux critères utilisés : la similarité et la cohérence locale moyenne. Nous détaillerons ensuite la mise en œuvre de la relaxation afin de rechercher l'optimum global. Le résultat de la relaxation est de modifier les probabilités d'appartenance à certaines étiquettes. En accord avec nos notations, P 0 désigne l'étiquetage initial et P l'étiquetage courant. Le rôle de la propriété de similarité est de s'assurer que P ne s'éloigne pas trop de l'étiquetage initial. En effet, même si nos données peuvent être considérées comme mal étiquetées, il nous faut préserver « au mieux » l'information globale du corpus. Nous rappelons que notre objectif est de rendre plus cohérent l'étiquetage et non de l'éloigner de l'information qu'il peut contenir. Pour mesurer la similarité par rapport à l'étiquetage initial, nous nous basons sur les écarts des probabilités d'appartenance pour chaque texte du corpus entre l'étiquetage initial et l'étiquetage courant : Tous les graphes de voisinages présentés précédemment modélisent la similarité entre les textes représentés comme des points dans l'espace ℝp. Le graphe des voisins relatifs (GVR) contient le graphe de l'arbre de recouvrement minimum (ARM). D'un autre côté, il est contenu dans le graphe de Gabriel (GG) qui est lui -même contenu dans le graphe des polyèdres de Delaunay (GPD) (Preparata et al., 1985). Ces relations d'inclusions sont résumées par l'équation [3 ]. L'ARM et le GPD nous sont faiblement informatifs en raison respectivement d'une trop faible quantité ou d'un trop grand nombre d'arêtes. En pratique, le GG et le GVR donnent des performances similaires. Ici, nous utilisons le graphe des voisins relatifs (Toussaint, 1980). Dans un contexte de relaxation, nous supposons que les étiquettes d'un document se trouvent être « relativement » proches des étiquettes des documents voisins. Afin de mesurer cette dissimilarité relative, nous définissons la cohérence locale entre un document et ses voisins telle que plus leurs étiquettes sont similaires, plus leur cohérence locale tend vers 0 et plus leurs étiquettes sont différentes plus la cohérence locale tend vers r. Ainsi, en généralisant à l'ensemble du corpus, nous définissons la cohérence locale moyenne (CLM) comme étant la moyenne des cohérences locales de chacun des textes : En s'appuyant sur ces deux critères, le processus de relaxation modifie les probabilités d'appartenance aux étiquettes de telle façon à maximiser la cohérence globale moyenne tout en restant le plus proche possible de l'étiquetage initial. Mathématiquement, nous définissons dans l'équation [5] la fonction F comme la somme de la fonction de similarité S (cf. équation [2 ]) et de la fonction de cohérence locale moyenne CLM (cf. équation [4]). Le processus de relaxation vise à minimiser cette équation dans le but de trouver l'étiquetage optimal. Le paramètre λ permet de déterminer la confiance envers l'étiquetage initial : Le paramètre λ permet de déterminer la confiance envers l'étiquetage initial : Pour démontrer que F (P) possède un minimum unique, Largeron (1991) se base sur la propriété que les fonctions strictement convexes admettent un minimum unique. Elle a prouvé la convexité stricte de F en démontrant que F est la composée de deux fonctions strictement convexes (S et CLM). Ainsi, F admet un minimum unique et nous notons cet étiquetage optimal P *. Par ailleurs, cet optimum peut être estimé itérativement par l'équation [6] (Zighed et al., 1990) : à partir de l'étiquetage obtenu à l'itération m, les probabilités d'appartenance sont modifiées en fonction des valeurs des documents voisins et convergent vers l'optimum global. L'algorithme qui implémente l'équation [6] est donné ci-dessous. Il prend en entrées deux paramètres ε et λ. Le premier permet d'indiquer le seuil à partir duquel nous considérons qu'il y a convergence et le second détermine la confiance de l'étiquetage initial. Le paramètre d'entrée-sortie correspond à l'étiquetage du corpus. Afin d'expérimenter notre technique de relaxation dans le cadre de la catégorisation de textes et afin de rendre comparables nos résultats, nous avons choisi la collection Reuters (Apte et al., 1994; Lewis et al., 1994; Cohen et al., 1996; Yang et al., 1997, 1999). Dans cette section, nous décrivons succinctement la collection Reuters-21578 ApteMod, et décrivons les différents paramétrages effectués pour la réalisation de nos expérimentations. Ensuite, nous définissons les mesures de performances utilisées et présentons ensuite les résultats obtenus. Comme expliquée dans (Yang et al., 1999), cette collection est une version récente de ce corpus obtenu par la suppression des documents non étiquetés comme dans Reuters-22173 (Yang et al., 1997), et d'autre part par la sélection des catégories ayant au moins un document dans l'ensemble d'apprentissage et un dans l'ensemble de test. Il en résulte r = 90 catégories avec n = 7 769 documents pour l'ensemble d'apprentissage et 3 019 pour l'ensemble de test 1. Le vocabulaire utilisé est riche : environ 17 000 mots après désuffixation et suppression des mots-outils. Le nombre de catégories par document est hautement déséquilibré : 1,3 en moyenne avec un maximum de 14 catégories pour quelques documents. Pour plus de détails sur cette collection, voir (Yang et al., 1999). Afin de préparer le corpus pour la catégorisation, nous appliquons les mêmes prétraitements que dans (Yang et al., 1997) : les documents sont convertis en minuscule, les mots outils sont supprimés et nous avons appliqué l'algorithme de désuffixation de Porter (Porter, 1980). Nous appliquons la méthode de sélection d'attribut du X 2max et sélectionnons ainsi les 1 000 meilleurs termes; en accord avec nos notations, nous avons alors p = 1 000. Le choix de 1 000 est un compromis entre l'obtention des meilleurs résultats (obtenus pour 2 000 variables par (Yang et al., 1997)) et l'économie de temps de calcul. La pondération des occurrences se base sur le TFxIDF (Term Frequency Inverse Document Frequency). Après construction du graphe de voisinage sur l'ensemble d'apprentissage, nous exécutons le processus de relaxation. Nous avons utilisé la métrique cosinus (Rajman et al., 1998) pour l'élaboration du graphe des voisins relatifs. Enfin, nous avons fixé différentes valeurs de λ en fonction de la confiance que nous associons à la qualité du préétiquetage. Pour pouvoir mesurer l'impact de la relaxation, nous avons comparé l'évolution de l'efficacité d'un classifieur sur le même ensemble test, à partir des données brutes puis à partir des données relaxées. Comme classifieur, nous avons utilisé les k plus proches voisins (kPPV) (Mitchell, 1997) puisque il est l'un des meilleurs algorithmes pour la classification de textes et en particulier sur cette collection comme montré dans (Yang et al., 1999). Nous avons fixé k à 10. Les performances en termes de classification sont généralement mesurées à partir des traditionnelles mesures de rappel (équation [7 ]) et précision (équation [8 ]) issues du domaine de la recherche d'information (Salton, 1989) : Cependant, pour chaque document, le kPPV retourne un vecteur contenant un score d'appartenance pour chaque catégorie. Il nous faut alors déterminer un seuil au-delà duquel le document est considéré comme appartenant effectivement à cette catégorie. Dans notre cas, voulant davantage mesurer l'impact de la relaxation que l'efficacité du classifieur à proprement parler, nous utilisons la méthode de la précision moyenne des 11 points suggérée par (Salton, 1989) : 11 seuils de rappels sont définis de 0 % à 100 % par pas de 10 % et on calcule la valeur de la précision pour chacune de ces valeurs. La moyenne de ces 11 valeurs de précision estime la capacité de catégoriser un document. La moyenne de ces résultats obtenus pour les différents textes de l'ensemble de test permet d'évaluer la capacité globale du classifieur sur ce corpus. Dans le cadre de nos expérimentations, nous avons choisi la collection Reuters - 21578 ApteMod puisque cette dernière a fait l'objet d'une attention particulière quant à sa qualité. Ainsi son étiquetage initial peut être considéré comme idéal, et nous considérons le score de précision moyenne obtenu à partir de ce corpus (n'ayant subi aucune déformation de notre part), comme étant notre score de référence. Même si cet étiquetage nous semble idéal dans le sens où il a été contrôlé par plusieurs experts, nous appliquons notre étape de relaxation dans le but d'évaluer la stabilité des résultats avant et après relaxation. Logiquement, le processus de relaxation ne devrait modifier qu'un faible nombre d'étiquettes puisque nous allons associer à λ une valeur suffisamment élevée traduisant notre confiance envers la qualité de l'étiquetage initial. D'un autre côté, afin de nous retrouver dans une situation où l'étiquetage contient du bruit, nous allons modifier aléatoirement la valeur de 10 % des étiquettes de l'ensemble d'apprentissage. Dans ce cas, nous attendons que les résultats obtenus après relaxation se rapprochent sensiblement du score de référence. Ainsi, nous avons effectué 4 expériences soumises aux mêmes conditions d'apprentissage et de tests, mais en utilisant 4 prétraitements différents pour l'ensemble d'apprentissage : Aucun prétraitement : l'ensemble d'apprentissage est inchangé; Relaxation : nous appliquons l'étape de relaxation sur l'ensemble d'apprentissage en fixant λ à 10 en raison de notre forte confiance envers l'étiquetage initial; Bruitage et relaxation : nous utilisons l'ensemble d'apprentissage bruité à hauteur de 10 % auquel nous appliquons une étape de relaxation en fixant lambda à 0,25 en raison de notre faible confiance envers le préétiquetage bruité; Bruitage : nous utilisons l'ensemble d'apprentissage bruité. Evidemment, nous utilisons le même corpus bruité pour les étapes 3 et 4. Le bruitage a été effectué en inversant la valeur d'une étiquette sélectionnée aléatoirement, i.e. si sa valeur était 0, elle a été remplacée par 1 et réciproquement. Nous avons sélectionné aléatoirement 10 % des étiquettes d'un total de 7 769 documents par 90 étiquettes, soit un changement de 6 9921 étiquettes. En d'autres termes, nous avons changé en moyenne 9 étiquettes par texte. La figure 4 montre la précision moyenne obtenue pour chacune des expériences effectuées. Comme illustré, la première expérience (sans prétraitement) retourne un score proche des 90 %, score se trouvant en adéquation avec d'autres expériences effectuées sous des conditions similaires comme dans (Yang et al., 1999). La deuxième expérience retourne un score similaire à la première, i.e. 90 %. La troisième expérience renvoie un score proche de 60 %, tandis que la dernière a un score de l'ordre de 30 %, soit, comme attendu, le plus mauvais score. Ces expérimentations montrent que la relaxation peut apporter des gains substantiels. En effet, l'utilisation de la relaxation sur le corpus bruité apporte un gain spectaculaire de l'ordre de 30 %. De plus, les résultats sont similaires avant et après relaxation de la collection originale, ce qui montre l'efficacité de la similarité (cf. 4.1). Nous en déduisons que ce type de préparation des données apporte des gains sur des collections bruitées ou non. Cependant, le type de bruit utilisé ici n'est pas réellement comparable avec la subjectivité de l'étiquetage par un expert puisque ce dernier est en principe capable d'argumenter ses choix. Ainsi, nous travaillons à tester notre méthode sur des corpus dont l'étiquetage est réputé douteux. Cependant, cela risque de provoquer des problèmes d'évaluation. En effet, en supposant que nous travaillons sur un tel corpus, comment s'assurer de la validité de l'étiquetage de l'ensemble de test, si ce n'est qu'en demandant à des experts d'évaluer les réponses ? Pour pallier cet inconvénient, nous cherchons également à mieux modéliser les divergences d'étiquetage entre des experts. Une hypothèse raisonnable semble être que pour un texte jugé par deux experts, les étiquettes qui diffèrent sont sémantiquement proches. Des groupes d'étiquettes peuvent alors être définis formant ainsi une hiérarchie d'étiquettes. Dès lors, nous pouvons inclure du bruit sur l'étiquetage initial en modifiant une étiquette par le choix aléatoire d'une des autres étiquettes appartenant au même groupe. L'étape de relaxation peut paraître coûteuse puisque l'étape élaborant le graphe de voisinage de l'ensemble d'apprentissage a une complexité en O( n 3). Néanmoins, cette opération ne doit être effectuée qu'une seule fois puisqu'elle ne s'applique que sur l'ensemble d'apprentissage. Et il est certainement moins coûteux que d'exiger un étiquetage manuel de grande qualité. Enfin, nous avons effectué ces mêmes expériences en utilisant divers types de graphes de voisinage mais au final les différences étant infimes nous ne les présentons pas. Nous avons décrit dans ce papier une méthode de relaxation permettant de rendre plus consistant l'étiquetage initial de l'ensemble d'apprentissage d'un corpus de textes en modifiant automatiquement cet étiquetage. Nous avons en outre montré que la relaxation alliée à l'analyse de contenu des textes apporte des bénéfices évidents dans le cadre de la catégorisation de documents. Ainsi, cette méthode permet d'utiliser des corpus ayant un étiquetage douteux. De plus, cette technique peut être appliquée dans des domaines où l'étiquetage est hautement subjectif. Cependant, nous la considérons non applicable dans les domaines où une observation est objective. Par exemple, considérons le domaine de recherche d'analyse de survie, appliquer ce type d'outils reviendrait à considérer qu'un cas constaté mort peut être considéré vivant et inversement. Nos futurs travaux vont consister à appliquer cette méthode sur des corpus réellement bruités et de mettre en œuvre des méthodes d'évaluation des gains ainsi apportés. Enfin, il nous semble également intéressant d'étudier comment utiliser ce type d'outils afin d'optimiser directement les fonctions de coûts des classifieurs .
Par essence, l'apprentissage supervisé nécessite que chaque individu de l'ensemble d'apprentissage soit préalablement étiqueté. Dans un contexte de catégorisation de textes, l'étiquetage consiste à affecter les catégories d'appartenance d'un document. Cette opération est réalisée par un expert et peut être perçue comme subjective puisque basée sur l'interprétation du document. Ainsi, l'étiquetage peut être considéré comme inconsistant dans certain cas. Par exemple, deux experts peuvent étiqueter différemment un même document, ou encore un même expert peut étiqueter différemment un même document soumis à deux instants différents. Cette inconsistance peut affecter l'efficacité du classifieur. Pour atténuer ces inconvénients, nous considérons que certains individus de l'ensemble d'apprentissage sont mal étiquetés et doivent être réétiquetés. Dans cet article, nous utilisons une méthode de relaxation afin d'optimiser la cohérence de l'étiquetage. Nous appliquons cette technique sur un corpus bien connu dans la communauté de la catégorisation de textes : la collection Reuters-21578 ApteMod. Nous montrons sur ces données que ce type de prétraitement apporte de large bénéfices.
sciencesInfo_05-0094317_tei_DN_083_0055.tei.xml
termith-430-communication
Les avancées technologiques encouragent la perspective d'accéder à un spectre étendu d'informations en interagissant avec des systèmes de plus en plus conviviaux et performants. Le processus de tests d'applications industrielles de dialogue homme-machine (DHM) succède aux développements de prototypes en laboratoire. Au sein du laboratoire D21 (dialogue et intermédiations intelligentes) de France Télécom Recherche et Développement, la technologie ARTIMIS 1 alimente ce processus. Fondée sur le modèle logique de l'interaction rationnelle (Sadek et al., 1997), elle permet le développement d'applications et de services à base d'agents intelligents dialoguant et communiquant en langage naturel, par oral ou par écrit, voire les deux. Plusieurs disciplines collaborent, parmi lesquelles l'intelligence artificielle, la linguistique, l'ergonomie cognitive, et ce à un niveau spécifique, pour l'implémentation de services sur un domaine précis avec des modalités d'entrées-sorties (i.e., écrit/oral) définies par les usages afin d'optimiser le dialogue; et à un niveau générique, du point de vue théorique (pour la capitalisation de connaissances sur le DHM) mais aussi du point de vue technologique (pour le développement des fonctionnalités de la plate-forme d'exploitation, cf. section 2.3). Dans ce contexte, des observations sont réalisées sur les comportements des systèmes et des utilisateurs au cours d'interactions. Des recueils de traces sont effectués sous la forme d'un corpus unique, dans lequel chaque discipline va puiser pour traiter un thème, un composant ou un problème particulier. Ce corpus est régulièrement enrichi par des tests, des simulations en Magicien d'Oz (WOZ pour Wizard of Oz), des expérimentations terrains et des remontées de clientèles. Cet article présente les travaux des ergonomes du laboratoire pour le développement des connaissances sur le DHM et l'amélioration des technologies et des services. Apres avoir présente succinctement les bases théorique de la technologie ARTIMIS, sont abordes la dynamique permettant les évolutions de la technologie et de ses applications et un outil de simulation du DHM en WOZ. Enfin, un cadre théorique pour l'étude du DHM est propose, illustre par des travaux expérimentaux réalises par les ergonomes. La technologie ARTIMIS est basée sur une approche originale, constituée d'un cadre théorique et méthodologique solide, qui s'attache à définir aussi précisément que possible les concepts de bases manipulés. Elle s'inscrit en phase avec l'approche philosophique du langage qui considère que « communiquer c'est agir » (Austin, 1970; Searle, 1972) et se place, au niveau méthodologique, dans l'esprit des travaux de Cohen et Levesque (1985; Cohen et al., 1990). Avec comme base la théorie de l'interaction rationnelle (Sadek et al., 1997), elle repose sur une approche de la communication fondée sur une modélisation logique des attitudes mentales et de l'action. Ainsi, pour Sadek (1996), la convivialité ou la simplicité du dialogue ne peut être conçue comme l'habillage extérieur d'un système préexistant. La capacité d'un système à instaurer un véritable dialogue en langage naturel avec un interlocuteur humain est une capacité qui doit émerger de l'intelligence intrinsèque au système. Dans cette vision, si un service possède, par sa construction, des aptitudes de haut niveau au raisonnement, à la compréhension, à l'interaction dans un langage naturel avec l'utilisateur, à l'autonomie de décision, etc., alors l'interaction avec lui se déroulera naturellement de manière conviviale. Comment décliner concrètement la convivialité d'une interaction avec un système ? Certaines capacités ont été identifiées (Sadek, 1996) : la négociation. L'utilisateur peut formuler une demande relativement vague et attendre du service qu'il le guide. La négociation peut également porter sur la modalité et le média; l'interprétation en contexte. Le service est capable d'interpréter une demande ambiguë ou non explicite et d'établir une relation selon le contexte de dialogue précédent cette demande; la flexibilité du langage d'entrée. Le service est capable d'interpréter une demande spontanée en limitant les contraintes sur la nature, l'ordre des informations spécifiées, ou le média utilisé par l'utilisateur; la flexibilité de l'interaction. Le service est capable d'autoriser l'utilisateur à naviguer dans une structure non linéaire. La prise d'initiative par l'utilisateur, lui permet de s'écarter ponctuellement du déroulement du dialogue initial pour effectuer une modification; l'imbrication des demandes. L'utilisateur peut intervenir pour effectuer une demande intermédiaire venant s'intercaler au cours d'un échange pour obtenir des précisions ou des vérifications; la production de réactions coopératives. Le service est capable de devancer les attentes de l'utilisateur et d'étendre ses réponses à des informations pertinentes (information supplémentaire, correction, aide); l'adéquation des formes de réponses. Le service est capable d'adapter la manière dont il s'exprime pour augmenter la convivialité de l'interaction. Au-delà de ces caractéristiques essentielles, c'est leur présence conjointe (partielle ou totale) et à tout moment qui s'avère également déterminante. Ces déclinaisons concrètes, qui s'inscrivent dans un cadre conceptuel plus global, sont en constante évolution. Le modèle logique de l'interaction rationnelle est une base solide pour la conception de technologie de dialogue naturel. Plusieurs applications ont été développées avec la technologie ARTIMIS, notamment un prototype de service de recherche de restaurants nommé PlanResto qui permet un dialogue à l'oral (par téléphone), à l'écrit (par une interface web classique) ou multimodal (couplage oral, écrit et sélection souris). Le dialogue est dit naturel lorsque l'interaction repose sur des acquis antérieurs de l'utilisateur, qui sont réutilisables directement. Schématiquement, l'interaction se déroule de la façon suivante : les énoncés de l'utilisateur, quelle que soit leur forme (texte, vocal, geste, etc.), sont analysés par un système d'interprétation de la langue à partir d'un modèle linguistique. Après transformation, les énoncés sont traités par le module d'unité rationnelle, obéissant à des principes de rationalité, de communication et de coopération. Puis le système génère une réponse à l'utilisateur à partir du modèle linguistique, sous la forme la plus appropriée (figure 1). Les évolutions, concernant la technologie ou l'amélioration des services, sont rendues possibles par un enrichissement continuel, aussi bien théorique qu'expérimental, en fonction des possibilités et résultantes attendues. Les avancées théoriques formelles et les travaux expérimentaux, relatifs à la prise en compte des difficultés et besoins des utilisateurs de services dialoguants, apportent des éléments sur différentes dimensions. Il s'agit par exemple des capacités de coopération, d'apprentissage de l'environnement, d'adaptation contextuelle en fonction des apprentissages utilisateurs, et de l'exploration de considérations nouvelles comme les émotions. Ainsi, pour améliorer les capacités précédemment citées - déjà partiellement implémentées dans les services - la prise en compte de l'utilisateur est incontournable. L'approche du dialogue par les ergonomes du laboratoire se centre donc sur les processus cognitifs sous-jacents au DHM à partir d'une base théorique comme les modèles socio-cognitifs de la communication humaine. La mise en œuvre d'une dynamique d'allers-retours entre les études amont et les projets industriels encourage la prise en compte progressive des contributions des différentes approches. Elle favorise l'exploitation des résultats au fur et à mesure des développements de services tandis que les connaissances et besoins identifiés dans les projets industriels alimentent les réflexions et confortent des résultats génériques exploitables en conception. En résumé, les technologies actuelles (modes conversationnels, médias de communication, traitements automatisés de la langue) intègrent les variabilités comportementales (modalités d'interaction, caractéristiques de l'utilisateur) et environnementales (différences entre services, complexité de la tâche). Cela conduit à adopter une approche pluridisciplinaire centrée sur les utilisateurs. Mais les problématiques traitées dans le DHM nécessitent en plus d'une démarche expérimentale, des outils spécifiques pour réaliser des tests de services simulés de manière réaliste. La technique du WOZ vient alors compléter les dispositifs de recherche. Le dialogue a été très souvent étudié avec le paradigme du WOZ (i.e., Bubb-Lewis et al., 2002; Gould et al., 1983; Oviatt, 1995, etc.). Un compère humain, à l'insu de l'utilisateur, exécute les fonctions du système réel. Il interprète la demande de l'utilisateur à qui il envoie une réponse. L'interfaçage avec les éléments de la plate-forme d'exploitation du service final (modules de reconnaissance vocale et de synthèse de la parole) permet au compère de se substituer de façon crédible au système réel. Ce dispositif, développé par le laboratoire, permet de recevoir les demandes de l'utilisateur par l'intermédiaire d'un système de reconnaissance de la parole. Comme en contexte réel, l'utilisateur peut être plongé dans la problématique de messages perturbés. Par la réalisation d'opérations et d'activités du système dont il reproduit le fonctionnement intelligent, le compère humain devient ainsi une interface homme-machine qui réagit au plus proche d'un vrai serveur d'application. La section suivante présente la plate-forme WOZ développée au sein du laboratoire. Le compère dispose d'un outil d'intégration des différentes données du service pour configurer son interface de dialogue avec l'utilisateur. Cela nécessite de définir au préalable toutes les réactions connues du système (conformément au cahier des charges de l'application simulée) et toutes les réactions prévisibles de l'utilisateur afin de guider le compère dans sa simulation et lui permettre d'agir avec F » intelligence » du système final. Il s'agit également d'anticiper et de prévoir, pour les entrées, les mots de vocabulaire de l'application qui définissent les limites du système et influencent la manière dont le compère comprend l'utilisateur. Ce vocabulaire est partiellement intégré dans l'interface d'édition. Il concerne directement les termes qui permettent de définir les critères applicatifs et leurs valeurs possibles (par exemple : « critère spécialité culinaire », ayant des valeurs telles que « italienne » pour un service de recherche de restaurants). De même, pour assister le compère dans sa simulation, la préparation de l'interface de l'outil de simulation nécessite d'anticiper un certain nombre de messages, pour les sorties, construits et prédéfinis en fonction des situations de dialogue prévues. Certains messages sont figés, d'autres, à trous, permettent de générer des messages reprenant la valeur du critère demandée par l'utilisateur. Un accès à une base de données externe permet de préparer des solutions réalistes répondant aux demandes des utilisateurs. Le compère dispose de différents outils pour dialoguer efficacement avec l'utilisateur (figure 2) : une interface avec l'historique de dialogue. Elle permet de visualiser les échanges avec l'utilisateur via le système de reconnaissance. C'est un élément essentiel pour interpréter, diagnostiquer et déterminer la réaction adéquate en fonction des stratégies contextuelles prévues; une interface permettant d'intégrer les informations reçues et d'interroger la base de données. C'est dans cette fenêtre que le compère pourra ensuite construire sa réponse à l'utilisateur à l'aide des énoncés totalement et/ou partiellement prédéfinis, et l'envoyer à l'utilisateur en sélectionnant la modalité de destination (orale, visuelle, multimodale); une interface de visualisation des réponses possibles. Les solutions restituées par la base de données sont envoyées par le compère sur l'interface graphique de l'utilisateur, ou sont insérées dans la construction des réponses en vocal. Le paradigme du WOZ est généralement utilisé en amont, pour accélérer le processus de développement de service ou de développement technologique par l'exploration rapide des conséquences de certains choix, par exemples fonctionnels et dialogiques. Par anticipation des développements effectifs et en tant que méthode expérimentale, le WOZ permet de mettre en œuvre des interactions qui ne se limitent pas aux systèmes disponibles. Il favorise aussi l'évaluation de services pour lesquels on souhaite faire varier les comportements et être capable de faire des ajustements par cycles itératifs rapides. Spécifiés par des règles de réactions différentes simulées par le compère, il est alors possible de tester et analyser différentes stratégies pour un même contexte de dialogue et/ou une même tâche. Fondamentalement inscrit dans une démarche centrée utilisateur, ce paradigme favorise à la fois l'étude des comportements utilisateurs mais aussi ceux du compère. Il rend possible un recueil de corpus de dialogues réels qui permet une analyse des représentations et des comportements des utilisateurs au cours des interactions réalistes. Par la détection des problèmes réels que rencontrent les utilisateurs pour réaliser leurs tâches, il permet ainsi le recueil de données à la fois sur l'usage, le système et l'utilisabilité. Le WOZ s'appuie cependant sur une plate-forme de simulation dont la mise en œuvre reste lourde : par exemple, par les délais de réaction du compère dus aux tâches qu'il doit réaliser et à la charge cognitive qu'elles impliquent. Néanmoins, l'utilisation du WOZ permet un gain de temps, l'implication des utilisateurs finaux et une diminution des coûts de développement. Inscrite dans le processus de développement industriel des services, elle accélère le cycle de développement d'applications de plus en plus riches et diversifiées. En résumé, le WOZ est un moyen pour tester et valider expérimentalement des principes ergonomiques de conception en début de projet, investir des nouveaux champs d'études en amont des services ou des technologies, et analyser les impacts de stratégies de dialogue différentes, déclinées par des réactions, des verbalisations, des choix de modalité, et plus généralement, des comportements différents du système. A cet égard, la plate-forme de simulation permet de disposer d'outils évolutifs et adaptables à des modalités d'interaction variées, dans un environnement techniquement contraint ou non. La section suivante présente les axes de recherche actuels du laboratoire ainsi que plusieurs expérimentations récentes réalisées à partir de la plate-forme WOZ ou sur des services réels. Si l'observation de l'utilisation de services réels fait émerger des besoins, de nombreuses questions sont également traitées dans la littérature. Après une brève présentation d'un cadre théorique socio-cognitif de la communication, les problématiques abordées concernent les comportements de l'utilisateur devant un partenaire interactif non humain et les processus cognitifs mis en œuvre, ainsi que les stratégies de dialogues efficaces. Le cadre théorique des actes de langage (Austin, 1970; Searle, 1972) entre en résonance avec les travaux de Clark et son équipe sur l'utilisation du langage (Brennan, 1998; Clark, 1996), chacun présente l'utilisation du langage comme un moyen employé lors d'une interaction pour atteindre un objectif. Les travaux de Clark et ses collaborateurs ont mis à jour plusieurs phénomènes. La communication humaine est une forme d'action collaborative où la notion de « terrain commun » est centrale (Brennan, 1991; Clark et al., 1991; Isaacs et al., 1987). Celui -ci est construit, par un processus appelé grounding, pour assurer la coordination des actions conjointes, autour d'une base partagée qui est la situation dans laquelle se trouvent les interlocuteurs. Clark définit schématiquement le terrain commun comme « la somme des connaissances mutuelles des interlocuteurs, de leurs croyances et de leurs suppositions » (notre traduction : Clark, 1996; p. 93). De même, dans la communication avec ou à travers un ordinateur les interactions homme-machine sont examinées comme des actions coordonnées possédant des similarités avec les interactions conversationnelles (Brennan, 1991, 1998). Les gens communiquent à travers des icônes, du texte ou de la parole comme s'ils s'adressaient à un partenaire interactif. Deux phénomènes ont été particulièrement étudiés dans les dialogues. Tout d'abord, des études ont montré que les locuteurs se construisaient une représentation de leur partenaire (ou interlocuteur) à partir de la situation, de leurs croyances et connaissances initiales (e.g, Clark et al., 1987, 1989; Falzon, 1991; Fussell et al., 1992; Krauss et al., 1991). La représentation de l'interlocuteur est un modèle mental dynamique traduisant la coadaptation en fonction du type d'interlocuteur (homme ou système). Plus précisément, Amalberti et al., (1993) ont défini l'influence d'un tel modèle sur le comportement verbal. Le modèle de l'interlocuteur est basé « sur la représentation des compétences techniques et linguistiques de l'interlocuteur, laquelle est en partie élaborée lors du processus de dialogue » (Amalberti et al., 1993; p. 551). Cette coadaptation des partenaires peut être caractérisée par la modification du lexique et de la structure syntaxique du discours en fonction des connaissances réelles ou supposées des partenaires (Brennan, 1991; Isaacs et al., 1987). Ensuite, Brennan (1998) a souligné que les interactions avec le système fourniraient un support à l'établissement du terrain commun. A partir de cette conception, Bubb-Lewis et Scerbo (2002) s'attendaient à ce que les références partagées diminuent en raison de la nature moins « humaine » de la communication à mesure que le dialogue devenait moins naturel. Ils sont arrivés à la conclusion que certains des processus qui rendent la communication humaine si efficace sont encore absents dans la communication homme-machine sous sa forme actuelle. L'application des théories socio-cognitives de la communication humaine aux DHM fait apparaître des comportements quantitativement différents et des processus conversationnels identiques ou absents. De nombreuses questions concernant le DHM restent encore posées. Elles sont à l'origine des recherches présentées dans la suite de ce papier. Plusieurs études avec des simulations ont mis en évidence des changements au fur et à mesure de l'interaction (Brennan, 1991; Bubb-Lewis et al., 2002; Zoltan-Ford, 1991). Brennan a aussi montré que même si les individus traitent les machines différemment des humains, les attentes sur l'interaction conversationnelle continuaient à jouer un rôle significatif dans le DHM en langage naturel. Une étude récente, avec un système réel de recherche de restaurants (PlanResto), a répliqué une partie des résultats observés habituellement dans les expériences en WOZ. Par exemple, la fréquence des pronoms sujets « Je » était de plus en plus faible au fur et à mesure des dialogues. Bubb-Lewis et Scerbo (2002) ont observé une variabilité importante des comportements des utilisateurs à la fois à un niveau interindividuel, mais surtout à un niveau intra-individuel. Ils ont souligné la nécessité de familiariser au préalable les utilisateurs de système en langue naturelle pour étudier une activité stabilisée. Plusieurs études ont été menées avec PlanResto pour mettre en évidence l'influence des connaissances initiales des utilisateurs et la modification de la structure discursive au fur et à mesure des interactions avec le système en fonction de la modalité (taper vs parler). Par exemple, au cours d'une expérimentation, 48 participants adultes ont effectué douze tâches de recherche d'informations avec un système informatisé de dialogue en langage naturel, en communiquant avec lui soit à l'écrit soit à l'oral. L'analyse des résultats a montré une amélioration de la performance (nombre de tours de parole, temps d'interaction) et de la satisfaction au fur et à mesure des dialogues. De même, la représentation que l'utilisateur a de son interlocuteur s'est aussi modifiée au fur et mesure des scénarii. Le nombre d'informations pertinentes pour la recherche au premier tour de parole était peu important pour les premiers dialogues puis augmentait linéairement pour les dialogues suivants. De plus, un effet de modalité important a été mis en évidence sur la performance et sur l'utilisation d'indicateurs discursifs. Le nombre de tours de parole (TP), la durée de l'interaction et la charge de travail mental perçue étaient plus faibles à l'écrit qu' à l'oral. Enfin, le nombre moyen de mots par TP et la fréquence du pronom sujet « Je » par dialogue étaient plus importants à l'oral lors des premières tâches. Ces différents résultats ont été reproduits dans d'autres expérimentations (e.g, Le Bigot et al., 2003). A un niveau différent, Brennan (1998) a souligné que le langage naturel et les contextes de dialogue avec un système de DHM semblaient pauvres en indices permettant le grounding. Dans le même sens, Johnstone et al., (1994) ont montré que la principale différence entre la communication homme-homme et homme-machine résidait dans le grounding. La fréquence d'indicateurs caractéristiques de ce dernier, par exemple les formules de politesse ou de clôtures de phrases, était faible dans les situations homme-machine. De nombreuses difficultés dans les DHM pourraient être en partie expliquées par ce problème de la construction du terrain commun dans les IHM (notre traduction; Brennan, 1998, p. 3). Malgré ce manque d'indices et les contraintes particulières du DHM, le grounding semblent à l' œuvre du côté de l'utilisateur (Brennan, 1991). Cette construction se traduit dans le dialogue par différents types de comportements verbaux. Des études (e.g, Clark et al., 1991; Clark et al., 1987, 1989; McCarthy et al., 1994) ont permis d'isoler des indices conversationnels construction du terrain commun (e.g, les reprises littérales ou modifiées des énoncés, les hésitations, le lexique commun, etc.). Dans plusieurs expérimentations, ces indices ont été étudiés en fonction de la succession des dialogues avec un système, des modalités d'interaction (taper vs parler et lire vs écouter) et de la complexité des tâches. L'objectif de ces études était d'identifier les indices de compréhension présents dans les comportements verbaux des utilisateurs. Les corpus analysés étaient composés par une série de dialogues (12 en général) réalisés selon plusieurs modalités d'interaction et avec des tâches plus ou moins difficiles. Les premières analyses ont montré que les indices conversationnels traduisant le grounding étaient plus importants pour les interactions à l'oral par rapport aux interactions à l'écrit. Dans le même sens, les individus avaient une tendance à la collaboration plus importante avec le système à l'oral. Les analyses sur l'évolution des dialogues en relation avec la complexité de la tâche sont en cours. La variation de l'utilisation de ces indices renseignera non seulement sur des aspects conversationnels mais aussi sur l'influence de la représentation mentale que l'utilisateur construit de son interlocuteur machine. La connaissance de cette représentation pourra fournir une base au diagnostic des besoins de l'utilisateur, notamment en termes d'aides et dans la constitution de modèles utilisateurs fiables. Ce dernier domaine est au centre des préoccupations du laboratoire. Si les représentations mentales et les interactions conversationnelles des utilisateurs évoluent au cours des échanges avec les systèmes interactifs, la question se pose de l'adaptation de l'interface (Litman et al., 2002; Velduijzen van Zanten, 1998). Depuis les premières recherches sur la modélisation de l'utilisateur, les champs de la modélisation de l'utilisateur et du traitement du langage naturel sont étroitement liés (Zukerman et al., 2001). Des systèmes en langage naturel consultent des modèles utilisateur, plus ou moins riches et plus ou moins exacts, pour améliorer leur compréhension des besoins des utilisateurs et pour générer des réponses appropriées et pertinentes. De nombreuses pistes de recherche sont développées, elles vont des travaux qui tentent d'adapter les stratégies de dialogues en fonction des connaissances des utilisateurs sur le domaine (Carenini; et al., 2000, 2001) à ceux qui utilisent les capacités d'apprentissage des systèmes (Litman et al., 2002). Ces problématiques sont abordées par le laboratoire au cours de différentes expérimentations simulées et réelles, à la fois sur le concept d'interface adaptable (en fonction du profil utilisateur acquis grâce à une identification) et celui d'interface adaptative (en fonction des connaissances acquises sur l'utilisateur en cours de dialogue, selon les contextes rencontrés). Pour être adaptable et/ou adaptative, l'interface doit nécessairement évoluer différemment en s'appuyant sur la qualité des échanges intermédiaires rencontrés. C'est notamment en tenant compte d'indicateurs tels que le nombre de connexions, les demandes explicites d'aides, le nombre d'incompréhension, que le système s'adapte à l'utilisateur. Ainsi, une étude (Karsenty et al., 2001) a permis de mettre en évidence, dans le cadre d'incompréhensions consécutives des utilisateurs par le système, une succession d'aides à fournir par le système en fonction du rang des incompréhensions. Les recherches actuelles visent également à étudier les aides pertinentes dont l'utilisateur a besoin, en prévention, selon son niveau d'apprentissage, mais également en situation de difficultés de compréhension dans l'interaction avec des systèmes de dialogue en langage naturel. L'objectif de ces études était d'identifier et d'acquérir un modèle utilisateur par l'acquisition des erreurs et méconnaissances des utilisateurs afin de les guider contextuellement par des aides dialogiques (comment interagir avec le système), ou des aides fonctionnelles (rappel des capacités et limites du système). Au-delà, il s'agissait également de guider l'élaboration d'une représentation utilisateur visant à optimiser son interaction dans le cas d'une sous-utilisation des potentialités offertes. Cet article a mis en lumière l'apport des ergonomes à la conception de systèmes de dialogue en termes de méthodologies expérimentales et de connaissances théoriques. Les recherches présentées concernaient la compréhension et l'évaluation des effets des technologies sur le plan cognitif, social et économique. Un des objectifs de recherche en ergonomie cognitive consiste à déterminer les processus généraux de collaboration, coconstruction, terrain commun, références explicite et implicite, langage naturel ou partiellement contraint, planification et ordre, structure a priori du dialogue, etc. Pour mieux comprendre ces processus généraux liés à l'interaction, la confrontation des hypothèses théoriques à des services est réalisée à travers des WOZ, des prototypes d'applications ou des services réels, ce qui permet d'analyser les attentes et les feedbacks d'utilisateurs plongés dans une problématique d'usage réel. L'étude des comportements utilisateurs permet ainsi d'accéder à leurs réactions en termes de performance, de représentation et de satisfaction. Cependant, même si les avancées technologiques tiennent de plus en plus compte des utilisateurs et notamment de leur diversité, les capacités intrinsèques des systèmes de DHM n'évoluent pas toutes à la même vitesse et ne sont pas nécessairement au même stade de développement. En s'appuyant sur deux approches théoriques (l'approche formelle du dialogue et le modèle socio-cognitif de la communication), les recherches et développements visent à converger vers un DHM optimal. Enfin, c'est à la problématique globale du développement de services que participent les études, en permettant d'approfondir les connaissances théoriques sur le DHM et en orientant la conception des futures interfaces à base de dialogue naturel comme vecteur d'interaction. En effet, au-delà de l'ergonomie de services classiques, ciblés sur la solution trouvée, l'apport de l'ergonomie cognitive dans l'intelligence des systèmes de dialogue est à présent fondamentalement centré sur l'accompagnement de l'utilisateur, en fonction des caractéristiques de coopération d'un dialogue naturel. A ce titre, les recherches sur l'accompagnement dans le DHM constituent une amélioration notable de l'utilisabilité des services en phase avec le marché .
Ce papier présente l'apport de l'ergonomie pour la conception de services à base de dialogue naturel. L'approche du laboratoire D2I est d'appréhender le dialogue aussi bien d'un point de vue formel (i.e., modèle de l'interaction et caractéristiques d'un système coopératif) que socio-cognitif (i.e., modèles de la communication). Dans cette optique, la connaissance et la prise en compte des comportements, et des attentes des utilisateurs sont indispensables à l'amélioration des interactions avec un système. Outils méthodologiques (i.e., Magicien d'Oz) et recherches empiriques participent alors à l'enrichissement des connaissances théoriques sur le dialogue homme-machine et aux développements de services innovants.
sciencesInfo_04-0590752_tei_DN_081_0037.tei.xml
termith-431-communication
Le livre EST le problème; le livre est tout le problème. .. ou plutôt l'industrialisation du livre et tout ce que, dès son origine, elle implique et qui, peu à peu, s'enchaîne dans un ensemble de dispositifs de plus en plus contraignants : la standardisation, le formatage, les conventions, les collections, le marketing, les publics, les critiques, les auteurs, les autorités et les genres. .. Depuis Gutenberg et sa fondation d'une imprimerie à Mayence en 1465 (ses bibles déjà « formatées » à quarante-quatre ou trente-deux lignes), depuis 536 ans donc, livre et littérature sont en effet devenus homothétiques au point que nous avons quelques difficultés à les distinguer comme si la littérature ne pouvait avoir d'autre médium que le livre, comme si le livre était ce médium auquel la littérature donne ses lettres de noblesse. C'est évidemment aller un peu vite en besogne. En effet, la littérature, comme nous le savons tous même si nous ne voulons pas toujours accepter les conséquences de ce savoir, existait bien avant le livre et, dans beaucoup de régions du monde encore – mais notre ethnocentrisme culturel occidental nous aveugle souvent – existe sans aucun recours au livre. Pour une bonne part de son histoire, pour une bonne part de son extension géographique, la littérature est orale ou présentée sur des supports très différents du livre (imaginez un instant ce que signifie une littérature transcrite sur des tablettes d'argile ou des plaquettes de bambou et tirez -en toutes les conséquences…). Dans ces cadres, la littérature se manifeste essentiellement comme des « instants » de texte, instants éphémères, volatiles, changeants, variants… contextualisés. On ne peut, par exemple, comprendre les effets de ce que l'on appelle « les religions du livre » sans prise en compte de cela : le texte sacré, celui qui porte la parole divine, est celui qui, pour ne pas varier, s'officialise; celui qui, à l'inverse des textes profanes, doit être transmis tel quel, sans variation aucune, et pour cela exige un entraînement spécifique, parfois même la dévotion d'une vie entière. Néanmoins, la littérature est largement indépendante de ce médium spécifique qu'est le livre. Je ne veux pas ici approfondir ce que cette simple constatation change dans la plupart de nos théories – et notamment dans les plus récentes – du fait littéraire : imaginez simplement ce que pouvait être une lecture de poésie à la cour d'Henri III, à Fontainebleau, vers 1660 : avant d' être un texte – au sens où nous l'entendons aujourd'hui d'objet fixe, immuable, vérifiable, analysable…– la poésie est d'abord une voix, un accent, une présence, un jeu sonore et, le plus souvent, un environnement musical, car le recours au texte proprement dit est difficile, voire impossible. Comme nous le savons tous pour avoir assisté à des lectures publiques faites par des auteurs ou des comédiens, le texte public est inséparable des diverses formes de contextualisation de ses lectures. Or l'intérêt du livre – la caractéristique qui en a assuré le succès – est justement dans ses capacités de décontextualisation : le même texte partout et toujours le même (du moins est -ce la vulgate généralement admise donc partiellement fausse comme toute « vulgate », mais je n'ai pas le temps de m'étendre sur ce point). En tout cas, on voit bien où cela nous mène… Un des grands mérites de l'Oulipo est justement d'avoir montré – notamment par sa redécouverte de ce que ses membres ont appelé des « plagiaires par anticipation » – combien ce lien est culturellement daté, combien, tout au long de l'histoire du littéraire, la littérature a multiplié les recherches d'approches différentes, que ce soit chez un Jean Meschinot, un Quirinus Kühlman, plus récemment un Butor, un Saporta, etc… mais aussi par le maintien, la vivacité de tout un pan de textualisation liant littérature et oralité. Mais le livre était le problème car, par ses caractéristiques techniques, il n'était pas à même de les accueillir. L'apparition de l'informatique, plus exactement de l'ordinateur, que sur ce plan on peut considérer comme un médium, remet en cause cette occupation de l'espace littéraire, notamment parce qu'elle permet de repenser totalement les relations du texte et du contexte, et ce jusque dans leurs conséquences les plus extrêmes : désormais un texte peut ne plus être cet objet fermé d'un tissage de langue voulu – ou présenté comme – définitif et immuable, mais au contraire un objet, sur plusieurs de ses aspects, mobile et plus ou moins étroitement lié à son contexte d'apparition. Cette recontextualisation du texte est d'autant plus riche de possibilités que, par sa nature, la modélisation informatique, qui n'est rien d'autre que l'alphabet de l'ordinateur médium, parce qu'elle s'appuie sur une réduction drastique de sa symbolique, ne fait plus aucune distinction entre des modalités d'expression qui, jusque -là, étaient « par culture » rigoureusement séparées : le texte est du son comme le son est de l'image et l'image du texte et/ou de l'espace et/ou du temps et/ou du mouvement et/ou du relief, etc… Or ce médium, parce qu'il occupe désormais sur le terrain des objets de diffusion une place de plus en plus grande, est destiné à devenir aussi répandu, aussi « populaire » que l'a été le livre. La littérature se trouve alors comme libérée du livre. Toutes les contraintes qui, par l'effet des dispositifs techniques du livre, pesaient sur elle se trouvent d'un coup levées et émancipent des possibilités d'expressions qui, jusque -là, se trouvaient cantonnées du côté des « curiosités » littéraires – à chaque tentative, réinvention d'un autre type d'objet livre ne pouvant qu'échouer devant les contraintes de l'édition industrielle – comme les livres de bibliophiles ou d'artistes, comme les tentatives spatialistes, lettristes, vidéo et bien d'autres encore… Non seulement les frontières se trouvent abolies, mais les rapports aux territoires du texte sont totalement bouleversés. Encore une fois, j'éviterai, ici et aujourd'hui, de développer tout cela. D'autant que je n'ignore pas que certainement, pour beaucoup d'entre vous, faute d'une connaissance personnelle de ce qui se passe dans le champ de la littérature « saisie par l'ordinateur », tout ceci doit paraître bien abstrait, pour ne pas dire théorique. La domination du livre en effet est telle qu'accéder à des productions littéraires pour médium informatique n'est pas un réflexe culturel aussi naturel que celui d'ouvrir les pages d'un roman quelconque : le livre a ses réseaux de production, de diffusion, de promotion, de vente qui lui donnent une importance telle qu'elle aveugle presque totalement ce qui, dans le champ du littéraire, se passe ailleurs. Pourtant, la littérature « saisie par l'ordinateur » existe, de plus en plus riche, de plus en plus variée, de plus en plus créatrice, de plus en plus inattendue par rapport à ce qui était jusque -là considéré comme « littéraire ». Elle ouvre à l'espace de la littérature – qui à mon sens en avait bien besoin… – une infinité de nouvelles perspectives qui apportent un souffle créatif renouvelé aux productions littéraires, mais également changent, parfois du tout au tout, les rapports du texte – mais peut-on toujours appeler cela un texte ? – à son lecteur. Je ne citerai que quelques exemples vous renvoyant pour le reste à votre propre curiosité. – La poésie dynamique, cinétique, sonore qui, grâce à l'ordinateur et notamment à la diffusion sur l'internet a retrouvé une créativité extraordinaire. Il suffit, pour s'en assurer, d'entrer dans des sites comme ceux des revues Tapin ou Akenaton ou Doc(k)s et, à partir d'elles, parcourir le vaste ensemble des sites consacrés à ces écritures poétiques (www. multimania. com/ tapin ou www. sitec. fr/ users/ akentondocks). En présenter des œuvres « sur papier » est évidemment très réducteur, mais c'est peut-être le moyen que ces œuvres existent, comme par exemple dans les créations de Haroldo De Campos, un poète brésilien ou de Julien Blaine, de Philippe Bootz ou de nombreux autres encore… – Les littératures « participatives » dont les Moos et les Muds sont les exemples les plus connus, mais qui regroupent également quantité d' œuvres impliquant le lecteur dans un échange plus ou moins riche, plus ou moins complexe avec les auteurs : Non roman de Lucile de Boutiny ou mon récent Mail-roman – La littérature combinatoire dont l'un des exemples les plus représentatifs est certainement Cent mille milliards de poèmes de Raymond Queneau. Citons également Mémoires d'un mauvais coucheur de Bernard Magné ou Syntext du portugais Pedro Barbosa qui, pour l'essentiel, joue sur les capacités d'une structure donnée à proposer une infinité de textes de surface, mettant le lecteur en position d'analyste de l' œuvre qu'il est en train de lire. – La littérature hypertextuelle illustrée notamment par Afternoon a story de Michael Joyce, mais représentée aussi par le cédérom de François Coulon, 20 % d'amour en plus, Jim Rosenberg (Diagrams) ou encore les nombreuses publications que l'on peut trouver sur le site d'Eastgate System et dont l'intérêt principal, bien au-delà de ce que l'on nomme l'interactivité, est d'intégrer le lecteur comme composante du contexte de l' œuvre avec tout ce que cela suppose de « jeu » sur l'interprétation, les places respectives de l'auteur et du lecteur, etc… Ce champ de recherche d'écriture, pour l'essentiel, représente ce que d'aucuns appellent de façon assez réductrice les « fictions interactives », considérant que ce qui s'y met en jeu est de l'ordre du choix des parcours dans une fiction considérée, à la suite des structuralistes, comme une suite ordonnée d'événements. Or ce qui s'y manifeste est bien plus que cela. C'est la réintroduction, dans un espace littéraire jusque -là rétréci et figé par la matérialité du livre, de l'ensemble des possibilités de « jeu » à cinq des significations que ce terme possède en français : le jeu comme engagement intellectuel d'un joueur qui, à chaque fois, approfondit sa compréhension des règles qui le sous-tend et, parfois, peut aller jusqu' à la compétition; le jeu au sens instrumental du terme, c'est-à-dire l'utilisation, à des fins d'expression personnelle, d'un instrument conçu et construit par d'autres; le jeu au sens d'espace plus ou moins libre permettant le mouvement des pièces d'une machine où intervient la notion essentielle d'aléatoire; le jeu au sens théâtral du terme, c'est-à-dire l'implication psycho-corporelle d'un lecteur dans le texte produit par un autre; le jeu au sens de diversité des formes que peut revêtir un ensemble créatif, la mise au premier plan de la variation, du même et du différent… La reprise en compte, grâce au médium numérique, de l'ensemble de ces possibilités ouvre de très nombreuses possibilités d'expressions qui projettent définitivement la littérature hors du livre et en font un espace à nouveau ouvert comme le montrent d'autres types de productions littéraires, par exemple : la littérature générative, dont je suis un ardent promoteur, qui a pour particularités de proposer la lecture d'une infinité de textes sur un thème donné ou une infinité de variations autour de la conception d'une œuvre donnée comme on peut en lire sur divers sites dont www. labart. univ-paris8. fr ou celui de l'écrivain français Maurice Regnaut ou www. trajectoires. com pour ce qui concerne mon roman Trajectoires; la littérature que je propose d'appeler « spectaculaire » où le texte, génératif, interactif, dynamique, se combine en temps réel avec d'autres propositions : danse, théâtre, musique, opéra… pour produire, à chaque participation ou représentation, des propositions originales : Trois mythologies et un poète aveugle avec Jacopo Baboni-Schilingi, Henri Deluy, Joseph Guglielmi; Labylogue avec Maurice Benayoun et Jean-Baptiste Barrière; MéTapolis avec Jacopo Baboni-Schilingi et Miguel Chevalier; Barbe Bleue avec Michel Jaffrennou et Alexandre Raskatov… Le texte devient un élément constitutif d'un spectacle dans lequel, à des degrés divers, le spectateur – le « percepteur » comme je propose de l'appeler pour pointer cette neutralisation des médias…– devient partie prenante. Tous ces exemples ne suffisent cependant pas, et il aurait fallu évoquer ici toutes les expérimentations que des écrivains – y compris parmi ceux considérés comme « classiques », de Stephen King à François Bon en passant par Jacques Jouet ou Renaud Camus… – explorent, en ce moment même, sur l'internet : works in progress, ateliers d'écriture, œuvres participatives, collaborations à des degrés divers… toutes propositions montrant à l'évidence que le médium ordinateur est en train, sous nos yeux, de faire éclater les repères habituels qui ont défini la littérature dans son rapport étroit au livre pour les générations qui nous précèdent. Désormais, la littérature est définitivement sortie du livre. Le texte – du moins ce que l'on a l'habitude de désigner ainsi – abandonnant ce volume étroit, étriqué même, avec ses conventions si habituelles que nous les avions ignorées en tant que telles, conquiert de nouveaux espaces, y gagne de nouvelles libertés, y découvre des possibilités d'expression inédites et, avec elles, une nouvelle vitalité qui en fait un territoire jeune, certes encore un peu confus et désordonné, mais par suite foisonnant, cherchant à mettre en place un nouveau dispositif dont tous les acteurs – auteur, lecteur, éditeur, diffuseur… – doivent réinventer leur rôle. L'e-book n'est peut-être que le dernier signe de résistance car tout indique que, demain, la littérature envahira tous les écrans, que ce soient ceux des salles de spectacle, ceux qui rythment les activités citadines ou ceux qui, demain peut-être – mais je ne crois pas que ce soit là un délire de science-fiction – constitueront les murs virtuels de nos appartements. L'histoire littéraire nous ayant amplement montré que la littérature dépend, dans ses formes et ses thèmes, de l'ensemble des éléments constitutifs de son dispositif (la littérature épique, par exemple, est étroitement liée à ses formes orales, le roman aux contraintes concrètes du livre…) qui, aujourd'hui, peut prédire de quoi elle sera faite et vers quels horizons inédits elle conduira ses lecteurs ?
La recherche de nouvelles écritures est confrontée à des obstacles, au premier rang desquels figurent le livre et ses conventions héritées de 536 années d'existence. Pourtant, la littérature est largement indépendante de ce médium spécifique qu'est le livre, comme nous le rappellent les traditions ancestrales de l'oralité ou les recherches contemporaines de l'Oulipo. L'incursion de l'ordinateur dans la littérature a pour mérite majeur de l'avoir affranchie du carcan du livre, l'éclatement des repères usuels ayant pour l'essentiel réintroduit toutes les dimensions du jeu dans l'espace littéraire. Ce nouveau médium émancipe ainsi des possibilités d'expression qui ouvrent de nouveaux espaces de production, de la poésie cinétique aux littératures combinatoires, participatives, hypertextuelles, génératives ou spectaculaires, sans compter les formes inédites encore à paraître.
sciencesInfo_02-0446396_tei_DN_051_0009.tei.xml
termith-432-communication
Dans sa contribution, Marlène Coulomb-Gully (2009) a illustré son propos sur lesquestions de genre en lien au champ académique par le proverbe africain : « Tant queles lions n'auront pas leurs propres historiens, les histoires de chasseglorifieront les chasseurs » (ibid : page ?). Proverbe qui ,ici, est plus que de circonstance. En effet, nous nous proposons de tenter une miseen perspective des cours et des recherches sur le genre dans l'enseignementsupérieur au Sénégal et au sein des différents groupements (e.g. conseil, institut). Ensuite, nous en étudierons les effets dans lemilieu associatif français de femmes immigrées originaires de ce pays. Si le genre aété largement étudié et débattu outre-Atlantique et dans certains pays d'Europe –depuis quarante ans environ en France, comme en atteste la progression du nombre demanifestations scientifiques –, il n'en demeure pas moins un objet tout autantinterrogé dans d'autres sphères géographiques, tel le Sénégal. Aussi pour prolongerla réflexion amorcée par Marlène Coulomb-Gully, peut-il être intéressant deconnaître – sur un plan pédagogique et scientifique – ce qui se pratique àl'étranger, ce afin de proposer une cartographie en la matière. Mais nous ouvrironscet état des lieux à d'autres disciplines que les seules sciences de l'informationet de la communication. Connaître les recherches et enseignements sur le genre dansdes pays autres que la France nous semble une nécessité, notamment au vu des travauxliés avec l'immigration auféminin. Dernière précision, nous avons choisi le Sénégal en raison descollaborations entre nos groupes de recherche respectifs. Comme l'avait souligné Delphine Gardey (2004 : 193), « qu'elles soient épouses demigrants ou migrantes elles -mêmes, les femmes en migration [ont été] très peuconnues et étudiées alors même qu'elles [étaient] fortement discriminées et souventmenacées d'une très grande précarité. [… ]. Il [semblerait] donc souhaitable depromouvoir des analyses en terme de genre sur ces sujets ». Ceci posé, il noussemble fondamental de rappeler que le genre est devenu, en France, un objet derecherche à la mode ou en vogue dans différentes disciplines, objet qui seredécouvre, malgré le colloque de Toulouse de 1982, Femmes ,féminisme, recherches, considéré comme fondamental avec ses 800participant(e)s. C'est oublier également, parmi d'autres travaux, les recherches deMadeleine Guilbert (1946a, 1946b, 1947) sur le travail des femmes, publiées dans laRevue française du travail en 1946 et en 1947, qui sonttombées dans l'oubli et n'ont été signalées qu'en 1999, dans la première livraisonde la revue Travail, genre et sociétés (1999), par unentretien que la sociologue a accordé à Margaret Maruani et Chantal Rogerat (1999 : 7-20). Il y a vingt ans – voiremoins – qui aurait pris en France le risque (hormis quelques téméraires et malgré lecolloque de Toulouse dont les effets n'ont pas été ceux attendus), d'user de ce quine rentrait pas dans la norme instituée et d'en faire un objet de recherche avecjournées d'études, colloques et publications ? S'il ne s'agissait pas de frilosité ,il s'agissait, à n'en pas douter, de la volonté des pairs de refuser d'instituercomme objet d'étude ce qui devait rester cantonné à la sphère privée, à l'image desfemmes, des personnes porteuses de maladies invalidantes ou de handicaps, d'enfantsmaltraités, de prisonniers malmenés, de personnes âgées abandonnées, de travailleursimmigrés. .. À notre sens, c'est donc dans la mouvance des études et questionnementssur différentes formes d'exclusion et/ou sur des minorités que s'intègrent, pourpartie, les questions de genre. Au vu de la situation de précarité de nombreusesrégions du monde, on comprend mieux pourquoi de telles questions resurgissentmaintenant et interrogent la communauté des chercheurs-es en sciences humaines etsociales (shs). Du côté des études conduites sur les questions de genre, un premier constatsimilaire à la France s'impose : les personnes qui s'y intéressent sontessentiellement des femmes, enseignantes-chercheuses dans le domaine des shs, dont les disciplines – si l'on considère lareprésentation dans les colloques ou l'édition – sont en premier lieu, lasociologie, les sciences de l'information et de la communication, l'histoire ,puis l'économie, le droit et les sciences de l'éducation. De fait, les quelqueshommes qui y donnent une dimension genrée à leurs discours et interventions (lareconnaissance de la femme en tant que personne égale) appartiennentpratiquement tous à des mouvements associatifs militant pour cette cause. Ainsiles travaux de ces chercheuses, dont la plupart ont été présentés ou publiés enlangue anglaise, sont-ils quasi inexistants dans l'édition française ,indépendamment de ceux de Fatou Sow (1997a, 1997b, 2004a, 2004b, 2005) ,sociologue sénégalaise installée en France depuis 1998, et chargée de rechercheau laboratoire Sociétés en développement dans l'espace et dans le temps (sedet / cnrs). De même, lapublication de leurs travaux est très récente puisque ceux -ci n'ont étéréellement diffusés que depuis 2004, grâce au soutien du Conseil pour ledéveloppement de la recherche en sciences sociales (Codesria), dans la « Série sur le genre » ou Gender Series selon la langue utilisée (voir infra), et ce, hormis la production militante plusfoisonnante et réalisée au profit des organisations de la société civilesénégalaise (osc). Pourtant, les chercheusesafricaines se sont intéressées au sujet à partir des années 75, et ontappréhendé le genre selon deux perspectives. Pour celles qui, en 1977, ont crééà Dakar l'Association des femmes africaines pour la recherche sur ledéveloppement (Afard), il s'est agi de penser le genre d'un point de vueafricaniste, c'est-à-dire en opposition au « colonialisme intellectueloccidental » (Touré, 1997, texte en ligne). Pour ce faire, elles ont proposél'élaboration de méthodologies et de concepts sur l'approche du genre ,spécifiques à l'Afrique dans le cadre de programmes de recherche, le premier« Femme et développement » (Fed, 1990), et le second « Femme, genre etdéveloppement » (fin de l'année 1990). Ainsi ont-elles voulu marquer leuropposition à l'afflux de chercheurs-es de l'extérieur, c'est-à-dire venant despays occidentaux, estimant que ceux -ci – celles -ci – faisaient « des incursionsdans les pays africains pour recueillir de l'information sur les femmesafricaines, obtenir grades et promotions grâce à des publications élaborées pourdes lecteurs non africains et emporter à la fin dans leurs pays d'origine lesconnaissances acquises » (Touré, 1997, texte en ligne). À ce propos, lasociologue Fatou Sow (entretien avec les auteures, 21/05/07), a apporté descompléments d'information : « Ce que les chercheuses africaines disent, c'est que lesAfricaines doivent en toute autonomie mener les études sur elles -mêmes. Ce quenous avons revendiqué, de même que nombre de chercheurs africains sur l'Afrique ,c'est notre droit légitime et notre priorité à mener notre propre recherche surnous -mêmes. Toute production de connaissance est fondée sur des rapports depouvoirs. L'Occident ‘ ‘ dominant' ' a du mal à comprendre l'importance du regardde soi sur soi, quand on a été l'objet du regard de l'autre sur soi en tout .L'Occident ne nous met pas dans les mêmes catégories du savoir. C'est difficilede subir le discours au discours de l'anthropologie sociale, économique ,juridique ou politique voire médicale, de l'ethnohistoire, etc. Des conceptsspécifiques ont même été créés pour les autres : tribu, dialecte, mythe ,tradition, etc. Les Africaines ont perdu énormément de temps à s'opposer audiscours de l'autre, juste pour en vérifier la légitimité et se faire une place .La légitimité du regard, c'est toute la question posée ici ». C'est dans cette perspective et avec le soutien du Codesria qu'elles ontorganisé, en septembre 1991, un colloque intitulé « L'analyse de genre et lessciences sociales en Afrique », où le genre fut questionné sous l'angle dualistesuivant : opposition entre sexe masculin et sexe féminin d'un point de vuephysique et/ou comportemental; dominant/dominé, le dominé étantsystématiquement une femme, une adolescente ou une petite fille. Cette approches'inscrivait alors dans leurs revendications de femmes chercheuses, maiségalement de militantes. Celles -ci étaient reliées au contexte culturel, socialet politique dont elles voulaient s'émanciper, malgré certaines avancées quifaisaient qu'elles n'étaient plus, comme dans les années 70, apriori enfermées dans une entité unifiée : celle de la femme .Désormais, semblaient gommées les différences contre lesquelles elles s'étaientbattues, comme celles des milieux et des cultures, en référence aux ethnies ,croisées aux classes sociales, elles -mêmes à entendre comme les rapports auxcastes, c'est-à-dire les corporations héréditaires de métiers ayant toujoursjoué un rôle social et religieux important dans la société traditionnelleafricaine. En 1991, ces chercheuses entendaient donc le genre au sens de lutte et deconflits entre les deux sexes et plaidaient pour l'adoption de la parité : dansla sphère privée, avec l'abolition de l'excision, du mariage précoce et/ouforcé, la scolarisation des petites filles et des adolescentes, la condamnationpar la loi des violences et des châtiments physiques et psychologiques exercéssur les femmes. Et, dans la sphère publique, avec l'accès à la formation et àl'emploi pour le sexe féminin au même titre que le sexe masculin. Dans la mêmemouvance, le Conseil sénégalais des femmes (cosef) aété créé. Il regroupe des femmes de tous les partis politiques (ainsi que cellesn'appartenant à aucun parti) pour faire avancer des revendications spécifiquestel l'accès aux instances de décision et à la parité dans la sphère publique .Mais, ce n'est qu'en 1997, avec la première publication de ces échanges enlangue anglaise, Engendering African Social Sciences (Imam, Mama, Sow, 1997a) – puis, en 2004, pour la version française – que leurspropos (qui demeurent les mêmes qu'en 1991, malgré une relecture supposée) ,étayés d'exemples et d'analyses variées, ont véritablement intégré une sphèreplus élargie. Comme l'a fait remarquer Fatou Sow (2004a : 11) en avant-propos del'ouvrage publié en langue française, ceci a permis de démontrer les « percées ,[ …] mais aussi les difficultés et les résistances de la production à prendre encompte la question des femmes et des rapports d'inégalités entre les sexes ». Etsi, aux dires des chercheuses qui ont contribué à cet ouvrage, un fondsbibliographique sur le sujet a commencé à se constituer en 2003, de manière plusimportante, avec des mémoires de maîtrise, des thèses et des articlesscientifiques, il a été peu ou pas utilisé dans l'enseignement ou la recherchedes universités africaines (Imam, Mama, Sow, dirs, 1997b), notamment au Sénégal .Pour illustration de la difficulté que les femmes africaines en général ont eu àse faire entendre dans d'autres sphères que celles de la famille et celle dudomestique, elles ont choisi celui de « l'intellectuelle africaine ». Parcequ'elles n'avaient pas les mêmes droits que les hommes et qu'elles n'étaientacceptée « dans le cercle des initiés, [qu' à la condition] qu'elles seconforment au discours dominant [discours masculin] et qu'ellesl'approfondissent [Sinon] les critiques pleuvaient : péché grave de féminisme ;mythe de la persécution; manque de rigueur et d'objectivité scientifiques ;mimétisme et occidentalisation, renforcement de la perception raciste del'Occident; négation de la culture et perte de l'identité africaine; remise enquestion de la distribution traditionnelle des rôles sociaux; illégitimité dudroit de parler au nom des autres femmes, notamment rurales, analphabètes ,pauvres… » (Sow, 2004b : 48). De surcroît, elles ont noté que ce « genre » de femme (intellectuelle) étaitminoritaire, en raison des inégalités historiques et sociales dans l'accès auxsavoirs (école et université). De fait, la majorité des spécialistes en shs ont toujours été des hommes (et le sont encore) ,lesquels, selon la chercheuse en droit et économie Ayesha M. Imam (1997b : 29) ,ont mis « souvent à profit leur supériorité numérique et leur contrôle sur lespostes clés pour, à la fois, faire de la discrimination des femmes [… ], protégeret continuer à […] perpétuer la domination de genre ». Par ailleurs, desanalyses plus fines de la société sénégalaise ont contribué à faire la preuvedes défauts du système colonial qui avait favorisé la scolarisation des hommesau détriment des femmes. En effet, ceux -ci étaient impliqués dans les culturesdites de rente (e.g. cultures de l'arachide) et devaientservir d'intermédiaires auprès de négociants : il était donc indispensable deles « éduquer ». De fait, les femmes maintenues dans la sphère privée, mêmependant les deux premières décennies de l'Indépendance, n'ont pu accéder auxpostes clés laissés aux hommes en raison du niveau d'instruction qu'elles nepossédaient pas et dont, en revanche, les hommes avaient pu bénéficier .Néanmoins, quarante ans plus tard, certaines chercheuses sénégalaises ontobservé le même phénomène et ont pensé qu'il n'était évidemment plus possible del'expliquer par la colonisation, mais d'ouvrir d'autres pistes de réflexion. Ce n'est véritablement que depuis 2004 que les questions de genre ont pris formeà l'université Cheikh Anta Diop de Dakar dans le cadre de la création dulaboratoire Genre de l'Institut fondamental d'Afriquenoire, dirigé par la sociologue Fatou Sarr, grâce à l'appui du Programme desNations-Unies pour le développement (pnud) et duCentre de recherches pour le développement international (crdi). Ce laboratoire travaillant plus spécifiquement sur lasociologie de la famille et les rapports sociaux de sexe n'a réellement commencéà fonctionner que depuis mars 2007, et s'est désigné comme lieu de coordinationentre différents partenaires intéressés par cette thématique (chercheurs-es dedifférentes disciplines, étudiants, mais également acteurs du monde politique –représentants élus de la République, etc. – et/ou associatifs). S'en est suivie ,en 2008, la création du laboratoire Femmes, société et culture qui, via la formation doctorale « Philosophie etrationalités » de l'école doctorale Études sur l'homme et la société (et. ho. s), a établi plusieurs séminaires annuels, l'accent étant mis surl'état de la recherche féministe, essentiellement les rôles et représentationsde la femme dans la société africaine. À noter l'implication forte des sciencesde l'information et de la communication via le Centred'études des sciences et techniques de l'information (cesti) sur lesquestions de genre, puisque depuis 1995, dans le cadre du premier cycle ouvert àla formation de journalistes, Eugénie R. Aw Ndiaye dispense en deuxième ettroisième années, deux cours respectivement intitulés « Genre et démocratie » et« Démocratie et médias : intégrer l'analyse de genre ». Les objectifs principauxsont de familiariser les étudiants « aux enjeux de l'information et de lacommunication dans une perspective de genre appliquée à la démocratie en Afrique[ … ], de mieux appréhender la formation de la différenciation hommes-femmes etson incidence dans les sphères privées/publiques [… ], et de développer desoutils d'analyse et d'intégration du genre dans la production médiatique »( informations en ligne sur le site du cesti, consultéle 24/03/09). Outre ces deux laboratoires et les formations dispensées au cesti, le Codesria installé à Dakar a été précurseur en la matièrepuisqu'il a été à l'origine de nombreuses actions sur le genre, notamment avecla création d'un Institut sur le genre en 1996, initié, pour partie, par la sociologueFatou Sow, consciente de l'impossibilité de développer de tels enseignementsdans le cadre de l'Université, l'institution portant – comme en France – uncertain mépris à l'émergence de telles problématiques. Il n'empêche : grâce auxactions du Codesria, le Sénégal est devenu, dans ce domaine, une plate-formepilote et expérimentale intéressante. Chaque année, y est proposée unemanifestation de quatre à six semaines regroupant une quinzaine de chercheursafricains, avec pour objectifs, une sensibilisation à ces questions, uneformation destinée à renforcer certains aspects théoriques et méthodologiques ,la rédaction d'un article à l'issue de la formation et sa publication. Ce sontdonc ces formations (depuis 1997) ainsi que la politique de publication (depuis2004) conduite par le Codesria, qui ont – pour partie – concouru, dix ans plus tard, àl'ouverture des premiers séminaires et enseignements relatifs au genre au seinde l'université Cheikh Anta Diop. Si le Codesria n'avait pas pris cetteinitiative, l'université n'aurait sans doute pas réussi à engager de telsprogrammes, même si ceux -ci demeurent évidemment minoritaires, peu ou mal connuset à l'initiative essentiellement de femmes. De fait, des résistances demeurent ,sans doute en raison de la crainte du développement d'un féminisme quirisquerait de remettre en cause certains éléments fondamentaux de la sociétésénégalaise (voir infra). À signaler égalementl'existence du « Réseau africain pour la promotion de la femme travailleuse » (rafet) dirigé par Amsatou Sow Sidibé, professeurede droit privé à l'université Cheikh Anta Diop de Dakar (1997), directrice desdroits de l'homme et de la paix et membre référent du « Réseau Genre, droits etcitoyenneté » (1989), lequel est rattaché à l'Agence universitaire de lafrancophonie. Bien implantés au Sénégal, ces réseaux regroupent un nombreimportant de chercheurs-es de tous les continents qui ne se positionnent pasdans une perspective uniquement africaniste comme le font certaines chercheusestrès engagées par rapport à leur africanité et leur histoire (dont le Cosderiaqui limite ses formations aux seuls-es chercheurs-es africains-es), maistentent, au contraire, d'articuler aux questions de genre des points de vueculturellement différents. Ce qui nous conduit, dès lors, à tenter de dégagerles définitions attribuées au genre en shs auSénégal. À lire et entendre les différentes actrices (et les quelques acteurs) du genre auSénégal, un point de convergence apparaît, celui de la place centrale accordée àla femme, et par effet le rôle sexué du genre. Ainsi la plupart deschercheurs-es entendent-ils le genre comme les rapports sociaux de sexe quidéterminent les statuts et les rôles sociaux des êtres humains dans une sociétédonnée, tout en rappelant que le terme lui -même renvoie aux questions et auxrevendications posées par les femmes, du fait de leur position défavorable :féminisation de la pauvreté, accès réduit à l'éducation, accès limité audomestique, etc. Il semblerait donc que l'on se situe davantage dans uneapproche femmes que dans une approche ayant trait au genre. Par effet, lesfemmes sont toutes représentées ou pensées comme une entité homogène et figéeintemporellement. Même si les chercheuses sénégalaises ont une connaissance trèsfine de ce qui se fait ailleurs, la question ne peut pas, selon elles, se poser( encore ?) dans les mêmes cadres conceptuels, non seulement en raison de lasituation effectivement précaire de nombreuses femmes et des stratégies desurvie qu'elles développent pour compléter les revenus de leur famille, maisaussi en raison de critères culturels autres qu'elles défendent (maternité ,famille, soins aux personnes, etc.). Cela ne signifie pas pour autant qu'ellesentendent le genre comme une opposition systématique masculin/féminin ouhomme/femme, mais elles l'envisagent en termes de partenariat, d'interdépendanceet de complémentarité, notamment dans la sphère privée. D'ailleurs, au sein desassociations et des réseaux, les femmes jouent leur partition sans pour autantne jamais mettre en avant une quelconque comparaison avec les hommes dont ellesrecherchent plutôt la complicité; la plupart des associations ont leur gooru mbotaay (littéralement le terme signifie « homme del'association », en référence aux associations traditionnelles, espaced'évolution spécifique des femmes). De plus, il est courant d'entendre certainesfemmes faire l'éloge de leur conjoint qui, par leur ouverture d'esprit, leurpermet de militer. Ainsi la plupart des formations, séminaires et publications cherchent-ils àplacer la femme au centre des questionnements, à rendre visibles leurs actionset leurs rôles dans la société, et les changements qu'elles y ont induit ,notamment par le développement de la micro-économie et la prise en chargeéconomique de la famille jusqu'alors dévolue à l'homme. Pour ces chercheuses, iln'est pas non plus question de considérer le genre comme un objet de lutte entrehommes et femmes, mais « de déterminer le statut de la femme et son rôle social[ … ], pour qualifier les actions contre les agissements défavorables à la femme .Le genre, c'est lutter pour que le droit de la femme soit promu et se battrepour une amélioration, une protection des droits des femmes : par exemple, lalutte contre le mariage précoce, contre les violences physiques, la lutte pourune législation plus équitable » (entretien entre A. Sow Sidibé et les auteures ,13/11/06). C'est dans cet état d'esprit qu'a été organisé par le « Réseau Genre ,droits et citoyenneté », et plus précisément par Amsatou Sow Sidibé, les 25, 26et 27 avril 2006, le colloque « Genre, inégalités et religion » à l'universitéCheikh Anta Diop. Cette manifestation a rassemblé des chercheurs-es au niveauinternational, des représentants politiques du Sénégal, des leaders religieux chrétiens et musulmans, des militants des droits dela femme, des étudiants et des membres d ' ong. Elle amarqué la première étape d'une réflexion, déjà à l' œuvre, autour du matriarcat ,du pluralisme politique et de la conquête du pouvoir par les femmes. Mais elle asurtout eu pour effet – certes, en concordance avec le combat mené pardifférentes autres organisations de femmes et des syndicats – la mise en place ,en novembre 2006, de la réforme du statut des femmes « travailleurs » ousalariées au Sénégal. Ainsi celles -ci ont-elles obtenu le droit d'offrir unecouverture sociale à leur époux et leurs enfants (au même titre qu'un hommesalarié). Si ce colloque n'a pas fait l'unanimité du fait de la présence dereprésentants politiques et religieux – comme en a témoigné Fatou Sow (entretienavec les auteures, 30/04/07) : « Je ne sais pas si une telle réunion présidéepar le président de la République [Abdoulaye Wade] va aller au fond des choses .[ Car] la majorité des participants n'ont pas eu de discours critique del'islam » –, il a été la preuve d'une avancée importante dans l'évolution desmentalités et des comportements. Certes, en théorie, hommes et femmes ont les mêmes droits au Sénégal. Cependant ,la discrimination se déroule dans la pratique quotidienne et dans l'applicationdes non-dits sociaux. Les études menées sur l'histoire des sociétés sénégalaisesont tenté de comprendre le fonctionnement de celles -ci du point de vue desrapports entre hommes et femmes. Si personne ne peut dire que l'histoire permetde comprendre, de manière absolue, la réalité de ces rapports sociaux, l'analysede la trajectoire historique (ici, on retiendra tous les événements marquantstels que l'introduction de l'Islam et la colonisation) montre comment la sociétéa pu prendre en compte, assimiler et faire siens des apports nouveaux et met enlumière la façon dont les traditions se construisent. Force est donc deconstater que ce que l'on présente comme étant « la Tradition » n'est pasimmuable et qu'il suffit de bien étudier et de suivre le cheminement historiquedes sociétés pour pouvoir en faire l'archéologie. Dans le cas des sociétéssénégalaises, il est possible, par exemple, de voir comment, progressivement ,avec la mise en place du système colonial, les femmes ont intégré la « sphèreprivée ». Au moment des indépendances, la littérature autour de la femmeafricaine l'a présentée comme étant confinée au foyer. Ce cadre est devenu sasphère principale d'évolution, alors que ce n'était pas le cas avant cettesituation politique. Malgré les polémiques dans la manière d'user du genre pour tenter de faireaboutir des revendications féminines, la plupart des chercheuses partagent lesouci de confronter et croiser leur travaux avec d'autres chercheurs-es et à nepas rester cantonnées dans l'espace panafricain. Elles estiment que la recherchesur le genre qui se fait, par exemple au Sénégal, même si elle se pratique dansune perspective qui tient compte des réalités de ce pays, intéresse les femmesdu monde entier, car les droits des femmes sont universels, même si lesdiversités culturelles sont à prendre en considération : « La recherche sur uncontinent, comme l'Afrique ne doit pas être ‘ ‘ ghettoïsée ' '. C'est la‘ ‘ civilisation du donner et du recevoir ' ', comme l'a toujours prôné LéopoldSédar Senghor qui doit nous guider en matière de recherche sur le genre »( entretien avec A. Sow Sidibé, 13/11/06). L'échange et la confrontation avec deschercheurs-es de tous horizons sont, pour elles, une opportunité qu'avait déjàévoquée en 1997 la sociologue Marèma Touré (texte en ligne) lorsqu'ellerappelait aux « féministes du Nord et du Sud qu'elles n' [avaient] pas encore lesmoyens de renoncer à la sororité, [qui] pour être durable et pérenne, ne[ pouvait] que reposer sur la compréhension mutuelle et le respect des intérêtsdifférentiels des unes et des autres ». Cependant, encore aujourd'hui, persiste cette approche africaniste qui se veutradicale au regard de l'Occident, au sens où les questions de genre en Afriquedoivent relever de la recherche faite par des Africains (voir supra). Outre l'héritage du colonialisme, cette prise de position està relier au fait que pour ces chercheuses, les questions de genre en Occidentsont associées à une forme de féminisme très militant et que ce militantisme aune signification péjorative en Afrique. Dès lors, si féminisme il y a, il doitêtre défini dans le contexte africain et au prisme des cultures africaines :pour illustration, il n'est pas inconvenant, même pour les femmes les plus« féministes », de revendiquer que celles -ci se réservent certaines tâches( ménage, maternage, cuisine, etc.) et que les hommes en assument d'autres( travail à l'extérieur, travaux de force, etc.). Pour les femmes africaines( chercheuses ou non), le terme « féminisme » renvoie facilement aux idéesnégatives et critiques que les occidentaux portent sur leur manière de vivre etsur leur façon d'entendre les rapports sociaux de sexe (qui ne sont pas lesmêmes en Afrique). En quelque sorte, c'est le corollaire de que ce qu'a connu laFrance concernant le développement des questions de genre dans le champuniversitaire dans les années 80-90, voire avant, la relation étant faite avecle féminisme nord-américain estimé sectaire et radical, et ayant pour effet ladisqualification et la non-reconnaissance scientifique du genre. Ainsi, pourillustration de cette crainte d'un féminisme occidental qui déteindrait surl'Afrique, voici comment Sira Diop – présidente pendant plus de vingt ans del'Union nationale des femmes du Mali – expliquait, en 1994, pour un articlerédigé par le journaliste canadien, Robert Bourgoing ce qu'elleentendait par féminisme : « Si être féministe c'est lutter pour les droits des femmes ,oui, je suis féministe. Mais le féminisme africain n'a rien à voir avec leféminisme occidental. Nous n'essayons pas d'imiter les Européennes ou lesAméricaines. Nous, nous ne brûlons pas nos soutiens-gorges. Ce n'est pas enbrandissant des machettes que nous allons changer les choses. Nous nerevendiquons même pas l'égalité des droits avec les hommes. Tout ce que nousvoulons, c'est plus de droits et un peu de temps libre ». Aussi, quelles que soient les approches, africanistes ou non, ce que défend cettemilitante se retrouve -t-il quinze ans plus tard au cœur des débats sur lesquestions de genre au Sénégal : parité et reconnaissance institutionnelle destâches attribuées de fait à la femme et cantonnées, pour la plupart, à la sphèredomestique et privée. Dès lors, les questionnements posés et les recherches menées sur le genre avecpour objectif majeur « la place de la femme dans… » relèvent essentiellement detrois domaines. D'abord, l'économie où les études portent sur l'analyse desstratégies développées par les femmes, stratégie qui leur permettent oud'assurer les revenus de la famille ou leur indépendance, et les dispositifs( surtout juridiques) à mettre en place pour rendre visible, reconnaître etaméliorer leur situation. Les femmes qui assurent « la dépense quotidienne »sont effectivement de plus en plus nombreuses. En raison des difficultéséconomiques, elles sont sorties de la sphère privée pour se projeter dans lasphère publique. Même si les mentalités ne changent pas radicalement dansl'imaginaire sénégalais où la femme continue à être perçue comme celle qui, ausein de la société, doit jouer un rôle cantonné au privé – lequel doit demeurerimmuable – il en est tout autrement dans le fonctionnement quotidien de lacellule familiale, car la femme joue un autre rôle, celui de chef de famille .Celle -ci ne se trouve donc plus réellement sous l'autorité absolue de son mari. Cependant, pour rentrer dans le schéma tracé par la société, la femme faitsemblant de rester cantonnée dans le rôle de celle qui est soumise à son époux ,parce que, en théorie, il est celui par lequel passe son salut aussi bienici-bas que dans l'au-delà (selon une interprétation superficielle et populairede la religion musulmane). Ici, on observe un jeu de rôle très intéressant dansles rapports sociaux homme/femme. Vient ensuite l'éducation parce que denombreuses femmes n'y ont pas eu accès et que certaines petites filles n'y onttoujours pas accès. Par conséquent, les analyses genre-éducation s'inscriventdavantage dans une forme très militante, celle des revendications pour le droità l'instruction et la démocratisation du savoir, notamment technique etscientifique : « Cette exclusion des femmes de la science commence [dèsl'enfance] au cours de laquelle les identités féminines sont déterminées, desorte à reproduire une idéologie encourageant le repli vers la domesticité et lerefus des sciences et techniques. Ceci entraîne la construction de stéréotypes ,qui éloignent les femmes des fonctions scientifiques et des métiers techniques .[ … ]. Bien que certaines avancées […] en matière de science et de technologieaient apparemment accordé davantage de responsabilités aux femmes dans desdomaines spécifiques, la logique de la domesticité qui a servi de cadre à laplupart de ces avancées, a plutôt produit l'inverse, car le fossé entre hommeset femmes, dans le domaine de la science et de la technologie ne cesse des'agrandir » (Codesria, 2003). Enfin, celui de la violence exercée à l'encontre des femmes (physiques – commel'excision – ou psychologiques, au sein du couple par exemple) demeure un axeimportant. En effet, ces questions ont été portées sur la place publique, toutau long des années 90, via le milieu associatif etmilitant, et ont fait l'objet de nombreux débats et tables rondes. Au point quele pouvoir a voté une loi pénalisant la pratique de l'excision dès le 29 janvier1999. Ceci a constitué une réelle avancée, même si cela ne signifie pasl'abandon complet de cette pratique dans la sphère privée. Et même s'il y a peude publications académiques sur ce sujet, les femmes sénégalaises sontconscientes de cette réalité et ne cherchent nullement à la nier. Par ailleurs ,la sociologue Fatou Sow ou la juriste Amsatou Sow Sidibé portent ces questionsde la violence dans des colloques hors de l'Afrique, des ouvrages publiés dansdifférents pays (Canada, France, etc.) ou la presse sénégalaise. On peutaffirmer que la question a fortement changé depuis la conférence mondiale desfemmes de Copenhague de 1980, qui avait été le théâtre de véritablesaffrontements entre femmes africaines et occidentales (Touré, 1997, texte enligne), concernant notamment l'excision. La grande majorité des premières (éliteet milieux populaires africains) estimait alors que ces pratiques jouaient « unrôle déterminant dans le processus de socialisation de l'enfant, [dans] l'accèsau statut de femme adulte et [surtout à] la construction d'une identité féminineethnique » (ibid.), alors que les secondes (lesoccidentales) en demandaient l'arrêt immédiat. Sans doute aussi parce que « lesdébats autour de cette question étaient […] entachés d'interdit, de tabou, depudeur et de répugnance » (Sow, 1997b, texte en ligne) et que le constat étaitalarmant. Il a fallu attendre la conférence de Beijing (1995), essentielle àplusieurs niveaux pour le droit des femmes africaines, car elle a condamné, àl'unanimité cette fois -ci, les mutilations sexuelles féminines, le droit de neplus être discriminée en fonction de son sexe, « de ne plus être mariée à 9 ans ,de ne pas [subir] de grossesse précoce, de ne pas être violée par un membre desa famille ou un étranger, […] ou d' être l'objet d'héritage lors du décès duconjoint (lévirat) » (ibid.). C'est pourquoi les échanges entre chercheurs-es de différentes cultures sur cesthématiques sont essentiels : ils permettent de faire tomber des barrières et delever un grand nombre de stéréotypes, d'un côté ou d'un autre. À l'image, parexemple, des travaux de la philosophe Elsa Dorlin (2006 : 13), qui a démontrécomment depuis le XVI e siècle, la politique et la sciences'étaient mutuellement co-construites en relation avec les questions de genrepour exclure, du corps social, les femmes – prostituées, nourrices, mères ,Africaines – mais aussi tous ceux qui ne correspondaient pas aux schèmesclassiques de l'époque coloniale, comme la figure de l'homme noir. Assimilés« au tempérament féminin, au ‘ ‘ naturel ' ' des femmes » (ibid. : 223) – ce qui conduira, par la suite, à la racialisation despeuples et à la soumission au dominant (le colon) – ces hommes, soumis àl'esclavage, avaient été relégués au rang, très subalterne, de la femme ! Demême, la philosophe a apporté un éclairage neuf sur l'histoire des mutilationssexuelles, en expliquant qu'elles n'étaient pas cantonnées au seul espacegéographique africain, et en révélant que des médecins tels Léon l'Africain( vers 1525) et Ambroise Paré( 1575) importèrent la pratique dès le XVI e siècle en Europe. De même, elle souligne qu'en France, laclitoridectomie n'était pas exceptionnelle, mais au contraire était préconiséeafin de « discipliner les femmes à la sexualité débridée » (ibid. : 76). Enfin, pour en revenir à cette voie de l'échange, il estintéressant de regarder comment, en France, des femmes originaires du Sénégal ,regroupées en associations ou proches de mouvements collectifs de femmesimmigrées vivant dans les banlieues (e.g. Ni Putes NiSoumises), se sont ou non appropriées les questions de genre en lien à leurspropres revendications. Au début de leur entrée sur la scène publique, les mobilisations collectives desfemmes immigrées à l'image du mouvement Ni Putes Ni Soumises (npns) se sont orientées vers un aspectdifférentialiste, pour ensuite se concentrer sur des positions politiques etsociales de préférence a-genrées, le genre étant entendu comme la différence dessexes et compris dans une perspective dualiste. C'est pourquoi, si l'onconsidère le genre sous la forme opposition homme/femme ou plutôt la femme commepoint central dans les questions de genre, on constate que certaines femmesimmigrées d'Afrique de l'Ouest en ont usé pour dénoncer la domination masculineavec le mariage précoce ou forcé, les punitions et les châtiments corporels, lepeu d'initiatives qui leur étaient accordées et, exceptionnellement, lesséquestrations et viols. Précisons néanmoins la complexité de ces façons d'agirou d' être qui ne sont pas le seul fait des hommes et relèvent tout autant desavoir être perpétués par des femmes immigrées vivant en France, ayant décidé derespecter certaines traditions, comme les mutilations sexuelles féminines ou lemariage forcé, et acceptant de conférer à l'homme le devoir de dominer. Mais cesfemmes n'ont jamais revendiqué stricto sensu le genrepour faire entendre leurs revendications; elles n'ont jamais usé de ce termedans leurs témoignages ou autres discours publics. Elles ont même cherché àgommer toute éventuelle appartenance à un regroupement féministe, justement pourse démarquer des mouvements féministes existants tels que le Mouvement delibération des femmes (mlf), Les Chiennes de Garde ouLa Meute. Pour illustration, les porte-parole de npns ont toujours expliqué que leur mouvement n'avait rien à voir avec un mouvementféministe, ni même avec des questions de genre, du fait qu'elles avaientd'emblée associé ce questionnement à une analyse sexuée dont elles ne voulaientpas : « Il faut cesser […] de n'envisager le combat qu'en terme deguerre des sexes. [Car si] cette phraséologie a probablement été utile, dans lesannées 70, pour mener la bataille de l'égalité, [… ], aujourd'hui, cela n'a plusde sens. […] Je pense qu'il faut […] garder un discours universaliste, enconsidérant les hommes et les femmes comme des citoyens ayant les mêmes droits .Pour moi, la citoyenneté n'a pas de sexe. [… ]. Les groupes féministes existantsdoivent comprendre que […] l'urgence, c'est la question sociale [et] je regretteque ces mouvements l'aient oublié » (Amara, Zappi, 2003 : 121). Effectivement, les pratiques argumentatives des paroles de ces femmes immigréeset militantes n'ont intégré que très partiellement un schéma discursif sexué etféministe. Ainsi l'argument explicite par le genre du locuteur (Bonnafous, 2003 )du type : « en tant que femme, je peux apporter un plus à la cause des citoyensdes quartiers » n'a -t-il jamais été utilisé publiquement par les unes et lesautres, ce qui fait qu'il n'est pas possible de dire qu'elles ont usé de leuridentité sexuelle (ou du genre entendu comme genre féminin), pour se faireentendre. Évidemment, ceci ne signifie pas que ce type d'argument n'a pas étéutilisé dans les sphères privées (famille, groupe d'amis, groupe de militants seréunissant de manière informelle, etc.) : cela est invérifiable, à moins devivre au quotidien avec ces femmes. En revanche, le non-usage de ce typed'argumentation, en public, a constamment primé au sein de ces groupes ,l'identité sexuelle n'étant pas au fondement de leurs stratégies. Quant à« l'argument indirect par le genre qui consiste à exprimer des préoccupations oudes qualités réputées féminines » (ibid., 2003 : 141) ,il a également été absent des propos. Néanmoins, s'il s'agit ici du souci duquotidien et d'autrui, du pragmatisme et du sens de la vie, ces femmes ont uséde ces développements. Mais peut-on affirmer que ces référents soient sexués etrelèvent de qualités réservées aux femmes ? Il semble que, dans ces cadresassociatifs et militants, le raccrochement à ces thématiques n'est pas sexué etpeut être l' œuvre de tout individu. En outre, pour ces femmes, prétendre queleur parole, parce qu'énoncée par une femme, aurait des vertus particulières –douceur, écoute, bienveillance – est un faux débat. En revanche, ces militantesqui ont agi pour faire entendre qu'elles n'étaient pas seulement « les femmesde… », c'est-à-dire des femmes d'immigrés (venues avec leur époux ou pour lerejoindre), ont parfois fait usage de procédés telle la victimisation, et sesont inscrites dans une stratégie rhétorique de la parole particulière, celle dupathos, avec un ensemble d'expériences et d'épreuvesvécues, médiatisé via le registre de l'émotion et lareprésentation de stimuli. En outre, rappelons que ,depuis plusieurs années, les femmes sont de plus en plus nombreuses dans lemilieu de la migration internationale. Elles émigrent en leur propre nom, et àpartir du moment où elles contribuent au même titre que les hommes aux chargesde leur famille restée au pays, une mutation dans les rapports au sein de lafamille et de la parenté s'opère. En effet, ces femmes n'entrent plus dans lacatégorie des « dépendants »; elles ont « leur mot à dire » dans les décisionsmajeures concernant la famille ou le groupe familial. C'est la raison pour laquelle l'exemple des femmes immigrées et regroupées encollectifs ou association incite à penser le genre autrement que dans unedimension binaire. L'historienne Michelle Perrot (2004 : 226-227) avait déjàabordé l'objet différemment en déclarant que « le genre [n'était] pas le sexe »et que poser la question du genre, c'est regarder les choses autrement : laguerre, la politique locale, voire d'autres critères tels que la classe sociale ,la nationalité, la religion ou l'orientation sexuelle. Repenser le genre pour sedégager de l'ancrage dualiste qui enferme la réflexion, la stéréotype etentretient une sorte de glissement permanent entre sexe et genre, sans autreouverture possible, est indispensable. Le genre appréhendé nouvellement peutinclure le caractère, les habitudes, la disposition de l'esprit. Déconstruire legenre de manière dualiste ouvre d'autres perspectives pour situer les individusles uns par rapport aux autres et comprendre les rapports qu'ils ont au-delà deleur sexe : politique, social, identitaire. Dans un contexte plus militant etengagé, cette réflexion renvoie aux travaux de la philosophe Judith Butler( 2005, 2006), parce qu'elle a été l'une des premières, à la suite de MichelFoucault (1976, 1984a, 1984b), à développer la notion de gender trouble, à inviter à conserver une confusion et une profusiondes identités, à bouleverser les approches classiques pour envisager le genrecomme une variable susceptible de changer selon le contexte. Au fond, elle aestimé que le genre n'était qu'un jeu de rôle qui pouvait varier au cours d'unevie. Ainsi les femmes militantes immigrées ont-elles, à leur manière, défenduune autre façon de penser le genre. Pour elles, le genre intègrerait lesrapports politiques et civiques de domination, voire les conflits de position( Gavillet, 2005 : 29) et ce n'est que sous cet angle qu'elles accepteraient d'enfaire usage. On voit combien la question de genre est complexe. Même si des chercheurs-esd'horizons géographiques et disciplinaires différents articulent désormais legenre à d'autres objets de recherche ou d'autres critères que le sexe, lerapport est loin d' être simple. Et ce malgré des travaux tels ceux de ChristineDelphy (1991, 2008) qui rappelle que devrait être constamment reposée laquestion de l'indépendance du genre par rapport au sexe et que ce lien, qui estinsatisfaisant, n'est qu'un présupposé parmi d'autres. « Imaginer le non-genre »( Delphy, 2008 : 257) pour mieux le penser est une des pistes que cette féministerépète depuis plus de vingt ans, mais est -ce pour autant aussi simple qu'ellel'écrit ? Car entre la pensée, l'analyse et la réalité observée, tant dans lessphères privées qu'académiques, il reste beaucoup à faire. Néanmoins, force estde constater que, même si nous disions en préambule que le genre redevenait à lamode en raison d'éléments à notre sens liés à la précarité et à l'exclusion – desurcroît grandissants avec la crise économique actuelle qui ne fait querenforcer les différences –, il devient urgent et nécessaire de poursuivre leschantiers. Côté français – pour ne citer que cet exemple –, la création duréseau inter - msh établi le 18 mars 2009 à l'initiativede la sociologue Sylvette Denèfle est une opportunité d'échanges académiques nepouvant que renforcer d'autres communautés existantes tels que le réseauinteruniversitaire et interdisciplinaire sur le genre et (ring) ou le portail d'informations et de ressources genre etdéveloppement, Genre en Action. Côtésénégalais, d'autres projets sont en cours et s'inscrivent dans une dimension derecherche se voulant être rapidement applicable au terrain. C'est la raison pourlaquelle, l'école doctorale et. ho. s travaille à la mise en place d'uneformation doctorale transdisciplinaire sur le lien entre genre et développementdes travaux des femmes (octobre 2009). Il prépare un colloque sur Genre et identités (novembre 2009) et envisage lacréation d'une revue dédiée à ces questions. Le genre est donc bel et bien àl' œuvre dans plusieurs disciplines même si les définitions proposées, d'unesociété à l'autre, d'une culture à l'autre, d'une langue à l'autre, divergent etentretiennent parfois une confusion, qui évite l'inertie et incite, aucontraire, à un certain allant primordial face aux enjeux sociaux, politiques etéconomiques contemporains .
L'objet de cet article est de montrer l'historicité du genre en sciences humaines et sociales au Sénégal, via la manière dont certaines chercheuses l'ont intégré dans le champ universitaire et, par conséquent, ses applications très récentes dans certaines formations diplômantes. Par ailleurs, plusieurs approches du genre seront explorées, quelques-unes montrant un détachement absolu de toute empreinte occidentale, d'autres évacuant l'aspect dualiste masculin/féminin, voire l'éventuelle opposition homme-femme. Enfin, les nuances et complexités conférées à ce terme, tant dans la recherche que dans la vie quotidienne, seront questionnées. À l'identique, le genre sera repensé au vu de ce que des femmes immigrées vivant en France et originaires du Sénégal expriment via des actions publiques et collectives.
sciencesInfo_11-0031651_tei_1059.xml
termith-433-communication
Les jeunes sont devenus des chercheurs d'information réguliers. Les pré-adolescents et adolescentsconsidèrent le Web comme une ressource documentaire particulièrement utile au pointque celle -ci supplante progressivement l'entourage humain jusqu'alors sourced'information privilégiée (Madden, Ford, Miller, 2007). Cet accroissement despratiques documentaires juvéniles, dans un environnement informationnel nonstructuré, et dont l'exploration suppose l'emploi de systèmes de recherched'information généralement maîtrisés par les experts, a contribué au développementd'études examinant la recherche d'information (RI) des enfants et adolescents leplus souvent observés en tant qu'élèves. Un thème devenu courant dans lalittérature, après l'avènement de l'internet, évoque le problème de l'apparentefacilité d'accès à l'information et le processus devenu plus complexed'appropriation des nouveaux environnements documentaires numériques (Chelton, Cool ,2004). De fait, la « génération Google » – les jeunes nés après le début de ladécennie 90 – exprime le plus souvent aisance et satisfaction notamment à propos desmoteurs (UCL, 2008; Mediappro, 2006). Ainsi les jeunes ont-ils rarement consciencede la faiblesse de leurs capacités informationnelles, constatée de façon continuedepuis plus de deux décennies par les études empiriques menées en grande partie ausein de la Library and Information Science (lis). L'examen de leurs stratégies d'interrogationdes systèmes rend particulièrement visible la persistance des difficultés auxquellesils sont confrontés. Cette discordance entre expérience informationnelle des jeuneset investigations scientifiques questionne l'approche théorique majoritairementadoptée. En effet, les théorisations de l'activité informationnelle des jeuness'attachent à montrer erreurs ou omissions sur la base d'une comparaison entreactivités experte et novice. Dans ce cadre, les jeunes sont considérés comme desnovices ne disposant pas des principales connaissances impliquées dans la recherched'information (RI) : connaissances du domaine, informationnelles et techniques. Leuractivité de recherche d'information est analysée à partir de ce qu'ils ne font pas ,laissant dans l'ombre ce qu'ils font. Alors que la notion de contexte commence àêtre appliquée à l'activité de RI des adultes (Talja, Keso, Pietiläinen, 1999), ilest remarquable de constater que ce type d'approche n'est toujours pas envisagé pourcelle des jeunes. À l'aide d'observations directes, activités de RI filmées, etentretiens d'autoconfrontation croisée auprès d'élèves de la 6 e à la terminale, nous avons identifié des façons de faire dans les différentes phasesdu processus de recherche d'information. Certaines d'entre elles sont fortementliées aux interactions avec les moteurs de recherche. Après avoir dressé un brefpanorama des théorisations sur les stratégies de recherche juvéniles, la formulationde requêtes et l'action concurrente, la navigation hypertextuelle, notre objectifest de montrer comment les jeunes perçoivent et utilisent les moteurs derecherche. Les enquêtes d'usage (Lamy, 2004; Mediappro, 2006) montrent souvent l'emploipréférentiel d'un moteur, Google et plus rarement Yahoo. Mais elles necomparent pas les différents modes d'exploration du Web, ce qui permettraitde mieux saisir les caractéristiques des interactions des jeunes avec lesmoteurs de recherche. En effet, activer un hyperlien constitue une autre modalité d'accès àl'information susceptible d' être choisie par les jeunes dans le cours del'activité. Cette distinction entre moteurs de recherche et hyperliensrenvoie à la catégorisation des stratégies de recherche entre stratégiesanalytiques dont fait partie la formulation de requête, qualifiée de« recherche directe », et stratégies de butinage (Marchionini, 1995). Lanavigation par hyperliens est classée dans ces dernières. Malgré un manquede consensus théorique sur les correspondances entre types de stratégies etd'activités cognitives, les études empiriques s'accordent pour considérerque l'emploi de stratégies analytiques serait lié à une représentationprécise du but de recherche et des moyens pour l'atteindre alors que lesstratégies de butinage seraient à buts fous. Ainsi l'utilisation d'un moteurde recherche suppose -t-elle un besoin d'information suffisamment clair pourle chercheur d'information et des connaissances sur le fonctionnement dusystème, notamment la manipulation d'opérateurs logiques. En conséquence ,les théorisations en réservent la maîtrise aux experts informationnels ou dudomaine. La navigation conviendrait davantage aux novices en leur épargnantl'expression de leurs demandes en des termes précis (Marchionini, 1995). Defaçon plus systématique que l'activité de ri des adultes, celle des jeunesse conforme à ces partitions et définitions des stratégies de recherche. Eneffet, les études empiriques constatent que les jeunes préfèrent lanavigation à la formulation de requêtes quels que soient le niveau d'étude ,le sexe, l'outil de recherche utilisé ou les sites Web consultés (Bilal ,Bachir, 2007). Seules deux d'entre elles montrent que de jeunes élèves decours moyen 2 (CM2) et 6 e préfèrent utiliser larecherche directe. Ce fait est attribué au type de tâche de recherche qu'ilseffectuent (Wallace et al., 2000; Schacter et al., 1998). Cependant l'effet de la tâche de ri ,qu'elle soit factuelle ou ouverte, sur le choix de la stratégie n'estgénéralement pas confirmé. Dania Bilal (2000, 2001, 2002) relève que lesélèves de 5 e naviguent davantage, quelle que soit lanature de la tâche de recherche ou encore son origine, tâche de rechercheprescrite par un tiers ou autogénérée. Elle note également que ceux -ciréussissent mieux leur recherche d'information lorsqu'ils naviguent. La faiblesse des interrogations par soumission de requêtes à un système derecherche d'information booléen (catalogues, encyclopédies numériques ,moteurs de recherche) pourrait amplement rendre compte de la prédominance dela navigation dans l'activité des jeunes. Ceux -ci font face à une doubleactivité : l'écriture d'une requête et l'évaluation de la pertinence desrésultats restitués par le système. C'est à la première que s'attachentprioritairement les études empiriques. Fautes d'orthographe, formulation de requêtes en langage naturel, erreurslexicales, confusion des opérateurs logiques quand ceux -ci sont utilisés ,sont repérées chez les élèves aux niveaux primaire et secondaire (Solomon ,1993; Chen, 1993; Nahl, Harada, 1996; Kafai, Bates, 1997; Fidel et al., 1999; Bilal, 2000, 2001, 2002). Sil'ergonomie des interfaces est mise en cause, particulièrement dans lespremiers systèmes informatisés (Solomon, 1993), ainsi que leurfonctionnement qui exige la combinaison d'opérateurs logiques contrevenant àla logique naturelle des humains (Borgman, 1996), la faible capacité desjeunes à conduire une activité informationnelle reste principalementdésignée. Elle est particulièrement visible dans la pauvreté conceptuelledes contenus des requêtes, les élèves se contentant de maintenir les termesde la consigne. Raya Fidel et al. (1999) remarquentque la reformulation des requêtes par des lycéens consiste le plus souvent àchanger le nombre (pluriel, singulier) ou la casse (majuscule, minuscule) .En outre, les requêtes, vite saisies, sont souvent réitérées (Large ,2004). La deuxième tâche à laquelle font face les jeunes est celle de l'évaluationdes pages de résultats. Un nombre réduit d'études examine l'activitéjuvénile d'évaluation des références. Sandra G. Hirsh (1999) remarque queles élèves de cm balayent les résumés lorsqu'ils sont présents. Yasmin Kafaïet Marcia Bates (1997) notent que les élèves de 6 e s'appuient sur le titre pour sélectionner les références fournies par lesmoteurs de recherche du Web. Or, les pages de résultats avec des titres etdes résumés tronqués les induisent parfois en erreur (Kafai, Bates, 1997 ;Bilal, 2002). Dans une approche de psychologie cognitive, Jérôme Dinet( 2006) souligne la perturbation par les marqueurs typographiques (mise enmajuscules, en gras de certains mots) des jugements de pertinence émis pardes élèves du CM2, 5 e, 3 e lors dela sélection des références dans les moteurs du Web. En revanche, les élèvesde terminale sélectionnent les pages Web sans tenir compte du marquagetypographique. La rapidité est un autre trait saillant de l'évaluationjuvénile des pages de résultats. Raya Fidel et al .( 1999) notent que les lycéens prennent des décisions très rapides surles sélections de liens. Ainsi l'emploi d'une stratégie directe est-elle particulièrement exigeantepour les usagers novices, d'autant plus que les compétences précédemmentidentifiées, lexicales, logiques et sémantiques nécessaires pour construireles requêtes ne doivent pas être confondues avec celles informationnellesdécrites comme capacités à résoudre un problème mal défini. Cettedescription trop générale des compétences informationnelles révèle ladifficulté à identifier des connaissances documentaires spécifiques .Christine Borgman (2003) tente d'appréhender l'expertise informationnelle eninsistant sur les aspects conceptuels de la démarche informationnelle àl'aide de la notion psychologique de modèle mental. Elle la caractérisecomme habileté à construire un modèle mental dans un espace d'information ,« facteur clé pour prédire le succès d'une recherche ». Suivant cette voie ,Xiangmin Zhang (2008) montre, avec des étudiants, que la représentation dela taille de l'espace d'information (Web ou site) influe sur la naturegénérique ou spécifique des termes soumis aux moteurs. Les représentationsdes fonds documentaires agissant sur les stratégies de recherche, il seraitintéressant d'avoir des aperçus de celles des jeunes. Mais l'activitéinformationnelle juvénile reste à peine investiguée selon cette perspective ,et sont surtout restituées leurs perceptions erronées du Web. Néanmoins, uneévolution se repère, particulièrement chez les adolescents les plus âgés. Endébut de la généralisation du Web, les lycéens perçoivent l'internet commeun lieu centralisant l'information, constitué et peut-être contrôlé parl'entreprise Microsoft (Pejtersen, Fidel, 1998). L'examen de la perceptionde la qualité des documents duWeb dans des études plus tardives montre queles jeunes savent désormais que la publication dans le Web peut être le faitd' « amateurs » et s'en méfient (Agosto, 2002). Les études les plus récentesrévèlent des lycéens conscients des différences qualitatives entrel'information fournie par Google et celle qu'ils retrouvent dans les basesde données structurées, préférées pour les tâches scolaires prescrites ,indiquant ainsi qu'ils ne sont plus des usagers novices (Valenza, 2007). La description des stratégies de recherche des jeunes, centrée sur leursinhabiletés dans la manipulation des systèmes de recherche d'informationainsi que les changements repérés dans leurs perceptions du Web invitent àexaminer l'activité de RI des jeunes dans un univers informationnel évoluantsans cesse. Les objectifs de notre recherche visent à comprendre l'activité de RI des élèvesdu secondaire en nous déprenant du cadre expert-novice et en considérant quecette activité, comme toute action humaine, est une activité située. La notiontransversale de « situation » ou de « contexte » s'est imposée à partir de ladécennie 80 et a donné lieu à de nombreuses perspectives théoriques (de Fornel ,Quéré, 1999). Prenant leurs sources dans les théories sociologiques de l'action( Goffman, 1974; Garfnkel, cité par Coulon, 1987) et celles psychologiques del'activité (Vygotski, 1934), plusieurs travaux anthropologiques anglo-saxons ontparticipé au développement de la notion (Suchman, 1987, 2007; Lave, 1988), laprésentant comme hypothèse concurrente de l'approche computationnelle de lacognition et de l'action issue des sciences cognitives. Ces approches situéess'appuient sur l'idée d'une action s'accomplissant à l'intérieur d'une situationqui émerge dans le cours de l'action et qui en fixe les règles. De même, ellesexternalisent la cognition en la plaçant dans la situation. Le transfert deperspectives situées dans les travaux sur la ri a débuté seulement en fn de ladécennie 90. La traduction empirique de la notion de situation pour lesactivités informationnelles reste donc largement à poursuivre. Une manièred'approcher la nature située de l'activité est de prendre appui sur le sens queles jeunes attribuent à leur activité informationnelle. Ce sont donc des choixméthodologiques de nature ethnographique qui guident notre production dedonnées. Pour ce faire, nous avons opté pour la méthode de l'autoconfrontationcroisée, utilisée en analyse du travail. Notre échantillon est constitué de quinze binômes d'élèves de la 6 e à la terminale : onze binômes collégiens de trois collègesdifférents et quatre binômes lycéens (deux binômes d'un lycée d'enseignementprofessionnel et deux binômes d'un lycée d'enseignement général). Ce typed'échantillon, diversifié, est approprié à l'investigation de natureexploratoire. Notre but n'étant pas de rendre compte de l'effet de variablesindépendantes, telles que les connaissances du domaine, informationnelles ,techniques ou encore la place dans la hiérarchie scolaire, nous n'avons pasmesuré les degrés d'expertise, de familiarité avec les systèmes ou encoreidentifié l'appartenance sociale des participants. De même, nous n'avons pasdonné de tâche de recherche. Les élèves du binôme choisissent eux -mêmes unetâche prescrite ou autogénérée .Notre dispositif d'observation consiste à filmer les binômes avec une caméranumérique (Boubée, Tricot, Couzinet, 2005). Selon leur préférence, les élèvess'installent sur le même ordinateur ou bien sur deux ordinateurs, côte à côte .Les élèves décident eux -mêmes de l'arrêt de la recherche. De ce fait, la duréedes sessions varie. La plus courte dure 15 min, la plus longue 1 h 04, la pluscommune oscillant autour de 45 min, soit 10 h d'enregistrement. Nous effectuonsune semaine après, des entretiens d'autoconfrontation à partir du visionnage dufilm de leur RI. Ces entretiens sont filmés. La durée totale des entretiens estde 13 h 45. L'ensemble se déroule dans les établissements dans lesquels lesélèves sont scolarisés. Les observations ont eu lieu en 2005 et 2006. En appuide notre analyse qualitative, nous effectuons des quantifications pour examinercertains phénomènes. Une de nos questions de départ porte sur les stratégiesmises en œuvre et leurs évocations. Concernant les stratégies de recherche, nousavons comptabilisé les navigations et les requêtes soumises dans les différentssystèmes de recherche booléens (catalogue du centre de documentation etd'information CDI, encyclopédies numériques et moteurs de recherche du Web) .Cependant, les requêtes sont formulées majoritairement dans les outils derecherche du Web (91 %), 83 % des requêtes dans Google, 2 % dans Yahoo, dansquelques moteurs internes de sites et de façon très anecdotique dans la barred'adresse du navigateur (Internet Explorer, soit le moteur msn). Pour lesquantifications des stratégies, seules 12 sessions ont été conservées. Nous avons constaté un changement dans la mise en œuvre des stratégies derecherche, telle que décrite par les études empiriques précédemmentévoquées, qui concerne la préférence marquée de la formulation de requêtes àla navigation. En effet, tous niveaux confondus et quelle que soit la tâchede recherche, les jeunes utilisent davantage la formulation de requête (pourune présentation plus détaillée, voir Boubée, Tricot, 2007). Cinq de nosbinômes ont utilisé les moteurs de recherche interne. Malgré le faiblevolume de ces moteurs de recherche dans le total des requêtes, leur emploipourtant malaisé (tentatives de saisie n'excédant pas le champ de recherchetrès réduit, bugs, silence documentaire) semble révélateur de la préférencegénérale pour la formulation de requête. À l'exception de deux binômes, levolume des reformulations de requêtes est élevé dans une même session. Àtitre d'exemples : 29 requêtes pour 8 navigations (6 e); 29 requêtes et 11 navigations (3 e); 20requêtes et 7 navigations (2 e année BEP); 26 requêteset 5 navigations (1 re) (Boubée, Tricot,2007). Lesévolutions de l'environnement externe – comme la prise en charge par lesmoteurs de recherche d'habiletés informationnelles (« correcteur »orthographique, opérateur implicite) ou les documents plein-texte supportantefficacement les requêtes en langage naturel (Kelly, Fu 2007) – influentassurément sur le choix renouvelé de la stratégie. Mais les caractéristiquesdocumentaires actuelles sont-elles les seules raisons de la part ténue de lanavigation ? Il semble que les moteurs constituent bien plus qu'une ported'entrée à partir desquels les élèves exploreraient des sites. Ce ne sontplus seulement les camps de base identifiés dans les premiers temps du Web ,décrits selon une figure particulière des déplacements spoke and hub structure, c'est-à-dire formée d'un centre à partirduquel rayonnent les usagers, généralement la page d'accueil d'un moteur( Catledge, Pitkow, 1995). Les moteurs actuels paraissent autoriser lesjeunes à énoncer leur problème d'information « à la volée pour reprendrel'expression on-the-fly proposée par Gary Marchionini( 1992) décrivant le butinage par hyperliens. La forme de l'activité avec lesmoteurs pourrait indiquer que les jeunes conservent les avantages de lanavigation sans ses inconvénients. Ces derniers sont attestés dans lesexplicitations de l'activité lors des entretiens qui ont suivi. Les jeunes évoquent rarement la navigation. Lorsqu'ils en rendent compte ,ils font une évaluation négative de cette stratégie pouvant les« perdre » selon une collégienne de 4 e. Ils sontplus diserts sur les moteurs et leurs saisies de requêtes. L'évocationdifférenciée des stratégies est également notée par Andrew Large etJamshid Beheshti (2000). Les chercheurs remarquent que les élèves de 6e décrivent surtout leurs requêtes par mots cléslors des entretiens alors que la navigation prédomine dans leursactions. Ils en concluent que celle -ci leur paraît si simple qu'ils nejugent pas nécessaire de l'évoquer. Ce n'est pas le cas de nosparticipants qui témoignent de leur réticence à effectuer cettestratégie et, a contrario, de l'efficacité desmoteurs. Un moteur de recherche « c'est fait exprès pour pas nous fairetourner » relate un lycéen, expression qu'il réutilise pour expliciterson emploi d'un moteur interne : » parce que je recherche direct, j'aipas besoin de tourner dans le site pour voir plein de choses. Là, jetape mon truc, je cherche mon sujet […] » .Il semble centrer ses effortssur l'exigence conceptuelle liée à la définition de son besoind'information en évitant la navigation qui lui imposerait une secondemaîtrise, spatiale. Par ce changement de stratégie, il est probable queles élèves s'épargnent l'acquisition d'une compétence liée à la maîtrised'un espace d'action, cette « géographie documentaire » identifiée parFranck Ghitalla et al. (2003) et qui précède lamaîtrise d'un espace d'information. La rapidité dans l'exécution del'activité permise par la stratégie analytique est suggérée par l'emploide « direct ». Ce facteur temporel est notablement mentionné parplusieurs binômes collégiens et lycéens pour les diverses phases duprocessus de RI. Les difficultés récurrentes – orthographiques, linguistiques, logiques – seretrouvent dans les requêtes observées. Elles signalent une méconnaissancepersistante du fonctionnement des systèmes de ri. Néanmoins, les jeunestentent de formuler des requêtes avec des mots « compréhensibles pour lemoteur » selon les termes d'un lycéen. Pour se faire comprendre, les élèves essaient de « bricoler » une syntaxeacceptable par le moteur. Ils ignorent les opérateurs du système, maiscertains d'entre eux en inventent. Ainsi deux binômes collégien etlycéen font-ils usage du signe de ponctuation « : » – exemples derequêtes : « définition : chiens de traineaux (6 e); « le parlementfrançais : son rôle » (BEP). Il est possible que l'opérateur« define : » de Google ait été « rencontré » par les élèves, d'autantplus que, dans la période des observations, le moteur affichaitautomatiquement cet opérateur dans la fenêtre de saisie pour toutedemande débutant par « Qu'est -ce que… », expression usitée par certainsdes binômes. Cependant, l'usage des « : a déjà été observé dix ans plustôt par Diane Nahl et Violet Harada (1996) auprès d'élèves dusecondaire. Le recours aux parenthèses constitue une deuxième inventiond'opérateur repérée dans l'activité d'un binôme de 4 e et invoquée par une lycéenne (BEP) dans un mouvement deréflexivité confrontée au film de l'activité. « Je crois qu'on aurait dûmettre “témoignage” entre parenthèses » dit-elle. Elle explique :« J'arrive pas à le placer dans la phrase donc je le mets entreparenthèses. Peut-être que ça le prendra ». Cette lycéenne distingue leconcept principal lié au thème de recherche et le concept secondairerelatif au genre de document recherché, mais ne sait comment lesarticuler dans une même demande. Pour ce faire, elle reprend la doubleutilité de la parenthèse dans le discours écrit, à la fois désignationd'un aspect secondaire et soulignement de l'élément entre parenthèses .Ces inventions partagées entre humains fournissent une preuve de lajustesse de la réflexion de Christine Borgman (1996) qui souligne qu'unepart des difficultés des usagers incombe aux systèmes d'informationtoujours incapables de prendre en charge la façon dont ils exprimentleurs demandes. Surtout, l'inventivité des jeunes dans l'élaborationd'une syntaxe témoigne d'un comportement actif lors de la formulation derequête. Les jeunes s'efforcent de comprendre le fonctionnement des moteurs duWeb, celui des catalogues n'étant pas évoqué. Leurs questionnementsportent sur les aspects non conceptuels de la formulation de requête ,comme la sensibilité des moteurs à la casse ou la présence des élémentsdu langage naturel. Ignorant entièrement le processus d'indexation, ilss'interrogent cependant sur l'efficacité de requêtes courtes oulongues. Généralement, les requêtes sont saisies en minuscules par les binômes .Néanmoins, les jeunes restent généralement indécis sur le comportementde la machine vis-à-vis de la casse. Les avis sont plus tranchés sur leséléments du langage naturel comme les articles, les prépositions, etc .Ceux -ci, présents dans les requêtes collégiennes et lycéennes, fontl'objet de petites controverses dans l'activité de RI ou lors desentretiens (3 e, 6 e). Ellespeuvent donner lieu à des remarques sur la prise en compte de l'ordredes mots par le moteur. La longueur des requêtes, mesurée parle nombre de termes, est considéréecomme l'indice de la capacité à formaliser son besoin d'information. Surce point, collégiens et lycéens diffèrent. Les collégiens produisent desrequêtes plus courtes que les lycéens, ces derniers formulant davantagede requêtes comportant deux mot clés et plus (Boubée, Tricot, 2007) .Lors des entretiens, les uns et les autres commentent leurs requêtescourtes en terme d'efficacité. Une élève de 6 e seméfie des requêtes longues qui entraîneraient du bruit documentaire :« Il y avait trop de mots et ça faisait d'autres recherches en mêmetemps ». Sa compréhension erronée de l'opérateur logique à l' œuvre –l'union plutôt que l'intersection l'inciterait à réduire le nombre deconcepts dans la requête. Un binôme de lycéens (1 re et terminale) explicite sa préférence pour un nombre réduit de termes .L'un des deux élèves reprend l'hypothèse de sa camarade : « Oui, c'estça, moins on en met des termes […] peut-être c'est plus efficace ». Lasuppression de termes au point de soumettre un concept très général estun mode opératoire bien identifié chez les lycéens par Raya Fidel et al. (1999) et considérée comme caractéristiquede l'activité novice. Les explicitations des élèves, entièrementcentrées sur le fonctionnement des moteurs, renvoient à leur manque deprise de conscience des difficultés à réaliser une recherched'information. Elles signalent également l'impossibilité pour euxd'inférer le fonctionnement des moteurs tout en indiquant l'attentionqu'ils portent aux réponses de la machine. Dans le cadre experts-novices, il est généralement admis que l'environnementextérieur façonne plus fortement l'activité des novices. Lors de la phased'évaluation de la page de résultats par les jeunes, il convient d'apprécierparticulièrement la position du lien sélectionné. Mais les appuis sur desindices de surface ne sont pas les seuls. Certains binômes montrent un usageparticulier de la page de résultats pour pallier le manque de précisionconceptuelle de leurs requêtes. Les sélections de liens des élèves révèlent les mêmes traitscaractéristiques que ceux des usagers adultes, à savoir une sélectioneffectuée majoritairement sur les liens positionnés en rang 1 et 2( Granka, Joachims, Gay, 2004). Ils constituent 58,6 % des sélections del'ensemble « collège et lycée ». Toutefois, apparaît un nombre desélections non négligeable des liens en rang 3 et plus (41 % dessélections). Nous n'avons pas noté de différences entre les tâchesprescrites et autogénérées. De même, les élèves choisissent rarementplus de deux liens dans la première page. Les pages suivantes ne sontque très peu explorées. Ceci est en conformité avec le nombre élevé desoumissions de requêtes, les élèves préférant les reformulations àl'examen méthodique des résultats. Ce comportement se retrouve en échodans les entretiens. Plusieurs binômes des deux niveaux disent avoirconstaté la plus forte valeur informative des premiers rangs. Pourtant ,la position du lien dans la page n'est pas le seul critère de pertinenceappliqué ni même le premier mentionné. Le critère le plus mentionnéreste celui de l'adéquation au thème de recherche. Cependant, laposition du lien dans la page de résultats reste le deuxième critère leplus fréquemment cité. D'autres critères sont évoqués avec une fréquencede mention très réduite : information perçue comme « cohérente », typede document, étendue de l'information, conformité avec l'opinionpersonnelle, nouveauté (pour le chercheur d'information). En outre, lesélèves se réfèrent aux indices de surface, « ce qui est en gras », « lesnoms en gros ». Les explicitations sur leurs repérages concordentremarquablement avec les constats des chercheurs (Wallace et al., 2000; Kafaï, Bates, 1997; Fidel et al., 1999; Dinet, 2006). Deux binômes collégiens témoignent spontanément de leur façon decompenser la difficile expression de leur besoin d'information. À partird'une requête contenant un seul mot clé, un balayage de la page durésultat est effectué pour repérer un deuxième concept qui n'a pas étéformulé. Il est plausible que les titres et résumés servent nonseulement à l'identification du premier concept mais également dudeuxième concept non exprimable mais reconnaissable. Cette hybridationdes stratégies analytique et de butinage dénote une démarche« concrète » prenant appui sur l'environnement externe. D'autres appuisexternes sont retrouvés dans l'enrichissement conceptuel et lexical d'unbinôme de lycéens prélevant des termes entraperçus dans les documentsprimaires pour les intégrer dans les requêtes. Loin de signifier unmanque d'abstraction, cette manière de résoudre partiellement leproblème informationnel rend compte de la façon dont chacun à son niveauréalise une activité située. Ces appuis sur l'environnement externe nesont pas la marque d'une activité de jeunes novices. Amanda Spink etTefko Saracevic (1997) constatent que presque 40 % des termes utilisésdans les requêtes (banques de données multibases) ne sont pas de la« responsabilité » de l'usager adulte mais issus des interactions avecles systèmes de recherche ou un intermédiaire humain. À force de ne rendre compte que des défaillances de l'activité informationnelledes jeunes, la perspective théorique dominante produit des résultats empiriquesqui finissent par former un ensemble clos, uniformément composé de difficultéslinguistiques, logiques et conceptuelles ou d'évaluation de l'informationpauvrement basée sur des indices de surfaces. En procédant d'une critique ducadre expert-novices, nous avons pris appui sur une méthodologie de natureethnographique pour comprendre la situation de recherche d'information telle queles jeunes la définissent et qui leur permet d'agir. Malgré la taille réduite denotre échantillon, nous avons constaté que la clé d'une partie de l'activitéinformationnelle des jeunes semble être désormais du côté des moteurs derecherche et des environnements plein-texte auxquels ils donnent accès. Cequ'ils en perçoivent les conduit à privilégier l'emploi d'une stratégieanalytique malgré les difficultés récurrentes dans la forme ou le contenu deleurs requêtes. Le changement de stratégie fait apparaître plusieurs thèmes deréflexion. D'abord, les jeunes pourraient avoir adopté la stratégie aujourd'huila plus appropriée pour écarter la masse d'information non pertinente, unecompétence documentaire difficile à mettre en œuvre en naviguant, tout en nerenonçant pas à une forme de butinage comme l'indiquent le volume élevé desreformulations et l'évitement de l'exploration des pages de résultats ou encoreles appuis concrets sur les pages de résultats. Plus fondamentalement, cesmanières de faire renvoient aux problématiques de l'action et de la cognitionsituées. Comme nous l'avons indiqué, il existe plusieurs façons de situerl'action ou la cognition. Ce que nous avons identifié pourrait être traduit entermes d'allégements de tâche, nous rapprochant ainsi de Jean Lave (1988) et durôle conféré à l'environnement physique, social et culturel, ou de contingencesissues de ce qui est jugé pertinent dans l'action, en retrouvant ainsi lescirconstances locales de Lucy A. Suchman (1987,2007). À ces premiers résultatssur les interactions avec les systèmes de recherche d'information doivent êtreassociés ceux issus de la même investigation et portant sur les rôles de l'image( Boubée, 2007) et des copiés-collés dans l'activité informationnelle des jeunes( Boubée, à paraître). En effet, l'ensemble permet de dénombrer d'autres appuissur l'environnement et des enchaînements d'actions visant à « stabiliser » lasituation. Les interactions juvéniles avec les environnements documentairesmontrent ainsi théoriquement une complexité équivalente à celle des adultes. Parla suite, il conviendra de suivre attentivement les évolutions dans la mise enœuvre des stratégies de RI et de poursuivre les investigations sur la forme derationalité qui guide l'activité de recherche d'information des jeunes .
Les études sur l'activité de recherche d'information sont généralement menées à partir de la distinction entre experts et novices. Elles montrent que les jeunes utilisent de préférence la navigation à la formulation de requêtes. L'étude analyse les stratégies mises en œuvre et commentées par 15 binômes de collégiens et lycéens. Les résultats indiquent au contraire que la formulation de requête est la stratégie la plus utilisée. Lorsqu'ils explorent le Web à l'aide de moteurs de recherche, les jeunes peuvent inventer des opérateurs et prendre appui sur les termes des pages de résultats pour compenser leurs difficultés dans l'élaboration des requêtes. Ils appliquent plusieurs critères de pertinence dans l'évaluation des documents secondaires. L'activité et les explicitations de leur activité signalent une recherche d'information active. L'analyse des interactions des jeunes avec les moteurs de recherche peut fournir une base pour appréhender la nature située de leur activité de recherche d'information.
sciencesInfo_09-0474881_tei_1128.xml
termith-434-communication
Les systèmes de recherche d'information (SRI) classiques considèrent que la requête de l'utilisateur est la seule ressource clé qui permet de spécifier son besoin en information. Ils retournent le même ensemble de résultats pour la même requête envoyée par des utilisateurs ayant des besoins en information différents. Par exemple, la requête " java " réfère au langage de programmation ainsi que l' île de Java en Indonésie. Certes, le développement des techniques de réinjection de pertinence (Rocchio, 1971) et de désambiguïsation des requêtes (Sieg et al., 2004b) est à l'origine d'une amélioration des performances des SRI. Toutefois, ces approches présentent des limitations liées à la rétroaction explicite de l'utilisateur par la spécification des documents pertinents dans le cas des techniques de réinjection de pertinence et la spécification de l'intention de recherche dans le cas des techniques de désambiguïsation des requêtes. Par ailleurs, elles ne permettent pas de reconnaître les utilisateurs. Pour cela, les travaux sont orientés vers la conception d'une nouvelle génération de moteurs de recherche basée sur la RI personnalisée. L'objectif de l'accès personnalisé à l'information est de répondre au mieux aux besoins en informations spécifiques de l'utilisateur en tenant en compte du contexte de recherche. Celui -ci est défini par des éléments liés à la tâche de recherche, aux centres d'intérêt de l'utilisateur défini par son profil, son contexte géographique, etc. Il est connu que le profil utilisateur traduisant ses centres d'intérêts est l'élément contextuel le plus important à utiliser pour améliorer la performance de recherche. La distinction des approches en RI personnalisée porte sur deux volets : l'aspect temporel du profil utilisateur en tant que profil à court ou à long terme et le mode de construction et de représentation du profil utilisateur. Concernant l'aspect temporel du profil utilisateur, on distingue le profil à long terme et celui à court terme. Certaines approches (Shen et al., 2005b) construisent un profil utilisateur à long terme traduisant les centres d'intérêt persistants de l'utilisateur. Ce dernier est généralement inféré à partir de l'historique de recherche tout entier. D'autres approches (Shen et al., 2005a; Gauch et al., 2003) construisent le profil utilisateur à court terme issu des activités courantes de l'utilisateur. La modélisation du profil à court terme requiert généralement un mécanisme de délimitation des sessions de recherche qui permet de grouper des activités de recherche liées à un même besoin en information dans une même session. Selon les approches d'accès personnalisé à l'information, le profil utilisateur peut être inféré implicitement ou explicitement et représenté selon une structure simple basé sur des mots clés (Lieberman, 1997a; Tamine et al., 2008) ou alors une structure complexe basée sur un ensemble de concepts (Liu et al., 2004; Alexandru et al., 2005) ou une hiérarchie de concepts (Begg et al., 1993; Micarelli et al., 2004; Kim et al., 2003). Dans ce papier, nous présentons un système de recherche d'informations personnalisée intégrant un profil utilisateur sémantique représenté selon un graphe de concepts issu d'une ontologie prédéfinie, notemment l'ODP. Le profil utilisateur est construit par combinaison des profils des requêtes inscrites dans une même session de recherche. Celle -ci est définie par une séquence de requêtes reliées à un même besoin en informations. Pour des nouvelles requêtes inscrites dans la session courante, le profil utilisateur est utilisé dans le réordonnancement de résultats de recherche de ces requêtes par combinaison du score original du document et de son score de similarité avec le profil utilisateur. Dans le but de grouper les requêtes dans une même session, nous avons proposé un mécanisme de délimitation des sessions de recherche basé sur une mesure de similarité conceptuelle permettant de détecter un changement éventuel des rangs des concepts dominants dans la session. La mesure de similarité est basée sur la mesure de corrélations des rangs de Kendall (Daoud et al., 2009). Ce papier est organisé comme suit. La section 2 présente un aperçu des différentes approches d'accès personnalisé à l'information. La section 3 présente la terminologie et l'architecture générale de notre système. La section 4 est dédiée à la description du mode de construction du profil utilisateur. La sections 5 présente la personnalisation du processus de recherche. Le mécanisme de délimitation des sessions de recherche est détaillé dans la section 6. L'évaluation expérimentale et les résultats obtenus sont présentés dans la section 7. La dernière section conclut et présente les perspectives de nos travaux dans le domaine. Les principaux défis en RI personnalisée consistent à modéliser précisément les centres d'intérêts de l'utilisateur par un profil puis de l'exploiter dans la chaîne d'accès à l'information. Le processus clé dans la plupart des approches de RI personnalisée consiste à exploiter des sources d'évidences additionnelles issues de l'historique de recherche de l'utilisateur, afin d'inférer son profil. Ces approches diffèrent par le type de données exploitées dans la construction du profil utilisateur. Letizia (Lieberman, 1997b),Web-Mate (Chen et al., 1998), PersonalWebWatcher (Mladenic, 1999) et OBIWAN (Gauch et al., 2003) construisent le profil en analysant les pages web visitées par l'utilisateur lors de sa recherche. D'autres sources d'information sont également exploitées, telles que les bookmarks dans Basar (Thomas et al., 1997), les requêtes et leurs résultats dans (Rich, 1998), Syskill and Webert (Pazzani et al., 1996), et Persona (Tanudjaja et al., 2002). La combinaison des sources d'évidences multiples, telles que les pages web, les emails et les documents textes, est investie dans (Dumais et al, 2003). En exploitant ces sources d'évidences, plusieurs techniques de représentation des centres d'intérêts constitutifs du profil de l'utilisateur dans les SRI existent. Une représentation naïve des centres d'intérêts est à base de mots clés, tel le cas des portails web MyYahoo, InfoQuest, etc. Des techniques plus élaborées sont basées sur la représentation selon des vecteurs de mots clés (Tamine et al., 2008; Gowan, 2003), un ensemble de concepts (Sieg et al., 2004a; Liu et al., 2004; Daoud et al., 2008) ou une hiérarchie de concepts issue d'une ontologie prédéfinie (Challam et al., 2007; Sieg et al., 2007). La modélisation du profil utilisateur selon des vecteurs de termes dont chacun représente un centre d'intérêt de l'utilisateur est adoptée dans (Tamine et al., 2008; Gowan, 2003; Sieg et al., 2004b). Ces vecteurs sont obtenus dans (Gowan, 2003) selon une technique de classification non supervisée des documents jugés pertinents par l'utilisateur permettant d'obtenir des classes de documents. Les centroides des classes représentent ainsi les centres d'intérêts de l'utilisateur. Selon (Tamine et al., 2008), un centre d'intérêt est représenté par un vecteur des termes issu des documents pertinents et qui évolue au cours des sessions de recherche. Les limitations dans ce type de représentation résident par le fait que les centres d'intérêts ne sont pas reliés entre eux par des relations sémantiques. Dans le but de remédier les limitations, des représentations plus complexes relient les centres d'intérêts par des relations de termes (Koutrika et al., 2005), ou représentent le profil utilisateur selon une hiérarchie de concepts issue des documents jugés pertinents de l'utilisateur (Begg et al., 1993), (Micarelli et al., 2004) (Kim et al., 2003). Même si ces représentations sont complexes, elles présentent toutefois des limitations. En effet, les centres d'intérêts sont inférés à partir de l'historique de recherche de l'utilisateur qui est souvent limité et ne suffit pas pour détecter un nouveau besoin en informations. Dans le but de remédier à ces problèmes, des approches de représentation sémantique du profil utilisateur exploitent une ontologie de référence permettant de représenter les centres d'intérêts de l'utilisateur selon un ensemble de concepts pondérés d'une ontologie prédéfinie (Liu et al., 2004; Sieg et al., 2004a) ou une instance de l'ontologie (Challam et al., 2007)(Sieg et al., 2007). Nous citons la hiérarchie de concepts de “Yahoo” ou celle de l'ODP 1 comme sources d'évidence le plus souvent utilisées dans ce type d'approches. Ces hiérarchies de concepts sont considérées comme des répertoires du web et permettent de lister et catégoriser les pages web selon une taxonomie de concepts. L'approche dans (Sieg et al., 2004a) exploite simultanément des centres d'intérêts de l'utilisateur issus des documents jugés pertinents implicitement ou explicitement et la hiérarchie de concepts " Yahoo " dans le but de représenter le profil utilisateur. Celui -ci sera constitué des contextes formés chacun d'une paire de concepts de la hiérarchie : l'un représente le concept adéquat à la requête, et l'autre représente le concept à exclure dans la recherche. La construction du profil utilisateur dans (Challam et al., 2007) est basée sur une technique de classification supervisée des documents jugés pertinents selon une mesure de similarité vectorielle avec les concepts de l'ontologie de l'ODP. Cette classification permet sur plusieurs sessions de recherche, d'associer à chaque concept de l'ontologie, un poids calculé par agrégation des scores de similarité des documents classifiés sous ce concept. Le profil utilisateur sera constitué par l'ensemble des concepts ayant les poids les plus élevés représentant ainsi les centres d'intérêts de l'utilisateur. Le profil utilisateur est exploité dans la chaîne d'accès à l'information dans l'une des principales phases de l'évaluation de la requête : reformulation de requêtes (Sieg et al., 2004a), calcul de la pertinence de l'information (Tamine et al., 2008; Tan et al., 2006) ou réordonnancement des résultats de recherche (Sieg et al., 2007; Challam et al., 2007; Liu et al., 2004; Ma et al., 2007). La reformulation de requêtes dans (Sieg et al., 2004a) consiste généralement à décrire une requête plus riche en utilisant une variante de l'algorithme de Rocchio. En effet, le contexte de recherche est représenté par une paire de catégories de la hiérarchie de catégories de " Yahoo ", la première représente la catégorie adéquate à la requête et similaire à l'un des centres d'intérêts de l'utilisateur et la deuxième représente la catégorie à exclure durant la recherche. L'approche dans (Tamine et al., 2008) intègre le profil utilisateur dans la fonction d'appariement du modèle de recherche bayésien. La valeur de pertinence d'un document vis-à-vis d'une requête n'est plus fonction de la requête seule mais en plus du centre d'intérêt de l'utilisateur qui l'a soumise. Les approches basées sur le réordonnancement des résultats de recherche (Challam et al., 2007; Sieg et al., 2007) consistent souvent à combiner le score original du document et son score de similarité avec le profil utilisateur. Des variantes des approches de réordonnancement des résultats consistent en une catégorisation personnalisée (Ma et al., 2007) basée sur la classification des résultats de recherche dans des catégories représentatives des centres d'intérêts du profil utilisateur. La personnalisation dans (Liu et al., 2004) consiste à créer plusieurs listes de résultats associées aux catégories associées à la requête, ensuite à les combiner selon une méthode de réordonnancement par vote majoritaire. Notre approche de RI personnalisée porte sur la définition d'un profil utilisateur selon un graphe de concepts issu de l'ontologie de l'ODP. Le profil utilisateur est construit par combinaison des profils des requêtes inscrites dans une session de recherche. La personnalisation de recherche consiste à réordonner les résultats de recherche des requêtes en utilisant le profil utilisateur construit dans la session. Nous présentons dans la suite la terminologie et quelques notations utilisées dans notre système ainsi que son architecture générale. Une itération de recherche est définie par un ensemble d'actions impliquant différents évènements tels que la formulation d'une requête par l'utilisateur, la sélection de l'information via un processus de recherche suivie par les interactions de l'utilisateur qui permettent d'accomplir la tâche de recherche. Par conséquent, les éléments définissant une itération de recherche sont les suivants : la requête qs soumise à un instant s par un utilisateur u, la liste de résultats Ds retournés par le système correspondant à la requête qs et la sous-liste de résultats Dsr jugés pertinents implicitement par l'utilisateur. Un document est considéré comme pertinent s'il a été ainsi jugé par l'utilisateur de manière implicite 2. Une session de recherche est définie par une séquence d'itérations de recherche liées à un même besoin en information. On suppose que l'utilisateur soumet des requêtes de contenu qui peuvent être groupées dans des sessions de recherche selon un mécanisme de délimitation des sessions de recherche. Formellement, nous définissons une session de recherche S à l'instant s par une séquence des itérations de recherche définies par les requêtes {q 0 ,.., qs –1, qs} soumises respectivement aux instants {0 ,.., s – 1, s }. Le profil de la requête traduit les concepts d'intérêts de l'utilisateur correspondant à une certaine requête. Il est représenté à l'instant s selon un graphe Gsq de concepts sémantiquement reliés et issus d'une ontologie prédéfinie. Ce profil est construit à partir des documents jugés pertinents Dsr retournés par le système pour la requête qs. Le profil de l'utilisateur définit les concepts d'intérêt de l'utilisateur tout au long d'une session de recherche. Il est également représenté selon un graphe de concepts sémantiquement reliés de l'ontologie. Ce profil est initialisé par le profil G 0 q de la première requête soumise dans la session. Au cours de la session, il est mis à jour par enrichissement des concepts récurrents issus des profils des requêtes de la même session. L'architecture générale de notre système de RI personnalisé est décrite dans l'algorithme 1. L'algorithme met en place le scénario suivant : un utilisateur u soumet une requête qs à l'instant s au moteur de recherche; ce dernier retourne une liste de résultats Ds parmi lesquels l'utilisateur clique sur un ensemble de résultats Dsr qui lui semble pertinent. Partant de ces documents, le système construit le profil de la requête. Le système traite chaque nouvelle requête dans un mécanisme de délimitation des sessions de recherche. Ce dernier est basé sur la mesure de corrélation de rangs de Kendall (Daoud et al., 2009) qui permet de mesurer la corrélation des rangs Δ I entre les concepts du profil utilisateur Gsu et les concepts associés à la nouvelle requête q s +1. Nous identifions un seuil de corrélation optimal σ ∗ et considérons que deux requêtes successives sont inscrites dans la même session si la corrélation est supérieure au seuil optimal. Deux cas peuvent être envisagés : Quand la corrélation Δ I est supérieure au seuil optimal, on considère que la requête q s +1 est liée au profil utilisateur qui est par la suite utilisé dans le réordonnancement de ses résultats de recherche. En utilisant les documents jugés pertinents implicitement par l'utilisateur, le système construit le profil de la nouvelle requête G s +1 q. Le profil utilisateur Gsu est ensuite mis à jour par combinaison avec le profil de la requête G s +1 q selon une méthode de combinaison de graphes. Ainsi, le profil utilisateur contient des nouveaux concepts/liens issus du profil de la nouvelle requête permettant de prendre en compte de nouveaux concepts d'intérêts spécifiques à la requête. Selon cette architecture, notre approche est décrite par trois principales composantes : La construction du profil utilisateur dans une session de recherche, la personnalisation du processus de recherche, le mécanisme de délimitation des sessions de recherche. Nous définissons le profil utilisateur par le centre d'intérêt de l'utilisateur inféré pendant une session de recherche. Il est construit par combinaison des profils de requêtes représentés également sous forme de graphes. Il existe plusieurs hiérarchies de concepts ou ontologies de domaines conçues dans le but de répertorier le contenu des pages web pour une navigation facile par les utilisateurs. On cite les portails en ligne tels que “Yahoo” 3, “Magellan” 4, “Lycos” 5, et l' “ODP ”. Vu que l'ODP est le plus grand et le plus complet des répertoires du web édités par des êtres humains 6, on l'utilise comme une source de connaissance sémantique dans le processus de construction du profil utilisateur. Les catégories sémantiques de l'ontologie sont reliées par des relations de différents types tels que “is-a ”, “symbolic” et “related ”; Les liens de type “is a” permettent d'hiérarchiser les concepts des niveaux génériques aux niveaux plus spécifiques. Les liens de type “symbolic” permettent la multi-classification des pages dans plusieurs concepts, ce qui facilite la navigation entre des concepts spécifiques sans passer par des concepts généraux. Les liens de type “related” libellés par “see also” permettent de pointer vers des concepts traitant la même thématique sans avoir des pages web en commun. On considère que chaque catégorie de l'ODP représente un concept qui peut représenter un domaine d'intérêt d'un utilisateur web et est associée manuellement par des éditeurs à des pages web dont le contenu correspond à la sémantique liée à la catégorie. Les données de l'ODP sont disponibles dans deux fichiers de type “RDF” : le premier contient la structure arborescente de l'ontologie et le deuxième liste les ressources ou les pages web associées à chacune des catégories. Dans ces fichiers, chaque catégorie de l'ODP est représentée par un titre et une description décrivant en général le contenu des pages web associées, et chaque page web est associée de même à un titre et une description décrivant son contenu. Notre objectif est de représenter chaque catégorie sémantique de l'ODP selon le modèle vectoriel servant ainsi ultérieurement à inférer le profil utilisateur. En effet, afin de mettre en place une telle classification précise, nous avons choisi de représenter chaque catégorie en utilisant les 60 premiers titres et descriptions des liens url associés. L'étude dans (Shen et al., 2004) a montré que l'utilisation des titres et des descriptions composés manuellement dans le répertoire du web “Looksmart” permet d'achever une précision de classification plus élevée que l'utilisation du contenu des pages. Pour cela, nous avons procédé comme suit : concaténer les titres et descriptions des 60 premières pages web associées à chacune des catégories dans un super-document sdj formant ainsi une collection de super-documents, un par catégorie, supprimer les mots vides et lemmatiser les mots des super-documents à l'aide de l'algorithme de porter, représenter chaque super-document noté sdj par un vecteur selon le modèle vectoriel où le poids wij du terme ti dans le super-document sdj est calculé comme suit : Où pij = le degré de représentativité du terme ti dans le super-document sdj N = le nombre de super-documents de la collection Ni = le nombre de super-documents contenant le terme ti Le degré de représentativité du terme dans le super-document est égal à la moyenne de la fréquence du terme dans ce super-document et sa fréquence dans les super-documents fils. Chaque catégorie de l'ODP cj est représentée selon le modèle vectoriel par le vecteur. Le profil de la requête ainsi que le profil utilisateur sont représentés chacun selon un graphe de concepts pondérés. La structure du graphe G=(V,E) est constituée d'une composante hiérarchique formée des liens de type “is-a” et une composante non hiérarchique formée par des liens de différents types prédéfinis dans l'ontologie de l'ODP, où : V est un ensemble de nœuds pondérés, représentant les concepts d'intérêts de l'utilisateur, E est un ensemble d'arcs entre les nœuds du graphe V, partitionné en trois sous-ensembles T, S et R, tel que : T correspond à la composante hiérarchique du profil utilisateur contenant les liens de type “is-a ”, S correspond à la composante non hiérarchique contenant les liens de type “symbolic ”, R correspond à la composante non hiérarchique contenant les liens de type “related ”. La figure 1 illustre un exemple d'un profil utilisateur dérivé de l'ontologie de l'ODP et correspondant à la recherche dans le domaine computer language programming. Dans cet exemple, le profil utilisateur G est défini par les ensembles suivants : Le profil de la requête permet de traduire le centre d'intérêt en cours d'identification à travers la requête de l'utilisateur. Chaque requête qs soumise à l'instant s est associée à un ensemble de documents Ds retournés par le système et un ensemble de documents pertinents Dsp jugés implicitement par l'utilisateur. Nous dérivons tout d'abord le contexte de la requête Ks comme étant un vecteur de termes les plus représentatifs dans les documents pertinents associés Dsp. Ks et calculé selon la formule suivante : Où wtd = tfd * log (n / nt), tfd est la fréquence du terme t dans le document d, n est le nombre total de documents dans la collection de test et nt est le nombre de documents contenant le terme t. Dans le but de représenter le profil utilisateur selon un graphe de concepts, nous avons utilisé l'ODP comme une ontologie de référence. Chaque concept cj de l'ODP est représenté par un vecteur de termes pondérés. Nous projetons le contexte de la requête Ks sur l'ontologie de l'ODP comme suit : Nous obtenons ainsi un ensemble θs = {(c 1, score (c 1),..( ci, score (ci),)} de concepts pondérés. Sur cet ensemble, nous appliquons une méthode de propagation de scores sur les liens sémantiques détaillée dans l'algorithme 2 dans le but de représenter le profil de la requête Gsq selon un graphe de concepts sémantiquement liés en respectant la topologie de l'ontologie de l'ODP. Le poids d'un concept du graphe traduit son degré de représentativité du centre d'intérêt. L'algorithme 2 décrit la propagation des scores des concepts et l'extraction du profil de la requête selon un graphe de concepts. Nous distinguons le rôle de différents types de liens dans la propagation des scores des concepts. En effet, nous utilisons la pondération des liens adoptée dans (Maguitman et al., 2005) comme suit : wij = αS lorsque eij ∈ S ∪ T, wij = αR lorsque eij ∈ R, où eij est le lien liant le concept i au concept j. Nous fixons αS = 1 vu que les liens de type symbolic servent à la multi-classification d'une page. Par suite ces liens sont donc au même niveau que les liens de type " is-a " dans l'ontologie de l'ODP. Nous fixons αR = 0.5 vu que les liens de type related (libellé par " see also ") pointent vers des concepts traitant la même thématique mais ne signifient pas qu'une même page peut être classifiée dans deux concepts liés avec ce type de lien. Chaque concept ci dans θs propage son poids aux concepts auxquels il est lié sémantiquement (liens de type " related " et " symbolic "). Si un concept est activé par plusieurs concepts, son poids est recalculé par accumulation des poids propagés. Les concepts reliés entre eux sont groupés pour former un graphe ou des graphes multiples non reliés. Nous définissons le poids w (Gi) d'un graphe Gi comme étant la somme des poids de ses nœuds. Finalement le profil de la requête Gsq à l'instant s est représenté par le graphe ayant le poids le plus élevé parmi les graphes créés. Le profil utilisateur traduit le centre d'intérêt de l'utilisateur agrégé sur toute la session de recherche. Il est initialisé par le profil G 0 q de la première requête q 0 soumise dans la session S. Pour une nouvelle requête q s +1 de la même session, le profil utilisateur Gsu à l'instant s est mis à jour par combinaison avec le profil de la nouvelle requête soumise Gs +1 q. Cette combinaison consiste à : accumuler les poids des concepts communs ci entre le profil de la requête et le profil utilisateur. Ceci permet de mieux pondérer les concepts récurrents de la session dans la représentation du profil utilisateur. où est le poids du concept ci dans le profil utilisateur, est le poids du concept ci dans le profil de la requête Gs +1 q. combiner le profil utilisateur avec le profil de la requête comme suit : Ceci permet de garder tous les concepts de la session ayant des degrés d'intérêts significatifs par rapport à l'utilisateur dans la représentation du profil de l'utilisateur. Le profil utilisateur Gsu construit sur la base d'une session de recherche est exploité dans le réordonnancement des résultats de recherche d'une requête qs +1 de la même session. Notre fonction de réordonnancement est basée sur la combinaison des scores d'appariement original et personnalisé du document : Où 0 < γ < 1. Le score personnalisé du document est calculé selon une mesure de similarité entre son vecteur représentatif dk et le vecteur représentatif du profil adéquat Gsu. Où cj représente un concept du profil, score (cj) est le poids du concept cj dans le profil. Notre approche de délimitation des sessions de recherche permet de détecter le basculement dans le sujet de la requête basé sur une mesure de corrélation thématique appliquée entre le profil utilisateur courant (dérivé à partir des requêtes précédentes de la même session), soit Gsu, et les concepts représentant la requête en cours d'évaluation, soit. Le calcul du vecteur conceptuel de la requête est détaillé dans (Daoud et al., 2009) et se fait par appariement de son vecteur mots clés avec les concepts de l'ontologie. La corrélation requête-profil est calculée selon la mesure de corrélation de Kendall en constatant qu'une valeur de corrélation inférieure au seuil optimal σ*, signifie un basculement dans le sujet des requêtes; sinon les requêtes adressent le même sujet général. La corrélation thématique Δ I entre la requête et le profil utilisateur est calculée comme suit : où ci et cj sont des concepts issus respectivement de la requête et du profil utilisateur. est le poids du concept ci dans. Nous avons mené des expérimentations par simulation de profils utilisateurs dans le but d'évaluer notre système de RI personnalisé sur des collections de test différentes issues de TREC. L'évaluation des SRI personnalisés par simulation de contextes permet de mettre en œuvre des évaluations répétitives et comparables (Tamine et al., 2009). Pour cela, nous avons proposé des cadres d'évaluations adaptés à notre système pour chacune des collections tout en intégrant le profil utilisateur comme une composante principale de la collection de test et en intégrant également la session de recherche dans la stratégie d'évaluation. Le but de cette expérimentation est d'évaluer l'efficacité du processus de RI personnalisée sur la collection TREC ad hoc où les sessions de recherche sont prédéfinies. Nous avons comparé la performance de la recherche classique obtenue pour la requête seule à celle de la recherche personnalisée obtenue pour la requête en intégrant le profil utilisateur associé dans le processus de recherche. Nous avons utilisé les requêtes de la collection TREC 1 numérotées de 51 à 100 présentées dans le tableau 1. Le choix de cette collection de requêtes est guidé par le fait qu'elles sont annotées d'un champ particulier noté “Domain” qui décrit un domaine d'intérêt traité par la requête. C'est cette métadonnée qui sera exploitée pour simuler des utilisateurs hypothétiques avec des centres d'intérêt issus de ces domaines. La collection de documents de la campagne d'évaluation TREC 1 ad hoc utilisée, est celle des disques 1, 2 et 3. Les documents de cette collection sont issus de différents articles de presse tels que Associate Press (AP), Wall street journal (WJS), Financial times. Domaines de TREC choisis pour la simulation des profils utilisateurs Domaines Requêtes Environment 59 77 78 83 Military 62 71 91 92 Law and Government 70 76 85 87 International Relations 64 67 69 79 100 US Economics 57 72 84 International Politics 61 74 80 93 99 Le profil utilisateur est un élément intégré dans la collection de test selon un algorithme de simulation qui le génère à partir des requêtes du même domaine décrit comme suit : pour chaque domaine k de la collection (noté Domk avec k = (1..6)), nous sélectionnons, parmi les n requêtes associées à ce domaine, un sous-ensemble de n – 1 requêtes qui constitue l'ensemble d'apprentissage d'un profil utilisateur, à partir de cet ensemble d'apprentissage, un processus automatique se charge de récupérer, la liste des vecteurs associés aux documents pertinents de chaque requête, partant des vecteurs documents, le processus de construction du profil utilisateur est déployé sur cet ensemble de requêtes. Un vecteur basé mots clés appelé contexte de la requête est construit puis projeté sur l'ontologie de l'ODP aboutissant à la construction du profil de la requête. Puis un processus de construction du profil utilisateur permet de le définir par combinaison des profils des requêtes d'apprentissage. Le profil utilisateur est alors représenté par un graphe de concepts. Le protocole d'évaluation adopté, a été initialement défini pour l'évaluation de l'accès personnalisé guidé par le profil utilisateur, basé mots clés (Tamine et al., 2008). Nous étendons ce même protocole pour supporter un profil utilisateur basé sur un graphe de concepts issu d'une ontologie web prédéfinie. Ce protocole consiste en un scénario qui se base sur la méthode de la validation croisée (Mitchell, 1997) et ce, pour ne pas biaiser les résultats avec un seul jeu de test. Nous considérons ici que les sessions de recherche sont définies préalablement par l'ensemble de requêtes annotées des domaines de TREC. Dans notre cas, on subdivise l'ensemble des n requêtes du domaine en un sous-ensemble d'apprentissage de n – 1 requêtes pour apprendre le profil utilisateur et en un sous-ensemble de test contenant la nme requête à tester. Nous avons mené nos expérimentations en utilisant le moteur de recherche " Mercure " (Boughanem et al., 2003) et selon le protocole d'évaluation présenté précédemment. Pour chaque requête de test d'un domaine simulé, le modèle de recherche classique est basé sur la fonction d'appariement BM25 donnée dans la formule suivante : où tfd est la fréquence du terme t dans le document d, n est le nombre total des documents de la collection de test et nt est le nombre de documents contenant le terme t, K 1 = 2 and b = 0.75. Dans le modèle de RI personnalisée, le profil utilisateur est construit à partir des 10 premiers documents listés dans le fichier de jugements de pertinence fourni par TREC. Le processus de RI personnalisée est basé sur le réordonnancement des résultats de recherche de la requête utilisant le profil avec γ = 0, 3 dans la formule 4 et h = 3 dans la formule 5 identifiées dans des expérimentations préliminaires comme étant des valeurs optimisant la performance du système. Les résultats obtenus sont présentés en termes de précision et rappel calculés à différents points (5, 10 … 100 premiers documents restitués). Nous comparons les résultats obtenus de notre modèle à la baseline obtenue sans l'intégration du profil utilisateur dans le processus de recherche. Les résultats sont présentés dans la figure 3 et montrent un taux d'accroissement significatif de notre modèle sur l'ensemble des requêtes de test. Plus précisément, les pourcentages d'amélioration sont de 10 % et de 11.6 % respectivement pour le rappel au Top-10 rappel et la précision au Top-10. Le but de cette expérimentation est d'évaluer l'efficacité de notre modèle sur des requêtes difficiles et en l'absence d'une connaissance préalable de corrélation entre ces requêtes. Cette expérimentation est basée sur deux étapes : la première consiste à définir des sessions de recherches simulées par la génération des sous-requêtes corrélées d'une même requête. La deuxième étape consiste à définir une stratégie de test permettant d'évaluer l'efficacité de notre modèle à travers une séquence de sessions de recherche simulées traitant de sujets différents. Nous avons utilisé les requêtes de la collection HARD TREC 2003. Le choix de cette collection a pour but d'augmenter la précision de recherche sur des requêtes difficiles. Le corpus HARD comprend des documents comprenant des textes issus du NewsWire 1999, AQUAINT corpus et U.S. government. Vu qu'aucune information concernant la corrélation entre ces requêtes n'existe, nous procédons par la définition des sous-requêtes à partir d'une même requête. La requête principale représente un sujet auquel les sous-requêtes générées sont rattachées définissant une session de recherche. Le processus de génération des sous-requêtes d'une même requête est détaillé comme suit : Extraire le profil pertinence de la requête principale q en construisant l'ensemble des N vecteurs documents pertinents associés extraits du fichier de jugements de pertinence fourni par TREC, soit dpq, Subdiviser ce profil en p sous-profils, notés spi, spi ⊂ dpq, Pour chaque sous-profil pertinence spi, créer un vecteur centroïde selon la formule : est le poids du terme t dans le document d calculé selon la fonction de pondération classique tf * idf, Extraire de chaque centroïde la sous-requête représentée par les k termes les mieux pondérés, Eliminer les documents pertinents dpq de la requête de la collection de test. Nous avons séléctionné les requêtes qui ont une précision MAP non nulle et un nombre suffisant de documents pertinents (N > 30). Un exemple des sous-requêtes générées est donné dans le tableau 2 où tout document concernant des décès à l'extérieur des Etas-Unis sont considérés comme étant non pertinents. Exemple de trois sous-requêtes générées à partir d'une requête Topic HARD-77 Insect-borne illnesses Sous-requête 1 encephalitis, lyme, state Sous-requête 2 encephalitis, mosquito, spray Sous-requête 3 state, encephalitis, nile Search terms given by TREC insects, Lyme Disease, ticks, West Nile virus, mosquitos Dans le but de valider le processus d'extraction de sous-requêtes, nous avons évalué : le taux de recouvrement de chaque sous-requête relativement à la requête principale. Ce taux est calculé par estimation du pourcentage de documents pertinents communs retournés par ces deux types de requêtes. La figure 4 montre bien que les sous-requêtes permettent de retourner autant, sinon plus de documents pertinents que la requête principale, ce qui traduit bien que les sous-requêtes traitent du sujet de la requête principale, le taux de non-recouvrement moyen entre les sous-requêtes. Ce taux est calculé par estimation du pourcentage de documents différents retournés par chaque type de requêtes et classé parmi les 20 ou 50 premiers documents retournés. La figure 5 montre bien, avec un taux de non-recouvrement de plus de 40 % que les sous-requêtes ne contiennent pas les mêmes termes tout en traitant le même sujet, ce qui va dans le sens de la complétude du sujet traité par la requête principale. Le principe de construction du profil utilisateur est analogue à celui décrit en TREC adhoc. Dans cette expérimentation, nous spécifions que : la notion de domaine, clairement identifiée dans le cas de la collection TREC ad hoc est remplacée par la notion de sujet de requête principal, non connu a priori, les requêtes associées aux domaines sont remplacées par les sous-requêtes associées à la requête principale en cours de traitement, les requêtes servant à la construction du profil sont des sous-requêtes corrélées le long d'une séquence de sessions de recherche simulées. La corrélation des requêtes est identifié via le mécanisme de délimitation des sessions de recherche impliquée dans le système. Notre stratégie de validation consiste à diviser l'ensemble de requêtes en un ensemble de requêtes d'apprentissage permettant de paramétrer le système quant à la définition du seuil du mécanisme de délimitation de sessions de recherche et un ensemble de requêtes de test permettant d'évaluer l'efficacité de la recherche personnalisée. Cette phase est une étape préliminaire qui consiste principalement à déterminer le seuil de corrélation optimal à partir d'une séquence des sessions d'apprentissage. Cette phase est décrite selon les étapes suivantes : Définir une séquence critique des sessions d'apprentissage par alignement successif des sous-requêtes d'une même requête. Chaque session d'apprentissage est définie par trois sous-requêtes qui servent à la création du profil approprié. L'ordre des requêtes dans la séquence est fondé sur la corrélation thématique maximale entre requêtes successives dans le but de confronter nos évaluations expérimentales à un seuil de corrélation issu des basculements de sujet général éventuellement difficile à identifier. Tout au long de la séquence de sous-requêtes d'apprentissage définie, calculer les valeurs de corrélation entre une sous-requête traitée de la séquence et le profil utilisateur créé sur l'ensemble des sous-requêtes précédentes et liées à une même requête. pour chaque valeur de seuil de corrélation obtenue, calculer la précision de détéction des requêtes corrélées Pintra et celle de délimitation de sessions de recherche Pinter selon les formules suivantes : où | CQ | est le nombre de sous-requêtes correctement classifiées comme corrélées, | TCQ | est le nombre total de sous-requêtes devant être identifiées comme corrélées sur la séquence, | FQ | est le nombre de sous-requêtes indiquant des frontières correctes de sessions de recherche et | TFQ | est le nombre total de frontières de sessions de la séquence. Le seuil de corrélation optimal σ* est ensuite identifié pour des valeurs de précisions maximales de (Pintra (σ) et Pinter (σ)). En effet, le seuil optimal est calculé comme suit : Ce seuil de corrélation est exploité dans la phase de test dans le but de classifier des sous-requêtes de test dans une même session. La phase de test est basée sur l'évaluation de notre approche de RI le long d'une séquence de sessions issue d'un ensemble de requêtes de test traitant de sujets différents. Les étapes concernant la phase de test sont les suivantes : Définir la séquence des sessions de test par alignement des sous-requêtes de requêtes de test. L'ordre des requêtes associé aux sous-requêtes est défini par leur numérotation donnée par TREC HARD. Le profil utilisateur est construit sur la base de sous-requêtes considérées comme corrélées selon le seuil de corrélation optimal σ*. Toute sous-requête de la séquence ayant une valeur de corrélation plus grande que le seuil optimal est classifiée dans la session en cours de traitement. Par conséquent, le profil utilisateur de la session est utilisé dans le réordonnancement des résultats de recherche de cette sous-requête. Notons que les documents pertinents ayant servi à la création des profils utilisateurs dans cette phase ne sont pas considérés pour l'évaluation des performances associées à ces sous-requêtes. Ceci permet en effet de ne pas biaiser les résultats dans le sens des documents pertinents déjà considérés dans la construction du profil. Les objectifs de cette expérimentation consistent à : (1) évaluer le mécanisme de délimitation de sessions de recherche, (2) mesurer l'efficacité du modèle de recherche intégrant le profil utilisateur le long des sessions de recherche simulées. Dans le but d'atteindre cet objectif, nous avons appliqué la phase d'apprentissage de la stratégie d'évaluation présentée précédemment. Nous avons sélectionné une séquence critique de sessions d'apprentissage contenant des sous-requêtes issues de 15 requêtes de HARD TREC. Le nombre de documents pertinents utilisés pour la génération des sous-requêtes d'une requête q est fixé à dpq = 30. Sur cette séquence, nous avons 14 frontières de sessions à détecter (TBQ =14) et 30 sous-requêtes (TRQ=30) où deux sous-requêtes par session doivent être identifiées comme corrélées. Nous montrons dans la figure 6 les résultats de l'évaluation de la délimitation des sessions de recherche selon la mesure de Kendall comparée à celle du Webjaccard (Haveliwala et al., 2002). Celle -ci consiste à calculer la fraction des concepts communs entre la requête et le profil utilisateur sur l'ensemble de concepts total. Les résultats montrent que notre protocole nous permet effectivement d'identifier des jalons des sessions avec des taux de précision significatifs pour la mesure de Kendall. Le seuil optimal obtenu est de (σ* = –0.34) atteignant une précision de classification optimale par rapport à WebJaccard. Plus précisément, la précision obtenue par Kendall (resp. parWebJaccard) est de 45.71 % (resp. 30 %) avec des précisions Pintra et Pinter obtenues par Kendall (resp. WebJaccard) égales à 53.33 % et 85.71 % (resp. 30 % et 100 %). Ceci prouve expérimentalement que le changement de rangs des concepts représentant le profil utilisateur permet de scruter plus précisément le changement du sujet de la requête entre les sessions de recherche. L'évaluation de l'efficacité du modèle consiste à comparer la performance du système en utilisant le profil de l'utilisateur à la performance du système résultant de la recherche classique ignorant le profil utilisateur. Nous avons construit la séquence de sessions de test en utilisant 15 requêtes de test de HARD TREC. La valeur de seuil optimal σ* = –0.34 est utilisée afin de construire le profil utilisateur sur des sous-requêtes corrélées. Le modèle de RI personnalisée est analogue à celui décrit en TREC adhoc. La figure 7 montre les résultats obtenus par le modèle classique et le modèle d'accès personnalisé en termes de précision moyenne et rappel moyen. Nous pouvons constater une amélioration significative pour notre modèle aussi bien selon la mesure du rappel que de la précision sur les n premiers documents restitués par le système. Plus précisément, les pourcentages d'amélioration sont de 23.6 % et de 6 % respectivement pour le rappel au Top-10 rappel et la précision au Top-10. La différence des taux de performance de la RI personnalisée obtenue sur la collection TREC HARD par rapport à celle du TREC adhoc est due principalement à la précision du profil. Celle -ci est liée à deux facteurs. Le premier facteur est le degré de corrélation de requêtes d'une même session (requêtes annotées d'un domaine dans TREC adhoc / sous-requêtes d'une même requête dans HARD TREC) qui a un impact sur le degré d'efficacité du profil construit. Le deuxième facteur est lié à la robustesse du mécanisme de classification des sessions de recherche qui intègre un seuil de corrélation servant à la construction d'un profil plus ou moins précis dans le cadre de HARD TREC. Toutefois, les résultats obtenus montrent effectivement des taux d'accroissements significatifs par rapport au modèle de la baseline. Ceci confirme la stabilité de la performance du système selon les deux cadres proposés sur des collections différentes. Nous avons présenté dans ce papier un système de RI personnalisé intégrant un profil utilisateur sémantique dans le processus de recherche d'information. Ce système intègre un mécanisme de délimitation des sessions de recherche permettant de grouper les requêtes liées à un même besoin en informations dans une même session. Nous avons évalué notre système sur deux collections TREC différentes selon des stratégies d'évaluations adaptées au système d'accès personnalisé à l'information. L'évaluation expérimentale montre bien l'efficacité de notre approche de RI personnalisée par rapport à la recherche classique d'une part et la stabilité de performance du système sur des collections TREC différentes. En plus, les résultats de la classification des sessions de recherche sur HARD TREC 2003 révèlent un taux de précision significatif. Ceci confirme que la mesure de corrélation de rangs est proprement utilisée pour scruter le changement de sujet entre les sessions. Les perspectives de recherche ouvertes par ce travail portent sur la construction d'un profil utilisateur intégrant une diversité des centres d'intérêts dans le but de personnaliser des requêtes récurrentes au cours des sessions de recherche. En plus, le mécanisme de délimitation des sessions de recherche peut être amélioré par l'intégration d'une mesure de corrélation temporelle en plus de la mesure de corrélation thématique entre les requêtes. Nous envisageons d'évaluer notre système selon une étude de cas permettant d'exploiter des données réelles des utilisateurs, issues d'un log de moteur de recherche .
L'objectif de la recherche d'information (RI) personnalisée est de répondre mieux aux besoins en informations de l'utilisateur tout en intégrant son profil dans la chaîne d'accès à l'information. Les principaux défis en RI personnalisée concernent la modélisation du profil utilisateur et son exploitation dans le processus de recherche. Ce papier présente une conception et une évaluation d'un système de RI personnalisé intégrant un profil utilisateur sémantique. Le profil utilisateur est représenté selon un graphe de concepts issu d'une ontologie de référence, l'ODP. Il est construit le long de requêtes corrélées et est utilisé dans le réordonnancement des résultats. Nous avons évalué notre système sur deux collections TREC différentes et avons montré une amélioration significative de la RI personnalisée par rapport à la RI classique.
sciencesInfo_11-0471927_tei_DN_131_0137.tei.xml
termith-435-communication
Ce numéro spécial s'adresse aux acteurs de la conception de documents numériques, qu'ils soient professionnels, chercheurs, enseignants. Pour simplifier le propos nous désigneront par « l'agence » la cible principale de cet article introductif. La visée n'est pas exhaustive, même si, pour cette introduction, nous nous efforcerons de donner une vision d'ensemble de diverses méthodologies utilisées en matière de conception de documents numériques. Les articles présentés ensuite en illustreront certains aspects de manière plus approfondie. Le point de vue adopté consiste à formaliser une démarche globale de conception qui ne soit pas trop lourde et qui à certains moments-clés mobilise des outils qui permettent de prendre en compte certain(e)s besoins/préférences des utilisateurs mais aussi le respect des standards existants. Certaines démarches d'ingénierie cognitive, d'analyse et de conception globales (Poulson et al., 1996) sont difficiles à appréhender dans la réalité de nombreux projets de petite et moyenne envergure. Nous présentons ici une démarche qui place le concepteur face à ses besoins d'analyse tout en intégrant en parallèle des dimensions propres à l'usager. Bien entendu pour des projets conséquents en taille et en enjeux (sécurité, fiabilité) des démarches plus formelles intégrant d'autres méthodes de conception pourront être mobilisées. Toutefois dans ces cas de figure, il faudra bien souvent faire appel à des spécialistes de l'ingénierie cognitive. Le processus de conception peut s'envisager pour le concepteur du plus général au particulier comme sur la figure 1. La première phase va servir à organiser l'information sous la forme d'une structure de navigation. Cette structure donnera lieu à une arborescence, un schéma de navigation ou d'autres formes de représentation de l'information plus moléculaires dans le cas de scénarios par exemple. Cette macrostructuration n'est pas visible mais perceptible lors des processus de navigation qui organiseront l'accès à l'information à l'aide d'organisateurs de structure et de navigation. Cette première phase a deux objectifs, la segmentation de l'information et sa représentation formelle, puis l'identification d'un certain nombre d'espaces (ou de pages par analogie au livre) ayant des caractéristiques communes. Ces pages ou « écrans types » donneront lieu à un prototypage spécifique (page d'accueil, plan du site, formulaire, page produit etc.) qui constituera une seconde phase. A un niveau inférieur on aura le souci, pour chaque type d'écran, d'organiser l'information et de la mettre en forme à l'aide d'organisateurs de mise en relief de l'information (mise en avant vs. mise en retrait). On sera particulièrement attentif aux zones de chaque écran type et en particulier à la zone d'information principale des pages liées à la présentation du « contenu » proprement dit. La question du découpage de l'information pour la mise en écran n'est pas nouvelle. Les sumériens qui écrivaient sur des tablettes d'argile il y a 4000 ans se posaient vraisemblablement les mêmes questions que nous. Comment disposer des informations dans un espace limité ? Le découpage à gros grain (DGG désormais) de l'information consiste à considérer (approximativement) l'ensemble des informations ou des types de contenus à présenter dans le document et à les organiser de manière à en permettre l'accès. Trois cas de figure peuvent se présenter : le DGG est imposé/proposé par le commanditaire (sous forme d'arborescence ou de liste), le DGG est contraint par un scénario (ludique, pédagogique), le DGG est à la charge de l'agence. Dans tous les cas et surtout quand le découpage est à la charge de l'agence, on veillera dans une phase préalable à identifier les types d'utilisateurs, la tâche et le contexte d'utilisation dont va faire l'objet le document. Ces facteurs pourront être présentés dès le cahier des charges et permettront de statuer sur la pertinence du DGG. Par exemple, dans le cas de la réalisation d'un document de formation à la recherche d'information commandé par le service commun de documentation d'une université, on pourra brièvement décrire ces éléments de la manière suivante : utilisateurs : étudiants de niveau (Licence) L1, L2, L3, tâche : Maîtriser la recherche d'information sur internet, contexte : utilisation du cours en autonomie à l'université ou en dehors. Utilisation du cours comme support de formation pour des activités encadrées en groupes avec un formateur. Le macrodécoupage, quand il est fourni par le commanditaire peut toutefois être perfectible. Des rubriques et sous-rubriques peuvent avoir le même nom par exemple. L'organisation peut ne pas être adaptée aux utilisateurs ciblés (organisation, vocabulaire) où à la tâche, au contexte. Dans ce cas, le rôle de l'agence pourra être de valider ce DGG et au besoin attirer l'attention du commanditaire sur les éventuelles faiblesses du découpage fourni. Dans cette perspective, on pourra utiliser la méthode du tri de cartes pour valider ou non l'arborescence proposée. On consultera valablement, dans ce numéro spécial, l'article de Fastrez P. Campion B. et Collard A.-S. qui présente la méthode du tri de cartes appliquée à la définition de l'architecture du site web d'un département universitaire. Le découpage à gros grain peut être dépendant d'une séquence scénarisée et répondre à d'autres logiques que celles qui peuvent être inhérentes à une structure de navigation traditionnelle dépendante des liens prévus. Dans cette perspective il convient d'adapter la répartition du contenu dans des séquences qui peuvent avoir une présentation formelle moléculaire ou atomique et répondre à des fonctionnements « programmés ». L'article de A. Durand part de ce postulat et l'applique à la formalisation moléculaire pour l'écriture de scenarii de documents multimédias. Le découpage à gros grain peut faire partie de la commande et être proposé par l'agence. Dans ce cas, l'étude préalable au projet devra intégrer cet aspect et selon l'objet du document (procédural : ex. vente en ligne, procédure de SAV, ou connaissance ex. : site vitrine) on recourra à diverses méthodes de conception. Concernant les documents numériques à vocation pédagogique, une représentation des concepts à intégrer par les apprenants sous forme d'unités sémantiques ou d'ontologies pourra être mobilisée. (cf. l'article de A. Aqqal, N. Elkamoun, C. Rensing, A. Berraissoul, R. Steinmetz dans ce numéro sur la représentation formelle de contenus à vocation pédagogique). L'identification des utilisateurs ciblés et de leurs besoins sera une étape importante pour l'obtention d'un DGG pertinent. On pourra recourir à la méthode des personas (simulation de profils d'utilisateurs fictifs, de leurs profils et besoins afférents) des staffs d'experts de communautés de pratique. E. Brangier, J Dinet, et J.-M. C. Bastien présentent dans leur article les théories participant à cette approche ainsi qu'un exemple d'application à la reconception d'une bibliothèque numérique sur la connaissance de la construction européenne. La figure 2 présente l'analyse préalable que doit mener l'agence dans le cas ou le DGG est à sa charge et quand cette analyse n'est pas fournie par le commanditaire. Avec des documents ayant une vocation procédurale (exécution d'une procédure ou assistance à l'exécution : assistance à une opération de service après vente par exemple), on utilisera des méthodes d'analyse de la tâche ou de l'activité. Les deux directions sont en général l'observation quand c'est possible et les interviews, entretiens, questionnaires. Concernant l'observation de la tâche à formaliser, on mobilisera les techniques liées à ce type de protocole : méthodologie de la psychologie expérimentale, verbalisation concomitante (Ericsson et al., 1993) (ou TPV technique des protocoles verbaux (Bisseret et al., 1999)), etc. Quand l'observation n'est pas possible ou souhaitable, on utilisera des méthodes d'interview ou de description formelle d'après un corpus textuel (entretiens, questionnaires) : TPC technique du pourquoi comment (Bisseret et al., 1999), méthodes d'analyse de tâches MAD (modèle analytique de description des tâches utilisateur (Scapin et al., 1990)). La méthode MAD est un formalisme qui permet de décrire une procédure sous une forme proche d'un algorithme (état initial, condition, action etc.) Pour les documents non procéduraux on pourra recourir à la méthode de tri de cartes évoquée plus haut, mais aussi à des formes de brain storming (TEA technique d'élicitation associative (Bisseret et al., 1999) ou des techniques de formalisation de schéma de catégorisation comme la technique des questions par alternative inspirée du jeu des 20 questions (TQA (Bisseret et al., 1999)). Le macrodécoupage peut être formalisé par une arborescence sous forme d'organigramme, une liste sous forme d'énumération à retraits successifs, un réseau de nœuds, d'atomes et molécules etc. La figure 3 présente un exemple d'arborescence qui comporte aussi les types d'informations présentes sur les pages. Les organisateurs de structure vont permettre l'accès à l'information et le repérage dans l'ensemble. Une image pertinente utilisée par Ronez est celle d'une commode aux tiroirs transparents dans laquelle on va ranger des vêtements (Ronez, 2007). Un document numérique professionnel doit avoir ce type de fonctionnement, c'est-à-dire un accès direct à l'information sans s'engager dans une démarche d'essai erreur (j'ouvre un tiroir et je le referme car ce n'est pas le bon). La page web doit faire l'effet d'une commode aux tiroirs transparents. Pas question d'ouvrir successivement tous les tiroirs pour découvrir où se trouvent les chaussettes (Ronez, 2007). Les organisateurs de structure ont aussi pour vocation de reconstituer artificiellement des dimensions « perdues » dans les documents numériques. Ces dimensions étaient souvent construites grâce à la possibilité de manipuler directement les documents papier (aspect tactile). Il s'agit par exemple de l'indication du volume global du document, de l'endroit où l'on se trouve dans l'ensemble, du contexte (ce qui précède, ce qui suit), du volume de la partie courante etc. Les organisateurs de structure facilitent la représentation mentale du document en vue d'éviter « surcharge cognitive » et « désorientation ». Ces organisateurs « artificiels » peuvent être utilisés conjointement. Les organisateurs de structure peuvent être composés de dispositifs langagiers (par exemple « écran 1 sur 5 ») ou non langagiers (icônes, couleurs, aplats etc.). Nous listons ici quelques exemples d'organisateurs d'aide à la construction d'un modèle mental de la structure du document que l'on peut utiliser pour améliorer l'utilisation de documents numériques : les plans (cartes de site, cartes de navigation), les indicateurs de positionnement (textuels : « écran 2 sur 12 » par ex.) ou sous-forme graphique comme dans l'exemple ci-après (site), les indicateurs de volume (graphiques ou textuels : « ce chapitre comporte 15 écrans »), les indicateurs de contexte (petit résumé textuel ou graphique qui permet de comprendre l'écran de façon autonome sans consulter les autres écrans), plans de sites. Les organisateurs de navigation facilitent l'orientation et les déplacements dans le document. Ces organisateurs permettent par exemple de connaître le chemin parcouru, de revenir à un point de référence. Tous ces organisateurs « artificiels » peuvent être utilisés conjointement. Les organisateurs de navigation peuvent être composés d'éléments langagiers (fil d'Ariane par exemple). Nous listons ici quelques exemples d'organisateurs d'aide à la navigation que l'on peut utiliser pour améliorer l'utilisation d'un document numérique : Historiques de la navigation (Les « miettes 2 » ou fil d'Ariane par exemple => Université de Bourgogne>Les formations>Les masters>Master 1 MASCI), retour à un « Point de repère » (Page d'accueil, Plan du site), dispositifs de progression séquentielle (boutons « tourne page », liens Suivant Précédent, par ex.), dispositifs de retour en arrière (« retour », fonction « Précédent » des navigateurs ou lien Retour), annonces de destination (site), dispositifs d'information locale (escamots et infobulles par exemple), dispositifs destinés à éviter les digressions, comme le regroupement des liens externes en bas d'écran, filtres vue (site Crédit Mutuel). On peut aussi considérer les moteurs de recherche insérés à l'intérieur de sites web dans cette optique, bien que ce ne soient pas à proprement parler des organisateurs, ils assurent une fonction analogue, assister la recherche et le parcours de l'information. Le cloisonnement n'est pas tout à fait étanche entre les catégories d'organisateurs de structure et de navigation. D'une part, les organisateurs de structure quand ils remplissent bien leur rôle ont aussi une influence sur la navigation. D'autre part, certains de ces organisateurs ont une double ou triple fonction (indication du volume du document et de la localisation de l'endroit courant : par exemple « écran 1 sur 5 »). En voici 2 exemples sur la figure 4 (Indicateur de volume, de positionnement et dispositif de progression séquentielle). Le prototypage/zonage consiste à maquetter les différents « écrans types » et à y placer les diverses zones d'information (on consultera l'article de T. Baccino dans ce numéro spécial sur le prototypage en ergonomie cognitive). Cet article présente cette démarche et le degré de fidélités des formes de prototypage. La figure 5 présente un prototype d'écran fourni par un commanditaire (Ecole Atelier des arts de la reliure « Les ateliers d'or ») et la réalisation de la page d'accueil par l'agence (figure 6). Les zones d'information peuvent donner lieu aussi à des modèles par type d'objet (tableaux, boutons, formulaires…). A ces maquettes fonctionnelles peuvent s'ajouter une recherche d'ambiance graphique en adéquation avec la demande du commanditaire. Cette recherche peut se faire à l'aide d'un concept board (association de textures, formes, objets, couleurs, typographies). La figure 7 présente un exemple de concept board. Des sites organisés en feuille de style qui présentent le même contenu avec différentes ambiances graphiques pourront aider à la réflexion (CSS ZenGarden). La combinaison du prototypage/zonage et de l'ambiance graphique pourra donner lieu au développement d'une charte fonctionnelle et/ou graphique. Dans cette étape qui consiste à organiser la partie visible du document on recourra massivement aux organisateurs paralinguistiques… Le DGF consiste à considérer (approximativement) l'ensemble des informations qui sont présentées dans la zone principale des pages de contenu. Cette zone est généralement celle qui occupe le plus d'espace à l'écran. Selon les projets, cette zone doit encore être analysée pour un découpage homogène de son contenu. Quelle méthode choisir ? Tout d'abord, on peut distinguer plusieurs méthodes selon les types de texte présentés. Nous nous limitons dans le cadre de cette réflexion aux textes techniques, utilitaires, qui sont les plus fréquemment rencontrés sur écran. Une première question à se poser est : le texte à présenter sur écran fait-il partie de catégories de textes qui ont une organisation reconnue ? Certains textes ont en effet une « macrostructure » qu'il n'est pas possible ou souhaitable de modifier lors du passage à l'écran (textes juridiques, articles de psychologie expérimentale etc.). Dans ce cas, la segmentation de l'information va respecter les habitudes des usagers de ce type de textes, faute de quoi, le texte deviendra inutilisable pour les professionnels qui doivent s'en servir. Concernant les autres types de textes techniques, en l'absence de macrostructure à respecter, on veillera à distinguer deux niveaux dans le texte. Ce qui est indispensable à la compréhension du texte ou à l'exécution d'une procédure décrite par le texte (informations de premier plan) et ce qui est accessoire (informations de second plan). Par analogie à une recette de cuisine, les unités textuelles de premier plan sont les ingrédients et la marche à suivre. Les informations de second plan sont toutes les autres informations de moindre importance (commentaires de l'auteur sur les trucs et astuces, sur la lecture du texte, également l'identification de l'auteur, le niveau d'expérience du public visé, le niveau de difficulté de la recette, les vins qui peuvent accompagner le plat, etc.). La figure 8 présente un exemple de distinction premier plan/second plan par la mise en forme matérielle du texte. Enfin dans de nombreux autres cas et notamment pour les écrits de type journalistiques, la méthode de pyramide inversée convient bien à la lecture à l'écran. Elle consiste à donner les informations les plus importantes en premier (titre et chapeau) et à donner plus de précision au lecteur qui continuera la lecture du texte. Le chapeau, petit résumé du texte, placé au début de celui -ci permettra en général au lecteur de lire (ou de se dispenser) du reste à bon escient. La méthode des cinq W, (Who) qui, (What) quoi, (When) quand, (Where) où, (Why) pourquoi, également issue de la presse, convient aussi pour les textes sur écran (Bailly, 2003). Elle permet de s'assurer que toutes les informations nécessaires à la construction d'une représentation de ce que dit le texte sont présentées au lecteur. Cette construction est pertinente pour des textes dont la lecture est fragmentaire (lecture de consultation plutôt que « de bout en bout »). Une fois le texte découpé et organisé de manière homogène et cohérente, les différentes parties seront signalées par des organisateurs de mise en forme ou « para-linguistiques ». Ces organisateurs pourront permettre de distinguer les informations de premier plan et de second plan mais aussi les différents types d'informations au sein de chaque niveau d'importance (ingrédients, marche à suivre, commentaires sur les actions, sur le niveau d'expérience du lecteur etc.) On veillera à rester homogène quant aux organisateurs choisis pour la mise en forme de chaque type d'information. Les organisateurs paralinguistiques sont liés à la mise en relief de l'information par des moyens non langagiers. Une manière langagière de marquer une information de moindre importance peut consister à faire précéder celle -ci d'un marqueur textuel « …soit dit entre parenthèses, […] ». Dans l'espace limité de l'écran, la mise en relief se fait souvent par le moyen d'organisateurs graphiques plutôt que langagiers. Leur fonction est double : indiquer l'importance d'une information (mise en avant ou mise en retrait), indiquer la nature des informations (commentaire de l'auteur, exemple, définition, référence…). On distingue habituellement les organisateurs paralinguistiques suivant : l'enrichissement typographique (variations de polices de caractère), les encadrés, aplats colorés, filets et autres dispositifs de présentation synoptiques (organigrammes tableaux), la couleur, l'espace et la densité informative, la ponctuation, mise en note, parenthèses, les caractères spéciaux, icônes. mais aussi ceux qui sont plus spécifiques des documents numériques : les animations d'objet ou de texte (clignotement, défilement, inverse vidéo, effets de flash), le temps (affichage temporisé de parties du texte par exemple), les escamots (pop-up window), le multifenêtrage, la transparence, les effets de flou, les effets fish eye ou loupe. Bien entendu lors des différentes étapes et pour tous les livrables, le commanditaire doit valider les choix de l'agence (cahier des charges, cahier de conception avec l'arborescence ou le scénario, les maquettes des écrans types, le découpage de l'information dans les zones d'information principale, la charte graphique/fonctionnelle…). Même si ces étapes reviennent fréquemment dans les projets de conception de documents numériques, la procédure peut revêtir également une part de nouveauté selon les projets, auquel cas l'activité des concepteurs est planifiée de façon opportuniste. Dans ce cas l'ordre habituel des étapes pourra être quelque peu bousculé (le concepteur commence par ce qu'il connaît sans nécessairement procéder du plus global au spécifique) et intervient à différents niveaux de la conception (structure, détails) (Cf. la préface d'André Bisseret de l'ouvrage (Caro, 2007)). En dépit de ces situations de conception assez fréquentes, il nous a semblé nécessaire de donner un aperçu d'un parcours de conception que l'on pourrait qualifier de « standard ». Nous n'avons toutefois pas présenté la totalité des méthodes qui peuvent être mobilisées, préférant comme annoncé dans cette introduction, donner un développement plus précis à quelques-unes d'entre elles .
Comme le livre, le document numérique est un type de document qui peut mobiliser de nombreux métiers pour son élaboration. La palette de ces métiers tend à s'accroître constamment: ergonomes, référenceurs, architectes de l'information, programmeurs, graphistes, intégrateurs... Il est par conséquent difficile d'avoir une vision globale sur tous ces savoir-faire et les méthodologies afférentes. Ce numéro spécial n'a d'autre prétention que de présenter une partie de ces méthodes propres à la conception de documents numériques. Ce faisant il contribue à rendre visibles des techniques qui sont employées par différents spécialistes du domaine dans le cadre de leur activité. Nous ne traiterons ici que certaines phases qui précèdent la fabrication à l'aide d'outils logiciels, de langages de programmation ou de description de page.
sciencesInfo_11-0249964_tei_DN_122_0007.tei.xml
termith-436-communication
L'appel au débat, récurrent en ce qui me concerne (voir Boure, 1997), étant fortheureusement susceptible d' être pris au sérieux dans le champ scientifique, je mevois mal refuser celui qui m'est proposé par Béatrice Fleury, Jacques Walter RogerBautier Pierre Delcambre, Bernard Miège et Stéphane Olivesi dans la rubrique« Échanges » de Questions de Communication (2007). Au risque de verser dans l'autocongratulation dont certains ont pu évoquer lesravages, je vois d'abord dans l'existence de ce débat et dans les inévitables etindispensables controverses qu'il déclanche, le signe d'un intérêt évident (etnouveau) pour l'histoire des sciences de l'information et de la communication (sic) ,et ce, malgré les obstacles qui se dressent devant ceux qui souhaitent s'engagerdans cette entreprise, obstacles sur lesquels la plupart des débatteurs reviennent ,parfois longuement. Selon moi, cet intérêt ne repose pas uniquement sur ce quipourrait passer pour un effet de mode, ni sur la revendication du droit au passé, audemeurant bien légitime pour une discipline académique jeune et plurielle, maissurtout sur une intuition féconde : d'une part, cette histoire pose des questionsvives tant au niveau des méthodes et des postures qu' à celui des « résultats » et deleur(s) interprétation(s), et érige quelques interrogations en enjeux qui ne peuventlaisser indifférents nos contemporains en discipline. D'autre part, elle metnécessairement la réflexivité, sinon au poste de commande, du moins en premièreligne dès lors qu'elle est pratiquée par des acteurs de ladite discipline, au mieuxhistoriens (des sciences) de surcroît. Le sérieux de chaque contribution et le caractère appuyé de certaines interpellationsauraient sans doute mérité des réponses point par point à la fois précises etargumentées. Au risque de décevoir débatteurs et lecteurs, je répondrai à tous, doncà chacun, mais pas à tout. D'abord parce que le nombre de problèmes soulevés et le caractère pour le moins disparate - voire divergent - desinterventions auraient conduit à la rédaction d'un texte excédant largement lataille « habituellement attendue » pour une contribution de ce type, même de la partde Questions de communication, revue plutôt « compréhensive »sur ce plan. Ensuite, et surtout, parce que ma réponse est nécessairement liée -ainsi que le soulignent Daniel Jacobi, Béatrice Fleury et Jacques Walter - à « cequi me fait courir » (en gros, mes enjeux, eux -mêmes en partie liés à mes pratiquesainsi qu'aux positions que j'occupe et que j'ai occupées), mais également à ce que je suis, ce que je sais etce que je sais faire (et donc à ce que je ne connais pas et ne sais pas faire) .J'imagine que ceux qui ont accepté de consacrer un peu de leur temps à lire mestravaux, puis à les contester; appuyer accompagner; compléter prolonger. .. ontchoisi d'intervenir sur tel ou tel point et de telle ou telle manière en fonction deleurs préoccupations, de ce qu'ils sont, du lieu d'où ils parlent et de leur capitalsymbolique. .. Et c'est très bien ainsi. Loin de refuser le débat, c'est à sa poursuite - dans ce lieu ou dans d'autres - quele présent texte invite, et, au-delà, à la définition d'un projet porté parplusieurs chercheurs partageant le même intérêt pour l'histoire des sic, faute departager les mêmes enjeux et les mêmes choix épistémologiques et méthodologiques .C'est dire que ma réponse, à défaut d' être complète et circonstanciée, se doit aumoins d' être construite de telle sorte qu'elle puisse à son tour être questionnée .Dans cette perspective, j'examinerai successivement les points sur lesquels lesdébatteurs et moi -même semblent soit en phase, soit susceptibles de construire àmoindres frais un point de vue voisin, avant de m'interroger plus longuement sur cequi me sépare de certains (mais rarement de tous), ou paraît me séparer - carl'éloignement pourrait quelquefois résulter de malentendus. Ces points d'accord et convergences seront prioritairement envisagés comme unediscussion autour de quelques conditions de possibilité d'un projet pour unerecherche historiographique sur les sic menée avec des chercheurs à la foisconvaincus de son « utilité » et respectueux du pluralisme épistémologique etméthodologique. Si elle est peu abordée de façon centrale, la question de la posture estnéanmoins plus ou moins posée - ne serait -ce qu'en creux - par chaque texte .Et comment pourrait-il en être autrement ? En effet, l'historien de sadiscipline est très rarement un historien de formation. Dans le meilleur descas, c'est plutôt un historien d'autoformation et, qui plus est ,d'autoformation partielle, car il est rarement en mesure de mobiliserl'ensemble des moyens que réclame cet apprentissage long et délicat appelantdes compétences à la fois en histoire et en « sciences ». C'est aussi etavant tout un acteur de sa discipline. À ce titre, il a une autre formation ,d'autres centres d'intérêt, d'autres enjeux; il est impliqué dans d'autresdébats (inter)nationaux et/ou locaux, sociaux et intellectuels, ainsi quedans des pratiques d'enseignement et de recherche souvent éloignées despréoccupations historiennes. En outre, ce qu'il est, ce qu'il fait, sonancrage, les positions qu'il occupe ne sont pas sans incidence sur samanière de « faire l'histoire » et sur ses usages de ladite histoire. On nepeut qu'approuver Stéphane Olivesi (2007) et Pierre Delcambre (2007) quidemandent, avec des mots différents, d' être très attentif à l'endroit « d'oùil parle » et à ses enjeux (notamment disciplinaires) proclamés ou masqués ,a fortiori quand il s'agit d'un acteur qui a jouéun rôle reconnu dans l'institutionnalisation de la discipline. Et jecomprends la position de Bernard Miège (2007 : 192) qui évoque sa doublequalité d'auteur de travaux largement diffusés relatifs à l'épistémologie dela communication « qui ont eu un effet performatif sur les approches desuniversitaires et des étudiants » et de « constructeur » de la disciplinepour refuser le qualificatif « d'historien des sic », se contentant deverser au débat des matériaux et quelques pistes qu'il laisse à d'autres lesoin d'explorer et d'exploiter. D'où venons -nous, que sommes -nous, oùallons -nous quand nous faisons l'histoire de notre discipline ? Telle est laquestion, empruntée à un célèbre tableau de Gauguin, que pose l'économisteGuy Caire (1995) quand il s'interroge sur l'histoire de la penséeéconomique. C'est dans la construction d'une posture que l'on trouvera enpartie la réponse. Mais que faut-il entendre par « posture » ? Cette notion dont l'usage abusifet mal maîtrisé a conduit à une confusion pour le moins gênante mérite quel'on s'arrête un instant sur sa définition. La posture est à la fois du côtédu sujet contextualisé et de celui de l'objet, lui -même contextualisé. Elleest d'abord une position singulière et évolutive dans un champ (ici le champscientifique en général et une discipline académique en particulier) impliquant à la fois des choixépistémologiques, méthodologiques et sociaux exprimés dans des discours etdes pratiques, ainsi que l'affirmation publique de ces choix dans les formeset les lieux habituellement reconnus, étant entendu que ces choix et leurexpression publique conduisent le chercheur à occuper des positionscognitives et sociales. Cette position est toujours construite, nonseulement en rapport avec l'état de ce champ, et - pour aller au-delà dustrict schéma bourdieusien tout en rejoignant Pierre Delcambre (2007 : 165 )- « des phénomènes coopératifs, d'alliances, de connivences liés auxpartages ou non de socialisations propres aux métiers intellectuels »; ellel'est aussi en relation avec la trajectoire du sujet, ce qui revient àprendre en compte différentes dimensions de sa propre vie, y compris endehors du champ scientifique, à les mettre en perspective tout en lesmettant en visibilité. C'est dire que la posture est aussi une mise en scènede soi, de son discours et de ses actes, toujours en regard d'autresdiscours et actes (eux -mêmes mis en scène), et sous le regard d'autrui. Enfin, on l'oublie trop souvent, la posture est toujours un projet, autrementdit une représentation du futur, aussi ouverte soit-elle, et une projectiondans ce dernier, aussi prudente soit-elle. Par conséquent, derrière toutprojet historiographique (schématiquement la production de travauxsusceptibles d' être débattus), se profilent d'autres projets, tantôt« mous », tantôt plus stratégiques et performatifs, et donc plusdifficilement avouables. Pour ce qui me concerne, c'est bien un projet pourles sic (dans les sciences humaines et sociales) qui me fait courir… avecd'autres, ce que Daniel Jacobi et Bernard Miège ont, chacun à leur manière ,parfaitement compris. C'est dire que c'est sur ce point que les désaccordsrisquent d' être les plus grands entre historiens des sciences de surcroît ,surtout quand s'esquisse la définition d'un programme de recherche ou laréalisation d'un ouvrage collectif. D'où l'exigence minimale pour chacun, enpareilles circonstances, d'expliciter le sien et de construire lesnécessaires compromis acceptables pour tous qui permettront de travaillerensemble. Afin de faire entrer cet article dans un format publiable, je m'en tiendrai - etqui plus est brièvement - aux dimensions « plutôt » épistémologiques etméthodologiques d'une posture commune ou voisine. Celle -ci pourrait seconstruire à partir d'un socle composé de trois éléments : historicisme tempéré ,recours non exclusif aux méthodes historiographiques et réflexivité. Évidemment ,hic et nunc, cette construction relève davantage d'unhorizon d'attente, plus ou moins partagé, que d'un véritable projet commun. Premier élément du socle : l'historicisme tempéré. Point n'est besoin des'attarder sur les dangers du « présentisme » ou « histoire rétrospective » ,cette manière de reconstruire le passé en fonction des préoccupations, desenjeux et des débats contemporains et d'inventer une légende des origines avecses précurseurs, ses fondateurs (pères, moments, lieux), ses mythes et sesgrands récits exemplaires porteurs de modèles et de normes (Blanckaert ,Blondiaux, Loty, Renneville, Richard, 1999; Mucchielli, 2004). Pour autant ,faut-il se réclamer de l'historicisme, démarche analytique revenant àinterpréter le passé en le contextualisant socialement et cognitivement, et enprenant en compte les dimensions spatio-temporelles ? Certainement, mais àquatre conditions. D'abord, ne pas se contenter d'établir et de rétablir desfaits, mais aussi interroger les motifs des reconstructions mythiques etdémonter leur processus d'édification. Ensuite, ne pas oublier de penser lesdiscontinuités, les « accidents de parcours » selon les termes mêmes de JacquesWalter et Béatrice Fleury (2007), les retours en arrière, les périodisations ,les (auto)exclus, tout comme les faits, acteurs, lieux (sacrés et profanes) ,pratiques, discours, théories autres constructions d'objets semblant « marginauxou accessoires », parfois dans leur propre contexte historique, sans oublier les« choses dites » constituant l'épistémé de telle ou telle époque (sur l'épistémédes sic, voir l'article de Roger Bautier 2007). Ensuite, gérer la tension entre la nécessité de recourir aux méthodeshistoriographiques et d'intéresser ses contemporains en discipline, et laproduction de connaissances utiles pour le présent. C'est cette condition -mêmeque j'énonçais en 2002 : « On peut se demander si un universitaire non historien[. ..] peut se payer le luxe de rejeter sinon le présentisme, du moins touteallusion au présent. Ne serait -ce que pour deux raisons : d'une part, il ne seraprobablement lu que par des chercheurs de son propre champ, d'autre part, ilaura des comptes intellectuels (et plus si non affinités) à rendre à cedernier » (Boure, 2002 : 38). Enfin, à l'instar de Paul Veyne (1971) ou de Roger Chartier (1989), mettre entension deux conceptions de l'histoire que l'on présente souvent de façonopposée : l'Histoire comme science et l'Histoire comme récit. Car si l'historiendécoupe effectivement une intrigue en fonction de ce qu'il est, ainsi que desquestions qu'il se pose, et construit un récit, c'est d'un récit « vrai » qu'ils'agit, dans la mesure où les relations qu'il organise entre les faits àl'intérieur de l'intrigue résistent au sujet connaissant, devenant ainsi desvérités partielles. Cette prise de position a quatre conséquences : la méfiancevis-à-vis des interprétations générales ou surplombantes, l'attachement autravail sur les sources et à la vérification critique, le souci d'intégrer lesfaits dans des ensembles discursifs qui leur donnent sens, et enfinl'acceptation d'une pluralité de questionnements et de méthodes - ce qui nesaurait signifier que tous sont équivalents. Donc si historicisme il y a, forceest d'admettre qu'il est tempéré. .. Deuxième élément du socle : le recours non exclusif aux méthodeshistoriographiques. Le recours aux méthodes historiographiques va de soi dèslors que l'on se réfère à l'historicisme, ce qui, d'une part, a pour effet lafréquentation de travaux d'historiens (surtout sur la question de la méthode, ouplutôt des méthodes, car le débat entre spécialistes n'est pas clos sur cepoint), et, d'autre part, pose la nécessité d'une autoformation plus coûteusequ'on ne l'imagine au moment où l'on décide de s'intéresser à l'histoire de sadiscipline. En même temps, c'est d'histoire des sciences qu'il s'agit, et plusspécifiquement d'histoire des sciences humaines et sociales. En conséquence ,l'apprenti historien doit fréquenter d'autres travaux et s'inscrire dansd'autres traditions de recherche, ce qui a aussi un coût. Est-on prêt à payer ceprix ? Enfin, et pour les raisons exposées supra, l'historien dessciences humaines et sociales ne peut ignorer l'épistémologie ni la sociologiedes sciences, ni même certains travaux de sociologie « tout court », de sciencesdu langage et du discours. Par exemple, celui qui travaille sur les écritsscientifiques dans une perspective historique est désormais contraint d'allerau-delà d'une approche en termes d' œuvres et d'auteurs, compte tenu de l'étatdes interrogations et des connaissances. Il doit prendre en compte les nombreuxtravaux sur la multiplicité des écrits, l'inscription dans un genre, lapertinence de la séparation entre écrits scientifiques et écrits profanes, lesmodes d'écriture, les supports (y compris dans leur matérialité), laconstruction sémiotique, les interactions textes/contextes, la réception destextes dans leur contexte de production et postérieurement (sur ces points, voirBerthelot, 2003). Le coût devient alors très élevé, presqueprohibitif C'est dire que l'histoire des sic, pour revenir à nos moutons, réclame un background au carrefour de plusieurs disciplines plus oumoins instituées, background que je ne prétends en aucunefaçon posséder mais que je m'efforce d'améliorer sur le temps long. Elle demandeaussi des cadres sociaux de coopération (réseaux, groupes de travail, programmesde recherche.), susceptibles de fédérer des compétences et des préoccupations ,de faire vivre la pluralité des thématiques, des approches et des points de vue ,de construire un langage traduisant cette pluralité et de raviver une flammetoujours prompte à s'éteindre passé le cap des premières publications. Troisième et dernier élément du socle : la réflexivité. La réflexivité est lefait, pour un acteur, d'analyser la situation dans laquelle il se trouve quandil parle et/ou agit ainsi que ses représentations de cette situation, ce qui, aumieux, le conduit à faire un effort d'autoanalyse et, dans tous les cas, àproduire des informations sur lui -même. Dans les sciences humaines et sociales ,et donc dans l'histoire des sic, il s'agit pour le chercheur de s'interroger -en faisant fonctionner non seulement la critique, mais aussi la boîte à outilsdes sciences humaines et sociales - sur les épistémologies, théories etméthodologies qu'il convoque, sur son propre statut et, plus généralement, surles conditions sociales (y compris symboliques) de production, voire deréception, de ses discours et actes. La réflexivité est donc bien plus que de lavigilance critique ou de la simple distanciation vis-à-vis de soi -même, aveclesquelles elle est parfois confondue : elle est un véritable travaild'objectivation. C'est en ce sens qu'il faut comprendre la définition auxaccents bourdieusiens que j'ai pu en donner dans la note 2 du premier articlepublié par Questions de communication : « Travailméthodique (toujours partiel et jamais achevé) de mise à jour par le chercheurdes présupposés doxiques - y compris les siens - ou liés à l'occupation depositions dans le champ académique, et d'une façon plus générale, de ce qui estproduit par les constructions discursives » (Boure, 2006 : 278). Cettedéfinition semble compatible avec celle proposée explicitement par StéphaneOlivesi ainsiqu'avec celles des autres débatteurs, sans doute plus diffuses, mais que l'onpeut déduire de leurs propos. Comme promis, je choisirai les questions - anodines ou plus sérieuses - auxquellesj'ai envie de répondre et pour lesquelles je suis capable de le faire. Je remercie d'ailleurs les débatteurs de me lesavoir posées car elles me permettent tantôt d'apporter des précisions sur meschoix épistémologiques et méthodologiques, mes constats, assertions ouexplications, tantôt de reformuler mon propos de telle sorte qu'il puisse êtreinterprété de manière plus conforme à mes intentions, tantôt de reconnaître leslimites de ma réflexion et proposer des inflexions, voire des correctifs. Abordons d'entrée, pour passer rapidement à autre chose, une critique dePierre Delcambre (2007) énoncée mezzo voce, puisqueson auteur se dit à la fois « ravi » et « agacé » : la dimension polémique ,sinon de mes deux articles, du moins du premier - car le second me sembledavantage analytique - et, plus particulièrement, du développement consacréaux histoires spontanées, c'est-à-dire aux constructions proposées par deschercheurs qui ne s'inscrivent pas dans une perspective historienne, maisqui, dans un projet éditorial d'une autre nature, livrent presque à leurcorps défendant des interprétations de l'histoire des sic « non fondées surdes observables » car venant de l'archive ou de l'enquête par entretien. Or ,ces interprétations sont susceptibles d'avoir des effets sur les lecteurs enraison de la légitimité des auteurs au sein de la communauté (mais peut-être aurais -je été plusavisé, sur ce point, de faire tourner deux fois ma plume dans l'encrier, carje n'en ai pas la certitude, faute d'avoir étudié leur réception. ..) .Quoiqu'il en soit, je n'ai jamais entendu user d'un ton polémique ni avecDaniel Bougnoux, ni avec Yves Winkin, puisque c'est d'eux ou plutôt d'un deleurs ouvrages qu'il s'agit, dumoins si l'on veut bien s'en tenir au sens le plus général de l'adjectif« polémique ». Issu du grec polemikos (relatif à laguerre), il renvoie à une critique vive et agressive. En revanche, mondiscours est certainement polémique dans la mesure où il prend ses distancesvis-à-vis de discours existants, et en l'occurrence de deux parmi d'autres ,car j'aurais pu choisir d'autres exemples. .. et, probablement aussi, àl'égard de celui de Pierre Delcambre qui ne semble convaincu ni par leseffets néfastes du « spontanéisme », ni même par la pertinence de la notion .Cela étant, je n'ai jamais entendu « évaluer » ces chercheurs sur la base dece qu'ils ne prétendent pas faire et encore moins nier l'intérêt, chacundans leur genre, des ouvrages en question. De façon plus pratique, la critique de Pierre Delcambre renvoie à une autrequestion moins anodine qu'elle paraît pour celui qui se préoccupe d'histoirecontemporaine et qui souhaite se situer en dehors de toute perspectivehagiographique et a fortiori des pratiques de« courtoisie copinarde » ou de « torpillage concurrentiel » : en quelstermes et sur quel ton traiter des productions ou des pratiques d'uncollègue encore en activité (qu'il soit ou non à la retraite importe peu, àpartir du moment où il est toujours présent dans les débats) ? Pour ma part ,j'ai eu des difficultés et avec les auteurs précités et avec Bernard Miège( à propos de l'histoire officielle), et je ne suis pas certain d'avoiremployé les mots et le ton adéquats. C'est encore une fois Pierre Delcambre qui dégaine, probablement en fonctiond'une lecture s'attardant sur les occurrences de termes très connotés( luttes, conflits, concurrence, vainqueurs, vaincus. ..), sur quelquesréférences sans doute trop appuyées aux analyses et au lexique de PierreBourdieu (surtout dans le premier article) et enfin surdes éléments (y compris des manières d'écrire, voire des tics d'écriture )qui laisseraient poindre le « militant d'une cause pour les siccontemporaines » derrière l'apprenti historien. En fait, ma vision de l'histoire n'est guère éloignée de la sienne. .. àquelques nuances près. De même que je ne pense plus que l'histoire del'humanité soit celle de la lutte des classes, mais que, néanmoins, la luttedes classes existe puisqu'on peut l'observer, je me refuse à penserl'histoire des disciplines sous le seul angle agonistique, tout en observantque, dans nombre de périodes et de situations (et en particulier quand ontraite de questions relatives à l'institutionnalisation), les luttes, conflits etcompétitions occupent une place qu'il est difficile d'ignorer que l'ontravaille de façon diachronique ou synchronique. En même temps, j'admetstrès volontiers la prise en compte des filiations - souvent complexes -, desréseaux - difficiles à cartographier -, des collectifs de travail, desprocessus coopératifs, des alliances et connivences, des phénomènesgénérationnels, sans oublier les négociations (et donc les négociateurs )locales et nationales, les compromis et les compromissions, la place de lacooptation, les engagements forts et les micro-engagements, les formes deconnivence sociale, cognitive et de compréhension réciproque (sur certainesde ces questions, voir Berthelot, Martin, Collinet, 2005). J'ai également présent à l'esprit que ceux qui construisent socialement etcognitivement une discipline ne sont pas seulement dans un systèmeorganisationnel ou dans un champ social, mais aussi dans une science, aumilieu d'autres sciences, ce qui n'est pas anodin, à la fois au niveau deleurs intentions, de la façon dont ils conçoivent et pratiquent leursactivités professionnelles (enseignement, recherche, administration), et deleurs constructions discursives scientifiques ou profanes, ainsi qu'auniveau des manières dont ils conduisent leurs luttes et leurs coopérations ,tissent et défont leurs réseaux. Stéphane Olivesi (2007) a raison de relever l'illusion d'optique de toutehistoire nationale et de souligner l'importance du « local » dans laconstruction des sic. Il en tire une conséquence sur le plan éditorial : ilfaut entreprendre rapidement des monographies locales, lui -même donnantl'exemple à travers une étude de cas conduite sur un site universitairelyonnais dont la version complète n'est pas publiée dans la livraison 12 deQuestions de communication. En effet, le« national » - ou, si l'on préfère, le « central » - n'explique pas tout ,n'est pas à tous les coups l'échelle la plus pertinente (par exemple sur laquestion des formations et de l'acculturation aux pratiques scientifiques) ,quand il s'agit de d'expliquer et de comprendre les processus complexesd'institutionnalisation et non d'apporter sa pierre à l'édification des success stories de l'histoire officielle nationale. Il se peut aussi (et cette hypothèseforte demanderait que l'on s'y attarde) « que les sic [. ..] ne soient que lasomme instable de stratégies d'acteurs venant d'horizons divers, de projetslocaux disparates, de demandes sociales hétérogènes dont les effetsconjugués font qu'il en résulte ce que l'on appelle une discipline fédérantun grand nombre d'enseignants-chercheurs » (Olivesi, 2007 : 204). Ou alors ,hypothèse plus faible, que ces stratégies, projets et demandes aient joué unrôle, tantôt plus ou moins en conjonction, tantôt plus ou moins endisjonction, avec le niveau national. À vrai dire, l'entreprise qu'il propose ne m'est pas étrangère, même si jen'y ai pas jusqu'ici consacré l'attention qu'elle mérite. En effet, dansl'introduction de l'ouvrage sur les origines des sic (2002), j'ai signalé( Boure, 2002 : 1 3) plusieurs points aveugles dont la recherche devait sesaisir dans un terme rapproché parmi lesquels : l'évolution des contenus desenseignements (toujours localisés), l'étude de ces lieux par définition« locaux » que sont les laboratoires, les bricolages dans tel ou tel lieuinvesti par des acteurs longtemps déconnectés des débats nationaux et quipourtant « fonctionnent ». .. De façon plus anecdotique, je me souviens d'unediscussion avec Michel Mathien où nous avions envisagé un travail derecherche, à base de monographies consacrées à des lieux importants - maispas pour les mêmes raisons - dans l'histoire des sic (Bordeaux, Strasbourg ,l'Institut français de presse, le Centre d'études des communications demasse - cecmas -, ou plus tard le gdr « Réseaux ») et ce, dans une perspectivecomparatiste. En effet, quelles que soient les difficultés de comparer dessituations, des acteurs, des pratiques, des discours contextualisésspatio-temporellement, il nous semblait intéressant de mettre prudemment enévidence similitudes, cousinages et différences. Mon point de vue sera cependant plus nuancé que celui de Stéphane Olivesi, entout cas tel qu'il l'exprime dans sa réponse, et ce pour une raison defond : plutôt que d'opposer de facto ou de jure le « national », ses sources privilégiées( documents officiels, si j'ai bien compris), et ses manières d'en écrirel'histoire, au « local », je me situerai volontiers dans une problématiquede type « relation centre/périphérie » car je ne pense pas que ladisjonction local/national puisse être totale ni durable, sauf dans le casextrême où la périphérie s'exclut ou est exclue. Je propose de recourir à un« modèle » dans lequel le centre représente le principe d'unité (l'ordre) ,et la périphérie la disparité, la multiplicité (le désordre); dans lequelchacun (en mouvement) n'est pas saisi en lui -même, mais dans sa mouvanterelation avec l'autre, lui -même en mouvement; dans lequel le centre assureà moyen et long terme la régulation, même si chacun est à la fois déterminéet déterminant, tout en intégrant les apports de la périphérie dès lorsqu'ils sont « globalement » compatibles avec la dynamique unitaire; enfin ,dans lequel la périphérie - ou plutôt les périphéries, car lesconfigurations locales ne sont pas identiques - possèdent leurs dynamiquespropres, voire une autonomie relative vis-à-vis des logiques et desstratégies centrales, ce qui crée des interstices, des failles, et introduitdu « jeu » au sens mécanique du terme laissant des marges de manœuvre ,parfois importantes, aux acteurs sociaux. Bien entendu, ce modèle a des limites que je ne développerai pas ici (lelecteur pourra se reporter à Chevalier; 1978). En outre, il n'est pastotalement adapté à l'étude du champ scientifique et des disciplines ,surtout quand on travaille sur des périodes au cours desquelles le processusd'institutionnalisation est peu avancé, ce qui signifie, entre autresraisons, que le centre (symbolisé sur le plan social par des institutionscomme le ccu - Comité consultatif des universités -, le Comité des sic, puis lasfsic, mais aussi des textes de types divers ,comme le Rapport Mattelart-Stourdzé en 1982, des procédures et des normescommunes à toutes les disciplines - voir celles régissant les recrutements )est faiblement unitaire sur certains points et fortement sur d'autres ,tandis que les périphéries, peu nombreuses, sont dans des situations et desdynamiques extrêmement variées. Par ailleurs, ce modèle intègre mal lesdynamiques de réseau (puisqu'il est bipolaire) et les acteurs locauxeux -mêmes périphériques, et notamment les néo-entrants, qui peuventdévelopper des stratégies spécifiques ou ceux qui, malgré leur positiond'extériorité par rapport à la discipline, contribuent néanmoins à soninstitutionnalisation (pour certains sans le vouloir) en faisant soutenirdes thèses, en acceptant de donner des cours dans des domaines peu nobles auregard de leur discipline-mère, en facilitant la circulation de travauxestampillés « sic ». Malgré ces limites, il me semble que ce modèle peut s'avérer heuristique dèslors qu'on le fait fonctionner avec prudence, qu'on n'attend pas de lui cequ'il ne peut permettre, et que l'on intègre quelques correctifs. D'autantque, s'agissant des sic, je fais l'hypothèse (appuyée tout de même surquelques observables) que pendant une longue période (début des années70-début des années 90), les grandes impulsions vinrent souvent (et donc pastoujours) du centre, ce qui explique l'importancedonnée aux « personnages centraux » (Robert Escarpit, Jean Meyriat. .. )et surtout au CCU et à la sfsic. .. et, en conséquence, la place que BernardMiège, Jean-François Tétu, Viviane Couzinet et moi -même avons, dans nosanalyses, accordée à leurs décisions, prises de position et travail de lobbying ainsi qu'aux débats qui ont traversé cesinstances. En revanche, il est vrai que nous n'avons pas jusqu'ici cherché àsavoir à travers qui, comment, jusqu' à quel point, avec quel décalagetemporel, et face à quelles résistances, ces impulsions se sont traduites etparfois déformées (ou ont été ignorées) aux différents niveaux locaux; et àl'inverse, comment des situations nationales ont pu être affectées par desinitiatives, des stratégies individuelles ou collectives et despositionnements locaux, ou plus simplement par l'absence - parfois pesanteet toujours remarquée - de certains acteurs locaux dans les lieux et/ou lesdébats nationaux. Ce travail reste à faire. Quel chantier ! L'histoire estvraiment un long combat.. Cette question, posée par la plupart des contributeurs, est en partie liée àla précédente, sinon par moi, du moins par Stéphane Olivesi. En effet, cedernier semble considérer - mais peut-être s'agit-il d'un effet de lecture -que le recueil de la mémoire vivante est pertinent dans l'espace local, touten admettant, sans trop s'y attarder, son intérêt à d'autres échelles. Je lesuivrai volontiers, mais pour une raison pratique : l'état des archiveslocales publiques (laboratoires, départements, instituts. ..) étant ce qu'ilest (c'est-à-dire au mieux un « foutoir », au pire une illusion en raisondes destructions ou des pertes successives et massives de documents), letémoignage devient incontournable. Tout comme les archives privées qui ,quand elles sont accessibles, peuvent réserver de bonnes surprises. Plus sérieusement, je ne suis pas convaincu que la mémoire vivante soittoujours et partout moins officielle que les documents dits « officiels » .D'ailleurs, qu'est -ce qu'un document officiel ? Existe -t-il toujours uneligne de partage nette avec un document qui le serait moins ou pas du tout ?Pour ma part, si j'ai eu recours à des documents « manifestement » officielspour produire des données à la fois inédites et fiables (Boure, 2007a), jen'ai pas l'impression de n'avoir utilisé qu'eux. Rejoignant sur ce point Daniel Jacobi et m'éloignant de Stéphane Olivesi etde Rémi Ponton, je ne suis pas non plus complètement convaincu que lestémoignages directs ou indirects (« recueillis par des entretiensapprofondis, orientés par des hypothèses et par la diffusion d'unquestionnaire dans la communauté des sic » ainsi que le suggère Rémi Ponton( Fleury Walter 2007 : 142) soient a priori plusriches en termes de données exploitables qu'un travail sur documents, et cepour les raisons évoquées par Daniel Jacobi (ibid.) :« La mémoire des acteurs et leurs souvenirs personnels construisent unterreau subjectif où chacun brode sa propre trame d'une histoire sauvage. Lechercheur qui explore les matériaux de ce corpus, auquel lui -même participeet contribue, a évidemment du mal à l'explorer objectivement ». Pour ladeuxième contribution publiée par Questions decommunication (Boure, 2007), j'ai pu « expérimenter » combien lamémoire des enseignants-chercheurs sollicités à des degrés et sous desformes divers (Jean Meyriat, André-Jean Tudesq, Anne-Marie Laulan, BernardMiège, Pierre Moeglin, Marie-Claude Vettraino-Soulard, Elisabeth Fichez ,Michel Mathien, Viviane Couzinet. ..) pour m'aider à trouver le rattachementdisciplinaire des thèses soutenues par les inscrits sur la lafma de la 52 e section étaitdéfaillante et/ou sélective et ne pouvait en aucune façon remplacer larecherche documentaire réalisée à partir de l'interrogation de la base dedonnées sudoc - recherche longue et délicate car cetoutil n'est pas conçu pour ce type de recherche, et complétée par laconsultation d'autres documents, officiels ou non (Boure, 2007a). Il estcependant absurde de s'interdire définitivement tout usage de ces techniquespour le recueil de données : il faut simplement faire preuve de prudence et ,toutes les fois où cela est possible, croiser plusieurs sources vivantes etdocumentaires entre elles. En revanche, je suis convaincu que le recueil de la mémoire vivante, àtravers des techniques appropriées ayant fait leurs preuves dans plusieursdomaines de recherche, est susceptible de faire ressortir des récitsfortement signifiants qu'il s'agit alors de traiter comme tels, l'historiendevenant le témoin et l'analyseur d'histoires. Par ailleurs, pour peu quel'on prenne la peine de s'intéresser aux contextes sociaux et cognitifs, auxdiscours et aux actes dont ces témoins ou acteurs, grands ou de second plan ,ont une expérience pratique, on peut tracer des trajectoires sociales( Passeron, 1991), construire des histoires ou des récits de vie (Bertaux ,2001), ou dresser des portraits (Lahire, 2002; Molinier, 2003) permettant ,à travers l'exploration de plis singuliers du social, de mieux comprendredes pans de l'histoire disciplinaire. À vrai dire, le débat dont je viens brièvement d'esquisser quelques contoursn'est pas original : il fait depuis longtemps partie du quotidien deshistoriens. Je propose donc d'en rester là et de conseiller à ceux quivoudraient aller plus loin de se tourner vers les spécialistes. Et d'abord quid de la notion de discipline ? En réagissant aux propos de PierreDelcambre à travers la proposition et, d'une certaine manière, l'adoption de ladéfinition donnée par Jean-Louis Fabiani (2006), Jacques Walter et BéatriceFleury (2007) se situent dans une acception que je partage partiellement. Jesuis bien entendu d'accord pour admettre que la notion de discipline juxtaposedeux ordres de réalité en tension : le premier antérieur à la science moderne( le XVII e siècle, si l'on veut bien suivre Alexandre Koyré ,1966), « met l'élève (discipulus) au centre du système etorganise le savoir à partir d'un objectif pédagogique »; le second, « centraldans nos préoccupations depuis le XIX e siècle, c'estl'organisation particulière au sein de laquelle se développent des savoirsmodernes comme ensemble de pratiques codifiées et reconnues valides par uncollectif auto-délimité, l'activité scientifique se développant par rapport àune ligne de front » (Fabiani, 2006 : 12-13). Il me semble toutefois que cettedéfinition ne met pas suffisamment l'accent sur la dimension« communautaro-concurrentielle » et sur le poids de la reproduction, voiresur la tension reproduction/innovation, et surtout qu'elle laisse sans l'ombreune dimension importante : l'onction académique d'une discipline (ou, si l'onpréfère, son acte de naissance officiel) vient de l'extérieur En France, ellevient de l' État, du moins depuis le dernier tiers du XIX e siècle, après une période plus ou moins longue de gestation {g} etd'institutionnalisation partielle dans l'enseignement supérieur (Boure, 2007b) ;ce qui permet de mieux comprendre l'accent mis par certains d'entre nous sur leniveau central. Dans ma thèse de Droit public (1975) dédiée à l'étude de la collaboration entrel' État et le secteur privé dans la recherche française, parce que j'étais peusatisfait des multiples façons dont, dans le milieu qui était le mien, ondéfinissait la science et on analysait les rapports science/ société etscience/idéologie (science bourgeoise vs scienceprolétarienne, confusion entre science et idéologie, coupure épistémologiquealthusserienne entre science et idéologie. ..), j'ai été amené à établir unedistinction et une relation entre le statut social et le statut théorique dusavoir. La distinction permettait d'éviter la confusion entre contenus du savoir( schématiquement, les connaissances qui s'accumulent et ont une dimensionopératoire) et conditions du savoir (conditions de scientificité). Ellepermettait aussi d'éviter la confusion entre idéologie scientifique (le savoirest aussi organisé en une forme spécifique au sein de l'idéologie dominante) etlieux de (re)production et de circulation. La relation permettait de rappeler lerisque récurrent de tout savoir, particulièrement dans les sciences humaines etsociales (tenir un discours de l'objet et non sur l'objet), la non-neutralitésociale du savoir ainsi que les contraintes que le social fait peser sur lascience. Longtemps après, quand je me suis intéressé davantage aux disciplines et auxsciences (humaines et sociales surtout), et moins à la science avec ou sansmajuscule, cette approche ne s'est pas avérée directement transposable, d'autantque la notion de statut, fleurant bon les années 60-70, ne m'est pas apparuetrès heureuse pour saisir des réalités en mouvement permanent. Seule semblaitpertinente la séparation/relation entre le théorique et le social. J'ai alorsévoqué, dans leur imbrication, les dimensions institutionnelles (ou sociales) etthéoriques (ou intellectuelles) du processus de construction des disciplines. Enmême temps, je ne pouvais me résoudre à réserver les dimensionsinstitutionnelles au seul « institutionnel » au sens commun du terme, car lesconcepts, les théories, les méthodologies, les langages scientifiques ne sontpas seulement des enjeux pour les institutions sociales, ils sont aussi desinstitutions (sur ce point, voir Schlanger 1992). Mais alors, quid de la notion « d'institutionnalisationcognitive et sociale des disciplines » ? Je précise tout d'abord que jel'utilise depuis peu, et, plus précisément, quand je l'ai « découverte » dansdes discussions avec Rosalba Palermiti et Yolla Polity au sein de Théories etpratiques scientifiques (trs), ex-groupe de travail dela sfsic, puis dans une de leurs publications( Palermiti, Polity, 2002 : 95-96), elles -mêmes faisant explicitement référenceaux travaux de Richard Withley (I974). Cette notion m'est apparue, malgré quelques limites, plus pertinente que cellesauxquelles je me référais auparavant. Très schématiquement, on entend par« institutionnalisation cognitive » le choix des objets et des terrains, laformulation des questions de recherche, la construction des problématiques, lesconcepts, les théories, les méthodes. .. et par « institutionnalisationsociale », les modes d'organisation de la recherche et de l'enseignement, lesdispositifs sociaux de reproduction et de légitimation, les modes d'allocationdes ressources, les systèmes de publication, les normes sociales. .. Outrequ'elle focalise le regard sur un processus complexe de transformation( l'institutionnalisation) et qu'elle se laisse volontiers mettre en perspectiveavec la notion d'autonomisation, cette distinction est heuristique à deuxconditions et au moins pour trois raisons. D'abord, une raison pratique : cette distinction oblige le chercheur às'intéresser aussi au social, alors qu'il a assez souvent tendance à privilégierles dimensions intellectuelles (histoire des idées, de la pensée, des théories ,voir Boure, 2002 : 28-30), parfois en les insérant dans leurs contextes générauxde production. Or, il me semble essentiel de mettre l'accent sur des phénomènesplus spécifiques tels que les dimensions nationales des disciplines, leshiérarchies entre les disciplines et à l'intérieur de chacune, laprofessionnalisation des enseignants-chercheurs, les modes de légitimation, ladélivrance des visas d'entrée, les représentations sociales dominantes etdominées, l'émergence puis le développement de formes spécifiques (par exemple ,les laboratoires) plus ou moins en phase avec l'état des méthodes et destechniques d'investigation et des débats dont elles sont l'objet. .. Ensuite, lecognitif et le social sont aussi des institués (et des instituants). Enfin, lecognitif possède des dimensions sociales, et le social a quelque chose à voiravec le cognitif (Boure, 2007b). Ceci étant, Pierre Delcambre a raison d'insister sur la prise en compte dufactuel et de l'actoriel dans l'analyse des processus, de préciser qu'ilconvient de distinguer ce qui est voulu (du moins par certains) et ce qui estsubi (tantôt par certains, tantôt par tous) et, quand on travaille surl'histoire d'une discipline, de prêter un regard attentif à tout ce qui est ousemble extérieur à elle. Il est aussi fondé à affirmer qu'en fin de comptel'institutionnalisation cognitive est la plus délicate à traiter, surtout quandon cherche des articulations fines avec les dimensions sociales, parce quel'impalpable se conjugue au palpable, l'indéterminé au plus aisémentobjectivable, le symbolique à des incorporations dans des hommes, des objets ,des dispositifs, des lieux. C'est sans doute une bonne raison pour s'y attelersans tarder, et, en ce qui me concerne, davantage que je ne l'ai fait. Enfin, je suis bien volontiers Rémi Ponton (Fleury Walter 2007) quand il affirmeque le recours au concept d'institutionnalisation comporte un risque majeur :faire penser « à une évolution qui, une fois passée le cap critique des débuts ,aurait un caractère linéaire » et je pourrai ajouter « inéluctable » .Heureusement, ce concept n'interdit pas à celui qui l'utilise de recourir auxantidotes développés supra. En fait, c'est à une sainevigilance que Rémi Ponton invite ses éventuels « usagers ». Peut-on conclure un débat dont la richesse ne dépend que des seules contributionsdes débatteurs anciens ou futurs ? Poser la question revient à y répondre. Aussivais -je faussement conclure ma « réponse aux réponses » par une double invite .La première est probablement attendue : poursuivons le débat sur les dimensionsépistémologiques et méthodologiques de l'histoire des sciences humaines etsociales en général et des sic en particulier car ce qui est soumis aux lecteursde Questions de communication ne recoupe qu'une partiedes préoccupations historiographiques. La deuxième l'est peut-être moins : jefais partie de ceux qui pensent que le nécessaire débat sur les conditions depossibilité d'une histoire des disciplines (donc des sic), d'une part n'épuisepas le regard que l'on porte sur tel ou tel travail à prétention historienne ,d'autre part ne doit pas décourager les futurs historiens par surcroît de celancer dans une entreprise qui pourrait paraître trop périlleuse. Donc, parlerde l'histoire, c'est bien, mais faire de l'histoire, ce n'est pas mal nonplus .
Cet article invite les chercheurs à poursuivre le débat sur les dimensions méthodologiques de l'histoire des disciplines en général et des sciences de l'information et de la communication en particulier. II traite d'abord des conditions à mettre en oeuvre (affirmation et définition d'une posture, réflexivité, projet...), puis interroge quelques notions ou concepts (discipline, institutionnalisation sociale et cognitive) ainsi que des « manières de faire » l'histoire des disciplines (documents ou mémoire vivante, histoire nationale ou histoire locale...).
sciencesInfo_10-0032243_tei_1114.xml
termith-437-communication
Nous désirons expliciter ici la construction du dispositifméthodologique élaboré dans la phase de récolte des matériaux nécessaires ànotre travail de thèse. A travers cette recherche inscrite en sciences de lacommunication, nous allons nous interroger sur les différentes variables quivont interagir pour, partant d'acteurs très différents, arriver à une nouvellemicro-culture de projet ou d'organisation. Notre terrain de recherche participede l'Institut « handicaps, dépendance et citoyenneté » mis en place parl'Université Catholique de Lille. Cet institut est défini par ses concepteurscomme un espace de connaissances, de recherche, d'enseignements-formations et depratiques réunissant d'une part des universitaires de toutes les disciplinesscientifiques dont est dotée l'Université, et d'autre part des acteurs deterrain, du monde sanitaire et du monde médico-social et social, œuvrant dans ledomaine des handicaps et de la dépendance. Des ateliers de recherche, quiconstituent notre terrain d'investigation, y ont été mis en place autour detrois thématiques : vulnérabilité et fragilité; participation sociale etautonomie; évolution des métiers, articulation sanitaire et médicosocial. Deschercheurs de différentes branches de connaissances scientifiques ouintellectuelles, que nous nommerons ici disciplines (médecine, éthique ,sociologie, philosophie, droit, …), des acteurs de terrain (cadres de santé ,médecins, ergothérapeutes, …) et des membres d'associations liées auxthématiques de l'Institut se réunissent autour de ces trois thématiques qui fontl'objet d'ateliers distincts animés par trois équipes différentes composées enmajorité de chercheurs. L'objectif affiché est de produire ensemble un savoir ,voire des travaux de recherche. Pour fonctionner ensemble et maintenir une certaine cohérence, legroupe a besoin de partager certaines règles communicationnelles. Nous tenteronsd'identifier ces règles implicites qui régissent les relations entre lesparticipants aux ateliers de recherche. Pour cela, nous allons nous centrer surles interactions. Ces dernières servent souvent à confirmer la relation etl'appartenance à une même culture. Comme le signale Y. Winkin, si tout se passe normalement, on « performe » les codes de laculture à laquelle on appartient et cette co-performance a pour effet de nousrassurer quant à notre qualité de membre. La communication serait, d'un point devue anthropologique, la « performance de la culture » ce qui s'oppose à lavision télégraphique de la communication qui était vue comme une « transmissionde messages ». R. Birdwhistell, un des pères fondateurs de l'anthropologie de lacommunication disait qu' être membre d'une culture, c'est être prévisible. W .Goodenough définissait quant à lui la culture comme « tout ce qu'il faut savoirpour être membre ». Nous nous interrogerons également sur la manière dont les acteursmétacommuniquent sur ces interactions. Nous nous intéresserons donc à leursexplications et à leurs interprétations par rapport à ce qu'ils vivent et auxéchanges auxquels ils participent. Pour y parvenir nous avons choisi detravailler avec trois méthodes que nous jugeons complémentaires : l'observationparticipante, la méthode d'analyse en groupe et les entretiens semi-directifs .Il nous semble important de préciser d'emblée que nous nous inscrivons, ici ,dans une démarche qualitative compréhensive. Plus que de mesurer, comparer oudécrire systématiquement,… nous avons, en effet, pour but de comprendre ,d'identifier des comportements ou des processus. A travers notre démarche, nous nous éloignons quelque peu dela rupture épistémologique au sens classique du terme qui voudrait que lesavoir profane, appelé aussi savoir commun ou social, et le savoir expert ,que nous assimilerons ici au savoir scientifique, soient séparés par desfrontières étanches. B. Wynne définit les savoirs experts comme des connaissancesstandardisées, générales et abstraites qui permettent l'action à distance .Les savoirs profanes sont, eux, des savoirs faits de connaissancesconcrètes, locales donc fortement diversifiées et s'appliquant à une réalitédense et multidimensionnelle. Le savoir profane ou commun est donc bien loind'un « non-savoir ». Nous partons du postulat que l'homme contemporainproduit une connaissance réflexive sur lui -même et sur ses propresexpériences. Il élabore ses propres hypothèses, pistes de réflexion. Commele signalent L. Van Campenhoudt, J-M. Chaumont et A. Franssen, la connaissance de l'acteur sur lui -même et sur ses propresexpériences, n'est toutefois pas automatiquement éclairante et valide selonles critères des sciences sociales. Plusieurs précautions devront êtreappliquées à l'exploitation de ce savoir profane dans le cadre d'unerecherche scientifique. Une attention particulière sera apportée auxconditions de production du discours de l'acteur, ainsi qu' à ce qui, dans cediscours, est dû à la présence du chercheur. Comme J.-C. Kaufmann, nous pensons que l'objectivation doit se construire peu àpeu grâce aux instruments conceptuels mis en évidence et organisés entreeux. Le rôle du chercheur sera également de fournir les cadresméthodologiques adéquats pour appréhender ce savoir profane. Comme lesouligne également J.-C. Kaufmann, les références théoriques etconceptuelles du chercheur sont des conditions nécessaires pour continuer àapprendre de ce savoir profane quand le chercheur a délimité saproblématique avec précision et qu'il ne peut donc plus se laissertotalement guider par le discours de l'acteur sur sa pratique. Les savoirss'élaborent dans un processus de co-construction avec les acteurs deterrain. Nous nous placerons dans une position médiane entre lechercheur-expert, détenteur absolu du savoir, et la positionethnométhodologique voulant que « savoir commun » et « savoir scientifique »s'enchaînent dans une continuité parfaite. B. Dupret explique que, pour les chercheurs appartenant à ce courant ,les individus ont des méthodes qui leur servent à prêter un sens à leurmonde d'action, à s'orienter vers ce monde et à le pratiquer de manièrequotidienne et routinière. L'acteur agirait comme un chercheur en sciencessociales puisqu'il analyse via l'observation, le groupe ou le contexte danslequel il va devoir interagir. L'option prise ici s'inscrit dans ce que l'on pourraitqualifier de démarche hypothético-inductive, puisque nous ne partons passystématiquement d'hypothèses générales à vérifier sur le terrain, mais quenous tenterons de rendre compte des expériences vécues dans toute leurcomplexité et leur dynamique. Le va-et-vient continuel entre les lectures etle terrain permet d'affiner et de construire progressivement uneproblématique solide. En travaillant dans ce mouvement, nous espérons évitertant les écueils propres aux méthodes purement inductives que les écueilspropres aux méthodes que nous qualifierons d'hypothético-déductives. Àsavoir : dans le premier cas, la récolte d'une masse de données dans toutesles directions conduisant finalement à une désorientation du chercheur; dans le second, le recours à des thèses générales pouvant s'avérerréductrices, voire peu en phase avec la réalité. Pour nous, le chercheurdoit arriver sur le terrain l'esprit ouvert afin de ne négliger aucuneexplication ou aucune direction, même si celles -ci n'étaient pas apparueslors de ses lectures préalables, mais il devra à un moment faire un choix etse concentrer sur certains aspects de la réalité. Afin de pouvoir appréhender notre objet de recherche danstoute sa richesse, tout en faisant preuve de rigueur scientifique, nousavons choisi de croiser trois méthodes : l'observation participante, laméthode d'analyse en groupe et les entretiens semi-directifs. Ce choixdécoule des références théoriques retenues. Nous suivrons lors de nos recherches des auteurs comme E .Goffman, J-C. Kaufmann ou encore Y. Winkin. Comme ces auteurs, nouspensons que les normes sociales, les cultures et les identités seconstruisent en action et durant les interactions. Pour E. Goffman, lescomportements quotidiens des hommes sont négociés par chacun dans unesorte d'improvisation permanente. Cette improvisation se soumettoutefois à des règles qui conduisent les négociations et permettent àl'ordre social de s'établir dans la vie quotidienne. Nous allons nous intéresser au « banal », à cescomportements qui nous semblent naturels et « simplement existants » etqui sont en réalité guidés par une série de règles implicites permettantde structurer la vie en société. En nous détachant quelque peu de E .Goffman, nous faisons l'hypothèse que ces règles implicites s'acquièrentlors de la socialisation au sein de différents groupes d'appartenanceque nous qualifierons de « micro-culture » au sens de l'anthropologie dela communication, c'est-à-dire de lieux où les individus sontprévisibles les uns pour les autres. Nous allons considérer que l'acteursocial est pluriel et qu'il va se construire une identité grâce à sasocialisation au sein de différents groupes. Ces multiplessocialisations vont lui donner des indications sur la manière dont ilest attendu qu'il se comporte au sein d'une situation donnée. Dans lecas qui nous occupe, trois types de socialisation nous semblentpertinents. Premièrement, l'appartenance sociale, liée au milieu social ,au groupe social de référence. Deuxièmement, l'appartenance sectorielle ,liée au secteur d'activité (santé, recherche, social,…). Ettroisièmement, l'appartenance catégorielle, liée à la position occupéepar la personne au sein de l'organisation considérée (employé, cadre ,dirigeant,…). Les personnes d'une même appartenance sectorielle ,catégorielle ou sociale partageraient donc aussi certains ritesd'interaction et certains codes communicationnels communs, différents deceux partagés par les autres groupes. Une certaine socialisations'opèrerait en leur sein et des logiques communicationnelles etstratégiques propres se mettraient en place. Cette socialisations'opérationnalise, se consolide ou se modifie lors desinteractions. À travers l'observation participante des ateliers derecherche et des réunions de travail préparant ces ateliers, nousespérons identifier ces éventuels rites d'interaction et codescommunicationnels implicites communs aux personnes appartenant aux mêmesgroupes. Nous espérons identifier également les confrontations quipourraient exister entre des individus ne partageant pas les mêmes« codes ». En étudiant l'ordre de l'interaction et la structure del'expérience, nous nous interrogerons sur les différentes variables quivont peser sur la micro-culture propre aux ateliers de recherche. Quelsseront ses propres rites d'interaction, son propre « langage » ? Ils'agira d'identifier la « configuration ponctuelle » que l'on retrouveraici comme résultante de la confrontation spécifique entre ces troisgroupes d'appartenance. L'observation participante permet de se décentrer de sonpropre point de vue et de comprendre de l'intérieur les logiques et leslangages des acteurs observés. Il s'agit d'une sorte d'apprentissageprogressif de ces logiques et langages en étant immergé dans lequotidien des acteurs. L'observation permet de dépasser l'opinion queles acteurs ont de leur propre pratique. Comme le disent M. Grosjean etM. Lacoste : « le thème est trop exposé aux rationalisations, comme àl'oubli des détails; il est également souvent frappéd'insignifiance aux yeux des acteurs, du fait de la routine quientoure les événements quotidiens ». Même si, comme nous le verrons plus tard, nous accordonsune large place au savoir des acteurs, nous pensons qu'il existecertaines choses qui peuvent apparaître signifiantes à un observateurextérieur mais qui n'apparaissent plus comme telles à la personnesocialisée au sein d'un groupe. Comme l'ont fait certains sociologues de l'école deChicago, ainsi que dans leurs prolongements actuels, Y. Winkin, nouspensons qu'il est utile, pour rendre compte de la complexité et de larichesse des pratiques, de mettre en perspective opinions etcomportements. Cela nous renvoie à l'importance du va-et-vient entrethéorie et terrain, car la théorie va nous permettre de voir plus etplus loin. Elle nous guide également sur les points où focaliser notreattention lors de notre « plongée » au cœur du terrain. Au-delà de ces codes communicationnels souvent implicites ,nous nous pencherons sur la manière dont les acteurs méta-communiquentsur leurs actions et leurs comportements. Dans ce cadre, nous feronsappel aux théories de L. Boltanski et L. Thévenot pour tenter de comprendre les logiques d'action mises enplace et la manière dont les acteurs justifient leurs actes. Pour cesauteurs, les acteurs vont justifier leurs actions de diverses manières selon lescirconstances. Les formes de généralité et de grandeur ne sont pasattachées à des collectifs mais bien à des situations. Les moments oùs'exprimera la justification seront ceux de remise en cause et decritique. C'est dans ces moments que la réflexivité se déploiera et queles acteurs réfléchiront sur le sens qu'ils donnent à leurs pratiques .Nous pensons, en effet, que les individus disposent d'une part deréflexivité importante sur leurs actes et leur conduite même si nousrestons persuadée qu'une part de leurs comportements sont guidés parleur socialisation au sein de différents groupes. Nous tenterons d'approcher cette méta-communication dedeux manières différentes. Tout d'abord, à travers les moments où ,durant les ateliers de recherche, les acteurs disent des choses de cequ'ils font. Ensuite, nous désirons aller plus loin en suscitantégalement cette méta-communication via une méthode particulière, cellede l'analyse en groupe développée par L. Van Campenhoudt, J-M. Chaumontet A. Franssen. Il s'agit de réunir différents acteurs ayant participéaux ateliers et représentatifs des différentes appartenances mises aujour, puis de partir de récits concrets concernant la manière dont ilsvivent ces ateliers de recherche et dont ils ressentent la place qui estla leur en leur sein. Quelques-unes de ces expériences, proposées parles acteurs, sont choisies et analysées avec le groupe. Le but n'est pasde mettre d'accord tous les participants sur une interprétation, maisbien de les mettre d'accord sur une formulation de leurs désaccords quipermettra d'élaborer, avec le groupe, de nouvelles hypothèses et desperspectives pratiques. Cette méthode nous semble particulièrementadaptée ici, dans un contexte où l'interdisciplinaire est au centre denos analyses. Nous sommes, en effet, face à des acteurs auxappartenances variées, amenés à travailler ensemble, autour d'un mêmeprojet. Cette méthode implique un choix épistémologique fort etsouligné précédemment. Nous établissons ici une continuité entre lessavoirs profanes et experts, puisque les capacités réflexives desacteurs sont mobilisées. La connaissance est élaborée ici à partir descatégories interprétatives des participants qui sont ébranlées etenrichies par la confrontation avec celles des autres. Le chercheuropère également un décentrement grâce à ses connaissances théoriques et ,ici, grâce à sa vision globale du phénomène. Cette méthode, et celacontribue à son intérêt, met le chercheur en danger. Il se soumet, eneffet, à la validation intersubjective dans le débat avec lesparticipants. Il évite ainsi de proposer une interprétation surplombanteoù personne ne se reconnaîtrait. Certaines choses pourraient toutefoisne plus être remarquées ou tues par les participants pour des raisonsstratégiques. C'est pour cela que nous avons choisi de travailler àl'aide de plusieurs méthodes et de nous intéresser également au contextedans lequel se déroulent ces interactions. Pour approcher le contexte dans lequel ces ateliersprennent place, nous avons également réalisé des entretienssemi-directifs avec les acteurs incontournables de l'Institut Handicap ,Dépendance et Citoyenneté. Par acteurs incontournables, nous entendonsdes personnes à l'origine du projet et/ou amenées à se charger de laréalisation concrète des ateliers de recherche. Selon nous, cettedémarche peut être utile afin de mettre au jour la dimension plusstratégique des interactions. Nous pensons, e n effet, que dès que des individus sont mis en présence ,leurs intérêts contradictoires doivent se combiner afin d'accomplir lesobjectifs communs qui les ont réunis. Le concept de « jeu » permet dedépasser les oppositions en articulant les stratégies opposées despartenaires en relation et le système contenant. Grâce aux logiquesculturelles, les acteurs ont des indications sur la manière d'agir dansune situation donnée. E. Goffman reprendra le concept du jeu enréférence à la théorie des jeux de L. Von Neumann et O. Morgenstern .Comme le joueur, en fonction de la situation, l'acteur social engagédans l'interaction disposera d'un certain nombre de possibilités. Y .Winkin évoque l'utilisation du terme « stratégie » par E .Goffman pour désigner les aspects de l'interaction pouvant être prévus ,calculés, contrôlés. Chacun pourra mettre en place la stratégie qu'ildésire afin de maximiser ses gains et de minimiser ses pertes. L'analyse des différents groupes composant l'Institut ,avec cette clé, nous permettra certainement de comprendre l'origine decertains rites d'interaction mis en place. Ne pas mettre de côté cettevariable stratégique nous semble essentiel si nous désirons comprendrel'émergence éventuelle d'une nouvelle micro-culture propre à cesateliers. On peut, en effet, se demander si de tels enjeux n'empêcherontpas une véritable collaboration horizontale. La micro-culture qui va sedévelopper ne sera -t-elle pas influencée davantage par l'une desmicro-cultures présente dans le groupe ? Dans nos ateliers de recherche ,l'un des savoirs pourrait prendre plus d'importance que les autres .C'est également dans cette logique que nous avons réalisé lesobservations participantes des réunions de préparation des ateliers etdes comités de pilotage évoquées plus haut. La méthode de l'entretien semi-directif nous sembleadaptée dans le cadre de cette phase, que l'on pourrait qualifier decontextualisation, car elle permet de toucher aux représentations qu'ontles acteurs de l'action à laquelle ils participent. Ici, notre objectifn'est pas de réaliser à tout prix un grand nombre d'entretiens pourobtenir des données exploitables quantitativement, mais bien de réaliserles entretiens nous -mêmes et d'insérer aussi dans notre analyse lecontexte d'énonciation et une vue plus réflexive sur le rapportenquêteur/enquêté. Après un bref exposé introductif portant sur lesobjectifs de notre entretien, nous avons choisi de nous baser sur uneliste de thèmes à aborder en formulant ceux -ci comme des questionsouvertes. Dans cette phase de notre recherche, nous souhaitons, eneffet, laisser un maximum de liberté à la personne interviewée. Pourqu'elle exprime sa propre réalité avec son propre langage, ses propresconcepts et ses propres catégories mentales, nous avons limité nosinterventions et nous avons tenté de ne pas imposer nos propres cadresde références et nos éventuelles hypothèses. Ainsi, la grille dequestions ou de thèmes mise en place a été élaborée dans le souciconstant de rester générale et vague, afin d'introduire le moinspossible de biais. Notons également que notre grille n'a été utiliséequ' à titre indicatif et que nous n'y sommes pas restée attachéesystématiquement. Les thèmes sont parfois survenus dans le désordre ,l'essentiel restant que tous les thèmes soient abordés par notreinterlocuteur. Etant donné le niveau d'éducation et de responsabilitéassez élevé des personnes interviewées, le fait de nous munir d'un telguide nous semblait approprié. Vu la différence d' âge et notre arrivéerécente sur ce terrain, la présence de ce guide nous positionnait desuite dans un rapport d'enquêteur-enquêté et légitimait notre place dechercheuse. La présence de ce guide nous permettait également derecadrer la discussion si elle s'orientait vers des thématiques tropéloignées de notre objet de recherche. Le choix de travailler avec trois méthodes complémentairesnous semble pertinent tant vis-à-vis de notre terrain de recherche que desthéories des auteurs que nous mobilisons. Il nous semble essentield'articuler ces différentes méthodologies afin d'aborder la situation danstoute sa complexité. Le fait même d'utiliser cette variété d'approche nousrenvoie d'ailleurs à notre cadre théorique et à cette logique du réseaupropre à notre société contemporaine. Tout comme L. Van Campenhoudt et al. ,nous pensons que « les promontoires érigés par la discipline sociologiquepour observer le social sont eux -mêmes constitutifs du paysage qu'ilsobservent ». Le simple fait que les ateliers de recherche existent et queleurs concepteurs s'interrogent sur l'interdisciplinarité nous renvoie auxcadres théoriques choisis. Si, dans la société industrielle, les sphèresd'activité étaient fortement différenciées et que les fonctions étaientspécialisées, à l'ère du travail en réseau, nous sommes plus dans unelogique transversale, impliquant une dédifférenciation inter-champs etinter-institutions. C'est du moins le constat que font les auteurs de laméthode d'analyse en groupe pour la sphère de l'intervention sociale, pourles professionnels de l'action publique. Nous faisons l'hypothèse que cettelogique transversale peut s'étendre au-delà de cette sphère, àl'organisation en général. Comme le signalent les auteurs, cette hybridationpermet de lutter contre les effets pervers des cloisonnementsinstitutionnels et professionnels, mais elle est aussi une source deconfusion des rôles et des fonctions. A l'heure actuelle, l'individu n'estplus figé dans « une » position ou dans « un » système d'ordres. Il invente son expérienceplus activement. Pour F. Dubet, dans ces circonstances, l'individu est amené à prendredistance et à produire une activité significative afin de construire sonidentité personnelle. À une approche cloisonnée, nous opposons également, à traversnotre projet de thèse, une approche rassemblant des théories différentesautour d'un même objet. Comme c'est le cas au sein du monde en réseau décritpar L. Boltanski et E. Chiapello, c'est notre projet qui est le prétexte de la connexion etqui va activer ces liens. C'est la mobilisation de ces différents auteurs etl'articulation de leurs théories dans un cadre homogène et synthétique quinous permettra d'interpréter les données recueillies grâce aux méthodologiesmises en place. Pour nous, les sciences de la communication sontcaractéristiques, depuis leur origine, de ce travail en réseau. Ellesmobilisent, en effet, en fonction des projets ou des problèmes à traiter ,des auteurs venus de disciplines variées et les articulent pour former uncadre théorique cohérent et pertinent. En préservant leur spécificité qui sesitue dans le regard communicationnel posé sur la problématique, lessciences de la communication se distinguent par leur capacité à mobiliserdes ressources issues de disciplines variées. La méthodologie utilisée parles chercheurs en SIC se caractérise également, selon nous, par cetteinterdisciplinarité .
Nous désirons expliciter la construction du dispositif méthodologique mis en place dans la phase de récolte des matériaux nécessaires à notre travail de thèse portant sur les rites d'interaction et les logiques d'action mises en place au sein de groupes interdisciplinaires. Nous commencerons par une réflexion sur le choix d'une démarche tendant vers l'induction. Nous expliquerons notre choix de travailler dans un mouvement de continuel va-et-vient entre le terrain et les approches théoriques pouvant éclairer notre problématique. Dans un second temps, nous discuterons de notre position face à la rupture épistémologique au sens classique du terme qui voudrait que savoir commun et savoir scientifique soient séparés par des frontières étanches. Nous défendrons l'idée que l'acteur produit une connaissance réflexive sur lui-même et sur ses propres expériences. Approcher ce type de savoir nécessite de solides outils méthodologiques. Nous expliquerons pourquoi nous avons choisi de croiser trois méthodes: l'observation participante, la méthode d'analyse en groupe et les entretiens semi-directifs, en justifiant ce choix en fonction de notre objet de recherche et des savoirs que ces différentes méthodes permettent d'appréhender.
sciencesInfo_10-0351927_tei_990.xml
termith-438-communication
Les jeux de caractères utilisés avant l'avènement d'Unicode possédaient des architectures très différentes les uns des autres 2. Pour plusieurs, la simple détection des octets représentant un caractère était un processus contextuel complexe. Les jeux de caractères classiques ne pouvaient au mieux prendre en charge que quelques langues. La prise en charge de plusieurs langues à la fois était difficile, voire impossible. Aucun jeu de caractères ne fournissait toutes les lettres, les signes de ponctuation et les symboles techniques en usage courant utilisés pour une seule langue comme le français. Produire des logiciels destinés à différents marchés se résumait à une alternative simple : écrire des versions différentes du logiciel pour chaque jeu de caractères ou rendre le code du logiciel nettement plus compliqué pour traiter tous les jeux de caractères nécessaires. Ces deux options impliquent plus de codage, plus de tests, plus d'entretien et plus de soutien aux utilisateurs. Elles rendent la production de logiciels destinés à l'exportation plus chère et retardent leur lancement ce qui n'est pas sans conséquence sur les revenus. Le marché actuel rassemble souvent des données provenant de différentes sources (il suffit de penser à l'Internet). Le caractère codé correspondant à une lettre aussi simple que « A » peut varier en fonction du jeu de caractères et rendre le repérage, le tri et d'autres opérations fort difficiles. D'autres problèmes surgissent quand on mélange des données provenant de différents jeux de caractères (comme c'est le cas lors d'un copier-coller entre deux fichiers codés différemment). Il faut alors étiqueter ou baliser les données avec des informations sur le jeu de caractères d'origine et créer de la sorte un nouveau codage à états. Perpétuer les anciennes méthodes de production dans ce contexte ne peut qu'entraîner des coûts prohibitifs ou, pire, conduire au désastre. Le standard Unicode 3, 4 est un mécanisme universel de codage de caractères. Il définit une manière cohérente de coder des textes multilingues et facilite l'échange de données textuelles. Obligatoire pour la plupart des nouveaux protocoles de l'Internet 5, mis en œuvre dans tous les systèmes d'exploitation et langages informatiques modernes 6, Unicode est la base de tout logiciel qui veut fonctionner aux quatre coins du monde. Grâce à Unicode, l'industrie informatique peut assurer la pérennité des données textuelles tout en évitant la prolifération de jeux de caractères et en augmentant l'interopérabilité des données. Enfin, Unicode simplifie le développement de logiciels et en réduit les coûts. En effet, Unicode permet de coder tous les caractères utilisés par toutes les langues écrites du monde (plus d'un million de caractères sont réservés à cet effet). Tous les caractères, quelle que soit la langue dans laquelle ils sont utilisés, sont accessibles sans aucune séquence d'échappement. Le codage de caractère Unicode traite les caractères alphabétiques, les caractères idéographiques et les symboles de manière équivalente, avec comme conséquence qu'ils peuvent se côtoyer dans n'importe quel ordre avec une égale facilité. Le standard Unicode attribue à chacun de ses caractères un numéro 7 et un nom. À ce titre, il ne diffère guère des autres standards ou normes de codage de caractères. Cependant Unicode fournit d'autres renseignements cruciaux afin de s'assurer que le texte codé sera lisible : la casse des caractères codés, leur directionalité et leurs propriétés alphabétiques. Unicode définit également des renseignements sémantiques et comprend des tableaux de correspondance de casse ou des conversions entre Unicode et les répertoires de divers autres jeux de caractères importants. À l'heure actuelle, les données Unicode peuvent être codées sous trois formes principales : une forme codée sur 32 bits (UTF-32), une forme sur 16 bits (UTF-16) et une forme de 8 bits (UTF-8) conçue pour faciliter son utilisation sur les systèmes ASCII préexistants. Le standard Unicode est identique à la norme internationale ISO/CEI 10646 en ce qui concerne l'affectation des caractères (leur numéro) et leurs noms 8. Toute application qui se conforme à Unicode se conforme donc à l'ISO/CEI 10646. L'objectif principal du standard Unicode était de remédier à deux écueils sérieux et fréquents dans la plupart des programmes informatiques multilingues : l'ambiguïté des polices qui utilisent souvent les mêmes valeurs pour coder des caractères et des symboles totalement différents et l'utilisation de multiples jeux de caractères incompatibles provenant de normes nationales et industrielles contradictoires. Ainsi, même en Europe occidentale, des conflits existent entre la page de code 850 et l'ISO/CEI 8859-1. Dans le cas de logiciels qui prennent en charge les idéogrammes d'Extrême-Orient, le même ensemble d'octets utilisés en ASCII peut également servir de deuxième octet pour les caractères à deux octets. Ces logiciels doivent donc être capables de distinguer les caractères ASCII codés sur un octet des caractères à deux octets. Afin de résoudre ces problèmes, le consortium Unicode a conçu une méthode uniforme de codage des caractères à la fois plus efficace et plus souple que les systèmes de codage dits historiques. Le nouveau système devait satisfaire les besoins techniques multilingues tout en codant un grand éventail de caractères qui permettent d'assurer les besoins typographiques de qualité professionnelle et de la micro-édition dans le monde entier. En 1984, le JTC1/SC2 de l'ISO/CEI 9 définissait le mandat du groupe de travail numéro 2 (GT2) : « élaborer une norme établissant un répertoire de caractères graphiques des langues écrites du monde et son codage ». À la même époque, Joe Becker de Xerox à Palo Alto travaillait sur un jeu de caractères universel qu'il nommait Unicode. Quelques années plus tard, en 1988, plusieurs industriels, dont Xerox, se réunirent pour former ce qui allait devenir le consortium Unicode. Conscients des bénéfices d'une seule norme universelle de codage de caractères, les membres du Consortium Unicode collaborèrent avec les représentants de l'Organisation internationale de normalisation (ISO) à la fin 1991. À la suite de négociations officielles sur la convergence des deux codes, les deux répertoires fusionnèrent en janvier 1992. Depuis lors, une étroite collaboration et une liaison officielle entre les deux comités ont permis d'assurer la synchronisation des amendements et additions aux deux normes de sorte que leurs répertoires respectifs et leurs codages sont aujourd'hui identiques. Le répertoire du standard Unicode est rigoureusement identique à celui de l'ISO/CEI 10646. Cette identité point par point s'applique à tous les caractères codés des deux normes y compris les caractères idéographiques extrême-orientaux (également appelés caractères han). La norme ISO/CEI 10646 attribue à chaque caractère un nom et une valeur de code, le standard Unicode assigne les mêmes noms et valeurs de code mais il fournit également d'importants algorithmes de mise en œuvre, des propriétés de caractères et d'autres renseignements sur la sémantique de ceux -ci. Le comité technique du consortium Unicode (CTU 10) est le groupe de travail au sein du consortium chargé de la création, de la mise à jour et de la qualité du standard Unicode. Le CTU contrôle toutes les données techniques fournies au consortium et prend des décisions quant au contenu de ces données. Les membres de plein droit du consortium, qui doivent s'acquitter d'une cotisation annuelle, se prononcent sur les décisions du CTU. Les membres associés, les membres experts ainsi que les dirigeants du consortium font partie du CTU, mais ne bénéficient pas du droit de vote. Le président du CTU peut inviter d'autres personnes à participer aux discussions techniques, sans droit de vote toutefois. La dernière version papier d'Unicode est la version 3.0, publiée sous la forme d'un épais livre en 2000. Elle a été mise à jour par deux fois à l'aide de rapports séparés de sorte que la version actuelle d'Unicode est la version 3.2. La prochaine version papier d'Unicode, la 4.0, est prévue pour l'automne 2003. La base de tout jeu de caractères est une correspondance entre des valeurs de code (des numéros) et des caractères. Il ne faut pas confondre un caractère avec sa représentation visuelle (le glyphe représentatif qui l'illustre dans les tableaux de caractères). C'est pourquoi Unicode fournit les renseignements sémantiques nécessaires pour décrire les caractères qu'il code. Nous reviendrons sur cette distinction fondamentale entre caractère et glyphe par la suite (v. 3.1, Caractère abstrait, caractère codé et glyphe). L'espace de codage du standard Unicode se divise en plans de 64K cellules (voir la figure 1). Chaque cellule peut se voir affecter un caractère. Le premier plan (plan 0016), le plan multilingue de base (PMB), comprend des caractères usuels dans les no le plan multilingue de base (PMB), comprend des caractères usuels dans les écritures alphabétiques, syllabiques et idéographiques ainsi que divers chiffres et symboles. Le contenu des zones à usage privé du PMB et des plans à usage privé (0F16 et 1016) n'est pas prescrit par Unicode, en d'autres mots on est libre d'y affecter des caractères de son choix. La zone d'indirection est un ensemble de cellules réservées pour UTF-16 (voir la figure 2 et la section 6.3, Forme en mémoire des caractères) afin de pouvoir distinguer les caractères codés sur un seizet de ceux codés sur deux. La figure 3 donne le détail des premiers blocs du PMB. Le plan multilingue complémentaire (plan 0116, voir la figure 4) est destiné aux systèmes d'écritures non idéographiques et aux symboles similaires à ceux que l'on retrouve dans le PMB, mais contrairement au PMB la plupart des écritures qui y sont codées (et qui y seront codées) ne sont plus utilisées de nos jours. Le Plan idéographique complémentaire (plan 0216) normalise un ensemble de caractères utilisés en Extrême-Orient. Le Plan complémentaire spécialisé (plan 0E16) normalise un ensemble de caractères graphiques à vocation particulière (certains de ces caractères n'ont pas d'apparence visuelle). Les noms en italique qui figurent dans ces figures indiquent des blocs d'écriture qui devraient faire partie de la prochaine version d'Unicode, la version 4.0. La dernière version d'Unicode, la version 3.2, code actuellement 95 221 caractères, la grande majorité dans le PMB. Il reste environ 6 700 positions de code non affectées dans le PMB, elles sont réservées à une future normalisation. Ajoutons que 870 000 positions de code restent disponibles dans les autres plans. Un des défis les plus redoutables dans la conception d'un jeu de caractères universel réside dans la conception souvent différente que se fait chaque langue de c'est qui constitue un élément textuel fondamental (une lettre dans le cas des écritures alphabétiques). Ce concept peut même changer, pour une même langue, selon les applications textuelles considérées. Ainsi, en typographie traditionnelle allemande, la combinaison de lettres « ck » constitue un élément textuel pour ce qui a trait à la coupure de mots (où cette combinaison se transforme en « k-k ») mais pas en ce qui concerne le tri lexicographique. En français, les objets « a » et « A » sont habituellement considérés comme des éléments textuels distincts pour ce qui a trait au rendu, mais on les confond fréquemment, à dessein, lors de recherches textuelles. Une norme de codage de caractères fournit des unités fondamentales de codage (que l'on nomme caractères abstraits) mises en correspondance biunivoque (de un à un) avec le numéro qu'on leur attribue. Ces numéros de code sont les plus petites unités adressables du texte stocké. Le graphème constitue une des classes d'éléments textuels importantes, il correspond typiquement à ce que l'utilisateur considère être un caractère. La figure 5 illustre le rapport qui existe entre les caractères abstraits et les graphèmes. Comment passe -t-on des éléments textuels ou des graphèmes aux caractères abstraits d'un jeu de caractères ? Il faut comprendre qu'aucune architecture de jeu de caractères ne peut satisfaire de manière optimale tous les processus textuels (rendu, coupure de lignes, détection de mots, correction orthographique, indexation, synthèse vocale, sélection et mise en évidence à l'écran, édition, comparaison, tri, compression, etc.). L'ensemble des caractères abstraits choisis forme donc un compromis entre les besoins des différents traitements textuels pour un ensemble de langues utilisant la même écriture. En effet, pour des raisons d'efficacité et d'échange de données, Unicode et l'ISO/CEI 10646 ne codent pas nécessairement les graphèmes d'une langue particulière mais des caractères abstraits correspondant aux caractères communs à une écriture (pouvant servir à plusieurs langues). En résumé, on dira qu'un caractère abstrait est une unité d'information utilisée pour organiser, commander ou représenter des données textuelles. Le caractère abstrait n'a pas de forme concrète (il ne faut pas le confondre avec ses glyphes) et ne correspond pas nécessairement à ce que l'utilisateur imagine être un « caractère » dans sa langue (un graphème). Le glyphe 11 représente les différentes formes qu'un caractère abstrait peut prendre (voir la figure 6). Un caractère codé, pour sa part, est l'association entre un caractère abstrait et son numéro. Notons que certains caractères abstraits sont codés plus d'une fois dans Unicode 12. On nomme caractères combinatoires les caractères destinés à s'afficher en association avec un caractère de base. Si l'on décide de représenter « ö » à l'aide d'un « o » (U+004F) suivi d'un caractère « ¨ » (U+0302), « o » est le caractère de base et « ¨ » est un caractère combinatoire. Pour bien indiquer qu'il s'agit d'un caractère combinatoire, on le représente surmontant un cercle pointillé : Lors du rendu, les glyphes qui représentent ces caractères seront dessinés dans un certain ordre près du glyphe qui représente le caractère de base. Le standard Unicode distingue deux types de signes combinatoires : ceux avec chasse et ceux sans. Les caractères combinatoires sans chasse (encore appelés à chasse nulle) n'occupent pas de place par eux -mêmes. Toutefois, la combinaison du caractère de base et du caractère à chasse nulle peut occuper au rendu plus d'espace latéral que le caractère de base seul. Ainsi, un « î » chasse légèrement plus qu'un simple « i ». Les diacritiques constituent la principale classe des caractères combinatoires sans chasse utilisés dans les alphabets européens. Dans le standard Unicode, la définition du terme « diacritique » est relativement vague et comprend à la fois les accents ainsi que d'autres signes sans chasse. Tout caractère de base peut se voir adjoindre n'importe quel diacritique quelle que soit l'écriture de ce caractère. On peut donc théoriquement adjoindre un « ^ » à une lettre arabe. Tous les caractères combinatoires doivent suivre le caractère de base qu'ils qualifient. La suite de caractères Unicode U+0075 lettre minuscule latine u + U+0308 ۬ diacritique trema + U+0065 lettre minuscule latine e représente sans équivoque « üe » et non « uë ». La convention d'ordonnancement utilisée par le standard Unicode correspond à l'ordre logique des diacritiques arabes et indiens dont la grande majorité suit (au clavier et dans la chaîne parlée) les caractères de base par rapport auxquels ils se placent. Dans les tableaux consacrés aux écritures de l'Inde, certaines voyelles sont représentées à la gauche d'un cercle pointillé dans les tableaux de caractères (cf. figure 7). Il faut distinguer attentivement ce cas spécial de celui des diacritiques habituels. Ces signes-voyelles doivent être rendus à la gauche de la consonne ou du groupe consonantique même si logiquement (en mémoire) ils suivent la consonne dans leur représentation Unicode. On dit que ces signes-voyelles sont antéposés. Il arrive que plusieurs diacritiques s'adjoignent à un seul caractère (cf. figure 8). Le standard Unicode ne limite pas le nombre de caractères combinatoires qui peut suivre un caractère de base. Si des caractères combinatoires peuvent affecter une même zone typographique — par exemple un U+0308 ۬ diacritique tréma et un U+0301 ۬ diacritique accent aigu — l'ordre des caractères codés détermine l'ordre d'affichage (cf. figure 9). Les diacritiques sont disposés à tour de rôle à partir du glyphe correspondant au caractère de base pour ensuite s'en éloigner. Les caractères combinatoires placés au-dessus d'un caractère de base s'empilent verticalement, en commençant par le premier dans l'ordre de stockage logique. On poursuit l'empilement vers le haut d'autant de signes qu'il est nécessaire selon le nombre de codes de caractère qui suivent le caractère de base. La situation est inversée pour les caractères combinatoires placés sous un caractère de base : les caractères combinatoires s'empilent vers le bas. On appelle cet ordre l'ordre centrifuge. Certains caractères dérogent à l'empilement centrifuge. C'est le cas du grec, lorsqu'un esprit précède un accent aigu ou grave, les deux diacritiques doivent alors s'écrire côte à côte au-dessus de la lettre de base. Ici l'ordre des caractères est code du caractère de base + code de l'esprit + code de l'accent. Cet exemple démontre bien que la disposition correcte des signes diacritiques dépend de l'écriture employée. Le standard Unicode énumère dix principes qui ont guidé son élaboration. Pour un jeu de caractères aussi vaste qu'Unicode, tous ces principes ne s'appliquent pas toujours de manière égale. Parfois, l'adhésion à un principe entraîne la violation d'un des autres principes. Unicode est le résultat d'un délicat équilibre entre différents besoins parfois contradictoires. UNIVERSALITÉ — Le standard Unicode fournit un répertoire unique et universel. EFFICACITÉ — L'analyse et le traitement d'un texte Unicode sont simples. CARACTÈRES ET NON GLYPHES — Le standard Unicode définit des caractères et non des glyphes. SÉMANTIQUE — Les caractères ont une sémantique bien définie. TEXTE BRUT — Le standard Unicode normalise du texte brut. ORDRE LOGIQUE — La représentation implicite en mémoire correspond à l'ordre logique. UNIFICATION — Le standard Unicode unifie les caractères identiques à l'intérieur des écritures et non à l'intérieur d'un même alphabet associé à une seule langue. COMPOSITION DYNAMIQUE — On compose les formes à diacritique(s) dynamiquement. SÉQUENCE ÉQUIVALENTE — À chaque forme statique précomposée correspond au moins une suite équivalente de caractères décomposés que l'on pourra recomposer dynamiquement. CONVERTIBILITÉ — Unicode définit des conversions exactes entre son répertoire et d'autres normes largement répandues. Le standard Unicode décrit un seul jeu de caractères de très grande taille qui comprend tous les caractères nécessaires aux écritures du monde. Le passage d'une écriture à l'autre ne nécessite pas, contrairement à certains jeux de caractères d'Extrême-Orient, de caractère d'échappement. Les caractères de toutes les écritures peuvent se mêler sans aucun encombre (voir la figure 10). Afin de permettre des mises en œuvre efficaces, Unicode n'inclut pas de caractères d'échappement ou d'états de passage. Tous les caractères Unicode ont la même qualité, tous les codes sont d'une égale facilité d'accès 16. Par convention et dans la mesure du possible, les caractères d'une même écriture sont regroupés en un bloc de caractères consécutifs. Non seulement ceci facilite -t-il la consultation des tableaux de caractères, mais cela permet également des mises en œuvre plus compactes. La majorité des caractères de ponctuation communs aux différentes écritures sont regroupés dans un bloc séparé. Cette universalité et cette uniformité de codage permettent une analyse, un tri, un affichage, un repérage et une édition efficaces des chaînes textuelles Unicode. Le standard Unicode distingue les caractères, qui forment les plus petites unités distinctives et significatives d'une langue écrite, des glyphes qui représentent les différentes formes visuelles qu'un caractère peut prendre. Un seul glyphe peut représenter un seul ou plusieurs caractères (on parle alors d'une ligature). De même, de multiples glyphes peuvent représenter un seul caractère de multiples glyphes peuvent représenter un seul caractère (sont tous des U+0062 b). On représente un caractère par un numéro qui ne réside qu'en mémoire ou sur disque. Le standard Unicode ne s'intéresse qu'au codage de caractères et non aux glyphes. Contrairement aux caractères, les glyphes apparaissent à l'écran ou sur papier et représentent une forme particulière d'un ou plusieurs caractères. Un répertoire de glyphes constitue une police. La forme des glyphes et les méthodes d'identification et de sélection de glyphes sont la responsabilité des fonderies et des normes appropriées. Celles -ci ne font pas partie du standard Unicode (v. 9, Rendu). Pour certaines écritures, comme l'arabe et différentes écritures du sous-continent indien, le nombre de glyphes nécessaires à l'affichage peut être nettement plus important que le nombre des caractères qui codent les unités de base de cette écriture. Le nombre de glyphes peut également dépendre du style calligraphique de la police. Ainsi, une police arabe de style nastaliq peut comprendre plusieurs milliers de glyphes. Toutefois, quelle que soit la police choisie, un texte arabe est toujours représenté par la même cinquantaine de caractères codés (la même cinquantaine de numéros). Les caractères sont munis d'une sémantique bien définie. Le standard Unicode fournit des tableaux de propriétés de caractère que l'on peut utiliser pour le tri, l'analyse ou d'autres algorithmes qui ont besoin d'une connaissance sémantique des caractères traités. Voici quelques-unes des propriétés de caractère définies par Unicode : la casse 18 du caractère : majuscule A, minuscule a, casse de titre Dz; sa directionalité : gauche, droite, faible, neutre; s'il est à symétrie miroir : < ∫ → (à ajuster selon directionalité du texte); s'il s'agit d'un numéral : iv 7; s'il est combinatoire :. Un texte brut est constitué d'une suite de codes de caractères, dont aucun ne représente du balisage. Un texte brut Unicode est donc une suite simple de codes de caractères Unicode. À l'inverse, un texte enrichi, également connu sous le nom de texte de fantaisie, est constitué de texte brut et d'un ensemble d'informations comme la force de corps employée, la couleur du texte, des hyperliens, etc. Le texte de cet article, par exemple, est un texte formaté à l'aide de plusieurs polices, il s'agit d'un texte enrichi. La simplicité du texte brut lui permet de servir de base aux textes enrichis. SGML, HTML, XML ou TEX sont des textes enrichis représentés à l'aide de textes bruts émaillés de suites de caractères qui représentent des structures de données supplémentaires (ici des balises). On définit parfois le texte brut de la façon suivante : un texte brut doit comprendre suffisamment d'information pour que le texte puisse être affiché de manière lisible, sans plus. Enfin, notons que, si le texte brut est public, normalisé et lisible par tous, la représentation du texte enrichi est souvent propriétaire ou peut varier selon les mises en œuvre. Les textes Unicode, quelle que soit l'écriture, sont stockés en mémoire en ordre logique. Cet ordre correspond grosso modo à l'ordre dans lequel le texte est saisi au clavier. Parfois, l'ordre des caractères à l'affichage ou à l'impression diffère de l'ordre logique, c'est le cas des écritures bidirectionnelles comme l'arabe ou l'hébreu. La figure 11 illustre la différence entre les ordres logique et d'affichage. À l'affichage, le glyphe qui représente le premier caractère du texte latin de la figure 11 s'affiche à gauche. En revanche, le premier caractère logique du texte hébreu est représenté par le glyphe hébreu le plus proche de la marge droite. Les glyphes hébreux suivants sont disposés vers la gauche. On utilise l'ordre logique même lorsque des caractères de différentes directions dominantes se mêlent : écritures gauche-à-droite (grec, cyrillique, latin), droite-à-gauche (arabe, hébreu) ou même verticale. Les propriétés de directionalité implicites aux caractères suffisent généralement à déterminer l'ordre correct d'affichage. Toutefois, il arrive parfois que cette directionalité implicite s'avère insuffisante pour afficher le texte de manière lisible. Unicode prévoit des caractères de commande qui permettent d'influencer l'ordre d'affichage. Rappelons que certains caractères, comme l'i bref dévanâgarî, s'affichent avant les caractères qu'ils suivent logiquement en mémoire. Les signes combinatoires (comme les accents en français, en grec, en cyrillique, les points voyelles arabes, les signes voyelles dévanâgarî, etc.) n'apparaissent pas de manière linéaire dans le texte rendu. Dans une chaîne de caractères Unicode, tous ces signes suivent le caractère de base qu'ils modifient, contrairement à ce qui fait généralement avec les machines à écrire. Ainsi, un latin est-il stocké sous la forme d'un « b » suivi du signe combinatoire (ou diacritique) « ۬ ». Le standard Unicode évite de coder plusieurs fois le même caractère et n'attribue qu'un seul numéro de code à un caractère d'une écriture donnée, quel que soit le nombre de langues qui utilise ce caractère (le a de chat, Katze, gato et kat est donc codé à l'aide d'un seul numéro : U+0061). Il en va de même pour les idéogrammes chinois/japonais/coréens (CJC). Le standard Unicode ne tente pas de coder des caractéristiques de texte comme la langue, la police, la force de corps, l'emplacement, l' œil des caractères (glyphes), etc. Ainsi, ne conserve -t-il pas d'information sur la langue lors du codage de caractères : l't grec français, l'ypsilon allemand et le wye anglais sont tous représentés par le même code de caractère, U+0057 « Y », il en va de même pour le zi (tseu) chinois, le ji japonais et le ja coréen représentés par le même code de caractère, U+5B57 (字), car ils partagent origine et sens et ne connaissent que des différences d' œil anodines. Toutefois un autre principe (voir 4.10, Convertibilité) s'oppose parfois à l'unification des caractères. Ainsi, si un des jeux de caractères fondateurs d'Unicode distingue deux caractères d'apparence similaire ou identique, Unicode maintient cette distinction et code deux fois le caractère. C'est le cas en latin pour le U+00C5 Å et U+212B Å. C'est également le cas pour les caractères han () qui désignent tous l'épée ou le poignard et sont de structure identique mais qui sont codés séparément dans le jeu de caractères japonais source JIS X 0208-1990; Unicode les distingue donc pour assurer une conversion aller-retour sans perte vers ce jeu de caractères. Le standard Unicode permet de composer dynamiquement les formes accentuées des lettres et des syllabes hangûl. Ce processus est extrêmement productif, car il est ouvert. On peut donc créer de nouvelles formes à l'aide d'une combinaison de caractères de base 19 suivis d'un ou plusieurs diacritiques. Ainsi, le tréma « ۬ » peut-il être s'adjoindre à des voyelles ou à des consonnes dans des langues qui utilisent l'écriture latine ainsi que dans d'autres écritures. Dans les écritures comme l'arabe ou l'hébreu, les diacritiques représentent souvent des voyelles. Les écritures de l'Inde comportent de nombreux caractères combinatoires dont les glyphes suivent habituellement, à la même hauteur sur la ligne, le caractère de base. Certains éléments textuels peuvent être codés de plus d'une façon : une forme précomposée ou une ou plusieurs compositions dynamiques. Pour des raisons de compatibilité avec les jeux de caractères actuels, on a inclus dans le standard de nombreuses formes précomposées. Les caractères précomposés sont équivalents à leur suite de caractères décomposée. Ainsi « ä » est-il équivalent à « a » + « ۬ ». Unicode fournit pour chaque forme précomposée incluse dans la norme son équivalent canonique décomposé. Ces fournies sont fournies dans la base de données Unicode et dans les tableaux de caractères (v. 5.5, Décompositions). Des suites de diacritiques qui interagissent au niveau typographique (par exemple, deux accents suscrits ou deux diacritiques souscrits) sont considérées distinctes si les diacritiques se présentent dans des ordres différents. Unicode attribue pour chaque caractère une classe combinatoire et définit, à l'aide ces classes combinatoires, un algorithme de mise en ordre canonique des suites de signes combinatoires. Cet ordre canonique permet de trier les séquences équivalentes de caractères combinatoires dans un ordre prévisible. Les caractères de base sont de classe combinatoire zéro. Tous les diacritiques qui interagissent l'un sur l'autre au niveau typographique sont de même classe combinatoire, des suites d'ordre différent les contenant ne sont donc pas équivalentes. Le standard Unicode et l'ISO/CEI 10646 formaient à leur naissance un jeu de caractères complètement neuf. Il a donc fallu définir des méthodes d'importation et d'exportation de données codées dans des jeux de caractères fondamentaux à l'époque 20. Un grand soin a été apporté afin de garantir une conversion aller-retour sans perte entre Unicode et ces jeux de caractères. C'est pourquoi, lorsque des variantes de forme (ou même la même forme) se sont vues affectées des numéros de caractère différents dans une norme de base, Unicode les garde séparées. En général, toute valeur de code dans une autre norme correspond à une valeur de code en Unicode. Il arrive, cependant, qu'une valeur de code dans une autre norme correspondra à une suite de valeur de code Unicode ou vice-versa. Le standard Unicode est un ouvrage monumental, il répertorie en effet plus de 95 000 caractères et définit les règles qui les régissent. Cet inventaire planétaire, fruit de plus d'une décennie de travail international, se présente sous la forme d'une longue liste. Cette liste de 600 pages est annotée et elle est précédée de 13 chapitres. Les premiers chapitres sont normatifs et décrivent des aspects communs à toutes les écritures (et résumés dans cet article), ils sont suivis de chapitres « introductifs » essentiels qui portent, chacun, sur une famille d'écritures particulières. Les tableaux du standard Unicode représentent les caractères de la norme ISO/CEI 10646 et du standard Unicode. Les caractères sont regroupés en blocs apparentés. Habituellement, ces blocs comprennent des caractères provenant d'une seule écriture. Un bloc de caractères suffit généralement à représenter une écriture. Il existe, toutefois, des exceptions notables, plus particulièrement dans le domaine des caractères de ponctuation. Une liste de noms de caractère suit chaque tableau de codes 21, à l'exception des idéophonogrammes CJC et des syllabes hangûl dont un algorithme définit les noms. La liste de noms de caractère reprend tous les caractères du bloc et fournit le plus souvent des renseignements complémentaires sur ceux -ci. L'exemple suivant illustre les différentes parties de chaque entrée de la liste de noms de caractère. Chaque caractère dans ces tableaux de codes est représenté à l'aide d'un glyphe représentatif. Ce glyphe n'a pas de valeur normative, il permet simplement à un utilisateur averti de reconnaître le caractère visé ou de retrouver facilement le caractère dans les tableaux. Dans de nombreux cas, il existe des représentations concurrentes, plus ou moins établies, pour un même caractère. Les concepteurs de polices de haute qualité devront effectuer leur propre recherche pour déterminer l'apparence la plus appropriée des caractères Unicode. En outre, de nombreuses écritures nécessitent des formes de glyphes différentes selon le contexte, un positionnement contextuel du glyphe ou la formation de ligatures. Aucune de ces informations n'est illustrée dans les tableaux de codes. Pour les écritures non européennes, on a choisi comme styles de caractère ceux dont les œils se différenciaient le plus les uns des autres. Les caractères de renvoi (précédés de →) désignent plusieurs types de renvoi : l'inégalité explicite, les autres casses du même caractère ou d'autres rapports linguistiques. Inégalité explicite. Les deux caractères ne sont pas identiques bien que leurs glyphes soient identiques ou fort similaires. Autres rapports linguistiques. Parmi ces rapports, on compte les translittérations (entre le serbe et le croate, par exemple), des caractères sans rapport typographique mais qui servent à représenter le même son, etc. Quand cela peut-être utile, on trouve parfois une note informative identifiant les langues qui utilisent ce caractère. Pour les écritures bicamérales, cette information n'est fournie que pour les lettres de bas de casse afin d'éviter une répétition inutile. Les points de suspension « … » indiquent que la liste des langues n'est pas limitative et qu'elle ne reprend que les langues principales. La séquence de décomposition d'un caractère (constituée d'une ou plusieurs lettres) peut être de deux types : canonique ou de compatibilité. La correspondance canonique est indiquée à l'aide d'un symbole identique à ≡. Les correspondances ne fournissent pas des décompositions complètes, c'est l'application récursive des correspondances qui fournit la décomposition canonique (après sa mise en ordre canonique). Voir 7, Formes normalisées. La correspondance de compatibilité s'indique à l'aide d'un signe presque égal à ≈. Une balise de formatage peut accompagner la décomposition. Dans la discussion qui précède, nous avons considéré les caractères abstraits et leur numérotation sans jamais nous pencher sur la forme que prendront ces numéros de caractères lors d'un stockage ou d'un transfert. Unicode définit un modèle de codage de caractères qui définit cinq niveaux de représentation des caractères : RÉPERTOIRE DE CARACTÈRES ABSTRAITS — ensemble des caractères à coder, c'est-à-dire un alphabet ou un jeu de symboles; JEU DE CARACTÈRES CODÉS — fonction qui attribue un numéro (ou exceptionnellement deux) à chaque caractère abstrait du répertoire; FORME EN MÉMOIRE DES CARACTÈRES — relation entre un ensemble de numéros de caractères utilisés dans un jeu de caractères codés et un ensemble de suites d'unités de stockage (par exemples des octets ou des seizets); MÉCANISME DE SÉRIALISATION DE CARACTÈRES — correspondance entre des unités de stockage et des suites d'octets sérialisés; SURCODAGE DE TRANSFERT — transformation réversible 22 des données codées, celles -ci peuvent contenir du balisage. La figure 14 illustre le rapport qui existe en les quatre premiers niveaux du modèle. Les flèches pleines relient les caractères codés (également appelés caractères numérotés) aux caractères abstraits qu'ils représentent et codent. La flèche creuse part d'une suite de caractères codés qui représente sous forme décomposée le caractère abstrait, aucun de ces deux caractères codés ne correspond donc directement au caractère abstrait. Enfin, les rangées stocké et sérialisé représentent différentes formes de stockage et de sérialisation de caractères codés, nous les décrirons plus en détail ci-après. Un répertoire est un ensemble de caractères abstraits destinés à être codés, il s'agit habituellement d'un alphabet connu ou d'un ensemble de symboles. Le mot abstrait signifie simplement que ces objets sont définis par convention, comme le sont les 26 lettres de l'alphabet latin, les majuscules ou les minuscules. Il est bon de rappeler que le répertoire comprend des caractères, et non des glyphes. Un répertoire est un ensemble non ordonné. Contrairement à la plupart des jeux de caractères existants dont le répertoire est fermé (l'ajout d'un nouveau caractère entraîne la définition d'un nouveau jeu de caractère), le répertoire d'Unicode est ouvert. Unicode se veut un codage universel, tout caractère abstrait qui pourra jamais être codé est donc un membre potentiel du jeu à coder, que l'on connaisse actuellement ce caractère ou non. On définit un jeu de caractères codés comme la correspondance entre un ensemble de caractères abstraits et un ensemble d'entiers non négatifs. Ce dernier ensemble peut ne pas être contigu. On dit qu'un caractère abstrait est codé dans un jeu de caractères donné si un numéro de caractère existe pour ce caractère. Une forme en mémoire des caractères (ou la forme « naturelle » des caractères) définit la relation entre un ensemble de numéros de caractères utilisés dans un jeu de caractères codés et un ensemble de suites d'unités de stockage en mémoire. Une unité de stockage en mémoire est un entier d'une certaine largeur (exemples : octet ou seizet) qui sert d'unité de base à l'expression des numéros de caractère dans la mémoire d'un ordinateur. Cette forme en mémoire définit la représentation réelle des caractères codés comme données informatiques. Les suites d'unités de stockage en mémoire ne doivent pas nécessairement toutes avoir la même longueur. Dans les jeux de caractères traditionnels, il n'existe le plus souvent qu'une seule façon de représenter les caractères en mémoire. La forme en mémoire est alors inhérente (et implicite) au jeu de caractères codés. En revanche, Unicode et l'ISO/CEI 10646 définissent plusieurs formes « naturelles » de mémorisation. On distingue les formes à largeur fixe des formes à largeur variable. Formes en mémoire à largeur fixe : 16 bits (UCS-2) — chaque numéro de caractère est représenté par un seizet; cette forme n'existe qu'en ISO/CEI 10646; elle ne permet que d'adresser les caractères du PMB. 32 bits (UCS-4, UTF-32) — chaque numéro de caractère est représenté par une quantité sur 32 bits. L'espace de code est arbitrairement limité à 0..10FFFF pour des raisons de compatibilité avec UTF-16 (voir ci-après). Formes en mémoire à largeur variable : UTF-8 — suite d'une à quatre unités de mémoire (des octets ici) pour Unicode et théoriquement d'une à six unités de mémoire pour l'ISO/CEI 10646 (en pratique l'ISO/CEI 10646 utilise également jusqu' à quatre unités puisque désormais la limite supérieure de l'espace de codage de l'ISO/CEI est également 10FFFF16). UTF-16 — suite d'une à deux unités de mémoire (des seizets ici). La forme en mémoire de caractères constitue un des aspects fondamentaux de l'internationalisation des logiciels : combien d'unités utilise -t-on en mémoire pour représenter chaque caractère ? On exprime cette relation à l'aide de deux paramètres : la largeur des unités de mémoire (8, 16 ou 32 bits) et le nombre d'unités de mémoire utilisé pour représenter chaque caractère. Cette forme en mémoire du standard Unicode est à 16 bits : l'unité de stockage est le seizet. Les caractères du PMB sont codés avec un seul seizet, ceux des autres plans sont codés à l'aide de deux seizets (dits d'indirection). Chaque paire d'indirection est composée d'un seizet d'indirection supérieur (dont la valeur appartient à l'intervalle D800..DBFF 23) et d'un seizet d'indirection inférieur (DC00..DFFF). La figure 15 illustre le passage du numéro de caractère à la forme en mémoire UTF-16. Afin de satisfaire les besoins des systèmes architecturés autour de l'ASCII ou d'autres jeux de caractères à un octet, le standard Unicode définit une forme en mémoire supplémentaire : l'UTF-8. Il s'agit d'une forme en mémoire à largeur variable transparente pour les systèmes ASCII. Il s'agit d'une forme de mémorisation très fréquemment adoptée pour effectuer la transition de systèmes existants vers Unicode. Elle a notamment été choisie comme forme préférée pour l'internationalisation des protocoles d'Internet. UTF-8 est un codage constitué de suites d'octets de longueur variable; les bits de poids le plus fort d'un octet indiquent la position de celui -ci dans la suite d'octets. La figure 15 montre comment les bits d'un numéro de caractère Unicode sont répartis parmi les octets UTF-8. Toute suite d'octets qui ne suit pas ce modèle est une suite mal formée d'octets. La forme en mémoire UTF-8 assure la transparence de toutes les valeurs de code ASCII (0..127). En outre, ces mêmes valeurs n'apparaissent pas dans les octets transformés sauf en tant que représentation directe de ces mêmes valeurs ASCII. Les caractères de l'intervalle ASCII (U+0000..U+007F) sont stockés à l'aide d'un seul octet, la plupart des caractères issus des alphabets ou syllabaires sont stockés à l'aide de deux octets, les autres valeurs inférieures à FFFF16 avec trois octets et, enfin, les valeurs de 1000016 à 10FFFF16 à l'aide de quatre octets. Autres caractéristiques importantes de l'UTF-8 : Conversion efficace à partir de ou vers un texte codé en UTF-16 ou en UTF-32. Le premier octet indique le nombre d'octets, ceci permet une analyse rapide du texte vers l'avant. Recherche rapide du début de tout caractère, quel que soit l'octet où l'on commence la recherche dans un flux de données, il suffit de consulter au plus quatre octets en amont pour reconnaître aisément le premier octet qui code le caractère. UTF-8 est un mécanisme de stockage relativement compact en termes d'octets. Un tri binaire des chaînes UTF-8 donne le même résultat qu'un tri binaire effectué sur les numéros de caractères (les valeurs scalaires) Unicode correspondantes. Dans certains cas, on pourra préférer l'utilisation d'une forme en mémoire sur 32 bits, où chaque numéro de caractère Unicode (également appelé valeur scalaire Unicode) correspond à une unité codée sur 32 bits. Même les applications qui n'utilisent pas cette forme voudront sans doute convertir des données en mémoire à partir de et vers ce format à des fins d'interopérabilité. Quelques caractéristiques importantes de cette forme en mémoire : À des fins de compatibilité avec UTF-16, UTF-32 est restreint aux valeurs appartenant à l'intervalle 0..10FFFF16 qui correspond parfaitement au domaine des caractères défini par le standard Unicode et l'ISO/CEI 10646. Le standard Unicode ajoute un certain nombre de contraintes de conformité, en sus de celles précisées par l'ISO/CEI 10646, plus particulièrement quant à la sémantique des caractères. Déclarer un texte UTF-32 plutôt qu'UCS-4 permet de spécifier l'application de ces règles sémantiques propres à Unicode. De par sa forme de mémorisation à largeur fixe (sur 32 bits), la valeur numérique d'un caractère Unicode en UTF-32 correspond toujours à son numéro de caractère codé. Un mécanisme de sérialisation définit une correspondance entre des unités en mémoire et des suites d'octets sérialisés. Cette transformation permet de définir des formes d'échange de données persistantes intermachine dont les unités de stockage (en mémoire) sont plus grandes que l'octet. Il se peut alors qu'une permutation des octets s'avère nécessaire afin d'ordonner les données selon la polarité canonique des octets adoptée par la plate-forme en question. En particulier : UTF-16, dont les unités de base sont des seizets, doit préciser l'ordre des octets à adopter lors de la sérialisation. C'est là la différence entre UTF-16BE, dont les deux octets de seizet sont sérialisés en ordre gros-boutien 24, et l'UTF-16LE 25 qui les sérialisent en ordre petit-boutien. UTF-32, dont les unités de base sont des quantités à 32 bits, doit préciser l'ordre des octets à adopter lors de la sérialisation. Tout comme pour l'UTF-16, il existe donc deux mécanismes de sérialisation : UTF32-BE sérialise les octets en ordre gros-boutien alors qu'UTF-32LE les sérialise en ordre petit-boutien. UTF32-BE est structurellement identique à l'UCS-4 tel que défini par l'ISO/CEI 10646-1:2000. Il est important de ne pas confondre forme en mémoire de caractères et mécanisme de sérialisation de caractères : La forme en mémoire de caractères fait correspondre des unités de mémorisation aux numéros de caractère, alors que le mécanisme de sérialisation de caractères fait correspondre ces unités de mémorisation à des octets sérialisés destinés à être échangées avec d'autres systèmes. Le mécanisme de sérialisation doit préciser de quelle façon les unités de mémorisation sont transformées en suites d'octets. Afin de garantir une compatibilité aller-retour entre les normes préexistantes et Unicode, Unicode définit parfois plusieurs codes qui correspondent à des entités qui ne sont que des variantes visuelles (« glyphiques ») d'un même caractère. Unicode prévoit pour ces caractères des équivalences dites de compatibilité. L'apparence de ces caractères étant quelque peu différente, les remplacer par un autre caractère entraîne, en l'absence de balisage supplémentaire, une perte potentielle d'information de formatage. Le Mℓ disposé en carré – Mℓ (U+3396) – est une variante de compatibilité de M (U+006D) suivi de ℓ (U+2113). Unicode, rappelons -le (voir 4.9, Séquence équivalente), définit également des correspondances canoniques entre les caractères qui sont considérés comme identiques (et qui ne diffèrent donc même pas au niveau visuel). É (U+00C9) est une variante canonique de E (U+0045) + (U+0301). Unicode précise à partir de ces deux types d'équivalence deux formes de décomposition des caractères nécessaires quand on désire comparer des chaînes de caractères. La décomposition canonique d'un caractère est réversible et n'entraîne aucune perte d'information. Elle peut donc être utilisée dans l'échange normalisé de textes. En effet, cette forme permet d'effectuer une comparaison binaire tout en conservant une équivalence canonique avec le texte non normalisé d'origine. La décomposition canonique d'une chaîne de caractères est la transposition successive et récursive de chaque caractère par sa valeur canonique correspondante jusqu' à ce que ces transpositions renvoient vers elles -mêmes, suivie de sa mise en ordre canonique. La décomposition de compatibilité permet d'effectuer une comparaison binaire tout en conservant cette-fois -ci une équivalence de compatibilité avec le texte non normalisé d'origine. Cette dernière forme peut s'avérer utile en maintes occasions puisqu'elle permet d'éliminer des différences qui ne sont pas toujours pertinentes. Les caractères katakana à pleine chasse et à demi-chasse ont les mêmes décompositions de compatibilité et sont donc compatibles; ils ne sont toutefois pas canoniquement équivalents puisque leurs chasses diffèrent. La décomposition de compatibilité d'une chaîne de caractères est la transposition successive et récursive de chaque caractère par sa valeur canonique et de compatibilité correspondante jusqu' à ce que ces transpositions renvoient vers elles -mêmes, suivie de sa mise en ordre canonique. Ces deux formes transposent les caractères vers des caractères décomposés. Il existe également des formes de normalisation qui transposent les caractères vers des caractères composés (s'ils existent). Pour ce faire, il suffit de faire suivre les deux formes de décompositions introduites ci-dessus d'une composition canonique (E + est donc transposé vers É). En faisant suivre ou non les deux formes de décomposition par une composition canonique, on obtient un total de quatre formes de normalisation. Ces quatre formes porte un nom (voir figure 16). Les deux formes normalisées vers les caractères précomposés se nomment C et KC. Le résultat de l'une est l'équivalent canonique du texte d'origine, le résultat de l'autre est son équivalent de compatibilité. Le K de KD et KC représente le mot compatibilité (suggéré par l'allemand kompatibel) alors que le C renvoie aux deux C de composition canonique. Le D lui se réfère à la décomposition. Les programmes doivent toujours considérer comme égales des chaînes Unicode qui sont canoniquement équivalentes. Une des façons les plus simples de s'en assurer est de normaliser toutes les chaînes de caractères, car si les chaînes sont normalisées leurs formes canoniques (C ou D) ont alors exactement la même représentation binaire. La forme de normalisation à utiliser dépend de l'application et de la plate-forme en question. La forme la plus fréquente est la forme C car cette forme canonique recomposée est compacte et d'ordinaire compatible avec les jeux de caractères préexistants, c'est d'ailleurs la forme choisie par le W3C pour les standards du Web. Les autres formes s'avèrent utiles dans d'autres contextes de comparaison textuelle. La figure 17 illustre les formes normalisées de la chaîne « affligé » dont on a codé le ffl sous la forme d'une ligature assez commune 26. Trier des chaînes de caractères est un processus qui dépend fortement de la langue du lecteur-cible et même de l'application considérée. En effet, si l'allemand trie le « Ä » au début de l'alphabet, le suédois le trie après Z. Au sein d'une même langue, on n'ordonne pas toujours les chaînes de la même manière (il suffit de penser à l'ordre des chiffres et des noms propres dont les formes voisines sont regroupées dans un annuaire téléphonique). Toute norme de tri se doit de prendre en compte cette grande variabilité. Le consortium Unicode (dans son rapport technique n° 10) et l'ISO (dans sa norme 14651 27) ont défini des algorithmes de tri opérant sur des chaînes Unicode. Le rapport technique n° 10 d'Unicode (RTU-10) est un « profil » de la norme ISO/CEI 14651. Cette dernière a comme caractéristique principale de ne pas imposer de table de tri implicite. Pour qu'un processus soit conforme il faut explicitement déclarer un sous-tableau (un « delta ») pour la langue et pour la culture cibles. En cela, ISO/CEI 14651 reconnaît la nécessité d'adapter l'algorithme implicite à la culture et à la langue locales malgré une table qui propose au départ un modèle valable pour la majorité des langues. Dans cette optique, aucun tri n'est valable pour toutes les langues. Le RTU-10 propose une table implicite à utiliser en l'absence d'autres indications et il n'insiste pas sur la notion d'adaptabilité, bien que certaines mises en œuvre intelligentes s'y astreignent sans doute par le jeu de la concurrence et de l'expression des besoins des acheteurs perspicaces. S'il existe une multitude de différences entre le RTU-10 et l'ISO/CEI 14561 en ce qui a trait aux caractères spéciaux, le résultat trié est essentiellement le même que celui obtenu avec la table de base de la 14651 en déclarant toutefois un delta minimal. Une police et le processus de rendu qui lui est associé définissent une correspondance arbitraire entre des valeurs Unicode et des glyphes. Chaque glyphe dans une police est identifié par un numéro de glyphe unique. Une table de transposition, appelée habituellement cmap, permet d'effectuer le passage des numéros de caractères aux numéros de glyphes (voir la figure 18). Une police se conforme à Unicode si sa cmap transpose tous ou une partie des caractères Unicode vers des glyphes définis dans cette police. Il faut remarquer que tous les glyphes d'une police ne sont pas habituellement directement associés à un caractère Unicode. En effet, les variantes d' œil, les ligatures et les glyphes composés dynamiquement n'ont pas d'ordinaire d'entrée dans la table cmap. Ces glyphes sont accessibles par l'application de transpositions définies dans d'autres tables définies dans les polices (par exemple gsub pour OpenType et mort pour AAT 28). Remarquons que seule la cmap connaît la valeur des caractères; les autres tableaux d'une police sont tous indexés en fonction des numéros de glyphe et non des numéros de caractère. Une même police peut posséder plusieurs tables cmap, chacune indexée selon un jeu de caractères différent. La mise en correspondance entre les caractères stockés en mémoire et les glyphes ne constitue qu'une partie du rendu de texte. L'aspect final du texte rendu peut également dépendre du contexte (les caractères contigus dans la représentation en mémoire), des variations dans le dessin des polices utilisées ainsi que de paramètres de formatage (force du corps, exposant, indice et ainsi de suite). Il existe pour toutes les écritures une relation archétypique entre les suites de caractères et les glyphes qui en résultent. Unicode explique en partie ces relations pour les écritures du monde, toutefois Unicode ne normalise pas cet aspect. En effet, une typographie fine peut nécessiter des règles bien plus détaillées que celles précisées par Unicode. Le standard Unicode documente la relation implicite qui existe entre les suites de caractères et leur dessin dans la seule intention qu'un même texte soit toujours stocké à l'aide d'une suite de codes de caractère identique et donc échangeable. Les polices de caractères comme OpenType comprennent un certain nombre de tables énumérées à la figure 19. OpenType est le nouveau format de police élaboré par Microsoft et Adobe. Il s'agit de la fusion des formats de police TrueType et PostScript, formats qu'OpenType est appelé à remplacer à terme. Des polices OpenType sont désormais livrées avec MS Windows. Le Open dans OpenType signifie que les fonderies peuvent ajouter leurs propres fonctions dans ces polices. On remarquera que les données définissant le contour des glyphes peuvent être incluses dans le format TrueType (table glyf) ou PostScript (table ccf). Parmi les tables ajoutées à TrueType pour former OpenType (gsub, gpos, gdef), gsub est sans doute la plus intéressante dans le cadre d'une discussion portant sur le modèle caractère-glyphe. Elle contient des informations que les applications-clientes (par exemple un traitement de texte) peuvent utiliser pour remplacer certains œils par d'autres. La table gsub précise les œils en entrée et en sortie pour chaque substitution (voir figure 20), elle indique également le mode d'utilisation et l'ordre des substitutions. On peut définir un nombre quelconque de remplacements pour chaque écriture ou langue représentée dans la police. Ce dernier aspect permet ainsi d'éviter qu'une ligature « fi » ne se forme dans les textes turcs (langue qui distingue un i sans point du i pointé) tout en formant cette ligature pour les autres langues. Précisons encore que la table gpos permet de décaler les œils par rapport à leur position normale et de les placer les uns par rapport aux autres. Ceci est particulièrement utile pour des écritures complexes dans lesquelles la position des éléments graphiques varie selon le contexte. C'est le cas en dévanâgarî où la table gpos peut être utilisée pour ajuster la position précise des matras (des voyelles) et des autres signes diacritiques par rapport aux consonnes de base ou aux conjointes (les ligatures consonantiques). Les conjointes auront, pour leur part, été formées à l'aide de la table gsub. La figure 21 illustre un modèle de rendu textuel typique. Dans cet exemple, le texte-source Unicode est en forme normalisée KD, le résultat affiché pour sa part utilise la ligature « ffl » et un é précomposé. Le processus de rendu commence d'abord par exécuter l'algorithme bidirectionnel d'Unicode 30 dans l'espace des caractères. Il effectue ensuite le passage des caractères aux œils grâce à la cmap. Pour chaque passage directionnel 31, il remplace les glyphes selon les règles définies par la table gsub et, le cas échéant, des paramètres passés par l'application 32. Ces remplacements se font de manière itérative : une ligature issue d'une substitution peut participer à une substitution ultérieure. Ensuite, une fois l'ordre et l'identité des œils déterminés, on calcule leur position relative précise à l'aide de la table gpos. Enfin, le système d'exploitation utilise les tables glyf ou cff pour dessiner les œils. La prise en charge des fonctionnalités originales d'OpenType, comme les substitutions, nécessite une modification des applications. C'est ce qui explique qu'il ne suffit de créer une police OpenType pour que MS Word affiche les ligatures latines qu'on aura pu ajouter à ces polices. En fait, aucun progiciel de Microsoft ne prend actuellement en charge les ligatures latines ! Microsoft n'utilise ces fonctionnalités gsub que dans les langues non latines où elles s'avèrent essentielles. Seul Adobe, avec ses outils comme InDesign, semble prendre en charge les fonctions typographiques OpenType pour les écritures latines. La figure ci-après illustre comment ce processus peut en pratique s'appliquer à une écriture complexe comme la dévanâgarî 33. La conjointe djña (résultat de la suite) résulte d'une substitution de type ligature. Le placement du juste en dessous de la hampe de la conjointe s'effectue à l'aide de la table gpos. De même, le placement du en dessous de est une nouvelle fois réalisé à l'aide de la table gpos. Sans celle -ci, cette barre souscrite aurait traversé le milieu du diacritique ou .
Cet article présente les points saillants de la version 3.2 du standard Unicode et son pendant ISO, la norme internationale ISO/CEI 10646. L'article répond tout d'abord à quelques questions fréquentes: qu'est-ce qui a poussé au développement de cette norme? Quels en sont les principes de conception? Quels caractères normalise-t-elle? Qu'est-ce qu'un caractère, un glyphe? Comment doit-on coder les suites de caractères, les caractères accentués? Suit un bref examen du modèle de codage des caractères et des formes normalisées de représentation des données. Enfin l'article conclut par une description de deux processus fondamentaux et leur rapport avec Unicode: le tri et le rendu.
sciencesInfo_06-0253614_tei_DN_063_0051.tei.xml
termith-439-communication
La question de la réticence académique française aux études de Genre n'est pasdéfinitivement tranchée. Elle permet d'apporter cependant un éclairage utile àcelle — qui nous préoccupe particulièrement ici — de la réticence marquée dessciences de l'information et de la communication (SIC) françaises à ces mêmesétudes. Car même si Marlène Coulomb-Gully (2009) a raison d'insister sur unecertaine gémellité apparente entre SIC et études de Genre, les raisons de leursdivergences présentes n'en demeurent pas moins disséminées dans de multiplesdispositifs complémentaires qu'il nous faut examiner dans leur détail pourcomprendre ce qui se joue aujourd'hui encore dans cette réticence, mais aussicomment la déborder et surtout dans quel intérêt structurel pour l'évolution denotre interdiscipline. De plus en plus de travaux au sein même des SIC (Darras ,2005; Macé, Maigret, Glévarec, 2008) s'essaient à comprendre et analyser ce qu'ilne faut plus appeler le retard français à intégrer les études culturelles en généralet les études de Genre en particulier, mais bel et bien le refus — plus ou moinsassumé— de considérer cette problématique comme centrale au sein des recherchesuniversitaires, toutes disciplines confondues. Si la sociologie, l'anthropologie, laphilosophie, l'histoire et la littérature ont réussi à dépasser ces réticences, denombreuses autres disciplines, dont la nôtre, demeurent à la traîne. La prégnancedes modèles marxiste, d'une part, républicain, de l'autre, même si elle est bienréelle ne saurait à elle seule expliquer ce refus. La France demeure peu concernéepar la dynamique internationale du Gender Mainstream quis'est formée sur deux concepts : Gender et Mainstream désignant en anglais à la fois un courant principal et uneévidence, et renvoyant plus particulièrement aux modes d'action dominants au seind'une organisation ou d'une institution,ainsi qu'aux règles qui les régissent .L'expression est apparue en I985 lors de la Troisième conférence mondiale desNations Unies sur les femmes à Nairobi, visant à promouvoir le rôle des femmes ,avant de faire l'objet d'une plate-forme établie lors de la Quatrième conférencemondiale des Nations Unies sur les Femmes à Pékin en I995. En I998, le Conseil del'Europe définit le Mainstreaming, traduit en français par« approche intégrée de l'égalité » comme « la (ré) organisation, l'amélioration ,l'évolution et l'évaluation des processus de prise de décision, aux finsd'incorporer la perspective de l'égalité dans tous les domaines et à tous lesniveaux, par les acteurs généralement impliqués dans la mise en place despolitiques ». Depuis, le Gender Mainstream désigne donc uneapproche intégrée de l'égalité entre les femmes et les hommes, et développe desstratégies visant à incorporer durablement la perspective de cette égalité danstoutes les dimensions et à tous les étages de la réalité sociale et culturelle. Danscette optique, le Genre n'est plus une simple variable, un critère d'analyse parmid'autres, mais il bénéficie d'une pleine reconnaissance comme force structurante dela réalité sociale et politique. Par conséquent, il s'agit de prendresystématiquement en compte les besoins spécifiques des femmes et des hommes dansl'évaluation de toute situation quelle qu'elle soit, et ce avant toute interventionconcrète. Cherchant à intégrer l'égalité des chances entre les femmes et les hommesdans l'ensemble des politiques et actions communautaires, le Gender Mainstream trouve ses applications dans les domaines de l'économie ,de l'éducation, de la formation, de la communication et de l'information, mais ausside la politique, du développement, de la santé, du travail, pour ne citer qu'eux. Ilexprime une prise de conscience institutionnelle et internationale qui doitbeaucoup, si ce n'est tout, aux travaux anglo-saxons sur le Genre dont il constituel'un des effets pratiques les plus considérables. Dans ce but, un grand nombre de moyens ont été mobilisés, même si les méthodesdivergent parfois .L'intérêt principal du Gender Mainstream réside dans lavolonté qu'il exprime de mobiliser l'ensemble des instruments pédagogiques ,scientifiques, linguistiques, financiers, juridiques de la communautéinternationale, dans le but de construire des relations nouvelles et équilibréesentre les sexes. Dépassant et englobant la seule exigence de promotion des femmesdans l'espace public, le Gender Mainstream recouvre uneapproche globale visant à intégrer à moyen et long terme, de manière durable etétendue, la perspective de l'égalité à tous les niveaux. C'est donc sous la pression internationale d'abord, européenne ensuite, que la Francea été contrainte d'acclimater la problématique du Genre en faisant malgré tout lechoix de laisser à l'institution universitaire, dont le rôle est pourtant central àcet endroit, le soin de gérer elle -même le lent et difficile développement de cetteproblématique en son sein. Le choix qui a été fait de ne pas créer une discipline àpart entière relevant du Conseil national des universités (CNU) est révélateur de cepositionnement hexagonal périphérique, alors même que la plupart des payscomparables à la France ont fait résolument le choix inverse. De même, la persistance del'expression Gender rendue nécessaire par le besoin de leverl'équivoque tant le mot genre est utilisé pour de toutes autres raisons chez nous( genres littéraires, artistiques ou cinématographiques…) est une preuve supplémentaire de la percolationdouloureuse de cette notion dans le circuit scientifique comme dans le circuitsocial. Le passage en revue de toutes les raisons qui expliquent cet état de faitnous amènerait trop loin. Toutefois, posons l'hypothèse selon laquelle l'influencedu modèle chrétien continue d'imprégner fortement notre culture en dépitdes revendications multiples de son dépassement assumé. La persistance trèsfrançaise de la notion d' « ordre symbolique » maintenue à travers le tripledispositif de la philosophie du droit, de la psychanalyse lacanienne et del'anthropologie structurale, nous fournit également une piste très riche pourcomprendre où se noue (et se dénoue) l'essentiel de cette singularité culturelle( Bertini, 2009a). Les travaux en SIC reflètent l'état profond de la société et leur peu d'empressementà se saisir des questions de Genre se soutient de cette frilosité hexagonale. Iln'en demeure pas moins vrai que si d'autres disciplines ont d'ores et déjà sudépasser ces barrières cognitives et culturelles, il semble bien que ce soit loind' être leur cas encore. Alors pourquoi ? La réponse apportée par MarlèneCoulomb-Gully a notamment le mérite de pointer de manière pertinente l'évidence dela « proximité quasi organique » des SIC et des études de Genre, voire leurs« convergences ontologiques », signalant à juste titre que l'absence de légitimitédue à leur jeunesse et leurs semblables origines anglo-saxonnes les rapprochent etles séparent dans un même mouvement. Cette contradiction apparente n'en est pas uneen réalité car, de mon point de vue en effet, c'est moins d'un aveuglement ou d'uneindifférence que les SIC font preuve (pour le moment encore) vis-à-vis des études deGenre, que d'un rejet, d'une volonté diffuse de maintenir cette problématique à lalisière de leur champ épistémique comme nous allons le voir maintenant en analysantles causes profondes d'un tel positionnement. Le fait que la question de la légitimité des SIC ne semble plus faire débat ausein de la communauté de chercheurs ne signifie pas pour autant que celle - cisoit totalement acquise. L'implémentation de la problématique du Genre en SICest en quelque sorte l'épreuve du feu par laquelle celles -ci dévoilent unelégitimité encore en construction. En effet, il n'est pas vain de penser que cesont les disciplines les plus anciennes — la philosophie, l'histoire (Scott ,I986), la littérature, la sociologie, le droit, les sciences politiques — qui ,après avoir longtemps regimbé, ont intégré plus rapidement que nous la questiondu Genre. Larelative jeunesse des SIC françaises (une trentaine d'années) associée à l'idéerécurrente de l'artificialité et de la superficialité de « la communication »contribuent à fragiliser les acquis de la discipline, et ce ne sont pas lesusages politiques contemporains de l'hypercommunication qui convaincront ducontraire, tant celle -ci est assimilée dans l'opinion à l'idée d'unemanipulation médiatique continue. Les trente prochaines années ne seront pas detrop pour leur permettre d'avancer vers une légitimité plus assurée et réelleque celle qui est la leur aujourd'hui. L'impureté des SIC, leur « bâtardise »intrinsèque est loin d' être encore revendiquée comme l'un de leurs apportsmajeurs, le fondement même de leur épistémologie. Moins que de métissage, notiondevenue noble, il s'agit ici d'assumer la trivialité profonde des SIC au sens oùYves Jeanneret (2008) déploie cette notion, leur capacité à penser des objetstriviaux, vulgaires, méprisés par les disciplines anciennement constituées etpourtant révélateurs des tensions dynamiques d'une socioculture. Trivial encoreau sens de délaissé, d'inexploré, d'impensé, objet de la connaissance imparfaitequi n'oppose plus savoir et doxa mais les articuleétroitement l'un à l'autre. En ce sens, la trivialité du Genre constitue unsupport essentiel de sa problématisation puisqu'il faut entendre ici trivialitéau sens originaire du terme : trivium signifie troisvoies ;la trivialité ainsi entendue désigne un carrefour, c'est-à-dire un lieuoù bifurquent les phénomènes et le sens dont ils sont revêtus. De la même manière, il nous faut considérer d'un œil lucide et critique laféminisation du corps des enseignants-chercheurs en SIC dont MarlèneCoulomb-Gully dit que les étudiantes y sont majoritaires et que les enseignantesle seront bientôt puisque dans la fourchette 25-35 ans, 70 % desenseignants-chercheurs en SIC sont des femmes. Cette féminisation est àrapprocher de celle, à peu près identique, des responsables des services decommunication et de gestion des ressources humaines des entreprises françaises .En ce sens, elle indique un effet de l'impact du dispositif du Genre sur le corps social tout entier qui, loin de laisserespérer une ouverture de ce côté, démontre au contraire l'efficacité et lapérennité de l'organisation genrée de notre société. Vue du point de vue desétudes de Genre, cette féminisation illustre la persistance têtue de la questionde la légitimité organique des SIC et son caractère inachevé. Ce n'est pas lemoindre des paradoxes, mais voilà bien un effet direct que les SIC se doiventd'objectiver et d'analyser en s'appuyant sur les études de Genre car ellesseules fournissent les outils nécessaires à son intelligibilité d'une part et àson dépassement d'autre part. ll ne faut dès lors s'attendre à aucun « effet detransitivité » mais au contraire à une stabilisation, voire à une décrue destravaux axés sur la problématique Genre puisque cette féminisation doit êtrecomprise comme l'expression directe d'un rapport de domination exercé au sein del'institution universitaire. La puissance du mécanisme bien connu del'intériorisation des normes (Bourdieu, I998a) contribue à éloigner efficacementles jeunes enseignantes - chercheures d'une problématique qui affaiblirait àleurs yeux leur position fragile dans un contexte structuré depuis seslointaines origines cléricales et médiévales par une forte prééminencemasculine. ll en ira tout autrement des jeunes doctorantes qui intègreront lecorps des enseignants-chercheurs en SIC, à l'issue d'un parcours assumé de thèsede doctorat spécifiquement axée sur la problématique Genre. Si effet detransitivité il y a, c'est de ce côté qu'il pourra se produire (et d'autant plustardivement donc) comme nous le verrons au terme de cet échange. La légitimité en construction des SIC rend d'autant plus aigue la question deleur objectivité scientifique. Or, il s'agit précisément d'une question à doubletranchant pour elles. D'une part, parce que la revendication de cetteobjectivité leur paraît plus essentielle qu'aux disciplines anciennementconstituées ;d'autre part, parce qu'en faisant l'économie de la problématique duGenre, elles n'ont aucune chance de comprendre combien cette prétention dessciences à l'objectivité et à la neutralité du chercheur a été contestée etdépassée depuis plus d'une trentaine d'années maintenant, soit avant même leurconstitution en discipline. Car l'histoire du rendez - vous raté des SIC avec lesétudes de Genre est aussi celle de leur rendez - vous raté avec les Cultural Studies ou études culturelles. Les années 60 et70 du XX e siècle sont des années-charnière à partirdesquelles s'amorce la recomposition totale du paysage épistémique sous ledouble effet des théoriciens de la déconstruction d'une part (Foucault, I969 ;Derrida, I967; Deleuze, I972, I980; Rorty, I979, I99I),et des épistémologuesdes sciences d'autre part (Kuhn, I970, I977; Lakatos, I970; Popper, I968 ;Feyerabend, I975). Leurs travaux combinés accélèreront l'émergence des Cultural, des Women puis des Gender Studies, logiquement articulées à celle des Science Studies. Résolument post-modernes, c'est-à-dire fondées surl'idée que les normes, les principes, les savoirs implicites et explicites quistructurent et organisent toute société humaine sont le produit de constructionssociales et culturelles déterminées dans le temps (historicité) et dans l'espace( relativité), ces études n'ont pas manqué ni de remettre en cause les pratiquesscientifiques propres aux sciences dures, ni les présupposés et les attentes surlesquels elles s'appuient. À peine entamée aujourd'hui par ce courant derecherches, l'approche française, repose sur unedouble prétention : à l'objectivité du chercheur, d'une part; à l'universalitéde ses résultats grâce à la validité consensuellement reconnue de sa méthodescientifique, d'autre part. Pour désigner la spécificité de cette approche ,Bruno Latour (2003) use d'un terme volontairement lapidaire. Il parle du« national-rationalisme » français qu'il assimile à l'identité française, c'est -à-dire à la propension historique de cette dernière à utiliser l'universalitécomme un mode de transformation de la pluralité contradictoire du réel, destinéà faire disparaître comme par magie les conflits, les paradoxes, les passions etles intuitions qui le sous-tendent. Une telle connaissance, élaborée selon detelles méthodes, n'a que faire des particularismes des chercheurs, ni de leursmotivations profondes, ni même de leurs caractéristiques de Genre. C'est peu dedire que les Studies anglo-saxonnes dont procèdent lesGender ont fait voler ce modèle en éclat. Endémontrant le caractère historiquement et socialement situé des discoursscientifiques, les Science Studies ont ébranlé larevendication de validité universelle de la science. Il s'agit pour elles decomprendre la façon dont les modes de production de la science et sesdifférentes contextualisations influencent directement le contenu desconnaissances qui en découlent. Les Science Studiesadoptent la définition foucaldienne d'une science entendue comme ensemblede stratégies discursives, c'est-à-dire de savoirs articulés sur des pratiques .Les épistémologies féministes antérieures aux études de Genre participentactivement de ce perspectivisme théorique et pratique .Un certain nombre de chercheuses (Hartsock, I999 ;Harding, 2003) partagent ainsi une approche commune appelée « stindloint ttheory » que l'on peut traduire en français par « théoriedu positionnement ». Celle -ci est élargie par les travauxde Donna Haraway (I996) sur la théorie de « la connaissance située ». Elles supposent que, puisqu'une épistémologie ,c'est-à-dire une théorie normative de la connaissance, est le produitd'opérations effectuées par des acteurs en contexte, influencés par desdéterminismes historique et socioculturel, alors il existe de nombreusesépistémologies possibles et chacune d'entre elles constitue un standpoint propre aux caractéristiques intrinsèques de ses acteurs ,notamment aux caractéristiques de Genre, à partir duquel varient sensiblementles analyses de la réalité. Les standpoints féministe ,ouvrier, gay, afro-américain ou altermondialiste dessinent la bigarrure d'unmonde tissé de points de vue, de représentations complémentaires ou divergentes ,d'expériences irréductibles (Bertini, 2009b).Tout ceci montre de manière préciseque l'objectivité scientifique et la neutralité revendiquées par les SIC — auxdépens d'une intégration réelle des études de Genre en leur sein — constituentau contraire la preuve d'un manque cruel de remise en question des fondements deleurs savoirs et de leurs pratiques de recherche, leur interdisant dequestionner leurs propres productions scientifiques, les représentations qui lesfondent et les croyances qui les animent. Sandra Harding (I99I) développe ainsile concept d' « objectivité forte » en affirmant que l'objectivité scientifiquequi préexistait aux études de Genre manquait de force, au sens où elle n'avaitpas intégré l'importance de l'idée de la relation entre savoir d'un côté, etrelations sociale et politique au monde de l'autre. Une objectivité authentiquedécoule de la prise de conscience de la part des chercheurs de tout ce quimenace et obscurcit celle -ci, tout comme des présupposés inconscients quifaussent leurs analyses. Elle émerge des réflexions sur les effets qu'elle vacontribuer à induire. En sorte que l'engagement du chercheur assumé, éclairé etrevendiqué, traduit une lucidité accrue quant aux principes et auxreprésentations qui commandent et organisent l'ensemble de ses recherches. Pour l'heure, les SIC refusent dans leur grande majorité de se laisser nonseulement traverser mais bouleverser par les études de Genre, insensiblesqu'elles sont au « trouble du Genre » età ses conséquences comme l'écritjustement Marlène Coumb-Gully. Cependant, tout ce qui précède aide à comprendrecombien les SIC, dans leur ensemble, se sont contentées jusqu'ici d'aménager des accès contrôlés et perlés aux études deGenre à travers le dispositif de « l'approche » genrée. Ici, il s'agit moinspour elles de remettre leurs modes de production scientifique en cause qued'accepter d'héberger à titre provisoire la notion de Genre entendue comme unevariable de l'analyse communicationnelle au même titre que l' âge, le niveausocio-culturel ou la catégorie socioprofessionnelle. Les SIC françaisescontinuent de minorer l'application des études de Genre aux domaines pourtantclés que sont l'information et la communication. La transition profonde qui doits'effectuer concerne l'ensemble du champ épistémique de l'information et de lacommunication qui doit passer de la simple prise en compte de la variable dusexe au sein des processus et des situations de communication, à unereconfiguration générale des concepts et des problématiques intégrant le Genrecomme dynamique de structuration de ces derniers. Or, c'est la prise deconscience de l'importance de ces enjeux pour notre discipline qui fait encorecruellement défaut aujourd'hui. L'absence d'implication pédagogique, que MarlèneCoulomb-Gully révèle en établissant l'édifiante cartographie des enseignementssur le Genre existant en France en SIC, accompagne et amplifie l'absence decette prise de conscience collective et salutaire parce que profondémentheuristique pour les recherches. J'y reviendrai. Ainsi l'auteure souligne -t-elleque les étudiants découvrent le positionnement Genre de leur problématique derecherche dans le cadre de leur mémoire de Master dans un second temps, aprèsavoir ancré leur recherche dans une approche sur les médias. Comment enserait-il autrement puisqu'il n'existe pas, ou très peu, de cours et deséminaires entièrement consacrés à ces questions, ce qui réduit considérablementla stimulation intellectuelle en ce sens ou du moins la retarde et partant ,l'affaiblit ? En s'enfermant dans une dynamique d'approche méthodologique duGenre axée sur l'analyse de discours, sur le traitement statistique des données ,sur les enquêtes qualitatives et quantitatives, sur les enquêtes ethnographiquesd'une part; en mettant au second plan la problématique du Genre rendue alorssimplement opportune par l'analyse spécifique d'un processus ou d'un dispositifd'information et de communication (médias, médiations sociales et culturelles ,système politique…) d'autre part, les SIC expriment leur incompréhensionprofonde (et provisoire espérons -le) des véritables enjeux épistémiques etscientifiques de l'implémentation des études de Genre. En effet, il ne s'agitplus d'adopter une focale qui en vaut une autre, mais de tout repenser à traversla focale du Genre, de comprendre que celui -ci induit des recompositionsépistémologiques et théoriques fondamentales (Bertini, 2005), qu'il renouvellenos objets, nos outils et nos pratiques, qu'il bouleverse nos certitudesfraîchement acquises, qu'il nous contraint à repenser nos frontièresdisciplinaires et interdisciplinaires, qu'il nous oblige à nous engager en tantque femme et qu'homme mais aussi en tant que chercheur, enseignant et citoyen .En effet, les chercheurs en SIC doivent progressivement être amenés à comprendre( et c'est l'un des buts de cet échange) que le Genre est le dispositif matérielet symbolique à partir duquel s'établit la construction sociale de la différencedes sexes fondée sur la dissymétrie et sur la hiérarchie, déterminant ainsi deuxmodèles de vision et d'appréhension du monde posés et voulus comme irréductiblesl'une à l'autre. Margaret Mead (I949 :432) rappelle utilement que le mondesupporterait n'importe quelle perte « mieux qu'il ne supporterait le sacrificedes différenciations sexuelles ». Le Genre féminin et le Genre masculinrecouvrent ainsi une combinatoire de fonctions, statuts, rôles, responsabilités ,définitions, limitations et contraintes, conduites et comportements qui sontcommandés et organisés par des normes et des valeurs bâties sur le principe deleur opposition binaire. Tout flux informationnel qui circule entre émetteurs etrécepteurs avérés ou potentiels obéit à un double processus d'encodage et dedécodage qui prend sa place à l'intérieur de ce système de signification. LeGenre définit des horizons d'attente qui débordent les individus et déterminentles structures et les formes des communications. Le Genre travaille les schèmesinformationnels et communicationnels qui sont au fondement de toute sociétéhumaine et dont il est essentiel de saisir le prolongement politique rendumanifeste par les dispositifs qui en se superposant les uns aux autres, de lafamille à l'école en passant par les médias, l'entreprise, l'université, larecherche et l'espace public, contribuent à maintenir une organisation socialeet culturelle fondée sur la hiérarchie inquestionnée des sexes et sur le primatdu modèle hétérosexiste qu'elle sert. En faisant l'économie des études de Genre, les SIC font logiquement aussi dansune certaine mesure celle des questions essentielles du pouvoir, de ladomination et de la normativité sexuelle, sociale et culturelle. Or, le proprede la post-modernité et des Études culturelles qui en découlent est précisémentde penser toute société et toute culture comme lieux de production du pouvoir etde la lutte des dominants pour établir et conserver celui -ci au moyen desnormes, des lois, des règles, des principes, des croyances et des valeurs (ceque Pierre Bourdieu appelle la doxi) dans une perspectivestratégique de maîtrise subtile des modes de penser et d'agir des dominés. Ici ,les SIC ont tout intérêt à prendre appui sur les disciplines sœurs que sont lascience politique, la sociologie, l'anthropologie mais tout particulièrement laphilosophie parce que les travaux de Michel Foucault — qui ont tant contribué àl'émergence et au succès des études de Genre outre-Atlantique — leur fournissentdes clés d'accès originales à l'intelligibilité de nos sociétés. En effet, lagrille de lecture foucaldienne donne aux chercheurs en information etcommunication les outils qu'il leur manque pour penser le caractère déterminantdu Genre. Marlène Coulomb-Gully a raison de pointer « la dimension contestatairede la notion de Genre », apte à « mettre en cause tous les rapports de force etde domination constitués par une déconstruction critique fondamentale desimpensés ». Car il s'agit de faire sien le conseil foucaldien de déchiffrer uneépoque en s'intéressant à ce qu'elle dissimule, en recueillant ses productionsinvolontaires. Le pouvoir pour Michel Foucault n'est rien d'extérieur auxindividus dont il assure le contrôle vigilant, intériorisé et durable. Il fauten finir, dit-il, avec la représentation d'un pouvoir vertical dont l' État nousrenverrait l'image trop commode. Un tel contrôle, parce qu'il est intermittent ,n'offre pas de prise continue sur les individus, seul moyen de parvenir àmaintenir les pressions universelles qu'il exerce sur eux (Foucault, I975). « Lepouvoir n'a pas d'essence, il est opératoire » écrit Gilles Deleuze (I986 : 35 )à propos de la théorie de Michel Foucault; « Il n'est pas attribut maisrapport : la relation de pouvoir est l'ensemble des rapports de forces, qui nepasse pas moins par les forces dominées que par les dominantes ». La fin decette vision transcendante signe l'avènement d'une conception immanente dupouvoir, en vertu de laquelle celui -ci cesse de coïncider avec une classeéconomique et culturelle ou bien avec un appareil d' État et devient « un réseaude forces » .Ainsi conçu, le pouvoir est cela même qui nous assujettit au doublesens du terme, c'est-à-dire qui, d'une part, nous soumet à sa loi comme unvassal à son suzerain, et, d'autre part, nous constitue en sujet. C'est laraison pour laquelle Michel Foucault contribue à montrer que la loi s'incarnetout autant dans les dispositifs (institutions, pratiques, règlements…) qui luidonnent asile, que dans le mouvement même que nous faisons pour lui échapper ,comme le montrera Pierre Bourdieu (I998a) un peu plus tard. La loi s'inscritprofondément à la surface même des corps. Le savoir n'est pas libérateur dansune telle perspective : il est ce qui prépare les corps à recevoir les stigmatesde la Loi. Pierre Bourdieu fait résolument le choix de la notion de domination contre cellede pouvoir et il semble, compte-tenu de la très faible occurrence du mot dansnos travaux en SIC, qu'il n'a pas suscité davantage de vocationsde ce côté -là. Loin de l'utilisation douce de la notion de représentationssociales et culturelles développées par les SIC, Pierre Bourdieu (200I) insistesur la violence symbolique des représentations, autrement dit sur leur caractèredominateur et arbitraire. Cette violence s'exerce à travers des procédés visantà naturaliser les normes, à rendre invisible leur relativité et leur culturalitéhistoriquement déterminée, donc ouverte à la remise en cause critique. Elle est« un travail historique de déhistoricisation » (Bourdieu, I998a).La doxa désigne donc un ensemble d'opinions, de valeurs, decroyances, de normes, établies comme allant de soi et constituant un arbitraireculturel propre à une société donnée à un moment donné de son histoire. Lafinalité de la doxa, entendue comme système symbolique ,consiste à maintenir l'état fluctuant du réseau de relations de force, àpérenniser la reproduction dynamique de la structure sociale. C'est pourquoiPierre Bourdieu rappelle que notre première expérience du monde est celle de ladoxa qui façonne les logiques de la conformité etdétermine ainsi les formes de l'objectivité (I979). D'où l'aveu d'uneauto-censure durable quand il admit avoir été longtemps victime de « cemoralisme de la neutralité, de la non-implication du scientifique » luiinterdisant de traduire les conséquences politiques directes de ses travaux. La doxa constituedonc la matrice des procédés de renaturalisation du culturel dont le dispositifdu Genre constitue la pièce centrale. C'est la raison pour laquelle les SICdevraient offrir un angle de vision particulièrement révélateur dufonctionnement de cette doxa. En effet, elles permettentde mettre en évidence l'adossement crucial de celle -ci aux stratégies decommunication et d'information et à leurs instruments techniques, médiatiques etdiscursifs. Les modes de circulation de la doxa dans letissu social sont indissociables des technologies de communication et dessystèmes médiatiques qui en dérivent. Dans Langage et pouvoirsymbolique (200I), Pierre Bourdieu analyse le pouvoir symbolique dulangage comme pouvoir de faire advenir le donné dans l'énonciation, de montreret de cacher, de modifier la vision de la réalité et partant, les modes d'actionsur elle. Le travail du chercheur consiste dès lors à analyser attentivement lesdiscours qui mettent le monde en ordre et portent en eux la trace du marché dontils sont le produit, et dont ils contribuent à entretenir les artefacts .Comprendre les mécanismes de fonctionnement de la doxaconstitue donc l'étape indispensable d'un type de recherches à viséetransformatrice. À la fin de sa vie, Pierre Bourdieu admettra à quel point ledispositif du Genre constitue la clé de voûte de la doxaà travers le schème de la domination masculine. Dès lors, il n'aura decesse de repenser l'ensemble de la sociologie à travers le prisme de cettestructure première, fondatrice de toutes les autres. Si le Genre ne peut à luiseul tout expliquer, ni absorber l'ensemble des paramètres d'intelligibilitédégagés par les sciences humaines et sociales, il n'en constitue pas moins lepremier principe d'organisation communicationnelle et sociale. C'est la raisonpour laquelle il constitue un paradigme qui rend urgente la stabilisation d'unnouveau et vaste champ de recherches en SIC, ou plus précisément d'un nouveauprogramme de recherches au sens que l'épistémologue hongrois, Imre Lakatos( I970), donne à cette expression. Le refus prolongé des SIC d'intégrer les études de Genre les conduit à cumuler untriple retard conceptuel, théorique et pratique qu'il leur sera d'autant plusdifficile de rattraper que les Gender Studies, d'unepart, font suite aux Women Studies (dont les SIC ont déjàfait l'économie avec toutes les conséquences que cela induit); d'autre part ,ont déjà fait place aux Gay, Lesbianet maintenant aux Queer Studies. Loin de l'effet de mode supposé, voire souhaité ,nous sommes ici au cœur du laboratoire mondial des sciences humaines etsociales. Le trouble dans le Genre évoqué par Marlène Coulomb-Gully dans lesillage des travaux de Judith Butler (I990) pousse au plus loin ladéconstruction des normes de Genre et la pluralisation du Genre. « Faire leGenre » (doing Gender) illustre, selon Judith Butler, lalogique de la déconstruction des représentations sociales. L'auteure insiste surla performativité du Genre, son opérativité sur la réalité culturelle etsociale. À la fois construit et matrice de toutes les constructions sociales, leGenre nécessite d' être exécuté comme une figure chorégraphique qui harmonise etesthétise des mouvements variés et parfois contradictoires. Le Genre exige doncla participation active, tant physique que symbolique, des acteurs sociaux encontexte. Le Genre n'existe pas : il tient tout entier dans le mouvement desacteurs pour le faire (et le défaire), dans leurs interactionscommunicationnelles et sociales. Par ailleurs, le Genre ne saurait être exécutéune fois pour toutes : les représentations sociales et culturelles sesoutiennent des représentations du Genre, au sens dramaturgique du terme( Goffman, I959). Le Genre y apparaît comme une pratique qui surdéterminel'ensemble de nos pratiques d'une part; cette pratique est quotidienne etrépète inlassablement les signes et les codes indispensables à unereconnaissance mutuelle et générale, d'autre part. La routine du Genre appelleainsi des marqueurs communicationnels et sociaux nombreux et hétérogènes quidémultiplient ses effets : l'apparence, la gestuelle, la conversation, lesinteractions corporelles, l'économie des regards, la voix, le débit des phrases ,les vêtements, les objets appareillant les personnes… concourent à laperformativité du Genre, à l'actualisation de ce dernier dans les stratégiesdiscursives qu'il organise. C'est la raison pour laquelle les études de Genredébouchent naturellement sur la problématique de la construction des identités ,sexuelles et sociales notamment. Mary Douglas, Cécile Barraud, Marilyn Strathernsont des anthropologues féministes qui partagent la vision de Marcel Mauss analysant très tôt le Genre comme une modalitéde relations et non comme un attribut de personnes. Dans une telle perspectivece sont les interactions communicationnelles et sociales qui possèdent un Genre ,non les individus. C'est la raison pour laquelle le travail de l'anthropologueMary Douglas semble particulièrement intéressant à cet endroit. Dans Comment pensent les institutions ? (I986), et dans lalignée des analyses d' Émile Durkheim, celle - ci défend l'idée selon laquellec'est l'institution qui détermine l'identité et structure les psychismes .L'identité, comme le Genre, lui apparaissent comme des combinatoires stabiliséeset instabilisées par le pouvoir, en particulier institutionnel. Le systèmeaffectif, perceptif, comportemental et communicationnel par lequel chaqueindividu se distingue des autres et dans lequel il puise les conditions de sasingularité, est le produit des classifications et des décisionsinstitutionnelles qui échappent à son emprise. Le Genre constitue la premièretechnologie du pouvoir, celle primordiale, qui renverse le processus desocialisation dans le processus d'individualisation et inaugure le cycle desdifférenciations. Mais de quoi parle -t-on alors lorsque l'on parle d'identité se demande JudithButler (I990 : 83) ? « Il serait faux de penser qu'il faudrait d'abord discuterde l' “identité” en général pour pouvoir parler de l'identité de Genre enparticulier, et ce pour une raison très simple : les “personnes” ne deviennentintelligibles que si elles ont pris un Genre (becominggendered) selon les critères distinctifs de l'identité de Genre » .L'idée de la coextensivité de l'identité au Genre entraine de nombreusesquestions, susceptibles de renouveler en profondeur les approchescommunicationnelles, mais aussi anthropologiques, sociologiques etpsychologiques de l'identité dont les SIC ne peuvent en aucun cas fairel'économie sous peine de penser la question des identités de manièreanachronique. La non-superposition des catégories de sexe aux catégories degenre, que Judith Butler nomme « la discordance entre Genre et sexualité » ,installe des décalages identitaires novateurs. Être du sexe masculin mais serattacher au Genre féminin, ou bien l'inverse, contribue à traverser le Genre ,ou plus exactement à en livrer une lecture transversale qui déconstruit sabinarité oppositionnelle et crée une catégorie inédite appelée Transmenre. La géométrie qui en résulte ouvre sur des assemblagesmultiples et innovants dont le moindre des effets n'est pas de déstabiliser leGenre, et partant, de commencer à le défaire. C'est précisément ce que proposentles travaux les plus récents sur le Genre réunis sous le label Queer. À la croisée entre Women, Gender, Gay and Lesbian Studies, les théories Queer (DeLauretis, 2007) développées outre-Atlantique,dès les années 90,et peu ou pasencore acclimatées en France, postulent que si l'on sait maintenant qu'on nenaît pas femme (Simone de Beauvoir), que l'on ne naît pas homme non plus, on nedevient jamais tout à fait ni l'un ni l'autre. Elles s'inscrivent dans uneapproche post-identitaire définissant la subversion des identités comme formemajeure de l'action politique, c'est-à-dire de la résistance aux pouvoirsinstitués. Les Queer Studies constituent un laboratoiredes identités qu'elles détournent et réinterprètent, reconstruisant ainsid'autres types de subjectivités à l' œuvre au sein des processuscommunicationnels et sociaux. Elles procèdent d'une critique des effetsnormalisants et disciplinaires des formes identitaires, d'une démarche dedés-identification (Preciado, 2000) des sujets à des référents prétendusnaturels tels que la femme, le masculin, l'homme, le féminin… En refusantrésolument la notion de différence sexuelle, elles s'opposent autant au principede l'universalité neutre et républicaine qu'aux dispositifs paritaires quidemeurent selon elles, enchâssés dans la binarité réductrice du Genre. Pourelles, le dispositif du Genre doit s'effacer derrière toutes les autresdifférences possibles qui tissent la trame des sociétés et des cultures. Lepropre de ces différences est qu'elles ne peuvent faire l'objet dereprésentations majoritaires et unifiées susceptibles d' être soutenues par desporte-parole politiques. Elles appellent donc à la fin des régimes classiques dereprésentation politique, comme à celles des systèmes de connaissancescientifique qui reposent sur les mêmes présupposés et déploient les mêmesattentes. Les théories Queer, en allant bien au-delà desétudes de Genre, participent ainsi à renouveler profondément les rapports entrethéories et pratiques ainsi que les formes de l'engagement politique, comme lemontrent leur exigence de penser le savoir de manière politique, donc située, ense référant aux standpoint theories ou théories de la« connaissance située » (Harding, I99I; Hartsock, I997), par opposition aumythe moderne de la connaissance objective et universalisante. La conversion — le mot n'est peut-être pas trop fort compte tenu des résistancesdéployées — des SIC aux études de Genre nécessite donc d'aplanir toutes lesdifficultés que nous venons de désigner et d'analyser. Plutôt qu'une persistanteindifférence des SIC, c'est d'un persistant rejet qu'il faut parler, rendantl'urgence scientifique et pédagogique du Gender Turnchaque jour plus grande. La question demeure donc celle de savoir par quelsmoyens hâter cette appropriation. En montrant l'intérêt direct qu'elle présentepour notre discipline; c'est ce qu'il a fallu faire dans les lignes quiprécèdent, amplifiant et débordant les propositions de Marlène Coulomb-Gullytout en partageant étroitement une partie de ses vues. La radicalité de ce Gender Turn s'explique par l'étymologie même du mot : radix, la racine. C'est à repenser à la racine l'ensembledes processus et des procédés d'information et de communication, de leursdispositifs, de leurs acteurs et de leurs contextes qu'il nous exhorte en nouscontraignant à une généalogie de la communication conçue comme étude desprérequis et des impensés qui la fondent et l'organisent. Pas assezpost-modernes, nos SIC françaises négligent l'importance des théories de ladéconstruction et partant, les théories culturalistes qui s'emploient à dissiperles illusions du rationalisme scientifique et de l'universalité des savoirs. Dèslors, le Gender Turn des SIC ne peut plus passer par laseule bonne volonté des chercheurs et la publication encore trop rare de numérosde revues consacrés à la problématique du Genre — même si l'une et l'autrecontribuent fortement à acclimater cette problématique au sein des SIC et cettelivraison de Questions de communication en est l'une despreuves patentes. Le devenir de cette appropriation passe par une volontéinstitutionnelle clairement marquée qui signifie à la communauté des chercheursl'importance du développement de ces études en impulsant une dynamiqueacadémique. Le rôle de notre société savante, la Société française des sciencesde l'information et de la communication (SFSIC), est ici central; de la mêmemanière celui du CNU 7I e section est considérable, appuyéet relayé au plus haut niveau par le ministère de l'Enseignement supérieur et dela Recherche. C'est à veiller à favoriser des profils de poste et desrecrutements axés sur le double profil SIC/Études de Genre qu'il devrait œuvreren effet à l'avenir en aidant clairement les départements en SIC et leslaboratoires de recherche à flécher des postes ouverts sur cette doublecompétence encore trop rare. Cette nouvelle affirmation permettra dans le mêmemouvement de mettre en place et de déployer sur l'ensemble du réseauuniversitaire et du territoire national un dispositif pédagogique riche etvarié. Cette offre pédagogique alimentera d'elle -même de nouvelles recherchescontribuant ainsi à établir un cercle vertueux qui permettra enfin aux sciencesde l'information et de la communication françaises de participer activement auxtravaux qui mobilisent leurs homologues dans la plupart des payspost-industrialisés. En effet, ce qui était jusqu'ici une curiosité françaiserisquerait vite de devenir une faute dans un contexte de recherches et desavoirs fortement mondialisés, partout profondément redéfini par le Gender Mainstream et par les Études culturelles. Cevolontarisme académique, disciplinaire et institutionnel sera d'autant plusefficace qu'il sera soutenu par un volontarisme scientifique émanant de notrefuture communauté de chercheurs : c'est à ces jeunes doctorantes et doctorantsque je pense en écrivant ces lignes,à celles et ceux qui n'ont pas craint des'engager malgré tout dans un parcours qui leur paraît d'autant plus prometteurqu'il est utile et fécond. Ce sont eux qui constituent les forces vives d'unauthentique Gender Turn des SIC .
Le retard persistant des sciences de l'information et de la communication en matière d'appropriation des études de Genre s'explique, pour une part, par les résistances marquées de l'université française dans son ensemble, à l'exception de certaines disciplines. Pour une autre part, il s'agit moins d'un retard que d'un refus prolongé dont cet échange se propose de mettre en lumière et d'analyser les origines d'un point de vue épistémologique, scientifique et pédagogique. La dernière partie de cette contribution développe les raisons pour lesquelles l'urgence du GenderTurn s'impose au sein des sciences de l'information et de la communication et les moyens d'y parvenir.
sciencesInfo_10-0302987_tei_1076.xml
termith-440-communication
Deux internautes sur trois dans le monde ont visité une plateforme sociale (Nielsen, 2009) et trois quarts des internautes européens ont visité un réseau socionumérique 1 (Rsn) selon ComScore (décembre 2008). En Europe, ces sites attirent déjà plus de 41,7 millions d'utilisateurs 2 et les internautes français ne sont pas en reste puisque 64 % d'entre eux ont déjà visité un de ces sites web, ce qui représente 21,7 millions de visiteurs uniques (Ipsos, décembre 2008). Parmi ces derniers, 43 % disposent d'un profil et les trois quarts ont un profil sur au moins deux plateformes socionumériques. Selon l'Institut Nielsen, 17 % du temps passé en ligne est consacré aux Rsn (août 2009). Facebook aime rappeler qu'avec plus de 500 millions de profils actifs (dont 15 millions en France), s'il était un pays, il serait le 4e plus important de la planète (devant le Brésil, la Russie et le Japon). La moitié des utilisateurs accéderaient à leur profil quotidiennement. Les Rsn constituent donc incontestablement un phénomène important qui interroge d'autant plus la communauté scientifique qu'il demeure encore difficile à différencier très clairement, dans les discours médiatiques comme académiques, des autres types de plateformes disponibles sur internet (Stenger et al., 2010a). Web/médias sociaux, web/médias participatifs, web/médias communautaires, web/médias 2.0 (parfois 3.0 ou au carré), réseaux socionumériques, communautés en ligne, communautés virtuelles, crowdsourcing, folksonomy, bookmarking social, réseaux communautaires… autant d'appellations qui font que les spécificités de chaque plateforme et des configurations sociotechniques qui s'y développent, sont difficiles à appréhender. Ainsi, si ces termes possèdent l'avantage de permettre de regrouper de manière floue un ensemble de phénomènes, ils se révèlent peu opérationnalisables, voire nocifs à la bonne identification non seulement des différents éléments les constituant mais aussi des usages s'y développant. Ce phénomène soulève de nombreuses questions pour les chercheurs intéressés par les TIC et leurs usages. Quelle définition précise donner aux Rsn ? Quelles théories et méthodes permettent d'en rendre compte ? Quelles activités et formes de regroupements sociaux peut-on trouver sur ces espaces ? Quel type de contenu est créé ou échangé au sein de ces espaces et quels enjeux en découlent ? Quels risques et opportunités les Rsn apportent-ils à leurs différentes catégories d'utilisateurs ? Peuvent-ils et sous quelles conditions être exploités par les différentes institutions civiles (éducation, ONG, vie citoyenne, renseignement et police) et les entreprises (CRM, datamining, publicité comportementale) ? Plusieurs courants de recherche propres aux disciplines de la sociologie, de l'informatique, des sciences de l'information et de la communication ou de la gestion ont abordé les Rsn selon leurs propres cadres théorique et méthodologique. Cet article propose de plaider que face à ces questions complexes, seule une approche interdisciplinaire permet de développer une appréhension suffisamment fine du complexe phénomène résultant de la rencontre entre des objets techniques et des usagers. À travers les résultats d'un projet de recherche initié en janvier 2008 et basé sur 24 mois d'enquête 3, cet article propose d'expliquer comment une approche sociotechnique, fondée sur la complémentarité entre sciences de l'information et de la communication, informatique et sciences de gestion, a permis d'affiner le regard posé sur les Rsn par chaque discipline. Après une revue de la littérature consacrée à cet objet, une deuxième partie explicite le cadre théorique interdisciplinaire que nous avons mis en place et la méthodologie qui en a découlé. La présentation d'une partie des résultats obtenus permet d'en illustrer la pertinence. Nous évoquons dans un premier temps, les travaux informatiques s'intéressant aux Rsn. Nous abordons ensuite les résultats des enquêtes menées en sciences humaines et sociales. De manière générale, un réseau social est un ensemble d'identités sociales telles que des individus ou des organisations sociales reliées entre elles par des liens créés lors des interactions sociales. Les réseaux sociaux sont modélisés par des données hétérogènes et multirelationnelles représentées sous forme de graphe (Wassermann et al., 1994). Dans le monde réel, on peut citer plusieurs exemples de réseaux sociaux : réseaux d'auteurs et de co-auteurs d'articles scientifiques, réseaux de collaboration d'entreprises, réseau de contacts téléphoniques, etc. Dans le contexte du web 2.0, nous nous intéressons aux environnements collaboratifs (blogs, wikis, social bookmarking, etc.) et plus particulièrement aux Rsn (Facebook, MySpace, Orkut, etc.). Les Rsn ont la particularité de fournir au sein d'un seul environnement une palette très diversifiée d'applications au travers desquelles les utilisateurs interagissent ou publient des contenus (photos, tags, vidéos, blogs, liens, articles, commentaires, mur, groupes, forums, etc.). Les activités des utilisateurs dans ces plateformes produisent de plus en plus d'informations qui peuvent permettre de mieux caractériser un utilisateur individuel, mais également l'influence de son réseau social dans son comportement (ses connexions avec des applications ou avec d'autres membres du réseau). Notre objectif vise donc à analyser les contenus (qualité) des activités des utilisateurs au sein des Rsn. Même si les travaux de la littérature sur le recueil de données dans les réseaux sociaux portent à la fois sur des données quantitatives et qualitatives, les analyses, quant à elles, s'appuient en général sur la structure des réseaux et sur les données quantitatives des activités du réseau. Dans ce qui suit, nous présentons les principales problématiques abordées au niveau du recueil (et de la représentation) de données ainsi que de l'analyse des Rsn. Les techniques utilisées pour le recueil et la représentation des données dans les environnements web 2.0 et dans les Rsn peuvent être regroupées en deux catégories : recueil de données via les API (Application Programming Interface) proposées par les plateformes ou représentation des données par des vocabulaires du web sémantique. L'usage des API proposées par les plateformes (Facebook API, OpenSocial, etc.) (Bernie, 2008; Jessel et al., 2009) ne permet pas de récupérer toutes les informations sur les activités des utilisateurs, mais celles qui sont recueillies peuvent être suffisantes pour comprendre leurs principaux usages et centres d'intérêts (voir section 4). Cependant, même si les plateformes définissent souvent des politiques de confidentialité bien précises sur l'accès aux données des utilisateurs via leurs API, ces dernières peuvent être la source de plusieurs attaques. Il s'agit d'attaques telles que la recomposition d'un réseau à partir des fragments de données accessibles (Tianjun et al., 2008), le scannage des ports et l'exécution de scripts malicieux sur les machines des utilisateurs (Patakis et al., 2009), la collecte massive des données des profils utilisateurs pour des usages douteux (Bonneau, Danezis, 2009), etc. Du point de vue inverse, certains auteurs proposent plutôt des méthodes pour intégrer des couches de sécurité basées sur la cryptographie au dessus des niveaux de sécurité définis par les plateformes (Baatarjav et al., 2009; Saikat Guha et al., 2008; Felt et al., 2008). Le vocabulaire RDF (Resource Description Framework) FOAF 4 (Friend of a Friend) est très utilisé depuis plusieurs années pour la représentation des données sociales des utilisateurs sur le web. Il compte parmi les espaces de noms les plus utilisés sur le web (Golbeck, 2005). Les usages de ce vocabulaire sont très variés, on peut citer par exemple la détection des communautés d'intérêts ou la détection des identités multiples sur le web (Golbeck et al., 2008). Cependant, ce vocabulaire comporte plusieurs propriétés encore en phase de test et n'inclut pas tous les concepts présents dans les Rsn (par exemple, la classification en catégories des contacts d'un utilisateur ou les données échangées entre utilisateurs). Pour l'enrichir et représenter des informations supplémentaires, certains auteurs (Breslin et al., 2007; Uldis, 2008) fusionnent FOAF avec des vocabulaires de représentation de contenus publiés sur le web tels que SIOC 5 (Semantically-Interlinked Online Communities Project) ou les standards de centralisation des systèmes d'identification sur le web comme OpenID 6. L'analyse des Rsn peut tirer parti de toutes les techniques d'analyses existantes pour les réseaux sociaux telles que la segmentation des réseaux, la détection de communautés, l'évolution des communautés, la prédiction des liens (Han et al., 2007); la découverte de cliques, K-core, etc. (Mohsen et al., 2006); la visualisation des réseaux (Ucinet, Stocnet, Pajek, etc.); le calcul de métriques telles que la cohésion des groupes; la centralité ou l'intermédiarité des nœuds (Reffay et al., 2006); le calcul de l'influence d'un individu dans une communauté à partir de modèles probabilistes (Richardson et al., 2002). Dans le cas particulier des Rsn, on peut rajouter les techniques d'analyse s'appuyant sur les résultats obtenus dans les systèmes P2P (Buchegger et al., 2009; Juste et al., 2008; Figueiredo et al., 2008; Yang et al., 2007) ou encore la définition d'ontologies spécifiques à l'analyse des réseaux sociaux (Ereteo et al., 2009). Globalement, pour réaliser les analyses, tous ces travaux s'intéressent à la structure des réseaux et aux données quantitatives sur les activités des utilisateurs (degré des nœuds, centralité des nœuds, intermédiarité des nœuds, etc.). Notre approche vise plutôt à analyser les réseaux du point de vue de la qualité des informations qui y sont véhiculées (voir section 4). Les recherches en sciences humaines et sociales qui se sont intéressées aux Rsn sont essentiellement de deux ordres. Le premier s'inscrit dans la continuité des travaux menés sous l'angle de l'analyse structurale des réseaux sociaux en sociologie (Henry et al., 2008). Ils sont également évoqués dans la littérature Marketing 7. Les travaux empiriques sont (très) peu nombreux. Cela peut s'expliquer par la complexité de la mise en œuvre de l'ARS pour des réseaux socionumériques et par l'exigence de cette méthode qui implique idéalement un accès au réseau complet. Des recherches mettent d'ailleurs en garde contre les confusions entre les réseaux sociaux d'un individu et les réseaux socionumériques sur les Rsn (Stenger, et al., 2010a; Boyd, 2006, 2008; Boyd et al., 2007). Les relations entre ces deux types de réseaux et les versions online/offline du capital social des individus sont examinées. Ellison et al., (2007; 2009) indiquent qu'un usage important de Facebook sera associé à un capital social plus important. En particulier le capital social passerelle (Putnam, 2000), qui renvoie aux « liens faibles », avec des personnes que nous connaissons, qui peuvent constituer des ressources en informations ou en perspective et sans prise en charge émotionnelle (Granovetter, 1982). Le second type de recherche, de loin le plus fécond, renvoie à une ethnologie/ sociologie des usages des nouveaux medias et à une approche ethnographique des pratiques sur les Rsn. Les travaux se sont tout d'abord focalisés sur les spécificités des Rsn et leur dynamique sociale afin de les définir en tant qu'objet et de proposer une méthodologie de recherche appropriée (Boyd et al., 2007; Beer, 2008). La question des « amis », des relations sur les Rsn et de leur interaction avec la vie « offline » attire particulièrement l'attention. Les recherches sur ce sujet ont majoritairement procédé à une sociologie de l'amitié sur ces plateformes. Plusieurs travaux ont pris la notion de réseau social à la lettre en cherchant à comparer les structures amicales de différents Rsn (Donath, 2007; Papacharissi, 2009). Certains auteurs ont pour leur part cherché à évaluer l'influence du nombre et des caractéristiques des amis dans l'évaluation des individus à travers leur profil (Ellison et al., 2007; Jernigan and Mistree, 2009; Tong et al., 2008; Walther et al., 2008), l'influence des amis dans la gestion par les utilisateurs de leur vie privée (Clarke, 2009), l'apprentissage à se comporter au milieu de ses pairs rendu possible par ces plateformes (Boyd, 2008; Greenhow et al., 2009), plus particulièrement pour combler un défaut de socialisation hors-ligne dans le cas d'adolescents en difficulté (Notley, 2009) ou pour renforcer sa popularité, qu'il s'agisse d'élargir celle déjà effective hors-ligne ou de profiter de ce nouveau support pour établir une popularité faisant défaut hors-ligne (Zywica et al., 2009). Enfin, les chercheurs intéressés par la nature de ces relations sur les Rsn ont dès le début souligné l'absence de connaissance précise sur la qualité des liens noués sur ces sites, que le terme « ami » résume trop rapidement (Stenger et al., 2010b; Boyd, 2006, 2008; Livingstone, 2008). Les utilisateurs des Rsn eux -mêmes ironisent d'ailleurs sur ce terme d'ami. La vie privée et la protection des données personnelles (privacy) constituent l'autre thème majeur. La plupart des utilisateurs des Rsn fournissent en effet beaucoup d'informations dans leur profil. Les premières recherches soulignent le paradoxe entre les déclarations et les pratiques des utilisateurs (Acquisti et al., 2006; Stutzman, 2006; Barnes 2006; Gross et al., 2005). S'ils déclarent souhaiter protéger leurs données privées, ils n'en prennent que rarement l'initiative. Certains expliquent à l'inverse qu'ils ne sont pas conscients de l'exposition de leur vie privée, ni de qui peut accéder à leur profil (Dwyer, 2008). Ellison et al. (2007) rapportent que sur Facebook, 70 % des utilisateurs ne savaient pas qu'ils pouvaient contrôler les paramètres de confidentialité de leur profil ou que leur profil était ouvert sans restriction. D'autres études présentent au contraire, des résultats très différents, précisant que les utilisateurs, notamment les jeunes, sont conscients des menaces éventuelles et adoptent des comportements en conséquence : 66 % des adolescents utiliseraient un profil limité (Lenhart et Madden, 2007) et 46 % de ceux ayant un profil ouvert publient délibérément de fausses informations. Des résultats récents étudiant le cas des adolescents en France pointent également un paradoxe de nature quelque peu différente : bien que les jeunes aient tout pour prendre conscience des enjeux de l'accès à leur vie privée et à leurs données personnelles (l'information – par les proches et les médias, les outils et les compétences techniques), ils ne s'en préoccupent pas ou que très rarement dans des cas particuliers (Stenger et al., 2010c). La présentation de soi et la mise en scène de son identité en ligne constituent le troisième thème central des recherches en sciences humaines et sociales sur les Rsn. Elles s'intéressent en grande partie aux pratiques des adolescents. Ces plateformes offrent en effet des conditions pour le développement d'une culture générationnelle disposant de lieux propres. Elles permettent alors de nouvelles formes d'expression de soi à destination de sa génération (Fletcher et Greenhill, 2009) et favorisent l'émergence de nouveaux modes de création de liens et de gestion de ceux -ci (Coleman et Bell, 2009). Soulignons par ailleurs comment ces nouveaux supports digitaux, modifient les manières d'exprimer ces différences. L'impact des Rsn dans la structuration des relations entre pairs et entre pairs et adultes ne sera jamais dissocié de la situation des jeunes hors-ligne tant contextes en ligne et hors-ligne se trouvent fondamentalement imbriqués (Jones, 2008). À ce titre, nous évoquerons l'impact d'une dernière spécificité de ces supports : leur tendance à gommer le compartimentage des contextes sociaux, ce que Boyd nomme l'effondrement des contextes (Boyd, 2008), et les enjeux que ceci implique en matière d'apprentissage à repérer les cadres sociaux (Goffman, 1986) en ligne et hors-ligne pour les jeunes, particulièrement dans la distinction entre privé et public (Keagan, 2009). Enfin, soulignons que si des chercheurs en sciences de gestion et plus spécifiquement en marketing travaillent sur cette thématique des Rsn, à ce jour les publications sont encore rares. Les journées d'études fleurissent néanmoins, témoignant d'un intérêt de la discipline pour cet objet. On notera toutefois que le champ des « médias sociaux » et du web 2.0 demeure abordé comme un ensemble homogène, les Rsn se trouvant alors négligés dans leurs spécificités. Le rôle des infrastructures des plateformes socionumériques et de leurs outils n'a en revanche que peu été exploré. Cette problématique implique en effet, une recherche nécessairement interdisciplinaire qui prend en compte à la fois les propriétés techniques des dispositifs, leurs usages et leurs contextes. Ces approches disciplinaires ont donné lieu à des résultats focalisant leur attention sur certains aspects du phénomène aux dépens de l'appréhension de la double dimension socio/technique de ces plateformes, rencontre entre des outils techniques et des logiques sociales dont le terme configuration sociotechnique (Rebillard, 2007) évoqué supra rend bien compte et où se fait ressentir la nécessité d'une approche interdisciplinaire. Plusieurs limites majeures en découlent. Le premier risque consiste à ne retenir que les caractéristiques formelles de ces plateformes, comme l'ont proposé (Boyd et al., 2007) dans leur travail pionnier de définition des Rsn. Le fait de proposer un profil, une liste d'amis et des fonctionnalités de navigation par ce biais ne constitue effectivement pas une barrière technique pour les sites pouvant facilement les implémenter. Se pose alors la question des usages se développant sur ces sites et qui pourront différer de ceux rencontrés sur d'autres plateformes. C'est ainsi que nous avons proposé de compléter la définition de Boyd et Ellison en ajoutant cette dimensions des usages. Les Rsn constituent des services web qui permettent aux individus : (1) de construire un profil public ou semi-public au sein d'un système, (2) de gérer une liste des utilisateurs avec lesquels ils partagent un lien, (3) de voir et naviguer sur leur liste de liens et sur ceux établis par les autres au sein du système (Boyd et al., 2007), et (4) de fonder leur attractivité essentiellement sur les trois premiers points et non sur une activité particulière (Stenger et Coutant, 2010a). Cet usage très particulier rencontré lors de nos enquêtes s'est trouvé justifié par les résultats d'une vaste étude menée auprès de plus de 800 jeunes américains à propos de leurs usages des nouveaux médias (Ito et al., 2008). Il y est proposé de distinguer interest-driven online activity et friendship-online driven activity, qui coïncident avec les activités que nous retrouvons sur les Rsn. Mizuko Ito, coordinatrice de l'enquête, s'en explique auprès d'Henry Jenkins : « Ce qui distingue les pratiques médiatiques des jeunes repose sur la différence entre ce que nous avons appelé les pratiques conduites par l'amitié et les pratiques organisées autour de centres d'intérêt. La participation axée sur l'amitié correspond à ce que la plupart des jeunes font en ligne : passer du temps avec leurs amis, s'amuser, flirter et se comparer par l'intermédiaire des sites sociaux comme MySpace ou Facebook. La participation axée sur les centres d'intérêt, elle, renvoie à des pratiques plus créatives ou plus technophiles, où les jeunes se connectent en ligne avec d'autres autour de passions ou d'intérêts partagés tels que les jeux ou la production créative » 8. Cette définition possède en outre l'avantage d'insister sur la double dimension indissociablement sociale et technique des Rsn, qui devrait dissuader d'appliquer sans réflexion préalable, les modèles théoriques de l'analyse des réseaux sociaux, développés pour des contextes sensiblement différents. Cette importation reposerait effectivement sur un ensemble de présupposés fortement discutables : les Rsn calqueraient à l'identique notre réseau social hors-ligne, nous pouvons qualifier les liens unissant les profils de manière précise, nous pouvons accéder au réseau complet et nous connaissons la finalité de ce réseau 9. Enfin, cette double dimension encourage à ne pas focaliser notre attention sur les logiques sociales observables sur les Rsn, sans retenir comment celles -ci, si elles préexistent et servent de fondement à la création de ces plateformes, évoluent avec leur adoption. Le risque consiste alors à se contenter d'identifier ces grandes logiques, sans prendre acte de comment celles -ci ne peuvent exister que sur des supports dont les caractéristiques vont influer sur leur manière de s'actualiser (Kaufmann, 1997). Nous explicitons dans un premier temps, le cadre théorique interdisciplinaire mis en place, avant de détailler la méthodologie en ayant découlé. Edgar Morin le souligne sans équivoque : « l'ennemi de la complexité, ce n'est pas la simplicité, c'est la mutilation […] La mutilation peut prendre la forme de conceptions unidimensionnelles ou de conceptions réductrices » (1990). S'intéresser à l'appropriation de l'objet nécessite donc une approche profondément interdisciplinaire. L'interdisciplinarité est entendue ici, non pas comme une succession multidisciplinaire de points de vue ne dialoguant pas entre eux, mais comme la tentative de réunir au sein d'une analyse complexe, les différentes dimensions déterminantes d'un objet, à la manière de ce que propose Kline (2003) pour les TIC en identifiant trois circuits culturel, marchand et technologique. Plutôt que de scinder ce phénomène complexe en différentes facettes à étudier séparément ou parallèlement, il s'agit donc de focaliser l'attention sur le moment de la rencontre entre un objet technique et des processus sociaux. Cette posture, particulièrement judicieuse lorsque nous nous penchons sur l'analyse des TIC (Miège, 2004; 2007), a déjà été théorisée par de nombreux auteurs à propos des médias (Veron, 1985; 1987; Proulx, 1994), des objets de la vie quotidienne (Certeau, 1990; Kaufmann, 1997; Douglas, Isherwood, 1979), des manières d'habiter la ville et de cuisiner (Certeau et al., 1998) ou de la consommation de marques communautaires (Coutant, 2007). De nombreux travaux ont abordé l'appropriation des objets techniques, notamment informatiques et des systèmes d'information (cf. notamment Vaujany, 2005, 2006; Carton et al., 2006; Grimand, 2006). Sous la diversité des approches, un consensus se fait sur l'impossibilité de prévoir l'usage effectif des objets et outils. Ces travaux portent avant tout sur des activités professionnelles focalisées sur un intérêt précis. Or, nous avons souligné avec Ito et al. (2008), que les activités des individus sur les Rsn ne correspondent à aucun autre objectif que le fait de se retrouver avec ses amis et proches. Elles peuvent donner lieu à une grande variété de pratiques « prétextes » (Lahire, 2004), valant moins pour elles -mêmes que pour l'occasion qu'elles offrent de se retrouver ensemble 10. Cette opposition entre activités guidées par un intérêt et activités guidées par l'amitié induit donc une modification radicale dans la manière d'interpréter les usages émergeant sur ce type de plateforme. Les travaux de Certeau (1980) sur les activités ordinaires permettent alors de mieux cerner ces usages quotidiens, doublement invisibles bien qu'occupant une grande partie de nos journées : peu conscients, ils sont peu explicités par les individus; ne répondant pas à des finalités précises, ils sont aussi ignorés par la plupart des théories scientifiques, fondées sur une représentation de l'activité comme nécessairement focalisée sur un but précis. Proulx (1994, p. 175) souligne ainsi que « Certeau identifie ce qu'il nomme les « arts de faire » aux manières non stéréotypées de faire usage des produits culturels. Quoi que socialement invisible, il s'agit bien d'un savoir, même si il est jugé « illisible » et est ainsi disqualifié, la plupart du temps, par le discours scientifique habitué à construire ses théories à partir de ce que les observateurs peuvent voir ». Cet usage quotidien doit pourtant être pris en compte si l'on souhaite comprendre la dynamique identitaire qui anime les utilisateurs de ces sites. Kaufman (1997) indique ainsi que « les objets du quotidien ont une vertu de permanence qui construit le concret et contrôle les errements de l'identité ». Le processus identitaire implique de se fonder sur des supports (Martuccelli, 2002). Cependant, la nécessité de construire une présentation de soi originale à partir de matériaux et d'outils utilisés par tous, amène les individus à employer ces supports de manières inventives (Kaufmann, 2004). Les individus font alors usage de leur métis, ce que les grecs désignaient comme une intelligence contextuelle faite d'expérience, dans leur façon d'agencer de manière inédite des objets aux fonctions prédéfinies, convertissant ainsi des contraintes, des chemins préétablis en nouveaux espaces de possibles. Il y a deux dimensions à ce braconnage : un détournement au sens d'écart d'une part, et un assemblage créatif à partir d'objets divers d'autre part (Certeau, 1980). Kaufmann radicalise même la position certalienne en affirmant que toute la réalité sociale se fonde sur le bricolage des individus avec les objets : « Ces tripotages et bricolages permanents des objets qui nous entourent ont alimenté l'idée que l'univers du quotidien pourrait être vu comme un art de la ruse, d'une personnalisation conduite par l'intermédiaire d'actions marginales de détournement. Michel de Certeau notamment (1980), avec l'intelligence et l'élégance d'exposition qui le caractérisent, a construit une part de sa renommée sur cette idée. Or elle me semble erronée en ce qu'elle prend un processus central pour un simple mouvement de révolte en forme de détail. Il n'y a qu'accessoirement ruses aux marges et détournement (sauf à penser que tout est ruses aux marges et détournement); la construction du monde allant de soi, base la plus solide de la réalité sociale, s'effectue de façon privilégiée par les tripotages et autres bricolages du quotidien ». Soulignons que le bricolage ne doit alors pas nécessairement être entendu comme un détournement mais plutôt comme une adaptation d'individus disposant d'un ensemble hétéroclite de dispositions et compétences à des objets aux potentiels variés. Cette rencontre pourra alors actualiser uniquement certains de ces potentiels ou même en « inventer » d'autres. La diversité disciplinaire des auteurs suscités se réclamant de cette analyse de la rencontre, témoigne de son aspect interdisciplinaire : historiens, anthropologues, sociologues, sémioticiens, chercheurs en SIC. Ce positionnement comporte effectivement l'avantage de supposer une véritable collaboration entre disciplines sur un socle épistémologique commun, qui prévient du risque de se contenter d'accumuler des éclairages disciplinaires indépendants les uns des autres, piège que soulignent Lahire (2001) ou Miège (2004) : « Bien souvent le mot « interdisciplinarité » renvoie à des collages hétéroclites de « points de vue » disciplinaires dont chaque chercheur sort inchangé » 11. Ici se situe toute la différence entre la multidisciplinarité et une véritable interdisciplinarité. Pour produire des données qui nous permettent de prendre en compte les enjeux d'une véritable interdisciplinarité, nous avons conduit une réflexion méthodologique qui nous a amenés à développer une méthode adaptée pour nourrir les outils dont disposait chaque discipline par les résultats obtenus avec les outils des autres. Une première étape a consisté à construire un outil de veille sur le web au travers d'une sélection de 40 blogs de consultants webmarketing ou sites spécialisés et des liens vers lesquels ils menaient. Cette sélection est issue de la consultation régulière du flux RSS Wikio consacré aux « médias sociaux » et du blog consacré à Facebook « Inside Facebook ». De plus, nous avons effectué une revue éditoriale portant sur 17 ouvrages publiés autour d'internet, du web 2.0 ou des « médias sociaux » par des consultants, intellectuels ou entrepreneurs d'internet 12. Le tout fut enrichi par de nombreux contacts avec ces experts lors de conférences et de journées d'études. Cette première phase a aussi consisté en des observations participantes sur les principaux sites identifiés comme Rsn (Facebook, Myspace, Skyrock, Netlog, Hi5, Orkut), afin de construire des compétences et une expertise partagées. Ce choix aussi spécifique permet une analyse effective des pratiques et des activités ordinaires repérées sur ces plateformes. La deuxième phase a consisté à conduire entretiens compréhensifs et focus groups d'une part, et, d'autre part, à administrer un questionnaire selon une double modalité : questionnaire en ligne et application Facebook spécifique. Les entretiens ont regroupé 65 personnes âgées de 13 à 27 ans (collégiens, lycéens, étudiants et jeunes diplômés). A chaque personne enquêtée, il a été proposé d'associer comme amis à son/ses profils des profils d'observation créés sur chacun des principaux Rsn (Facebook, Skyrock, Myspace). Plus de la moitié des interviewés (38) a accepté de se prêter à ce protocole, nous permettant de développer une analyse systématique des contenus des profils. Nous avons ainsi pu mettre en abyme les déclaratifs des enquêtés avec leurs pratiques effectives mais aussi rendre plus tangibles les activités quotidiennes des personnes interrogées. Pour la partie plus descriptive et plus quantitative, nous avons structuré un questionnaire comprenant 31 questions. Il se décompose en quatre parties correspondant à quatre objectifs distincts : évaluer le degré d'ancienneté des répondants dans leurs pratiques et leurs usages des Rsn cerner les usages et le niveau de connaissance qu'ont les membres du Rsn qu'ils utilisent. appréhender la convergence des plateformes pour comprendre les modalités de diffusion et d'évolution des représentations explorer de façon subjective, les représentations que les jeunes se font de la présence des marques sur les Rsn. Au total, nous avons collecté 637 questionnaires valides constitués de répondants âgés de 10 ans à 69 ans. Toutefois, compte tenu de l'objet de l'étude, nous avons effectué une sélection au sein de notre échantillon afin de ne conserver que les 552 répondants âgés de 14 à 27 ans. Ce recueil de données a été complété par un protocole d'observation en ligne avec des profils aux caractéristiques variées afin d'étudier les manières qu'ont les marques d'entrer en contact avec les utilisateurs de ces sites ainsi que, le cas échéant, les modes de prise de contact entre personnes ne se connaissant pas. Cette phase a abouti à une analyse détaillée des activités menées par les participants de ces sites ainsi qu' à la définition des notions de profil (Coutant, et al., 2010) et d'amis (Stenger et al., 2010b) dans le contexte des Rsn, convoquant alors les concepts associés à l'ordre de l'interaction (Goffman, 1973a, 1973b, 1974, 1990) et la sociologie de l'individu (Corcuff, 2005; Kaufmann, 2004; Lahire, 2001, 2004; Martuccelli, 2002). Ces premières phases ont permis de passer outre deux difficultés majeures associées à l'emploi d'outils d'analyse quantitative informatisés en nourrissant ces derniers des résultats obtenus par nos enquêtes compréhensives. La première correspond à la dimension informelle, non réfléchie de la plupart des activités courantes, ce que Certeau nomme ordinaires (1990), des individus. Nous avons effectivement souligné que ces sites, permettant aux internautes de se retrouver et de passer du temps ensemble, sont l'occasion pour les individus de mener un ensemble d'activités entretenant le lien social sans que celles -ci n'aient d'autre fonction définie ou d'utilité précise au-delà de cette sociabilité. Bien que structurées et identifiables comme telles, ces activités demeurent en grande partie non formulables par les individus concernés. Il s'agit d'une difficulté régulièrement soulevée par les sociologues travaillant sur la jeunesse (Galland, 2007; Kaufmann, 2006; Singly, 2006) et cherchant à comprendre quelles activités sont réellement effectuées lorsque les enquêtés déclarent « traîner ensemble », pour reprendre l'expression utilisée pour caractériser les activités des jeunes sur les Rsn par (Ito et al., 2008) ou (Boyd, 2008). La deuxième difficulté renvoie à l'intimité des informations concernant la mise en scène de sa face publique. Goffman (1974) avait déjà souligné à quel point les protagonistes d'interactions sociales rechignent à dévoiler les coulisses de la gestion de leur face. Le travail des individus consiste paradoxalement à paraître naturel quand l'impression que nous donnons a été soigneusement préparée. On comprend donc à quel point les « ficelles » de ce travail ne sont pas aisément avouables par les individus. Ces deux difficultés, le non-formulable et le non-dicible, aboutissent à une même nécessité : déployer une méthodologie de production et de recueil de données qui, d'une part, encourage les enquêtés à la réflexivité et stimule leur mémoire et, d'autre part, permette d'aller au-delà des discours des enquêtés pour observer directement leurs activités en ligne. Le troisième temps de collecte des données vise à se constituer un corpus pour alimenter une analyse des données sur les activités des utilisateurs sur Facebook via la plateforme logicielle Tétralogie (Dousset, 2006). La méthodologie et quelques résultats de cette analyse sont présentés dans la section 3.2. Il ne s'agit nullement ici d'exposer in extenso les différents résultats obtenus au cours de cette enquête. Le lecteur intéressé par certains travaux évoqués pourra se référer à la bibliographie en fin d'article. Nous traitons ici de comment nos enquêtes compréhensives ont permis de préparer la mise en place d'une analyse à l'aide du logiciel Tétralogie (Dousset, 2006) puis de guider l'interprétation des données obtenues. Parmi les axes de recherche mis en place, citons tout d'abord l'analyse critique des discours promotionnels. Ceux -ci se fondent sur le potentiel technique des Rsn pour développer la publicité comportementale, le marketing relationnel et le datamining. En cela, ils ignorent l'indifférence des utilisateurs à l'égard des marques cherchant à rentrer en contact avec eux et la spécificité des activités que ces derniers mènent sur les Rsn. Celle -ci rend pourtant difficile leur exploitation pour de la publicité ciblée ou du datamining (Stenger et al., 2009, 2010). La mise en scène de soi et la culture de l'expressivité (Allard, 2007) stimulées par les Rsn ont aussi été abordées sous l'angle de la co-construction des usages. Ceux -ci résultent d'outils techniques encourageant à certaines pratiques (comme les tests de personnalité, les invitations à écrire sur le mur d'amis, etc.), de normes sociales exigeant la participation (« pour voir, il faut accepter de montrer ») et de la créativité des individus dans leur manière d'adhérer avec enthousiasme à cette norme, qui les pousse à détourner les fonctionnalités premières de certains outils afin d'en faire des outils d'expression interactifs (Coutant et al., 2010). Dans la lignée de l'interrogation sur les types d'activités menées par les individus sur les Rsn, une réflexion sur les théories de l'influence, fréquemment convoquées à propos des communautés en ligne et souvent importées sur les Rsn, a proposé de remplacer les théories fondées sur les leaders d'opinion, supposant intérêts précis et reconnaissance de relations asymétriques, par une théorie fondée sur les mécanismes de la prescription, entendue comme influence potentielle et à intensité variable sur le comportement et le choix des individus (Stenger et al., 2009). L'attention aux logiques sociales mais aussi aux outils de gestion de ces logiques proposés par les sites nous a enfin conduits à analyser la gestion de l'amitié sur les Rsn en ce qu'elle préside au développement des applications mais aussi comment celle -ci se trouve modifiée en retour par ces outils (Stenger et al., 2010d). Un point a systématiquement été relevé : la liaison extrêmement forte entre pratiques en ligne et pratiques hors-ligne, qui nous a encouragés à insister sur l'inscription de ces pratiques en ligne au sein d'un ensemble d'autres pratiques. Effectivement, si ces sites proposent des fonctionnalités émergeant de logiques sociales préexistantes, les usages s'y développant viennent à leur tour reconfigurer l'expression de ces logiques. Ainsi des possibilités qu'ont les adolescents de s'extraire de l'environnement familial ou éducatif tout en demeurant physiquement présent, des contextes où la face des personnes peut-être mise à mal et où la médiation technique permet d'amoindrir le risque encouru par les participants, des manières de gérer les liens faibles qui ont tendance à se concentrer sur les outils en ligne aux dépens des autres moyens de communication. Ces reconfigurations aboutissent à de nouveaux contextes dont la maîtrise nécessite un ensemble de compétences spécifiques que les jeunes utilisateurs paraissent ne maîtriser que partiellement dès lors que l'on sort de celles convoquées pour savoir se comporter entre pairs, ce qui accentue d'autant plus les enjeux associés à la maîtrise de ses traces en ligne. C'est donc fort de ces résultats issus de nos premières phases de terrain qualitatives que nous avons envisagé l'emploi du logiciel de traitement automatique de données Tétralogie, offrant des fonctionnalités d'analyse de données issues des réseaux sociaux. Notre objectif est d'éclairer les traitements qu'il peut effectuer par la compréhension des activités et des types de relation initiés sur ces plateformes. Des résultats divergents des recherches menées dans le cadre de l'analyse des réseaux sociaux ou des opportunités pour les entreprises soulignées par les discours de promotion des Rsn ont ainsi pu être mis à jour, ce que nous allons à présent développer. Dans le cadre de notre étude, nous nous sommes intéressés au réseau social Facebook qui est le plus utilisé en France depuis décembre 2008. Notre approche consiste à analyser non pas la structure du réseau social Facebook, mais plutôt les activités des utilisateurs au sein de ce réseau via l'usage des applications. Ainsi, nous avons développé une application externe, pour l'extraction des données et des métadonnées sur les interactions entre les utilisateurs et les applications. Une donnée représente une information explicitement indiquée par l'utilisateur (texte d'une mise à jour de statut par exemple) lors de l'usage d'une application. Une métadonnée représente une information contextuelle déduite de l'application ou de l'interaction entre l'application et l'utilisateur (la date de l'interaction, la catégorie d'une page dont l'utilisateur est fan, etc.). L'application ayant uniquement une portée académique, nous ne l'avons pas soumise au répertoire des applications Facebook. Nous avons recruté des utilisateurs volontaires pour installer l'application sur leur profil. Au total, 85 utilisateurs ont utilisé notre application, ce qui nous a permis d'accéder à 7 041 profils utilisateurs (via la lecture des flux d'activités des amis des utilisateurs). Les utilisateurs de notre application nous donnent explicitement le droit de stocker et d'analyser les données relatives à leur profil pendant toute la durée de nos travaux. Notre processus d'extraction et d'analyse de données dans le réseau Facebook est présenté sur la figure 1. Les trois phases de notre processus sont décrites ci-après. Nous utilisons l'API Facebook, plus précisément des requêtes FQL (Facebook Query Language), pour extraire les données des profils utilisateurs. De par notre analyse de l'API Facebook, les données des profils utilisateurs peuvent être classées en quatre catégories en fonction de leur accessibilité aux applications externes : les informations inaccessibles : il s'agit particulièrement des messages échangés entre utilisateurs tels que les mails et les chats; les informations accessibles mais incomplètes : il s'agit des activités des amis de l'utilisateur qui apparaissent dans ses flux d'activités. Même si ces flux apportent un volume important de données sur les activités des amis de l'utilisateur, ils ne reportent pas systématiquement toutes les activités de ces derniers. On ne retrouve pas, par exemple, un flux pour chaque photo publiée par les amis de l'utilisateur. Toutefois, on y retrouve des informations importantes comme les interactions entre les utilisateurs et les applications externes. Aussi, l'accès aux flux d'activités d'un utilisateur requiert une autorisation supplémentaire de ce dernier après qu'il ait accepté d'installer l'application sur son profil. Pour chaque flux d'activité on peut accéder aux informations telles que l'émetteur du flux, son type (photos, vidéos, liens, application externe, etc.), et la date d'émission. En plus des activités des amis de l'utilisateur, les informations sur les commentaires et sur les avis (« j'aime ») des utilisateurs sont également fournies de manière incomplète (échantillons); les informations accessibles chez l'utilisateur sans les données temporelles : il s'agit de dates d'adhésion des utilisateurs aux applications collectives (pages, groupes, événements). De plus, il n'est pas possible d'accéder directement aux interactions entre les utilisateurs et leurs applications, à moins de les retrouver dans les flux d'activités; les informations complètement accessibles chez l'utilisateur de l'application : il s'agit des éléments qu'il publie (photos, vidéos, liens, statuts, articles, tags). Pour chacune de ses applications, on peut accéder à son contenu et à la date de publication. Pour générer les centres d'intérêts des utilisateurs, nous procédons par l'analyse des textes dérivés des données et des métadonnées des applications qu'ils utilisent (photos, tags, liens, vidéos, articles, commentaires, groupes, pages, événements, flux d'activités) (figure 2a). Les textes extraits sont analysés par le module de fouille de texte de la plateforme de veille scientifique Tétralogie (Dousset, 2006). La structure du document (contenant les données à analyser) et le découpage des unités de texte sont définis dans un fichier de description du document (figure 2b). L'extraction des centres d'intérêts se fait ensuite par comptage de cooccurrences de termes dans le document. Pour extraire uniquement les centres d'intérêts pertinents, nous utilisons des filtres et des dictionnaires : les filtres positifs (concepts du domaine) : il s'agit d'une liste de termes du domaine à extraire exclusivement dans le texte. Pour l'analyse d'un domaine particulier, les termes peuvent être fournis a priori par les analystes (experts) de ce domaine ou par une projection sur une ontologie du domaine étudié. Dans notre cas, nous souhaitons étudier le vocabulaire employé par les utilisateurs de Facebook dans sa généralité et non dans un domaine précis. Ainsi, nous avons construit un filtre non spécifique à un domaine précis, et contenant uniquement les termes ayant une fréquence supérieure à 1 dans l'ensemble du document (pour simplifier l'étude). La figure 3a montre un extrait de filtre positif contenant les termes retenus dans nos analyses. La figure 4 montre un nuage de termes les plus fréquents dans un document comprenant les données renseignées dans la rubrique « centres d'intérêts » des profils utilisateurs auxquels nous avons eu accès (7 041 profils). Les mots les plus fréquents concernent : Les filtres négatifs (concepts vides) : il s'agit d'une liste de termes vides de sens dans le contexte de l'étude. Les articles du (des) langage(s) étudié(s) sont des cas simples de termes très souvent inclus dans les filtres négatifs. En fonction des langages, plusieurs types de filtres sont fournis par défaut et peuvent être réutilisés ou enrichis. La figure 3b présente un extrait de filtre négatif utilisé dans notre cas; les dictionnaires de synonymes : il s'agit d'un dictionnaire permettant de mettre en relation les termes de même sens dans le contexte étudié. Si de tels dictionnaires peuvent facilement être constitués dans un domaine bien précis, la tâche s'avère plus compliquée dans les documents à contenu très variés comme dans les réseaux socionumériques. Nous avons constitué un fichier de synonymie prenant en compte les termes dans les différentes langues étudiées (français et anglais notamment) ainsi que les abréviations et les caractères spéciaux (les smileys par exemple) (figure 3c). Une fois que les centres d'intérêts sont extraits à partir du texte, leur fréquence est calculée pour chaque utilisateur (dont l'identifiant est rendu anonyme via la méthode MD5) pour construire une matrice 2D de cooccurrence entre utilisateurs et centres d'intérêts. La matrice peut éventuellement prendre en compte le temps (matrice 3D) pour pouvoir construire des graphes temporels et de ce fait analyser l'évolution des profils utilisateurs. La méthode visuelle d'analyse de profils qui est présentée ici, vise à identifier plus simplement la qualité des liens entre les utilisateurs et leurs centres d'intérêts. Ces liens peuvent être analysés pour un ou plusieurs utilisateurs. Nous effectuons ici un test sur le profil de l'un des auteurs afin de pouvoir valider la pertinence des résultats obtenus avec Tétralogie. La méthode se veut complémentaire aux analyses ethnographiques en y apportant plus d'ergonomie dans la présentation des résultats et, si les résultats sont validés, en impliquant au minimum la participation des utilisateurs dans les analyses (une simple installation de l'application suffit). A partir des matrices de cooccurence 2D ou 3D construites, l'algorithme Visugraph (Mothe et al., 2006; Loubier, Dousset, 2008) est utilisé pour construire des graphes 2D bipartis (utilisateurs-centres d'intérêts) ou des graphes bipartis 3D (utilisateurs-centres d'intérêts-périodes de temps). Les tailles des nœuds sont proportionnelles à leur nombre de liens. La figure 5 présente un aperçu du graphe 2D utilisateurs (nœuds en gris clair) - centres d'intérêts (nœuds en gris foncé) obtenu après filtrage et élimination des nœuds ayant très peu de liens. Pour les utilisateurs de notre application, leurs liens d'amitiés ont été pris en compte dans le graphe. Les nœuds correspondant à ces utilisateurs et à leurs centres d'intérêts apparaissent ainsi plus grand en haut et à gauche du graphe (cadre en blanc). Un zoom sur cette partie du graphe permet ainsi de voir avec plus de précision les centres d'intérêts communs aux utilisateurs et à leurs amis. On peut également distinguer dans le graphe des sous-graphes isolés (cadre en gris) qui représentent des utilisateurs ayant des centres d'intérêts communs (femmes, handball, jeu, etc.). Avec un volume plus important de données, on pourrait ainsi identifier des clusters d'individus regroupés par centres d'intérêts. La figure 6 présente l'évolution des centres d'intérêts de l'utilisateur « up » sur quatre semestres. Chaque nœud (un histogramme) représente l'utilisateur (barres à plusieurs couleurs) ou ses centres d'intérêts (barres unicolores). Chaque barre représente la fréquence de l'activité de l'utilisateur ou la fréquence d'un centre d'intérêt sur une période de temps. Pour chaque nœud, les barres se succèdent dans le sens des aiguilles d'une montre à partir de la première période de temps (semestre 1 de l'année 2009 dans ce cas). Par exemple, la première barre représente la fréquence de son activité au semestre 1, année 2009, la deuxième barre représente la fréquence de son activité pour le semestre 1, année 2010 (qui ne prend actuellement en compte que les mois de janvier et février 2010), la troisième barre représente la fréquence de son activité au semestre 2, année 2008, la quatrième barre représente la fréquence de son activité au semestre 2, année 2009). Ce graphe permet d'identifier les centres d'intérêts périodiques (profil à court-terme) de l'utilisateur qui sont les histogrammes proches des périodes (cadre en noir). Par exemple, on constate que l'utilisateur « up » s'est intéressé aux films et à la marque Renault au semestre 1, année 2009. Les centres d'intérêts quasi constants (profil à long-terme) de l'utilisateur (histogrammes dont les barres sont significatives dans toutes les périodes de temps) se rapprochent du centre du graphe (cadre en gris). Dans ce cas, on peut considérer que les centres d'intérêts du profil à long-terme de l'utilisateur sont les photos, les vidéos, les articles, le jeu, la musique, le champagne, etc. Les centres d'intérêts extraits par le traitement automatique des données et métadonnées relatives aux activités des utilisateurs peuvent être plus ou moins pertinents en fonction du contexte d'usage de ces données. Dans l'interprétation des graphes, nous supposons que chaque centre d'intérêt extrait pour un utilisateur représente un lien d'intérêt direct plus ou moins significatif (en fonction de sa fréquence et de sa constance). Une activité fréquente et constante vérifie naturellement cette supposition. Cependant, dès lors que ces activités s'avèrent moins fréquentes et non constantes, il peut s'agir de centres d'intérêts qui ne sont pas directement liés à l'utilisateur, et par conséquent peu pertinents pour son profil. Ainsi, concernant le profil de la figure 6, l'utilisateur nous a confirmé l'exactitude de la quasi-totalité des centres d'intérêts qui apparaissent (particulièrement tous les centres constants dans cadre en gris). En revanche, il a également indiqué qu'il ne s'est jamais directement intéressé à la marque Renault qui apparaît dans son profil à court terme du semestre 1, année 2009. La raison de la présence de cette marque n'est en effet due qu' à la citation d'un réalisateur de cinéma ayant tourné en dérision Renault et cette citation se trouve elle -même sur le profil pour effectuer un parallèle avec un philosophe et non évoquer l'automobile. L'observation du profil permet effectivement de comprendre sans aucune ambiguïté qu'il ne s'agit pas d'un intérêt pour l'automobile. La citation en question est en effet la suivante : « Godard dit être un “abricant de films” depuis que Renault se dit “créateur d'automobiles ”, je me demande ce que je vais pouvoir être maintenant que Lipovetsky se dit sociologue… ». On voit ici tout l'intérêt d'une approche interdisciplinaire pour pallier cette limite de la méthode automatique d'extraction des centres d'intérêts. Le recours à des méthodes qualitatives pour une validation interne ou par l'observation contextualisée des contenus permet de corriger ce qui ne devra alors être envisagé que comme des hypothèses à valider. Techniquement, ces vérifications pourraient hypothétiquement être incluses à partir d'une forte structuration des documents générés par les activités des internautes sur les réseaux socionumériques. Cependant au niveau des réseaux socionumériques, les API actuelles fournissent peu d'éléments sur la structure des activités de leurs utilisateurs. Ainsi, même si l'évaluation visuelle des profils utilisateurs via la méthode présentée s'avère pertinente au niveau de la quantité d'utilisateurs (à analyser) et de l'ergonomie des résultats des profils à long terme, la faible structuration du texte analysé dans les profils à court terme impose une validation qualitative. Il s'agit donc d'une piste de recherche à approfondir désormais afin d'envisager dans quelle mesure améliorer l'analyse automatique des profils à court terme. L'extraction et l'analyse des données des profils utilisateurs sur les réseaux socionumériques peuvent bien être rendues possibles au moyen des API, même si les données extraites ne sont pas complètes. Les exemples de graphes présentés montrent uniquement les relations entre utilisateurs et centres d'intérêts, ce qui a l'inconvénient de ne pas apporter de sémantique forte sur la nature des liens entre un utilisateur et ses centres d'intérêts. Il est par exemple impossible de dire à partir du graphe de la figure 6 si le centre d'intérêt « music » de l'utilisateur « up » est perçu positivement (il aime la musique) ou négativement (il déteste la musique) par ce dernier. L'enrichissement des graphes présentés en ajoutant des liens entre centres d'intérêts est une première approche que nous utilisons actuellement pour comprendre le contexte dans lequel l'utilisateur est lié à un ou plusieurs centres d'intérêts. D'autres pistes seront explorées pour résoudre ce problème (traitement d'opinions, rumeurs, etc.). Compte tenu de la sensibilité des données recueillies au moyen d'APIs, nous comptons également explorer la piste du recueil de données au moyen des descriptions RDF telles que FOAF et SIOC. Nous envisageons enfin d'étudier l'apport d'une modélisation bivectorielle (vecteur des centres d'intérêts de l'utilisateur, vecteur des centres d'intérêts des contacts) des profils, et l'élaboration des contraintes et des règles du passage à une modélisation univectorielle du profil à partir des deux vecteurs définis pour chaque utilisateur. Cet article a cherché à démontrer la valeur heuristique d'une démarche interdisciplinaire dans le cas de l'analyse de la circulation d'objets techniques au sein d'un espace social. Une posture critique associée à une méthodologie plurielle et faisant appel à une posture épistémologique s'intéressant à la rencontre nous semble fournir une conception d'une forme d'interdisciplinarité qui nous paraît particulièrement riche heuristiquement. Bien qu'inspirée par les travaux de plusieurs auteurs relevant des disciplines d'origine des chercheurs ayant participé à ce projet, et dont certaines se revendiquent explicitement de l'interdisciplinarité, nous insistons sur le fait que ce positionnement ne s'y limite pas et que c'est ce dépassement des logiques disciplinaires qui a justement permis à des chercheurs aux profils si variés de se retrouver dans un projet collectif .
L'analyse des réseaux sociaux est menée dans le domaine des sciences sociales depuis les années 1930. L'avènement du web social et le développement des réseaux socionumériques ont la particularité de fournir des environnements propices pour l'accès à des masses importantes de données utiles pour la caractérisation d'un réseau social au moyen d'outils de fouille de données, d'analyse de graphes, etc. Pour autant, ces nouveaux espaces ne se réduisent pas à une reproduction des réseaux sociaux hors-ligne. Dès lors, une analyse interdisciplinaire exploitant les possibilités d'outils informatisés d'analyse de données tout en éclairant les résultats obtenus à la lumière de ceux issus d'une analyse ethnographique se révèle judicieuse. Cet article présente les résultats d'une enquête sur les principaux usages des internautes sur les réseaux socionumériques en suivant cette approche interdisciplinaire.
sciencesInfo_13-0053291_tei_DN_id9782746233034_pu2011-01s_sa03_art03.tei.xml
termith-441-communication
A partir du moment où le niveau technologique a permis la numérisation des documents, le rapport à l'écrit a irrémédiablement changé. Manipulable, le texte a vite perdu son caractère d'intangibilité, voire dans le cas du texte littéraire sa quasi-sacralité. Codés sous la forme d'une suite de chiffres, les mots deviennent l'objet de toutes sortes de traitements informatiques : établissement de listes de concordances, repérage des mots, collationnement de textes, etc. Les index hiérarchiques (listes des formes contenues dans les romans classées par ordre de fréquence) donnent souvent des indications thématiques précieuses – dans Les Misérables, les premiers substantifs de la liste sont « homme », « Marius » et « Jean » [BER 99] -, les listes de formes hors ou en contexte apportent des informations d'ordre stylistique, métrique ou autre. Des lois statistiques comme celle de l'écart réduit ou celle du calcul des spécificités rendent possible la comparaison du vocabulaire de corpus de taille différente, même s'il convient, dès lors que l'on soumet un texte littéraire à des comptages, de manier les résultats avec précaution. Il est vrai que certaines de ces pratiques existaient avant l'arrivée de l'informatique. Michel Bernard rappelle en effet que des concordances et des index sont fabriqués depuis le Moyen Age et que l'on a « pratiqué une forme manuelle de la statistique textuelle depuis le XIXe siècle » [BER 99 ]. Mais l'informatique apporte la possibilité de traiter des corpus longs et de décharger le chercheur des tâches les plus fastidieuses. Il permet surtout, progressivement, d'étendre ces pratiques à un public de plus en plus large, grâce non seulement à l'internet (bibliothèques virtuelles), mais aussi à l'arrivée sur le marché de dispositifs de lecture électronique (postes de lecture de la Bibliothèque nationale de France et e-books). Une des conséquences de cette technicisation est l'apparition d'un nouveau comportement de lecteur. Par ses caractéristiques physiques mêmes, un écran pour lire et un clavier pour écrire, l'ordinateur enjoint en quelque sorte le lecteur à exercer une action véritablement concrète sur le texte. Il s'agit non plus seulement de lire, mais aussi d'écrire. Effectuer des recherches lexicales et statistiques, comme on vient de le voir, mais également insérer et gérer des annotations, parcourir, voire créer des réseaux de liens inter, extra et intratextuels. Bien que ces activités n'impliquent pas forcément un travail de production écrite, elles mettent à tout le moins en œuvre une réflexion métatextuelle et métalinguistique, où lire devient « assumer la position du scripteur ». Dans un récent ouvrage intitulé Littérature, Informatique, Lecture [VUI 99 ], deux auteurs 1, tous deux chercheurs au Centre d'études et de recherches sur les textes électroniques (CERTEL), désignent ce nouveau comportement de lecteur, où la lecture est consubstantielle à l'écriture, par le terme d' « écrilecture », néologisme forgé en 1992 par Pedro Barbosa dans une thèse sur la création littéraire et l'ordinateur. Dans cette évolution, l'hypertexte joue un rôle important. Grâce à sa structure réticulaire et cognitive [SOU 01 ], l'accès aux savoirs ne se fait plus de façon unilatérale, linéaire, mais multiple, au travers d'éclairages différents. La génétique des textes a très bien compris ce qu'elle pouvait tirer de cette nouvelle rhétorique. Jean-Louis Lebrave rapporte ainsi qu' à l'opposé du modèle philologique classique qui occultait, au nom d'une « idéologie romantique de l'inspiration », le versant de la production des œuvres, l'hypertexte permet de restituer « aux voix et aux mains la plénitude d'une créativité à part entière » [LEB 97 ]. Affranchie de l'ordre linéaire de l'imprimé, l' œuvre se retrouve placée dans l'hypertexte à la croisée de l'avant-texte. Et inversement. Alain Vuillemin distingue trois types d'écrilecture. Elle est périphérique lorsqu'il s'agit d'apporter des annotations, elle est centrale, fondatrice, dès lors que le texte devient préhensible, c'est-à-dire lorsque, numérisé, il devient manipulable, interrogeable; elle est enfin créatrice quand l'ordinateur est au service de l'extraction des aspects méconnus d'un texte, lorsqu'il devient possible de « décomposer les éléments qui le [texte] constituent et d'en découvrir la nature intime pour mieux en apprécier les significations et la portée » [VUI 99, p. 106 ]. En fait, il s'agit plus généralement dans ce dernier cas de figure, non pas d'appréhender un texte mais un ensemble de textes fortement solidaires (un architexte), à l'aide de multiples modes de lecture interactive (procédures de recherche) et assistée (annotations). Pour les tenants des théories de la réception, ce type de lecture, que certains qualifient de savante, n'est ni nouveau ni exceptionnel. L'interaction entre le texte et le lecteur est constitutive de l'acte de lecture. Un texte ne s'imprime pas automatiquement dans la conscience du lecteur. « La structure du texte et celle de l'acte de lecture sont complémentaires pour donner lieu à la communication » [ISE 97, p. 197 ]. Dans la phénoménologie de la lecture d'Iser, la position du lecteur dans le texte se situe au point d'intersection entre « protention », émission d'hypothèses, attentes, et rétention. Umberto Eco parle de « prévisions » et de « promenades inférentielles ». Lire en effet, ce n'est pas seulement dérouler du linéaire, c'est aussi s'arrêter, revenir en arrière, comparer, voire annoter. Le travail de Barthes sur la nouvelle Sarrazine de Balzac [BAR 70] ou sur La vérité sur le cas de M. Valdemar de Poe [BAR 73 ], est la trace de ce travail de lecture : fragmentation du texte, comparaison des unités de lecture ainsi mises à jour (Iser parle de « corrélations de phrases »), rapprochement de certaines d'entre elles, projetant ainsi sur le texte différents points de vue interprétatifs, ajout de commentaires. Les dispositifs de lecture électronique constituent donc ni plus ni moins ce que l'on pourrait appeler, à l'instar de Pierre Lévy, des appareillages de lecture artificielle : « Si lire consiste à sélectionner, à schématiser, à construire un réseau de renvois internes au texte, à associer à d'autres données, à intégrer les mots et les images à une mémoire personnelle en reconstruction permanente, alors les dispositifs hypertextuels constituent bel et bien une sorte d'objectivation, d'extériorisation, de virtualisation des processus de lecture ». [LEV] Précisons seulement que si la technologie informatique prend appui sur des processus cognitifs et intellectuels avérés, il n'en demeure pas moins qu'elle en décuple les possibilités. Dans l'histoire des modes de pensée, l'apparition de l'écrit, puis son émancipation progressive de l'ordre linéaire de l'oral (passage du volumen au codex, apparition des outils de lecture) a permis à un certain nombre d'opérations intellectuelles de se développer « comme la comparaison des énoncés, la hiérarchisation des éléments du discours, la réorganisation de la pensée, la migration des concepts, etc. » [CLE 98 ]. Les dispositifs de lecture électronique, en tant que « technologie intellectuelle » [GOO 79] nouvelle, s'inscrivent dans ce mouvement : traitement de corpus de taille importante, rapidité d'exécution des tâches, rôle des représentations graphiques, etc. Par ailleurs, l'architecture hypertextuelle de ces dispositifs permet d'appréhender les documents dans leur intégrité, et ce avec plus d'intelligibilité que ne le ferait un agencement hiérarchique des informations. Un hypertexte est en effet un réseau à l'intérieur duquel les relations entre les nœuds apportent autant d'informations que les nœuds eux -mêmes de façon à multiplier la valeur informative apportée par la simple somme des données prise comme référence [PAM 97 ]. C'est dans ce contexte qu'il m'est très rapidement apparu que ces nouveaux environnements de lecture, parce qu'ils matérialisent des opérations et des processus abstraits, pouvaient se révéler plus performants, pour sensibiliser les élèves à la nature fondamentalement interactive de la lecture littéraire, que des méthodes traditionnelles qui ne laissent bien souvent qu'entrevoir le phénomène. Comme le remarquaient il y a déjà six ans Bernard Stiegler et Gwendal Auffret à propos d'un dispositif de leur invention, LECAO (lecture et écriture critique assistée par ordinateur) : « Auparavant, la lecture d'un texte s'expliquait seulement, maintenant, il est possible de la montrer » [AUF 96 ]. Des expériences ont déjà été menées dans ce sens, mais essentiellement tournées vers l'écriture. Scripertexte par exemple, logiciel d'aide à l'écriture élaboré par Jacques Crinon et Soizic Pachet, comporte une bibliothèque hypertextuelle contenant environ deux cent cinquante extraits de romans d'expérience personnelle que l'apprenti scripteur peut consulter, soit par l'intermédiaire d'une liste de critères, soit, de manière plus libre, par des liens hypertextuels [CRI 97 ]. Conçu autour du même principe, LYRE d'Eric Bruillard, est un système d'aide à l'analyse de textes littéraires en vue de la rédaction d'un commentaire composé : « Sur un poème ou un texte littéraire, LYRE offre divers points de vue de lecture (lexique, images, niveaux phonique et prosodique, syntaxe, sémantique), des possibilités de croiser ces divers points de vue en les visualisant sur le texte initial et d'effectuer une recherche transversale à l'aide d'un point de vue global ». [BRU 97, p. 262] D'ambition plus modeste, des expériences ponctuelles ont également été menées à l'initiative d'enseignants de l'enseignement secondaire ou supérieur 2. On peut citer l'exemple de cette petite application réalisée par Claudine Dubois destinée à exercer les élèves à la lecture méthodique [DUB 98] et dont le système d'aide éclaire certains aspects du texte. Pourtant, l'informatique n'est jamais mise au service d'une réflexion consciente sur la nature de la lecture littéraire. Pour cela, il faudrait non seulement qu'elle s'inscrive dans le cadre d'une didactique de la lecture mais aussi que ce soit à l'élève d'élaborer son propre hyperdocument à partir d'un texte imprimé, c'est-à-dire de proposer sa lecture d'un texte, d'exposer son propre métatextuel. Il ne faut pas non plus perdre de vue que « pour qu'il y ait une réelle appropriation du savoir, tout apprentissage doit être associé à une pratique de production et de recherche » [ORI 86, p. 5 ]. Il ne s'agirait donc pas là d'une écrilecture au sens où l'entendent Alain Vuillemin et Arnaud Gillot, c'est-à-dire d'une interaction entre l'utilisateur d'un hypermédia et cet hypermédia, mais d'une écrilecture en quelque sorte factice, puisqu'il serait question, à seule fin éducative, de reproduire à l'écran un ensemble de comportements physiques (souligner, insérer des commentaires, avancer ou reculer de quelques pages) et d'opérations mentales (construction du sens). En termes psycholinguistiques [COI 96 ], construire une représentation cognitive de ce qui est dit par le texte met en jeu à la fois des opérations concernant l'activation de réseaux d'unités de la mémoire à long terme, à partir des unités d'entrée (phonèmes, syllabes, mots), et des opérations d'intégration qui correspondent à la mise en relation des différentes unités ainsi qu' à leur organisation dans des unités plus globales. La grande quantité de nœuds spontanément activés lors de la première phase, dite bottom-up, est ensuite considérablement réduite lors de la deuxième phase qui désactive les éléments non pertinents. C'est ce qu'Umberto Eco appelle l'aimantation/narcotisation de propriétés sémantiques, l'identification du topic (le thème dans l'opposition thème/rhème) jouant selon lui un grand rôle dans l'actualisation des sèmes appropriés [ECO 85 ]. Par ailleurs, parce que tout texte comporte beaucoup d'informations implicites, un troisième type d'opération cognitive intervient concernant l'interprétation du message, à savoir l'intervention de connaissances usuelles, de schémas, relatifs tout aussi bien à l'organisation des textes qu'aux contenus, domaines et événements qui y sont évoqués. Pour comprendre la phrase : « Jean devait organiser un cocktail et il alla au supermarché », il faut activer deux scénarios, l'un « qui spécifie que, parmi les autres conditions sociales de réalisation d'un cocktail, il comporte la distribution de boissons, liqueurs et amuse-gueule », et l'autre qui prévoit que l'on vend dans les supermarchés, « entre autres articles, des boissons, des liqueurs et des amuse-gueule » (id.). Si les logiciels d'apprentissage de la lecture constituent les seules aides à la construction d'une représentation textuelle intégrée (Elsa de l'Association française pour la lecture ou Lirebel chez Chrysis par exemple), les dispositifs de lecture électronique peuvent en revanche se révéler un auxiliaire précieux pour mettre en relation les « blancs » du texte, les lieux d'indétermination, selon leur nature (« blancs » relatifs à l'histoire, à la science, à la culture, etc.) [ISE 97 ], et en comblant le déficit d'informations explicites grâce à l'insertion d'annotations ou à des renvois vers une base de documents externes. La didactique de la lecture littéraire accorde une grande importance à cette phase qui renvoie à la fois, pour reprendre les termes d'Iser, aux textes antérieurs, mais également aux normes sociales et historiques, au contexte socioculturel au sens le plus large d'où le texte est issu. Cela se traduit en ce qui concerne le premier point, par une attention portée à la notion d'intertexte et, à propos du second point, à la morale, aux mythes, à l'interculturalité, à l'intermythologie, au stéréotype et au prototype ([ TAU 96 ], [AMR 98 ], [FOU 00]), bref, à tout ce qui constitue « l'extra-esthétique » selon Iser. Pour autant, lire n'implique pas seulement la mise en œuvre d'opérations cognitives mais aussi intellectuelles. Lorsque Umberto Eco se penche à la fin de son livre sur une nouvelle d'Alphonse Allais, la mise en évidence de l'écart entre une lecture naïve et une lecture critique du texte 3 s'appuie sur l'analyse des stratégies discursives et narratives utilisées. C'est ainsi qu'il est amené à s'intéresser aux fonctionnements langagiers (épigraphes, formules de connivence, références à des scénarios communs et intertextuels, figures, etc.) qui trahissent le projet de l'auteur, ou tout du moins la complicité feinte du narrateur. Cette attention portée au langage est la conséquence directe de l'autoréflexivité du discours de fiction. La littérature se sert de la fonction référentielle du langage (signes de choses) pour amener une réflexion sur le langage lui -même (signes de signes) et à travers elle une réflexion sur le monde. De la même façon que les paradigmes linguistiques (temps verbaux, reprises anaphoriques, etc.) garantissent la cohérence du texte, les paradigmes poétiques, par le retour régulé du même, en assurent la « coalescence » (à partir de la définition qu'en donne le Littré : « union des parties auparavant séparées … ») [ORI 88b ]. La seule différence est la variation. Les paradigmes linguistiques ne suscitent aucune réaction de la part du lecteur car ils reviennent d'un texte à l'autre. Au contraire, les paradigmes poétiques, selon leur degré de créativité, attirent l'attention. « Les mises ensemble qu'il faut effectuer pour produire du sens ne sont plus seulement celles que réclament les textes informatifs. Certes, comme pour ces derniers, il faut suivre l'organisation linéaire syntagmatique et être capable d'organiser les signifiés en propositions sémantiques qui créent l'effet de fiction à partir du travail de la vraisemblance. Mais il faut non moins apprendre à lire dans le translinéaire, les trouvailles de la ressemblance » [ORI 88a ]. L'hypertexte pourrait là se révéler utile. Il peut permettre de visualiser les réseaux de relations qui existent entre les mots. Comment en effet mieux mettre en évidence l'inscription du paradigme dans le syntagme, ce qui, selon Jakobson, caractérise la fonction poétique ? Une telle utilisation s'intégrerait d'ailleurs parfaitement dans le cadre d'une didactique de la lecture littéraire qui prend en compte l'autotélisme du texte (lecture ascendante) et qui, par le rétablissement des informations implicites, s'intéresse également au système de référence de l'élève-lecteur (lecture descendante). Elaborer un hyperdocument lectoral, dans le but de donner à l'écran une représentation de la lecture, reviendrait en définitive à deux principales opérations. Insérer des annotations visant à expliquer, reformuler, contextualiser, documenter, etc., de façon à relier des passages du texte à tout ce qui constitue l'extratextuel et relier entre eux les éléments internes au texte qui se ressemblent et fondent ainsi la poéticité. J'ai eu l'occasion pendant l'année scolaire 1999-2000 d'expérimenter ce modèle didactique avec des élèves de CM2 de l'école annexe Charles Daviler de Montpellier, en collaboration étroite avec leur instituteur, Claude Veau, également formateur à l'IUFM. Le choix du texte de départ s'est porté sur une nouvelle extraite d'Usurpation d'identité de Boileau-Narcejac, intitulée Le Gorille aux Floralies [BOI 80 ]. Ecrite à la manière de Dominique Ponchardier, auteur de romans d'espionnage, lui -même ancien agent des services secrets, elle met en scène le héros de la série des Gorille aux prises avec ses homologues étrangers à propos d'un accumulateur miniaturisé (voir annexe). Si nous nous sommes très rapidement tournés vers le genre policier, c'est principalement en raison de la place privilégiée qu'occupe le suspense dans la motivation des enfants pour la lecture. Il présente en outre l'avantage d' être une métaphore de l'activité de lecture. Ce n'est certainement pas sans raison que les deux analyses textuelles de Barthes prennent successivement pour objet deux récits à énigme. Le choix du genre espionnage n'a en revanche rien de réfléchi. Il se trouve que les nouvelles proposées en librairie et destinées à des enfants de 10-11 ans sont rares, celles -ci s'adressant plutôt à une classe d' âge inférieure. En témoignent les sujets des histoires proposées qui mettent rarement en scène de vrais délits mais tournent plus volontiers autour de vols de chewing-gum ou de crayons. C'est en cherchant dans la littérature adulte, après avoir écarté bon nombre de nouvelles noires susceptibles de heurter la sensibilité des enfants, que nous avons choisi cette nouvelle à la fois pour sa longueur (sept pages), l'originalité de son monde de référence et son ton humoristique. La transformation de la nouvelle du Gorille aux Floralies sous forme d'hyperdocument s'est étalée sur toute une année scolaire, à raison d'une séance d'une heure et demie par semaine environ. D'une façon générale, pour chaque étape de la réalisation, le travail s'effectuait tout d'abord individuellement puis, après une première confrontation des résultats de chacun à l'intérieur de sous-groupes, une phase de mise en commun permettait d'aboutir à une synthèse. Pendant l'expérience, mon rôle s'est tenu à celui de conseiller, de consultant auprès de l'enseignant. Je veillais à ce que les consignes de travail, les explications, et d'une manière générale la conduite du cours restent toujours au plus près des objectifs didactiques fixés. J'ai en de rares occasions pris la parole et mené des activités, et cela à chaque fois qu'un point théorique posait problème, comme la notion de fonction par exemple. La première étape a été consacrée à la lecture du texte. La mise en scène didactique pour laquelle nous avons optée a consisté à faire découvrir progressivement la nouvelle aux élèves. Ceci a permis de faire naître les premières hypothèses de sens. Le Gorille aux Floralies est en effet une nouvelle assez singulière, puisque tout en présentant de fortes homologies avec les caractéristiques du genre de l'espionnage, elle s'en éloigne cependant par différents aspects. D'une manière générale, et le recours à un lexique familier, populaire et argotique y est pour beaucoup 4, le monde de l'espionnage décrit dans la nouvelle de Boileau-Narcejac est moins policé, moins raffiné que celui dépeint traditionnellement dans les romans appartenant au même genre. Ce qui diffère des autres récits d'espionnage n'est pas le thème de l'intrigue – qui pourrait se formuler ainsi : « Défense du potentiel économique et militaire/Contre le communisme/dans un pays d'Occident ou du Tiers Monde », et que l'on retrouve selon Erik Neveu dans 25 % des romans d'espionnage [NEV 85] –, ni non plus sa structure, mais l'atmosphère. C'est une partie du monde de référence qui change, un monde où il est admis de prendre quelque liberté avec certaines conduites sociales, tant du point de vue du comportement que de celui de la langue. Un monde où les hommes ne sont pas des superhéros, mais des êtres ordinaires, peut-être même par moments « inférieurs », au sens où Aristote emploie ce terme à propos de la comédie, au commun des mortels, mais suffisamment hors normes pour justifier leur appartenance à « l'élite » de la nation. La peinture d'un monde à la française, avec son franc-parler (à travers un certain niveau de langue on l'a vu, mais aussi par le recours régulier à l'hyperbole et à l'ironie) et son irrespect des conventions, dont le cinéma a d'ailleurs exploité la veine pendant quelques années 5, conduit inévitablement à une désacralisation, à une démythification du milieu de l'espionnage. Démythification qui par contrecoup laisse apparaître toute la dérision de la condition de l'espion qui va jusqu' à se matérialiser parfois dans des situations véritablement cocasses 6. Pour une personne maîtrisant l'ensemble de ces connaissances, Le Gorille aux Floralies n'apparaît que comme un avatar d'un genre hypercodé que l'on pourrait qualifier d'espionnage à la française. Elle n'éprouve aucun mal à combler les innombrables blancs du récit. Cela n'a pas été le cas pour les élèves de CM2. La plupart des références historiques et architextuelles (relative au genre de l'espionnage) leur manquaient et c'est la découverte par fragments du texte qui a permis aux élèves, par la médiation de l'enseignant, de combler leurs lacunes et d'émettre des hypothèses. La deuxième étape a consisté à découper le texte en pages-écran ou unités d'information. Les enfants ont pour ce faire recouru à des critères aussi variés que le changement de lieu ou de personnages, le passage d'un type d'action à un autre, le suspense ou encore le « sujet ». Le nombre de parties variait d'un élève à l'autre de 7 à 14. Nous leur avons par la suite fourni un cadre épistémologique construit sur la base d'une synthèse de la logique décisionnelle de Brémond, porteuse d'une définition claire des notions de fonction (tout action ou événement peut être appréhendé en trois temps : avant/pendant/après), de séquence élémentaire et de leur combinaison, et du schéma narratif de Greimas qui « constitue comme un cadre formel où vient s'inscrire le “sens de la vie” … » [GRE 93 ]. A partir de leur découpage mais aussi après une nouvelle lecture du texte, les élèves, par groupes, ont donc cherché à regrouper par paires les événements qui selon eux ouvrent et ferment les différentes séquences du texte. Par exemple : début de la mission/fin de la mission; Geo n'a pas de plan/Geo a un plan; Geo ne comprend pas les paroles de Kauffman/il les comprend, etc. Il ne restait plus ensuite qu' à faire l'inventaire des actions intermédiaires permettant de passer de l'état initial à l'état final de chaque séquence. Ce travail a débouché sur la réalisation d'un tableau à double entrée, chaque colonne représentant une séquence (par exemple : recherche d'un plan, compréhension des paroles de Kauffman) et chaque ligne une fonction (recherche dans les fichiers/échec/recherche d'une autre idée). Ce sont ces fonctions qui constituent les 33 pages-écrans de l'hyperdocument lectoral. Cette étape a permis une première approche de la poéticité des récits en sensibilisant les enfants au retour réglé, dans le syntagme, d'éléments issus de paradigmes narratifs [JAK 63 ]. La nouvelle de Boileau-Narcejac appartenant au genre policier, ce principe poétique est mis au service du suspense. Dans la quête du héros, les énoncés d'état qui suivent des énoncés de faire ne correspondent pas toujours à une conjonction à l'objet. Ils peuvent équivaloir à une nouvelle disjonction (le héros est sur le point d'arraisonner le voleur, mais ce dernier se révèle meilleur coureur…) ou encore à un état non encore stabilisé, indécis. Deux quêtes, par ailleurs, l'une pragmatique (récupérer un objet volé), l'autre cognitive (résoudre une énigme), coexistent au sein du récit, la résolution de celle -ci retardant l'aboutissement de celle -là. En détournant une formule de Barthes, on pourrait dire en somme que « de même que la rime (notamment) structure le poème selon l'attente et le désir du retour, de même les codes herméneutiques [et proaïrétiques] structurent l'énigme [et la diégèse] selon l'attente et le désir de sa résolution [de leur achèvement] » [BAR 70 ]. C'est d'ailleurs pour mieux leur faire prendre conscience de ce retour de l'énigme que nous leur avons demandé de marquer les lieux où elle « se centre, se pose, se formule, puis se retarde et enfin se dévoile » [BAR 70, p. 23 ]. Une fois ce travail effectué sur la macrostructure, il a ensuite fallu se pencher sur les microstructures. On a vu que les élèves avaient déjà eu l'occasion, grâce à la découverte progressive du texte, de se confronter à certaines subtilités. Mais cette première lecture leur a aussi permis d'apprécier l'humour de la nouvelle, perceptible non seulement à travers le lexique populaire, familier et argotique, mais également par la cocasserie de certaines situations et par certains aspects du Gorille, irrespectueux des convenances et adoptant bien souvent un regard ironique sur sa mission. Après avoir convenu ensemble, à l'issue d'une première phase de travail et de mise en commun, que l'humour du texte résidait essentiellement dans le choix du lexique, l'emploi de l'hyperbole, et les emprunts, par le Gorille, à d'autres sociolectes (publicité, armée, religion, etc.), les élèves ont eu pour tâche de repérer dans le texte, au moyen de photocopies et de surligneurs, les passages qui relevaient de tel ou tel paradigme. Pour symboliser la métamorphose progressive du texte, des feuilles de papier A4, des fils de laine de différentes couleurs et un marquage au feutre matérialisaient sur un mur de la classe les unités d'information, les liens hypertextuels et les ancres. Chaque nouvelle séance voyait la trame se tisser de nouveaux fils. Au fur et à mesure de l'avancée du projet, je me suis chargé du versant informatique, c'est-à-dire de la réalisation de l'hypertexte électronique : numérisation de la nouvelle, découpage, élaboration de l'architecture, création des pages-écran et des liens, conception de la palette graphique, recherche d'une navigation optimale, etc 7. A quatre reprises, les élèves ont été initiés à certaines opérations d'édition dans une salle informatique de l'IUFM. Ils ont ainsi appris à créer des « tiroirs » c'est-à-dire, dans la terminologie du logiciel de génération d'hypertextes que nous avons utilisé, des fenêtres, à écrire ou importer un texte de fond ou une image, à créer des hypermots, des « efficaces » (liens), à poser un bouton, à le déplacer et à le redimensionner, à changer les couleurs de fond d'écran et de fond de tiroir, etc. A l'issue de chacune de ces séances, la version de l'hypertexte qui correspondait à l'état des travaux du moment leur était présentée. Ils pouvaient ainsi se rendre compte de l'avancée du projet et surtout donner du sens aux différentes activités d'analyse textuelle qui leur étaient proposées. La dernière étape a consisté dans l'ajout d'annotations. Un grand nombre d'entre elles, touchant au genre de l'espionnage, au contexte sociohistorique de la nouvelle et d'une façon générale à la série des Gorille, ont été plus ou moins écrites au moment de la première lecture du texte, lorsqu'il s'agissait justement de rassembler les connaissances encyclopédiques nécessaires à la compréhension du texte (extratexte). Ces ajouts correspondent dans la plupart des cas, selon la typologie des actes annotatifs élaborée par une équipe de chercheurs de l'Institut de recherche en informatique de Toulouse [MAZ 95] à des annotations destinées à contextualiser certains passages. Les autres annotations ont été écrites au cours de cette phase. Celles relatives au lexique n'ont pas fait l'objet de consignes particulières de notre part et sont à classer dans les commentaires du type attirer l'attention. Pour les comparaisons en revanche (intratexte), nous avions donné comme instructions aux élèves, non seulement de commenter celles qu'ils trouvaient les plus cocasses, les plus drôles, mais également d'en écrire à leur tour sur les différents modèles que compte la nouvelle (rapport d'analogie le plus extravagant possible expliqué soit par une conjonction, soit par un système de comparaison quantitative, soit par un verbe à sens comparatif, soit par un substantif non actualisé). Cette consigne était en fait dictée par notre souci de lier lecture et écriture littéraire. L'énigme a, quant à elle, fait l'objet de la part des élèves d'un traitement particulier. Sensibilisés par plusieurs séances de travail sur la progression de l'énigme, dont chacune de ses manifestations a pour seul objectif d'emmener le lecteur sur une fausse piste, de le leurrer, ils ont non seulement tenu à ce que leurs commentaires ne dévoilent pas l'énigme mais, bien au contraire, la renforcent. Par exemple, lorsque le Vieux rapporte les dernières paroles de Kauffman (« La batterie… Marguerite… Marguerite »), le commentaire qui apparaît à gauche de l'écran est : « le voleur est donc une voleuse », hypothèse que le lecteur et le héros sont amenés à formuler (Marguerite est un prénom féminin), alors qu'en réalité « marguerite » désigne une fleur et que le voleur n'est autre qu'un homme. Autre artifice. A l'écran, le lien n'apparaît pas en caractères de couleur. L'utilisateur doit donc, pour afficher le commentaire, déplacer sa souris, au hasard ou non, dans le corps du texte jusqu' à l'apparition du cadre jaune. Il s'agit encore une fois de préserver l'intégrité de l'énigme qui, par définition, est cachée. Un des procédés humoristiques du texte a également fait l'objet d'une mise en scène analogue. Il s'agit des emprunts, qui parsèment le discours du Gorille, à d'autres discours appartenant à des sphères professionnelles bien identifiées : l'armée, l'administration, le journalisme, etc. (intertexte). A l'image de cette scène où, planqué dans le placard d'une chambre d'hôpital, tandis que le cadavre qu'il surveille « floflope », le Gorille exprime toute la dérision de sa situation sur le mode du slogan publicitaire : « Charmantes vacances ! Vue imprenable, odeurs sylvestres. Un petit coin bien peinard ». De façon à bien mettre en évidence le procédé, nous avons essayé, à chaque fois que cela était possible, de reconstituer le contexte original supposé de l'expression. Ainsi cet autre exemple où l'ironie du Vieux à l'égard de la police (« Votre distingué collègue de la Sûreté ») est signalée par la superposition à l'écran d'une lettre officielle (drapeaux, signature du Président de la République, tournures) 8. On voit comment les choix scénaristiques que nous avons été amenés à faire ont été guidés par le souci de représenter de la façon la plus significative possible les rapports existants à l'intérieur du texte (intratexte) et entre le texte et l'extérieur du texte (extratexte et intertexte). Bien qu'il ne s'agisse pas d'annotations, d'autres ajouts ont été apportés au texte d'origine. Dans Le Gorille aux Floralies, certains monologues du héros sont au discours indirect libre. Si bien qu'il est parfois difficile pour le lecteur d'identifier l'origine de la voix. Qui parle ? Le héros ? Le narrateur ? L'auteur 9 ? La perte de l'origine des voix est selon Barthes une des caractéristiques du texte « ouvert » qui permet au lecteur de coopérer avec lui, d'interagir. Ces passages ont fait l'objet d'enregistrements par les élèves. Ils sont signalés par l'icône d'un porte-voix en bas à gauche de l'écran (voir figure 1). Cliquer dessus ouvre le fichier son et fait apparaître le passage concerné en bleu. Enfin, pour laisser une certaine marge de liberté aux enfants, nous avons accepté qu'ils parsèment le texte de photos. La seule condition était qu'elles reprennent des descriptions (propositions relatives, adverbes, adjectifs, séquences). Cela leur a permis de prendre conscience que les descriptions sont loin d' être toutes assimilables à des images, qu'elles peuvent aussi, par exemple, apporter des informations sur les comportements des personnages, sur leurs relations, etc. Il est possible de classer les commentaires à l'aide de la typologie des actes annotatifs élémentaires (AAEs) élaborée par une équipe de chercheurs en informatique en vue de la mise au point d'un système d'annotation électronique (le complexe MAPS). Huit classes d'AAEs sont distinguées [MAZ 95] : « Hiérarchiser : caractériser des passages par des jugements de degrés en fonction de l'importance, de la représentativité, de l'intérêt, etc. […]; Architecturer : contraster ou différencier des passages selon leur type logico-linguistique (par exemple : définition, etc.) […]; Contextualiser : repérer des termes caractéristiques et créer un passage pertinent, du point de vue linguistique, pour l'appréhension sémantique, syntaxique ou autre, de ce terme ou de cette expression; Programmer : planifier des opérations à effectuer […]; Reformuler : attacher une variante concurrente ou une autre « lecture » à un passage qui en modifie la teneur […]; Commenter : […] critiquer, approuver, attirer l'attention, enregistrer une pensée, interpréter/expliquer […]; Documenter : attacher une documentation (par exemple une illustration, un schéma, etc.) à un passage; Corréler : établir des renvois et des références typés entre points ou passages du texte ou d'un autre texte […] » (citations extraites des pages 129-131 de [MAZ 95]). Les comparaisons et le lexique ont fait l'objet de commentaires du type Attirer l'attention (« Haut les mains ! » par exemple en exergue de « Un index gros comme un canon de fusil » de façon à attirer l'attention sur le terme comparant). Il convient aussi de classer les annotations concernant l'énigme dans cette catégorie, même si ces dernières sont moins explicites puisque destinées à leurrer le futur usager de l'hypertexte. Certains mots de vocabulaire ont par ailleurs été expliqués, comme grenouiller par exemple (« mijoter des plans diaboliques »). Les comparaisons qui ont été écrites par les enfants à partir de celles figurant dans le texte, doivent, quant à elles, être considérées comme des reformulations. Les précisions qui ont été apportées concernant le contexte historique et celui de l'espionnage sont destinées à contextualiser certains passages. Enfin, l'ensemble des documents écrits et sonores attachés aux mots et phrases à connotation autonymique sur le mode du « comme ils disent » correspondent à l'acte annotatif de documenter. Bien entendu, les enfants n'ont pas eu à utiliser ce vocabulaire. Cela aurait certainement interféré avec les catégories littéraires et nécessité un travail supplémentaire de typage des commentaires. Ce qui importait avant tout était, à travers la volonté de lier la lecture à l'écriture, de diversifier les types d'annotations, que celles -ci participent d'une intention artistique, ludique, comme dans le cas des comparaisons, ou qu'elles s'inscrivent dans le cadre d'actes annotatifs plus classiques, le plus souvent explicatifs. On peut raisonnablement tirer de cette expérience un bilan positif. La transformation du Gorille en hypertexte a bien permis de mettre à plat les opérations cognitives et intellectuelles en œuvre lors de la lecture. Qu'est -ce que lire en effet, sinon construire, comme nous l'avons fait, un réseau de renvois internes et associer des passages à d'autres données ? « Lire un texte, c'est retrouver les gestes textiles qui lui ont donné son nom [… ]. C'est aussi [rapporter] le texte à d'autres textes, à d'autres discours, à des images, à des affects, à toute l'immense réserve fluctuante de désirs et de signes qui nous constitue » [LEV ]. L'objet de ce travail était de le démontrer théoriquement, de préciser le contexte sociologique de ce rapprochement entre une technologie intellectuelle et une activité mentale (évolution des pratiques de lecture/écriture) et d'établir, dans le cadre d'une certaine tradition de l'utilisation de l'informatique à l'école, qu'il était possible d'exploiter en classe cette analogie. Quant à savoir si les enfants ont développé, au cours de ce travail, des compétences relatives à la lecture de textes littéraires, il m'est difficile, sinon impossible, de répondre précisément à cette question. Ce qui comptait avant tout était de prouver la faisabilité de l'édition hypertextuelle d'un texte en classe et de délimiter les enjeux propres à ce genre d'activité. Mettre en place un dispositif évaluatif aurait nécessité de définir préalablement, et ce de façon précise, un référentiel de compétences, de telle sorte qu'il soit possible de comparer les données issues d'un test diagnostic établi en début d'année avec celles recueillies à la fin de l'expérience. Or, l'état d'avancée de mes recherches au moment de l'expérience ne m'aurait pas permis de fixer de manière suffisamment claire la liste des objectifs pédagogiques à atteindre. Le rôle par exemple que pouvait jouer l'hypertexte dans la levée des lieux d'indétermination du texte ne s'est révélé une préoccupation qu'en cours de projet, une fois confronté aux difficultés de compréhension des élèves. L'analyse de la nouvelle, d'autre part, n'avait pas encore son caractère définitif et aucune typologie de liens hypertextuels n'était disponible. Vérifier la portée cognitive de ce type de projet aurait nécessité de mettre en place, après avoir analysé en détail notre procédure et en avoir déduit les forces et les faiblesses, une seconde expérience intégrant les principes d'une évaluation. La lourdeur de la réalisation informatique a en revanche mis en évidence la nécessité de pouvoir disposer d'un logiciel qui facilite certaines opérations d'édition. Le système SEVE par exemple, qui a permis à Eric Bruillard de réaliser diverses applications dont LYRE, aide à la rédaction d'un commentaire composé, présente, entre autres, les caractéristiques suivantes : « un système hypertexte et un système de fenêtres, des ancres, visualisées par des surbrillances, pouvant être associées à des entités (mots ou groupes de mots) et des champs; des points de vue associés à l'hypertexte (attributs de liens), permettant de changer les explications et de transformer dynamiquement le document par la visualisation des ancres […] » [BRU 97, p. 260 ]. Qu'il soit possible de typer les liens est déjà un net progrès, car il faut dans le cas contraire – il en fut ainsi pour Le Gorille aux Floralies – attribuer une couleur à chaque hypermot, tâche relativement fastidieuse. Mais il reste le problème des points de vue. Créer des liens de différentes couleurs est une chose, faire en sorte qu'ils ne se superposent pas en est une autre. L'idée en effet n'est pas d'associer à une page-écran plusieurs points de vue 10 mais un seul. A l'heure actuelle, aucun logiciel, à ma connaissance tout du moins, ne propose cette fonctionnalité. La solution consiste alors à dupliquer le texte autant de fois qu'il existe de points de vue. C'est ainsi que le cédérom du Gorille, qui a priori se présente comme une succession de 33 pages-écran, en comprend en réalité environ 198 (soit 33 pages multipliées par le nombre d'entrées : comparaisons, contexte, intertexte, descriptions, lexique et discours indirect libre 11). Il faudrait également que l'insertion d'annotations et de commentaires soit simplifiée, qu'il ne soit pas nécessaire de définir les couleurs de fond, de fenêtre et de cadre et qu'un emplacement spécial à l'écran leur soit réservé. Il serait nécessaire en un mot d'automatiser les différentes tâches impliquées dans l'édition hypertextuelle d'un texte. Peut-être même ne faudrait-il pas s'en contenter. Si la mise au point d'un tel logiciel devait avoir lieu, pourquoi alors ne pas en profiter pour intégrer certaines fonctionnalités lexicométriques ? Cela complèterait avantageusement un dispositif de lecture déjà performant 12. Pour Alain Vuillemin en effet, une utilisation réellement créative de l'informatique consiste à lier fonctions hypertextuelles, recherche et gestion d'annotations [VUI 99 ]. Des dispositifs de ce type sont mis à la disposition des chercheurs à la Bibliothèque nationale de France. Véritables stations de travail sur PC, ces postes de lecture assistée par ordinateur (PLAO) sont équipés de toute une panoplie d'outils pour charger et héberger les textes sélectionnés, pour naviguer en mode image dans des textes qu'il est loisible de repérer, surligner, souligner, annoter, comparer grâce au multifenêtrage, et dont il est possible d'extraire des sous-corpus. Pourquoi ne pas adapter ces pratiques à l'école ? Il n'est bien sûr pas question qu'elles se substituent à celles en vigueur, ni non plus d'ailleurs qu'un dispositif électronique vienne remplacer les supports traditionnels de cours (quoique certains y aient déjà pensé 13), mais de mettre à la disposition des élèves un environnement d'apprentissage ouvert, riche et stimulant qui fasse évoluer leur rapport au texte littéraire et à la lecture. C'est dans ce cadre plus large que devrait en définitive s'insérer l'hypertexte lectoral si son usage devait se généraliser. Un tel dispositif d'aide à la lecture, qui prendrait place à côté de logiciels d'aide à l'écriture qui existent déjà en grand nombre, comme L'auteur en herbe, Gamme d'écriture, L'atelier d'écriture (CDE4) reconnu d'intérêt pédagogique par le MEN), ou encore GramR Junior dans le domaine de l'aide à la relecture/révision, serait le premier du genre. Si l'on écarte en effet les produits qui visent plus simplement à « développer le goût de la lecture » (Le Petit Prince de Jériko) et ceux dont le contenu tient essentiellement en des activités de soutien et de remédiation centrées sur la compréhension de l'écrit, concevoir un logiciel simple d'utilisation qui permette de manipuler des textes (interrogation, annotations, insertions de liens) et, qui plus est, offre la possibilité d'approcher la nature intime de la lecture et la spécificité littéraire témoigne d'une toute autre ambition. On quitte là le domaine de l'EIAO et des environnements interactifs (type LYRE ou Gamme d'écriture) pour celui de l'expérimentation et de l'exploration des connaissances .
Ce travail se situe à la croisée de trois grands domaines: l'informatique éducative, la didactique de la littérature et la lecture. L'informatique, et en particulier la technologie de l'hypertexte, permettent désormais, au travers de dispositifs de lecture électronique, d'appréhender les textes dans leur épaisseur intra, extra et intertextuelle. Après les théories de la réception, ces nouveaux environnements réaffirment à leur manière l'interactivité de la lecture. Lire n'est pas une activité linéaire mais donne lieu à de multiples actions sur le texte: comparaisons, rapprochements, annotations, etc. Transposée dans le champ de l'enseignement/apprentissage de la lecture littéraire, cette réflexion est le fondement d'une expérience visant à démontrer que l'édition hypertextuelle d'un texte en classe peut aider, mieux que tout autre moyen, à faire prendre conscience aux élèves de la nature intime de la lecture littéraire.
sciencesInfo_02-0447872_tei_DN_051_0181.tei.xml
termith-442-communication
A l'instar des autres pays développés, la France s'est dotée depuis quatre ans d'une législation sur la signature électronique 1. Cela a eu pour effet de priver le papier et la pellicule photographique des avantages comparatifs dont ils jouissaient, en termes de fiabilité juridique et de crédibilité à long terme, par rapport à tous les autres supports de l'information. Signature « traditionnelle » et signature électronique, en effet, se trouvent désormais placées sur un strict pied d'égalité quant à leurs effets juridiques. Mais cette équivalence est conditionnée, en ce qui concerne l'électronique, par l'accomplissement d'un certain nombre de formalités destinées à fournir les garanties que l'on a l'habitude d'obtenir presque « naturellement » de la signature manucrite apposée sur du papier : garantie que la personne à qui est attribuée la signature est bien celle qui a effectivement signé, garantie qu'elle a bien eu connaissance de la totalité du document qu'elle a signé, garantie surtout que le contenu du document n'a pas été altéré ou modifié depuis l'apposition de la signature. Même si les textes ne se prononcent pas explicitement sur ce point, il n'est pas douteux que la procédure envisagée pour fournir les garanties mentionnées plus haut repose entièrement sur le principe du certificat à clé publique (Caprioli, 2003; p. 130) et de la signature cryptographique : selon Jean-François Blanchette, « même les textes qui se réclament d'une approche “technologiquement neutre” – la directive européenne notamment – sont en fait hantés par la cryptographie » (Blanchette, 2001; p. 55). La conséquence logique de ce genre de prémisses est de rendre inévitable le recours à un tiers de confiance chargé d'assurer l'existence et la fiabilité des structures de gestion connues sous le nom d'infrastructures à clés publiques, alias PKI en anglais. On a donc assisté depuis peu à la naissance et au développement d'une nouvelle profession, avec ses sous-catégories (tiers archiveurs, tiers horodateurs, tiers certificateurs), ses organismes représentatifs et bien sûr son discours propre, prenant la forme de documents normatifs ou promotionnels. Aussi nouvelle et high tech qu'elle paraisse, cependant, cette profession a bien des points communs avec d'autres, beaucoup plus anciennes. Un guide publié il y a plusieurs années par deux associations représentatives décrivait en effet les fonctions du tiers archiveur comme étant « de recevoir, d'archiver et de restituer tous les éléments électroniques envoyés par ses clients » et détaillait ainsi ses obligations : « conserver l'intégralité des éléments électroniques reçus, [. ..] prendre toutes les dispositions pour assurer la sécurité de l'archivage des éléments électroniques qui lui ont été confiés, [. ..] n'adresser les éléments électroniques qu'aux seuls destinataires indiqués dans le contrat, sauf obligations légales, [. ..] restituer les éléments électroniques sous une forme convenue, [. ..] en fin de contrat ou en cas de cessation d'activité [. ..] mettre à la disposition du donneur d'ordre les éléments électroniques qui lui avaient été confiés [ou] détruire les éléments électroniques sur demande écrite du donneur d'ordre et fournir à celui -ci une attestation de destruction » (EDIFICAS, 2000; p. 34-35). Quiconque est un peu familier du métier d'archiviste tel qu'il s'exerce depuis des siècles aura reconnu là une parfaite description de son rôle et de ses fonctions : il suffirait de remplacer « éléments électroniques » par « documents » pour que la description ci-dessus s'applique mot à mot. La nouveauté, en l'occurrence, réside donc dans le matériau manipulé et dans les aspects techniques des solutions mises en œuvre, et non dans les besoins auxquels il va falloir répondre. Ainsi archivistes et tiers de confiance ne pourront sans doute pas longtemps s'ignorer mutuellement. A ce jour, certes, la lecture de la littérature professionnelle produite dans chacun des deux milieux 2 ne témoigne pas d'un grand intérêt pour ce qui se fait dans l'autre, ni d'une forte conscience de la proximité des deux métiers. Mais dans un monde où, comme l'écrit Michel Chabin, « la forme numérique est devenue la forme banalisée de la production comme de la diffusion, de l'échange et de la consultation des documents » (Chabin, 2000; p. 304), les deux communautés professionnelles seront forcément contraintes non seulement de tenir compte de l'existence de l'autre, mais encore de se positionner explicitement l'une par rapport à l'autre. Leurs interlocuteurs, en effet, et leurs « clients », potentiels ou réels, seront les mêmes et exprimeront des besoins analogues, sans se soucier de frontières théoriques dont ils ne soupçonneront peut-être même pas l'existence. Quels peuvent être, alors, les critères objectifs – c'est-à-dire distincts des ambitions et prises de position des membres des deux professions – susceptibles de permettre la délimitation des compétences respectives de l'archiviste et du tiers de confiance dans le domaine de la conservation de la production numérique ? Dans la mesure où cette question ne se pose que du fait d'une modification de la législation, il serait tentant, à première vue, d'attendre du droit qu'il nous donne des éléments de réponse. Mais cette piste, en fait, ne s'avère d'aucune utilité : la loi et ses textes d'application ne définissent que des procédures et ne prennent pas position, fût -ce de manière implicite, sur le statut et les compétences juridiques de ceux qui devront fournir les garanties exigées par ces textes. Il n'est notamment pas possible de déceler, dans le corpus législatif existant, une volonté de privilégier des professions encadrées par l'Etat, comme les officiers publics, ou un choix en faveur du secteur public au détriment du secteur marchand. De même – exception faite du cas des actes authentiques sous forme électronique, qui n'est pas tranché à ce jour – il n'est pas possible de discerner a priori, parmi l'ensemble à conserver, des documents ou des données qui, du fait de leur durée de conservation, devraient voir leur intégrité et leur crédibilité garanties spécifiquement par telle ou telle profession ou par tel ou tel organisme. La distinction classique, sur laquelle se fonde le métier d'archiviste, entre archives intermédiaires – qu'on garde à des fins juridiques ou pratiques pour une durée donnée – et archives définitives ou historiques – qu'on garde à titre de témoignage du passé sans limitation de durée – est donc ici totalement inopérante, d'autant plus que l'évolution des techniques l'a déjà en partie privée de sa raison d' être. Il est sans doute plus pertinent d'envisager la question sous l'angle économique puisqu'elle tire son origine d'une modification du droit civil qui était d'abord destinée, dans l'esprit de ses initiateurs, à rendre les échanges commerciaux plus simples et plus sûrs. La répartition des tâches et la fixation des ressorts de compétences, en effet, tiendront peut-être à l'expérience acquise par les différents acteurs du marché, expérience leur permettant de démontrer plus vite et de façon plus crédible leur capacité à conserver des éléments électroniques. Sur ce plan, les archivistes partent, semble -t-il, avec une longueur d'avance puisque toute leur culture professionnelle témoigne de cette capacité et qu'ils disposent déjà en partie des moyens, notamment intellectuels, et des infrastructures nécessaires. Mais ils ne sont pas seuls dans ce cas et cet avantage peut sans aucun doute être reconnu à d'autres métiers et à d'autres instances semblablement chargés de conserver à long terme et de façon crédible (les notaires, par exemple) ou de transmettre sans altération (les services postaux, par exemple) : ces métiers et ces instances sont déjà puissamment représentés dans les organismes réunissant les tiers de confiance. L'argument économique décisif devrait donc être plutôt la place plus ou moins grande tenue, au sein de l'océan numérique, par le document numérique revêtu d'une signature électronique certifiée. Si le recours à une telle procédure, avec tout ce qu'elle implique de lourdeur et de complexité pour le donneur d'ordre, était considéré par celui -ci comme un « produit de luxe », à employer uniquement et exclusivement pour les documents et informations particulièrement importantes et sensibles, on pourrait assister à un partage du monde numérique. La partie de la production documentaire jugée digne d'un tel traitement particulier serait confiée à des tiers de confiance spécialisés, sans doute en petit nombre eu égard aux investissements nécessaires et aux engagements à long terme qu'ils devraient prendre. Le commun de la production numérique serait du ressort, selon les circonstances, soit d'autres tiers de confiance visant le marché, plus facile d'accès, de tout ce qui ne nécessite qu'une signature « technique » et non « juridique » (Banque du document, 2003; § 4), c'est-à-dire essentiellement les factures électroniques et tout ce qui fait déjà l'objet d'une GED, soit des archivistes 3, auxquels on s'en remettrait pour sa transmission à la postérité exactement comme on le fait pour les documents sur papier ou sur d'autres supports traditionnels. La capacité de ces derniers à maintenir la crédibilité et l'intégrité des données et des documents numériques au fil du temps et à travers les mutations des infrastructures techniques ne courrait en effet pas grand risque d' être mise en doute, puisqu'ils sont déjà généralement reconnus comme des truchements fiables en ce qui concerne la documentation « classique ». Ils auraient juste à relever deux défis : être suffisamment visibles et respectés pour que producteurs et détenteurs de documents numériques songent à avoir recours à leurs services et se doter des moyens et des compétences permettant de conserver sous une forme toujours intelligible les myriades d'octets confiés à leur garde. La tâche, certes, ne serait pas facile, mais elle ressemble trait pour trait à celle qui est la leur depuis plusieurs décennies et l'on peut donc présumer que leur culture professionnelle les mettrait à même de l'accomplir. Si, au contraire, les donneurs d'ordre pensaient indispensable de munir toute leur production numérique des marques de validation et d'authentification définies par la loi et, si l'on peut dire, de disposer ainsi d'une « assurance tous risques », on entrerait alors dans un monde entièrement nouveau : les tiers de confiance seraient face à un marché d'une toute autre ampleur qui leur permettrait de considérables économies d'échelles et leur offrirait de belles perspectives de rentabilité. Les effectifs de leur profession s'étofferaient sensiblement et leurs capacités en termes de promotion de leur activité et de marketing seraient décuplées, situation qui ressemblerait, toutes proportions gardées, à ce que l'on a connu lors des premières années de l'internet jusqu' à l'éclatement de la fameuse « bulle ». Dans un premier temps, le rapport de forces serait ainsi nettement défavorable aux professionnels de la conservation, qui cumuleraient plusieurs handicaps : image de spécialistes des supports classiques et en particulier du papier, ressources déjà en grande partie affectées à d'autres fonctions que la seule pérennisation des documents et des informations, discours plus culturel que gestionnaire et apparemment plus soucieux de conserver des sources que des preuves. Les tiers de confiance, à l'inverse, n'auraient pas de difficulté à se présenter comme naturellement compétents dans un domaine aussi nouveau et high tech qu'eux -mêmes. Mais ils risquent de découvrir aussi – toujours dans l'hypothèse de l' « assurance tous risques » – que l'archivage est différent de la sauvegarde et du stockage (Pascon et al., 2000; p. 23-24) et qu'il est autrement plus complexe, puisqu'il ne consiste pas seulement à préserver des coups du sort, ni même à pallier les conséquences des mutations technologiques sur la lisibilité, mais à maintenir et à consolider la fiabilité et la crédibilité. C'est là, d'ailleurs, que les prémisses cryptographiques que nous mentionnions au début du présent article pourront être à l'origine d'une intéressante ruse de l'histoire : la solution la plus communément admise pour permettre aux documents numériques de passer d'une configuration technique à une autre est en effet la migration, mais celle -ci est par nature incompatible avec les procédés mathématiques qui sont à la base de la signature cryptographique (Blanchette, 2001; p. 48) (Direction des archives de France, 2002; p. 41); en d'autres termes, ce qui est signé par ce procédé n'offre les garanties exigées par la loi qu' à la condition et pour aussi longtemps qu'aucune modification n'est apportée aux logiciels, formats, langages, systèmes d'exploitation ayant concouru à l'authentification de la signature. Toute migration, même si elle n'entraîne pas de modification de l'information, a pour effet de fragiliser l'architecture qui sous-tend la solution de la cryptographie et peut susciter à terme un doute sur la véracité et l'authenticité des documents concernés. On peut donc imaginer que, confrontés simultanément à la nécessité technique d'opérer la migration des données et documents dont ils auront la charge et à l'obligation juridique d'en maintenir l'authenticité acquise par la signature cryptographique, les tiers de confiance poussent d'abord le système jusqu'au bout de sa logique interne, c'est-à-dire jusqu' à opérer, lors de chaque migration, ce que l'on appelle une resignature (Blanchette, 2001; p. 49) : ce procédé consiste, pour le tiers archiveur qui a opéré une migration, à faire certifier par un autre tiers que rien dans les données et documents concernés n'a été altéré ni modifié lors de cette opération, ce qui permet de continuer à fournir au donneur d'ordre initial les mêmes garanties légales que celles qui lui ont été données à l'origine. Mais cette manœuvre, qui ressemble curieusement à ce que le Moyen Age connaissait sous le nom de vidimus, apparaîtra très vite à tous les intéressés pour ce qu'elle est : une solution de plus en plus difficile à mettre en œuvre au fil du temps et des migrations successives et qui s'avérera de surcroît soit coûteuse pour les tiers de confiance s'ils en assument les frais, soit dissuasive pour leurs clients si le prix des resignatures futures est inclus dans le contrat initial. Dans un cas comme dans l'autre, le modèle économique risque alors de s'avérer moins rentable que prévu. Ainsi, même dans l'hypothèse extrême où toute production numérique serait munie à l'origine d'une signature électronique au sens de la loi, il est probable qu'en quelques années une décantation s'opérera. Les donneurs d'ordre devront en effet se résigner à ce qu'une partie de ce qu'ils auront confié aux tiers de confiance se voit, à plus ou moins long terme, privé de la garantie donnée par la signature électronique. On se retrouvera alors dans une situation ressemblant beaucoup au partage du monde évoqué plus haut : une toute petite partie des documents numériques sera munie d'une signature électronique maintenue intacte contre vents et marées technologiques tandis que le reste verra sa crédibilité décroître à la première migration pour n' être plus fondée, à terme, que sur la présomption de sérieux et d'impartialité des organismes et institutions chargés de son archivage (Direction des archives de France, 2002; p. 42). Les professionnels de la conservation se retrouveront alors sur un pied d'égalité avec les tiers de confiance et la répartition des tâches entre les uns et les autres sera fonction de leur réputation respective auprès de ceux qui auront des documents numériques à pérenniser. Les deux cas de figure que nous avons envisagés – le « produit de luxe » et l' « assurance tous risques » – ont en fait bien peu de chances de se concrétiser de façon aussi contrastée et il est probable que l'on verra surtout tout une gamme de situations intermédiaires selon les circonstances et les milieux professionnels concernés. Mais elles auront toutes en commun de confirmer le caractère incontournable de plusieurs règles fondamentales de la gestion du numérique. La première est que la technologie seule ne peut suffire à fournir les garanties et assurances attendues et que c'est sa combinaison avec des procédures pertinentes qui peut emporter à la longue la conviction des producteurs et détenteurs de documents (Pascon et al., 2000; p. XV). La seconde, qui découle de la précédente, est que ni les techniques, ni le droit positif ne peuvent, en eux -mêmes, provoquer un passage total du monde du papier au monde des octets et un remplacement généralisé du premier par les seconds : ce sera affaire d'évolution des mœurs et des habitudes (Cantéro, 2003) et chacun sait combien de tels changements sont lents. Dans un contexte ainsi délimité, quels pourront être finalement les rapports entre tiers de confiance et professionnels de la conservation ? Même s'il est toujours hasardeux de prétendre prévoir les choix d'une population ou d'un groupe donné en se fondant sur ses seuls intérêts et sans prendre en compte d'autres éléments moins rationnels, on prendra ici le risque de faire l'hypothèse d'une convergence nécessaire des deux métiers qui, certes, ne se confondront pas, mais se trouveront très souvent amenés à coopérer. Pour les tiers de confiance, d'une part, la demande solvable aura de fortes chances d'émaner d'organismes – services publics, officiers ministériels, entreprises, etc. – déjà dotés d'une organisation rationnelle et formalisée de leurs archives, voire de procédures de Records Management, et ils ne pourront accomplir leurs tâches qu'en tenant compte de cette organisation et en lien avec ceux qui en sont responsables. Les professionnels de la conservation, d'autre part, ne pourront se désintéresser du devenir de la masse sans cesse croissante de la production numérique et leur engagement nécessaire dans sa pérennisation les amènera à passer de la conservation passive à la préservation active (Chabin, 2001; p. 33), (Girard, 2001; p. 40) : ce retour aux origines de leurs métiers 4 les chargera d'une responsabilité guère différente de celle de certains tiers de confiance. Reste à espérer que cette proximité matérielle et opérationnelle se traduira par une véritable collaboration intellectuelle et que la question posée dans le titre du présent article trouvera une réponse, affirmative ou négative, n'impliquant la marginalisation d'aucun des milieux professionnels concernés .
La nouvelle législation sur la signature électronique a favorisé la naissance d'une nouvelle profession : les tiers de confiance. Ce que ces derniers disent d'eux-mêmes et de leur rôle a beaucoup de points communs avec les compétences et les missions des archivistes et l'on peut donc se demander comment s'opérera la répartition des rôles entre les uns et les autres au fur et à mesure que se développera la production de documents sous une forme exclusivement numérique. L'état actuel du droit ne permet pas de trancher, mais l'économie et la sociologie fournissent en revanche des pistes intéressantes : le succès ou l'échec du modèle économique adopté par les tiers de confiance sera un élément décisif, mais l'évolution des mentalités au sein des deux communautés professionnelles comptera ensuite beaucoup.
sciencesInfo_05-0035974_tei_DN_082_0117.tei.xml
termith-443-communication
CETTE ETUDE EST LE TEXTE DEVELOPPE et complété d'une communication 1 présentée le 16 novembre 2006, à l'occasion de la journée d'étude « Abonnements et abonnements électroniques : état des lieux et bonnes pratiques », organisée conjointement par l'ADBS, l'ADBU, la FNPS, le GFII, le SNIEL, le RNDH et le GIP Ascodocpsy, et dont un compte rendu est proposé dans ce numéro 2. Le fil conducteur de cette journée était la gestion des relations commerciales entre les créateurs, les fournisseurs et les acheteurs et utilisateurs d'information, essentiellement les centres de documentation des entreprises et des administrations. Le thème de notre intervention constituait ainsi une ouverture non seulement vers le monde des bibliothèques mais également vers les réalités non françaises. Afin de traiter le mieux possible ce sujet vaste et complexe, nous avions choisi de nous concentrer sur le domaine de l'enseignement supérieur et de la recherche, et n'avions pas traité de la place des ressources électroniques dans les bibliothèques publiques. Dans les pages qui suivent, l'expression « ressources électroniques » désignera des objets scientifiques (bases de données, revues et livres électroniques scientifiques); elle ne désignera ni la presse quotidienne sous forme électronique, ni les ressources électroniques « à vocation culturelle », comme les ouvrages ou images numérisées n'ayant pas de fond scientifique. De même, une démarche problématisée nous a semblé nécessaire. Depuis leur apparition, les ressources électroniques ont amené les bibliothèques à développer de nouveaux outils afin de permettre à leurs publics d'y accéder, mais également à collaborer davantage entre elles. Aujourd'hui, la question des ressources électroniques dépasse le simple cadre des bibliothèques : elle interroge directement les politiques nationales de recherche et, par voie de fait, les marchés de la diffusion de la production scientifique. Notre propos tentera d'éclairer cette évolution, à partir d'exemples choisis hors de France. Pour une bibliothèque, une ressource électronique est, comme toute ressource documentaire, un support d'information auquel ses lecteurs doivent accéder dans les meilleures conditions possibles. Le fait que les fichiers informatiques de ces ressources soient stockés sur les serveurs des fournisseurs (éditeurs et autres prestataires) ou sur ceux des bibliothèques a ici des conséquences d'ordre technologique sur les outils mis en place par les bibliothèques pour y donner accès. Cela ne semble cependant pas avoir d'incidence fondamentale sur les choix stratégiques de ces dernières, comme l'indique un rapide panorama des différents types d'outils rencontrés dans les bibliothèques européennes. La solution la plus courante est celle du portail, institutionnel ou collectif, par lequel sont rendues accessibles les ressources électroniques acquises par une bibliothèque (individuellement ou collectivement). Aujourd'hui, la quasi-totalité des bibliothèques européennes est informatisée et dispose d'un portail institutionnel où, comme toutes les autres ressources documentaires, ces ressources électroniques sont accessibles soit par le catalogue général de la bibliothèque, soit par des sous-catalogues spécifiques. Il n'est sans doute pas nécessaire de développer plus longuement ce point. En parallèle existent dans certains pays des outils collectifs créés et maintenus par des groupements ou des associations de bibliothèques. Ainsi, les réseaux mis en place dans les années 60-70 afin de mutualiser les tâches de catalogage ont pu élargir leurs missions, et bâtir leurs propres portails documentaires à partir desquels les lecteurs ont accès à l'ensemble des ressources, y compris électroniques, des bibliothèques du réseau. C'est le cas, par exemple, du Gemeinsamer Bibliotheksverbund * (GBV) en Allemagne du Nord. Une autre possibilité est celle de portails documentaires réalisés par les consortiums de bibliothèques eux -mêmes, pour donner accès aux ressources dont elles ont négocié en commun l'acquisition. On peut en citer deux exemples : celui du consortium britannique NoWAL * (Northwest Academic Libraries Consortium), qui regroupe des bibliothèques universitaires de la région de Manchester, et le consortium russe Neicon *, auquel participent cent dix institutions de tout le pays et qui bénéficie de financements du ministère de l'Enseignement supérieur et de l'Institut russe de l'information scientifique et technique. Si NoWAL et Neicon ne sont pas des portails à vocation nationale, la Finlande dispose, avec la National Electronic Library, d'un point d'accès national aux banques de données et revues électroniques achetées par le consortium national FinELib *. Il en va de même pour l'Islande, avec le portail Hvar * du consortium national pour les abonnements électroniques, qui donne accès à 7.500 revues en texte intégral et à plus d'une trentaine de bases de données. Il faut noter que le public potentiel de Hvar est l'ensemble de la population islandaise, les licences ayant été spécifiquement négociées en ce sens avec les fournisseurs. À côté de ces portails existent également des catalogues collectifs nationaux dédiés aux ressources électroniques. Ainsi, le catalogue britannique SUNCAT * donne accès aux collections de périodiques (imprimés et électroniques) de plus de cinquante bibliothèques. En Allemagne, l'Elektronische Zeitschriftenbibliothek * (EZB) ou « bibliothèque électronique de revues », élaborée sur financement de la Deutsche Forschungsgemeinschaft * (DFG – Fondation allemande pour la recherche), est le point d'entrée national aux collections de revues numériques, qui tient compte des droits d'accès négociés par chacun des établissements participants. Le pendant de l'EZB pour les bases de données est le portail DBIS * (Datenbank Infosystem), auquel participent 112 bibliothèques allemandes partenaires et qui, comme l'EZB, est maintenu par la bibliothèque de l'Université de Regensburg. Nous nous sommes ensuite interrogé sur l'existence éventuelle d'outils disciplinaires et non généralistes, comme ceux présentés ci-dessus, qui seraient liés à des politiques de coordination documentaire nationale. Le premier élément à déterminer ici était de savoir dans quels pays européens il existe une forme de coopération documentaire nationale, analogue au système des CADIST 3 en France. En réalité, ce cas de figure semble très rare. Nous n'avons trouvé d'exemples qu'en Suède, aux Pays-Bas pour le domaine des sciences humaines et sociales, et surtout en Allemagne. En Suède existe le système BIBSAM *, piloté par le Département de la coordination et du développement national de la bibliothèque royale. BIBSAM fonctionne sur un réseau de huit National Expert Libraries, qui sont les principales bibliothèques universitaires du pays, suivant une logique disciplinaire. BIBSAM ne dispose pas de portail internet spécifique; l'accès aux ressources est donné via les portails institutionnels des huit bibliothèques du réseau. L'exemple allemand est le plus instructif, le plus ancien mais aussi le plus remarquable. Depuis 1949 la DFG finance le programme des Sondersammelgebietsbibliotheken (SSG), littéralement « bibliothèques aux domaines d'acquisition spécialisés ». La mission historique de ces SSG est d'acquérir de la littérature dans leurs domaines disciplinaires de compétence et d'alimenter le réseau national via le prêt entre bibliothèques. Depuis quelques années, une nouvelle mission leur a été confiée, celle d'élaborer des portails thématiques, nommés Virtuelle Fachbibliotheken (ViFas), littéralement « bibliothèques virtuelles spécialisées ». On en compte à l'heure actuelle environ trente-cinq : cependant, ces portails fédérateurs permettent uniquement d'interroger d'autres portails; ils ne proposent donc pas eux -mêmes d'accès direct à des ressources documentaires. L'ensemble des ViFas est interrogeable via un méta-portail fédérateur, dénommé Vascoda *. Malgré ces exemples, l'existence au niveau national d'une véritable politique de coordination documentaire reste l'exception. Il semblerait donc que le développement des ressources électroniques n'ait généralement pas contribué à l'émergence d'une forme de coordination scientifique entre les bibliothèques d'un même pays, ni au moment de l'acquisition, ni au moment de la définition des modes d'accès à ces ressources. Au lieu d'une solution fédératrice que cette coordination documentaire et scientifique aurait entraîné, une solution centralisatrice semble à l'inverse avoir été privilégiée dans un certain nombre de pays. En effet, on constate ces dernières années l'apparition de portails documentaires nationaux dénommés « bibliothèques nationales numériques ». En Russie, le ministère de l'Enseignement supérieur, en collaboration avec la Fondation russe pour la recherche, le Comité national pour les ressources scientifiques russes et le consortium Neicon * déjà cité, a ouvert une bibliothèque numérique scientifique nationale, dénommée e-Library *. L'exemple le plus connu de bibliothèque nationale numérique vient cependant du Danemark, où la bibliothèque royale est responsable depuis plusieurs années de l'Electronic Research Library * (DEFF), souvent citée en modèle au niveau international. On retrouve des bibliothèques numériques nationales pour la recherche, ou leur équivalent, en Irlande, en Finlande, en Lituanie… À l'heure où il est beaucoup question de la bibliothèque numérique européenne, il est nécessaire de s'interroger sur la place qu'y occuperont les ressources électroniques scientifiques. En réalité, parallèlement au projet de BNUE – désormais dénommée Europeana – mené par la Bibliothèque nationale de France, la Commission européenne soutient le développement de The European Library * (TEL), portail fédérateur des bibliothèques nationales européennes : c'est TEL qui, autant que l'on puisse en juger de l'extérieur, constitue pour la Commission la vraie bibliothèque numérique européenne. TEL permet d'interroger les catalogues nationaux, ainsi que, essentiellement, les contenus numérisés par les bibliothèques nationales, dont ceux de la BnF. De fait, TEL ne prend pas en compte les initiatives et ressources numériques des établissements d'enseignement supérieur et de recherche. Si la stratégie « i2010 : Bibliothèques numériques * » de la Commission européenne 4 comporte à la fois une dimension culturelle et une dimension scientifique, seule la première, annoncée fin 2005, s'incarne à notre sens dans le portail TEL. Quant à la dimension scientifique, pour laquelle une annonce officielle était prévue fin 2006, la communication que la Commission européenne a effectuée à l'occasion de la conférence sur le marché des publications scientifiques à Bruxelles les 15 et 16 février 2007 5, n'a pas à notre connaissance initié le développement d'un portail européen exclusivement dédié aux contenus scientifiques. Nous dirigeons -nous donc aujourd'hui vers des bibliothèques nationales numériques pour la recherche, sur le modèle danois ? En Angleterre, un rapport du Research Support Libraries Group (RSLG) préconisait en 2003 la création d'une telle bibliothèque nationale numérique pour la recherche [4 ]. En Finlande, FinELib * n'est pas seulement le nom du consortium national : c'est également celui de la bibliothèque numérique nationale pour la recherche, qui est un service de la bibliothèque nationale. Un tel processus poserait naturellement la question de l'articulation entre les missions nationales d'une telle bibliothèque nationale pour la recherche et la visibilité des universités et institutions de recherche. Avec leur émergence dans les années quatre-vingt-dix, puis leur place constamment grandissante dans les politiques documentaires des établissements d'enseignement supérieur, le poids budgétaire que représentent les ressources électroniques pour les bibliothèques est rapidement devenu un problème majeur. Afin de pouvoir négocier les tarifs avec les fournisseurs de ces ressources, les bibliothèques, dans la plupart des pays d'Europe, se sont constituées en consortiums. D'après une estimation issue des listes maintenues par l'ICOLC * (International Coalition of Library Consortia) et eIFL * (Electronic Information for Libraries), il en existe aujourd'hui entre 60 et 80 en Europe. Plusieurs études ont ces dernières années essayé de définir des typologies de consortiums. Ainsi par exemple, une analyse conduite en 2002 [5] a distingué un type national centralisé (dans les pays nordiques, comme FinELib * en Finlande), un type national décentralisé (comme en Belgique, qui dispose de consortiums francophone et flamand) et un type régional (comme en Espagne, où coexistent les consortiums des bibliothèques de recherche de Catalogne, de Galice, de Madrid, etc.). Ces différents types de consortiums coexistent parfois dans le même pays : ainsi au Royaume-Uni où le JISC * (Joint Information Systems Committee), aux missions nationales, côtoie des consortiums régionaux comme le NoWAL *, déjà cité. Cette typologie fondée sur la dimension géographique n'est que le résultat d'une analyse parmi d'autres, et d'autres études (en Inde par exemple) ont pu parvenir à des typologies différentes (suivant les missions, les disciplines, l'organisation, etc.). Il existe également des structures transnationales, qui n'ont pas de missions de négociation à proprement parler, mais sont davantage des lieux d'échanges, de rencontres entre consortiums de différents pays. C'est le cas de GASCO *, forum de discussion entre les consortiums d'Allemagne, d'Autriche et de Suisse alémanique; de la coalition internationale des consortiums de bibliothèques ICOLC *, qui organise des colloques annuels en Amérique du Nord et en Europe; ou encore de l'organisation internationale eIFL *. Fondée en 1999, « eIFL.net est une fondation indépendante visant à mener, négocier, soutenir et défendre la large mise a disposition de ressources électroniques par les utilisateurs au sein des bibliothèques dans les pays en transition ainsi que dans les pays en voie de développement. Son principal objectif est de négocier des abonnements abordables sur une base consortiale multinationale, tout en œuvrant pour améliorer l'émergence de consortiums nationaux de bibliothèques dans les pays membres ». Vingt pays européens 6 sont aujourd'hui concernés par l'action d'eIFL. Il existe désormais des consortiums de bibliothèques dans tous ces pays, qui peuvent donc donner à leurs chercheurs et étudiants accès aux mêmes ressources que dans les pays d'Europe de l'Ouest. L'évolution des consortiums depuis leur apparition a -t-elle changé leurs missions ? Fondamentalement, la raison d' être de ces structures – faire poids dans les négociations – n'a pas été modifiée. Elles se sont cependant consolidées, et ont progressivement évolué en un véritable lieu d'échanges de compétences et d'expertise : compétences en matière de négociation, d'expertise juridique sur les licences, scientifique et disciplinaire sur les contenus, etc., mais aussi en un lieu de coordination politique, par exemple sur le développement des collections, l'acquisition des archives ou la conservation partagée. On retrouve cette évolution dans certains pays sous la forme d'une intervention de plus en plus grande des pouvoirs publics dans la négociation de l'achat des ressources électroniques pour l'enseignement supérieur et la recherche, cette question étant devenue véritablement stratégique depuis quelques années. En Allemagne, la DFG * dispose depuis 2004, dans le cadre du programme national de coordination documentaire (SSG), d'une mission de financement de licences nationales pour l'acquisition de ressources électroniques. La DFG finance ainsi six bibliothèques d'importance nationale, afin que celles -ci négocient ces licences pour l'Allemagne : les institutions d'enseignement supérieur et de recherche, naturellement, mais aussi l'ensemble de la population allemande. Ainsi, en août 2005, 21,5 millions d'euros ont été consacrés à l'achat de licences nationales, notamment pour les archives des revues électroniques des Oxford University Press, d'Elsevier, de Springer, des archives de la Société américaine de chimie, etc., ainsi que pour des banques de données de revues scientifiques chinoises et ouvrages chinois numérisés. Au Royaume-Uni, le JISC, organisme subventionné par les organismes de financement de l'enseignement supérieur en Angleterre, Pays de Galles et Écosse, a une mission de négociation pour l'achat de ressources électroniques à destination des institutions d'enseignement supérieur et de recherche au Royaume-Uni, via son département JISC Collections *. Celui -ci mène notamment le programme NESLI2 * (National e-Journals Initiative) qui concerne les revues électroniques, et dans le cadre duquel a été élaborée une licence type pour toutes les revues acquises par son intermédiaire. Il dispose également de groupes de travail pour les livres électroniques, pour les images, pour le multimedia, pour les documents pédagogiques. Un des objectifs de JISC Collections est d'établir une collection building strategy, c'est-à-dire une « stratégie de constitution de collection », qui traduit la volonté de se doter d'une véritable politique de coordination documentaire au niveau national 7. Il faut noter que la négociation de l'acquisition de ressources électroniques pour l'enseignement supérieur et la recherche n'est pas la seule mission de JISC. Celui -ci finance également des programmes liés à la numérisation, à la préservation des ressources électroniques et à l'archivage des données numériques, au développement de répertoires institutionnels, de structures d'enseignement à distance, et il est responsable du maintien du réseau informatique de l'enseignement supérieur britannique (JANET *). L'action du JISC est complétée depuis 2005 par celle du Research Information Network *. Fondé à la suite des conclusions du rapport RSLG de 2003 cité précédemment [4 ], le RIN a pour mission de mettre en place une infrastructure nationale pour la provision d'informations pour la recherche. Il établit des stratégies nationales pour la documentation et l'information pour l'enseignement supérieur et la recherche, fait du lobbying auprès des gouvernements britanniques en matière d'accès aux résultats de la recherche publique, et mène certains projets de coordination comme, par exemple, celui d'un établissement chargé de la conservation partagée des collections documentaires des universités britanniques. De manière significative, les trois bibliothèques nationales d'Angleterre, d' Écosse et du Pays de Galle siègent au sein du RIN. Une structure comparable à JISC existe également aux Pays-Bas. SURF * est une fondation créée en 1987 pour développer l'infrastructure informatique du réseau des établissements d'enseignement supérieur et de recherche aux Pays-Bas. Par l'intermédiaire de son service Surfdiesnsten *, elle négocie l'achat de licences pour des logiciels informatiques mais aussi pour les ressources électroniques. Depuis peu, ces diverses agences coopèrent : l'allemande DFG, le néerlandais SURF, le britannique JISC et la danoise DEFF mènent ensemble un programme nommé Knowledge Exchange * où, comme son nom l'indique, elles échangent informations, réflexions et expertise sur divers sujets tels que les licences d'acquisition de ressources électroniques, les répertoires institutionnels, la conservation des données numériques, le droit d'auteur et la propriété intellectuelle. Elles réfléchissent notamment à l'établissement de modèles de licences et de contrats entre auteurs et éditeurs. Fonctionnant depuis quelques mois, ce petit groupe souhaite s'ouvrir, à moyen terme, à d'autres partenaires européens… L'une des questions brûlantes à l'heure actuelle, pour toutes ces structures comme pour les bibliothèques elles -mêmes, est celle de la préservation des ressources et des données. Il faut distinguer ici deux dimensions : l'archivage des ressources électroniques et la préservation des données numériques. La conservation des ressources documentaires est l'une des missions essentielles des bibliothèques. Une étude américaine publiée en septembre 2006 [2] compare douze projets internationaux d'archivage de ressources électroniques. Commanditée par le Council on Libraries and Information Resources 8, elle montre que la conservation des ressources électroniques est un élément extrêmement important pour les bibliothèques, et que celles -ci sont très attentives à la manière dont les éditeurs prévoient d'assurer la pérennité de l'accès aux archives de leurs ressources. Cette étude mentionne notamment trois types de solutions. Le premier consiste en une négociation directe entre les bibliothèques et les éditeurs. Le précurseur a ici été la Bibliothèque royale des Pays-Bas, qui a conçu dès 1996 un entrepôt – nommé e-Depot * – pour archiver les ressources électroniques néerlandaises. Aujourd'hui, et notamment devant la difficulté de définir la « nationalité » d'une ressource électronique, la Bibliothèque royale a signé des accords avec neuf importants éditeurs scientifiques 9 pour assurer la préservation de leurs archives. Au Royaume-Uni, la British Library a récemment adopté la même solution en créant, en partenariat avec d'autres bibliothèques de recherche, le UK PubMed Central *, pour la préservation des archives des revues médicales. Le deuxième type de solution correspond au programme LOCKSS *, pour « Lots of Copies Keep Stuff Safe », que l'on pourrait traduire par « de nombreuses copies permettent de conserver les ressources en toute sécurité ». Lancé aux États-Unis, il repose sur l'idée que plus une même ressource sera conservée en de nombreux exemplaires par diverses institutions, plus sa préservation sera garantie. Le programme LOCKSS se traduit ainsi par la réalisation d'outils informatiques destinés à être adaptés par les institutions partenaires afin de les aider à préserver les ressources pour lesquelles elles ont acquis des licences. On compte actuellement cinquante bibliothèques partenaires en Europe, dont vingt-neuf au Royaume-Uni. Dans ce pays a même été lancé un programme complémentaire nommé LOCKSS UK *, piloté par JISC, et destiné à coordonner les tâches de préservation des ressources entre les différentes institutions d'enseignement supérieur britanniques. Le troisième et dernier type de solution correspond au programme américain Portico *. Initié conjointement par la bibliothèque du Congrès, la fondation Andrew Mellon et JSTOR *, ce programme s'adresse aux éditeurs et aux bibliothèques à qui il propose, moyennant finances, d'assurer l'archivage de leurs ressources électroniques tout en y garantissant un accès à long terme. Portico est relativement récent, mais il semble avoir déjà été adopté par de nombreuses bibliothèques en Grèce, ainsi que quelques-unes au Royaume-Uni. La question de l'archivage des ressources électroniques possède une dimension éditoriale certaine : les archives sont-elles un service des éditeurs, pour lequel ceux -ci apportent une plus-value réelle qu'ils sont fondés à facturer aux établissements ou, à l'inverse, l'accès aux archives est-il un droit pour les bibliothèques qui ont acquis la ressource électronique « courante » ? En réalité, la distinction doit être faite entre l'achat de la ressource à proprement parler et l'achat du droit d'accès à la ressource. Lorsqu'une bibliothèque négocie une licence, elle peut négocier soit l'acquisition de la ressource, soit l'accès à la ressource, qu'elle peut perdre lorsque la licence vient à expirer ou n'est pas reconduite (c'est la notion de trigger events, ou événements venant mettre un terme au droit d'accès à la ressource). En parallèle surgit le concept de dépôt légal, la plupart des pays européens s'étant dotés, ou étant en voie de le faire, d'une législation sur le dépôt légal des ressources électroniques. Le rôle central des bibliothèques nationales est ici posé car l'archivage et la préservation à long terme des documents sont bien les missions principales des bibliothèques nationales. Se pose ainsi la problématique des fins de l'archivage, à savoir l'opposition entre l'archivage pour la seule préservation des ressources, sans communication de celles -ci (dark archives), et l'archivage pour des fins de préservation et de communication (light archives). Cette problématique est au cœur des réflexions actuelles des bibliothèques européennes comme de celles des éditeurs. Le sort fait aux archives électroniques devient un élément de plus en plus crucial dans les processus de négociation entre éditeurs et consortiums de bibliothèques ou agences nationales de négociation. La seconde dimension est celle de la préservation des données numériques. Les aspects technologiques sont ici centraux, car il s'agit d'empêcher la perte de données qui, par voie de fait, entraînerait la disparition de l'information. Les questions de l'évolution des supports de lecture de l'information numérique, ainsi que des dispositifs de DRM, sont au cœur de cette problématique. Un certain nombre de pays ont ainsi lancé des programmes nationaux touchant à la préservation des données numériques, que l'on peut désigner également sous le concept d'archivage pérenne. Une récente monographie publiée par l'IFLA fait le point sur les pratiques d'archivage des bibliothèques nationales de quinze pays [<hi rend="italic">6</hi> ]. Les exemples suisse, allemand et britannique sont intéressants à mentionner. Lancé en 2001, le programme suisse e-Helvetica *, a pour but « de créer les conditions permettant de collecter, d'inventorier, de mettre à disposition et de conserver à long terme les Helvetica sous forme électronique et de développer un système d'archivage pour les publications électroniques ». e-Helvetica repose essentiellement sur la bibliothèque nationale, et a une double dimension : « La sauvegarde de l'information en tant que telle, d'une part; [celle d] es supports de données et [de] l'environnement informatique, de l'autre 10. » Prévu pour s'achever en 2008, le programme e-Helvetica s'appuie sur les expériences menées dans les autres pays sur cette question, et en premier lieu en Allemagne. L'exemple allemand se décompose en deux projets distincts et complémentaires, Nestor * et Kopal *, financés tous les deux par la Deutsche Forschungsgemeinschaft * (DFG). Nestor est un programme d'échanges de compétences et d'expertises dans le domaine de l'archivage pérenne; il organise des conférences et fait paraître des publications. Kopal assure en parallèle des développements technologiques, et est chargé de la mise en place d'un centre d'hébergement et d'archivage pérenne des données numériques. Bibliothèques électroniques, portails, catalogues et organismes cités BIBSAM – Royal Library's Department for National Coordination and Development (Suède) : www. kb. se/ bibsam/ CASPAR – Cultural, Artistic and Scientific knowledge for Preservation, Access and Retrieval (Europe) : www. casparpreserves. eu/ DBIS - Datenbank Infosystem (Allemagne) : www. bibliothek. uni-regensburg. de/ dbinfo/ DCC - Digital Curation Centre (Royaume-Uni) : www. dcc. ac. uk/ DEFF - Denmark's Electronic Research Library : www. deff. dk/ default. aspx ? lang= english DFG - Deutsche Forschungsgemeinschaft : www. dfg. de Digital Preservation Europe : www. digitalpreservationeurope. eu/ Digizeitschriften (Allemagne) : www. digizeitschriften. de/ e-Depot (Pays-Bas) : www. kb. nl/ dnp/ e-depot/ dm/ uitgevers -en. html e-Helvetica - Collection et archivage des publications électroniques : www. nb. admin. ch/ slb/ slb_professionnel/ projektarbeit/ 00719/ index. html ? lang= fr e-Library (Russie) : www. elibrary. ru/ defaultx. asp eIFL - Electronic Information for Libraries (international) : www. eifl. net/ EZB - Elektronische Zeitschriftenbibliothek (Allemagne) : http:// rzblx1. uni-regensburg. de/ ezeit/ FinELib, consortium national et bibliothèque numérique nationale pour la recherche (Finlande) : www. lib. helsinki. fi/ finelib/ english/ index. html GASCO - German, Austrian and Swiss Consortia Organisation : www. hbz-nrw. de/ angebote/ digitale_inhalte/ gasco/ GBV - Gemeinsamer Bibliotheksverbund (Allemagne) : www. gbv. de/ Hvar - Icelandic countrywide access portal to electronic databases and e-journals : www. hvar. is/ sida. php ? id= 5 i2010 : Bibliothèques numériques : http:// europa. eu/ scadplus/ leg/ fr/ lvb/ l24226i. htm ICOLC - International Coalition of Library Consortia : www. library. yale. edu/ consortia/ JANET - Joint Academic NETwork (Royaume-Uni) : www. jisc. ac. uk/ whatwedo/ services/ as_janet. aspx JISC – Joint Information Systems Committee (Royaume-Uni) : www. jisc. ac. uk/ JISC Collections (Royaume-Uni) : www. jisc-collections. ac. uk/ JSTOR - The Scholarly Journal Archive (Royaume-Uni) : www. jstor. org/ Knowledge Exchange : www. knowledge-exchange. info Kopal - Kooperativer Aufbau einer Langzeitarchivs digitaler Informationen (Allemagne) : http:// kopal. langzeitarchivierung. de/ LOCKSS - Lots of Copies Keep Stuff Safe (États-Unis) : www. lockss. org/ LOCKSS UK : www. jisc. ac. uk/ whatwedo/ programmes/ programme_preservation/ programme_lockss. aspx Neicon (Russie) : www. neicon. ru NESLI2 - National e-Journals Initiative (Royaume-Uni) : www. nesli2. ac. uk/ offers. htm Nestor - Network of Expertise in Long-Term Storage of Digital Resources (Allemagne) : www. langzeitarchivierung. de/ index. php NoWAL - Northwest Academic Libraries Consortium (Royaume-Uni) : www. nowal. ac. uk/ Portico (États-Unis) : www. portico. org/ RIN - Research Information Network (Royaume-Uni) : www. rin. ac. uk/ SEALS - Swiss Electronic Academic Library Service : www. seals. ch/ about_fr. html SHERPA/RoMEO - Securing a Hybrid Environment for Research Preservation and Access / Rights Metadata for Open archiving (Royaume-Uni) : www. sherpa. ac. uk/ romeo. php Subito (Allemagne) : www. subito-doc. de/ SUNCAT – UK Union Catalogue of Serials : http:// suncat. edina. ac. uk SURF (Pays-Bas) : www. surffoundation. nl Surfdiesnsten (Pays-Bas) : https:// www. surfdiensten. nl/ specificnavstart/ nieuwe_aanbieder/ summary_suppliers. htm TEL - The European Library : www. theeuropeanlibrary. org/ portal/ index. htm UK PubMed Central : http:// ukpmc. ac. uk/ UKOLN - UK Office for Library Networking : www. ukoln. ac. uk/ Vascoda - Internetportal für wissenschaftliche Information (Allemagne) : www. vascoda. de/ Au Royaume-Uni coexistent deux centres d'expertise sur les questions d'archivage pérenne. Le Digital Curation Centre *, financé par le JISC *, dispose d'une expertise technique sur l'archivage des ressources électroniques. Le DCC est également le support technique du programme LOCKSS UK * cité précédemment, et il développe des outils pour aider les institutions d'enseignement supérieur et de recherche à se doter de structures d'hébergement des données : le DCC n'est pas lui -même un centre d'archivage des données numériques. C'est aussi le cas de UKOLN *, autre centre d'expertise et de recherche basé à l'université de Bath. Ainsi, la responsabilité d'assurer l'archivage pérenne des données est laissée aux établissements eux -mêmes : les bibliothèques jouent ici un rôle essentiel en parallèle à celui des centres informatiques. Il convient enfin de signaler que l'archivage des données numériques est un défi auquel la Commission européenne souhaite répondre de manière prioritaire. En 2005, elle a ainsi financé une étude portant sur l'étude de la préservation à long terme des documents numériques dans les bibliothèques européennes [<hi rend="italic">11</hi> ]. Dans le cadre de sa stratégie « i2010 : Bibliothèques numériques », le financement de quatre ou cinq centres d'archivage pérenne à l'échelle européenne figure également en bonne place 4. Elle soutient en outre quelques projets européens dans le cadre de ses programmes cadres de recherche et de développement (PCRD), et notamment les projets Digital Preservation Europe * et CASPAR *. La Commission organise régulièrement des conférences sur le sujet, dont la prochaine devait se dérouler à Francfort-sur-le-Main en avril 2007 11. Le caractère stratégique et prioritaire de la préservation de l'information scientifique numérique a ainsi été un des deux éléments centraux de la conférence de Bruxelles les 15 et 16 février 2007 5, et des financements considérables sont prévus sur cette question dans le septième PCRD. La compétence des bibliothèques, notamment des bibliothèques nationales, y a d'ailleurs été soulignée à de nombreuses reprises et n'a pas semblée être remise en question. La part croissante de la gestion des ressources électroniques dans le quotidien des bibliothécaires a conduit ces derniers à élargir leurs expertises professionnelle et technique, dans des domaines tels que la description des ressources (métadonnées), l'échange des données (protocole OAI), l'identification des lecteurs (fédération d'identité), l'archivage pérenne des données numériques. Ce développement du numérique les a également amenés à proposer de nouveaux services d'accompagnement à leurs usagers, principalement en les formant à ces nouvelles ressources. C'est ainsi que les concepts d'information literacy et de teaching library ont émergé dans les années quatre-vingt et quatre-vingt-dix. Les bibliothèques ont également pu se positionner comme elles -mêmes productrices de ressources électroniques par le biais d'opérations de numérisation. Ainsi en Allemagne, le programme Digizeitschriften * est un portail de revues savantes et scientifiques numérisées. Actuellement, il donne accès à plus de 300.000 articles, soit trois millions de pages issues de plus de cent dix revues. Digizeitschriften est un programme financé en partie par la DFG, et mené par quatorze grandes bibliothèques allemandes en partenariat avec une vingtaine d'éditeurs scientifiques du pays. Il bénéficie du soutien de l'équivalent allemand du syndicat national des éditeurs. Les opérations de numérisation sont assurées au centre national de numérisation de l'université de Göttingen. L'accès aux collections se fait sur abonnement, mais certaines revues sont laissées en accès gratuit. De tels projets publics de rétronumérisation de revues sont menés dans d'autres pays européens : Russie, Suisse (SEALS *), Espagne… En parallèle, une implication des bibliothèques dans des activités d'édition scientifique commence à être de plus en plus souvent évoquée comme une voie légitime et d'avenir. En l'an 2000, lors du congrès de la Ligue des bibliothèques européennes de recherche (LIBER), la « légitimité des bibliothèques à apporter de la plus-value aux publications universitaires » a été soulignée. Le développement de la numérisation n'explique pas à lui seul cette revendication. C'est bien l'augmentation des coûts des ressources électroniques qui a non seulement amené les chercheurs à enclencher le processus des archives ouvertes et entraîné la création de dépôts institutionnels, mais a également soulevé l'utilité qu'auraient les bibliothèques à se positionner comme lieux de publication des revues et ouvrages scientifiques produits par leur établissement. Les bibliothèques seraient plus que simplement complémentaires des services de presses universitaires, qui sont souvent assez fragiles : elles pourraient les intégrer et ainsi leur donner une stabilité et une assise plus confortable. Il s'agit ici d'un mouvement de fond qui n'a pas encore pris de véritable ampleur, et sur lequel une veille attentive serait nécessaire. Certains services ont pu apparaître, d'autres ont pu être remis en question. C'est notamment le cas du prêt entre bibliothèques. En effet, le constat a été fait dans plusieurs pays européens (Norvège, Allemagne, etc.) que, en parallèle de la croissance des ressources électroniques, les activités de PEB ont connu ces dernières années une forte diminution. Deux questions se posent ici : allons -nous vers une disparition du PEB ? Qu'en est-il du PEB des ressources électroniques ? Il faut commencer par la seconde de ces deux questions. Le PEB des ressources électroniques est-il possible ? Si oui, est-il possible par voie électronique, ou uniquement sous forme papier, c'est-à-dire après impression ? Le prêt par voie électronique rend en effet très difficile le contrôle de l'usage qui est fait ensuite d'une ressource, ce que les éditeurs, on peut le comprendre, ne voient pas d'un bon œil. À la British Library, le prêt par voie électronique est possible, mais uniquement pour les ressources pour lesquelles une clause spécifique a été négociée dans la licence 12. En Allemagne, le syndicat des éditeurs a attaqué en justice l'organisme Subito *, chargé du prêt électronique de documents, en considérant que son activité leur causait un préjudice économique important. L'accusation demandait à ce que toute l'activité de fourniture de copies soit déclarée illégale et supprimée, non seulement par voie électronique (qui entraîne une reproduction, même partielle, de l' œuvre), mais également par courrier. Le jugement prononcé en décembre 2005 a confirmé l'illégalité de la fourniture de copies papier de documents par le prêt entre bibliothèques. Cependant, cette pratique existant depuis toujours malgré la loi, elle reste finalement autorisée, à l'inverse de la fourniture de copies numériques, qui est déclarée illégale et est strictement interdite. Un appel de cette décision a été effectué en janvier 2006 : l'affaire n'est donc pas close [9 ]. Les exemples britannique et allemand montrent que la question du PEB des ressources électroniques constitue un point sensible des relations entre éditeurs et bibliothèques, et qu'elle doit être résolue essentiellement au moment de la négociation des licences, lors de l'achat des ressources elles -mêmes, afin que des clauses précisent explicitement ce qui est permis ou non. Devant cette situation, la solution du pay-per-view peut se poser en alternative au PEB. La bibliothèque de l' État de Bavière (Bayerische Staatsbibliothek) a ainsi développé, dans le cadre de ses missions de SSG et avec le soutien financier de la DFG, un module ad hoc sur ses portails thématiques pour accéder aux bases de données spécialisées 13. Des licences spécifiques ont été négociées avec les éditeurs pour autoriser le pay-per-view. Les personnes intéressées (potentiellement l'ensemble des citoyens) par une ressource électronique accessible selon le principe du pay-per-view peuvent accéder au module de paiement en s'inscrivant auprès de la bibliothèque qui a souscrit la licence pour la ressource en question. Naturellement, certains éditeurs proposent eux -mêmes des services de pay-per-view : le passage par une bibliothèque n'est donc plus incontournable. Cependant, celui -ci permet à l'usager de la bibliothèque d'obtenir certaines garanties : celle de la qualité scientifique de la ressource tout d'abord, puisqu'elle a été (dans l'idéal) évaluée avant d' être acquise; celle de se voir proposer des mises en relation avec d'autres ressources, lui permettant d'enrichir facilement sa démarche scientifique. Une plus-value scientifique, c'est bien ce qu'apporte la Bayerische Staatsbibliothek grâce à ses bibliothèques virtuelles (ViFas) évoquées dans la première partie de notre étude, et c'est ce qu'elle apporte aussi en ouvrant ses ressources au pay-per-view. L'augmentation des coûts des ressources électroniques a entraîné un certain nombre d'évolutions dans le paysage de l'édition scientifique. Les plus notables sont le mouvement de l'Open Access et le développement de répertoires institutionnels (dépôts d'archives ouvertes), qui modifient en profondeur le marché de l'édition scientifique. Il n'entre pas dans notre propos de rappeler les tenants et les aboutissants des débats passionnés – et stratégiques pour l'avenir de l'information scientifique – qui opposent depuis quelques années les éditeurs scientifiques traditionnels et les tenants de l'accès ouvert aux résultats de la recherche financée sur fonds publics, mais simplement d'étudier la façon dont les bibliothèques européennes d'enseignement supérieur et de recherche se positionnent sur ce sujet. Un certain nombre d'études et conférences ont récemment été consacrées aux marchés de l'édition scientifique, notamment : l'étude commanditée par la Commission européenne [8] ainsi que les commentaires qui en ont été faits (mars – novembre 2006); le rapport du Groupe de Francfort sur la TVA des ressources électroniques [10]; l'étude britannique Self-Archiving and Journal Subscriptions [7]; la pétition adressée à la Commission en faveur de l'accès libre aux résultats de la recherche financée sur fonds publics européens (janvier-février 2007) 14; la conférence déjà évoquée5 sur la publication scientifique dans l'espace européen de la recherche. Elles nous permettent de discerner quelques tendances essentielles sur trois points : le coût des ressources électroniques. Il est considéré comme le principal obstacle à la diffusion de celles -ci, en particulier à cause de leur taux de TVA, supérieur à celui qui est appliqué aux publications imprimées; l'archivage et la préservation des données. Pour les bibliothèques, la préservation est forcément liée à l'accès : elles ne sauraient se contenter d'un simple rôle de conservation, leur mission première étant de donner accès aux ressources dont elles ont la responsabilité 15. Elles sont par ailleurs prêtes à étudier le modèle d'archivage pérenne Portico *, mais à la condition que l'éventuelle application européenne de ce modèle se fasse sur fonds publics afin d'assurer un accès libre et gratuit aux résultats de la science. La notion de préservation du patrimoine scientifique revêt ici également une importance particulière; l'accès aux résultats de la recherche. Les bibliothèques partagent la position défendue par les organismes publics de recherche, à savoir le développement de l'accès libre aux résultats de la recherche grâce notamment à un embargo aussi court que possible sur les ressources électroniques. Le modèle économique du futur marché de l'édition scientifique reste à trouver, et la position des bibliothèques devra être prise en compte 16. Le positionnement actuel de la Commission européenne est ici d'équilibrer la meilleure diffusion de la science avec la préservation des intérêts économiques 17. Diverses solutions doivent être étudiées : le modèle auteur-payeur face au modèle acheteur-payeur; la possibilité de modèles hybrides; le pay-per-view des éditeurs face à celui des bibliothèques, etc. Devront également être considérées la question des bouquets de revues face à la responsabilité scientifique (et budgétaire) des bibliothèques, et celles liées à la préservation des ressources et des données, au coût de la maintenance à long terme des dépôts institutionnels, et à la propriété intellectuelle des données. On pourra ici s'appuyer sur le projet britannique SHERPA/RoMEO *, qui analyse les éditeurs scientifiques en fonction de leurs politiques vis-à-vis des droits de leurs auteurs à publier – ou non – dans des dépôts d'archives ouvertes. On pourra de même tenir compte des réflexions menées par JISC et SURF sur le contrat type que pourraient signer les auteurs avec les éditeurs, afin de préserver leurs droits (projet Licence to publish) 18. Les bibliothèques se sont déclarées très attentives aux réponses qu'apportera la Commission européenne à ces questions cruciales, notamment dans le cadre de sa stratégie i2010 19. Il est à souligner que le conseil scientifique du Conseil européen de la recherche, dans une déclaration publiée en décembre 2006, a pris position en faveur de l'accès libre aux résultats des recherches financées par la Commission européenne [3 ]. La conférence de Bruxelles des 15 et 16 février 2007 a ainsi été l'occasion pour la Commission de rendre publique une communication au Conseil européen, au Parlement européen et au Comité économique et social européen visant à « signaler l'importance des enjeux en question et […] lancer un processus politique sur (a) l'accès et la diffusion de l'information scientifique et (b) les stratégies de préservation de l'information scientifique dans toute l'Union européenne ». Les ressources électroniques ont modifié en profondeur le travail des bibliothèques, remettant en cause certains services traditionnels mais les amenant en même temps à développer de nouvelles compétences, de nouveaux outils, et surtout à travailler davantage en réseau et avec de nouveaux partenaires. Elles ont ainsi permis de rapprocher des communautés professionnelles – bibliothèques, éditeurs scientifiques, chercheurs et responsables d'institutions d'enseignement supérieur et de recherche – sur des problématiques et des enjeux communs. À l'inverse, en posant des questions essentielles à la communauté scientifique en général, ainsi qu'aux organismes financeurs, les ressources électroniques ont conduit ceux -ci à s'intéresser davantage aux bibliothèques, non pas en remettant en cause leur existence future, comme on l'entend parfois, mais au contraire en s'interrogeant sur les moyens à leur donner pour les aider à accomplir leurs missions. Cette situation a aussi imposé les bibliothèques comme des acteurs économiques importants, autour desquels tournent des enjeux économiques lourds : avec les ressources électroniques, les bibliothèques ont changé d'échelle économique. FEVRIER 2007
L'apparition de ressources électroniques a constitué pour les bibliothèques une profonde révolution, les incitant à travailler davantage en réseau et à développer de nouveaux outils et compétences. Cette étude analyse les modalités de mise à disposition de ces ressources dans les bibliothèques universitaires et de recherche en Europe. Elle se penche sur les outils d'accès (portails et bibliothèques numériques), puis sur les systèmes d'acquisition (consortiums et agences nationales) et sur le problème de l'archivage et de la préservation des données. Pour aborder enfin les perspectives en matière de nouveaux services et la situation des bibliothèques par rapport aux autres acteurs sur le marché de l'édition scientifique.
sciencesInfo_07-0339588_tei_DOCSI_idPAS_D_ISBN_pu2007-02s_sa02_art02.tei.xml
termith-444-communication
Les documents multimédias que manipulent les systèmes d'information modernes peuvent contenir de nombreuses modalités : du texte, des graphiques, des images, mais aussi des animations, de la vidéo ou encore du son. Dans notre étude, nous nous intéressons à des documents qui peuvent être imprimés, c'est-à-dire restitués sur papier. Nous les appelons documents statiques, dans le sens de atemporel, par opposition aux documents dynamiques qui contiennent des modalités temporelles (son, vidéo ou animations). De plus, il est très important selon nous de les distinguer des données multimédias, telles que l'audio ou la vidéo, qui possèdent une temporalité intrinsèque et imposent au lecteur un ordre et une vitesse de lecture. Les documents statiques, que nous considérons dans cet article, sont des objets graphiques qui peuvent être imprimés et qui possèdent du texte, des images, des figures ou des liens vers d'autres médias. Ces documents, par exemple des rapports scientifiques, des revues, des journaux, des quotidiens, etc., sont à prédominance textuelle et possèdent des structures physiques et logiques complexes. Cette définition de document statique n'exclut pas la prise en compte de la composante évolutive d'un document (son historique, les versions successives, etc.). L'objectif du travail présenté dans cet article est de créer des liens temporels entre les documents statiques et des données multimédias. La création de ces liens devrait permettre de temporaliser les documents statiques et donc d'utiliser ce médium, hautement thématique, comme interface d'accès à des données multimédias. Citons à titre d'exemple les archives multimédias de conférences dans lesquelles il devient courant de trouver pour chaque article sa forme numérique au format PDF, le diaporama correspondant et enfin un enregistrement audio/vidéo de la présentation de l'article par l'auteur. La création de liens document/image et document/parole, présentés dans cet article, permettra de lier temporellement tous les documents, aussi bien statiques (article PDF) que multimédias (présentation PPT et enregistrement audio/vidéo), et d'utiliser les documents statiques comme interfaces d'accès à des données multimédias. Les recherches en informatique connaissent actuellement un engouement important pour l'enregistrement et l'analyse de réunions, principalement parce que les réunions sont hautement multimodales, ce qui est une caractéristique essentielle afin de concevoir et d'implémenter les systèmes de communication à venir. De nombreux projets de recherche se concentrent actuellement sur l'analyse et l'annotation de réunions afin d'améliorer l'indexation et donc la navigation sur des corpus multimédias de réunions. Cependant, la plupart de ces projets ne prennent pas en compte les documents statiques traditionnels, qui sont pourtant une partie intégrante de la grande majorité des réunions. Le document est depuis des siècles le vecteur principal permettant à des humains de communiquer et de stocker de l'information. Avec les progrès récents dans le multimédia et les applications multimodales, d'autres modalités, telles que l'audio ou la vidéo, apparaissent afin d'échanger des informations. Ces progrès consolident le rôle des documents traditionnels, qui coexistent aussi bien dans le monde physique que dans le monde digital. Les documents sont hautement thématiques et structurés, facilement indexables et récupérables, et peuvent donc constituer des vecteurs, ou interfaces, naturelles et thématiques pour accéder et naviguer sur des archives multimédias. Pour cette raison, il est essentiel de mettre en valeur les liens qui unissent les documents avec des médias temporels tels que la vidéo ou l'audio. De plus, nous pensons que ces liens faciliteront notablement l'accès aux enregistrements de réunions, ainsi que la conception d'interfaces pour les utilisateurs qui amélioreront la navigation et la recherche à travers des corpus multimédias. De nombreux projets de recherche visent à archiver les enregistrements de réunions dans une forme adéquate pour la recherche et la navigation. Les objectifs généraux de ces projets sont l'avancement de la recherche sur (a) l'analyse de données multimodales et (b) la recherche d'informations multimédias. Deux directions émergent de l'état de l'art actuel des projets de recherche sur l'analyse des réunions (Lalanne et al., 2003). Le premier groupe se concentre sur des annotations de documents de type prise de notes, ou analyse de diaporama : MS (Cutler et al., 2002), FXPal (Chiu et al., 2000), eClass (Brotherton et al., 1998), DSTC (Hunter et al., 2001) et Cornell (Mukhopadhyay et al., 1999). Ces recherches proposent des interfaces pour les utilisateurs permettant de naviguer sur des réunions, en utilisant une visualisation des changements de diapositives dans les diaporamas comme outil de navigation, ainsi que les notes prises par des participants. Dans ces interfaces, les diapositives et les prises de notes sont des index visuels permettant de localiser rapidement des segments de réunions intéressants afin de rejouer les séquences audio/vidéo correspondantes. Le second type de recherche se concentre sur les annotations de la parole, comme par exemple la transcription des dialogues : ISL (Bett et al., 2000) et eClass (Brotherton et al., 1998). Ce type de recherches propose des interfaces utilisateurs permettant de faire des recherches par mots-clés dans les transcriptions de la parole. Dans ce contexte, des annotations de plus haut niveau, telles que les actes de dialogue (Stolcke et al., 1998) ou les épisodes thématiques peuvent aussi être utilisés afin d'obtenir des index temporels pour accéder rapidement à des morceaux choisis de réunion. Les applications basées sur les documents et les systèmes basés sur la parole correspondent respectivement aux modalités de communication visuelles et verbales d'une réunion. Ces modalités étant intégrées dans le monde réel, nous proposons de créer des liens entre elles, et de les intégrer dans une archive de réunions et dans les interfaces de navigation correspondantes. De plus, nous proposons de considérer conjointement a) les liens linguistiques entre le contenu des documents statiques et la transcription de la parole et b) les similarités graphiques entre les documents statiques et les enregistrements vidéo. La construction de ces liens devrait ainsi aboutir à un alignement complet entre les documents statiques et des données temporelles. Dans la suite de cet article, nous présentons une application multimodale, dans laquelle des réunions sont enregistrées, archivées, indexées puis interrogées. L'objectif de cette application est d'annoter les enregistrements de réunions, et de créer des liens temporels entre les documents statiques et les autres médias, afin de : produire semi-automatiquement des procès verbaux multimédias, sorte de comptes rendus interactifs; construire des interfaces qui utilisent les documents statiques comme vecteurs thématiques et structurés pour naviguer sur des archives de réunions. Rappelons qu'un compte rendu de réunion est traditionnellement un document statique qui synthétise ce qui s'est passé durant une réunion, pour action, diffusion, etc. Dans notre application, la création d'un compte rendu dynamique de réunion, qui permette d'organiser l'accès aux enregistrements de celle -ci, est un objectif à long terme. Viser une solution entièrement automatique n'est pas réaliste pour l'instant. Par contre, la création d'un navigateur permettant à un scribe de générer semi-automatiquement un procès verbal sera envisagée à moyen terme (voir section 6). Dans le contexte de cette application, nous présentons quatre étapes pour combler le fossé entre les documents statiques, non temporels, et des données multimédias de réunions. Ces documents permettront de structurer les enregistrements de réunions et serviront d'artefact de navigation. La troisième section présente l'objet des enregistrements ainsi que le dispositif. La section 4 présente une nouvelle approche de reconnaissance et d'indexation de documents électroniques, combinant des méthodes d'analyse d'image avec une extraction du contenu numérique. La section 5 introduit l'alignement temporel de documents, qui permet de synchroniser les documents statiques avec les autres médias enregistrés pendant une réunion. Enfin, la section 6 présente la dernière étape, qui utilise tous les travaux qui précèdent : une interface basée sur les documents, permettant de naviguer sur des archives multimédias d'enregistrements de réunions. Un environnement d'enregistrement de réunions a été mis en place dans notre laboratoire, en collaboration avec l'Ecole d'ingénieurs et d'architectes de Fribourg (figure 1). Cet environnement capture aussi bien des données audio et vidéo, pour chacun des participants à la réunion, que les documents statiques qui sont projetés, discutés ou simplement présents sur la table durant la réunion. L'équipement a été installé dans une salle de réunion existante, et permet d'enregistrer jusqu' à huit participants en gros plan. La salle enregistre plusieurs modalités liées aux documents grâce à une douzaine de caméras et huit microphones. Ces périphériques, ainsi qu'un projecteur vidéo, sont connectés à différents ordinateurs personnels, contrôlés et synchronisés par un ordinateur maître. Sur ce dernier, une application ergonomique dédiée à la capture de réunions permet de spécifier les sièges correspondant à un couple caméra/microphone qui doivent être enregistrés, les périphériques qui doivent être actifs et de nombreuses autres options de contrôle. Une fois l'enregistrement terminé, l'application gère de plus tous les posttraitements (i.e. compressions, analyses, etc.) ainsi que l'archivage des réunions sur un serveur de fichiers. A ce jour, une trentaine de réunions ont été enregistrées : des défenses de projets d'étudiants, des simulations d'entretiens d'embauche, des ateliers de lecture d'articles, etc. En particulier, 22 revues de presse ont été enregistrées et transcrites manuellement. Lors de ces revues de presse, entre 3 et 6 personnes discutent et débattent autour des « unes » du jour de différents journaux francophones. Les réunions durent en moyenne 15 minutes. Les unes des journaux, originellement en PDF, ont été transformées au format XML et enrichies de leurs structures physiques et logiques. De plus, chaque enregistrement de réunions est accompagné d'une structure arborescente contenant des informations générales, telles que la date, le titre, la liste des participants et leur siège respectif. Bien évidemment, l'enregistrement contient aussi une vidéo et un fichier audio par participant, ainsi que tous les documents annexés à la réunion, au format PDF et image. Les documents jouent un rôle important dans les communications journalières. Avec l'accroissement constant de l'internet, un nombre considérable de documents sont publiés et consultés en ligne. Malheureusement, les différentes structures des documents sont très rarement exploitées, ce qui réduit considérablement les facultés de navigation et de recherche des utilisateurs. De nombreux niveaux d'abstraction sont présents dans les documents, dissimulés dans ses différentes structures : physique, logique, thématique, relationnelle, et même temporelle. La structure physique désigne souvent la segmentation d'un document en zones homogènes, partageant les mêmes propriétés typographiques pour les zones textuelles, les mêmes propriétés graphiques ou encore contenant des images (Ishitani, 1999). La structure logique, quant à elle, est dérivée de la structure physique, et utilise des modèles de document, afin d'extraire une description symbolique de la structure et du contenu. Les blocs logiques induits peuvent être le résultat du regroupement de plusieurs blocs physiques, et représentent des entités sémantiques de document, comme par exemple un titre, un article, un nom d'auteur, un résumé, etc. (Niyogi et al., 1995). La structure thématique d'un document ne travaille que sur le contenu textuel du document et correspond à une segmentation de ce contenu en différents blocs sémantiquement homogènes, correspondant à des thèmes différents (Salton et al., 1996). Enfin, la structure temporelle d'un document est multiple. Cette dernière vise à temporaliser les différentes structures de document, en considérant toutes les interactions ou opérations qui ont été effectuées sur un document, comme par exemple des modifications, la publication, la projection de ses parties lors d'un diaporama, les discussions sur son contenu, les interactions gestuelles, etc. Nous considérons que pour être intégrées pleinement dans des archives multimédias, il est nécessaire que toutes ces structures coexistent et qu'elles soient considérées conjointement dans une représentation multicouche du document. Dans la plupart des moteurs de recherche et des systèmes de recherche d'information, cette structure multicouche n'est pas prise en compte, et les documents sont indexés, dans le meilleur des cas, par leur structure thématique ou simplement représentés par un groupe de mots. La mise en page des documents, c'est-à-dire leurs structures physiques et logiques, est sous-estimée et pourrait fournir des indices significatifs sur l'organisation logique des documents. Ainsi, nous pensons que l'extraction des structures des documents peut améliorer considérablement (a) l'indexation et la recherche de documents et (b) leurs associations avec d'autres médias. Nous avons choisi d'analyser des documents au format PDF principalement car le PDF est devenu le format pivot pour échanger des documents statiques et parce qu'il préserve la mise en page. L'utilisation du PDF est souvent limitée à l'affichage sur un écran et à l'impression, malgré le bénéfice que pourrait apporter les structures sur la recherche et la récupération de documents. En effet, nous pensons que l'extraction des structures physiques et logiques des documents pourrait grandement enrichir l'indexation des fichiers PDF et leur liaison avec d'autres médias. En particulier, dans le cadre d'applications multimodales, telles que l'enregistrement et l'analyse de réunions, l'extraction des structures de documents permet de lier les documents PDF avec la transcription de la parole et avec l'image des documents dans les enregistrements vidéo de la réunion. Pour cette raison, nous avons proposé récemment une approche hybride qui consiste à fusionner (a) des méthodes d'extraction de bas niveau basées sur la forme électronique du document, et (b) des méthodes d'analyse d'image du document converti au format TIFF à partir du PDF, permettant d'extraire la structure physique du document (Hadjar et al., 2004). A première vue, il serait plus naturel d'extraire la structure physique directement à partir du fichier PDF, en se servant de sa structuration interne. Notre expérience nous a toutefois montré que cela pose de grandes difficultés parce que les informations structurelles ne sont pas toujours fiables. Dans des documents multicolonnes, l'ordre d'apparition des blocs de texte ne reflète en général pas l'ordre de lecture. Pire, il arrive que des portions de phrase ou des mots isolés n'apparaissent pas dans leur contexte mais de manière isolée à la fin d'un fichier. Nous avons de bonnes raisons de penser que ce type d'artefact dépend de l'historique du document et des logiciels qui ont servi à le produire. L'analyse à partir de l'image TIFF présente pour nous l'avantage de considérer une représentation quasi universelle. Dans le domaine de l'analyse de documents, la segmentation de l'image vise à morceler une image de document en différentes zones homogènes possédant des propriétés graphiques similaires, i.e. texte, image, graphiques, etc. Notre algorithme de segmentation commence par extraire les filets, les trames et les lignes de texte, puis sépare les zones de texte des zones d'image, puis finalement fusionne les lignes de texte dans des blocs homogènes. L'algorithme prend en entrée une image au format TIFF, générée à partir d'un fichier PDF, et renvoie en sortie un fichier au format XML, qui décrit la segmentation physique du document en zones, comme mentionné précédemment. En parallèle, les différents objets contenus dans le document PDF, aussi bien textuels que graphiques, sont extraits en manipulant directement le contenu du fichier électronique. D'abord, le fichier PDF est clarifié, c'est-à-dire que les ambiguïtés sont éliminées. Puis, les différentes représentations sont homogénéisées, et le contenu du document PDF est projeté dans un arbre, qui peut ensuite être transformé soit en SVG soit dans une forme canonique et structurée, qui décrit complètement la structure physique du document et de son contenu. Finalement, les objets extraits du document PDF sont mis en correspondance avec les résultats de l'analyse de la structure physique du document, afin de construire une représentation arborescente du document. Par exemple, les positions du texte extrait de la forme électronique sont comparées aux positions des boîtes de chaque bloc physique, afin d'associer à chaque bloc physique son contenu textuel (Hadjar et al., 2004). Cette approche n'a pas encore été évaluée quantitativement. La base de données considérée jusqu' à présent était composée de documents PDF à structures complexes, des unes de quotidiens principalement. Les résultats de l'extraction que nous avons obtenus sur une centaine de unes de journaux francophones, anglophones, italophones et arabes sont satisfaisants à l' œil nu en ce qui concerne la préservation de la mise en page. Afin de s'assurer que l'extraction du contenu du document est correcte et qu'elle préserve effectivement la mise en page, il serait possible de prévoir une évaluation automatique en superposant l'image du document PDF avec celle obtenue par l'extraction et de calculer le taux de ressemblance à travers un calcul de distance. Finalement, afin d'évaluer les performances d'extraction des structures physiques et logiques, la constitution de vérités-terrains 1 (ground-truth) devra être considérée à l'aide d'outils semi-automatiques supervisés par un opérateur humain. En ce qui concerne l'analyse des journaux, notons qu'il est souvent impossible de récupérer les fichiers produits avant impression par les « quotidiens »; cela nécessiterait des accords difficiles à négocier. La méthode que nous proposons se veut générale et fonctionne directement sur un document PDF, qui est le format pivot actuel. Afin de produire des vérités-terrains fiables pour nos données de revues de presse, la segmentation de documents a été complétée manuellement. Les documents PDF correspondant aux unes des différents journaux francophones, discutées pendant les enregistrements de réunions, ont tout d'abord été convertis automatiquement dans une forme canonique et structurée contenant la structure physique complète de chacun des documents, en utilisant la méthode hybride d'analyse de fichiers PDF que nous venons de présenter. La structure logique des documents a ensuite été annotée manuellement et liée à la structure physique extraite précédemment. Afin d'automatiser la phase de structuration logique, une connaissance de tous les modèles de documents, contenus dans l'archive multimédia de réunions, serait nécessaire. A long terme, l'objectif de notre analyse de fichiers PDF, est d'automatiser tout le processus. La DTD, résumée dans la figure 2, présente la structure logique d'une une de quotidien que nous avons utilisée. Afin de naviguer sur des archives multimédias au travers des documents, il est tout d'abord nécessaire de construire des liens entre les documents statiques et d'autres médias, qui sont eux temporels, tels que l'audio ou la vidéo. Nous appelons « alignement temporel des documents » l'opération qui consiste à extraire les relations entre des portions de documents, à différents niveaux de granularité, et le temps de présentation dans la réunion. L'alignement temporel de documents crée des liens entre des extraits de documents et les intervalles de temps dans lesquels ils étaient soit (a) dans le discours, soit (b) dans le champ visuel soit (c) dans le champ de l'interaction gestuelle d'une réunion. Il est donc possible de mettre en correspondance des extraits de documents avec des extraits audio et vidéo, et par extension avec des annotations de la parole, de la vidéo et/ou des gestes. Nous avons identifié trois modalités qui peuvent être associées et alignées temporellement avec les documents : la parole : le contenu textuel des documents est comparé avec la transcription de la parole, qui renferme des index temporels pour chaque tour de parole des interlocuteurs et pour chaque énoncé de parole. Les tours de parole sont des monologues, i.e. des segments du dialogue où un seul interlocuteur s'exprime, divisés en énoncés de parole. Un énoncé de parole est une partie cohérente d'un monologue à laquelle peut être associé un acte de dialogue tel qu'une question, une réponse, un remerciement, un désaccord, etc. (Stolcke et al., 1998). Un énoncé de parole correspond plus ou moins à une phrase dans un document statique; la vidéo et l'image : les documents électroniques sont comparés avec les images extraites des enregistrements vidéo de documents (i.e. la vidéo des diaporamas projetées sur un écran) afin d'identifier les différents documents visibles dans les vidéos et d'associer aux documents concernés des index temporels liés à leurs périodes d'apparition dans le champ visuel des participants; les gestes : les interactions gestuelles avec des documents sont capturées et analysées (i.e. pointer du doigt un document projeté sur un écran) afin d'en déduire à quel moment et quelle partie de document était dans le champ d'interaction gestuelle des participants. Nous n'avons pas encore démarré les travaux sur l'alignement document/geste et donc ne présenterons en détails dans les sections qui suivent que l'alignement avec la parole puis celui avec les enregistrements vidéo. L'alignement avec les gestes ne se différencie pas nettement de l'alignement document/vidéo puisqu'il ne s'agit pas d'analyser directement les gestes mais les enregistrements vidéo dans lesquels des interactions gestuelles apparaissent. La méthode que nous prévoyons d'utiliser pour résoudre cet alignement combine des techniques de deux domaines bien établis : a) l'interaction gestuelle et b) l'analyse de documents. L'analyse des postures et des gestes mène à des annotations de haut niveau sur les gestes (i.e. pointer, entourer, souligner, etc.) avec les marqueurs temporels associés de début et de fin d'interaction. En outre, les techniques d'analyse de documents, comme présentées dans la section 4, fournissent des méthodes pour extraire les structures physiques et logiques de documents électroniques, tels que des fichiers au format PDF, ce qui permet de déterminer quel bloc du document est pointé, encerclé ou souligné par un utilisateur. L'interaction gestuelle avec des documents n'a, à notre connaissance, été que très peu traitée, et devrait mener à des annotations d'un type nouveau et aboutir à des applications temps réel qui utilisent les documents papier comme moyen d'accéder à des données numériques et multimédias (Klemmer et al., 2003; Wellner, 1993). Dans l'alignement parole/document, les contenus de la parole et des documents statiques sont comparés, contenus qui peuvent être aussi bien textuels que structurels, afin de détecter des citations ou des paraphrases, des références ou encore des liens thématiques. Les citations sont des concordances lexicographiques exactes entre les mots écrits dans les documents et les mots prononcés dans la parole. Les paraphrases correspondent à une mise en parole, souvent une reformulation, d'une phrase écrite. Les références établissent des liens entre des expressions de la transcription structurée des dialogues d'une réunion et des éléments de la structure logique d'un document (i.e. « l'article à propos de l'Irak », « le titre de la une du journal », etc.). Pour conclure, les alignements thématiques sont des mises en correspondance sémantiques entre des unités de documents (phrases, blocs logiques, etc.) et des unités de la transcription de la parole (énoncés, tour de parole, etc.). La détection des citations et des paraphrases n'ayant pas encore été implantée, nous ne présentons dans la suite de cet article que l'alignement thématique ainsi que la résolution des références aux documents dans les dialogues. Cet alignement document/parole permettra de répondre à deux questions : quand fut discuté, ou référencé, un document ? qu'est -ce qui a été dit à propos d'un document ? Un alignement thématique robuste a déjà été implanté, en utilisant plusieurs métriques de similarité telles que la mesure du cosinus, Jaccard ou Dice (Manning, 1999) et en considérant les unités de documents et de la transcription de la parole comme des ensembles de mots. Après avoir supprimé les mots-outils, i.e. les mots les plus courants (stopwords), et après avoir analysé les flexions des autres afin de les réduire à leur radical (stemming), par suppression des formes conjuguées et des pluriels principalement, le contenu des différents éléments des documents est comparé avec le contenu des différentes unités de la transcription de la parole. Nous avons considéré 8 réunions afin d'évaluer notre méthode à différents niveaux de granularité de la structure des documents et de la transcription manuelle des dialogues. Les réunions ont été transcrites manuellement à l'aide de Transcriber, un logiciel d'aide à l'annotation de signaux de parole qui offre une interface graphique simple permettant à un utilisateur non informaticien de segmenter des enregistrements de longue durée, de les transcrire et de marquer les tours de parole, la segmentation thématique et les conditions acoustiques (Barras et al., 2000). Transcriber était utilisé conjointement avec une mosaïque de tous les enregistrements vidéo de la réunion, une vidéo par participant (au centre de la figure 1), ce qui aidait grandement le scribe à transcrire la réunion dans les cas où plusieurs personnes parlent en même temps (speech overlapping). Ces réunions avaient en moyenne une durée de 15 minutes chacune, et impliquaient de 3 à 6 participants. Un nombre total de 572 énoncés et de 228 tours de parole ont été alignés avec les documents. Et un nombre total de 90 blocs logiques (principalement des articles) et de 1 409 phrases, extraites des unes de journaux, ont été alignés avec la transcription de la parole. Afin d'évaluer nos méthodes d'alignement, nous avons mesuré les valeurs de rappel et de précision par rapport aux vérités-terrains produites manuellement. La valeur de rappel correspond au nombre d'alignements corrects détectés par le système sur le nombre d'alignements présents dans les vérités-terrains et la précision correspond au nombre d'alignements corrects détectés par le système sur le nombre total d'alignements trouvés par le système. Les valeurs de rappel et de précision sont relativement bonnes lorsque les énoncés de parole sont mis en correspondance avec le contenu des blocs logiques de document (i.e. article, titre, etc.). En utilisant la mesure du cosinus, la valeur de rappel est de 0.84 et la valeur de précision de 0.77, ce qui représente des résultats encourageants. Lorsque les tours de parole sont mis en correspondance avec des blocs logiques de document, la valeur de rappel reste à 0.84 et la valeur de précision atteint 0.85 (Mekhaldi et al., 2003). D'un autre côté, l'alignement entre les énoncés de parole et les phrases des documents est moins précis, mais il est plus intéressant car il ne requiert pas l'extraction de la structure logique des documents. En utilisant la mesure de similarité de Jaccard, la valeur de rappel est de 0.83 en moyenne, et la précision est de 0.76. Les documents PDF sont automatiquement convertis en texte, puis segmentés en phrases, et finalement mis en correspondance avec les énoncés de parole. Nous pensons que cette méthode simple d'alignement automatique peut aider à structurer conjointement les documents et la transcription de la parole. La plupart des réunions testées étaient relativement stéréotypées; les articles des journaux étaient présentés plutôt que discutés et débattus. Dans certaines réunions cependant, les participants ne suivaient pas de près le contenu des articles, débattant davantage de l'actualité de la journée dans le monde. Nous avons considéré qu'une réunion est non stéréotypée lorsque le nombre d'énoncés de parole qu'elle contient est deux fois supérieur au nombre de tours de parole, alors que pour qu'une réunion soit considérée comme stéréotypée, ce rapport doit être inférieur à 2 (une moyenne 60 énoncés de parole pour 20 tours de parole dans notre corpus). Les réunions non stéréotypées donnent donc une bonne indication des performances de notre méthode dans des cas réalistes. Dans ce dernier cas, les valeurs de rappel et de précision tombent significativement pour les paires énoncés/phrases (rappel : 0.74 et précision : 0.66) et restent relativement stables pour les paires énoncés/blocs logiques de document. Davantage de détails et de résultats peuvent être trouvés dans (Lalanne et al., 2004). Les épisodes thématiques, i.e. des portions de texte sémantiquement homogènes, n'ont été considérés ni pour les documents ni pour la transcription de la parole, principalement parce que les résultats des segmentations thématiques de chacune des deux sources, en utilisant des méthodes classiques de l'état de l'art, n'étaient pas satisfaisants (Hearst, 1994). Nous avons implanté récemment une technique bimodale qui segmente conjointement les documents et la transcription de la parole en épisodes thématiques (Mekaldi et al., 2004). L'idée consiste à détecter les régions les plus connectées dans le graphe biparti constitué par l'alignement des documents avec la parole. Les groupes les plus denses, regroupés grâce à des techniques de clustering, sont ensuite projetés sur chaque axe, respectivement sur l'axe des documents et sur l'axe de la transcription de la parole. L'évaluation de cette technique bimodale de segmentation thématique a montré qu'elle était plus performante que des méthodes unimodales, spécialement dans le cas où les réunions sont moins structurées thématiquement. Dans ce dernier cas, les documents fournissent une structure naturellement thématique sur laquelle la segmentation de la réunion peut s'appuyer (Mekaldi et al., 2004). Pendant les réunions, les participants se réfèrent souvent à des documents ou à des parties de document. Afin de résoudre ces références, il est nécessaire de trouver les liens entre chacune des expressions référentielles 2 (ER) et les éléments de documents qui correspondent. Par exemple, si un participant dit : « Je ne suis pas d'accord avec le titre de notre dernier rapport », alors « notre dernier rapport » réfère à un document qui peut être retrouvé dans une archive de réunions, et « le titre de notre dernier rapport » se réfère à son élément Titre, une zone textuelle qui peut être extraite du document correspondant. Nous avons ainsi implémenté un algorithme, qui s'inspire du travail sur la résolution des anaphores, qui essaye de résoudre ce type de références. Nous ne présentons pas en détails, dans la suite de cette section, les méthodes développées ni tous les résultats obtenus; pour une étude complète, nous vous invitons à lire les travaux réalisés en collaboration avec l'université de Genève (Popescu-Belis et Lalanne, 2004). Dans l'étude présentée ci-dessous, les expressions référentielles ont été détectées manuellement. Elles ont été ensuite analysées afin d'en dériver des expressions régulières qui les décrivent, et qui pourraient être utilisées pour les reconnaître automatiquement. Dans le cadre des réunions de type revue de presse, l'algorithme parcourt la transcription de la parole d'une réunion en suivant l'ordre chronologique, et à tout moment met à jour le document courant, i.e. la une d'un quotidien, et l'article courant. Chaque expression référentielle est d'abord associée au document le plus cité dans la transcription et présent dans la liste des documents associés à la réunion. Les expressions référentielles qui contiennent explicitement le nom d'un quotidien sont référencées au quotidien respectif; les autres sont supposés référer au document courant, c'est-à-dire qu'elles sont des anaphores. L'algorithme tente ensuite d'associer un élément du document (article, titre, auteur, etc.), déduit de la structure logique du document (voir section 4, figure 2), à chaque expression référentielle. L'algorithme décide d'abord si l'expression référentielle est anaphorique 3 ou non, en la comparant avec une liste d'anaphores typiques, telles que « l'article », « cet article », « il », « l'auteur », etc. Si l'expression référentielle courante est une anaphore, alors son référent est simplement l'article courant du quotidien courant. Si l'expression référentielle courante n'est pas une anaphore, c'est-à-dire qu'elle introduit un nouveau référent, alors une procédure de comparaison est appliquée afin de sélectionner l'article du document courant qui correspond le mieux. La procédure compare (a) le contenu de l'expression référentielle, plus le contenu de son contexte gauche (i.e. les mots situés à gauche de l'ER dans l'énoncé) avec (b) les articles du document courant, pour lesquels titre, auteurs, et contenu sont considérés séparément. Le référent de l'expression référentielle est finalement l'article qui obtient le score de comparaison le plus élevé. Les premiers résultats obtenus en utilisant cet algorithme sur un ensemble de 14 revues de presse, et 322 expressions référentielles annotées manuellement, sont encourageants. L'identification du document référencé par chaque expression référentielle est correcte dans 98 % des cas, et la précision pour associer chaque expression référentielle à des éléments de document est de 64 %. Ce qui doit être comparé avec les résultats d'une méthode de base, comme par exemple « toutes les ERs réfèrent à la une » (16 % de précision) ou « toutes les ERs réfèrent à l'article principal (MasterArticle) » (18 % de précision). De plus, si les anaphores ne sont pas considérées dans le processus de résolution, c'est-à-dire si la comparaison ER/article est effectuée pour toutes les ERs, alors le score tombe à 54 % de précision, ce qui prouve l'utilité de la détection des anaphores. D'un autre côté, et pour conclure, si les contextes qui entourent les ERs ne sont pas considérés lors de la comparaison, alors le score tombe à 27 %. Finalement, nous travaillons actuellement sur un modèle permettant de fusionner les différents types d'alignements présentés dans cet article, i.e. citations, références et thématiques. Nous espérons que ce modèle permettra de les comparer et de les corriger, afin d'obtenir un alignement document/parole robuste. L'alignement documents/vidéo construit des liens entre des extraits de documents et des segments de séquences vidéo, qui correspondent soit à des diaporamas filmés soit plus généralement à des films dans lesquels des documents sont visibles. Cette approche s'appuie sur l'observation des événements liés à des documents, qui sont visibles pendant des réunions, cours ou présentations, comme par exemple les changements de diapositive dans des diaporamas, ou des documents qui circulent sur une table et qui sont pointés. Dans un premier temps, notre méthode détecte tous les événements liés à des documents (i.e. un changement de diapositive, une animation, etc.) et extrait une image qui correspond à ce segment stable de vidéo; dans un deuxième temps, elle associe une signature visuelle à cette image basse résolution, qu'elle compare finalement avec toutes les signatures des images haute résolution, contenues dans la base de données de référence, afin d'identifier l'image; enfin, elle l'enrichit avec le contenu textuel associé au document électronique correspondant, en tenant compte des informations structurelles. Cet alignement vise la résolution de trois types de questions : à quel moment un document, ou une partie de document, était-il dans le champ visuel des participants ? de quel document, ou partie de document, s'agissait-il ? quel était le contenu de ce document ? Avant de détecter les événements liés à des documents (i.e. changement de diapositive dans un diaporama), ces documents doivent être d'abord détectés dans les enregistrements vidéo, puis leur emplacement précis doit être calculé (figure 3). Les documents peuvent être de divers types, diapositives ou fichiers PDF pour les documents projetés, ou documents quelconques pour les documents filmés sur la table. A l'heure actuelle, nous utilisons une interface graphique pour définir manuellement la zone graphique où se trouve le document dans la vidéo. Une fois la zone définie, les déformations liées aux problèmes de perspectives sont corrigées et finalement, une vidéo, que nous appellerons vidéo document dans la suite de l'article, est reconstituée à partir des images de document redressées. Nous proposons dans cette section une méthode permettant de détecter un changement de document dans l'enregistrement vidéo de l'écran de projection (figure 3). Cette méthode permet de répondre à la question présentée dans l'introduction de la section 5.2., i.e. « A quel moment un document était-il dans le champ visuel des participants ? ». Au lieu d'essayer de détecter automatiquement un changement de diapositive, notre méthode cherche à identifier automatiquement les diapositives stables, c'est-à-dire les périodes suffisamment longues pour être considérées par un spectateur et durant lesquelles une seule et unique diapositive est projetée. Notre algorithme suit pour cela deux étapes distinctes : (a) d'abord il détecte les périodes stables puis (b) il cherche à l'intérieur des périodes instables la position exacte du changement de diapositive. Les images sont d'abord extraites une à une de la vidéo document, ensuite un filtre passe-bas leur est appliqué afin de réduire le bruit et finalement un filtrage adaptatif est utilisé afin d'obtenir des images binaires, ce qui permet ainsi d'éviter les problèmes liés à l'éclairage non uniforme des diapositives projetées (Mukhopadhyay et al., 1999). La première image FS extraite de la vidéo document est d'abord comparée avec l'image FE se trouvant exactement 2 secondes plus tard dans la vidéo document correspondant au diaporama. Les deux images, FS et FE, sont considérées identiques si le nombre de pixels noirs en commun dépasse un certain seuil, suffisamment bas (0.6) pour ne pas rater des périodes instables. Si elles sont similaires, la période est considérée comme stable et deux nouvelles images sont prises, pour FS et FE, une demi-seconde plus en avant dans la vidéo et sont comparées de nouveau. Ce processus continue tant que le couple (FS, FE), pris toutes les demi-secondes, est suffisamment similaire. Lorsqu'une période de dissimilarité démarre, et que donc le couple FS et FE n'est plus suffisamment similaire, une file d'images, contenant toutes les images délimitées par FS et FE, est construite. La première image de la file est ensuite comparée à toutes les autres images de la file afin de détecter la position exacte du changement de diapositive. L'utilisation d'une webcam pour filmer le diaporama projeté sur un écran introduit de nombreux phénomènes perturbateurs dans la détection du changement de diapositive. Par exemple, un autofocus à chaque changement important de la luminosité implique que la vidéo met un temps non négligeable à se stabiliser après chaque changement de diapositive. Pour cette raison, la dissimilarité entre les images se stabilise graduellement. De plus, à la suite d'un changement de diapositive, l'image de la nouvelle diapositive risque d' être superposée avec la précédente (i.e. fade-in/fade-out), d'autant plus que le temps de transition entre deux diapositives est souvent supérieur au laps de temps entre deux images capturées par la vidéo. Pour cette raison, nous considérons que la position exacte du changement de diapositive est l'image dont la valeur de dissimilarité s'approche le plus de la moyenne entre la dissimilarité minimale et la dissimilarité maximale dans la file. L'évaluation de la méthode précédente a été effectuée sur des enregistrements générés automatiquement en SMIL (Synchronized Multimedia Integration Language, consortium W3C). Chaque fichier SMIL, correspondant à un diaporama, contient les temps de début et de fin, choisis aléatoirement, pour chaque diapositive prise elle aussi aléatoirement dans un répertoire de diaporamas (Behera et Lalanne, 2004). Ces fichiers SMIL, au format XML, peuvent ainsi servir de vérités-terrains pour notre évaluation. 60 diaporamas ont été ainsi générés automatiquement et filmés, chacun contenant en moyenne une vingtaine de diapositives, ce qui représente approximativement un total de plus de 1 000 changements de diapositives. Afin d'évaluer la qualité de notre méthode, nous avons mesuré les performances de rappel et de précision. Le rappel représente le nombre de changements de diapositive correctement détectés sur le nombre de changements dans les vérités-terrains du diaporama (fichier SMIL). Alors que la précision représente le nombre de changements correctement détectés sur le nombre total de changements détectés. L'évaluation a montré que notre méthode dépasse les performances des techniques existantes dans l'état de l'art pour la détection des périodes stables (rappel : 1.0, précision : 1.0), ainsi que pour la détection de la position exacte du changement de diapositive (rappel : 0.84, précision : 0.82 et rappel : 0.93, précision : 0.90 pour une tolérance de respectivement 1 ou 2 images de décalage). Si la tolérance est augmentée jusqu' à une demi-seconde de décalage, alors la performance de la détection du changement de diapositive devient maximale (rappel : 1.0, précision : 1.0). Pour chaque période stable, déterminée par notre méthode de détection du changement de diapositive, une image claire est extraite. L'image est ensuite comparée avec les images des documents originaux, stockés dans une base de données, afin d' être identifiée. Notre méthode d'identification de documents est basée sur deux processus : a) L'extraction d'une signature visuelle hiérarchiquement structurée, contenant des caractéristiques globales de l'image (nombre de pixels noirs, profils de projection, etc.) et une décomposition en zones (texte, image, puce, etc.). Cette signature visuelle est générée aussi bien pour l'image basse résolution extraite de la vidéo, que pour l'image haute résolution distillée depuis le document PDF. L'extraction de la signature visuelle est basée sur des méthodes d'analyse de l'image d'un document, telles que le RLSA (Run Length Smearing Algorithm (Wahl et al., 1982; Wong, 1982)), les composantes connexes, les profils de projection, etc. b) Une comparaison multiniveaux de ces signatures visuelles, qui suit leurs hiérarchies. Les caractéristiques de plus haut niveau sont d'abord comparées; toutes les images dans la base de données qui dépassent un certain seuil de similarité, sont conservées. La comparaison continue sur ce sous-ensemble d'images en testant des caractéristiques de plus bas niveau. Lorsque tous les niveaux de l'arborescence de la signature visuelle ont été parcourus et que toutes les caractéristiques correspondantes ont été testées, une comparaison globale, combinant toutes les caractéristiques avec des poids dépendant du niveau dont elles sont issues, est effectuée. Les meilleures images, c'est-à-dire les plus similaires, sont conservées et la comparaison redémarre à la racine de la signature visuelle avec des seuils de similarité plus hauts; les comparaisons deviennent donc plus restrictives. L'avantage principal de cette méthode est qu'elle ne requiert aucune technique de classification. Elle est rapide, principalement car la hiérarchie de la signature visuelle guide la recherche vers des sous-espaces de recherche fructueux. De plus, le fait d'alterner des comparaisons spécifiques à chaque caractéristique avec des comparaisons globales, garantit qu'aucune bonne solution n'est éliminée. Afin d'évaluer notre méthode, nous avons d'abord capturé 500 images de diapositives projetées. Nous avons ensuite utilisé ces images basse résolution comme requêtes sur une archive contenant plus de 1 000 diapositives haute résolution. Nous avons ainsi obtenu une valeur de rappel de 0.81 et une précision de 0.99. Les résultats de cette évaluation montrent que notre méthode fonctionne parfaitement sur des diapositives qui possèdent des arrière-plans homogènes, et ne renfermant pas de textures complexes. Afin d'améliorer les performances de notre méthode, nous planifions dans un futur proche, de considérer conjointement la signature visuelle présentée dans cette section, qui représente la structure physique du document, et les informations colorimétriques contenues dans les diapositives. Finalement, dans un futur proche, la méthode devrait être étendue à des documents disposés sur la table ou échangés entre les participants. Aussi bien la signature visuelle des documents, présentée dans la section précédente, que le résultat de l'analyse du PDF, présenté dans la section 3, sont au format XML. Lorsqu'une zone de texte est présente dans l'image du document, extraite de la vidéo, les deux fichiers XML sont comparés afin d'associer un contenu textuel à chaque séquence vidéo correspondant à une diapositive. Il s'agit, dans cette comparaison, d'aligner a) la structure physique extraite du document PDF original avec b) la structure physique superficielle de l'image du document extraite de la vidéo, c'est-à-dire la signature visuelle. Cette procédure permet d'éviter l'utilisation d'un OCR, dont les performances seraient certainement médiocres, vu la qualité restreinte des images vidéo (à peu près 200 par 150 pixels). La segmentation et l'annotation de la vidéo du diaporama, ou de toute autre vidéo dans laquelle apparaît un document, sont stockées dans un fichier XML. Une fois que la détection du changement de diapositive a été effectuée, ou la détection de tout autre événement lié aux documents, les marqueurs temporels de début et de fin de séquences, ainsi que l'identificateur de la réunion, sont ajoutés au fichier d'annotation de la vidéo. Une fois que le document visible dans la séquence a été identifié, le document original, dans la base de données des réunions, est lié au fichier d'annotation. Finalement, après que le contenu du document PDF a été extrait et associé, le contenu textuel est ajouté à la séquence vidéo. Cette annotation de la vidéo permet ainsi de rechercher une séquence en faisant simplement une recherche à base de mots-clés. Des projets de recherche ont récemment utilisé des techniques d'analyse d'images et de vidéos afin de créer automatiquement des index visuels et des résumés de séquences vidéo de réunion. Ces résumés visuels, qui ressemblent à des bandes dessinées animées, aident des utilisateurs à percevoir rapidement le déroulement d'une réunion et permettent de naviguer à travers son enregistrement multimédia (Uchihashi et al., 1999). Cependant, ces méthodes sont souvent basées sur des caractéristiques visuelles de bas niveau et elles manquent considérablement d'informations sémantiques. D'autres projets de recherche utilisent des techniques d'analyse de la parole et du langage, ou l'extraction des sous-titres des enregistrements vidéo en utilisant des OCRs, afin de créer des index plus performants et ainsi de permettre des mécanismes de recherche d'information (Smith et al., 1998). Nous pensons que pour améliorer de tels systèmes de navigation, il est nécessaire de combiner tous les index disponibles dans une seule interface. De plus, nous souhaitons utiliser les documents comme interfaces d'accès puisque dans une grande proportion des applications multimédias (i.e. cours, présentations, réunions, etc.), les documents statiques jouent un rôle prépondérant dans l'organisation thématique des discussions. De récents projets de recherche ont montré l'importance de la structuration des médias lorsque l'on désire les synchroniser (Tran-Thuong, 2001) et nous pensons que les documents statiques peuvent fournir cette structure. Ils sont naturellement structurés, aussi bien physiquement, logiquement que thématiquement, et, une fois liés temporellement avec les autres médias, peuvent constituer des vecteurs particulièrement adaptés afin de naviguer sur des archives multimédias de réunions. Un prototype d'interface utilisant les documents statiques comme outil d'interaction, et permettant de naviguer sur des archives multimédias de réunions, est présenté sur la figure 4 puis sur la figure 5. Tout d'abord, la figure 4 représente une visualisation de tous les articles de journaux présents dans l'archive de revues de presse qui répondent à une requête donnée (i.e. « Bush, guerre, Sharon »). Les articles les plus pertinents sont retournés par le système et organisés spatialement selon les mots-clés spécifiés. Plus un article, représenté sous la forme d'un carré, est haut dans la visualisation, plus il contient de mots-clés et donc plus il répond à la requête. L'axe horizontal représente, quant à lui, la date de la réunion dans laquelle l'article a été discuté et indique ainsi l'évolution d'un thème dans le temps. Sur la même visualisation la transcription des dialogues de chacune des réunions est représentée, par un rond, suivant le même procédé. En résumé, cette application cross-réunions permet de visualiser rapidement un grand nombre d'articles, selon un ensemble de mots-clés défini par l'utilisateur, et surtout favorise une navigation thématique sur l'ensemble des réunions, en utilisant comme points d'accès non seulement le contenu de la transcription des réunions mais aussi le contenu des documents discutés ou visionnés durant les réunions. Lorsque l'utilisateur clique sur l'un des articles, l'enregistrement de la réunion correspondante est ouvert dans un navigateur dédié à l'instant où l'article est discuté (figure 5), ainsi que toutes les données liées à cette réunion, telles que les séquences audio/vidéo de chaque participant, la transcription des dialogues, les documents et diaporamas de la réunion, ainsi que toutes les annotations liées à ces données. Le navigateur présenté sur la figure 5 est ainsi constitué des composants suivants : la visualisation sliderBar tout en bas, les documents discutés à gauche, les diaporamas en bas à droite, les séquences audio/vidéo au centre et la transcription des dialogues à droite. Toutes ces représentations sont synchronisées, ce qui signifie qu'elles ont toutes la même référence temporelle : le temps de la réunion. Lorsque l'utilisateur clique sur l'une de ces représentations visuelles, par exemple sur un article de journal ou sur un énoncé de parole de la transcription textuelle des dialogues, tous les autres composants se synchronisent, i.e. se positionnent au même moment dans la réunion, et affichent leur contenu à cet instant. Par exemple, cliquer sur un article d'un document place les séquences audio/vidéo à l'instant où l'article était discuté, positionne la transcription au même instant et affiche le document qui était projeté. Ces liens visuels sont une illustration directe des alignements documents/parole et documents/vidéo. La visualisation sliderBar en bas de l'écran représente la durée complète de la réunion. Chaque couche symbolise une annotation temporelle différente : les blocs thématiques des documents discutés, les diapositives visibles à chaque instant, les tours de parole, et les énoncés de parole. D'autres annotations temporelles pourraient être ainsi affichées, suivant le type de réunions, les données capturées, ou encore suivant les outils d'analyse disponibles (les actes de dialogue, les prises de note, les gestes, etc.). Ces annotations temporelles sont pour l'instant stockées sous forme de fichiers XML, qui contiennent les marqueurs temporels de début et de fin de chaque changement d'état (i.e. nouvel interlocuteur/tour de parole, nouveau thème, changement de diapositive, etc.), ainsi que des informations topologiques pour les documents. Par exemple, la transcription de la parole contient des tours de parole, c'est-à-dire des segments de parole où un seul interlocuteur s'exprime, divisés en énoncés de parole, avec les temps respectifs de début et de fin. La visualisation sliderBar est de plus interactive; les utilisateurs peuvent ainsi cliquer sur n'importe quelle partie d'une couche afin d'accéder à un moment spécifique de la réunion, une diapositive spécifique ou à tout ce qui a été dit concernant un article spécifique d'un document. Toutes les synchronisations entre les documents statiques, les données vidéo et la transcription des dialogues, sont le fruit des alignements temporels de documents présentés dans cet article. Le sliderBar, ainsi que d'autres visualisations similaires, révèlent les relations potentielles entre des ensembles d'annotations, mettent en évidence des synergies possibles ou des conflits, et peuvent ainsi permettre de découvrir de nouvelles méthodes afin d'améliorer la génération automatique d'annotations. A l'heure actuelle, 22 réunions, d'une quinzaine de minutes chacune, ont été intégrées dans cette interface de navigation basée sur les documents. Une évaluation a été effectuée par 8 utilisateurs. L'objectif était de mesurer l'utilité des alignements de documents statiques pour naviguer et rechercher des informations sur des archives multimédias de réunions. Les performances des utilisateurs pour répondre à des questions, aussi bien unimodales que multimodales (i.e. « Quels articles de la une du Monde ont été discutés par Didier ? »), ont été mesurées aussi bien d'un point de vue qualitatif que quantitatif (i.e. durée, nombre de clics afin d'accomplir la tâche, satisfaction de l'utilisateur, etc.). Pour cette évaluation, deux versions du navigateur ont été produites : une version complète dans laquelle les alignements de documents étaient disponibles, et une version sans les alignements. Dans la seconde version, au contraire de la première, lorsque l'utilisateur cliquait sur un article, les autres modalités ne se synchronisaient pas. De même si une unité de parole, i.e. énoncé ou tour de parole, était sélectionnée, l'article courant n'était pas mis en valeur. De plus, dans la seconde version, la visualisation sliderBar n'indiquait ni les changements d'articles discutés, ni les changements de diapositives. Finalement, dans les deux versions l'utilisateur pouvait cliquer sur un article pour voir son contenu textuel. Les 8 utilisateurs ont résolu 76 % des questions posées lorsqu'ils avaient à disposition les alignements de documents, i.e. en utilisant le premier prototype, et seulement 66 % des questions lorsqu'ils n'avaient pas les alignements, i.e. en utilisant la deuxième version de l'application. Ces différences de performance sont devenues particulièrement apparentes pour les questions multimodales, i.e. qui nécessitaient des informations aussi bien contenues dans la transcription de la parole que dans les documents projetés ou discutés. Dans ce cas, 70 % des questions ont été résolues lorsque les alignements étaient disponibles et seulement 50 % des questions lorsqu'ils n'étaient plus à disposition. Cet article propose quatre étapes qui permettent de combler le fossé entre des documents statiques et des données multimédias de réunions. L'analyse de documents permet tout d'abord de construire une représentation multicouche des documents et de créer des index utiles à l'alignement avec d'autres modalités. En particulier, les alignements documents/parole et les alignements documents/vidéo ont été présentés ainsi que leurs évaluations. Ces alignements permettent de « temporaliser » les documents. Finalement, une interface de navigation, basée sur les documents et assemblant tous les alignements dans une seule plate-forme, a été présentée. Une évaluation par des utilisateurs est actuellement en préparation permettant de mesurer l'utilité des alignements de documents pour naviguer et rechercher des informations sur des archives multimédias de réunions. Nous tenons à remercier l'Ecole d'ingénieurs et d'architectes de Fribourg qui nous a aidé à mettre en place notre environnement d'enregistrement de réunions et tout particulièrement Didier von Rotz. Nous souhaitons aussi remercier Dalila Mekhaldi, Ardhendu Behera et Andrei Popescu-Belis pour leurs contributions. Finalement, nous tenons aussi à remercier les relecteurs anonymes de cette revue qui nous ont grandement aidé à améliorer le contenu de cet article .
Cet article illustre le rôle central que peuvent jouer les documents statiques dans des applications multimodales et en particulier dans l'analyse et l'indexation d'enregistrements de réunions. L'article montre ainsi l'apport des structures de documents pour segmenter des réunions, tâche complexe en utilisant uniquement l'audio et la vidéo, et propose quatre étapes afin de lier temporellement les documents et des données multimédias de réunions. D'abord, une installation permet d'enregistrer toutes les modalités d'une réunion (audio, vidéo, document, etc.). Une méthode hybride d'analyse crée ensuite une représentation multicouche des documents électroniques. Les documents, ainsi représentés, sont ensuite alignés avec la parole et la vidéo. Finalement, une interface utilisateur, basée sur les documents et bénéficiant de tous les liens temporels construits, permet de naviguer sur des archives multimédias de réunions.
sciencesInfo_05-0351076_tei_DN_084_0065.tei.xml
termith-445-communication
Cet article propose un outil de « temporalisation » d'un document XML (Bray et al., 2000). Cet outil est destiné à traiter des documents XML dont la structure temporelle n'apparaît que de façon implicite, soit au travers de l'ordre dans lequel apparaissent ou dans lequel s'imbriquent, au fil de la lecture du document, les éléments qui représentent des événements, soit dans des valeurs d'attributs (heures, dates ou durées), soit, enfin, dans le texte des éléments au travers d'expressions grammaticales de nature temporelle. L'objectif est de rendre cette structure explicite au sens d'un marquage XML. Le processus de temporalisation se déroule en deux phases. La première, manuelle, consiste à localiser par des expressions XPath (Clark et Derose,1999) les éléments temporels du document source, puis à décrire en XML les relations temporelles d'Allen (Allen, 1991) existant entre ces éléments. Le résultat est une feuille « temporelle ». La seconde consiste à générer automatiquement, par exemple par un programme XSLT (Clark, 1999), le document temporalisé à partir du document source et de la feuille temporelle. Le document temporalisé ainsi obtenu peut alors être manipulé à l'aide de langages tels que XSLT ou XQuery (Boag et al., 2003) pour exploiter conjointement sa structure logique initiale et sa structure temporelle. Le temps est une dimension importante des applications informatiques. L'étude de l'intégration de cette dimension dans les systèmes d'information a donc fait l'objet de nombreux travaux. Dans le domaine des bases de données, des extensions temporelles aux modèles et aux langages relationnels et orientés objets ont été proposées permettant de modéliser et d'interroger les données temporelles d'une base de données. On peut citer notamment TSQL2 (Snodgrass, 1995) pour les bases de données relationnelles et TEMPOS (Dumas et al., 2004) pour les bases de données orientées objets. Dans le domaine des documents structurés, qui est celui de cet article, plusieurs langages ont été proposés pour décrire en SGML (Goldfarb, 1990) ou en XML des données temporelles. Certains sont des langages généralistes qui ne visent pas une application particulière, d'autres sont plus spécialisés comme ceux conçus pour la présentation de documents multimédia. Parmi les premiers, on peut citer HyTime (De-Rose et Durand, 1994) pour les documents SGML,Temporal XML (Manukyan et Kalinenchenko, 2001) et TimeML (Pustejovsky et al., 2003) qui permet de décrire de façon très précise les expressions temporelles que l'on peut trouver dans un texte en langue naturelle, et parmi les seconds : Madeus (Jourdan et al., 1998) ou SMIL (Ayars et al., 2001). D'autres aspects ayant trait au temps pourraient être cités tels que la gestion de l'évolution des données ou des documents dans le temps : ils ne concernent pas le travail présenté dans cet article qui porte sur l'expression du temps dans un document et non sur l'évolution d'un document ou d'une collection de documents au cours du temps. On trouvera dans (Grandi, 2004) une bibliographie commentée très complète des différentes problématiques liées au temps et à l'évolution dans les documents du web. L'originalité de notre proposition est le processus de temporalisation : explicitation d'une structure temporelle implicite décrite dans une feuille temporelle séparée du document source qui reste inchangé. Signalons que nous avons déjà expérimenté cette approche dans le cadre de la sécurisation de documents XML (Gabillon et Bruno, 2001). C'est aussi l'approche qui a conduit aux TimeSheets de SMIL (Kate, 2000). Le modèle temporel sur lequel s'appuie le processus de temporalisation est lui très classique. Il utilise les types temporels de données de XML Schema pour représenter les heures, les dates et les durées, et les relations d'Allen pour représenter les relations temporelles. Cet article est organisé de la façon suivante : la section 2 explique le processus de temporalisation; la section 3 présente le modèle temporel et la description en XML d'un document temporalisé; la section 4 est consacrée à la construction d'une feuille temporelle; la section 5 conclut et ouvre des perspectives, en particulier en ce qui concerne la manipulation d'un document temporalisé. Expliquons tout d'abord ce que nous entendons par temporalisation sur un exemple auquel nous ferons référence tout au long de cet article. Il s'agit du document xml du cas « SEQ » des cas d'usage proposés par le W3C pour illustrer le langage XQuery (Chamberlin, 2003), que nous avons légérèrement adapté. Un extrait de ce document est représenté sur la figure 1. Il décrit un rapport postopératoire. Nous l'avons choisi car il est tout à fait représentatif des documents pour lesquels est conçu notre outil. En effet, comme tout rapport opératoire, il possède une structure temporelle. Mais celle -ci n'est pas décrite explicitement. Elle est inhérente à l'ordre dans lequel se succèdent ou s'imbriquent les éléments décrivant des événements et aux informations temporelles apparaissant dans les attributs ou le contenu de ces éléments. Par exemple, le fait que l'anesthésie précède la première incision est exprimé par le fait que l'élément anesthesia précède, dans l'ordre du document, le premier élément incision (en gras). De même, le fait que la préparation d'une incision est composée d'une suite d'actions est exprimé par le fait qu'un élément prep précède l'élément incision et que cet élément prep est une une séquence d'éléments action. On notera que le seul examen de la structure logique ne permet pas de mettre en évidence certaines relations temporelles comme la simultanéité ou le recouvrement d'événements. Il faut, pour cela, se reporter au texte des éléments en espérant y trouver une construction grammaticale exprimant ces relations. Par exemple, une phrase indiquant que telle action peut commencer avant que telle autre soit terminée. Par la suite, nous appellerons : élément temporel, un élément qui décrit un événement (par exemple, l'élément anesthesia) ou un élément qui contient au moins un élément temporel (par exemple, l'élément section, content); attribut temporel, un attribut dont la valeur décrit une information temporelle d'un élément temporel (par exemple, les attributs startTime et endTime de l'élémentsection.content); relation temporelle, une relation d'Allen entre deux éléments temporels (par exemple, la relation « précède » entre l'élément temporel anesthesia et le premier élément temporel incision). Une fois les éléments temporels identifiés, leurs attributs temporels spécifiés et les relations temporelles qu'ils entretiennent mises en évidence, il s'agit de produire le document temporalisé. C'est le rôle de l'outil que nous proposons, qui est composé : d'un langage de description en xml des aspects temporels d'un document xml fondé sur un modèle temporel basé sur les relations d'Allen (paragraphe 3); d'un langage de feuille temporelle permettant de localiser par des chemins XPath dans le document à temporaliser, les éléments temporels (ceux qui représentent des événements) et de décrire leurs attributs temporels et les relations d'Allen qui existent entre eux (paragraphe 4); d'un moteur qui, à partir d'un document source et d'une feuille temporelle, permet de construire le document temporalisè correspondant. Les langages XPath et XQuery utilisent un modèle commun pour représenter les documents XML qu'ils manipulent : le « XQuery 1.0 and XPath 2.0 Data Model » (Fernandez et al., 2003). Sous ce modèle, un document est représenté par un arbre qui com - porte sept sortes de nœuds : document, élément, attribut, texte, commentaire, espace de noms, et instruction de traitement. Pour simplifier, les trois dernières sortes de nœuds ne sont pas considérées dans cet article. La structure d'un arbre de document est régie par les règles suivantes : le nœud document constitue la racine de l'arbre d'un document, il a un fils unique qui est un nœud élément qui représente l'élément de niveau supérieur du document (le premier dans l'ordre de lecture) aussi appelé élément du document; un nœud élément est étiqueté par le nom de l'élément qu'il représente, il a pour fils les nœuds représentants les attributs, les éléments et les fragments de texte qui le constituent. Parmi ces fils, les nœuds élément et les nœuds texte sont appelés ses enfants. Ces enfants sont ordonnés selon l'ordre de lecture du document; un nœud attribut est étiqueté par le nom et la valeur de l'attribut qu'il représente. Il a pour père un nœud élément et n'a pas de nœud fils. un nœud texte est étiqueté par le fragment de texte qu'il représente. Il a pour père un nœud élément et n'a pas de nœud fils. Nous étendons ce modèle pour prendre en compte le caractère temporel de certains éléments d'un document xml. Ces documents seront appelés documents temporels. Le modèle proposé ne permet d'associer des caractéristiques temporelles qu'aux nœuds élément. En effet, ce sont les seuls à posséder un contenu structuré qui puisse être enrichi. Ainsi, un nœud texte devra être encapsulé dans un élément pour lui associer une sémantique temporelle. tout nœud élément peut être étiqueté par un identifiant temporel id T (il est alors appelé nœud temporel ou élément temporel). On notera N T l'ensemble des nœuds temporels d'un document temporel. à tout nœud de N T, peuvent être associées une ou plusieurs étiquettes temporelles. Par exemple, les étiquettes temporelles start, end et duration dont les valeurs 1 peuvent être définies sur les types de données correspondants proposés dans les sché - mas xml. entre les nœuds de N T, on peut définir une relation temporelle R T à partir des relations de Allen et des connecteurs de conjonction et de disjonction : Une relation de base est définie par son nom, par les identifiants des nœuds temporels source et cible et par une liste éventuellement vide de paramètres. Les relations temporelles de base sont définies dans le tableau de la figure 2 (où la source a et la cible b sont des identifiants temporels et n ≥ 0 est une durée). La figure 3 montre un extrait de l'arbre du document xml de la figure 1. Le nœud document est symbolisé par un cercle, les nœuds élément par un rectangle à coins arrondis et les nœuds texte par un rectangle. Les identifiants temporels sont indiqués en gras. Dans le cas général, on ne peut pas considérer que la structure logique reflète directement la structure temporelle. Nous ne proposons donc pas de relations temporelles de base implicites. Il est nécessaire d'expliciter toutes ces relations. Pour l'exemple de la figure 3, nous avons la relation temporelle suivante : On remarquera que nous ne précisons pas de contraintes entre les nœuds id 5, id 6 et le nœud id 7 : l'absence de relations entre ces nœuds est un moyen pour nous d'envi - sager qu'ils soient concurrents (dans notre exemple, l'action (id 7) « the cardiac rythm is monitored » peut s'effectuer avant, après ou même en parallèle des actions id 5 et id 6 qui, elles, se succèdent). Dans cet exemple, nous n'avons considéré qu'une conjonction de relations temporelles de base (elles sont indépendantes les unes des autres). Cependant, notre modèle permet de considérer également les cas où une relation est conditionnée par une autre. Supposons dans notre exemple, que deux actions comme la mesure de la tension artérielle (id 2.2) et la surveillance du rythme cardiaque (id 2.1) ne puissent pas être réalisées en même temps, mais que toutes deux doivent avoir lieu à un moment quelconque pendant l'anesthésie. La figure 4 illustre les deux interprétations possibles de la relation temporelle suivante : Nous proposons maintenant une syntaxe XML pour représenter les informations (étiquettes et relations) temporelles à associer au document source, pour obtenir le document xml temporel associé. Cette syntaxe fait référence à l'espace de nom xml Time Data (« http:// sis. univ-tln. f/ XMLTimeData ») de préfixe xtd. Nous avons fait le choix d'intégrer, quand cela était possible, la représentation des informations temporelles à associer aux nœuds source comme contenu de ces nœuds; cette solution permet de procéder par enrichissement du document source et ne modifie pas fondamentalement la structure originale du document source. Dans chaque élément correspondant à un nœud temporel s, pour représenter son identifiant temporel et ses éventuelles étiquettes temporelles, on insère comme premier fils de cet élément, un élément de la forme suivante : Pour représenter la relation R T, on utilise un élément XML xtd : timerelations dont le contenu est construit par l'attribut val de la grammaire attribuée suivante : Cette grammaire s'applique à la relation temporelle R T. La première règle s'applique à une relation de base de nom nom_de_relation définie entre deux nœuds d'identifiants temporels source s et cible t, de paramètres éventuels p1, …, pn, de valeurs respectives v1, …, vn. Dans cet article, nous ne considérons qu'un seul pa - ramètre, celui de la durée (durée entre deux événements, paramètre n des relations temporelles de base, precedes et succeeds). L'élément xtd:timerelations est représenté dans un document externe. Il est rattaché au document source par une instruction de traitement de la forme suivante : La figure 5 montre l'élément xtd:timerelations décrivant la relation R T du document de la figure 1. On notera la lourdeur de cette notation. Le fragment en italique souligne la représentation de la disjonction (cf. figure 4). Pour simplifier la relation R T, nous proposons : (i) de la mettre sous forme normale conjonctive, (ii) de rendre implicite l'expression de la conjonction de relations, (iii) de déplacer les facteurs composés d'une seule relation de base dans la description de chaque nœud source de cette relation. Ainsi, on obtient le document temporel de la figure 6. On remarque que l'attribut souce n'est plus nécessaire. Cette syntaxe permet donc de regrouper les relations indépendantes d'autres relations entre un nœud source et des nœuds cible. La relation R T se réduit alors à la disjonction présentée dans le document de la figure 7, nous l'appellerons relation temporelle globale. L'objectif d'une feuille temporelle est de décrire les règles de transformation permettant de produire, à partir d'un document source D et de la relation temporelle R T, un document D T contenant explicitement les informations temporelles et un document contenant la relation temporelle globale. Il est important de noter que dans le cas où il n'y a pas de disjonctions dans R T, le deuxième document n'est pas produit. La construction d'une feuille temporelle se fait en deux étapes : (1) l'identification des nœuds temporels, (2) la construction des étiquettes et des relations. Elle est réalisée par une expression de la forme : où P iest un modèle de chemin dans l'arbre du document D. L'ensemble N T des nœuds temporels de D est composé des nœuds conformes à au moins l'un des modèles de chemin P i. Une étiquette timeID dont la valeur est unique dans le document est ajoutée à chacun de ces nœuds. Les modèles de chemin sont décrits avec le langage XPath. Elle est réalisée par un ensemble d'expressions de la forme suivante : où e 1,…, e n sont des étiquettes temporelles (start, end, duration dans cet article) et v1,…,vn leurs valeurs respectives à associer à chacun des nœuds temporels de D T conformes au modèle de chemin XPath P. Ces valeurs peuvent être littérales ou bien être obtenues par l'évaluation d'une fonction dépendant d'un ensemble de nœuds sélectionnés par une expression XPath. Il faut noter que différentes règles de ce type peuvent concerner un même nœud source. Notre politique de gestion des conflits par défaut est la suivante (elle se rapproche des cascades de CSS) : le règlement des conflits est réalisé au niveau des étiquettes et non au niveau des règles. Ainsi, dans le cas où la définition d'une étiquette est en conflit avec une autre (même nœud, même nom d'étiquette, valeur différente) c'est celle définie dans la dernière règle qui est choisie et toutes les autres étiquettes lui sont ajoutées. Nous proposons aussi un autre mode de gestion de conflits : une règle peut préciser qu'elle supprime toutes les étiquettes associées au nœud par les règles précédentes. Le mélange de ces deux modes permet de définir des propriétés par raffinement et aussi de définir des exceptions. Les k règles appliquées au document D pour fixer les étiquettes temporelles des nœuds sont donc de la forme suivante : Pour chaque nœud temporel n de D T, l'ensemble P de ses étiquettes temporelles est calculé avec l'algorithme suivant : La ligne 1 réinitialise l'ensemble P avec les étiquettes de la règle R i. Dans ce cas, la règle R ii n'est donc prioritaire que sur les règles R j avec j < i. La ligne 3 ajoute les étiquettes définies par R i; dans le cas où des étiquettes de même nom étaient déjà définies dans P, elles sont au préalable supprimées par la ligne 2. Elle est réalisée par conjonction de l'évaluation des sous-expressions produites par les règles de la forme suivante sur le document source : avec P s un modèle de chemin XPath dans D, P c un chemin absolu XPath dans D ou un chemin XPath relatif à chacun des nœuds temporels conformes à P s, r un nom de relation et où p 1,…, pn sont les paramètres de cette relation et v 1,…, vn leurs valeurs respectives. Pour chaque nœud s conforme au modèle de chemin Ps et pour chaque nœud c atteint par un chemin absolu Pc ou atteint par un chemin relatif Pc à partir de s, on crée la relation locale r(s, c,p1 = v1,…,pn = vn). Rappelons que les paramètres d'une relation sont optionnels et dans cet article réduits au paramètre durée (cf. 3.1). Ce mécanisme ne vérifie pas la consistance des relations temporelles définies par les règles, celle -ci devra être réalisée a posteriori au fur et à mesure de l'nstanciation du document temporel. C'est l'une des perspectives de ce travail. Nous proposons maintenant une syntaxe XML pour décrire une feuille temporelle. Cette syntaxe fait référence à l'espace de nom XML Time Sheet (« http:// sis. »), de préfixe xts. Une feuille temporelle est composée d'un élément racine xts : rules. <xts:rules xmLns:xts=, " http:// sis-univ-tln - " > Cet élément contient : an et un seul élément timénodes qui specifie l'ensemble des nœds temporels conformes aux modèles de chemins XPath P 1,…, Pn <xts:timenodes match=," P 1|…| Pn " /> un ensemble d'éléments rule de la forme suivante La partie (a) de la règle associe si nécessaire des étiquettes temporelles aux nœuds source conformes au modèle de chemin XPath Ps. Dans la partie (b) de la règle, chaque élément xts:relation spécifie une relation temporelle de type r et de paramètres p1 = v1...pn = vn entre chaque couple (s,c) tel que s est conforme au modèle de chemin Ps et c est atteint par un chemin XPath Pc relatif à s ou absolu. La figure 8 montre la feuille temporelle qui, appliquée au document de la figure 1, produit le document DT et le document contenant la relation temporelle globale des figures 6 et 7. Elle indique : La définition des nœuds temporels : il s'agit des nœuds conformes aux modèles de chemins XPath indiqués, c'est-à-dire les nœuds section. content contenant des nœuds action, le premier nœud prep, les nœuds anesthesia, incision et action. On associe également un alias à trois ensembles de nœuds temporels (réduits à des singletons). Cela permet de simplifier l'écriture de règles portant sur ces nœuds. La définition des règles temporelles qui s'effectue généralement en deux temps, la définition des étiquettes temporelles puis celles des règles temporelles reliant les nœuds entre eux : On associe au premier nœud section.content contenant des nœuds action, deux étiquettes temporelles start et duration. On notera que leur valeur est calculée à partir d'attributs extraits du document source. On définit ensuite une règle pour établir, entre les nœuds temporels, une coïncidence entre l'ordre de lecture du document et l'ordre temporel. Ainsi nous indiquons que tous les nœuds temporels (ayant un attribut time id) descendants du premier nœud section, content (id 2, id 3, id 4, id 5, id 6) succèdent aux nœuds temporels qui les précèdent (en particulier, id 3 succède à id 2, id 4 à id 3, id 4 à id 2, id 6 à id 5). Dans cette règle, on remarque une première exception (via l'attribut exceptNodes) pour le nœud temporel id 7.La règle ne s'applique donc pas à ce nœud temporel (la dernière action de la phase de préparation) comme cible ou comme source. On ne précise donc pas de relation de succession pour ce nœud (id 7 ne suit ni ne ne précède id 5 ou id 6). Autrement dit, toutes les interprétations sont possibles (avant, après, pendant, chevauche …). Cela permet d'exprimer que ces nœuds temporels sont concurrents (cf.section 3.1). Pour les deux autres exceptions concernées (les nœuds id 2.1 et id 2.2) par cette règle, le même mécanisme s'applique (les relations entre ces nœuds sont définies de façon spécifique dans la dernière règle). La dernière règle indique que les nœuds id 2.1 et id 2.2 ne peuvent avoir lieu en même temps et l'ordonnancement n'est pas précisé. Les deuxième et troisème règles seront couramment utilisées. Elles exploitent la coïncidence implicite qui peut exister entre la structure logique d'un document et sa sémantique temporelle. La difficulté pour le concepteur de la feuille temporelle est de définir les expressions XPath permettant respectivement de désigner les nœuds source et cible. Nous pensons que c'est justement la puissance d'expression du langage XPath qui facilitera la définition de règles génériques ou spécifiques à un contexte donné. Dans cet article, nous avons proposé un outil permettant de générer un document XML temporalisé à partir d'un document source et d'une feuille temporelle. Les règles et les exceptions associées énoncées dans cette feuille précisent les liens entre les éléments du document source et les informations temporelles que l'utilisateur souhaite intégrer au document temporalisé. Cet outil comprend : un langage de description en XML des aspects temporels d'un document XML fondé sur un modèle basé sur les relations d'Allen; un langage de feuille temporelle permettant de localiser par des chemins XPath dans le document à temporaliser, les éléments temporels (ceux qui représentent des événements) et de décrire leurs attributs temporels et les relations d'Allen qui existent entre eux; un moteur qui, à partir d'un document source et d'une feuille temporelle, permet de construire le document temporalisé correspondant. Un premier prototype de cet outil, initialement proposé dans (Bruno et al., 2004) a été implanté en utilisant le langage XSLT pour traduire une feuille temporelle en un ensemble de feuilles XSLT qui appliquées successivement au document source produisent le document temporalisé associé. Le modèle présenté ici est plus riche, un nouveau prototype écrit en Java est en cours de développement. Nos perspectives dans le cadre de ce travail sont les suivantes. Tout d'abord, il est nécessaire de proposer un mécanisme permettant de déduire les règles temporelles manquantes et de vérifier leur consistance. Nous envisageons également d'étendre notre modèle pour prendre en compte, les « différents » temps du documents (temps du cycle de vie du document, temps du discours …). Notre objectif, à plus long terme, est que ces temps puissent être clairement distingués, mais aussi interrogés conjointement. A l'heure actuelle, aucun des langages de manipulation de documents XML, que ce soit XSLT ou XQuery, ne propose de mécanismes spécifiques à la manipulation de données temporelles. Nous travaillons sur une extension du langage XQuery le permettant. Enfin, la difficulté d'écriture d'une feuille temporelle nous conduit à envisager l'étude de mécanismes d'assistance comme par exemple l'utilisation de techniques de traitement automatique de la langue naturelle pour suggérer des règles possibles à l'utilisateur .
Cet article propose un nouvel outil destiné à annoter la structure temporelle d'un document XML dans lequel cette structure n'apparaît que de façon implicite, soit au travers de l'ordre dans lequel se succèdent les éléments temporels (ceux qui représentent des événements), soit au travers d'attributs temporels (heures, dates ou durées), soit au travers d'expressions de nature temporelle dans le texte du document. Cette annotation temporelle que nous appelons « temporalisation » se déroule en deux étapes. La première étape, manuelle, consiste à localiser par des expressions XPath les éléments temporels du document source et à décrire en XML les relations temporelles d'Allen existant entre ces éléments. Le résultat est une feuille de style « temporelle ». La seconde étape consiste à générer automatiquement, par un programme XSLT, le document temporalisé à partir du document source et de sa feuille temporelle. Le document temporalisé ainsi obtenu peut être manipulé à l'aide de langages tels que XSLT ou XQuery pour exploiter conjointement sa structure logique initiale et sa structure temporelle.
sciencesInfo_05-0351079_tei_DN_084_0125.tei.xml
termith-446-communication
LA QUESTION DE L'EVALUATION DE l'information ne cesse de préoccuper les professionnels de l'information, comme en atteste la journée coorganisée le 28 mars 2007 par l'Association des professionnels de l'information et de la documentation (ADBS) et la Fédération des enseignants documentalistes de l' Éducation nationale FADBEN), après une journée sur la même thématique proposée par le réseau des URFIST en janvier. Pourquoi cette question récurrente chez les professionnels de l'information ? Évaluer l'information, c'est déterminer, estimer sa valeur. Pourquoi et comment évaluer ? Pour quoi faire, dans quel but et avec quels objectifs ? Comment évaluer la valeur de l'information, selon quels critères ? Que doit-on évaluer ? Les questions se déclinent différemment selon les contextes professionnels. Dans le domaine des entreprises et des organisations, les professionnels de l'information sont en charge de déterminer quelle information mettre à disposition des usagers des centres de ressources documentaires : quelles acquisitions, quelle politique de gestion du fonds ? Quelle est l'information dont ils ont besoin pour décider ou agir ? Comment les accompagner dans leurs recherches ? Dans les établissements scolaires, les mêmes questions se posent, avec une préoccupation supplémentaire : comment apprendre aux élèves à évaluer ? À l'heure où tout un chacun accède directement à nombre d'informations en ligne, cette question ne préoccupe d'ailleurs pas que les enseignants. L'évaluation est bien au cœur des processus de traitement de l'information. Si la question revient sur le devant de la scène, c'est que le paysage informationnel a changé. Les critères traditionnels d'évaluation de l'information sont-ils toujours opérants, à l'heure où les volumes d'information potentielle ne cessent de croître ? Le développement de l'information en ligne, disponible gratuitement pour le grand public ou délivrée par des services payants spécialisés, est-il la cause du renouveau des interrogations sur cette question ? La multiplicité des outils de recherche, de veille, de diffusion de l'information, loin de résoudre la question, la repose avec acuité. Face à la quantité d'information désormais disponible, nous devons en effet recourir à des outils qui tendent parfois à faire croire que l'intervention des professionnels est désormais inutile. L'idéal du siècle des Lumières était de permettre à tous un accès aux connaissances. Cet idéal a trouvé une nouvelle résonnance avec le développement des services d'information en ligne. La volonté de partage d'information et d'une diffusion rapide des documents a été un des moteurs du développement de l'internet. Au sein de la communauté des scientifiques, ce dispositif technique répondait à un besoin : raccourcir les délais de mise à disposition des connaissances, faciliter les échanges entre chercheurs et leur permettre de communiquer presque en temps réel. Puis l'internet s'est ouvert au grand public. Le développement de l'information électronique a donné l'illusion de son ubiquité – une information accessible et disponible partout –, il a accéléré le changement d'échelle de temps – un accès toujours plus rapide, une diffusion accélérée qui réduit le temps nécessaire à une validation approfondie. Le monde de l'imprimé avait constitué progressivement ses repères. Dans ce monde -là, une première évaluation des documents prend place traditionnellement en amont du processus éditorial, et c'est ce processus qui donne à l'objet valeur de document. Trois repères principaux jalonnent le monde de l'imprimé : l'autorité personnelle de l'auteur, le travail de l'éditeur qui sélectionne, corrige et met en forme l'information, et une typologie des textes qui permet d'apprécier selon des critères différents la fiction des documentaires, les ouvrages spécialisés des manuels, les livres des périodiques, les revues scientifiques ou professionnelles des magazines, la presse généraliste de la presse spécialisée. Chaque catégorie de document a ses propres caractéristiques, bien connues et définies dans le monde de l'édition traditionnelle, et à chacune s'appliquent des règles d'évaluation plus ou moins strictes avant la publication. À présent, on trouve en ligne, à côté de documents qui sont toujours passés au crible d'une chaîne éditoriale solide, des documents publiés librement. Le vocable « ressources numériques » revient de plus en plus fréquemment. Cette expression désigne tout un ensemble d'objets informationnels hétérogènes : documents numériques, mais aussi bases ou banques de données, flux d'informations, voire logiciels. La fonction de stockage n'est plus la fonction documentaire principale, elle est reléguée au second plan. La logique d'accès à l'information via un document imprimé, qui privilégiait une certaine intégrité et une certaine stabilité de celle -ci, se mue en un accès plus souple et personnalisé à des fragments d'information. Face à ces ressources évolutives, comme l'a souligné Sylvie Laîné-Cluzel, le processus de production tend à s'effacer « au profit d'une logique d'exploitation et de service » [9 ]. La stabilité du document imprimé lui conférait une partie importante de sa valeur, le posait en objet de référence. L'instabilité des ressources numériques oblige à repenser les critères de leur évaluation. Effectuons un retour aux sources. Paul Otlet, le père de la Classification décimale universelle, a posé un certain nombre de conditions relatives à la qualité de la documentation : « Les buts de la documentation organisée consistent à pouvoir offrir sur tout ordre de fait et de connaissance des informations universelles quant à leur objet; sûres et vraies; complètes; rapides; à jour; faciles à obtenir; réunies d'avance et prêtes à être communiquées; mises à la disposition du plus grand nombre. [11] » Relire cette proposition à l'heure actuelle donne quelques pistes de réflexion. Si l'internet a apporté la rapidité et une mise à disposition plus large des informations, s'il a amélioré l'accessibilité directe aux documents et la rapidité des mises à jour, force est de constater qu'il a aussi brouillé les repères. Les innovations se font souvent à marche forcée et ignorent parfois un certain héritage culturel. C'est peut être le prix à payer pour que ces innovations voient le jour mais c'est aussi l'occasion de repenser cet héritage culturel. Revenons un instant sur les qualités de la documentation décrites par Paul Otlet. Nos sociétés sont de plus en plus marquées par deux tendances contradictoires. D'une part, nous sommes submergés d'informations hétérogènes provenant des quatre coins de la planète, dans des flux où l'accessoire et l'anecdotique côtoient l'essentiel et le fondamental. Souvent, les informations présentées comme universelles ne sont en réalité que représentatives d'une certaine sphère médiatique. On peut parler de valeurs universelles, mais peut-on évoquer des informations universelles quant à leur objet ? On sait que les individus sont d'abord intéressés par les informations locales, celles qui touchent à leur environnement quotidien familier. Google l'a bien compris, qui a développé un service Google Local, privilégiant les informations commerciales de proximité. Quelles valeurs universelles peuvent être attachées à l'information documentaire ? Quelles valeurs s'appliquent à tout et à tous ? D'autre part, la tendance actuelle est à la personnalisation de l'information. Destinée à lutter contre la surabondance de l'information, cette tendance n'est pas sans poser question : ne s'achemine -t-on pas plutôt vers une particularisation de l'information ? Est-elle souhaitable ou peut-elle entraîner des effets pervers ? Les scientifiques savent que toute vérité est relative à l'état des connaissances à un moment donné. Les connaissances évoluent et seule la rigueur méthodologique garantit une certaine validité de l'information diffusée. Plutôt que de vérité, il convient de parler d'exactitude et de sincérité : l'exactitude d'une conformité avec le réel et des méthodes employées pour arriver à une conclusion; la sincérité de l'expression qui dit clairement d'où elle parle et pourquoi elle le fait. On évoque couramment la nécessité pour l'internaute de valider l'information trouvée en ligne. Pour la valider, lui explique -t-on parfois, il faut la recouper avec d'autres sources 1. Or, une des principales caractéristiques des informations en ligne, à l'heure actuelle, est la redondance. Les informations sont reprises, copiées, rediffusées, parfois extraites de leur contexte, au mieux commentées – à tel point qu'il est parfois difficile d'en retrouver la source originale. Désormais, ce n'est pas l'information qui est rare, comme l'a souligné dès les années soixante-dix Herbert Simon, économiste et pionnier de l'intelligence artificielle, mais l'attention que les humains peuvent y porter. À l'image des techniques de mesure d'audience, le critère de popularité de l'information tend à s'imposer, dans une économie de l'attention où chacun veut occuper le terrain médiatique. Valider l'information, c'est s'assurer qu'elle est conforme à certaines exigences, expliquent Annaïg Mahé et Élisabeth Noël à propos de l'évaluation des ressources pédagogiques en ligne [10 ]. Elles distinguent pertinemment le processus de validation des ressources et l'évaluation de la qualité intrinsèque des contenus. La validation s'appuie sur un ensemble de critères souvent formels, critères que l'on retrouve fréquemment dans les grilles d'évaluation de l'information sur le web : peut-on trouver l'auteur ? Le site est-il daté et régulièrement mis à jour ? Les ressources sont-elles présentées de façon logique et claire ? Quelques grilles vont plus loin qui, en s'appuyant sur une analyse de contenu, proposent d'examiner l'intention de l'auteur, le pourquoi de la publication. Cette dernière tâche est souvent longue et difficile, elle nécessite des informations contextuelles que le traitement documentaire s'attache à préserver mais que les concepteurs de pages web ignorent encore trop souvent. Le réseau n'a fait qu'amplifier les possibilités de diffusion d'informations partiales, incomplètes ou fausses. Ces falsifications peuvent être intentionnelles, pour faire adhérer à une cause et convaincre (c'est la propagande) ou influencer l'opinion publique (c'est la désinformation). Elles peuvent aussi être involontaires parce que l'auteur manque de rigueur, qu'il s'appuie sur des préjugés ou des stéréotypes qu'il n'a pas interrogés (c'est la mésinformation). Éric Sutter a évoqué la nécessité de travailler « pour une écologie de l'information », de lutter contre l'info-pollution [14 ]. Il a recensé les risques liés à la surabondance de l'information, à la désinformation, à la prolifération d'informations indésirables ou nocives, et enfin les « effets pervers de la publicité ». Présente massivement sur le Web, la publicité s'est développée avec la marchandisation des services en ligne. Le modèle de la pseudo-gratuité s'est imposé pour nombre de ces services, notamment les moteurs de recherche généralistes. Il est vrai que, face au fonctionnement aléatoire de ces outils à leurs débuts, c'était le seul moyen de viabiliser les activités de leurs opérateurs. La publicité s'appuie sur un phénomène de séduction dans le but de convaincre le consommateur d'acheter. Elle procède de manière à attirer l'attention. Mais, dans les pages de résultat des moteurs de recherche, elle avance masquée : point de tambours ni de trompettes, de pop-ups envahissantes qui indisposent l'internaute ! Des rubriques à peine signalées et sobrement nommées « liens sponsorisés ». Le professionnel averti reconnaît les signes de tous ces défauts non seulement grâce à des critères formels, mais aussi grâce à ses connaissances du domaine ou de la question traitée. Mais quid de l'internaute commun ? La confiance a été et reste un élément déterminant de la diffusion de l'information : selon la source et la confiance que l'on a en elle, le jugement de valeur que l'on portera sur l'information sera différent. La confiance n'est pas seulement un sentiment individuel ou subjectif, c'est un processus élaboré socialement pour réduire la complexité du traitement de la masse informationnelle. Nos sociétés ont mis en place un système de délégation de confiance : des personnes ou des organismes sont promus référents pour assurer une certaine sûreté aux informations diffusées. Les bibliothèques et les musées sont les premiers référents dans le domaine culturel. Le professionnel de l'information fait partie de ces référents, en raison de ses connaissances et des règles déontologiques qu'il applique dans sa fonction : le traitement documentaire qu'il effectue ajoute de la valeur aux documents. La fiabilité de la source, sa capacité à fournir des informations qualifiées et non déformées sont des éléments de cette sûreté. Lorsque l'information est désintermédiée, c'est à l'usager d'apprécier la sûreté de l'information. Patrick Wilson 2, bibliothécaire à l'université de Californie de Berkeley et formateur en science de l'information et des bibliothèques, a développé le concept d' « autorité cognitive » [15 ]. Chez lui, ce concept fait référence aux influences qu'une personne reconnaît et qui rendent l'information crédible et digne de confiance. Pour Patrick Wilson, l'autorité cognitive – qu'il nomme ainsi pour la distinguer de l'autorité administrative – n'est pas l'apanage des personnes, elle n'est pas limitée aux seuls individus. Elle peut être attribuée à des livres, des instruments, des organisations ou des institutions. À l'autorité personnelle de l'auteur s'ajoute l'autorité institutionnelle de l'éditeur, l'autorité liée au type de document et l'autorité liée à la plausibilité du contenu du texte, ce que Évelyne Broudoux nomme l' « autorité informationnelle » [2 ]. Les écrits anonymes ou publiés sous un pseudonyme ont toujours existé. La notion d'auteur telle que nous la connaissons à l'heure actuelle est héritée du développement d'un dispositif technique : l'imprimerie. Avec le développement de l'internet et des pratiques d'écriture collaborative, cette notion est ré-interrogée. À l'autorité personnelle de l'auteur se substitue un réseau d'autorités qui collaborent à l'élaboration collective d'informations. Sur le modèle de la production scientifique, les textes sont relus, discutés, amendés, augmentés avant d'atteindre une forme stable. Ce qui est nouveau, c'est que dorénavant ce processus se fait souvent au grand jour, ce qui force à en expliciter les mécanismes, comme dans le cas de la Wikipédia. La complétude est un critère essentiel pour qui veut bien (s' )informer. Il ne s'agit pas de compiler ni d'entasser. Cela impose une hiérarchisation des éléments d'information, de manière à ce que l'essentiel apparaisse au détriment de l'anecdotique. Ne pas omettre des éléments essentiels est important pour la décision et l'action. Dans le monde numérique où la masse de ressources ne cesse de croître, comment définir la complétude ? La croissance exponentielle du Web a provoqué d'abord une sorte de sidération. La question de la taille de la Toile a préoccupé un certain nombre de chercheurs et d'organismes jusqu'au début des années deux mille, donnant lieu périodiquement à la publication de rapports sur la question. Jusqu'en 2005, les moteurs de recherche les plus connus du grand public se sont livrés une bataille médiatique à coup de surenchère sur la taille de leurs index respectifs 3. Cette course incessante semble désormais reléguée au second plan. Les études sur la taille du Web sont passées d'une certaine fascination inspirée par le développement de la publication en ligne à des analyses marketing ciblées pour attirer des annonceurs potentiels. Des informations complètes sont-elles des informations exhaustives ? Le mythe de l'exhaustivité a toujours hanté les chercheurs d'information. Dans les systèmes traditionnels de recherche d'information, l'exhaustivité était une qualité importante de l'outil : dans une collection limitée, retrouver tous les documents traitant d'un sujet donné permettait de s'assurer du bon fonctionnement du système. Mais l'exhaustivité n'est un critère utile que dans l'hypothèse d'un monde clos. Dans un monde ouvert, qui aurait le temps et les moyens de consulter un volume exponentiel d'information ? Comment s'assurer que l'on a épuisé une matière, une question donnée sans rien omettre ? Dans un monde de flux, la complétude peut être mise à mal : un élément nouveau est diffusé le plus rapidement possible. Le format court qu'impose la culture de l'écran pousse à omettre de rappeler les éléments connus précédemment sur une même question : il faut faire bref, inconfort de la lecture à l'écran oblige. La fragmentation devient la règle et chaque nouveau fragment tend à effacer ceux qui l'ont précédé. Jusqu' à quel point peut-on découper des contenus informationnels sans perdre du sens ? Et quel processus assure la restitution de l'intégrité d'un contenu lors de l'accès ou de l'interrogation ? Pour convenir au format du Web, les textes sont raccourcis. Le style de l'écriture sur le Web s'inspire souvent des techniques de l'écriture journalistique et notamment de la règle de la pyramide inversée : on commence par la conclusion pour retenir l'attention du lecteur, quitte à omettre une partie des détails qui permettent d'y arriver ou à les cacher derrière des liens que l'internaute activera ou non, selon le temps dont il disposera et la conscience dont il fera preuve. La complétude s'estompe face à la prolifération d'informations fragmentaires et parfois hétérogènes. C'est donc à l'internaute de prendre le temps de recoller les morceaux pour leur donner du sens. De nombreux chercheurs se sont intéressés aux critères d'évaluation de l'information et aux jugements de pertinence que portent les usagers. En 1994, Carol Barry, après avoir mené une étude exploratoire, énumère les critères utilisés par les chercheurs d'information pour évaluer la pertinence d'une information [1 ]. Elle évoque des critères liés au contenu informationnel : le degré de profondeur de traitement du sujet, la spécificité du document sur le sujet traité, l'exactitude objective ou la validité, le lien avec des faits tangibles et réels, l'efficacité lorsque le document évoque une méthode ou un mode d'emploi, la clarté et la lisibilité et enfin le degré d'actualité ou d'obsolescence. Carol Barry mentionne aussi le fait que l'évaluation de l'information fait intervenir des critères affectifs et émotionnels : on accorde plus de crédit à son auteur préféré, on accorde moins de crédit à une personne ou à une revue que l'on n'aime pas. En 1997, Rieh et Belkin [13] ont mené une étude empirique auprès d'universitaires (enseignants et doctorants) pour connaître leur appréciation de l'information en ligne qu'ils utilisent lors de leurs recherches. Rieh [12] montre que, sur le Web, ces chercheurs d'information exploitent toujours des critères liés au contenu (ce qu'il y a dans le document), d'autres critères qui concernent ses caractéristiques formelles (le format du document), et d'autres encore attachés à la présentation, la manière dont le document est écrit et/ou présenté. On trouve aussi, parmi leurs critères, l'actualité ou l'obsolescence de l'information, son exactitude, et d'autres critères plus pragmatiques comme le temps de chargement (l'étude a été menée à l'époque du World Wide Wait 4). Selon cette étude les internautes s'appuient sur une fourchette d'indices plus large et diversifiée pour évaluer les ressources en ligne que les documents imprimés. Les critères liés à l'évaluation de la qualité de l'information sur le Web seraient de cinq ordres : la qualité intrinsèque, l'exactitude, l'actualité/obsolescence, l'utilité et l'importance. Mais ces différents critères interviennent de façon inégale dans les recherches, en fonction de la nature de la tâche effectuée. Un autre aspect important de l'étude de Rieh [12] est qu'elle met en évidence le fait que les universitaires intérogés portent deux types de jugements lorsqu'ils s'informent sur le Web : des jugements prédictifs et des jugements évaluatifs. Les jugements prédictifs leur permettent de décider s'ils vont consulter ou non telle ou telle ressource. Les jugements évaluatifs portent sur le contenu des documents ou des ressources et leur permettent de décider d'en utiliser effectivement ou non le contenu. Pour effectuer ces jugements, les personnes observées s'appuient sur des hypothèses conscientes ou inconscientes relatives à la valeur de l'information. Leurs évaluations ne sont pas dichotomiques (bon/mauvais, adéquat/inadéquat) mais multidimensionnelles et elles font intervenir différents critères mis en œuvre selon une hiérarchie qui varie selon la situation. Dans le domaine de l'information médicale, par exemple, l'autorité cognitive prime sur les autres aspects dans les jugements prédictifs et évaluatifs. Ces résultats semblent montrer l'importance des représentations que se fait l'internaute du domaine du sujet de sa recherche dans la modulation des critères d'évaluation. La médecine est en effet un domaine de connaissance que nous savons complexe, qui nécessite des études longues, et l'information y a souvent un impact stratégique. Rieh [12] observe la même prépondérance, à un moindre degré, lorsqu'il s'agit de s'informer pour acheter un ordinateur : face à une multitude de critères techniques à prendre en compte, il est plus simple de déléguer sa confiance. Par contre, lorsque les universitaires qui ont participé à cette expérimentation ont cherché des informations sur les voyages, c'est la qualité de l'information qui primait. Enfin, pour les questions portant sur leur domaine de recherche scientifique, les critères liés à la qualité intrinsèque semblent aussi primer, mais ces universitaires s'adressaient d'emblée à des sources réputées pour leur qualité. Les jugements prédictifs s'appuient davantage sur la connaissance personnelle de l'internaute en termes de système ou de domaine du sujet : souvent, les personnes observées se dirigent directement vers un site spécifique qu'ils connaissent ou qui leur a été conseillé. Les caractéristiques formelles des sources influencent également les jugements prédictifs. Par contre, les jugements évaluatifs s'appuient davantage sur le contenu informationnel, le type d'objet d'information et sa présentation. La lecture des articles des chercheurs sur la question des critères de jugement de pertinence montre une certaine évolution entre le milieu des années quatre-vingt-dix et le début de ce XXIe siècle. Les critères liés à la présentation de l'information semblent monter en puissance. Auparavant, on évoquait uniquement la clarté et la lisibilité des textes. À présent, les critères ergonomiques prennent de l'importance et notamment ceux liés à la navigation au sein des sites. C'est que, en situation de recherche d'information en ligne, la charge cognitive est forte : il faut à la fois piloter le système et analyser rapidement pour décider quel document consulter. Une mauvaise présentation est un obstacle à cette première évaluation. La recherche d'information est un processus que nous mettons en œuvre dans différentes situations. Il peut s'agir d'améliorer l'état de ses connaissances. C'est le cas pour l'élève et l'étudiant, mais aussi pour le professionnel qui veut actualiser son savoir. L'évaluation nécessite alors un système de référence qui donne du sens à l'information, qui la renseigne et la met en valeur. À l'heure actuelle, un système de référence se met peu à peu en place dans le monde du Web, mais force est de constater qu'il n'est pas stabilisé. À côté des référents habituels, qui ont implanté leurs services en ligne – comme le font dans le domaine culturel les bibliothèques, les musées, ou dans le domaine scientifique les éditeurs – naissent de nouvelles sources qui témoignent souvent d'une forte créativité. Une étude que nous avons menée dans le cadre d'un projet de recherche sur les usages de l'internet en contexte scolaire 5 montre que, dans leurs pratiques professionnelles, les enseignants des collèges et lycées, par exemple, privilégient quelques sites de ressources. Paradoxalement, ils méconnaissent et utilisent peu les sites mis en place par les institutions – l' Éducation nationale ou le CNDP –, mais citent spontanément des sites associatifs ou personnels qui diffusent librement des ressources mutualisées. Dans le domaine de la culture numérique, les repères mettront aussi du temps à se former. En contexte professionnel ou dans la vie quotidienne, on s'informe souvent pour prendre une décision. Une étude récente a montré que les gens recourent de plus en plus souvent à l'information en ligne lorsqu'ils ont une décision importante à prendre ou à un moment décisif de leur vie, professionnelle ou privée. Enfin, il peut s'agir aussi simplement de savoir quoi faire et comment le faire, ou encore d'améliorer son statut social. Dans toutes ces situations, obtenir une information de qualité est déterminant quant aux conséquences directes de l'action qui sera entreprise par ceux qui manifestent la volonté d' être acteurs dans une situation. Pour le professionnel, évaluer l'information c'est également déterminer la stratégie de sa diffusion. Donner accès à la bonne information au bon moment, faire une diffusion sélective de l'information en fonction des centres d'intérêt et des besoins des usagers permet de lutter contre la surabondance informationnelle et la désinformation. Pour Capurro et Hjorland, l'évaluation de la qualité de l'information a deux dimensions [3] : une dimension subjective, relative aux connaissances et aux émotions individuelles, et une dimension sociale, qui correspond à un ensemble de critères propres à une certaine communauté de pratique, qu'elle soit professionnelle et/ou liée à une discipline. La dimension subjective n'est pas forcément anecdotique : dans le domaine médical, par exemple, un patient ou sa famille peuvent ne pas être prêts à recevoir certaines informations. Comme le montrent les études qui ont été citées précédemment, l'importance des critères d'évaluation varie en fonction de la tâche [12 ], des connaissances qu'a l'individu sur le sujet considéré mais aussi de la représentation qu'il se fait du domaine auquel se rattache ce sujet. La méthodologie d'évaluation doit donc être adaptée en fonction de chaque situation et de chaque contexte professionnel. La transparence des critères est un point important qui, seule, permet l'adaptation à ce contexte. C'est tout le problème que posent à l'heure actuelle les moteurs généralistes sur le mode de fonctionnement desquels, sous prétexte de concurrence et de secret industriel, les opérateurs entretiennent une certaine opacité. C'est pourquoi il est important d'apprendre aux usagers non seulement à relativiser les résultats qu'ils obtiennent, mais de plus à utiliser d'autres sources d'information où les paramètres pris en compte pour sélectionner et classer les résultats d'une recherche sont explicites. C'est leur permettre d'acquérir des réflexes salutaires et une position critique établie selon d'autres critères que ceux d'une société du spectacle et du marketing. Dans un processus d'évaluation, cinq dimensions peuvent être mises en évidence, ce qui correspond à cinq activités (Rowntree, 1987, cité par Halttunen et Järvelin [5 ]) : décider pourquoi évaluer, quels effets et résultats l'évaluation est censée produire; décider quoi évaluer; choisir des méthodes exactes et justes et, il faut le préciser, transparentes; donner du sens à l'information obtenue; expliquer, apprécier et donner du sens aux événements bruts de l'évaluation; et enfin trouver les moyens appropriés d'exprimer une réponse et de la communiquer à la personne concernées ou à d'autres personnes. À l'heure actuelle, nous devons déléguer à des logiciels des opérations essentielles de traitement de l'information que nous assurions auparavant nous -mêmes. Cette délégation peut amener à poser la question non seulement de l'évaluation de l'information mais aussi de l'évaluation de la qualité des outils auxquels nous faisons confiance pour nous informer. Plutôt que d'apprendre simplement à trouver la réponse à une question, les formations documentaires ne devraient-elles pas se focaliser sur l'apprentissage de la manière dont on peut déterminer le sens et la valeur de l'information [6] ? Quand l'internet tend à devenir la source d'information universelle et prépondérante, la question de l'évaluation reste primordiale. Selon François-Bernard Huyghe, quelqu'un aurait un jour comparé Internet à « une bibliothèque mal rangée où il y aurait des dizaines de catalogues concurrents mais où, dans certains rayons, des gens lâcheraient des ballons et joueraient de la trompette pour attirer l'attention » [7 ]. Il évoque les trois « dragons » qui menacent l'internaute : la désinformation, la mésinformation et la surinformation. Évaluer l'information, c'est lutter contre ces trois dragons. Il est difficile d'empêcher la propagande et la désinformation, puisqu'il y aura toujours des individus ou des groupes pour déformer l'information de manière tendancieuse et servir leurs propres fins. Et mettre en place une censure sévère serait un remède sans aucun doute pire que le mal ! Lutter contre la surinformation nécessite de savoir sélectionner des sources et canaux privilégiés qui délivrent une information organisée et adaptée aux besoins, loin des lâchers de ballons et des amuseurs d'occasion, et contrer la carnavalisation de la vie évoquée par Umberto Eco [4 ]. Quant à la mésinformation, la parade du professionnel est une méthodologie rigoureuse et des connaissances solides, ainsi qu'une évaluation des outils auxquels il délègue certaines opérations. Pour tout un chacun, une curiosité saine et un solide esprit critique armé de méthodologie permettent de lutter contre la mésinformation. Pour que la condition postmoderne ne soit pas caractérisée principalement par le consumérisme, la superficialité et la fragmentation de la connaissance [6 ], nous devons être encore plus attentifs à cette évaluation critique. C'est tout l'enjeu de la formation – qu'elle commence à l'école, se poursuive à l'université ou se prolonge tout au long de la vie. MARS 2007
Les profonds changements qui, ces dernières années, ont marqué le paysage informationnel ont mis la question de l'évaluation au coeur des processus de traitement de l'information : la multiplication pléthorique de ressources numériques aisément accessibles mais instables et insuffisamment qualifiées et validées rend cette évaluation plus nécessaire que jamais en même temps que plus délicate à effectuer. Après un examen approfondi du paysage informationnel contemporain, cette étude s'interroge sur les raisons qui imposent d'évaluer l'information et sur la manière de le faire, sur les critères d'évaluation que l'on peut envisager et sur la nécessaire formation à l'évaluation qu'il faut assurer de l'école à l'université et au-delà.
sciencesInfo_07-0502529_tei_DOCSI_idPAS_D_ISBN_pu2007-03s_sa01_art01.tei.xml
termith-447-communication
Depuis la loi n˚ 2000-230 du 13 mars 2000 relative à la signature électronique (JO du 14 mars 2000, p. 3 968), le support d'archivage de la preuve n'est plus obligatoirement un support papier mais aussi un support électronique. Ce support répond aux caractères de fidélité et de pérennité énoncés par le Code civil ainsi qu'aux exigences futures d'intégrité et d'imputabilité de la preuve. C'est pourquoi, sensibilisés au problème de la conservation des documents et à sa rentabilité économique, les professionnels pourront dorénavant avoir recours à d'autres méthodes telles que l'archivage électronique des documents (AED). Le remplacement des supports physiques traditionnels ou la prise en compte de documents d'origine électronique dans une solution de gestion électronique des documents (GED) implique, notamment lorsque les projets ont pour vocation un archivage légal, le respect de certaines recommandations telles que celles contenues dans le Guide de l'archivage électronique et la norme Afnor NF Z42-013. Notre contribution est donc de proposer un environnement informatique réalisant quatre fonctions : une certification de la transaction électronique par l'intermédiaire d'un tiers certificateur, l'archivage sécurisé par l'intermédiaire d'un tiers archiveur, un moyen de recherche d'information et la traçabilité des différentes transactions. Nous avons étudié une architecture basée sur le principe d'autorités de tiers de confiance (figure 1) où chaque autorité joue un rôle-clé pour authentifier les données et certifier les documents et les entités (individuels, entreprises, serveurs ou programmes). Le point de départ de cette architecture est la CA (autorité de certification) qui délivre les certificats électroniques. Il est fondamental que la fourniture des certificats assure que tout certificat est donné à la bonne personne et que l'information incluse est valide et vérifiée. Supposant que les certificats sont délivrés sans aucune corruption ou fraude possible, l'architecture est articulée autour de cinq autres autorités toutes tiers de confiance (TTPs) : autorités d'horodatage (TSAs), autorités de signature (SGAs), autorité de recouvrement de clés (KRAs), autorités de stockage (SAs), et autorités de transactions (TAs). Une autorité d'horodatage (TSA) attribue un valeur de temps légale à un message donné. Ainsi, la signature n'a pas de valeur légale si elle n'est pas horodatée parce qu'il n'y a pas de moyen de contrôler si la signature a été créée pendant que le certificat du signataire était valide (non révoqué ou expiré). Il est également utilisé pour authentifier un document et répudier une copie frauduleuse de celui -ci, dans le cas où le document original a été signé avant la copie. Nous pouvons donc définir une extension à la structure de la signature numérique présentée par (Housley, 1999) et exprimée avec la notation ASN.1 (Dubuisson, 2000), comme une signature légale incluant une marque de datage basé sur le protocole d'horodatage. Dans cette structure, la signature est composée de la signature elle -même et du certificat d'identification du signataire (composé du numéro de série du certificat et du nom du fournisseur) (Housley, 1999) (Myers, 2001). Cet identifiant est utilisé pour donner l'information du certificat pour le CA correspondant et être sûr que l'information de la signature corresponde à la donnée signée. De plus, la signature légale représente une signature générée sur toute donnée (un message) donné par une partie tiers (un SA ou TA par exemple). Cette signature est complétée avec une marque d'horodatage et peut être contresignée par les autorités d'accréditation d'horodatage, ou accréditeurs. Ceci assure que la marque d'horodatage proposée est valide sur tout procédé d'horodatage (ETSI, 2001). L'autorité de signature (SGA) résout le problème de la multisignature sur un document donné. En effet, les SGAs interviennent comme des notaires électroniques qui supervisent le processus de signature en collectant les différentes signatures. Considérant que tout signataire doit avoir la confiance des autres signataires, le SGA aura la permission de stocker (et coder) le document (ETSI, 2000). Un document d'entreprise peut être un ensemble et doit être signé par plus d'une personne (contrats, factures par exemple). Comme il peut avoir plusieurs propriétaires, les protocoles de signature du document, consultation et destruction doivent être définis. Le principal objectif à réaliser est de permettre aux multiples signataires de signer la donnée sur internet. Nous proposons un protocole pour traiter cet aspect. Ce protocole est basé sur les définitions signed-and-enveloped-data pkcs#7. L'idée de base en est que les autorités de signature supervisent et gèrent les processus de signature multiples (Cottin, 2001). L'autorité de recouvrement des clés (KRA), également connue sous le nom de Key Escrow ou Trust Center, est requise par les institutions gouvernementales de telle sorte qu'elles puissent avoir accès aux données cryptées. Avec la législation de la cryptographie, les clés asymétriques peuvent être de 2 048 bits ou plus, et il est ainsi pratiquement impossible de décoder la donnée dans un temps acceptable. Pour ce faire, les gouvernements souhaitent être capables de décoder toutes les données publiques pour être sûr que des documents secrets ne quittent pas leur territoire, et que des documents non autorisés ne circulent pas à l'intérieur de leur pays. Les utilisateurs et institutions ont donc à fournir une copie de leurs clés de cryptage/décryptage aux autorités de recouvrement des clés. Celles -ci ne peuvent les rendre disponibles que sur la requête des seuls gouvernements. Le transfert de message en général et à travers internet en particulier reste non sécurisé. Les communications peuvent être sécurisées par des protocoles de cryptage tels que SSL (Freier, 1996) et PPP (Kaeo, 1999) (ETSI, 2000). Il vaut souvent mieux identifier incontestablement l'émetteur et le récepteur du message, plutôt que d'établir l'authenticité du matériel ou des applications (navigateurs web par exemple). Ainsi, le récepteur d'un message possède la preuve concrète de l'identité de l'émetteur. Cependant, il reste deux risques : d'une part qu'une personne intermédiaire (MITM) se fasse passer pour l'émetteur du message (Kaeo, 1999), ou d'autre part que le récepteur ne puisse plus prouver que le message reçu est le message que l'émetteur a tenté de lui communiquer. L'utilisation de la signature numérique et des certificats électroniques permettent de résoudre ces deux problèmes. La signature numérique est le moyen courant d'authentification d'une donnée électronique. C'est le résultat de nombreuses recherches sur la cryptographie des clés asymétriques et le code de hachage. Quand une entité émettrice (une personne, un serveur ou un programme) doivent envoyer un message sécurisé à une entité réceptrice, elle crypte le message en utilisant la clé publique du récepteur. Cette clé est diffusée de telle sorte que tout émetteur puisse utiliser la clé publique du récepteur pour crypter la donnée. Le message crypté est ainsi illisible et ne peut être décrypté sans la clé privée correspondante. La clé privée doit être conservée de manière sécurisée par le récepteur, qui ne doit pas la publier. Seul le récepteur doit être capable de décrypter le message codé. Le cryptage de la clé asymétrique assure le caractère privé et la confidentialité. Les algorithmes de clé asymétriques les plus largement utilisés sont RSA (RSA, 1993) et triple-DES (NIST, 1999). Le code de hachage (Menezes, 2001) a pour but la création d'un message de longueur fixe pour tout ensemble de données de taille variable. Ce code est indépendant de la taille des données sources. Considérons h(), une fonction de hachage à sens unique utilisée pour calculer un code sur un ensemble de données s. La plus importante propriété de cette fonction est de permettre la reconstruction de l'ensemble de données seulement si le code calculé est connu. Bien que la reconstruction des données d'origine s à partir d'un code donné d soit être théoriquement possible, elle apparaît comme informatiquement infaisable : De plus, la probabilité p que deux différents ensembles de données s1 et s2 obtiennent le même code avec un algorithme de hachage donné ha tend vers 0. La fonction de hachage est ainsi dite résistante aux collisions : De nombreux algorithmes de codage tels que MD2 (Kaliski, 1992), MD4 (Rivest, 1992) et RIPEMD (Dobbertin, 1996) (Preneel, 1997) ont été développés. Les algorithmes très répandus SHA-1 (NIST, 1995) et MD5 (Rivest, 1992) sont spécifiquement conçus pour le calcul des signatures numériques. Les signatures numériques définies par (NIST, 2000) reproduisent les sceaux de cire utilisés dans l'antiquité pour cacheter les lettres. Le sceau peut être comparé à une clé de signature secrète qui ne doit être en possession que du signataire, 77l'entité qui signe le message. Bien que le sceau reste indépendant de l'information de la lettre, la signature numérique est dépendante du message. Cette manière d'appliquer une clé de signature (la clé privée du signataire) à deux différents messages va résulter en deux signatures numériques différentes. Au contraire, le même message va toujours générer la même signature dans le cas où un algorithme de signature donné est utilisé. Cependant, la clé de vérification (la clé publique) unique correspondant au signataire doit être utilisée pour être certain que la signature a été générée en utilisant sa clé de signature. La génération des signatures numériques est la simple application du cryptage par clé asymétrique sur les données des codes de hachage. Contrairement au cryptage de données, le but de la signature numérique n'est pas de consister en la confidentialité des données, mais plutôt d'assurer (Kaeo, 1999) : l'intégrité des données : les signatures numériques permettent de détecter les sources de modification des données, c'est-à-dire les modifications non autorisées des données; l'authentification : comme la clé de signature est (théoriquement) détenue seulement par le signataire, il est impossible à toute autre personne de générer la signature de l'émetteur sur un ensemble de données. La donnée est authentifiée en comparant la signature avec la clé de vérification correspondante du signataire; la non-répudiation : ce service basé sur l'authentification est une preuve effective de la transaction. L'entité de la signature ne peut nier l'auteur de la signature parce que personne d'autre n'a pu créer une telle signature sur un ensemble de données particulières. La signature numérique est généralement calculée sur les codes de hachage plutôt que directement sur les données. La principale raison est que la signature numériques est plus consommatrice en temps et processeur que le processus de hachage. Il est ainsi préférable d'appliquer seulement les algorithmes de génération de signature (DSA (NIST, 2000) et ECDSA (ANSI, 1999) par exemple) sur les codes de hachage. Bien que la signature numérique rende possible d'authentifier la donnée reçue, elle n'identifie pas l'entité qui a signé la donnée (le signataire), du point de vue du récepteur. Ainsi, aucun lien irréfutable n'existe entre le signataire et sa clé de signature. Une telle identification est permise par le certificat électronique. Un certificat électronique qualifié (certificat) est une preuve électronique d'identité (figure 2). Il est destiné à permettre l'identification de l'émetteur par les récepteurs des message signés. La confiance dans les certificats dépend de la confiance de leurs fournisseurs. Seules les autorités de certification (CAs) sont considérées comme TTPs dans les PKIs qui se basent sur la standard X.509 (Mel, 2001). Les autres entités ne sont pas accréditées par les gouvernements à délivrer les certificats électroniques. Une fois une adéquation entre une entité et une clé de signature démontrée, un certificat qualifié est délivré. Chaque certificat est identifié par son numéro de série unique donné par l'autorité de certification (CA). En effet, la règle primaire des certificats électronique est d'associer une clé de vérification de signature et un signataire. En fonction des règles sur la clé de signature, ils peuvent être utilisés pour : sécuriser les emails : les certificats peuvent être intégrés à l'intérieur de standards d'emails sécurisés tels que PGP (Garfinkel, 1994) (Callas, 1998) (Elkins, 2001), PEM (Balenson, 1993) (Kent, 1993) (Linn, 1993), et S/MIME (Ramsdel, 1999); signer du code : les Archives Java (Sun, 2001) (Farley, 1998) et Authenticode Microsoft (Garfinkel, 1997) réalisent la plupart des certifications de code; identifier les parties : au cours des transactions internet, les entités terminales doivent être identifiées en décodant leurs signatures numériques avec leur clé de vérification. Cette clé est incluse dans leurs certificats. Les certificats sont valides jusqu' à ce qu'ils soient révoqués ou jusqu' à leur expiration (figure 3). Dans les deux cas, un nouveau certificat doit être réémis par le CA. Une révocation de certificat intervient quand son propriétaire est informé que son certificat est corrompu, ou qu'une entité non autorisée ait pu l'utiliser. Il est aussi possible pour un gouvernement ou le CA de révoquer un certificat dans le cas où son propriétaire en a fait une utilisation frauduleuse. Les objectifs principaux des certificats et signatures numériques sont l'authentification des données. Ceci conduit à définir une autorité de confiance responsable du stockage sécurisé des données, considérant qu'une telle TTP doit conserver les données d'entreprises de manière sécurisée et légale. Selon la loi, les documents électroniques n'ont aucune valeur légale tant qu'ils n'ont pas été signés numériquement (figure 4), et leurs signataires identifiés. Les deux caractéristiques techniques en jeu ici sont d'une part de donner aux copies électroniques des documents une valeur similaire au document initial, et d'autre part de stocker et conserver de manière sécurisée ces dossiers numériques légaux. La signature numérique et les certificats électroniques combinés ensemble répondent à la première partie en permettant respectivement l'authentification de la donnée et l'identification des signataires. Cependant, le stockage des dossiers signés dans un contexte légal n'a pas encore été considéré. Une autorité de stockage (SA) est une TTP qui répond aux besoins de stockage des documents d'entreprise. Ces besoins peuvent être classés comme suit : intégrité des données : ce service est fourni par un stockage sécurisé combiné avec une signature numérique qui indique si un document donné a été modifié ou non. Le document original (celui stocké en premier) doit être conservé par le SA pour être sûr que les institutions gouvernementales autorisées ont accès à la première version de chaque document conservé; confidentialité : le cryptage peut être utilisé par les SAs pour être sûr que la donnée ne soit pas lisible tant qu'elle n'est pas explicitement décryptée. Cette protection logicielle peut être complétée par une protection matérielle telle que les architectures 3-tiers (Brethes, 2000); privilège d'accès : il est réalisé par le contrôle d'accès aux documents conservés. Les entités autorisées sont uniquement les représentants des gouvernements et les signataires; disponibilité des documents : comparé au stockage traditionnel de données, le délai d'accès aux documents est moins important que la disponibilité et l'authentification des documents. C'est le SA qui assure la disponibilité des documents conservés pour les entités autorisées. La tracabilité d'utilisation des documents est également de son ressort; pérennité des documents : les SAs assurent la préservation des documents. Ces documents devant être archivés et lisibles tout au long de leur vie; traçabilité : De manière similaire aux CAs, ces autorités doivent établir des traces de toutes les transactions (incluant le stockage des documents, consultation, destruction, modification). Le tracabilité débouche sur la détection de fraude et le diagnostic. La SA est fondamentalement composée de une ou plusieurs bases de données sécurisées (figure 5) utilisées pour conserver les documents signées et d'autres informations relatives qui apportent le caractère légal au stockage. Nous avons défini une structure générale de donnée pour les documents pour être intégrée dans la classe de base pkcs#7 (just data, sans codage cryptographique) et conservées par les SAs. L'évolution de la législation et l'apparition de la notion de tiers archiveur ont fait évoluer la notion de stockage de données, passant d'un simple service assurant la fiabilité des données à un concept plus global, incluant l'assurance de la confidentialité. Si les mécanismes de réplication des données sécurisant le stockage sont désormais bien connus (RAIDs), leur équivalent distribué en termes de confidentialité reste encore à mettre en œuvre de manière industrielle. Le concept initial est de découper l'information à stocker en morceaux, et de trouver ensuite un mécanisme qui garantisse l'intégrité et la confidentialité des données. Après avoir mené recherches et réflexions pour trouver un modèle satisfaisant à ces critères, le mécanisme dit de secret partagé introduit par Adi Shamir en 1979 nous est apparu pouvoir répondre à ces exigences. La performance et la tolérance aux pannes de systèmes de stockage des données peut être améliorée si les emplacements de stockage sont physiquement distribués. C'est le principe des systèmes de réplication de données de type RAID notamment, le RAID 5 en particulier. Pourtant, la nature même d'un système distribué en rend la sécurisation d'autant plus difficile que le nombre d'emplacements de stockage est grand. Dans un système centralisé, une approche radicale de la sécurité consisterait à garder les disques de données de longue conservation dans un emplacement physiquement sûr (coffres, places fortes). Dans un système distribué, il faut s'assurer de l'intégrité de chacune des composantes. Une difficulté apparaît quant à la garantie de disponibilité de ces systèmes distribués. En effet, plus il y a de composants indépendamment faillibles, moins il y a de chance que l'ensemble du système soit opérationnel à un moment donné. On résout ce problème en rendant ces systèmes tolérants aux pannes, c'est-à-dire qu'ils sont capables de fonctionner correctement même en présence d'un certain nombre de pannes de leurs sous-composants. La disponibilité de données de longue conservation peut être ainsi améliorée en stockant ces données de manière redondante. Cette technique est communément appelée réplication. Des techniques récentes permettent d'adapter ces mécanismes de réplication des données à des besoins de sécurisation. On peut affiner la notion de sécurité en deux propriétés distinctes : la confidentialité : il s'agit de s'assurer que des personnes mal intentionnées ne peuvent pas lire des données secrètes; l'intégrité : il s'agit là d'empêcher la modification de ces données. Le principe de secret partagé a été développé en réponse au risque de consultation d'informations par des personnes non autorisées. Ce risque peut être réduit en exigeant la coopération de plusieurs personnes pour accéder aux données. Cela peut être accompli par un algorithme semblable à l'utilisation d'une serrure pour laquelle plusieurs clés seraient nécessaires. Dans la version algorithmique de cette serrure à plusieurs clés, il est possible de ne pas permettre l'accès aux données si le nombre de personnes requises n'est pas atteint, mais par contre permettre un accès total dès que ce quorum est obtenu. Les données peuvent être distribuées sur N serveurs et divisées de telle manière que l'obtention des données nécessite l'accès à M sites (M <= N). Toute l'information devient disponible avec M sites, tandis que l'accès à M-1 sites ne délivre rien. L'obligation d'accès à plusieurs sites de stockage (à opposer avec un serveur central unique) peut permettre d'éviter tout accès abusif d'un individu isolé. Deux schémas de secret partagé ont été découvert indépendamment par Blakley (Blakley, 1979) et Adi Shamir (Shamir, 1979). Leurs motivations étaient la recherche d'un mécanisme de partage de clés. Cependant, l'ensemble des implémentations que nous avons trouvées utilisent le modèle de Shamir, et c'est celui que nous préconisons. Dans cet article nous avons présenté une architecture basée sur des autorités que nous avons partiellement implémentée. Cette architecture tend à répondre aux besoins des entreprises et particuliers en termes d'identification de l'émetteur du message et d'authentification de la donnée reçue. Sa modularité réside dans la distinction entre les multiples tiers de confiance définis par les services qu'ils fournissent. Elle est particulièrement conçue pour intégrer facilement de nouveaux protocoles et prévoir l'extensibilité. Nous avons partiellement implémenté un prototype basé sur l'architecture proposée. Ce prototype inclut actuellement une autorité de certification, qui délivre des certificats X.509.v3 (Housley, 1999), une autorité de stockage, une autorité d'horodatage, et une autorité d'accréditation d'horodatage, qui sont toutes conformes aux structures de données et protocoles proposés. Nous travaillons actuellement sur la modélisation et la simulation des protocoles de certifications (SCDPs), les protocoles de multisignature (MSPs), ainsi qu' à la définition des paramètres de la qualité de service (QoS), basée sur nos recherches antérieures (Cottin, 2000). Dans l'état actuel de nos recherches, il apparaît que de nouveaux concepts tels que l'autorisation de délégation de certificats et la protection de données intrinsèque sont nécessaires pour anticiper les futurs besoins des utilisateurs .
La certification et l'archivage légal des données, alliées à la signature électronique des documents, ouvrent de nouvelles perspectives à la sécurisation des documents. Ainsi, ces technologies offrent des capacités d'identification, d'authentification, de certification qui concourent à la capacité globale d'archivage sécurisé des dossiers numériques. Cependant, il apparaît que la certification et la signature électronique ne répondent pas complètement aux besoins des entreprises en ce qui concerne l'authentification et le stockage des données sécurisées. Dans la suite de cet article, nous proposons une solution à ces problèmes.
sciencesInfo_03-0023746_tei_DN_061_0145.tei.xml
termith-448-communication
Actuellement, de nombreuses critiques portent sur la relation conflictuelle entredeux termes : l'information et l'objectivité. Dans le même ordre d'idée, PatrickCharaudeau (1997 : 35) a démontré que la notion d'information objective n'existe pasen soi, car elle dépend, d'une part, du regard porté par l'individu sur les objetsdécrits, de ses domaines de connaissance, et, d'autre part, du dispositif énonciatifdans laquelle l'information est mise en œuvre. Par ailleurs, les manuels d'écriturede presse considèrent que le discours journalistique consiste autant à interpréterl'information en tant qu'agencement de données, qu' à éduquer et à persuader leslecteurs (Limor, Mann, 1997 : 120-121). L'objectif de cette contribution consistedonc à montrer les modalités selon lesquelles la Une fonctionne, non seulement entant que source d'information et voix politique du journal (Mouillaud, Tétu, 1989 ;Limor, Mann, 1997), mais aussi comme le lieu où les valeurs sociales et les enjeuxéthiques trouvent à s'exprimer et à se consolider. En effet, la mise en page de laUne et sa lecture font appel aux valeurs, aux idées reçues et aux mythes fondateursd'une société. Ils convoquent ce qu'on désigne comme la doxa .Cet appel à la doxa permet la compréhension du texte. Dans unmême temps, il « travaille » les idées reçues en autorisant un débat implicite surles valeurs acceptées – et acceptables – de la société. Afin d'étudier la façon dont fonctionne la doxa dans leprocessus de lecture du journal, il s'agira d'examiner les composantes de la Une .Non en s'intéressant à l'analyse des messages verbaux dans la presse et à leursimplications argumentatives. En effet, de tels travaux ont été déjà menés pard'autres chercheurs (Ro'eh, Wafeldman, 1998 : 440-454; Koren, 2003) qui, entreautres éléments, ont étudié la manipulation des chiffres et les effets rhétoriquesde l'usage des mots. De même, Daniel Dor (2003 : 695721) a montré comment latitraille sert de vecteur d'efficacité à la compréhension du message. Il s'agitplutôt de se pencher sur les relations qui se nouent entre les différentescomposantes de la Une. Le point de départ consiste à revendiquer, avec Jean-François Tétu et MauriceMouillaud (1989 : 5) que « [. ..] la production du sens commence avec la mise enpage ». En effet, ces auteurs, comme Gunther Kress et Theo Van Leeuwen (1998 :186-193), considèrent que la page constitue un « plan » avec un axe horizontal ,vertical, et une série des variables visuelles. Aussi arguent-ils que la valeur del'information se définit par son environnement (titres, emplacement sur la page ,juxtaposition avec d'autres articles). Cette organisation de la page journalistiquepermet une lecture qui excède la linéarité du texte, et privilégie une perceptionsimultanée de ses parties (Mouillaud, Tétu, 1989 : 67; Kress, Van Leeuwen, 1998 :205-209). Ainsi, pour Ayelet Kohn (2003 : 167-169) qui, à l'instar de W. J. ThomasMitchell (1986, 1994) étudie la composante « image/texte », ces relationspeuvent-elles s'avérer « riches en significations rhétoriques ». Telle qu'elle est transmise par l'organisation de la Une, l'information conditionnela façon dont elle est reçue et déchiffrée par le lecteur (Yanoshevsky, 2005). Eneffet, le journal guide la conclusion à laquelle arrive le lecteur, à travers lamise en page des composantes de l'article (image, texte, titraille) ou les rapportsqui s'instaurent entre les divers articles – juxtaposés ou non – de la Une. Àl'instar de Gunther Kress et Theo Van Leeuwen (1998), la lecture de la Une peut êtrefondée sur le présupposé que chaque article est constitué d'un ensemble d'élémentstextuels, picturaux et graphiques, qui se lisent et s'interprètent dans leurensemble, mais aussi par rapport à d'autres articles selon les divers paramètres quiconditionnent la lecture et le « trajet » sur la page – droite-gauche, haut-bas ,centre-périphérie (ibid.). Cependant, il est possible de compléter cette approche en ajoutant une analyse desséquences logiques engendrées par le processus de la lecture au cours de laquelle lelecteur pallie les propositions manquantes en fonction de son savoir doxique (ibid.). Ce savoir se compose, on le sait, de l'ensemble descroyances, opinions, axiomes et valeurs partagés par les membres la société au seinde laquelle il vit. Au-delà de la portée argumentative de la mise en page, seproduisent des effets de socialisation lors de la lecture : ceux -ci apparaissentlorsque les structures logiques qui sous-tendent les arguments sont évoquées par lelecteur dans le processus de l'interprétation. Car, dans chaque acte de décodage, lecas particulier et ses conclusions renvoient aux conventions dont se nourrit la doxa (Yanoshevsky, 2005). Ainsi, par un effet d'accumulation ,chaque cas s'ajoute -t-il au « panier » doxique, c'est-à-dire au savoir que possèdedéjà le lecteur et qui conditionne la façon dont il traitera le prochain cas. Demême, chaque cas, par comparaison ou par opposition aux précédents, confirme ous'oppose aux conventions et aux croyances inscrites dans la doxa. Une approche qui confirme l'idée d'Elihu Katz et de Daniel Dayan( 1992 : 224), pour qui « the notion of reinforcement andreproduction, obviously, are of great relevance for conceptualizing the effectsof media events. While the most dramatic of our events deal with radical change ,the theme of reinforcement of values and the sense of communitas permeate all ofthem. Indeed, most of the central events are salutes to the status quo ,legitimation of elites and reiterations of the national well-being ». Ceci sera exploré ici, à l'aide d'exemples tirés destrois principaux journaux de la presse israélienne. Pour ce faire, après unpréambule destiné à familiariser le lecteur avec ces journaux, seront présentées lesnotions théoriques ayant guidé l'analyse. Ensuite, seront discutés les mécanismes dusavoir commun, puis il sera question de la problématique de l'interprétation et desrapports qui s'instaurent dans un journal entre le fragment et l'ensemble. Enfin ,pour éclairer l'ensemble, plusieurs exemples seront présentés et analysés. Les trois journaux principaux de la presse nationale en Israël sontrespectivement Ma'ariv, Yedi'ot, Ha'aretz. Lus par laplupart des lecteurs israéliens, Ye'diot et Ma'ariv, journaux de mid-low brow ,jouissent chacun d'un grand lectorat. Yed'iot bénéficied'un plus grand tirage (300 000 exemplaires par semaine soit 50 % du lectoratnational) et un demi million des lecteurs (presque un dixième de la population) .Pendant le week-end. Ma'ariv a un tirage plus restreintde 150 000 à 300 000 exemplaires. Ha'aretz, journal de lagauche israélienne, quotidien de highbrow, jouit d'unlectorat de quelques 80 000 personnes, dont la plupart sont des abonnés. Laquasi-totalité des lecteurs israéliens fréquente au moins un de ces journaux .Tandis que les deux grands quotidiens tendent au sensationalisme, Ha'aretz (l'équivalent du Monde )se vante d' être le journal des décisionnaires, fournissant aux lecteurs del'information balisée par des données et cataloguée en différentes sectionsthématiques. À l'instar de Claude Chabrol (1988 : 166), on peut considérer le journalcomme un laboratoire de la « pensée du sens commun ». Quoiqu'il existe ,selon lui, une différence entre l'organisation consciente de l'informationpar le producteur, et une lecture rapide et non avertie du lecteur, on peutnéanmoins penser qu'il y a des points communs qui organisent – consciemmentet inconsciemment – la lecture, et qui résident dans le savoir partagé parle scripteur et le lecteur. C'est dire que lorsque l'on veut étudier lesfonctions de la Une, il faut d'abord explorer les dimensions du sens commun .Dans ce sens, un texte ne consiste pas uniquement en l'ensemble de sesmessages explicites, mais également en d'autres « messages » – constitués devaleurs, de positions et de croyances –, enfouis dans le niveau implicite dutexte, et qui constituent une forme de doxa. C'estcette base doxique qui permet la communication entre le scripteur et sonauditoire. Peter I. Von Moos (in : Plantin, 1993 :3) considère que, « selon l'un des préceptes les plus élémentaires de larhétorique, celui qui veut prendre la parole doit d'abord se justifier; ildoit s'identifier à son public et s'adapter à son horizon. Il y arrive enproposant une opinion commune à lui -même et à l'auditoire, une opinion qui aune chance d' être reconnue, de préférence une opinion courante ourespectable. C'est ce qu'Aristote a appelé un “endoxon” », l ' endoxon étant défini par sa seule fonction qui est« de créer l'adhésion raisonnable d'un partenaire dans le dialoguedialectique, d'un public devant le discours rhétorique, grâce au crédit quilui est généralement accordé ». Par définition, il est au-delà du vrai et dufaux, puisqu'il suffit qu'il soit accepté. Il a valeur sociale et morale (ibid. : 9). En d'autres termes, l ' endoxon ou la doxa permettentle décodage du texte au-delà de son contenu informatif. Ils autorisentl'interprétation des messages explicites et implicites, en se fondant surl'appel aux valeurs, croyances, accords, stéréotypes et lieux, communs àl'écrivain et à ses lecteurs. Aussi pouvons -nous poser la question desavoir, à l'instar de Ruth Amossy (2002b : 466), comment des textes (enl'occurrence, la Une) utilisent le savoir commun et les valeurs partagéesafin d'assurer leur lisibilité en influençant le lecteur. Selon l'auteure ,l'orateur conçu par Chaim Perelman doit imaginer le bagage des opinionscommunes et des croyances partagées par l'auditoire s'il veut ancrer sondiscours dans des points préliminaires d'accord, appelés prémisses. Dans lecadre de la nouvelle rhétorique, ces prémisses consistent en l'opinion del'auditoire sur ce qui est vrai (des faits ou des vérités), mais aussi surce qui est préférable (par exemple, des valeurs). Il s'agit souvent de« scripts » stéréotypés, empruntés à la vie commune et à des textes connus .Ainsi la capacité du discours à orienter les opinions du lecteur et sesjugements est-elle fortement dépendante des opinions, croyances et valeurspartagées (ibid. : 467-469). La doxa est constituée des topoï, des espaces « partagés » ou des lieux communs aux personnesd'une même communauté culturelle ou idéologique. Grossomodo, les topiques se divisent en deux catégories générales : lestopoï qui touchent à des codes universels, donccommuns à tous, et ceux qui reflètent des phénomènes culturels (ibid. : 476). Ainsi, dans les exemples qui suivent ,identifie -t-on – au-delà de toute contexte culturel – des paradigmeslogico-rhétoriques généraux comme la causalité (selon l'exemple : « Un crimeentraîne un châtiment »). À côté de ces lieux généraux, apparaissent deslieux particuliers propres à une culture donnée, comme les stéréotypes de lafemme et de l'Arabe. Ces deux types de lieux communs sont liés par latension qui existe entre la logique « universelle » (donc commune à toutêtre humain raisonnable), et des conceptions ancrées dans un contextesocio-culturel. Comme le rappelle Ruth Amossy (ibid.), la doxa est ce qui est considéré commelogique et raisonnable dans une culture donnée. « [. ..] Pour sa signification, [l'événement] dépend du regard qui est posésur lui, regard d'un sujet qui l'intègre dans un système de pensée et cefaisant le rend intelligible [. .. ]. Pour qu'il signifie, il faut évidemmentqu'il soit perçu, mais aussi que s'exerce à son égard un discours qui ledotera de sens en l'intégrant dans un monde d'intelligibilité sociale »( Charaudeau, 1997 : 165). Nous sommes donc entrés dans l'ère del'argumentation. L'interprétation des données par le lecteur dépendrait ,selon Chaim Perelman (1992 : 161), des relations qui se nouent entre lesparties dans et par leur mise en argument : « L'utilisation de données envue de l'argumentation ne peut se faire sans une élaboration conceptuellequi leur donne un sens et les rend relevantes pour la suite du discours. Cesont les aspects de cette élaboration – de cette mise en forme – quifournissent un des biais par lesquels on peut le mieux saisir ce quidistingue une argumentation d'une démonstration » C'est dire qu'en argumentation, il faut non seulement tenir compte de lasélection des données, mais également de leur organisation et de lasignification qu'on leur attribue. C'est dans la mesure où elle constitue unchoix – conscient ou inconscient – entre plusieurs modes de signification ,que l'interprétation peut être distinguée des données que l'on interprète etdevient elle -même, au-delà de ce quelle rapporte, une invention (ibid. : 161-163). Dans le cas du journal, elle apartie liée avec l'organisation de la page voulue par le scripteur, maisaussi par l' œil du lecteur qui, en se promenant sur la page, détermine lafaçon dont la conclusion est tirée des prémisses. Enfin, le fait d'accordersa préférence à une certaine interprétation, ou même de croire à l'existenced'une seule interprétation valable, peut être révélateur d'un systèmeparticulier de croyances ou même d'une conception du monde (ibid. : 163). Ainsi revenons -nous à l'idée de PatrickCharaudeau (1997 : 102, 165) selon laquelle la signification de l'événementdépendra du regard d'un sujet qui l'intègre dans un système de pensée, voiredans un monde « d'intelligibilité sociale ». Pourtant, en interprétant lesdonnées, il faut aussi tenir compte du fait – d'ailleurs signalé par ChaimPerelman (1992) – que les différents types d'objets d'accord jouissent d'unstatut différent. Certains d'entre eux sont censés bénéficier de l'accord dece que Chaim Perelman appelle l'auditoire universel : ce sont les faits, lesvérités, les présomptions. D'autres ne bénéficient que de l'accord desauditoires particuliers : ce sont les valeurs, les hiérarchies, les lieux –communs particuliers (ibid. : 242). Comme évoqué infra, le journal alterne ces deux niveaux. Carl'interprétation des données, ainsi que leur évaluation, oscille entre cequi relève de l'acceptable par tous, donc un fait indiscutable, et ce quiest accepté par un certain groupe, donc un jugement de valeur discutable. Demême, certaines informations sont présentées dans le journal comme étant desjugements de valeur, tandis que d'autres sont transformées en ce que ChaimPerelman (1992 : 101) appelle des « expressions de faits », c'est-à-dire desvaleurs traitées comme des faits ou des vérités. Ce qui joue un rôlecardinal dans le premier groupe, celui de l'auditoire particulier ou desjugements de valeur, ce sont les stéréotypes. Indispensables, carparticipants à tout processus cognitif de communication (Amossy, 2002a :383), les stéréotypes doivent être pris en considération lorsqu'on analysela façon dont scripteur et lecteur organisent, lisent, et analysent lesdonnées de la Une. Car, lire consiste toujours à repérer les structures quisont familières. C'est à travers le commun et le banal que nous pouvonsjuger et évaluer les données, les faits et les actions relatés dans lejournal. Si l'on examine les exemples qui suivent à la lumière de cet exposéthéorique, on peut montrer de quelle manière les stéréotypes relatifs à« l'arabe » et à la « femme » ont déterminé la réaction des soldats à unesituation donnée, mais aussi comment ces stéréotypes sont essentiels àl'interprétation du reportage par le lecteur. Afin d'évaluer l'ironietragique inscrite dans le reportage de l'incident (à savoir l'explosiond'une femme-terroriste dans un poste frontière qui a causé la mort dessoldats qui l'avaient laissée passer), le lecteur doit comprendre la façondont les soldats ont évalué la situation en négociant les stéréotypes( « arabe », « femme-mère »). En analysant les arguments formés par l'arrangement de la Une, nous nousheurtons à une problématique heuristique. Comment déterminer le sens produitpar l'interaction entre les différentes composantes de l'article et de lapage entière ? Dans la formation du message, il existe après tout deuxmouvements opposés : l'un – celui du journaliste et de l'éditeur –, consisteà encoder le message. L'autre – celui du lecteur ou de l'analyste – ,consiste à déchiffrer le message (c'est la tâche du lecteur) et à évaluer lecalcul interprétatif qu'il implique (c'est le rôle du chercheur). Dès lors ,on se rend compte de la polysémie du message. Car les significationspotentielles de l'énoncé dépendent non seulement des significationsconvenues de l'énonciation, mais aussi des intentions différentes émanant del'énonciateur, du contexte de l'énonciation, et enfin des compétences( cognitives et culturelles), et des tendances (politiques, éthiques) dulecteur. Les traditions pragmatiques anglaise et française ont tenu comptedu problème. Dans le domaine anglophone, on a distingué entre ce qui relèvedu utterer's meaning, c'est-à-dire les significationsqui font partie des intentions de l'énonciateur, et qui sont dépendantes ducontexte de l'énonciation (Livnat, 2003 : 191-193) et deutterance meaning. Cette dernière notion (qui veutlittéralement dire « signification de l'énoncé ») met l'accent sur le momentde la communication et sur le contexte qui lui est particulier. De son côté ,Oswald Ducrot (1984 : 13-46) a différencié entre les présupposés, déterminéspar la phrase et dont l'énoncé est la réalisation et les sous-entendus, quine sont pas marqués par la phrase, et qui s'expliquent par le processusinterprétatif, et dépendent de l'effet de l'énonciation sur le destinataire .C'est alors dans l'écart possible entre le utterer'smeaning (présupposés), et le hearer'smeaning (sous-entendus) que prend place toute activitéinterprétative lorsqu'on analyse les arguments du journal. Établir le sensde l'argument revient à fouiller dans le bagage du savoir commun auscripteur et au lecteur, tout en essayant de rendre explicites les prémissesqui servent de base aux conclusions. Quoique la question de la responsabilité de la signification reste essentielle ,il existe aussi un aspect technique majeur concernant la manière dont onreconstruit les sens implicites de la Une. Comme évoqué supra, il est possible d'examiner le texte en tant que système ,c'est-à-dire un ensemble de composantes textuelles et graphiques, quiinteragissent en produisant des conclusions. Dès lors qu'il s'agit aussi d'unereconstruction, il faut savoir lier les éléments, selon une certaine logique quipermette d'évaluer l'argument. Nous avions précédemment proposé de traiter l'ensemble de la graphie et lesimages d'un article particulier ou de la page entière par l'enthymème .Syllogisme « absent », l'enthymème est un argument fondé sur une ou plusieursprémisses, ou parfois une conclusion, qui ne sont pas fournies d'une façonexplicite dans le texte. Afin d'en comprendre le sens, il faut rendre cespropositions explicites (Walton, 2001 : 93) en ayant recours à ce qui sembleacceptable (ibid. : 94) ou ce qui appartient au bagageculturel du lecteur (Bitzer, 1959 : 407). Le modèle logique proposé par StephenE. Toulmin (1958 : 87-109) pour reconstruire un argument en langage naturel estun outil puissant dans la mesure où il nous offre des moyens opératoires commele warrant (garant) et le backing ,qui se substituent aux concepts abstraits de doxa et detopoï, nous permettant ainsi d'analyser les prémissesabsentes. Certes, il faut rendre compte de la critique de Jean-Michel Adam( 1987 : 231-232) qui voit dans les modèles syllogistiques et enthymémiques deséléments réducteurs. Issus de la logique classique, ces outils limitentl'interprétation des textes en langue naturelle à la faveur d'une schématisationqui perd la richesse du texte. Cependant, ce qui impose des limites àl'interprétation, dans le domaine de l'analyse du discours, s'avère producteurlorsqu'il s'agit de lier des composantes de nature diverses comme les textes ,les images, les titres. Constitué d'éléments aussi hétérogènes, le texte (dansnotre cas, l'article singulier) obtient sa cohérence par une reconstructionlogique qui permet d'intégrer toutes les composantes dans un seul système. Quiplus est, l'approche syllogistique est aussi avantageuse lorsqu'on aborde lapage entière. Elle s'est avérée bénéfique dans l'analyse d'un seul article, carelle permet d'aborder l'ensemble des prémisses – explicites, aussi bienqu'implicites – qui conduisent à la conclusion de l'article. Mais elle est aussiproductive lorsqu'on l'applique à la Une dont l'hétérogénéité résulte nonseulement du niveau graphique des composantes, mais aussi de leur variététhématique. Ce ne sera donc pas prendre unrisque excessif que de traiter la première page en tant que recueil, dont lapoétique (c'est-à-dire la signification) relève de l'organisation des sesparties et où « placer devient le mouvement constitutif du sens » (Vaugeois ,2001). À l'instar du recueil poétique, « le choix de l'ordre, des titres, descombinaisons thématiques ou formelles montre que ce type de recueil peut donnersens à une collection [. ..] »( Langlet, 1998 : 27). On pourrait parler des effets de contamination, où lesarticles figurant sur la même page interagissent en s'influençant l'un l'autre .Ainsi les données exprimées dans les articles particuliers sont-ellescatégorisées et ré-catégorisées grâce à leur proximité à d'autres articles ,acquérant de la sorte de nouvelles significations. Afin de saisir ces idéesinédites, il faut se livrer à un travail de déconstruction et de déchiffrementde la mise ensemble. L'examen d'un article dans l'ensemble de la Une doitpermettre de voir comment, à travers la mise en page, s'impose une structureplurielle signifiante. C'est au chercheur de se livrer à l'étude des composantesde l'article singulier, et à l'analyse des relations qui s'instaurent entre lesdivers articles (juxtaposés on non) de la page entière, afin d'exposer lesvaleurs, les croyances et les normes qui sont en jeu lorsqu'un lecteur moyen selivre à la lecture du journal. Ainsi en est-il de trois exemples relevés dans lapresse israélienne durant la période 2003-2004. Dans certains cas, le reportagedu même événement est comparé dans différents journaux, ce qui permet de rendrecompte de la manière dont s'organise l'argument en fonction du dispositif quil'accueille. Les reportages de l'événement publiés dans Yedi'ot et Ha'aretz décrivent la mort de deux jeunes gens dans unaccident de voiture. Au lendemain du dernier jour des études scolaires, etquelques jours avant leur baccalauréat, les étudiants partent dans un typique« tour de victoire » en voiture. Leur automobile s'écrase contre un arbre, ettous deux sont tués. L'événement politique majeur du jour, et quifigure en titre principal, est relégué par des photos de l'accident, quireçoivent la part du lion au centre de la page dans Yedi'ot. Commençons l'analyse par le titre, car ce dernier contribue « de façon décisive àl'organisation spatiale de la page en même temps qu'il constitue le premierindicateur de la “valeur” d'une information » (Mouillaud, Tétu, 1989 : 65-66) .Le titre principal du reportage de Yedi'ot dramatisel'événement par l'opposition des nominatifs « fête » versus « tragédie » : « De la fête à la tragédie : 2 étudiants mortslors de la célébration de la fin des études ». Non seulement ils sont décédés ,mais ils ont par ailleurs disparu à un moment heureux de leur vie. À droite, letitre principal annonce, blanc sur noir : « Deux heures avant la mort », et àgauche se trouve une dernière photo des deux amis, à côté de leur voiture. Lessous-titres contribuent à l'effet tragique par une interprétation de la photo àgauche, qui prend en compte les émotions probables des personnes décrites :« Émus et heureux, les bons copains Guy Savionne et Chagai Pintz se sont pris enphoto; c'était leur dernière photo avant que leur voiture ne s'écrase contre unarbre ». L'information supplémentaire donnée en sous-titre ne laisse aucun doutequant à la part prise par la dimension affective : « Chagai est mort exactement9 ans après la mort de sa mère dans un accident [de voiture] ». Quelle horriblecoïncidence : le malheur qui frappe deux fois à la porte d'une même famille !Mais pour quelle raison ? Sans doute, le mobile commercial du journal veut quela Une soit sensationnelle pour augmenter les chiffres de ventes. Cependant, sil'on lit le même jour la première page de Ha'aretz ,journal connu pour son parti pris anti-sensationnel (surtout lorsqu'il s'agitdes affaires privées de personnes anonymes, qu'il choisit rarement de présenterà la Une), on se rend compte que le journal des décisionnaires se livreégalement à un appel aux émotions : en dessous des images juxtaposées de deuxamis à côté de leur voiture (à droite), et celle de la voiture écrasée (àgauche), domine la photographie des deux copains à l'école, des filles et desgarçons qui, en apprenant leur mort, tentent de se réconforter mutuellement, levisage empreint de douleur. Si l'on tient également compte de la placeprincipale (centre page) accordée dans ce journal à l'histoire, à côté d'unévénement de taille nationale (la recommandation des autorités juridiques dupays d'intenter un procès au premier ministre), on comprend qu'il s'agit sansdoute de considérations axiologiques qui dépassent l'aspect commercial dujournal. En fait, au-delà de la dimension tragique de l'accident, le reportage de cetévénement comporte un potentiel pédagogique exploité par les deux journaux. Lacatastrophe personnelle fait partie d'un phénomène courant dans l' État hébreu :celui du nombre de morts sur la route. Le fait qu'il y a plus de morts dans lesaccidents de voiture que dans les guerres et dans les attentats est une idéereçue, confirmée d'ailleurs par les statistiques. Sans doute les deux journaux se saisissent-ils del'occasion, s'appuyant sur l'événement pour honorer une tâche éducative qui est ,rappelons -le, l'un des rôles du journal (Limor, Mann, 1997 : 120-121). Ils ontpour but de choquer les lecteurs en les rendant sensibles aux dangers de laroute et à la futilité d'une telle mort causée par une conduite imprudente. Mais ce n'est pas tout. Si l'on revient à la Une de Yedi'ot, on découvre d'autres idées qui circulent, sans que pourautant elles soit explicitement articulées, comme il est possible de leconstater dans l'article juxtaposé situé en bas de page. Celui -ci relate lesuicide d'un couple de vieillards : « Nous ne voulons pas vivre », disaient lesvieillards à leur petit-fils – et ils se sont suicidés ». Le sous-titre préciseles circonstances du suicide : « Quand le petit-fils de Boris (79) et de Ra'ya( 81) Weiner est arrivé chez eux, ils ne l'ont pas laissé entrer. À travers laporte il a entendu son grand-père tirer sur son épouse, puis sur lui -même. Dansune lettre d'adieu, ils ont expliqué : “Nous sommes malades, on n'en peut plusd' être une gêne pour la famille” ». Quel est le rapport entre les deux articles ? D'abord, ils appartiennent au mêmechamp sémantique de « la mort ». Aussi sont-ils relatifs à des circonstancesextraordinaires : un accident de voiture et un suicide ne constituent pas desmorts naturelles et sont classés dans la catégorie des décès tragiques. D'autresrapports entre les deux cas s'instaurent également, qui ne sont pas issus cettefois d'éléments de similitudes (mort, extraordinaire), mais d'opposition : lespersonnes tuées dans l'accident de voiture étaient jeunes et saines. Les gensqui se sont suicidés étaient vieux et malades. Les vieillards ont fait un choix .Les jeunes sont morts par accident. Si la mort relie les deux articles, c'est le traitement opposé de ce thème quinous intéresse, dans la mesure où les oppositions ébranlent la doxa en touchant aux valeurs sociales qui sous-tendent chacun des deuxarticles. Il s'agit d'un débat sur l'importance de la vie et de sa qualité. Lasociété israélienne valorise la vie à un point tel, qu'elle la place au sommetde l'échelle des valeurs sociales : au combat comme sur la route, on fait toutpour sauver une vie humaine, car la vie est une valeur suprême. La mise en page entière atteste del'importance accordée aux valeurs cruciales de vie et de mort, aux dépensd'autres qui perdent du coup de leur importance. Ainsi les affaires financières ,éthiques, juridiques ou sécuritaires (les démarches immobilières illégales dupremier ministre, l'arrestation d'une personne qui a trahi les secretsmilitaires du pays, un rapport sur les problèmes de fonctionnement du service derenseignement et le contrat frugal d'un présentateur de télé) sont-ellesrepoussées vers l'extrémité de la page. Cependant, il existe d'autres éléments qui relativisent l'importance qu'onaccorde à l'existence en tant que telle. Par exemple, la notion de vie subit unedissociation : la valeur de la vie « à tout quel prix » est remplacée par uneautre : dans la « bourse » de la vie, mieux vaut être sain et jeune que vieux etmalade. .. En fait, on constate une échelle hiérarchique qui place la bonne santéjuvénile au-dessus de la dégénérescence de la vieillesse. Le journal corroborecette idée car la gravité du suicide se trouve atténuée par le fait qu'il s'agitdu choix libre (valeur positive dans une société moderne et laïque) d'un coupleâgé et malade (valeurs négatives) qui refusait constituer un fardeau pour sonentourage familial (dans l'histoire humaine, la prévenance est reconnue commeune grande qualité). On pourrait donc formaliser de la sorte l'argument quisous-tend les deux articles : la mort est une chose grave et tragique (mort des jeunes, suicide desvieillards) [prémisse majeure implicite]; d'autant plus qu'il s'agit d'une mort extraordinaire (mort des jeunesgens) ou D'une décision de mettre fin à sa propre vie (suicide desvieillards) [prémisse majeure implicite]; or, les vieillards étaient malades et dépendants de leur famille [prémissemineure explicite]; la mort de celui qui est mort jeune est donc plus tragique que celle decelui qui a vécu longtemps [prémisse majeure implicite ]. Donc, quoiqu'il s'agisse de deux tragédies, celle de la mort des jeunes est plusgrave que celle des vieillards. Pour résumer, les deux articles œuvrent dans lediscours doxique sur les valeurs relatives à la vie. Il s'agit d'opposer lesvaleurs de la jeunesse, de la santé et du choix libre (valeurs positives) à lavieillesse, à la maladie et à l'arbitraire (valeurs négatives). C'est dans lejeu complexe de ces notions que la « gravité » des évènements prend forme. Lamort des jeunes gens est plus choquante que celle des vieillards, la mortarbitraire (accident) plus frappante que la mort préméditée (suicide). On voitainsi comment la mise en page rappelle et confirme les valeurs de la société ausein de laquelle elles sont produites, d'une part, et préserve la hiérarchieaxiologique, d'autre part. Confirmation de valeurs reconnues ou inscription devaleurs implicites, les fonctions de la Une dépassent largement la simpleinformation. L'événement rapporté dans les trois journaux principaux d'Israël concerne unattentat-suicide au poste frontière de la bande de Gaza. Invoquant samauvaise santé auprès des soldats israéliens, Issam Abu-Reish, une jeunemère de 22 ans, contourne le détecteur de métaux et déclenche une bombe quitue quatre soldats. Dans l'analyse qui suit, on verra comment le « simple »reportage de l'évènement pourrait contenir un message d'ordre moral qu'ilest possible aux lecteurs de déchiffrer. Commençons par l'accroche quifigure en tête du journal Ma'ariv « Mère Terroriste :elle s'est écroulée, a pleuré, a menti – et s'est faite exploser », Ma'ariv (15/01/04). Elle s'organise en fonction de l'oxymore « Mère-terroriste ». Attestant d'uneincompatibilité logique apparente, les prédicats d'une mère (femme, faible ,sensible, qui donne vie) et d'un terroriste (cruel, tueur, insensible, celuiqui usurpe la vie) sont mutuellement exclusifs. Or, cette contradictionlogique peut être résolue dans la langue naturelle (Perelman, 1992 :262-263). En effet, la suite de l'accroche – « s'est écroulée, a pleuré, amenti – et s'est faite exploser » – en constitue l'explication. Celle quis'apparente à une mère est en fait une terroriste qui exploite l'illusionqu'elle produit. En très peu de mots et par une structure logique ,l'accroche résout l'apparente contradiction : bien qu'il s'agisse d'uneterroriste, les soldats se sont trompés car ils l'ont jugée en fonction descomportements et des attributs stéréotypés de la femme (comportements :« s'est écroulée, a pleuré »; attributs : fragile, hystérique) sur lesquelselle a d'ailleurs joué (l'usage du verbe « mentir » laisse entendre uneaction intentionnelle). Par conséquent, ils l'ont laissée traverser le postesans l'examiner et elle a pu mener à bien son action (« s'est faitexploser »). Pourtant, ceci n'explique guère pourquoi le journal, loin de se contenter del'usage au féminin du mot « terroriste » (forme grammaticale correcte enhébreu) insiste sur l'usage particulier du nominatif « Mère ». Il existe uneexplication de l'ordre des faits : après tout, elle est bien la mère de deuxenfants. Mais on peut aussi proposer une autre interprétation, au-delà d'unesimple transmission des données. Cet oxymore (mère-terroriste) établit uncontraste entre l'horreur de l'acte et l'image de la personne qui l'aperpétrée : la mort de quatre jeunes soldats, causée par l'explosion d'une« mère » qui, selon le stéréotype, est censée être protectrice et non pasmeurtrière. De plus, il s'agit d'une mère qui a abandonné ses enfants (« desbébés », selon l'article), qui a laissé un testament cruel (« que lesparties de mon corps soient dispersées » dans l'air »), et qui se tue entuant d'autres personnes. Pour creuser un peu plus l'écart entre ces deux images contradictoires( mère-terroriste), l'article n'utilise guère le nominatif « soldats » (donc« ceux qui participent au combat ») et se contente du chiffre « quatre »comme référence aux soldats tués. Par ailleurs, les soldats sur les photosne portent pas d'uniforme, ce qui privilégie la dimension civile de leurmort : ce sont des victimes civiles et non pas des soldats tués dansl'accomplissement de leur mission. En revanche, la terroriste sur laphotographie de gauche est vêtue d'un uniforme et tient un fusil, ce quisouligne le renversement des rôles. Le contenu du chapeau – la femmeassassin a joué sur la pitié – renforce l'opposition entre l'aspect humaindes soldats et l'aspect monstrueux de la mère. L'article joue évidemment surun lieu commun particulier à la société israélienne, lié au Kibbush na'or (littéralement, une « occupationéclairée »), une expression utilisée depuis la Guerre des six jours (1967 )pour désigner une occupation qui se veut à visage humain, et où le soldatest censé être sensible à la souffrance de l'ennemi. Le sous-titre ne fait querenforcer l'idée selon laquelle les soldats doivent, selon ce principe deKibbush Na'or, se comporter avec compassionenvers l'ennemi : « “Je suis malade et j'ai une pièce métallique dans lajambe, ne me faites pas passer par le détecteur de métaux” supplie RimA-Reish les contrôleurs du poste frontière, qui acceptent. Suite à quoi elleactive la charge qui tue quatre [personnes] ». Si l'on tente maintenant une lecture multi-modale qui intègre tous leséléments que l'on vient d'évoquer, on obtient la reconstructionsuivante : les soldats, selon les normes requises par l'armée israélienne (Kibbush na'or), ont eu pitié de la femme; or, la femme a menti (elle a abusé de leur bonne volonté); donc, ils sont morts car ils se sont laissés abuser par elle. Organisées sur une chaîne causale (dans l'ordre de la lecture, du haut[ raison] en bas [résultat]), les photos reflètent également l'idée démontréepar l'enthymème : en haut, photo de la terroriste en uniforme militaire; enbas, la photo d'un casque et d'une veste abandonnés. La description de l'événement offre donc une confirmation et une mise àl'épreuve des valeurs partagées par le journal et son lectorat. En premierlieu, se dégage l'idée de la femme séductrice/trompeuse qui, dans latradition judéo-chrétienne, remonte à Ève : les soldats se sont laissésabuser par une femme. D'autres valeurs spécifiques à la société israéliennes'inscrivent dans le discours. On a déjà évoqué la valeur positive del'humanisme telle qu'elle est paraphrasée dans l'expression figée et oxymorede « l'occupation éclairée ». En outre, l'article s'ancre aussi dans lavaleur péjorative incarnée par le terme vernaculaire « Freier », que les Israéliens emploient afin de désigner celui quise laisse exploiter par les autres (l'équivalent en français d'une poire). Ici, il s'agitdes soldats qui ont été manipulés par la terroriste. Quelles pourraient être les messages implicites déchiffrables par un lecteurisraélien moyen ? L'accroche met en évidence l'erreur commise par lessoldats dont la compassion envers la femme malade a pris le dessus sur ledanger potentiel. Par son texte et par sa titraille, le journal insinue quec'est précisément cette hiérarchie erronée des valeurs qui a permis à RimA-Reish de saisir l'occasion de jouer sur le stéréotype de la mère-malade ,et de tromper les soldats. En outre, cette idée est représentée dans lestitres respectifs des trois journaux : • Ma'ariv – L'assassine a exploité lapitié; • Yediot – Le prix de la pitié; • Ha'aretz – La terroriste a exploité le point faibledu poste de Erez et s'est fait exploser : quatre morts. Par l'usage des qualificatifs (prix, exploitation), les titres glissent del'informatif à l'évaluatif, provoquant ainsi la méfiance du lecteur. Leschéma logique reconstructible est celui de cause et effet : les soldats onttrouvé la mort à cause de leur mauvaise interprétation. Le lecteur est nonseulement informé du calcul interprétatif erroné des soldats, mais égalementappelé à questionner leurs valeurs : loin donc d' être un simple articleinformatif, le texte peut provoquer une discussion susceptible d'entraînerune réévaluation des valeurs concurrentes de la société israélienne, telles« l'humanisme » et le « freierisme ». Dans l'exemple suivant, est considéré l'ensemble de la mise en page de la Unedu 2 février 2004, du journal Ma'ariv. Quelques-unsdes articles figurant sur la Une de ce jour peuvent être raisonnablementliés à ce qu'on a appelé dans l'introduction Speaker'smeaning ou présupposés, c'est-à-dire ce qui peut être attribué auxintentions du scripteur et aux décisions éditoriales. À l'opposé, lesrapports entre d'autres articles sur la page appartiennent à ce qu'on vientd'appeler Hearer's meaning, ou sous-entendus, queseul l'acte de lecture peut engendrer. Il s'agit de montrer comment les stéréotypes qui sous-tendent les différentsarticles s'articulent dans le processus de la lecture. On verra comment cesstéréotypes peuvent mener le lecteur à une conclusion qui dépasse l'articlesingulier. Dans l'exemple suivant, ce sont les stéréotypes partagés par lesJuifs israéliens vis-à-vis des Arabes et des Palestiniens, qui produisent uneffet de proximité sémantique entre les différents articles. La Une du Ma'ariv, au matin du 2 février 2004, annonceen titre principal que, selon un recensement récent de la population, letaux de naissance des arabes-israéliens est supérieur à celui desjuifs-israéliens, par un ratio de 2. 4 : « Israël 2004 : un quart desenfants sont des musulmans. C'est ce qui ressort des données de l'agencecentrale de statistique. Le taux de natalité chez les musulmans [est] de 2 .4 plus élevé que chez les juifs ». L'évolution démographique présentée dansle titre apparaît comme un réel danger pour les détenteurs de la convictionselon laquelle l' État juif, fondé par et pour les Juifs, risque de perdre lamajorité juive qui le caractérise aujourd'hui si les taux de natalité desmusulmans continuent à rester aussi élevés. L'article qu'il convient toutd'abord de lier avec le premier, ne serait -ce que pour le champ sémantique( « nouvelles du monde musulman »), se trouve en dessous, à gauche. Il s'agitde la description d'une catastrophe à La Mecque, où plusieurs personnes ontété écrasées pendant le Haj. Uneimage de La Mecque durant le pèlerinage à pied montre des milliers depersonnes dans le square du temple en Arabie Saoudite. Cette photographieest légendée : « Une prière mortelle » et en sous-titre : « Près de 250personnes sont mortes hier en Arabie Saoudite durant le Haj – la montée versLa Mecque. “Toutes les précautions ont été prises, mais c'est la volonté deDieu ”, c'est ainsi que le ministère du Haj explique la tragédie ». Dans les deux cas donc, il s'agit de musulmans. Dans l'un, on parle de laminorité arabe dans l' État juif, dans l'autre, d'un événement dans le mondearabe, événement auquel participent d'ailleurs des Arabes israéliens. Maisloin de rester sur un plan purement superficiel, ce rapport semble êtrefortement ancré dans l'un des mythes fondateurs de la société israélienne :celui de la survie de la nation juive face aux tentatives de l'étranger (le guer) de l'emporter en nombre et de le chasserde la surface de la terre .Dans ce sens, l'Arabe jouerait le rôle de l'étranger tel qu'il est définidans la Bible à travers l'histoire d'Ismaïl. Frère d'Isaac et fils d'Abrahamet d'Agar, la servante étrangère, Ismaïl est à l'origine du peuple arabe .Sara, la femme d'Abraham et mère d'Isaac, demande à son mari de chasser lefils de la servante pour que celui -ci ne prenne pas la place accordée parDieu à sa progéniture, bien qu'Ismaïl ait également reçu la bénédiction deDieu. Depuiscette origine commune, les Juifs ont toujours craint la propagationdémographique, à leurs dépens, de ce frère ennemi. C'est à cette composanteparticulière du mythe que l'article fait allusion. Dans sa version moderne ,elle lui a valu l'expression (figée d'ailleurs en hébreu !) du « démondémographique ». L'idée serait que la croissance de la population arabe faitpartie d'une conspiration dont le but est de dépasser en nombre lapopulation juive. Diluer la population juive peut se faire non seulement parle biais des nombreux attentats, mais aussi par une croissance intentionnéede la population arabe au sein de l' État d'Israël. Cette idée remonteégalement à la conception classique de la convention palestinienne de 1964qui nie le droit à l'existence de l' État d'Israël. Quoique les accordsd'Oslo confirment l'annulation des articles appelant à la destruction del' État juif, beaucoup d'Israéliens restent convaincus qu'il s'agit d'uneruse tactique destinée à mener à bien ce programme .Ce lien s'approfondit davantage lorsqu'on examine l'effet des chiffres : unrecensement dans le premier article est secondé par le reportage des mortsnombreux dans le deuxième. Ainsi la catastrophe de La Mecque est-elle reliéeaux statistiques du premier article par la loi « naturelle » de l'équilibre( topos général) : le « débit fulgurant de natalitémusulmane » peut être atténué par des « tragédies surnaturelles », par uneforce majeure, la volonté de Dieu, comme l'exprime le ministre en charge( dans le sous-titre accompagnant l'image) : « “Toutes les précautions ontété prises, mais c'est la volonté de Dieu ”, c'est ainsi que le ministère duHaj explique la tragédie ». On peut parler de la dilution « naturelle » d'une population (les musulmans) ,par un désastre quasi naturel. Le lecteur juif le percevra sans doute commeune punition divine contre tous ceux qui essayent de se jouer des juifs. Et ,restant toujours au sein du mythe biblique, Israël, ce Peuple béni dont lenombre dépassera celui des étoiles n'est aujourd'hui qu'une minorité dans lemonde arabe du Moyen-Orient. La logique de l'argument peut être reconstruitede la manière suivante : Article 1 • les juifs ont toujoursété une minorité dont l'existence est menacée [prémisse majeure implicite] ;• l'état d'Israël où les juifs sont majoritaires a été fondé afin deles protéger; • or, la croissance natale de la population musulmanedu pays risque de changer l'équilibre entre la majorité juive et la minoritémusulmane [prémisse explicite mineure ]. Donc, la croissance du taux de naissance chez les musulmans au sein de l' Étatd'Israël constitue un danger pour le peuple d'Israël [prémisse implicitemineure ]. Article 2 • 250 musulmans sontdécédés lors d'une prière à la Mecque [prémisse mineure explicite]; •cet événement, perçu comme une tragédie par les musulmans, est en effet lavolonté de Dieu [prémisse mineure explicite ]. Or, le monde est fondé sur un équilibre et une justice naturelle [prémissemajeure implicite ]. Donc, la mort des pratiquants est justifiée, car ils'agit d'une espèce de « dilution naturelle » qui rééquilibre le taux denatalité des musulmans en diluant la population par des catastrophes[ prémisse mineure implicite ]. Ainsi a -t-il été démontré le lien existant entre les deux articles décritsci-dessus, rapport qui peut être considéré comme faisant partie du Utterer's meaning, c'est-à-dire des décisionséditoriales. Mais il existe aussi d'autres articles sur cette page qui sontplus ou moins liés aux deux articles, mais dont le rapport est a priori faible. Prenons par exemple le reportageplacé en dessous de l'article principal, à gauche : « Des filles ont desrelations sexuelles en échange de légumes ». Be'er-Sheva : « Des mères en détresse arrivent au marché et“ prêtent” leurs filles aux ouvriers bédouins. Le prix : un peu denourriture ». Qu'en est-il de la troisième image, racontant le fait que des jeunes fillesvendent leur corps pour de la nourriture ? L'affinité réside dans l'origineethnique des clients : les bédouins sont eux aussi des musulmans. L'histoirerenvoie donc à une autre composante plus primitive du mythe de la vengeancecontre le Juif, qui s'incarne dans la soi-disant volonté des arabes de« baiser » les juives afin de se venger de l'occupation sioniste. Posséder une mineure juive constitue un acte métonymique qui signifie« baiser l'état d'Israël. » Nous voilà arrivés aucalcul interprétatif potentiel produit par le rapprochement des articles etqui est facilement identifiable et déchiffrable par le lecteur israélienmoyen : entre les images à droite et à gauche, il existe un lien causal quirelève du domaine éthique. Les musulmans sont punis par Dieu à cause de leurvolonté de causer du tort aux Juifs. Ce rapport ne figure nulle part demanière explicite dans le texte. Il n'existe surtout pas dans la panopliedes significations de chaque article pris à part entière. Il y est pourtantprésent au niveau implicite qu'autorise la juxtaposition des articles dansl'espace de la Une. Mais ce n'est pas tout, en bas de page à gauche, ontrouve un reportage sans lien apparent – ni graphique ni thématique – avecles articles qui le précédent. Il s'agit de relater un événement d'une autrezone géographique comme l'indique d'ailleurs son titre : « Corée du Nord ,les années 2000. Des milliers de tués dans des chambres à gaz ». On apprendpar une enquête de la chaîne britannique, la BBC, qu'en Corée du Nord desmilliers de personnes ont servi de cobaye aux produits chimiques dans deschambres à gaz. Quoiqu'en apparence, il n'existe aucun rapport entre lechamp sémantique des articles précédents et celui de l'article présent, lelecteur israélien peut les associer immédiatement. Cette association sefonde également sur le mythe de la volonté de liquider les Juifs : ellerenvoie le lecteur au contexte des chambres à gaz de la Seconde Guerremondiale. Pour le lecteur juif, une évocation de la Shoah (terme quisignifie littéralement « une catastrophe ») n'est pas être sans rapport auxarticles précédents. Elle est au contraire à la base de toute compréhensionprofonde des articles qui se trouvent au-dessus. La peur d' être « effacé dela terre » poursuit le Juif depuis ses origines. Nous nous retrouvons doncau point de départ, désigné par le premier article de la Une. Fondé commesolution pour protéger les Juifs, l' État juif d'Israël est désormais menacépar la croissance démographique de la population musulmane. Dans cetteperspective, il ressort que la mort des musulmans à La Mecque devientindirectement une vengeance juste contre ceux qui cherchent à nuire auxJuifs à la fois au plan individuel (« baiser » les filles juives) etcollectif (les tuer dans des chambres à gaz). Dès lors voit-on comment trois articles qui sont plus ou moins liés par unchamp sémantique commun (le monde arabe, les musulmans), ou bien qui ne lesont pas du tout (l'affaire des chambres à gaz en Corée du Nord) ,s'organisent autour du mythe d'élimination des Juifs. C'est ce mythe quipermet au lecteur d'associer les articles de la Une, sans pour autant que lejournal soit tenu responsable des conclusions qui s'en dégagent. L'analyse de cas particuliers a permis de confirmer l'importance de l'analysespatiale du reportage. En effet, on a pu constater que les conclusions de chaquearticle peuvent découler de l'ensemble de ses composantes, ainsi que desrelations qu'entretient l'article singulier avec son environnement. Parailleurs, il a été constaté que le passage entre les différentes parties dureportage et entre les différents articles est composé d'écarts produits par desprémisses manquantes qu'il convient de compléter à l'aide du savoir commun quicircule dans la société en question et qui se fonde sur des idées reçues, desclichés et des mythes fondateurs. Certes, il existe dans l'interprétation desdonnées une plage considérable de manoeuvre. Mais celle -ci est fortementdépendante des « composantes de base », c'est-à-dire des versions élaborées etmodernes des mythes fondateurs d'une société donnée (comme par exemplel'attitude à l'égard de l'arabe issu du récit biblique et sa traduction en mythepolitique courant incarné dans la convention palestinienne et dans la mémoire dela Shoah). Le processus de lecture fait appel à la doxa. De la sorte ,les idées reçues et les clichés qui circulent dans l'espace social sontconvoqués par la lecture et demandent au lecteur de se mesurer à eux sur le modedu quotidien. C'est ainsi que le journal contribue à la socialisation dulecteur. Au-delà de sa valeur informative, la Une participe non seulement à laconfirmation des valeurs existantes, mais aussi à leur remise en question. Lalecture critique peut ainsi reconstruire les croyances qui circulent dans unesociété donnée à travers les articles et leur mise en page .
L'article consiste à montrer les modalités selon lesquelles la Une fonctionne, comme le lieu, où les valeurs sociales et les enjeux éthiques trouvent à s'exprimer et à se consolider. La mise en page de la Une et sa lecture font appel à la doxa d'une société. Cet appel permet la compréhension du texte ; en même temps, il travaille les idées reçues en autorisant un débat implicite sur les valeurs acceptées - et acceptables - de la société. Ici, le fonctionnement de la doxa dans le processus de la lecture est étudié à travers un examen des relations rhétorico-logiques qui se nouent entre les différentes composantes de la Une. C'est la mise en page des différents éléments - textuels, picturaux et graphiques - qui conditionne la conclusion à laquelle arrive le lecteur, ce dernier complétant les propositions manquantes en fonction de son savoir doxique.
sciencesInfo_10-0232428_tei_1099.xml
termith-449-communication
La littérature scientifique et professionnelle est unanime à constater l'accroissement de la consultation des ressources électroniques payantes [19] [11 ]. Les périodiques électroniques, en particulier, y tiennent une part importante et aucun ralentissement n'est encore noté à ce jour [13 ]. La France n'est pas étrangère à ce phénomène et, que ce soit dans les établissements universitaires ou dans les organismes de recherche et les établissements publics à caractère scientifique et technique (EPST), toutes les études observent une augmentation sensible du nombre d'articles téléchargés [2] [7] [6 ]. À titre d'illustration, pour la France, entre janvier 2008 et avril 2009, sur la totalité des requêtes enregistrées pour le texte intégral des documents de la plate-forme ScienceDirect, 99.37 % concernent les articles 1. Mais il faut pondérer ce chiffre avec le fait que les bibliothèques acquièrent essentiellement des périodiques en ligne, et que la part des livres électroniques reste modeste [1 ]. Le Journal Report 1 (JR1) du code Counter 2 comptabilise « le nombre de requêtes réussies portant sur des articles en texte intégral », à savoir le nombre de clics ayant abouti à un téléchargement effectif du fichier. Cependant, les chiffres fournis par ce rapport, l'un des plus utilisés, ne permettent pas de savoir si le « téléchargement réussi » est suivi ou non d'une consultation. Il y a clairement présupposition que la consultation est le corollaire systématique du téléchargement. Dans la littérature, les termes de « full text view » ou bien « download » sont couramment associés au JR1 et à ce qu'il comptabilise, et avancés comme des indicateurs de consultation et de lecture. Et donc les volumes significatifs de téléchargements enregistrés sont avancés comme autant d'arguments d'usage et de pertinence des « big deals » par les éditeurs. Enfin, la difficulté et la complexité de mise en place d'indicateurs plus élaborés confortent ce présupposé. Il faut donc nuancer ces propos en rappelant que toute consultation réelle est nécessairement comptabilisée dans les volumes de téléchargements. Une communication récente a permis d'illustrer toute la difficulté de la démarche [23]; elle souligne aussi les limites du code Counter que les mises à jour à venir permettront sans doute de repousser. Pour l'heure, il n'est pas encore possible d'apporter davantage de nuances. D'où l'intérêt de coupler une méthodologie quantitative et qualitative (nous y reviendrons plus loin, dans la troisième partie de cet article). Pour autant, les volumes significatifs de consultation posent question à la fois pour un public de professionnels de l'information et pour un public de chercheurs : en termes gestionnaires et économiques pour les uns (quels services mettre en place ? quels rapports coûts / avantages ?); en termes méthodologiques et scientifiques pour les autres (comment mesurer cette consultation ? comment la caractériser ?). Or, quels que soient les intérêts des uns et des autres, il est indispensable de se pencher sur le phénomène de la consultation massive, de comprendre les logiques qui organisent la pluralité des pratiques observées. C'est précisément ce que nous souhaitons faire dans cet article. Il s'agit d'interroger ce phénomène de consultation massive d'articles de périodiques électroniques, dans les établissements universitaires à dominante STM (sciences, techniques et médecine), par les enseignants chercheurs de ce domaine. La plate-forme ScienceDirect ScienceDirect est la plate-forme d'accès de l'éditeur scientifique et commercial Elsevier. Cette plate-forme propose 2 500 titres de revues en texte intégral couvrant tous les domaines scientifiques, avec une dominance pour les sciences, les techniques et la médecine (STM). ScienceDirect propose également 10 000 ouvrages et chapitres d'ouvrages ainsi que des rapports en texte intégral. En totalité, près de dix millions de documents sont aujourd'hui proposés dans cette base. Il s'offre aujourd'hui pour les chercheurs une large gamme de ressources électroniques, partagées entre offre payante et offre en libre accès. Pour les seuls périodiques en ligne, comme le souligne Grégory Colcanap [6 ], le nombre de titres payants disponibles dans les bibliothèques universitaires est passé de 3 926 en 1999 (date de la création du consortium Couperin) à 654 349 titres en 2007. Les ressources payantes sont le plus souvent organisées en portails, rattachées à la bibliothèque de leur université ou bien à l'organisme de recherche auquel leur laboratoire est affilié (BiblioInserm, BiblioVie, etc.). Il peut arriver que le chercheur puisse accéder aux deux portails à la fois, par sa double affiliation. Il bénéficie dans le meilleur des cas d'une offre élargie, ou sensiblement semblable, disponible par deux canaux différents. L'accès aux périodiques électroniques, en particulier, intervient généralement à partir de l'onglet « Ressources électroniques » ou bien « Documentation électronique » ou bien encore « Revues électroniques ». La navigation peut commencer à partir de plusieurs possibilités d'accès : à partir des menus « A to Z », d'un menu de recherche ou bien du menu des plates-formes disponibles. Le chercheur dispose de fait d'une pluralité de voies d'accès, négociées au titre du consortium Couperin et/ou au titre de l'organisme de recherche dont il relève. Du côté du libre accès, le Directory of Open Acess Journal (DOAJ) 3 recense, tous domaines confondus, plus de 4 998 revues en libre accès, et le Registry of Open Access Repositories (ROAR) 4 plus de 1 717 archives ouvertes thématiques et institutionnelles. Certaines de ces ressources sont de plus en plus intégrées et signalées par les portails des bibliothèques 5. À ce sujet, une étude récente du Groupement français de l'industrie de l'information (GFII) [27] s'est consacrée à la question de l'offre partagée entre modèles payant et libre. Concentrée sur les enjeux économiques de l'édition STM, elle montre la difficulté et la complexité d'un schéma libre de diffusion et d'accès qui tente de s'inscrire dans le modèle économique plus large de l'innovation. Et, malgré l'argument du retour sur investissement et de l'implication des gouvernements, le GFII se pose tout de même la question de la pérennité du soutien de ce modèle. Cependant, il nous faudra à l'avenir pondérer ces propos avec des travaux liés à la consultation des archives ouvertes [24] [25 ]. Les premiers travaux portant sur l'usage des périodiques électroniques, menés au début des années 2000, ont permis, à partir d'une méthodologie qualitative, d'identifier les facteurs techniques, sociaux et culturels menant à l'intégration de ces périodiques dans les pratiques informationnelles des usagers. En France, un travail de thèse [14] a montré comment, en sciences de la vie, par exemple, l'intégration des périodiques électroniques est apparue comme le symptôme d'une mutation du modèle de la communication scientifique : plus les pratiques informationnelles du chercheur s'articulaient autour des modalités renouvelées de la communication scientifique, plus ces pratiques étaient susceptibles d'intégrer un usage des périodiques électroniques. À partir de 2005, on voit apparaître une vague d'études qui ne posent plus la question de l'intégration des ressources électroniques dans les pratiques, mais plutôt celle de l'analyse des usages réels et observables. Le moment où ces études apparaissent n'est pas anodin, c'est celui où le code Counter connaît son plus grand essor et où sont entreprises des analyses approfondies de fichiers journaux (deep log analysis) [18 ]. L'aspect le plus novateur est le changement d'échelle des observations : l'entrée en jeu des big deals, la disponibilité de statistiques de consultations de populations réelles et non plus échantillonnées, permettent des analyses d'une envergure inédite. La masse critique des données ainsi enregistrées permet d'identifier des tendances plus fiables des pratiques, mais aussi de les comparer. Cette méthode va susciter un corpus important d'études quantitatives. Elles se pencheront sur la consultation de plates-formes d'éditeurs spécialisés [19 ], puis s'orienteront sur une analyse plus globale de la consultation des ressources payantes d'un établissement donné. L'approche comparative par disciplines [11] et par institutions caractérise les travaux les plus récents [15 ]. La présente étude est caractéristique d'un tournant méthodologique initié par un projet de recherche français 6, qui propose à partir de 2007 un panachage quantitatif et qualitatif. Outre les logiques qui sous-tendent les pratiques de consultation des ressources électroniques auxquelles cet article s'intéresse, ce projet s'inscrit dans une problématique plus large d'évaluation des ressources électroniques par l'usage. La question de l'analyse des pratiques de consultation posée ici permettra de soulever ultérieurement celle du retour sur investissement. À partir de 2008, le panachage méthodologique va permettre de mener des études longitudinales et de fond comme celle qui a conduit à caractériser les pratiques présentes et prospectives de la « Google Generation » [21] [26 ]. Ces travaux déboucheront le plus souvent sur des prescriptions adressées au monde des bibliothèques et de l'information en termes de compétences et d'offre de services à penser en regard des nouvelles pratiques identifiées [16 ]. Notre étude repose sur une méthodologie qui associe deux approches complémentaires. La première, de nature quantitative, consiste à recueillir, traiter et analyser des statistiques de consultations des périodiques de la plate-forme ScienceDirect de l'éditeur Elsevier dans les bibliothèques des sections à dominante STM du réseau universitaire français, qui en compte 25 7 (franciliennes et de province). Les données sont extraites de quatre rapports statistiques : les rapports spécifiques aux périodiques (Journal Reports), les rapports liés aux activités de recherches (Search Reports), aux activités de navigation (Navigation Reports) et enfin les rapports plus généraux (Overview Reports). Des quatre rapports, seuls les deux premiers sont conformes à Counter. Chacun fournit des données en lien à différents types d'activités. Celles que nous avons retenues sont liées à la problématique de cette étude. Elles sont à chaque fois présentées et explicitées, à partir de la définition donnée par l'éditeur. La conformité au code Counter est également explicitée. La seconde approche, qualitative, de la méthodologie est fondée sur des entretiens semi-directifs menés auprès d'un panel de 23 enseignants chercheurs, hommes et femmes, répartis entre 8 8 des 25 établissements à dominante STM recensés ci-dessus. La grille aborde pour commencer les domaines d'enseignement et de recherche de l'usager, sa spécialité, et enchaîne sur ses pratiques d'information et de communication scientifique en les resituant dans leur environnement. Enfin, elle se focalise sur le rapport du chercheur à la plate-forme ScienceDirect. Les entretiens ont duré entre 1 heure 15 et 1 heure 40. Ils se sont déroulés entre septembre 2008 et février 2009 dans les bureaux des enseignants chercheurs, dans le contexte même où se déroule l'essentiel de la consultation. Cela a permis de prendre connaissance de l'organisation matérielle des bureaux, de la documentation, de voir concrètement quelles ressources étaient utilisées, dans quels buts, et d'observer de quelle manière elles étaient consultées. Mais, surtout, ces entretiens ont permis de prendre connaissance des logiques qui mobilisaient les choix et les actions des chercheurs lors de leurs activités de recherche d'information. En explicitant leurs cheminements, leurs « manières de faire », ils révélaient les raisonnements, les arbitrages, les stratégies et les objectifs qui les sous-tendaient. Cette dimension a été précieuse pour éclairer l'analyse des résultats. Nous ajouterons que, après une première étape « quantitative », il était intéressant de constater « sur le terrain » la confirmation « qualitative » de la diversité et à la fois la convergence des pratiques observées chez les chercheurs interrogés. Pour rendre compte du sens de la pluralité des pratiques enregistrées et explicitées, nous avons eu recours à la notion de logique d'usage développée dans les travaux de Jacques Perriault [20 ]. Véritable outil d'analyse, cette notion permet de proposer un modèle qui rend compte de la richesse des pratiques informationnelles observées dans notre étude, afin de les structurer. Cette notion a par ailleurs été utile pour identifier la convergence des usages ou leurs détournements, aspect que nous expliciterons plus loin, dans la discussion. Ainsi, deux logiques se dégagent. La première, que nous nommerons « Itinéraires de recherche et de découvertes », renvoie au chemin emprunté pour accéder au document, via une base de donnée, un moteur de recherche, un lien interne et/ou externe, etc. La seconde, que nous nommerons « Mécanismes d'accès pérennes et récurrents », renvoie aux pratiques une fois que l'usager a accédé au document, ses rebonds vers d'autres liens, sauvegardes, lectures à l'écran, etc. Néanmoins, ces deux logiques se croisent et s'interpénètrent car l'enseignant chercheur est amené à passer de l'une à l'autre, selon son activité, son objectif. Cette présentation dissociée est donc artificielle et n'a d'autre but que celui de la lisibilité de l'explicitation. La consultation de la plate-forme ScienceDirect résulte de deux démarches distinctes. La première est celle d'une connexion directe à cette plate-forme. La seconde est procède d'une navigation sur le Web, où l'usager accède à ScienceDirect en cours de chemin (à partir d'un moteur de recherche par exemple), en s'y arrêtant, en poursuivant ensuite son itinéraire. Cette activité de navigation va permettre dans un premier temps d'identifier son document via un moteur de recherche, via CrossRef 9, via une archive ouverte ou une page personnelle de chercheur… Dans un second temps, d'un clic, le chercheur va entrer dans ScienceDirect pour « récupérer » le texte intégral du document. La plate-forme sert dans ces cas à affiner, compléter, confirmer ou bien obtenir des documents en lien avec ceux qu'ils ont découverts sur le Web : rechercher les articles d'un auteur repéré, vérifier si un pré-print a bien été publié et donc validé, ou encore tester un mot-clé pour mesurer sa « réappropriation » par les collègues. La plate-forme peut également être consultée dans le but d'identifier les travaux, les thématiques d'une équipe de recherche, ses projets, ses spécificités. Le rapport statistique Navigation Report permet justement de préciser la part de l'une et de l'autre des possibilités pour lesquelles les usagers optent en situation réelle de consultation 10. On remarque que la navigation est nettement plus significative : elle est sept fois supérieure à la recherche directe. Les usagers consultent donc les articles essentiellement dans le cadre d'une navigation. Une étude récente, qui a également souligné cet aspect [17 ], présente clairement dans son analyse l'importance de l'activité de navigation chez les usagers des plates-formes de revues électroniques. Lors des entretiens, il s'est avéré que Wikipédia et Google sont les points de départ préférés de cette activité de navigation. Pour les personnes interrogées à ce propos, Google Scholar les intéresserait moins que Google car celui -ci permet de brasser encore plus largement le Web, y compris des vidéos et des images. Il s'agit de pratiques qui offrent la possibilité d'investir des espaces de lecture plus larges, de traverser les frontières thématiques et disciplinaires, pour aller voir un peu plus en marge « ce qu'ils peuvent y trouver ». Les liens hypertextes, la multiplicité des menus, la lecture rapide et partielle, toutes spécificités d'une activité de navigation, sont les pierres angulaires d'une nouvelle façon de rechercher l'information qui s'impose face à des possibilités inédites. De fait, aux chercheurs des domaines STM que nous avons interrogés la taille de corpus des big deals paraît pertinente. Et plus ce corpus est grand, plus ils lui accordent une valeur liée à la potentialité d'usage à venir. Faisant un constat similaire sur d'autres terrains, certains auteurs se posent la question de la concurrence entre plates-formes d'éditeurs et moteurs de recherches [10 ]. Cette question mériterait d' être posée également en rapport avec la consultation des BDD bibliométriques, telle que le Web of Science 11 ou Scopus 12, mais à ce jour, à notre connaissance, aucune étude n'a été faite dans ce sens. Nous nous sommes intéressée aux recherches lancées par les chercheurs dans le cadre des sessions qu'ils ouvraient. La figure 1 montre justement la proportion de recherches et de sessions enregistrées durant les années 2007 13 et 2008. Ces données sont issues du Search Report, conformes au code Counter. Pour l'année 2007, nous notons que le nombre de recherches est supérieur au nombre de sessions. Pour autant, le ratio recherches/sessions est de 1,05, un rapport relativement faible, de l'ordre d'une recherche par session. Pour l'année 2008, le ratio reste sensiblement le même que celui de l'année précédente (1,007). On retient de ces chiffres que les usagers ont tendance à effectuer une seule recherche par session, et que ces dernières connaissent une augmentation régulière. En même temps, si l'on considère que, lors d'une session, un chercheur peut naviguer sur la plate-forme sans effectuer une seule requête, ce constat paraît cohérent. Vient aussi s'y greffer le phénomène des accès aux articles par liens extérieurs, comme nous l'avons expliqué plus haut. De manière corollaire, les entretiens menés auprès des enseignants chercheurs des domaines STM nous ont révélé que ce constat peut également s'expliquer par le fait que les recherches effectuées par usager semblent moins s'inscrire dans un temps dédié et consacré à la recherche d'information qu' à un temps dédié à d'autres tâches (rédaction, reviewing, enseignements) durant lequel des recherches sont lancées ponctuellement. Face à un corpus accessible en permanence et à distance, un chercheur a la possibilité de télécharger plusieurs fois un même article : afin de l'imprimer, afin de le montrer à un collègue, afin de revenir à un schéma ou à une référence pour les vérifier lorsqu'il rédige un document, etc. Cet acte de téléchargement spontané et « en contexte » prend aux yeux du chercheur le même sens que de disposer d'un document physique posé sur une étagère et auquel on revient chaque fois que nécessaire. Ainsi, comme nous l'avons mentionné à d'autres occasions [3 ], un usager peut ouvrir une session simplement pour consulter un article en ligne, à défaut de l'enregistrer dans ses mémoires locales. Ou bien ouvrir une session pour imprimer un article, vérifier une référence citée dans un article à évaluer, ou bien encore copier un schéma pendant la rédaction d'un article. C'est une transposition de pratiques papier. Ce phénomène, observé sur d'autres terrains [10 ], a joué en faveur d'une hypothèse selon laquelle un grand nombre de sessions serait à interpréter comme le symptôme d'une activité de recherche significative [15] [22 ]. À présent, nous souhaiterions nous intéresser au type de recherches effectuées par les usagers sur la plate-forme ScienceDirect. Les données du Search Report indiquent que la recherche rapide, avec un taux de 83 %, se détache nettement des autres (10 % pour la recherche avancée et 7 % pour la recherche experte). On constate donc que, à mesure que le type de recherche se spécialise, celle -ci connaît un moindre succès auprès des usagers. En lien avec ce que nous avons dit précédemment, ces derniers préfèrent effectuer des recherches simples qui leur garantissent des réponses plus larges, même si elles sont plus bruyantes car, estiment-ils, ils feront « le tri ». Les entretiens que nous avons menés auprès de chercheurs en STM nous ont permis de comprendre que les recherches ciblées sont généralement utilisées pour des références précises, déjà connues, et qu'on souhaiterait retrouver; l'usager va utiliser un nom d'auteur combiné à l'année de publication, par exemple. A contrario, les recherches simples permettent aux chercheurs d'opérer de la même manière que sur un moteur de recherche – le plus souvent Google – dont ils attendent autant les réponses ciblées que celles qui sont un peu en marge et qui éclairent la question d'un point de vue différent. Ils disent clairement rechercher par ce biais les « pépites » qui donneraient à leur travail un élément inattendu, peut-être en marge de leur discipline, mais porteur d'originalité. Les usagers de la plate-forme ScienceDirect ont la possibilité de s'abonner à des services d'alertes qui les informent par courriel de la disponibilité de documents correspondants aux critères qu'ils auront préalablement définis. La figure 2, issue du Navigation Report montre que, pour l'année 2008, les accès à la plate-forme par les services d'alertes sont concentrés autour de celles liées aux sommaires des nouveaux numéros de revues, avec 69.16 % de la totalité des accès par alertes. Ces chiffres se retrouvent dans des études similaires et qui positionnent l'importance des services d'alertes dans l'accès à la plate-forme; ils sont qualifiés de « voie royale » [10 ]. Les entretiens que nous avons menés confirment ces chiffres dans la mesure où la totalité des chercheurs interrogés étaient abonnés aux services d'alertes des numéros de revues. Ils expliquent cela par le manque de temps et la nécessité de « ne pas se laisser submerger » car, estiment-ils, suivre une liste d'une vingtaine de titres de revues est chronophage et qu'un niveau de granularité plus fin ne serait pour leur emploi du temps « pas possible ! ». Il ressort également des entretiens que ce service est privilégié par le fait qu'il est pour le chercheur « géré » en messagerie. Cette dernière est un lieu de centralisation des informations, de leur organisation et de leur archivage. En lien quotidien et permanent avec sa messagerie, l'enseignant chercheur est de fait en lien continu avec son corpus bibliographique grâce aux alertes. A contrario, et de façon quelque peu paradoxale si l'on retient leur argument, très peu d'entre eux étaient abonnés à d'autres services d'alertes, comme les flux RSS, dont ils connaissent peu le fonctionnement. Ils restent donc sur l'option des alertes de sommaires, assez proche des Current Contents. Elle est surtout à leurs yeux plus pertinente pour balayer de manière régulière les dernières publications et cela même si la prise de connaissance de l'alerte n'est pas systématiquement suivie de l'acte de consultation. Mais, dans l'enchaînement de leurs arguments, il apparaît également que la dimension de veille se confond avec celle d'avoir une idée précise et claire de la « cartographie » des chercheurs sur leur sujet. Le Journal Report a permis de calculer que le format PDF est en moyenne 2,3 fois plus téléchargé que le le format HTML. Comme dans le monde anglo-saxon, il s'avère que les enseignants chercheurs français des domaines STM ont une préférence pour le PDF Les entretiens ont permis de confirmer ce constat au travers des pratiques de visualisation, d'enregistrement, d'impression et d'archivage, systématiquement réalisées avec ou à partir du PDF. En poussant plus loin les entretiens, il s'avère que ce format constitue le lien maintenu – et apprécié – avec le format papier de l'article. Il reproduit la mise en forme traditionnelle et sert de balise pour le chercheur lors de la visualisation à l'écran et lors de l'impression. Pour imprimer, l'usager le privilégie clairement; les piles d'articles imprimés observés sur les bureaux des chercheurs le sont toutes au format PDF. La légèreté des fichiers PDF permet également un stockage plus économique. Les interviewés constituent, sur leurs disques durs et/ou clés USB, de véritables bibliothèques électroniques d'articles. Ils les conservent des années durant – parfois depuis leur thèse – et les transportent dans chacun de leurs déplacements. Nous ajouterons que, lors d'une recherche sur ScienceDirect, plusieurs formats sont disponibles, le PDF, le HTML avec liens, le résumé, et le « Summary Plus » qui correspond à un affichage du résumé accompagné de la présentation générale de l'article, des images/tableaux et références bibliographiques. Or l'interface met clairement en avant l'icône du PDF, ce qui pourrait déterminer le choix de l'usager lors de sa navigation. Ce constat, pointé sur d'autres terrains [12 ], mériterait d' être testé plus avant par des analyses d'ergonomie des interfaces, pour le terrain français. L'enjeu est de comprendre si les pratiques observées sont également induites par des interfaces et des ergonomies. Ce que nous pensons être le cas. À partir de l'Overview Report, nous avons pu reconstituer l'évolution de la durée d'une session. La figure 3 permet de représenter, sur 16 mois, entre janvier 2008 et avril 2009, la durée moyenne des sessions. Cette dernière est variable d'une période à l'autre, ce qui explique l'irrégularité du pas (entre 17 et 18 secondes). Sur les 16 mois observés, la progression que semble montrer la figure est marginale car elle représente moins d'une minute (de 7 minutes et 23 secondes en janvier 2008 à 8 minutes et 14 secondes en février 2009). On ne peut véritablement parler d'un allongement, d'autant que les derniers mois représentés – les plus actifs dans l'année – montrent une certaine stabilité. Elle va jusqu' à former un palier entre la fin de l'année 2008 et le début de l'année 2009. On peut donc conclure à une certaine stabilité de la durée moyenne des sessions. Ce constat doit être pondéré par la définition d'une session. À quel moment une session se termine -t-elle ? Qu'en est-il des sessions qui restent inactives et qui se terminent par un « time out » ? À la lumière de ces questions, la durée moyenne des sessions doit être prise en compte comme simple tendance. En revanche la durée moyenne courte de ces sessions nous conduit inévitablement à faire le lien avec ce que nous avons pu expliciter ci-dessus. La disponibilité permanente et à distance des ressources électroniques fait qu'un chercheur a la possibilité de se connecter, d'effectuer une recherche et de consulter un document de manière brève et répétitive. Ceci explique donc en grande partie ces sessions courtes. Pour autant, les sessions augmentent régulièrement, au même titre que la consultation. Il semblerait donc, comme le souligne une étude similaire [15 ], que la durée réduite des sessions ne soit pas en contradiction avec une forte activité de consultation, peut-être même lui serait-elle corrélée. D'une manière plus significative, il s'est également révélé pendant les entretiens que les chercheurs, toutes disciplines confondues, pouvaient coupler leurs recherches sur ScienceDirect à celles sur le Web of Science ou sur Scopus – selon l'accès auquel ils avaient droit. Il s'agit d'avoir recours aux fonctionnalités « bibliométriques » de ces bases, pour voir comment l'article identifié a fait l'objet d'une appropriation par la communauté scientifique (le nombre de fois où il a été cité, quand, par qui, etc.). Cette démarche s'applique également aux articles produits par les chercheurs eux -mêmes, mais peu d'entre eux s'en ouvrent clairement. Ces informations sont autant de critères qui s'ajoutent à la prise de connaissance du contenu de l'article pour juger de sa « pertinence » et donc pour justifier le temps que l'on passera à le lire. Ici, la pertinence de l'article est variable, soit que l'on va aller dans le sens du consensus et citer à son tour ce qui a été cité par la communauté, soit, au contraire, que l'on va se démarquer et citer ce qui n'a jamais été ou que peu cité. Cette étape de « sélection » intervient avant l'impression et/ou l'enregistrement sur un disque. Elle est, aux yeux des chercheurs qui l'explicitent, importante en regard du temps réduit consacré à la lecture. Devant les tables, les bureaux et les étagères saturés d'articles à lire, que nous avons pu observer, l'argument s'illustre clairement. La présente étude propose un premier aperçu des pratiques de consultation de la plate-forme ScienceDirect par les usagers de domaines et de section STM. La méthodologie employée a permis, par le quantitatif, d'identifier et de caractériser les volumes et les grandes tendances de la consultation. Par le volet qualitatif, elle a permis de préciser ces pratiques dans leurs intentions et dans leurs natures. Dans ce qui suit, nous proposons d'en discuter les résultats. Avant toute chose, il est important de rappeler un certain nombre de biais et de limites méthodologiques. L'analyse des pratiques de consultations des chercheurs sur la seule plate-forme ScienceDirect constitue la première limite de ce travail. Dans l'attente de disposer de données comparables pour d'autres éditeurs, notre parti pris a donc été de réaliser cette étude avec les données dont nous disposions, sans perdre de vue l'objectif de les comparer à celles d'autres plates-formes (SpringerLink 14, par exemple). Une démarche similaire a été adoptée par l'équipe britannique CIBER 15, au début de ses travaux, avec la plate-forme de l'éditeur Emerald 16. Les données auxquelles nous avons eu accès ne permettent pas de réaliser des analyses approfondies – deep log analysis – telles que celles réalisées par l'équipe CIBER. À titre d'exemple, nous n'avons pas disposé de données précises sur le statut des usagers, les conditions techniques de leur production n'étant pas réunies. Ces données sont pour l'heure inexistantes. Les enseignants chercheurs des sections STM sont le public cible de notre étude. Pourtant, nous savons que les statistiques de consultation comptabilisent, sans aucun doute, les consultations des autres publics. Et, si nous avons quelques raisons de penser qu'elle reste marginale 17, il est pour l'heure impossible d'en connaître la proportion. Cet aspect constitue un biais car l'accès aux plates-formes d'éditeurs est ouvert à tous les publics d'un établissement. L'un des éléments les plus significatifs dans cette étude est la pratique de « navigation » identifiée. Déjà mentionnée dans des travaux similaires [17] [26 ], elle se confirme sur notre terrain. Elle s'explique par la multiplication des voies d'accès aux documents et par un usage important et accru des moteurs. Dans sa quête d'information, le chercheur enchaîne plusieurs étapes où s'ordonnent à tour de rôle moteurs de recherche généraux (Google), encyclopédies collaboratives (Wikipédia), moteurs spécialisés (Google Scholar), bases de données d'éditeur (dans notre cas ScienceDirect) ou portails, et enfin bases de données bibliométriques (Web of Science ou Scopus). ScienceDirect devient donc, dans la chaîne de navigation, un maillon où se transposent les pratiques de navigation du Web. Dans la mesure où l'usager débute sa recherche généralement par Google, la plate-forme indexée par ce dernier devient, par le biais des liens, un espace de navigation du Web. La littérature a fait mention de ce phénomène sous le nom de « bouncing » qui est le résultat de la conjonction d'un temps court, de grandes capacités des moteurs de recherche et de la pluralité des possibilités de recherche. Cette notion souligne bien cette caractéristique des nouvelles pratiques des usagers qui visent à brasser de grandes quantités et de grandes étendues d'informations dans lesquelles ils tentent de trouver ce dont ils ont besoin, y compris les « pépites ». Elle comporte également la dimension de raisonnement, d'arbitrage, dans la manière avec laquelle l'information est recherchée : à savoir d'aller d'une source à une autre, d'un point à un autre selon des critères et une stratégie définis. Il est également question d'une superficialité [8] à laquelle les usagers ont recours pour mettre en place de nouvelles structures d'acquisition des connaissances. La superficialité prend le sens d'une intelligence qui s'impose face « à la vitesse à laquelle [il faut] absorber et réagir à l'information ». Elle s'organise autour d'approches synthétiques plutôt qu'analytiques et le lien hypertexte en est la pierre angulaire. De fait, les pratiques permettant d'identifier les articles jugés pertinents et d'y accéder sont de plus en plus diversifiées. Que ce soit par l'intermédiaire d'une pratique de recherche simple, par le biais de services d'alertes ou par des citations, l'usager développe une pratique de navigation qui lui vient du Web et des moteurs de recherche. Ian Rowlands parle de la « Google generation » en abordant ce phénomène [21 ]. En lien direct avec le précédent, ce point permet de revenir sur la manière avec laquelle l'usager est mis face à une conjonction complexe. Il dispose d'un temps limité de lecture, il a une activité d'enseignement parallèle à ses travaux de recherche, il assume des responsabilités administratives et pédagogiques – et il doit pourtant publier régulièrement, dans des lieux reconnus par sa communauté. Le temps de lecture se réduit d'autant face à une offre d'accès à la littérature scientifique conséquente. Or, face à un « trop plein » d'informations, à une accélération de la recherche, les usagers sont amenés à faire une sélection efficace et pertinente des articles à lire. Pour ce faire, des outils bibliométriques tels que le Web of Science et Scopus sont détournés au profit d'une stratégie de lecture où l'article subit, d'une certaine manière, une seconde évaluation de son contenu. À savoir que l'enseignant chercheur va « positionner » l'article identifié dans le corpus bibliographique, s'informer de la manière avec laquelle « il se comporte » pour se décider ou non à le lire. Les informations que nous avons recueillies lors des entretiens montrent clairement que cette pratique observée est davantage présente chez les usagers les plus expérimentés, ayant des responsabilités scientifiques et administratives, et cumulant des rôles de « lecteur-auteur- reviewer » [2] [4 ]. Qui cite l'article, combien de fois, quand et comment sont les critères directeurs de cette évaluation dont les réponses servent des objectifs variés (enseignements, recherche, évaluation). On est en droit de parler d'une stratégie de sélection en vue d'une lecture qui repose sur la citation. Et, dans cette démarche, on peut aller à rebours d'une démarche habituelle, à savoir que l'usager va privilégier plutôt la lecture d'articles très peu cités. Aborder la question de la consultation d'une base de donnée d'éditeur nous conduit inévitablement à aborder l'activité de lecture pratiquée dans le cadre des recherches d'information et de navigation. David Nicholas souligne que les usagers « lisent comme une étape indispensable à la pratique de navigation, ils ne naviguent pas pour lire » [17 ]. Les entretiens que nous avons réalisés permettent en effet de comprendre que la lecture effective de l'article se fait encore sur support papier, à la suite d'un acte d'impression. Les chercheurs nous ont souvent parlé de lecture à l'écran mais, dans les faits, il s'agissait plutôt d'un survol du PDF, de la lecture du résumé ou d'une partie circonscrite de l'article, le plus souvent la partie « Résultats ». L'acte de lecture en ligne, dans le cadre d'une activité de navigation, n'a donc pas le même sens que l'acte de lecture ordinaire, qui intervient à un autre moment, celui de l'exploitation des résultats de la navigation. Morcelée, partielle, rapide, diagonale, somme toute « surfée », cette « visualisation » est une lecture instrumentale et utilitaire. Elle est subordonnée à la pratique plus globale et plus large de la navigation et mise à son service. Elle permet moins de s'imprégner, de prendre connaissance des informations que d'aider à la décision pour la sélection. Pour autant, les chercheurs que nous avons rencontrés nous disent avoir le sentiment de mieux connaître le corpus bibliographique de leur thématique de recherche et de « lire » davantage que par le passé avec le papier. Le fait que cette « lecture », plus proche de la visualisation – « viewing » en anglais – soit associée à une activité de navigation, qu'elle en soit le « proxy », participe certainement à donner aux usagers ce sentiment d'une meilleure connaissance du corpus. Malgré ses biais et ses limites, cette étude montre les caractéristiques nouvelles des pratiques d'information des enseignants chercheurs. Il s'agit de nouvelles manières de faire, issues d'un contexte inédit où une offre considérable de ressources électroniques est accessible par différents canaux et par des possibilités de recherche démultipliées. Ces pratiques de consultation traduisent également l'intégration significative des périodiques électroniques, inscrite dans le quotidien des usagers. Ces caractéristiques sont induites par le Web : les usagers transposent leurs activités de navigation sur le Web sur les outils de recherche d'information en général et sur les plates-formes d'éditeur en particulier. Ces derniers favorisent clairement le phénomène par les fonctionnalités proposées. La navigation devient donc un mode de recherche structurant car elle constitue un fond transversal sur lequel vont venir s'installer des pratiques plus spécifiques, liées à des intentions et des objectifs différents. Ces usagers jugent l'efficacité de cette stratégie – qui est une nouvelle manière de faire – à la quantité d'informations qu'ils brassent tout au long de cette navigation et à la pluralité des espaces qu'ils visitent (académiques, professionnels, commerciaux, associatifs, etc.) et des tâches qu'ils accomplissent simultanément. Cela participe de leur sentiment d'efficacité et de performance dans leurs recherches. Dès lors, un des enjeux serait de vérifier si cette nouvelle manière de s'approprier l'information scientifique conduit à une plus grande et/ou à une meilleure production scientifique, si elle permet à l'usager d' être plus performant, produisant un plus grand impact sur sa communauté scientifique. De fait, ce type d'études mériterait d' être renouvelé sur d'autres plates-formes, dans une perspective comparative. C'est ce à quoi nous nous attacherons dans un prochain travail. • Mars-avril 2010
[étude] Quelles sont les pratiques des enseignants chercheurs en matière de consultation de revues électroniques ? Dans cet article, Chérifa Boukacem-Zeghmouri s'intéresse au comportement des enseignants chercheurs français, dans les domaines des sciences, techniques et médecine, sur une plate-forme d'éditeur, ScienceDirect. Le premier volet méthodologique s'appuie sur une étude quantitative fondée sur les statistiques des consultations de cette plate-forme. Le second volet, qualitatif, exploite des entretiens semi-directifs menés auprès d'un panel des mêmes enseignants chercheurs. Les résultats font apparaître deux logiques d'usages corollaires: l'emprunt d'itinéraires de recherche et de découvertes et la mise en oeuvre de mécanismes d'accès pérennes et récurrents. Ces deux logiques soulignent le caractère fondamental de la navigation chez les chercheurs qui transposent sur la plate-forme ScienceDirect leurs pratiques du Web.
sciencesInfo_10-0347355_tei_DOCSI_idPAS_D_ISBN_pu2010-02s_sa02_art02.tei.xml
termith-450-communication
« There is a risk that increasing Internet penetration will exacerbate rather than reduce inequalities » [15] : cette affirmation met en avant un constat, paradoxal à première vue, qui signale que les pratiques médiatiques via l'Internet sont bien spécifiques et que ceux dont les usages quotidiens ne participent pas à les définir vivent une exclusion socioculturelle majeure, cristallisation de multiples facteurs discriminants. Le Web constitue, ose -t-on le redire, un environnement informationnel complexe, convoquant des compétences nouvelles ou renouvelées, à la fois de l'ordre du cognitif et de l'affectif [3] relevant de ces stratégies qui incluent maîtrise instrumentale et informationnelle [8 ]. Dans ce cadre, les usages en particulier informationnels des TICs jouent un rôle déterminant voire normatif [4] et sous-tendent les dispositifs pédagogiques à destination des populations scolarisées et estudiantines. Il nous semble que ce n'est pourtant pas tant la place accordée à ces compétences informationnelles qui s'avère aujourd'hui décisive que les difficultés profondes rencontrées par les chercheurs comme par les acteurs de terrain (enseignants, bibliothécaires, journalistes, etc.) pour les énoncer. Ces obstacles font se tourner les regards vers les pratiques quotidiennes de chacun, professionnels et citoyens, afin d'en saisir la teneur. C'est également là notre propos qui, à partir d'une lecture analytique d'enquêtes générales et du matériau collecté lors d'une investigation de terrain, vise à décrire la réalité individuelle et collective des pratiques informationnelles d'adolescents sur l'internet. La recherche d'information constitue une activité importante des adolescents sur le Net [12 ]. Nous nous attarderons ici sur un point très précis de la description de leurs pratiques informationnelles, à savoir la gestion du sentiment d'incertitude possiblement ressenti lors de ces recherches, qu'elles soient personnellement décidées, imposées par un enseignant ou simplement en rapport avec les activités scolaires, quel que soit le contexte où elles sont effectuées. Nous poserons ainsi, dans un premier temps, la question de l'existence et de la nature de ce sentiment de perdition lorsqu'il est évoqué, avant de nous interroger sur les aptitudes plus ou moins profondes à la recherche d'information qu'il met en lumière. Cette publication s'appuie sur une enquête effectuée en 2008 auprès de 59 adolescents scolarisés en collège, lycée ou lycée professionnel, entre 14 et 18 ans, volontaires pour s'exprimer et disposant d'une connexion Internet à domicile. Cette enquête s'est déroulée sous la forme d'entretiens semi directifs, menés face à un poste connecté, la parole de l'interviewé pouvant s'accompagner d'une part de manipulation. L'objectif était d'apporter des éléments de connaissance des pratiques d'information de ces jeunes en dehors de situations d'apprentissage déclarées comme telles. Il n'a donc pas été opéré d'observation « en classe ». Cela dit, les sphères personnelles et scolaires n'étant pas totalement étanches entre elles, il a bien entendu été question des consignes ou conseils, sujets de recherche, etc. délivrés par les enseignants, les professeurs documentalistes occupant à ce titre une position privilégiée. Cette relation entre la recherche d'information menée sur prescription scolaire et la recherche d'information librement décidée apparaît par ailleurs déterminante dans le rapport à l'information et au savoir que ces adolescents entretiennent via leurs usages de l'internet. En effet, leurs pratiques d'information se sont révélées très disparates, certains de ces jeunes considérant le Net bien plus comme un moyen de communication et de jeu dans la perspective d'une socialisation entre pairs, la pratique d'information y demeurant seulement l'expression d'une contrainte. Pour d'autres, « recherches pour soi » et « recherches pour l'école » tendent à s'entremêler, voire à se confondre, prenant tout leur sens rapportées à une implication personnelle du jeune dans le processus de recherche d'information. Traitons maintenant d'un aspect bien précis de ces pratiques informationnelles, explorant la gestion possible de l'incertitude ressentie à l'occasion des sessions de recherche menées : élément d'apparence accessoire se révélant au final déterminant de l'engagement personnel dans la recherche d'information. Face à la profondeur du Web et au regard de la nature protéiforme de l'information disponible, le thème de l'incertitude, de la désorientation cognitive et sémiotique, est récurrent dans la littérature [1; 22 ]. Les psychologues, en particulier, rapportent ce phénomène à la saturation cognitive qui se joue lors d'une recherche documentaire menée sur le Web et à la lecture des documents qu'elle implique, plus prégnante encore lorsqu'il s'agit de jeunes ou d'enfants [19 ]. De nombreux auteurs auront ainsi décrit les mouvances du paysage informationnel et les clés indispensables pour y évoluer [1 ;22 ;10 ]. Pourtant, la majorité des jeunes ayant répondu à l'enquête ne se dit pas concernée par un tel sentiment de confusion. Cette question leur semble même fortement incongrue. Sans doute ne s'aventurent-ils pas hors de ce qu'ils connaissent bien ? « L'activité dominante de ces jeunes, qu'elle soit d'ordre encyclopédique ou communicationnel, consiste beaucoup plus à revisiter des terrains connus qu' à tenter l'exploration de nouvelles parties du réseau » [2] : les enquêtes consacrées à la relation « jeunes et Internet », telles que Médiappro ou celle qui nous vient du Québec [18] et, plus près de nous, l'enquête menée par Fréquence écoles à Lyon [14 ], établissent en effet une nette différence entre la représentation désormais mythique des « digital natives » en phase avec les potentialités de la technologie et les utilisations réelles qu'ils en ont. Au-delà des déclarations immédiates qui vantent les possibilités d'ouverture au monde via l'internet, la description que les adolescents interrogés opèrent de leurs pratiques informationnelles confirme bien ce cabotage en terres familières. Par exemple : « Je sais ce que je veux rechercher, là où il faut… Par exemple, le portail Orange, je tape sport, football ligue 1, FFF »; « La recherche d'information, je la mettrais plutôt pour passer le temps, visiter des sites que je connais ». Inscrits dans une constellation plus ou moins étendue de sites repères, de « marques », le recours à Google et à Wikipédia fonctionne comme tel : « À force de l'utiliser, on reconnaît les sites, comme Wikipédia… On fait attention à ce qu'on connaît déjà, on essaye de se repérer »; « En dehors de Wikipédia, je ne sais pas trop, je choisis un peu au hasard ». Ils décrivent l'internet comme quelque chose de très ample, dont une appréciable part est réservée aux « initiés » et, en même temps, suffisamment exhaustif pour qu'ils puissent y trouver ce qu'eux y cherchent. Ainsi, la surabondance informationnelle du Web et l'idée d'incertitude qui l'accompagne se rapportent sans doute plus à une vision d'adulte, a fortiori d'enseignant ou de professionnel de l'information et de la documentation. Une impression générale de certitude et de sécurité quant à la « compétence » de l'outil se dégage des propos recueillis. « Parmi les étudiants interrogés, 88 % estiment que les résultats des moteurs sont globalement fiables mais la fiabilité semble assimilée chez nombre d'entre eux au fait que le moteur est disponible et qu'il répond » note, pour sa part, Brigitte Simonnot à propos des pratiques de ses étudiants [21 ]. De même, se reposant sur Google et la confiance qu'ils lui accordent, la plupart des jeunes que nous avons rencontrés ne se sentent absolument pas perdus ni menacés d'un quelconque risque de désorientation informationnelle. Les performances affichées du moteur de recherche suffisent ici à assurer un minimum de sécurité dans la navigation : « Puisque du moment qu'on est sur une page, il y a le bouton précédent, c'est tout le temps guidé »; « Je retourne sur Google quand je suis coincé mais je ne m'estime pas perdu »; « Je m'y retrouve toujours grâce à Google, à la barre, aux favoris… ». La possibilité de ressentir un sentiment de perdition ou une situation de blocage revient alors pour certains à remettre en cause les capacités techniques de l'outil et fait alors référence à un incident exceptionnel : « La page ne s'ouvre pas »; « Quand je ne trouve pas, quand ça ne répond pas à ce que je veux, ça me met sur d'autres réponses et je ne trouve plus rien ». En dépit des multiples descriptions scientifiques évoquées plus haut de ce phénomène de désorientation propre aux environnements hypertextuels, où l'espace de la page oblige à jouer sur les liens internes ou externes, où la structure et les contours du document sont invisibles, où l'on assiste finalement à « la perte de la stabilité du document comme objet matériel et sa transformation en un processus construit à la demande » [16 ], des témoignages concernant ce sentiment d'incertitude que l'on peut éventuellement ressentir lors de sessions de recherche sur Internet sont à la fois très précis et très rares. Nous percevons effectivement qu'un sentiment d'incertitude plane sur les propos de certains d'entre eux car « ça dépend des recherches, il y a des sites qu'on ne connaît pas forcément », « des fois on peut tomber sur quelque chose qui n'a rien à voir ». Ainsi, les arguments avancés dans le cas d'une réponse positive à cette question de l'incertitude pointent le chemin parcouru à partir de la page de résultats. Se sentir perdu, dans les propos de ces jeunes, c'est donc en premier lieu s' être éloigné de la page de résultats et tomber dans le « hors sujet » : « Quand je vois que je suis éloignée et que ça n'a plus aucun rapport, je reviens sur les pages précédentes et j'essaye de rajouter des mots clés, quelque chose comme ça »; « De lien en lien et on arrive plus à retrouver la page de résultats »; « Je reviens à la page de résultats dès que ça commence à ne plus être tout à fait pareil ». Par ailleurs, être perdu, c'est souvent ne pas trouver ce que l'on cherche ou recevoir trop d'informations en même temps : « Quand je ne trouve pas du tout ce que je recherche, quand je cherche quelque chose et que je ne tombe pas sur les sites que je pensais ». Ne pas trouver ce que l'on cherche, cela peut être aussi ne pas savoir ce que l'on cherche : « Quand c'est dur à trouver, quand y a juste un mot, quand c'est pas précis, la demande du prof » … Certains rapprochent également ce sentiment de perdition du sujet de la recherche ou du niveau de lecture des documents rapatriés : « Quand on fait des recherches poussées »; « Sur des sujets pointus, sur des sites on ne comprend pas tout… »; « Surtout sur des sujets scientifiques, on a vite plein d'informations et on sait pas trop comment les trier »; « Quand je ne comprends plus ce qui est écrit ». Ces difficultés de lecture ressenties semblent parfois inhérentes à la structure même du document numérique en ligne : « Dès qu'on arrive sur des sites compliqués : beaucoup de pub, quarante pages qui s'affichent en même temps ». Mais, face à ce sentiment de perdition, certains jeunes, parmi ceux qui disent l'éprouver, vont plus loin et convient la question de la validité de l'information trouvée sur l'internet. Ils associent ce sentiment d'incertitude aux spécificités même de l'internet documentaire. D'autres éléments nourrissent ce sentiment, qui obligent l'internaute à se concentrer sur son objectif de recherche, voire à le définir, et à le mettre en relation avec les résultats affichés par le moteur. Les déclarations abondent en ce sens : « Quand on a besoin d'aller sur plusieurs pages pour trouver en fait une seule chose, faut regrouper plusieurs pages… »; « Ça arrive certaines fois si il y a trop d'informations, c'est pas clair et alors il faut affiner la recherche »; « Il y a trop d'informations qui arrivent d'un coup et des fois c'est dur de faire le point sur ce que l'on veut vraiment regarder »; « Des fois, sur un sujet très précis, quand il faut bien chercher, quand on prend du temps pour trouver… Ou alors quand on tombe sur une suite de sites qui n'ont pas plus d'intérêt les uns que les autres ». Se sentir perdu, c'est alors se mesurer à la difficulté de rassembler des éléments d'informations épars et potentiellement pertinents, en un mot de chercher : « Parce qu'il n'y a pas tout sur un site »; « Sur les moteurs : l'info apparaît comme une liste classée, linéaire… faut faire le tri ». Certains soulignent ainsi « l'intérêt du fil en aiguille », permettant « de préciser sa recherche au fur et à mesure » : « Des fois je me laisse aller quand je ne sais pas trop comment rechercher ». Quelques jeunes parmi ceux que nous avons interrogés, en majorité des garçons et surtout les plus âgés, font donc bien état d'un sentiment de perdition. Cette variable de l' âge nous semble intéressante en ce qu'elle établit un rapport entre l'apparition de ce sentiment, liée sans doute à une connaissance plus aboutie de la réalité du Web, et à une utilisation grandissante de ses applications informationnelles. Plus précisément, ceux qui évoquent un sentiment d'incertitude ou un risque de perdition sont ceux -là mêmes qui contrôlent le plus leurs sessions de recherche et effectuent des recherches personnelles denses et variées, fortement entremêlées par ailleurs avec les recherches de commande. « J'ai appris plein de choses… C'est vrai qu'il faut faire attention, garder de la distance… ne pas passer du temps pour y passer du temps, toujours avoir une finalité », s'exprime ainsi un lycéen. C'est précisément cette possibilité de sortir des sentiers battus ou de l'itinéraire que l'on tente de se fixer qui, décrite par la plupart comme un risque, constitue une richesse et un atout pour d'autres. Ces derniers font état d'un besoin d'information tangible - à savoir une envie de chercher de l'information et du savoir en général – et d'objectifs de recherche relativement clairs, choisis et évolutifs. En ce sens, nous nous référons au besoin d'information tel qu'il a pu être défini du point de vue des expérimentations en psychologie cognitive, « non pas comme un manque de connaissances mais comme la prise de conscience d'un manque de connaissance » [23 ], indissociable lui -même d'un certain sentiment d'incertitude. Ainsi, « savoir s'informer, c'est accepter de remettre en cause ses connaissances antérieures et être prêt à intégrer ce qui n'irait pas dans le sens de ce que l'on connaît déjà (ou de ce que l'on croit savoir) » [21 ]. Ce sentiment d'incertitude nous apparaît alors comme le marqueur d'une certaine curiosité et d'une capacité à intégrer les contenus rapatriés sur le Net, sans qu'ils ressemblent à quelque chose d'attendu, sans qu'ils correspondent même précisément à la question posée. « Quand j'y vais en général c'est pour quelque chose de précis et des fois j'y retourne parce que j'ai vu quelque chose qui m'intéressait, c'est pas quelque chose de précis mais ça m'intéressait donc j'y retourne pour reprendre le temps d'y retourner… »; « Je suis tombée sur quelque chose d'intéressant au cours d'une recherche pour le lycée ou d'une recherche personnelle. D'ailleurs pour le lycée on est obligé de se restreindre donc là on peut prendre le temps d'aller voir pour voir si ça valait le coup »; « Parfois, on tape des mots et on ne tombe pas sur ce qu'on cherchait à l'origine mais c'est intéressant, ça donne des idées de recherche… » : parmi les jeunes interviewés, certains donc témoignent d'un comportement de recherche d'information ouvert à l'inconnu que nous souhaitons rapprocher ici du phénomène de sérendipité, tel que défini entre autres par Sylvie Catellin [7 ]. Ainsi ce lycéen qui déclare littéralement « se surprendre en train » de poursuivre un but de recherche qu'il n'avait pas au départ prévu : « On découvre des sites nouveaux et surtout des liens vers des sites qui ont le même rapport ». Apparaît là tout l'intérêt du moteur de recherche et du fonctionnement hypertextuel propre au Web : « C'est justement ce que je trouve le plus intéressant : on découvre par hasard des sites très intéressants, on est amenés à faire des découvertes et notre recherche, elle, évolue un peu. Même si on est tombé sur un truc qui n'a rien à voir avec ce qui est cherché à l'origine. Parfois c'est même volontaire, j'ai repéré quelque chose et je me dis bon je vais aller, je vais pousser dans cette voie ». Ce phénomène que nous rapprochons de celui de sérendipité est rarement visible au sein du contexte scolaire. Ainsi ces lycéens qui constatent : « Au lycée c'est plus parce que j'ai une question précise, à la maison c'est plutôt chercher, s'intéresser à tout, à l'actualité, sans but. .. »; « Les recherches personnelles vont m'aider pour les devoirs. Des fois j'ai déjà cherché des choses qu'on a vues ensuite en cours… La seule différence c'est qu'on ne se presse pas, on prend tout son temps. Pour le lycée, je tâche d' être rapide et efficace ». L'attente d'une information ciblée est notablement plus forte dans le cadre des recherches scolaires soumises à l'efficacité, au « rendement » et qui, de ce fait, interdisent souvent les digressions. Dans les mots de ce collégien, c'est là une distinction qu'il opère entre recherches personnelles et recherches scolaires : « Vu que pour l'école je ne cherche pas à approfondir, je fais quelque chose de précis, je vais voir et je ne cherche pas à regarder ce qu'il y a autour… Alors que personnelle je vais fouiller un peu partout ». Le contexte domestique, libéré du stress et de la pression du temps limité, s'avère donc plus propice au laisser-aller, à l'ouverture d'esprit : « Pour moi je fais moins attention, j'y vais tranquille. Pour le lycée : quand je ne trouve pas ça m'énerve, je me sens prise par le temps »; « Souvent, les recherches scolaires, on a un temps imparti et on ne peut pas se permettre de chercher un peu partout n'importe comment »; « Pour les recherches personnelles je pourrais multiplier les sources, aller sur plein plein de sites pour voir ce qui m'intéresse le plus »; « Je me laisse plus porter de site en site quand c'est pour moi, pour le lycée je vais plus essayer de rester centré sur le sujet » … Ne confondons pas cependant « contexte scolaire » et « recherches pour l'école » qui, obligeant le jeune à explorer des thématiques peu connues de lui, peuvent tout à fait constituer un tremplin pour ces détours. Malgré les nombreux témoignages qui insistent sur le caractère très encadré de la recherche scolaire, le phénomène de sérendipité n'est en effet pas exclusivement lié aux recherches personnelles en tant que telles. C'est plutôt le « temps personnel » de la recherche et le contexte domestique souvent plus libre qui l'autorise : « Perso : pour passer le temps, une chose en entraîne une autre … Le point de départ, ça peut être des recherches du lycée, je pars sur quelque chose et je clique sur autre chose parce que ça m'a interpellé ». Cette attitude est ainsi et surtout fortement liée aux initiatives personnelles que ces jeunes peuvent prendre sur un contenu de loisir ou scolaire, ainsi cette jeune fille qui fréquemment « recherche des compléments d'informations » quand elle doit rendre un devoir ou quand un cours l'a intéressée. C'est à l'occasion de telles sessions de recherche, véritablement motivées, que la sérendipité intervient. Ces recherches ne concernent pas seulement des sujets personnels parfaitement maîtrisés; elles ne visent pas non plus à satisfaire une commande enseignante totalement étrangère aux préoccupations du jeune. Les propos de ce lycéen décrivent très exactement le phénomène tel qu'il lui est arrivé de le vivre : « C'est peut être ça le problème de ma méthode d'ailleurs, se laisser aller à consulter des choses intéressantes que je croise au gré de mes recherches… Des choses que je connais un petit peu mais que je n'aurais jamais pensé approfondir… ». Nous voyons là à quel point ce jeune homme se déclare concerné par sa recherche, lâchant prise en quelque sorte par rapport aux conseils ou consignes, reçus ici ou là, pour s'investir personnellement dans son parcours d'information, et cela malgré – ou grâce à – la contrainte scolaire. « Parfois, quand je suis sur une page, je vois des trucs qui m'intéressent et je passe d'une page à l'autre… Pas dans le sens de ma recherche mais pour autre chose »; « Un site pas vraiment pour la recherche mais qui peut être intéressant. Je vais le mettre de côté pour l'envisager après si vraiment il m'intéresse toujours et je reprends le fil de ma recherche »; « Au fur et à mesure, pour moi je sais ce que je cherche mais, en même temps que je cherche pour moi, je me rappelle que j'ai ça à chercher pour le lycée » : sont donc convoquées ici tour à tour recherches scolaires autant que personnelles, comme si une part de l'attention était focalisée sur la commande enseignante et l'autre sur ce que le jeune lui -même, à titre de curiosité personnelle, peut tirer de cette session de recherche. Il faut signaler là une capacité à bâtir et à alimenter son projet personnel d'information quel que soit le contexte de la recherche et au-delà même de l'utilisation de l'internet. Cette capacité renvoie, du point de vue du rapport à l'école et du travail scolaire, à la disposition de certains élèves à réconcilier « travail pour soi » et « travail pour l'institution » dans une dynamique de subjectivation à la fois satisfaisante et potentiellement efficace [20 ]. Elle incarne pour une bonne part cette autonomie nécessaire à « l'apprendre à apprendre » tout à fait déterminante au vu des évolutions des systèmes éducatifs contemporains. « À l'heure où l'accès à l'information se généralise, les situations auxquelles nous sommes confrontés sont marquées à la fois par l'incertitude, l'urgence, la simultanéité et la multidimensionnalité. L'enjeu consiste alors à penser autrement, savoir trouver les bonnes relations, les bons « interprétants ». La logique rationnelle ne suffisant plus, il faut faire appel à des ressources incertaines, que d'aucuns nomment « intuition » (inspiration issue de l'expérience), « bricolage » (inventivité face à une réalité où la contingence domine), ou encore « sérendipité » (faculté de saisir et d'interpréter ce qui se présente à nous de manière inattendue » [7] : nous voyons un intérêt majeur dans la réflexion actuelle autour du phénomène de sérendipité, renouvelée au gré de l'évolution continuelle des modalités des outils de recherche et rapportée aux fondations anthropologiques de l'activité de recherche d'information [9 ]. La sérendipité dont nous parlons ici ne peut avoir de sens qu'au cœur d'une recherche d'information réelle et choisie. Elle ne peut se résumer aux seules modalités automatiques de recherche de documents « similaires » largement proposées par les services utilisés entre autres par les jeunes, tels que Youtube ou bien encore Amazon, par exemple. Sans minimiser « l'effet sérendipité » [18] permis par le fonctionnement des systèmes d'information actuels, nous nous plaçons bien ici du point de vue de l'individu. Un lycéen interviewé pointe précisément cette capacité individuelle et singulière à clarifier, à enrichir son sujet au cours de la recherche, cela en fonction des documents et éléments d'informations consultés : « C'est justement ce que Google ne sait pas faire. On peut toujours taper des mots clés et tomber sur des pages qui auront plus ou moins de rapport avec ce que l'on cherche… de lien en lien, on peut avoir des infos de plus en plus précises ». Cette aptitude à la sérendipité s'associe par ailleurs étroitement, et logiquement, avec le réflexe de garder une trace de quelque chose que l'on a trouvé et que l'on pense pouvoir être utile. Elle est à rapprocher du comportement que nous avons relevé chez certains de ces jeunes à établir et alimenter ce que nous pourrions nommer des « bibliothèques personnelles » (répertoires organisés de pages Web ou de compilations) et, plus classiquement, des répertoires de favoris. Nous notons d'ailleurs que le répertoire de signets est presque toujours utilisé, non pas pour regrouper les sites préférés ou systématiquement consultés, mais pour sauvegarder les adresses des pages trouvées au cours d'une recherche, ou dénichées « difficilement ». Ainsi ces lycéens qui déclarent : « Ce qui est intéressant je le mets tout de suite en favori »; « Dès que je vois un site intéressant, comme je sais que je ne saurai pas comment j'ai fait pour le trouver, je le mets dans mes favoris ». En tant que concept interdisciplinaire complexe, la sérendipité n'a pas encore livré toutes ses significations. Si nous nous référons aux travaux issus du colloque de Cerisy [5 ], elle diffère en tout cas du hasard total. Dans le contexte précis de notre enquête, il nous semble possible de la renvoyer aussi à une compétence à part entière. La sérendipité diffère ainsi de la chance autant que la pratique se démarque de la simple habitude. Nous pouvons alors distinguer différents degrés qui jalonnent cet état d'ouverture et de curiosité présent lors de la recherche : de « passer le temps » à « visiter ce que l'on connaît »; de « se laisser dériver » à « chercher la dérive, provoquer la trouvaille ». Ce que nous rapprochons du phénomène de sérendipité est ainsi très inédit et ne saurait se confondre avec le « surf », la consultation pour ainsi dire désœuvrée du Net qu'illustrent de nombreux témoignages de collégiens comme de lycéens : « Je recherche des choses… », « Des photos de joueurs, de coupes de cheveux… On ne sait pas trop ce qui va arriver… », « Des vidéos aussi des fois. On marque juste foot et on regarde ce qui arrive ». Si être perdu c'est, pour la plupart des jeunes rencontrés, « tomber sur quelque chose qui n'est pas pertinent du tout », l'attitude adoptée en cas de « dérive » est fondamentalement différente selon les individus : « Ça arrive souvent en fait, on cherche, on cherche et d'un seul coup on tombe sur un truc qu'on avait pas du tout cherché »; « Soit on continue soit on retourne au point de départ : on retape le même mot ». La sérendipité est ainsi donc un phénomène rare, et que nous estimons liée à des habiletés spécifiques. À ce stade, la sérendipité nous apparaît plus profonde qu'un simple « état d'esprit », mais comme l'aptitude à prendre le contrôle de sa recherche, à objectiver sa pratique. Reprenons à ce titre les propos pionniers de Claude Baltz pour décrire le concept de culture informationnelle : « Mais l'image qui peut dès maintenant asseoir la culture informationnelle, c'est que, dans la société d'information, il ne suffit pas de naviguer, quel que soit l'outil utilisé pour cela, il faut savoir ce que naviguer veut dire » [1 ]. Trouver par chance ou par nécessité n'est ici finalement pas déterminant car il s'agit surtout pour l'individu qui cherche de l'information de prendre conscience qu'il a potentiellement trouvé quelque chose d'intéressant pour lui. Ici, nous sortons de la définition située et pragmatique de l'activité de recherche d'information pour entrer plus largement dans la relation qu'entretient un individu avec la connaissance. Il y va de la curiosité personnelle de cet individu et du caractère actif, volontaire, de son rapport au savoir et aux technologies intellectuelles qui en permettent l'accès. En outre, cette aptitude à identifier des éléments d'information faisant sens pour l'individu, à les conserver et à les organiser nous apparaît se déployer de manière tout à fait spécifique à l'environnement informationnel Web. Nous percevons dans ces propos retranscrits que la recherche sur l'internet se nourrit d'elle -même et que s'y développe des comportements et habiletés particuliers : « De fil en aiguille… Ce sera parti de vraiment pas grand-chose… Ça vient beaucoup des forums… Sans intention d'aller chercher sur cela… Ça part de ses intérêts persos »; « Ça peut venir d'un peu partout mais essentiellement d'Internet ». La question essentielle qui se pose, dès lors qu'est employé le terme de compétence, touche au fait que cette aptitude discriminante se développe principalement au domicile de ces jeunes, à l'occasion des initiatives de recherche qu'ils prennent, leur permettant d'explorer des thèmes personnels ou d'extrapoler les recherches qui leur sont prescrites. En effet, des travaux mettent en évidence les inégalités d'appropriation de l'outil informatique dans la population, partant du non accès, de la non pratique ou de la « déconnexion sociale » [6; 11; 13 ]. L'un des trois critères de sélection des participants à notre enquête supposait l'accès à l'internet à domicile, doublant les accès possibles à l'intérieur de l'établissement scolaire fréquenté par le jeune. L'hétérogénéité ici pointée se situe bien dans la pratique même de l'internet. Or, l'écart entre les adolescents s'avère ici considérable, si l'on envisage les cas les plus extrêmes, entre ceux qui ne font pas réellement de recherche d'information au sens strict et ceux concernés par cette forme de sérendipité encouragée par le Web. La vision pour une part très méthodologique de l'expertise en recherche d'information, très respectueuse d'une démarche consciente d'elle -même, de l'esprit critique et de la considération des droits et de la propriété intellectuelle entre autres, semble renvoyer surtout à des usages plutôt documentaires d'avant le Web. Cette conception est aujourd'hui heurtée par l'esprit associatif et participatif du Web, par l'inférence abductive, le partage de contenus et la navigation sociale qui y règnent. Il nous paraît pourtant que ces deux points de vue constituent ensemble les deux facettes d'une expertise renouvelée, les cadres de lecture et d'appropriation du Net n'étant pas encore définis et sans doute encore loin de l' être car résultant d'une évolution très minutieuse si l'on se base sur le temps qu'il a fallu à l'imprimé pour disposer de codes si ce n'est « stabilisés », du moins identifiables [24 ]. Ce qui est, pour certaines jeunes rencontrés, une difficulté avérée à rechercher devient chez d'autres un atout, une « compétence » qui les rend capables d'utiliser non seulement à bon escient les informations et ressources disponibles sur le Web, mais à en tirer un bénéfice tout à fait personnel dans l'enrichissement de leurs besoins d'information, dans l'élaboration d'un univers informationnel propre et scolairement rentable. C'est cette capacité à gérer l'incertitude qui mène certains de ces jeunes internautes sur les chemins de la sérendipité. Cette aptitude, repérée comme telle dans quelques témoignages, nous apparaît comme un élément distinctif de la capacité individuelle, qu'ils développent au travers de leurs pratiques informelles, nourries de leurs recherches d'information scolaires autant que personnelles, à construire un univers informationnel personnel plus ou moins riche, base d'un rapport au savoir fondamentalement subjectif et distinctif. Ainsi, face à cet Internet qu'ils sollicitent parfois exclusivement lorsqu'ils s'informent, ces jeunes développent des habitudes qui renforcent un sentiment de sécurité et de confiance à l'égard des outils de recherche et des gisements d'information qu'ils identifient. Cependant, les attitudes individuelles sont très diverses et toutes ne se rapportent pas à de la recherche d'information au sens strict. Ceux qui disent éprouver un certain sentiment d'incertitude sont les mêmes qui sont les plus ouverts à la recherche véritable et à ce qu'il y a de sérendipité dans la recherche. Ceux qui savent chercher sont également ici ceux pour qui chercher compte autant que trouver. Mais si la sinuosité qui permet la découverte est renforcée par le fonctionnement hypertextuel et foisonnant du Web, encore faut-il « chausser les bonnes lunettes » pour repérer ce que l'on a trouvé par les voies de la sérendipité. « Trouver » devient ici plutôt « sélectionner » donc aussi trier, valider, etc. L'expertise se déplace du côté de l'attitude de recherche plutôt que du côté du résultat. Trouver de l'information, les outils le font, mais il revient au sujet et à ses capacités individuelles de l'identifier comme telle. Mai 2011
[ étude ] La sérendipité peut-elle être considérée comme une compétence ? À travers les propos d'une cinquantaine de collégiens et lycéens recueillis lors d'une enquête réalisée en 2008, Karine Aillerie étudie les comportements des jeunes internautes lors de leurs recherches d'information sur Internet. Loin de ressentir un sentiment d'incertitude, certains se laissent tenter par le chemin des écoliers sur les sentiers sinueux d'Internet ; d'autres au contraire ont peur de s'y perdre et n'osent s'aventurer hors des parcours balisés. Cette aptitude à accepter d'aller vers l'inconnu, à être ouvert à de nouvelles découvertes, cette ouverture à la sérendipité, raffermit ces adolescents dans une attitude de recherche plutôt que de résultats.
sciencesInfo_12-0215267_tei_DOCSI_491_0062.tei.xml
termith-451-communication
La préservation du patrimoine culturel a depuis fort longtemps imposé une certaine limitation des accès aux biens. L'évolution des technologies numériques permet d'envisager aujourd'hui des campagnes de numérisation des collections à grande échelle. Pour le grand public, il deviendra dès lors possible dans un avenir proche d'accéder aux fonds numérisés dans un but de consultation d'archives ou de parcours culturel. Pour un public de spécialistes, la numérisation facilitera également l'accès aux archives. Ces orientations font émerger de nouvelles problématiques en ce qui concerne l'indexation des biens numérisés, la réutilisation des contenus, l'interopérabilité, la certification, etc. Dans cet article, nous nous intéressons plus particulièrement à la problématique de navigation et d'accès à des collections de documents manuscrits. La démarche et les outils que nous proposons sont orientés vers un public de spécialistes auxquels nous proposons une aide à l'indexation. Naturellement, s'agissant de numérisation du patrimoine, les données initiales sont constituées d'images numérisées de documents manuscrits. Pour ces documents on peut globalement distinguer deux types d'utilisation auxquels on peut associer des requêtes de nature très différente : Les archives de documents manuscrits peuvent être vues sous l'angle de leurs contenus textuels. Dans ce cas, l'interrogation des bases documentaires nécessite de recourir à une phase préalable de transcription des textes manuscrits permettant ensuite une analyse textuelle. L'état de l'art dans ce domaine ne permet pas d'envisager des applications immédiates, la reconnaissance de l'écriture restant en effet mal maîtrisée sur des applications omniscripteurs et faisant appel à des lexiques de grande taille (Nosary, 2002). Les archives de documents manuscrits peuvent également être vues sous l'angle de leurs contenus graphiques. Dans ce cas, l'interrogation des bases documentaires est effectuée à partir de requêtes graphiques. On cherche par exemple à retrouver les documents de la base présentant certaines calligraphies correspondant à certains scripteurs. D'autres cas d'utilisation peuvent concerner la détection des différentes mains présentes, ou bien la datation des documents par rapport à la chronologie de l' œuvre de l'auteur. Les techniques de traitement de l'écriture permettent d'envisager dès à présent certaines applications comme celle que nous proposons dans cet article. On peut considérer que ces deux cas d'utilisation relèvent d'un problème de recherche d'information soit textuelle soit graphique. Ces deux tâches ont été largement étudiées soit dans le domaine documentaire soit en traitement d'images. En ce qui concerne spécifiquement l'analyse des écritures manuscrites, cette tâche relève de l'identification du scripteur d'un document. Un certain nombre de travaux ont abordé ce problème, le plus souvent en s'appuyant sur des techniques d'analyse de textures pour caractériser les écritures. L'originalité des travaux que nous présentons tient au fait que nous fondons notre démarche sur une technique de recherche d'information en utilisant une description spécifique à l'écriture manuscrite. Dans la première partie de cet article, nous présentons les caractéristiques retenues pour cette tâche d'identification : notre choix s'est porté sur les formes élémentaires (graphèmes) qui composent une écriture manuscrite. Nous justifions le bien-fondé de ce choix en évaluant la tâche d'identification sur une base de 88 scripteurs. Dans la seconde partie, nous proposons d'utiliser un modèle de recherche d'information pour l'identification du scripteur. Ce modèle utilisé dans la littérature sur des documents textuels est adapté ici à des documents manuscrits pour la tâche d'identification du scripteur en utilisant les graphèmes comme caractéristiques graphiques. Cette technique, évaluée sur la même base de documents, donne des résultats significatifs. Enfin, la troisième partie de cette communication est consacrée à l'évaluation de notre système d'identification sur les correspondances de Zola. En ce qui concerne l'analyse des écritures pour caractériser les scripteurs, on peut distinguer deux approches : l'approche d'identification et l'approche de vérification. Dans l'approche de vérification l'utilisateur dispose de deux documents et cherche à savoir s'ils sont tous deux l' œuvre du même scripteur. Cette approche est orientée vers l'expertise et ne sera pas abordée ici. Pour l'approche d'identification, l'utilisateur dispose d'un seul document, et cherche à identifier son auteur parmi un ensemble de N scripteurs connus. Le problème de la vérification peut être formulé comme un problème de discrimination entre deux classes, alors que l'approche d'identification nécessite une décision du type plus proches voisins. Bien que l'identification du scripteur s'inscrive dans la même problématique que la reconnaissance de l'écriture, elle ne semble pas poser le même type de difficultés. En effet, la tâche d'identification peut tirer profit de la variabilité des écritures afin de les discriminer, tandis que la tâche de reconnaissance doit au contraire parvenir à s'affranchir de la variabilité entre les scripteurs pour identifier le message textuel quel qu'en soit le scripteur. La variabilité de l'écriture d'un scripteur dépend de facteurs psychologiques multiples qu'il est difficile de déterminer avec précision. L'étude présentée dans (Nosary et al., 1999) a montré cependant que cette variabilité peut être mesurée par les invariants du scripteur : ces invariants sont des groupes de graphèmes morphologiquement proches déterminés par classification automatique. Ces résultats ont montré l'existence d'un certain niveau de stabilité dans chaque écriture. En d'autres termes, la variabilité qui existe entre les groupes d'invariants de scripteurs différents est plus importante que la variabilité qui existe entre les groupes d'invariants d'un même scripteur. Par conséquent, le problème de l'identification du scripteur devrait trouver une solution naturelle en tirant avantage des invariants de chaque écriture. Nous présentons dans les paragraphes qui suivent les différentes étapes nécessaires à l'identification du scripteur. La figure 1 donne un bref aperçu de la chaîne de traitement. Elle fait intervenir trois étapes classiques en reconnaissance des formes : une étape de prétraitements dont l'objectif principal est de localiser les informations, une étape d'extraction de caractéristiques dont le but est d'obtenir une représentation pertinente pour la prise de décision qui représente l'étape finale de la chaîne de traitement. Les constituants de l'écriture (masses connexes) sont tout d'abord analysés afin d'éliminer certaines représentations graphiques comme les ratures, les zones de surcharge ou sous-lignées dont on sait a priori qu'elles ne caractérisent pas l'écriture. Chaque entité retenue est ensuite segmentée en lettres ou en morceaux de lettres que nous appelons : graphèmes. Cette dénomination ne se réfère à aucune description spécifique de l'écriture et il est admis qu'elle peut porter à confusion. Les graphèmes sont en effet des formes élémentaires de l'écriture manuscrite au sens d'un algorithme de segmentation (Nosary, 2002). La concaténation de deux graphèmes adjacents (respectivement 3) donne ce que nous appelons les graphèmes du second niveau ou bigrammes (respectivement graphèmes du troisième niveau ou trigrammes) (cf. figure 2). Le système d'identification du scripteur que nous proposons ne fait pas appel aux caractéristiques traditionnellement utilisées dans le domaine (Marti et al., 2001; Said et al., 2000) mais exploite l'information locale apportée par chaque forme segmentée (graphème). Ce choix offre la possibilité de traiter des documents de faible taille ne comportant que quelques mots et pour lesquels la notion de texture serait peu pertinente. Les documents de la base de référence sont des blocs de texte comportant plusieurs lignes de façon à rendre compte de la variabilité de chaque écriture. Cependant, l'étape de prétraitements produit les composantes élémentaires de la description qui pour une large part présentent une certaine redondance qui se matérialise par la répétition d'une certaine proportion des formes élémentaires (ceci au sens d'une mesure de similarité entre les graphèmes). Cette redondance est mise en évidence par une méthode de classification automatique des formes segmentées pour produire les formes caractéristiques de chaque écriture : les invariants du scripteur visualisés sur la figure 1 et qui constituent des groupes de formes identiques (Bensefia et al., 2001). Ce sont finalement les invariants des écritures qui constituent les caractéristiques des textes manuscrits de la base. On espère ainsi opérer une certaine compression de l'information manuscrite sans perte significative dans la méthode d'identification que nous proposons. Les documents soumis à l'analyse sont quant à eux décrits par l'ensemble des graphèmes produits par l'étape de prétraitement. Chaque document manuscrit T à identifier sera donc représenté par l'ensemble des graphèmes xi qui le constituent, soit où card(T) est le nombre de graphèmes de 1er, 2e ou 3e niveau suivant le niveau d'information manuscrite sur lequel opère l'identification. De même, chaque document D de la base de référence sera représenté par l'ensemble de ces invariants yi, soit où card(D) est le nombre d'invariants (i.e. nombre de groupes obtenus après classification automatique) sur le 1er, 2e ou 3e niveau. Durant cette dernière étape, le système va rechercher, dans sa base de référence, le document (i.e. le scripteur) le plus proche du document à identifier en se basant sur une mesure de similarité entre documents. La mesure de similarité retenue entre le document manuscrit T et un document manuscrit quelconque D est définie par la relation suivante : où xi, yj sont des graphèmes des documents T et D respectivement, et sim (xi,yj )est une mesure de similarité entre deux graphèmes quelconques. Un certain nombre de mesures de similarité ont été définies dans la littérature (Duda et al., 2000); nous avons tout simplement retenu la mesure de corrélation, définie par la relation suivante : où nij est le nombre de pixels pour lesquels les deux images binaires normalisées x et y ont la valeur de correspondance suivante : x(k)=i, y(k)=j, pour k = 1.. LxH où L est la largeur de l'image normalisée et H sa hauteur. Notons que selon cette mesure, deux documents manuscrits seront d'autant plus proches que la mesure de similarité sera proche de 1. Dans le cas extrême où elle vaudrait l'unité, cela indiquerait que tous les graphèmes du document inconnu T ont au moins un correspondant exact dans le document D considéré. Par construction cette mesure n'est pas symétrique car nous voulons tenir compte de la taille du document inconnu, qui peut être un document comportant plusieurs lignes d'écriture ou au contraire quelques mots. Chaque document de référence a quant à lui une taille standard puisqu'il correspond à l'écriture d'un même texte connu. Le scripteur du document inconnu T sera finalement le scripteur du document de la base de référence le plus similaire au document inconnu (au sens de la mesure que nous venons de définir), soit donc : Nous disposons d'une base de référence composée de 88 scripteurs auxquels nous avons demandé de recopier une lettre au choix parmi deux proposées, chacune d'elles étant composée de 107 et 98 mots respectivement. Les textes obtenus ont été coupés en deux parties non égales : deux tiers, un tiers. Les deux premiers tiers ont été utilisés comme base de référence, et le tiers restant a été utilisé comme base de test. Les expériences menées ont pour but d'évaluer la pertinence du graphème comme caractéristique dans l'identification du scripteur. Le système a donc été testé afin d'identifier le scripteur à partir d'un bloc de texte (3 à 4 lignes en moyenne) en ayant recours indépendamment à des graphèmes de premier niveau, de second niveau (bigrammes) et de troisième niveau (trigrammes) (cf. figure 3). Les résultats obtenus indiquent une identification correcte dans près de 98 % des cas avec les graphèmes du premier niveau, 92 % avec les graphèmes du second niveau et 83 % avec les trigrammes. Ces résultats montrent l'intérêt d'utiliser une caractéristique locale comme le graphème pour l'identification du scripteur. Cette approche a cependant deux inconvénients majeurs. Le premier est le coût en nombre d'opérations effectuées à cause de la technique de mise en correspondance des formes utilisée. Si K est la taille moyenne d'un document (nombre de graphèmes qui le composent), alors la complexité de la méthode est de O(K2N), où N est le nombre de documents dans la base de données. Le second inconvénient vient du fait que tous les graphèmes invariants ont le même poids durant la prise de décision. Ceci revient à considérer que tous les graphèmes ont la même fréquence d'apparition dans un même document, ce qui est rarement le cas. La recherche d'information est le processus de recherche, dans une base de documents, de ceux qui sont considérés pertinents au sens d'un besoin exprimé par l'utilisateur sous la forme d'une requête. Pour cela, la requête et les documents de la base sont généralement représentés dans un même espace de caractéristiques. De ce fait, le choix des caractéristiques est particulièrement primordial. Comme les documents doivent être décrits de façon à pouvoir répondre à tout type de requête, on ne peut en général faire intervenir une quelconque étape de sélection de caractéristiques pour réduire la dimension de l'espace et offrir ainsi un gain en temps de calcul. Aussi cherche -t-on le plus souvent à décrire les documents en conservant l'ensemble des caractéristiques extraites et donc en recourant à une description dans un espace de grande dimension. Un système de recherche d'information est généralement caractérisé par : l'ensemble des documents qui composent la base de données; un modèle de recherche d'information qui ordonne les documents de la base de données, selon leur degré de similitude avec la requête; le traitement des documents : les documents sont examinés, afin d'en extraire des informations statistiques. L'identification du scripteur est un problème où le nombre de scripteurs qui forment la base de référence doit être suffisamment grand pour que le résultat prenne un sens. Parcourir une base de grande taille nécessite alors de recourir à une technique de recherche d'information, qui non seulement est très adaptée pour des bases de données de grande taille, mais qui prend également en compte la redondance des caractéristiques dans chaque document de la base. De ce fait, on peut formuler notre problème d'identification du scripteur comme un procédé de recherche par le contenu graphique (ensemble de graphèmes extraits du document à identifier) dans une grande base de documents (ensemble des documents de référence). Les documents de cette base seront classés au sens d'une mesure de similitude avec la requête, du plus proche au plus éloigné. Il existe plusieurs types de modèles de recherche d'information (Song et Croft, 1999) : le modèle booléen, le modèle probabiliste et le modèle vectoriel (VSM) sont les plus connus. Ce dernier, proposée par Salton (Salton et Wong, 1975) est un des modèles de recherche d'information les plus utilisés. Les documents de la base ainsi que la requête sont représentés par un vecteur dans un espace de grande dimension. Bien que très simple et de conception assez ancienne, ce modèle reste très efficace (Memmi, 2000; Pouliquen et al., 2002). Dans ce modèle, la stratégie de recherche s'effectue en deux phases : une phase d'indexation permettant de décrire chaque document par un vecteur de grande dimension; une phase de recherche où sera évaluée la pertinence de chaque document de la base Dj par rapport à une requête spécifique Q. Cette évaluation n'est rien d'autre qu'un produit scalaire entre le vecteur décrivant la requête Q et celui décrivant un document de la base Dj. Supposons défini l'ensemble des caractéristiques. On note la ième caractéristique. Dans les modèles RI, chaque caractéristique peut décrire un document de la base (ou la requête) selon sa fréquence d'apparition dans ce même document, et sa fréquence d'apparition dans les autres documents de la base. Partant de ce principe, chaque document de la base Dj ainsi que la requête Q, peuvent être décrits comme suit : où ai,j et bi représentent les poids attribués à chaque caractéristique φ i et sont définis par : où TF(φ i, Dj) indique le nombre de fois où la caractéristique φ i apparaît dans le document Dj (Terme Frequency). IDF(φi) est l'inverse du nombre de documents possédant la caractéristique φ i (Inverse Document Frequency); sa valeur est donnée par : où n est le nombre total de documents dans la base, et DF(φi) est le nombre de documents où la caractéristique φi apparaît (Document Frequency). Notons que si IDF(φi) = 0, cela signifie que la caractéristique ϕi apparaît dans tous les documents de la base. De ce fait, cette caractéristique sera affectée d'un poids nul, et devrait même être retirée de l'ensemble des caractéristiques (Schaüble, 1997). 3.2. Chaque document ainsi que la requête est décrit dans le même espace de caractéristiques, une mesure de similarité entre chaque document, et la requête est nécessaire afin d'ordonner les documents selon leur pertinence. Plusieurs mesures de similarité ont été proposées dans la littérature (Dice, Jaccard…). D'après (Memmi, 2000) la plupart des mesures de similarité ne sont que des variantes de la mesure Cosinus, qui consiste à calculer la valeur de l'angle entre le vecteur d'un document du corpus Dj et le vecteur de la requête Q. Elle est définie par : où les deux termes du dénominateur représentent respectivement la norme du document, et de la requête. Les scores des TF-IDF sont calculés pour chaque document durant la phase d'indexation. Comparé à la méthode de mise en correspondance directe, ce processus de recherche a une complexité de O(KN), où K est la taille du vecteur de caractéristiques et N le nombre de documents dans la base. Le point central de l'implémentation d'un modèle de recherche d'informations pour une identification du scripteur réside dans la définition d'un espace commun de caractéristiques pour toute la base de données. Les phases d'indexation et de recherche peuvent ensuite être implémentées selon les étapes décrites précédemment. Dans la section 2.2 nous avons justifié notre choix de caractéristique locale (graphème) pour l'identification du scripteur; nous avons également montré que l'utilisation des groupes d'invariants pour chaque scripteur est très pertinente pour l'identification. La figure 4 présente quelques groupes d'invariants obtenus sur notre base de référence, ces caractéristiques peuvent apparaître chez plusieurs scripteurs. Au sens du modèle, une caractéristique est considérée comme non pertinente si elle est partagée par tous les scripteurs. La figure 5 donne le résultat de l'approche sur notre base. On constate que le bon scripteur a été correctement identifié dans près de 93 % des cas (83/88), en ayant recours aux graphèmes du premier niveau. Ce taux d'identification monte jusqu' à 95.45 % (84/88) avec les bigrammes (graphèmes niveau 2), quand les trigrammes ne donnent que 80 % (70/88) de bonne identification. Rappelons que l'approche initiale donnait 97 % de bonne identification sur le premier niveau avec une mise en correspondance très intensive des graphèmes, et donnait 92 % avec les bigrammes (cf. figure 3). Ces résultats illustrent l'intérêt du modèle vectoriel de recherche d'information pour l'identification du scripteur. Nous avons pu constater également que nous obtenons pratiquement les mêmes résultats avec ce modèle de recherche d'informations qu'avec la première approche, voire des résultats meilleurs avec les graphèmes du second niveau tout en bénéficiant d'un gain de temps considérable. Deux raisons peuvent expliquer les résultats avec les trigrammes. La première est que les trigrammes ont des formes assez singulières, ce qui les rend peu fréquents (beaucoup de singletons) même sur une même page d'écriture. La seconde raison est que les trigrammes sont plus dépendants du contenu textuel (cf. figure 6). Nous avons testé la performance de notre système d'identification sur une base d'écritures du patrimoine littéraire français. Cette base se compose de 39 scripteurs qui ont correspondu avec Émile Zola. Ces images ont été scannées à partir d'un microfilm avec une résolution de 300 dpi. Elles sont d'un niveau de difficulté plus élevé que celui de la base précédente, pour différentes raisons : présence de lignes parasites, chevauchement des lignes, types de plume et d'encre utilisés à la fin du XIXe siècle. Enfin, les écritures de cette base sont complètement non contraintes. Le microfilm original contient près de 700 documents. Cette base de données a été manuellement annotée afin de rejeter les zones non pertinentes telles que des zones de textes imprimées, des marques, des ratures, des tâches d'encres, etc. Bien que cette base contienne un nombre relativement important de documents, ils sont loin de se distribuer uniformément sur l'ensemble des scripteurs. De plus, le nombre de mots peut varier nettement d'un document à l'autre. Pour ces raisons, la base a été constituée en ne retenant que les blocs de textes ayant une quantité d'informations manuscrites suffisante en même temps qu'un nombre suffisant d'auteurs. Nous n'avons finalement retenu que 39 documents pour chacune des 2 bases de travail (base de référence et base d'évaluation). Chacun se compose de 5 à 7 lignes manuscrites pour la base de référence, alors que la base de test contient des blocs de textes de 3 à 5 lignes. La figure 7 donne quelques échantillons d'écriture retenus. Les résultats obtenus sur cette base (cf. figure 8) sont sensiblement inférieurs à ceux obtenus sur notre base de laboratoire. Néanmoins, la méthode permet dans 93.3 % des cas (36/39) une identification correcte dans les 5 premières propositions. Les particularités de cette base (images scannées à partir de microfilms, nombre limité de scripteurs…) peuvent expliquer ces résultats. Dans cet article nous avons présenté un cas d'utilisation d'un modèle de recherche d'information visuelle adapté à la navigation et l'interrogation de bases de documents manuscrits numérisés. Nous avons considéré ces documents du point de vue de leur contenu graphique, ce qui inscrit cette problématique dans un cadre d'identification du scripteur. La description utilisée, adaptée spécifiquement à la description des écritures manuscrites, permet d'atteindre des performances significatives lorsqu'on s'intéresse à retrouver le scripteur d'un document manuscrit (tâche d'identification du scripteur). L'application de cette technique sur une base d'écritures du patrimoine littéraire montre d'une part qu'un ensemble de traitements complémentaires est nécessaire pour parvenir à filtrer les zones non manuscrites sur les documents. D'autre part, la numérisation des documents en noir et blanc à partir des microfilms reste un processus très imparfait, source importante de bruit, qui perturbe la caractérisation des écritures. Néanmoins, la méthode permet d'atteindre un taux de bonne identification de près de 93 % dans les 5 premières propositions du système. Elle s'avère donc très robuste vis-à-vis des perturbations introduites par la chaîne de capture des données. Outre son utilisation spécifique sur des écritures manuscrites, cette technique pourrait facilement être étendue à d'autres problèmes de caractérisation de documents textuels par leurs contenus graphiques. Citons par exemple les problèmes d'identification de typographies sur des documents imprimés anciens. Notons également que l'approche est par construction compatible avec les techniques de compression à base de dictionnaires de formes telles que celles utilisées par les normes JBIG ou DjVu. Pour toutes ces raisons, la technique semble particulièrement intéressante .
Nous présentons un modèle de recherche d'information visuelle adapté à la navigation et l'interrogation de bases de documents manuscrits numérisés. Nous considérons ces documents du point de vue de leur contenu graphique, ce qui inscrit cette problématique dans un cadre d'identification du scripteur. Un certain nombre de travaux ont abordé ce problème d'identification du scripteur, le plus souvent en s'appuyant sur des techniques d'analyse de textures pour caractériser les écritures. L'originalité des travaux que nous présentons tient au fait que nous fondons notre démarche sur une technique de recherche d'information en utilisant une description spécifique à l'écriture manuscrite. L'approche est évaluée sur deux bases de documents manuscrits : une base créée au laboratoire et une base du patrimoine littéraire constituée des correspondances de Zola.
sciencesInfo_04-0290035_tei_DN_073_0047.tei.xml
termith-452-communication
Tant que les lions n'auront pas leurs propres historiens, leshistoires de chasse glorifieront les chasseurs. Proverbeafricain On me pardonnera sans doute (et sinon, tant pis), le caractère doublement provocateurde ce titre : provocateur sur le fond, par la radicalité de ce qui peut apparaîtrecomme une accusation pour certains (mais peut-être un soulagement pour ceuxqu'indisposent les débats sur le genre); et provocateur dans sa forme, l'adoptiond'une formule en anglais étant le signe, pour les détracteurs du genre, d'unepaternité (voire d'une maternité) honteuse puisqu'américaine. Nous reviendrons surces deux points. Efforçons -nous auparavant de clarifier et l'expression employée etles objectifs de cet article. Gender blind qualifie, le plussouvent dans un emploi négatif, toute activité ignorant ou rejetant la spécificitéde genre. Nous définirons provisoirement et succinctement le terme de « genre »comme désignant tout ce qui relève des « rapports sociaux de sexe », le genre étantau sexe ce que la culture est la nature, pour reprendre une formule célèbre. Laquestion ici formulée consiste donc à tenter de savoir dans quelle mesure etpourquoi les sciences de l'information et de la communication (sic) seraient plus ou moins réfractaires que d'autres disciplines àintégrer cette dimension dans leurs travaux et – question subsidiaire – ce qu'ellesgagneraient à cette rencontre. À l'origine de cette interrogation, une commande dela revue Questions de communication qui rejoint opportunémentune préoccupation personnelle, intriguée que je suis par l'abondance despublications et débats actuels autour de cette problématique et la discrétion dessic sur cette interrogation qui devrait pour tant lesinterpeller au premier chef, tant l'information comme la communication sontstructurées par le genre. L'exercice n'est pas aisé. L'interdiscipline s'est constituée en associant« information » et « communication », rencontre indiscutablement productrice derichesse, mais qui rend tout discours formulé à partir de l'une de ces composantessusceptible d' être contesté par l'autre. Je travaille dans le domaine de lacommunication et le discours qui va suivre est formulé de ce point de vue, même sije vais m'efforcer d'avoir à l'esprit la dimension « information ». Cette mêmeraison rend malaisées les comparaisons avec ce qui se passe à l'étranger où lesdomaines d'interrogation qui sont ceux des sic en France sesont structurés différemment; compte tenu de mon propre champ de recherche, c'estdonc le plus souvent avec les médias (Media Research / Media Studies) que je serai amenée à formuler descomparaisons. On pourra enfin s'interroger sur ma légitimité à engager ce débatpuisque, ancienne dans le domaine des sic, je n'aidécouvert qu'assez récemment les travaux sur le genre, à l'image en cela de bien desuniversitaires de ma génération, rares étant ceux – et le plus souvent celles – quise sont orientés dans cette direction dès leurs débuts – c'est là un signe du retarddes sic en la matière. Nous commencerons par un rappel rapide de la façon dont les études de genre se sontimplantées en France; l'analyse de la dynamique et des difficultés rencontrées à cepremier niveau nous aidera à mieux comprendre les réticences des sic face aux interrogations portées par les études de genre, objet dusecond temps de notre réflexion qui propose par ailleurs un premier bilan destravaux des sic en la matière. Nous nous efforcerons enfinde montrer en quoi la problématique genrée s'avère d'une grande productivité pourles recherches en information - communication. « Le retard français en la matière est considérable » affirmaient encore en 2001les coordinatrices de Masculin-Féminin : questions pour lessciences de l'homme (Laufer, Marry, Maruani, 2001 :11), considérantcette lenteur des sciences humaines et sociales à s'emparer de la question comme« bien suspecte ». Le constat est partagé par tous ceux qui travaillent surcette question. Ce retard s'apprécie à un double niveau : par rapport auxÉtats-Unis d'abord, berceau de la « discipline », ainsi que par rapport à uncertain nombre de pays d'Europe du Nord notamment. Le constat peut semblerétonnant quand on sait par ailleurs le prestige, notamment à l'étranger, de cequ'il est convenu d'appeler « la théorie féministe française » (French Feminist Theory), représentée entre autrespersonnalités par Luce Irrigaray, Hélène Cixous ou Julia Kristeva et desécrivaines comme Simone de Beauvoir ou Marguerite Duras. Mais ce paradoxes'explique en partie par l'histoire du féminisme en France et ses rapports avecl'institution universitaire, dont les études de genre ne peuvent êtredissociées. Rappelons -en donc ici quelques grandes étapes. Pour ce faire, nousnous appuyons sur un ensemble de travaux, dont la dernière étude internationaledisponible et diligentée à la fin des années 90 par la Commission européennedans le cadre de la dg XXII, permettantd'apprécier la spécificité française au regard des neuf pays d'Europe concernéspar la recherche (Griffin, Braidotti, 2002) : après leurs débuts dans lesannées 70 et un commencement d'institutionnalisation dans les années 80, lesannées 90 correspondent à un « creux », en dépit d'initiatives marquantes, avantle redémarrage à la fin de la décennie et le début des années 2000, sousl'impulsion du débat sur la parité politique. Après le mouvement suffragiste des années 1875-1920, les années 70correspondent en France à la deuxième grande vague féministe du XX e siècle, dans la foulée des événements de Mai 68. Leslogan bien connu « 1970 : année zéro du féminisme » témoigne donc à la foisd'une incontestable réalité et d'un bel oubli des luttes antérieures. LesWomen's Studies sont issues du féminisme de cesannées, dont la radicalité peut être considérée comme une descaractéristiques essentielles : refus du réformisme comme de toute« récupération » par des partis politiques, exclusion des hommes, rejet detoute hiérarchie et de toute forme de leadership ,etc. (Picq, 1993). On conçoit que ces spécificités n'aidèrent pas à intégrerl'institution universitaire en particulier, caractérisée par lahiérarchisation des responsabilités et une centralisation à l'opposé desprincipes et des modes de fonctionnement des féministes. Souhaitées parcertaines, l'intégration à l'Université fut considérée par nombre d'entreelles comme une trahison, comme une acceptation des règles des dominants etune façon de pactiser avec l'ennemi. Cette controverse met aussi l'accentsur les relations difficiles entre militantisme – féministe, en tout cas –et monde académique, la suspicion de l'engagement partisan pesantaujourd'hui encore sur les travaux sur le genre, qui pourraient ne passatisfaire aux critères d'objectivité qui caractériseraient la recherchescientifique; nous y reviendrons. Last but notleast, l'approche féministe revendique un lien fort avec le terrain etle concret de l'expérience quotidienne, préconisation aux antipodes de lalégitimité théorique et conceptuelle qui domine à l'Universitéfrançaise. Malgré tout, les premiers enseignements se mettent en place au début desannées 70, à Paris 8-Vincennes, l'université de toutes les audaces, maisaussi à Paris 7, à Lyon 2, à Toulouse 2, notamment en histoire et ensciences sociales, champs ouverts d'une nouvelle contestation selonFrançoise Picq (in : Griffin, Braidotti, 2002 :317); selon celle -ci, les femmes lancent un défi aux disciplines où ladomination masculine est la plus manifeste, y soulignant l'exclusion desfemmes et la construction sociale de la différence sexuelle. C'est aussi laraison, explique -t-elle, pour laquelle on parle alors d'études« féministes » plus que d'études « féminines », le terme désignant une approche plus qu'une discipline. À cesdeux domaines pionniers, d'autres chercheurs ajoutent la psychologie, laphilosophie, la littérature et les études anglo-saxonnes, en précisant quela prise en compte par ces disciplines des problématiques liées au genre aété imposée par ceux – et le plus souvent celles – qui étaient convaincus desa productivité scientifique, et en dépit de l'absence de soutieninstitutionnel qui caractérise encore le plus souvent ce secteur. Les années 80-90 correspondent à un relatif développement de ces études quine permettent toutefois pas à la France de se positionner plus favorablementau niveau européen, le soutien institutionnel étant pour le moins erratique. Il fut réel audébut des années 80, suite à l'arrivée de la gauche au pouvoir, le colloquetoulousain de 1982 sur « Femmes, féminisme et recherches », organisé avec lesoutien du cnrs, du ministère des Droits de laFemme et de celui de la Recherche et de la Technologie, constituant uneétape marquante. Témoignent aussi de cet appui le lancement du programme atp du cnrs « Recherchessur les femmes et recherches féministes » (1983-1989) et le fléchage, entre1985 et 1991, de cinq postes d' « études féministes » à l'Université tandis qu'en 1989 était fondée l'Associationnationale des études féministes (anef). En dépitde la création, en 1994, du gdr mage (Groupement derecherche sur « Marché, travail et genre »), l'engagement institutionnelfait de plus en plus défaut et le développement des Études de genre reposepour l'essentiel sur l'implication personnelle d'un certain nombred'individualités. La fin des années 90 et le début des années 2000 permettent une nouvelledonne. Tandis que, sur le plan universitaire, l'année 2000 voit la créationdu Réseau interuniversitaire et interdisciplinaire national sur le genre (ring) et de Mnémosyne, association pour ledéveloppement de l'histoire des femmes et du genre, et 2001 celle de laSociété internationale pour l'étude des femmes de l'ancien régime (siefar), la question du genre devient un objet dedébat public. En effet, le retour de la gauche au pouvoir en 1997 et lelancement du débat sur la parité suscitent une prise de consciencecollective (ou une crise de mauvaise conscience collective). Une forteproduction éditoriale, au sein des maisons d'édition les plus en vue, vientalors répondre aux interrogations du public, et donne toute leur visibilitéà des recherches jusqu'alors confinées dans des lieux plus confidentiels( revues scientifiques, presses universitaires, etc.). Les débats autour de la loi sur la parité, auxquels la candidature deSégolène Royal en 2007, a achevé de donner corps, ont favorisé la prise deconscience du Gender gap par les citoyens. GenevièveFraisse (Le Feuvre, in : Braidotti,Vonk,Wichelen ,2002 : 209) parle de la (sous)représentation des femmes en politique commedu « Cheval de Troie du renouveau féministe en France ». Ils ont aussi donnéun coup d'accélérateur aux études de genre. Outre l'histoire et lasociologie, présentes dans le concert des disciplines pionnières et plus quejamais actives dans les débats, la science politique et la philosophie( politique) sont désormais directement interpellées. C'est aussi à ce momentque les sic s'orientent vers ces questions ,principalement (mais pas exclusivement) par le biais d'interrogations autourde l'espace public et de la communication politique, objets d'étudetraditionnels de la discipline. L'édition d'une petite dizaine de livraisonsde revues du champ ou apparentées témoigne de cet engagement. Et l'on peut se demander si, de même qu'on a pu parlerd'un « Linguistic turn » dans l'historiographieaméricaine des années 60, on peut aujourd'hui parler d'un Gender turn pour les sic françaises. Maisavant d'envisager cette question de l'intérieur des sic, voyons dans quelle mesure cette prise en compte de laproblématique du genre dans l'interdiscipline est perçue par les études degenre. En dépit des difficultés, et malgré le retard français en la matière, les études de genresont donc aujourd'hui bel et bien implantées en France et le bilan desrecherches menées, consistant. La perspective genrée s'est sur toutdéveloppée en sociologie, histoire, psychologie sociale, philosophie ,littérature, littérature et civilisation anglophones et économie. À la findes années 90, date du dernier recensement officiel, Nicky Le Feuvre etMuriel Andriocci estiment à 70 les enseignements dispensés sur le genre ,présents dans 12 des 78 universités françaises répertoriées, celles Paris 7et 8, Lyon 2 et Toulouse 2, présentes dès l'origine, apparaissant commemoteurs. Lessites du ring et de l'aneF permettent toutefois de constater que lecatalogue des enseignements dispensés s'est nettement enrichi depuis. Lessic n'apparaissent toutefois pas ès qualitésdans les banques de données sur l'enseignement du genre. Même constat du côté de la recherche, en pleine expansion. Le dynamismeéditorial en est une preuve, ainsi que le nombre de colloques organisés surce thème et dont rendent compte les sites précédemment mentionnés. Mais làencore, la visibilité des sic est très faible .L'interrogation du site du ring qui répertorie lesquelque 8 000 documents des trois principaux centres de documentationspécialisés dans le genre (Louise Labé, Simone Sagesse et Credef),à partirdes termes « médias », « communication », « information » (dans le sens dessic) et « technologies » (en dehors des« technologies de la reproduction »), donne successivement 4, 7, 1 puis5 occurrences, soit moins de 20 occurrences sur 8 000. Inversant la perspective et partant désormais des sic, nous avons parcouru l'offre de formation d'un certain nombred'universités et d'écoles connues pour l'importance de leur enseignementdans ce domaine, afin de repérer l'éventuelle présence de cours sur le genre. Nous avons complété cette approchepar une interrogation en direct des collègues ayant une vision globale surla discipline par le biais de leurs fonctions ou de leurs recherches, ouayant publié dans le domaine des études de genre. Au terme de cette enquête, ilsemble qu'une seule Université propose un enseignement de ce type, tandisqu'une autre envisage de le faire. Nous avonsconscience qu'il ne s'agit là que d'un sondage, qui de plus n'est pas àl'abri d'erreurs; et ce ne sera pas là un des moindres résultats de cetravail, s'il conduit à des rectifications permettant de compléter cetableau. Nous savons aussi que les intitulés ne disent pas tout du contenu réel desenseignements et que ceux -ci constituent par ailleurs le niveau le plusélevé de reconnaissance d'une problématique – reconnaissance inversementproportionnelle au niveau où l'enseignement est dispensé, et nous n'ignoronspas le décalage entre l'importance reconnue d'une problématique et satraduction en termes pédagogiques. Ajoutons que le jeu institutionnelpermettant d'aboutir à la modification d'une maquette pour imposer un nouvelenseignement s'apparente parfois à une course d'obstacles, d'abord au seinde l'Université; celle -ci étant « male dominated » ,les femmes étant minoritaires parmi les professeurs et le plus souventmoteurs dans les travaux sur le genre, elles sont de surcroît mal placéespour défendre ce type d'enseignement et faire le lobbying nécessaire. Pourtoutes ces raisons et malgré une minoration possible des enseignements dansce domaine, ce maigre premier bilan confirme la marginalité de l'approchegenrée en sic. Voyons à présent ce qu'il en est surle plan de la recherche. Nous avons situé le Gender turn (tout relatif) des sic au début des années 2000. Afin de vérifiercette hypothèse, nous avons pris en compte l'ensemble des revues labelliséesen sic, en partant, de façon indicative, de laliste dressée par le cnu et analysé leurs sommairesdurant les dix dernières années lorsque cela a été possible. L'exercice estpérilleux, les risques d'oublis et de confusion, évidents; prenons -ennéanmoins le risque. Le bilan fait état de 8 livraisons thématiques publiés entre 2000 et 2007 ,plus deux autres annoncés pour 2009 et, hors dossiers, près d'une quinzained'articles qui figurent principalement – et sans doute n'est -ce pas unhasard– dans les mêmes revues qui ont consacré au genre un ou plusieursnuméros thématiques. Selon que l'on considère que leverre est à moitié plein ou à moitié vide, le bilan apparaîtra maigre ouconsistant. Maigre si on le compare à la situation d'autres disciplinescomme la sociologie ou l'histoire, où existent revues et collectionsintégralement dédiées à cette problématique. Maigre encore quand on lecompare au dynamisme de l'approche genrée dans les MediaStudies étrangers, par exemple, où des travaux sur ce thème sontmenés depuis plusieurs décennies, en Europe du Nord ou aux États-Unisnotamment. Il n'en reste pas moins qu'un virage a été pris à l'orée dutroisième millénaire, suite à la prise de conscience globale en Franceconcernant notre retard en la matière. La question demeure toutefois de ce qui ne peut manquer d'apparaître comme unparadoxe lorsqu'on songe au caractère fortement genré de la discipline, oùles étudiantes sont majoritaires et où les enseignantes le seront bientôt ,et aux parentés « objectives » entre sic et étudesde genre. Mais peut-être est -ce là, précisément, que le bât blesse. L'hypothèse que nous formulons est la suivante : la persistante indifférencedes sic pour les études de genre, si elle n'est paspropre à l'interdiscipline, n'en prend pas moins ici un relief particulier .En effet, bien des griefs formulés par le monde académique français àl'encontre des études de genre rappellent ceux qui ont été opposés aux sic dans leur combat pour l'accès à la légitimitéinstitutionnelle. Cette gémellité fondatrice constitue peut-être une clépour comprendre notre retard à nous saisir de la problématique genrée, alorsque tout au contraire plaidait pour une rencontre précoce et féconde. Rappelons tout d'abord que, originaires d'outre-Atlantique– ce qui pèseralourd dans leur difficile acclimatation au paysage universitairefrançais –, l'une et l'autre ont été introduites et se sont développéesen France à la même époque. Nées dans la foulée de Mai 68, elles ne sontpas sans rapport avec le vaste mouvement de remises en cause qui atraversé la société françaiseà cette période. Bouleversements sociaux ,dont les revendications des femmes sont l'expression, maisbouleversements techniques aussi, avec la montée en puissance descommunications (informatique, etc.) dont témoigne le développement lessic. Cette coïncidence chronologique, quiancre les deux « disciplines » dans un même humus et une même jeunesse, se double d'un ensemble decaractéristiques, tantôt partagées, tantôt propres à l'une ou à l'autre ,mais ayant en commun d'avoir suscité la méfiance, voire le rejet del'Université française. Ainsi du primat de l'approche empirique et de la prégnance du terrain, sipeu conformes à notre tradition universitaire et qui et furent égalementportés à leur débit. En sic, ils se manifestentpar l'impératif professionnalisant et la pression de l'expertise qui ontlongtemps marginalisé le rapport à la recherche (Meyriat, Miège, in : Boure, 2002 : 46 etsq.). Pointant de leur côté l'accueil réservé fait aux étudesde genre par certains pays d'Europe, Gabrielle Griffin et Rosi Braidotti( 2002 : 4) rappellent que le terrain et l'empirisme constituent despostulats majeurs des études de genre où l'expérience est considéréecomme la meilleure source de la connaissance, comme de toutethéorisation. Notant au passage la convergence entre ce principe etl'aptitude de la langue anglaise à traduire le concret, elles soulignentque ce postulat pragmatique, en phase avec les traditions d'Europe duNord comme des États-Unis, est aux antipodes des traditions dominantesen Europe du Sud et de l'Est. Celles -ci seraient caractérisées par desapproches en priorité mono-disciplinaires, le prestige des humanités, leculte du concept, voire la « mystique de l'Intellectuel », qui luiconfère un statut « plus flamboyant » de gardien du temple de la hauteculture, autant de traits bien éloignés de ceux qui caractérisent lesétudes de genre, comme les sic. Cette caractéristique rejoint le débat militantisme/académisme, ouengagement/scientificité, très vif dans les milieux féministes dans lesannées 70 : d'une part, certaines féministes refusèrent de voir leursproblèmes devenir des « problématiques » au sens académique du terme ,cette mutation leur apparaissant comme une « récupération »institutionnelle contraire aux principes et à la vocation du mouvement( on a parlé à ce propos de « trahison des clercs »). D'un autre côté ,l'Institution elle -même a toujours suspecté l'engagement militant decelles et ceux qui s'engageaient dans la voie universitaire comme étantincompatible avec les exigences de scientificité, parfois réduite à laseule soi-disant « objectivité ». Ce soupçon quicontinue de peser sur la discipline contribue à la dévaloriser aux yeuxde certains, au nom d'une légitimité qui semble ignorer que toutengagement scientifique repose sur l'engagement de la subjectivité, mêmesi celle -ci apparaît moins visible pour d'autres thématiques. À cette tradition philosophique et culturelle, il faut ajouter unespécificité française, qui n'a pas non plus contribué à légitimer lesétudes de genre : l'universalisme républicain. Celui -ci –les débatsautour de la parité en politique l'ont rappelé – récuse toutespécificité de race, de classe et de genre pour ne voir en chaquecitoyen qu'un exemplaire d'une humaine condition dégagée de touteincarnation. La grandeur de notre République était à ce prix, bienéloignée de la conception de la démocratie qui prévaut aux États-Unispar exemple. Universalisme contre communautarismes, République contredémocratie, représentation contre incarnation, etc. : la déclinaison dudouble paradigme est connue. Ajoutons que la revendication de ceprincipe républicain se double peut-être d'une forme de mépris ou decondescendance contre l'Amérique des religions et des corps, dont lesétudes de genre semblaient être l'émanation directe. Résister à cette façon d'appréhender la réalité du monde comme l'universdu savoir est apparu à certains comme une nécessité où se mêlaientdéfense de principes éthiques et philosophiques et résistance àl'impérialisme américain. Ce même anti-américanisme est perceptible dansla frilosité avec laquelle les sic ont ellesaussi été perçues à leurs débuts, la communication apparaissant commeune invention étasunienne cristallisant un ensemble de savoirs et desavoir faire également critiquables. La tradition marxiste, dominante dans une partie de l'Université durantles années 70, a redoublé ces préventions à l'égard d'une approche quientendait faire des femmes un objet d'étude à part entière ,indépendamment de la question de la lutte des classes et le lien entreles études de genre et les Cultural Studies, donton sait les rapports difficiles avec les sic ,ont encore compliqué la donne. Le dernier point de rencontre entre sic et genreest celui de leur statut épistémologique : s'agit-il de disciplines àpart entière ou d'interdisciplines ? La question a été débattue dans lessic, où malgré leur « métissagerevendiqué » (Boure, in : Olivesi, 2006 : 251) ,les discussions sont récurrentes sur les frontières avec les disciplinesproches et lointaines. Il a été tranché dans la mesure où malgré leurstatut d'interdiscipline, les sic sontenseignées au sein d'entités autonomes. La même question s'est poséepour les études de genre : devaient-elles faire l'objet d'unenseignement au sein d'unités propres, ou être intégrées aux disciplinesd'ores et déjà existantes pour en renouveler les problématiques ?Contrairement à ce qui s'est passé pour les sic, et à ce qui se pratique pour les études de genre dansd'autres pays, en France, elles sont intégrées au sein des entitésdisciplinaires existantes. Cette situation est analysée par certainscomme un échec des féministes à imposer un rapport de forces qui leursoit favorable, échec lourd de conséquences. La visibilité de ladiscipline s'en trouve amoindrie ainsi que sa légitimité au regard descritères universitaires, fondés sur le prestige (mono)disciplinaire. Les études de genre comme les sic sont doncapparues comme des disciplines « non nobles », voire « impures » auregard des critères de scientificité mis en avant dans l'universitéfrançaise, et par conséquent suspectes aux yeux de la légitimitéacadémique. Elles -mêmes longtemps dominées au sein de l'Université ,longtemps en quête de respectabilité, les sic n'ont sans doute pas été pressées de s'ouvrir à des problématiquescaractérisées par des traits perçus comme redoublant leurs propresfaiblesses et pouvant raviver les débats dont elles semblaient à peinesorties. Mais les sic doivent aujourd'huis'ouvrir à la pensée du genre. Non pour céder à un quelconque effet demode, mais parce que la fécondité de cette approche pour nosproblématiques s'avère considérable. Avant de développer ce qui nous apparaît comme des convergences de fond entreapproche communicationnelle et genre, voyons en quoi les effets presquemécaniques dus à la seule évolution disciplinaire conduisent à cetterencontre. La question du déficit de légitimité dont les sic ont longtemps souffert est aujourd'hui une questiondépassée; en témoigne l'effacement du thème dans les débats menés ausein de l'interdiscipline et dont la Société française des sciences del'information et de la communication (sfsic) –entre autres composantes – peut apparaître comme une caisse derésonance. Par ailleurs, le nombre d'enseignants-chercheurs y estdésormais suffisamment important pour ne pas en faire une disciplinemarginale, résiduelle ou contrainte à des stratégies de défense. Parallèlement, les procès en sorcellerierégulièrement intentés à la communication dans les années 80 semblentaujourd'hui avoir fait long feu, ce qui n'est pas non plus sansincidence sur la légitimation des sic. Les sic étant désormais pleinement reconnues, lafrilosité qu'on a cru pouvoir déceler dans leur méfiance à l'égard desétudes de genre doit être dépassée. Parallèlement, la reconnaissance desétudes de genre est elle aussi en bonne voie (toujours l'effet miroirentre les deux disciplines ?). En témoigne par exemple, l'ouverture dedisciplines réputées très réfractaires à ces problématiques, comme ledroit ou la science politique L'évolution sociodémographique de la population des enseignants -chercheurs constitue une autre raison permettant de penser que laréticence des sic face aux études de genre esten passe d' être surmontée. On savait les études de communicationplébiscitées par les filles (Baudelot, Establet, in : Blöss, 2001); Pascal Froissart et Hélène Cardy (2006 )montrent que de plus, celles -ci sont majoritaires parmi les enseignants -chercheurs recrutés dans notre interdiscipline : « Dans la fourchettedes 23-25 ans, 70 % des enseignants-chercheurs sont des femmes »écrivent-ils. Les femmes étant moteur dans les études degenre, par des effets de transitivité bien connus, on peut imaginer quela féminisation des sic facilitera la prise encompte de cette problématique. De fait, les femmes et notamment les jeunes chercheuses, sontparticulièrement nombreuses dans les articles consacrés aux approchesgenrées. Effet sans doute d'une légitimité désormaisplus grande des interrogations sur le genre, autant que d'uneinterpellation classique des femmes pour ce type de réflexion, cetinvestissement précoce des collègues dans cette réflexion aura aussipour conséquence la capitalisation et la visibilité de ces recherches ,qui leur ont longtemps fait défaut. Trop souvent jusqu'ici, parce queces études étaient faiblement légitimantes et pouvaient constituer unhandicap dans la carrière, les chercheurs y sont venus tardivement etont pratiqué une forme de dilettantisme qui semble aujourd'hui dépassé .Mais plus profondément, sic et genre sont liéspar une proximité quasi organique. Si le domaine de réflexion des sic n'exclut pas ladonnée historique, loin s'en faut, la nature même de leurs objets d'étudeles ancre dans l'actualité. Or, le changement de statut des femmes dans laseconde moitié du XX e siècle a bouleversé notre réalitéquotidienne : essor des scolarités féminines, féminisation du salariat ,maîtrise de la procréation, mutations de la famille, parité politique…« Nous ne vivons plus dans le même monde », observent les auteures de Masculin-Féminin : question pour les sciences de l'homme( Laufer, Marry, Maruani, 2001 : 13).Toutes les pratiques s'en trouventtransformées, des plus quotidiennes comme la participation à la vieassociative, le loisir ou le travail domestique et salarié, aux plusexceptionnelles comme les temps forts de la vie politique à travers desélections. Comment imaginer qu'une discipline comme les sic, qui interrogent ces objets à travers le prisme de lamédiatisation, puissent occulter la variable genrée ? Plus profondément encore, de même qu'elle est travaillée par des rapports declasse et des rapports ethniques, toute communication est par définitiongenrée. Nous suivrons ici la démonstration de Marie - Joseph Bertini (2005 :118-119) qui dans une formulation forte, rappelle la consubstantialité de lacommunication et du genre : « Penser le genre ou pensés par le genre ? »écrit-elle. « L'information-communication [poursuit-elle] constituent desprocessus, mais aussi des dispositifs techniques et médiatiques structuréspar le genre. En sorte que les opérations qu'elles recouvrent sontgouvernées par les rapports sociaux de sexe et interprétés à l'intérieurd'une sémiosis générale définie par eux. Il s'agit donc de mettre enévidence le fait que la différence socialement construite des sexes et lahiérarchisation qu'elle instaure entre eux, représente le principal agentd'organisation de l'information et de la communication d'une part, et quetoute situation d'information et de communication se réfère implicitement ausystème de signification et d'interprétation que constitue le genre, d'autrepart » (ibid. : 121). Si donc, conclut-elle, commel'affirme l'adage célèbre de l'école de Palo Alto : « On ne peut pas ne pascommuniquer », celui -ci est toujours précédé par celui selon lequel « on nepeut pas ne pas communiquer du genre » (ibid. :122). Cette analyse rejoint celle de la sociologue du genre Irène Théry (2007) quiprône de son côté une approche relationnelle de la question des sexes : pourelle, la croyance en un moi original n'est qu'une mystification de nossociétés occidentales, qui imaginent ainsi le genre comme un caractèreinterne à l'individu et non comme le résultat de relations socialesnormatives et relatives. Si le genre s'inscrit en priorité dans la relationdes sexes, la communication est au cœur du processus. C'est dire si la priseen compte de la variable genrée, non contente d'assurer une plus-valuecritique aux sic, entraîne une refonte générale denotre appréciation communicationnelle. Qu'ils l'aient ou non exprimé en ces termes, les travaux anglo-saxons rendentbien compte de la centralité du genre dans les processus de communication ,et l'abondance et la richesse de ces publications témoignent de laproductivité de l'approche. Les recherches auxquelles nous faisons référenceici portent sur les médias en particulier, plus que sur la « communication »ou l' « information-communication » en général, tant il est vrai que laquestion de la représentation des femmes dans les médias, sous-tendue parcelle de leur opérativité sociale, en a fait d'emblée un champ d'étudesprivilégié des études de genre. Le contenu de deux ouvrages de référencenous donne une vision assez complète des axes privilégiés. Nous passerons rapidement sur le livre de Lisbeth van Zoonen (1994) quiapproche les études de genre sur les médias en distinguant entre troiscourants majeurs : le féminisme libéral, le féminisme radical et leféminisme socialiste; si tous trois partagent une même conceptioninstrumentale des médias, l'entrée dans la problématique est, comme son noml'indique (Feminist media studies), justifiée parune approche militante, conforme à la tradition anglo-saxone des Feminist studies comme des Women'sStudies. L'ouvrage de Carolyn Byerly et Karen Ross (2006) n'est pas non plus dépourvud'objectifs militants puisque toute la seconde partie (« Women, media and the public sphere : shifting the agenda ») portesur la façon dont les femmes, dans leur action politique, associative, entant que professionnelles des médias ou par des actions de lobbying, peuventconduire les médias à modifier leur représentation des femmes. Ladialectique entre médias et société impliquant qu'une modification de lareprésentation des femmes dans les médias est à la fois cause et conséquencede la représentation des femmes dans la société. La première partie du livreoffre, quant à elle, un vaste panorama des travaux menés, qu'il estimpossible de résumer en quelques lignes. Nous nous bornerons à troisobservations : l'organisation même de l'étude semble tributaire d'un schémad'inspiration marxiste où la superstructure (les productions médiatiques )serait le reflet de l'infrastructure et en l'occurrence de médias, en grandepartie entre les mains de « riches hommes majoritairement blancs » (« ownership of media industries by wealthy-mostlywhite-men », Byerly, Roos, 2006 : 5); cette argumentationimplicite n'empêche toutefois pas les auteures de s'interroger sur lacontradiction entre la place de plus en importante des femmes dansl'industrie des médias (parfois même à des postes de responsabilité) et lapermanence des stéréotypes de genre. Les logiques de pouvoir ontmanifestement raison des identités genrées, le statut de femme ne suffisantpas à faire de celles -ci des militantes de la cause féministe. L'analyse de la représentation des femmes dans la fiction (cinéma ,télévision…) est riche d'enseignements de tous ordres; soulignons enparticulier que l'approche, inspirée des feminist culturalstudies, conclut à la persistance des stéréotypes genrés, malgréune diversification notable des modèles proposés. Même observation pour cequi concerne le media framing en matièred'information où la tendance générale à présenter les femmes comme desvictimes, occulte la variété des expériences féminines, notamment en matièrede réussite professionnelle. La réception des médias est elle aussi genrée ,et en partie tributaire des appropriations de la technologie (comme entémoignent les travaux sur l'internet et la façon dont les femmes usent decet outil, notamment dans sa dimension interactive); l'audience varie elleaussi selon le type de programmes proposé, les travaux sur la réception dessoap operas restant un modèle de l'approchegenrée. La bibliographie qui clôture l'ouvrage recense près de600 références portant sur les cinq continents, qui confirme une traditionde recherche déjà ancienne et permet une capitalisation de savoir précieuse .Seules deux d'entre elles sont françaises, renvoyant aux travaux de MichèleMattelart. Ce très vaste panorama des travaux sur « femmes et médias » recoupe en grandepartie les thématiques des travaux menés en France depuis ces dernièresannées : travaux surla publicité, souvent considérée comme la quintessence des représentationsdes femmes dans les médias, sur la presse, et la presse féminine enparticulier, voire la littérature féminine, ou encore le cinéma (création ,représentations, réception/audience), sur les usages des techniques ettechnologies (internet notamment). Ces approches sefont dans des cadres théoriques et méthodologiques très divers (sémiologie ,analyse de discours, analyse de contenu, sociologie des usages et desaudiences, etc.), de même que l'ensemble des travaux sur les médias. En revanche, les études sur les femmes en politique, ainsi que sur le sexe( érotisme, pornographie, pédophilie, homosexualité/homophobie, censure…) ,très présentes dans le panorama des revues françaises ici prises en compte ,semblent relever d'une approche spécifiquement hexagonale. Dans le premier cas, lesdébats autour de la parité expliquent ce tropisme local, d'autant qu' àl'étranger les travaux sur la communication politique relèvent souvent dedépartements attachés au journalisme ou à la science politique. Quant aubiais « sexologique », en attendant des investigations complémentaires surce qui se pratique à l'étranger, contentons -nous de nous réjouir d'y voirune spécialité française. .. Nous conclurons ce trop rapide survol par un retour sur l'emploi du terme« genre » et en appelant de nos vœux un travail qui s'appuie sur ladimension radicalement contestataire de la notion, qui dépasse la binaritéqui lui a été longtemps attachée; un moyen, peut-être, de convertir enatout ce retard qui est le nôtre. Comme l'observe Maria Puig de la Bellacasa (in :Braidotti,Vonk,Wichelen, 2000 : 94-98), l'emploi du mot « genre » dansles titres publiés se développe à partir des années 90, le termeapparaissant bien plus porteur aux éditeurs que ceux de « sexe »( « rapports sociaux de sexe »), fortement connoté, ou de « femme » et« féministe », plus clivants; il apparaît sur tout comme novateur etdonc susceptible d'attirer l'attention des lecteurs. Au-delà de cesconsidérations marketing, il est bien évident ces termes ne renvoientpas non plus à la même réalité scientifique. On a vu plus haut que lepassage d' « études féministes » à « études féminines » signalait undésengagement par rapport au militantisme revendiqué des pionnières .L'emploi du mot « genre » marque quant à lui un véritable changement deparadigme : en effet, il ne s'agit plus d'étudier les femmes comme uneentité spécifique, sorte de peuplade séparée du reste de la société ,mais de prendre en compte la complexité des interactions existant entreses diverses composantes et donc d'inclure les hommes. On a alors parléde « rapports sociaux de sexe », l'explicitation de la constructionsociale ne laissant aucun doute sur la « naturalité » de ces rapports oùla part du biologique est restreinte. Le terme de « genre » recouvrequant à lui les mêmes présupposés scientifiques, avec l'avantage de labrièveté et de la proximité avec le Genderanglo-saxon. Autant d'arguments qui auraient contribué à la bonnefortune du terme. Mais la volonté ainsi formulée de travaillerconjointement sur les hommes et les femmes tend à réduire les rapportsde sexe à deux composantes majeures : le genre, comme tout langage ettout pouvoir, prescrit. La réflexion sur le genre ne saurait donc sedispenser d'un retour sur la normativité (et sur la normalité ainsisous-entendue) et les rapports de domination contre lesquels elle s'estelle -même construite, déconstruction sur laquelle viennent s'articulerles Gays, Lesbians and QueerStudies. Judith Butler, Éric Fassin et Joan Scott (2007 : 287) rappellent laportée d'une interrogation par le genre : « Ce qui me perturbe, ditcette dernière, c'est quand les définitions prennent le genre pour uneméthodologie familière, au lieu d'une manière de questionner; c'estlorsqu'on fait du « genre » une réponse, ou une étiquette (le genrecomme synonyme de femmes, de sexes, de rôles sexués, renaturalisé et nondénaturalisant) plutôt qu'une interrogation ». Au-delà d'une différencedes sexes conçue en établissant le masculin et le féminin comme despoints de référence, le terme « genre » est en effet un « défi à lapensée binaire » : « Il maintient la possibilité que certainesconfigurations de sexualité ou de genre pourront contester ou s'écarterde la matrice conceptuelle pour laquelle le masculin ou le féminin sontfixes ou présupposés » (ibid. : 297). Dans les travaux mentionnés ci-dessus (Byerly, Ross, 2006), la focale estresserrée sur le traitement des femmes par les médias, la comparaison sefaisant implicitement avec celui dont bénéficient les hommes. Mais si lagrille de lecture du féminisme a permis de découvrir la vertuheuristique d'une lecture sexuée du monde et des savoirs, la force decontamination de cette vision des choses doit conduire à mettre en causetous les rapports de force et de domination constitués par unedéconstruction critique fondamentale des impensés. C'est dans cettedynamique que se situe le passage des « Feminist /feminine/ Women Studies » aux Gender Studies. Nous souhaiterions évoquer pourconclure deux exemples d'approches par le genre dont les sic pourraient bénéficier directement. À partir d'une analyse de la voix (l'organe vocal) et de ses usages enpolitique, un groupe de sociologues part de l'apparente évidence d'uneopposition entre voix féminines (faibles) et voix masculines (fortes) –oppositions d'autant plus évidente que nombreuses sont les femmespolitiques à se plaindre de n' être pas audibles dans les assemblées ,faute d'une prise en compte de leur spécificité vocale. Mais l'étuderévèle que la réalité physique des voix n'est pas si univoque et quedans bien des situations, le genre contredit le sexe : ainsi lorsque deshommes n'ont pas « une voix d'homme », et inversement. Lahiérarchisation genrée des voix s'en trouve bouleversée. Ce « troubledans le genre » n'induit pas une simple inversion des perceptions maiscomplexifie fondamentalement l'analyse des groupes d'hommes et defemmes. L'absence de recouvrement sexe/ genre dans l ' ethos des politiques – ici perçue par le biais de la voix –peut par ailleurs être instrumentalisée par les politiques, lorsqu'elleest perçue comme une ressource politique, ou au contraire minorée ouoccultée quand est craint son effet contre-productif et stigmatisant( Bargel, Fassin, Latté, 2007 : 59). L'usage que peuvent faire les sic de ce typed'interrogation est manifeste, par exemple dans le domaine descommunications interpersonnelles ou de la communication politique .Soulignons aussi que ce genre de questionnement sur le rapport entrevoix et légitimité politique n'a pu être posé qu' à partir du moment oùl'on a prêté attention aux appropriations différenciées de la voix selonle genre. On voit ainsi que l'interrogation par le genre, non contentede renouveler les problématiques existantes, suscite des questionnementsnouveaux. Elle nous conduit à voir autrement la réalité qui nous entoureet révèle d'autres objets d'étude, « indétectables » en dehors de cetteperception. Le genre comme levier d'interrogation permet aussi d'aborder la questioncentrale dans la société actuelle de ce que Judi Joan, Éric Fassin etJoan Scott nomment « la racialisation des questions sexuelles/lasexualisation des questions raciales ». Nous nedévelopperons pas cette piste de réflexion, dont on voit cependant bienl'intérêt pour qui s'intéresse à ce qui se passe dans l'espace publiccontemporain et à la façon dont les médias comme les politiques (se )jouent de ces questions (banlieues, minorités « visibles », etc.). Plus généralement, la force d'interpellation du concept de genre permetde repenser la construction identitaire de chaque individu à la foiscomme être sexué et comme être social, à l'écart des assignationshéritées du patriarcat et qui alimentent la domination masculine. Cetravail trouve son expression la plus aboutie dans le courant « queer », un courant théorique et politique quipropose une sexualité « dé-genrée » au sens patriarcal, au profit d'unesexualité « resignifiée » (Bourcier, 2001). Une problématique à laquelleles sic, compte tenu des objets d'étude quisont les siens, ne sauraient rester étrangères. Nous avons conscience du caractère exploratoire du travail ici proposé, avec leslacunes inhérentes à ce type d'exercice. Son but sera atteint s'il permet depoursuivre la réflexion engagée sur les relations entre sic et genre. On espère au moins avoir rappelé que « le sexe de lacommunication n'a rien à voir avec celui des anges », pour paraphraser le titrede l'ouvrage célèbre de Michèle Le Doeuff (1998). Forts de cette conviction ,soutenue par les travaux sur sic et genre qui sedéveloppent en France depuis le début de cette décennie, suivant en celal'exemple de ce qui se fait à l'étranger pour le plus grand bénéfice de ladiscipline, il nous faut désormais franchir un cap supplémentaire. Il s'agit d'abord d'approfondir et d'affiner l'esquisse de bilan ici proposée ,afin de disposer d'une cartographie précise des recherches menées en la matière ,des enseignements dispensés, des lieux et des personnes d'ores et déjà impliquésdans ce type de travaux. Il s'agira ensuite de proposer un programme derecherche consistant à aborder sous cet angle toutes les composantes du vastedomaine des sic, directement concerné, on l'a vu, parune approche genrée (communication interpersonnelle, nouvelles technologies ,médias, espace public, communication politique…); et ce, sans exclusives'agissant des méthodes mises en œuvre mais portés par la seule exigence dedéconstruction critique des impensés, qui est au fondement de l'interrogation degenre, et rejoint en cela l'objectif heuristique inhérent à toute quête desavoir. Laissons -nous donc gagner par le trouble du genre pour repenserradicalement objets, postures et théories et permettre que les lions deviennentchasseurs, les historiens lions ou les chasseurs historiens…
Sous le titre un peu provocateur « Les sciences de l'information et de la communication, une discipline Gender blind ? », on s'efforce de faire le point sur les relations entretenues entre SIC et études de genre. Après avoir retracé les difficultés d'implantation de ces dernières en France et fait l'hypothèse d'un Gender turn de l'ensemble des sciences humaines et sociales au début des années 2000, on tente d'apprécier la place et l'apport de ce questionnement pour l'interdiscipline. Si les SIC doivent s'ouvrir à la pensée du genre, ce n'est pas pour céder à un quelconque effet de mode, mais pour la fécondité de cette approche pour l'information-communication.
sciencesInfo_10-0300847_tei_1078.xml
termith-453-communication
S'il existe de nombreux travaux autour des moteurs de recherche d'information interactifs, de grandes lacunes concernent leur adaptation contextuelle à des utilisateurs aux capacités en écriture ou en lecture limitées. Il peut s'agir de personnes atteintes de pathologies (dyslexie, mauvaise vision. ..) mais aussi, plus simplement, de personnes ne maîtrisant pas suffisamment la langue d'un document en consultation. De manière générale, la prise en compte du contexte et l'adaptation aux utilisateurs en recherche d'information fait l'objet de nombreuses conférences : Information Retrieval in Context 1 durant SIGIR 2004 (Ingwersen et al., 2004), Adaptive Information Retrieval 2 durant la conférence IIiX 2008, NLP for Reading and Writing 3 durant la conférence SLTC 2008… Par ailleurs, des groupes d'études ont été formés afin de permettre l'accès au web par des personnes handicapées. C'est le cas de la Web Accessibility Initiative (W3C, 2001) qui dresse une liste d'utilisations potentielles du web et préconise certaines solutions techniques. Par exemple, une personne atteinte de dyslexie sera aidée si l'on ajoute aux documents des représentations graphiques et si l'on rend immobiles les animations tandis qu'une personne daltonienne souhaitera gérer elle -même les couleurs d'affichage. Une personne ayant des problèmes d'acuité visuelle appréciera l'interfaçage d'un module de synthèse de la parole tandis qu'une autre qui ne peut se servir d'un clavier standard emploiera un outil de reconnaissance de la parole pour saisir ses requêtes (Scott et al., 1998, Fairweather et al., 2002). Dans ce cadre, la personnalisation de la recherche d'information et la prise en compte des caractéristiques cognitives individuelles des utilisateurs est l'une des problématiques majeures. Les modèles de recherche d'information usuels permettent d'ordonner des documents en fonction de la quantité d'informations qu'ils véhiculent vis-à-vis de ce que l'utilisateur a exprimé dans sa requête tout en tenant compte, dans le meilleur des cas, du taux de nouveautés apportées par rapport à d'autres documents déjà connus (Allan, 2002). Il s'agit d'une vision purement informationnelle de la pertinence posant l'hypothèse que plus le nombre d'informations nouvelles est grand, plus le document est susceptible d'intéresser l'utilisateur. Cela s'avère exact dans une certaine mesure mais ne tient pas compte du fait que les besoins sont différents suivant le niveau d'expertise de l'utilisateur : une personne novice dans un domaine sera certainement plus intéressée par un document de vulgarisation que par une étude approfondie au vocabulaire et à la structure complexes. Ainsi, de nombreuses études se sont penchées très tôt sur la notion de pertinence en tentant de la définir en fonction de paramètres le plus souvent extra-linguistiques et contextuels, non explicites dans une requête (Mizzaro, 1997). Cela est vrai à plus forte raison, pour des personnes ayant des difficultés élevées de lecture. Il s'agit alors de définir de nouvelles mesures prenant en compte cet aspect tout en offrant la possibilité de présenter d'abord les documents les plus « simples », les plus « lisibles ». Notons que cette fonctionnalité peut aussi être profitable pour des adultes ayant des capacités en lecture et écriture normales et pour des enfants en phase d'apprentissage. Pour ce faire, nous devons dans un premier temps définir ce que nous entendons par lisibilité. Cette notion est étroitement liée à la caractérisation d'un profil utilisateur, lui -même fonction de son niveau de connaissance du domaine et de la langue du document; autrement dit, de ses capacités de lecture. S'il existe un continuum évident depuis la personne analphabète ou illettrée jusqu'au lecteur expert qui peut être reflété par les nombreux tests de lecture disponibles, nous avons choisi de travailler sur un handicap courant, la dyslexie. Dans un deuxième temps, les caractérisations des handicaps entraînant des déficits en lecture et écriture doivent être exploitées en étudiant comment ils peuvent se traduire au niveau d'implémentations informatiques (Rossignol, 2001, Rey et al., 2001). Celles -ci peuvent être destinées à l'aide à la détection ou à la remédiation des handicaps étudiés mais aussi, plus modestement, à l'adaptation de logiciels basés sur des interactions textuelles, orales ou écrites. Certaines estimations font état qu'entre 3 et 9 % de la population adulte ou en âge d' être scolarisée connaît des difficultés importantes dans l'apprentissage de la lecture (Ducrot et al., 2003) leur rendant d'autant plus complexe la manipulation d'outils informatisés. Un effort particulier doit être entrepris afin de faciliter l'accès à « l'information » pour ces personnes et, a fortiori, pour celles présentant un handicap plus important. À titre d'exemple, l'étude exposée dans (Bruza et al., 2000) qui mesure l'effort cognitif correspondant à différents modes de recherche d'information ainsi que le logiciel de traitement de textes pour dyslexiques décrit par (Dickinson et al., 2002) peuvent servir de points de départ, notamment pour l'assistance dans la formulation de requêtes. Pour des handicaps plus importants, ces dernières peuvent aussi s'exprimer sous forme de symboles ou d'images tel que cela est réalisé dans les plateformes de communication alternative —voir par exemple les logiciels de la société AEGYS d'aide à la communication verbale et non verbale 4 (Bellengier et al., 2004, Blache et al., 2008) ou encore VITIPI (Boissière et al., 2000) développé à l'institut de recherche en informatique de Toulouse (IRIT-CNRS). Pour un aperçu d'autres propositions dans l'adaptation des systèmes d'informations, se référer par exemple aux actes de l'atelier PeCUSI 2007 et plus particulièrement de (Chevalier et al., 2007) qui discutent de la notion de profil utilisateur pour la recherche d'information. Nous proposons dans cet article de faire évoluer les systèmes de recherche d'information en y intégrant une contrainte de lisibilité, celle -ci étant spécifiquement évaluée pour des lecteurs dyslexiques. En effet, si la prise en compte de l'utilisateur dans les systèmes de recherche d'information est en soi déjà une amélioration intéressante, c'est une nécessité dans le cas où l'utilisateur présente certains handicaps langagiers. En particulier, les difficultés de lecture induites par la dyslexie (Snowling, 2000) créent un fossé informationnel important avec des normo-lecteurs. La décomposition du besoin de l'utilisateur en un besoin thématique et un besoin orthogonal (tel que le niveau d'expertise, la langue, le type de document) est fréquemment envisagée dans la littérature. Dans ces cas, le besoin orthogonal est généralement une contrainte qui ne s'exprime pas de manière continue. Cette contrainte peut être satisfaite par un filtrage des documents retournés. Pour intégrer la lisibilité, nous envisageons soit une solution de réordonnancement des documents de manière à retourner en priorité les plus lisibles, soit une solution de réduction de la quantité de texte à lire pour obtenir l'information voulue. D'un point de vue expérimental, il est difficile d'obtenir des données en grande quantité sur les facultés de lecture de dyslexiques, étant donné le temps nécessaire et la difficulté de la tâche. Aucune donnée concernant les retours de tels utilisateurs sur la lisibilité de documents n'étant à ce jour disponible, nous avons choisi d'estimer empiriquement le taux optimal de prise en compte de la lisibilité (évaluée spécifiquement pour des lecteurs dyslexiques) en regard de l'évolution de la précision calculée a posteriori de la recherche documentaire (selon les référentiels des campagnes d'évaluation TREC et CLEF). Une telle étude est réalisée pour des normo-lecteurs ainsi que pour des dyslexiques. Afin d'augmenter l'accessibilité des informations retrouvées, une autre solution que l'identification des documents les plus lisibles consiste à réduire la quantité d'informations à faire lire à l'utilisateur. Cela est réalisable soit en sélectionnant les parties des documents les plus pertinentes (recherche des passages les plus pertinents et les plus lisibles), soit en réalisant un résumé de tous les documents en fonction de la requête. Les contraintes de lisibilité peuvent également être intégrées à ces tâches de sélection de phrases (résumé automatique par extraction) ou de passages. La section 2 introduit des mesures de lisibilité générales et s'intéresse à leur intégration dans un processus de recherche documentaire puis de résumé automatique (section 4). Des tests ont été effectués sur les données des campagnes d'évaluation TREC ad hoc, CLEF 2003 et DUC. La section 3 propose une nouvelle mesure adaptée aux utilisateurs dyslexiques et l'évalue sur les données de CLEF ad hoc en français. L'objectif d'un système de recherche d'information est de fournir les documents pertinents pour l'utilisateur par rapport au besoin exprimé (requête). La notion de pertinence a été largement débattue pour préciser ce qu'elle doit prendre en compte. Mizzaro (1997) propose un cadre de définition de la pertinence qui permet d'englober toutes les dimensions jusqu'alors évoquées. La pertinence peut ainsi être définie selon au moins quatre dimensions : le besoin d'information, décomposé en besoin réel, besoin perçu par l'utilisateur, besoin exprimé, et besoin formalisé par un langage de requête; les composants : l'information elle -même, la tâche et le contexte; le temps relevé pour retrouver l'information; la granularité de l'information recherchée : document complet, sujet du document, ou information précise à l'intérieur de ce document. Les modèles de base mettent en relation les mots de la requête avec ceux des documents, qu'ils soient explicités ou non. Le besoin sous-jacent de l'utilisateur peut s'exprimer soit à travers la sélection d'une tâche précise de recherche d'information (recherche documentaire, questions-réponses…), soit par son opinion sur le résultat de précédentes recherches (retour de pertinence), soit par un profil utilisateur déclaré ou déduit. A l'heure actuelle, les modèles (vectoriel, probabiliste…) ne prennent en compte ce besoin qu'a posteriori. L'intégration du critère de lisibilité dans un système de recherche documentaire nécessite de reformuler le modèle définissant ce qu'est un document pertinent. Au sein des modèles classiques de recherche documentaire, la pertinence d'un document est évaluée en fonction de sa corrélation thématique estimée selon la requête posée par l'utilisateur. Les mots de la requête sont représentés dans un espace sémantico-lexical plus ou moins vaste (augmenté dans les cas d'expansion de requête, ou réduit à l'aide d'une l'analyse sémantique latente LSA) et les documents les plus similaires au sens de cet espace sont retournés par ordre décroissant de score de similarité. Quelques systèmes prennent en compte des profils utilisateur en tenant compte des historiques de requêtes et de retours de pertinence sur les documents consultés. Pour prendre en compte les capacités de lecture de l'utilisateur, il faut considérer la lisibilité comme une donnée continue que l'on cherche à maximiser tout en maintenant une forte similarité. Dans ce cadre, la similarité peut être estimée par le score de similarité d'un système de recherche documentaire, et on peut s'inspirer des travaux réalisés par (Vogt et al., 1999) sur les métamoteurs de recherche pour intégrer linéairement la lisibilité. Nous devons définir les critères objectifs, et éventuellement subjectifs, qui peuvent permettre d'estimer la lisibilité d'un texte (les capacités de lecture nécessaires) en exploitant les modélisations psychocognitives et neurocognitives les plus récentes. De nombreux modèles de la lecture ont été proposés depuis une quarantaine d'années. Ferrand (2007) en dresse une liste exhaustive depuis le modèle Logogène de (Morton, 1969) dans lequel un détecteur cognitif spécifique est associé à chaque mot dans un lexique mental jusqu'aux récents modèles à double voies en cascade ou connexionnistes incorporant un codage phonologique (Seidenberg et al., 1989, Coltheart et al., 2001) et permettant des simulations informatiques performantes. Historiquement, une des questions soulevées par la compréhension des processus en jeu durant la lecture (silencieuse ou non), concerne le rôle de l'information phonologique et la manière dont celle -ci est utilisée pour accéder à la compréhension du mot et, le cas échéant, à leur prononciation. En ce qui nous concerne, ces modèles sont intéressants car ils permettent d'envisager des moyens de simuler par ordinateur les processus de la lecture humaine, et de tenter de distinguer ainsi un texte facile d'un texte difficile. En considérant que la difficulté de lecture d'un mot peut être mise en correspondance avec le temps nécessaire à son identification, de nombreux critères, certains corrélés entre eux, ont été jugés plus ou moins significatifs (Sprenger-Charolles et al., 2003, Ferrand, 2007, Dehaene, 2007). Parmi eux l'on trouve le nombre de graphèmes, la cohésion lettres-graphèmes-phonèmes, l'attaque et la rime, le voisinage orthographique, le voisinage phonologique, la longueur des mots, le nombre de syllabes, la fréquence d'occurrence, la familiarité, l' âge d'acquisition, la morphologie, la concrétude et l'imageabilité, la polysémie et l'homonymie. Par contre d'autres critères ont été écartés, par exemple la forme graphique globale des mots qui n'est pas corrélée au temps de décision lexicale. Pour plus d'informations sur ces différents critères, nous invitons le lecteur à se référer aux articles cités ci-avant mais également, dans le contexte présent, à (Bellot, 2008). Dans les logiciels grand public 5, la mesure la plus souvent utilisée pour l'évaluation de la lisibilité d'un texte – au sens de sa facilité de lecture et de compréhension indépendamment des aspects visuels et typographiques – est celle établie par (Flesch, 1948) pour l'anglais puis adaptée par (Kandel et al., 1958) pour le français : où ASL est la longueur moyenne des phrases exprimée en nombre de mots et ASW est le nombre moyen de syllabes par mot contenu dans le texte. Cette mesure établit une échelle de lisibilité de 0 à 100, sur laquelle un score de 30 situe un document très difficile à lire, et un score de 70 un document correctement lisible par des adultes. Les approches plus récentes pour estimer la lisibilité d'un document utilisent des modèles de langage statistiques ainsi que divers algorithmes pour la classification : Expectation Maximization (Si et al., 2001), les arbres de décision (Kane et al., 2006), l'analyse sémantique latente (LSA) (Wolfe et al., 1998) ou des modèles de catégorisation (Collins-Thompson et al., 2005). Pour des textes à destination de jeunes lecteurs, les données sur lesquelles s'appuient ces approches peuvent provenir d'annotations manuelles réalisées par des professeurs des écoles sur des pages web (Petersen et al., 2006) ou sur des livres entiers (Lennon et al., 2004). Les principaux paramètres utilisés par ces méthodes de catégorisation automatique sont la taille des phrases et des mots, et les caractéristiques syntaxiques et lexicales des mots. Les mesures de Flesch et Kandel (formules [1] et [2 ]) produisent un score pour chaque document trouvé. Pour prendre en compte la lisibilité dans le processus de recherche, ces scores de lisibilité doivent être combinés avec les scores de pertinence thématique initiaux ou encore, en fonction des rangs initiaux des documents. Souhaiter combiner une mesure de lisibilité avec une mesure de similarité du type BM25 est une problématique qui s'apparente à celle de la fusion de résultats et à la métarecherche où doivent être pris en compte différents scores pour un même document : la sélection des seuls documents lisibles ou d'un niveau d'expertise adéquat pourrait aussi s'apparenter à un problème de filtrage (Berrut et al., 2003, Boughanem et al., 2004). À cet effet, la plupart des auteurs ont proposé d'établir de nouvelles fonctions de score, comme par exemple (Ogilvie et al., 2003) à partir d'approches bayésiennes, (Lillis et al., 2006) selon une approche probabiliste entraînée sur les niveaux de performance pré-établis de plusieurs systèmes différents et établissant un score à partir des rangs obtenus. Une autre façon de voir est de faire le parallèle avec la recherche de documents structurés où le score retenu est une combinaison des scores des parties qui composent les documents (Piwowarski et al., 2003, Lalmas et al., 2007). Pour un document d structuré en K parties dk, La forme courante de la fonction de score est : avec s la fonction de score sur le document, s′ la fonction de score sur une partie de d, vk le poids de la ke partie de d tel que ∑ vk = 1 et q la requête. En ce qui concerne les expériences décrites dans cet article, nous proposons deux fonctions de combinaison, RSV et RSV′, qui sont définies ci-après où q est une requête, Rank (d) le rang initial du document d tel que déterminé initialement par le moteur de recherche documentaire, Sim (d,q) le score initial, N le nombre de documents trouvés, LF une des deux mesures de Flesch (calculée à partir de la moyenne arithmétique des lisibilités de toutes les phrases le contenant) et enfin λ un coefficient, dont la valeur optimale sera trouvée empiriquement, tel que 0 ≤ λ ≤ 1 : Nous avons testé cette combinaison (formules 4 et 5) 6 sur les données de la tâche ad hoc de la campagne TREC-8 qui comprennent 50 requêtes (topics) et un corpus de 530 000 documents. Les documents ont été initialement ordonnés en utilisant le moteur de recherche Lucene à partir des champs title des topics 7. L'évaluation d'un processus de recherche documentaire se fait généralement à l'aide des mesures de rappel et précision sur les mille premiers documents retournés. Dans l'optique où l'utilisateur est en difficulté de lecture, l'évaluation est pertinente si elle concerne les vingt, voire les dix premiers documents retournés. Il est en effet connu que la plupart des utilisateurs du moteur de recherche Google ne dépassent que rarement les 2 premières pages de résultats. La figure 1 indique les taux de précision et de lisibilité moyenne obtenus sur les 10 et 20 premiers documents réordonnés en fonction de différentes valeurs du coefficient de pondération λ. Jusqu' à la valeur λ = 0,2, la précision ne diminue pas tandis que la lisibilité augmente. Au-delà de cette valeur, la chute de la précision est significative. Faisant l'hypothèse que la lisibilité d'un document est indépendante de la requête, il est naturel que sa prise en compte ne puisse pas, sauf dans des cas de pur hasard, entraîner une hausse de la précision : il n'y a pas de raison pour que les documents les plus lisibles soient les plus proches thématiquement de la requête. L'inverse étant également vrai (les documents les moins lisibles ne sont pas nécessairement les plus pertinents), nous nous attendions à ce que le réordonnancement des documents en fonction de la lisibilité reste neutre vis-à-vis de la mesure de précision. Lorsque la lisibilité est pondérée par un coefficient λ faible, le réordonnancement agit, vis-à-vis de la mesure de la précision, comme une redistribution locale et forcément limitée où l'espérance du gain en précision est quasi nul. Si la valeur λ est trop forte, le réordonnancement devient global et aboutit à redistribuer les documents pertinents dans un ensemble où ils sont minoritaires et donc à faire fortement chuter la précision. L'expérience confirme cette hypothèse, mais au-delà de ces résultats, elle souligne une fois de plus le manque de pertinence… de la mesure de pertinence usuelle dans des conditions réelles : la prise en compte de la lisibilité entraînant de fait une hausse de la lisibilité des premiers documents trouvés (à condition bien sûr d'en accepter son bienfondé), il est probable que l'utilisateur puisse trouver plus rapidement l'information recherchée, et donc, en ce sens, que les premiers documents soient plus pertinents qu'auparavant. Cela ne peut être pris en compte par la mesure de précision seule et devra être validé par des expériences interactives en conditions réelles. Pour cela, se reporter à la méthodologie expérimentée par les évaluations de la piste HARD durant les campagnes TREC ainsi qu' à (Chaudiron, 2004). Une manière d'aider le lecteur est de retourner l'information sous forme plus condensée, en proposant une sélection de passages ou en réalisant un résumé, le plus lisible possible, du contenu des documents trouvés en fonction de la requête. En ciblant l'information recherchée à l'intérieur des documents, on peut réduire l'effort de lecture de l'utilisateur. De plus (Callan, 1994) suggère que la réduction des unités de traitement textuelles améliore la qualité des informations retrouvées. De nombreux algorithmes ont été proposés pour segmenter un texte en segments cohérents de plus petite taille lorsque les démarcations en paragraphes de l'auteur ne sont pas disponibles, ou ne correspondent pas à la taille recherchée (Sitbon et al., 2004). Cependant étant donné l'efficacité relative de ces algorithmes, et vu que les limites de paragraphes sont disponibles dans les données de la campagne CLEF, nous nous sommes appuyés sur les paragraphes existants pour les expériences. La première approche proposée est d'indexer les paragraphes comme s'ils étaient des documents à part entière. Les résultats de cette approche dans le tableau 1 montrent que les résultats sont fortement dégradés lorsqu'on réduit de cette façon les unités documentaires indexées. En effet la précision moyenne (MAP) ainsi que la précision des 10 ou 20 premiers documents subissent des dégradations significatives. Précision moyenne (MAP) et précision au 10 e rang (P10) et au 20 e rang (P20) sur les requêtes courtes, avec une indexation par Lucene des documents complets ou des paragraphes considérés isolément (CLEF ad hoc français 2003) Unité de texte MAP P10 P20 Paragraphe 0,19 0,17 0,15 Document 0,31 0,23 0,17 Ces résultats suggèrent que l'index des documents est plus performant et donc qu'il serait plus raisonnable de le conserver. Cela n'empêche pas de remplacer les documents par leur paragraphe le plus pertinent (du moins celui ayant le score le plus élevé) dans les cas où l'index des paragraphes en valide la pertinence par rapport à la requête. En effet, on considère que si un paragraphe d'un document est aussi pertinent que le document en entier, c'est que la majorité de l'information pertinente du document est contenue dans ce paragraphe. Cette approche peut être combinée avec une sélection des documents les plus lisibles, en considérant qu'un paragraphe pris au lieu d'un document a une lisibilité supérieure. Cette approche a été également évaluée sur les données de la campagne CLEF 2003, sans prise en compte de la lisibilité des documents complets (λ = 0) ou avec une prise en compte équivalente à l'intégration optimale calculée pour la recherche documentaire (λ = 0,3). Le tableau 2 contient la précision des 10 ou 20 premiers éléments retournés, leur lisibilité moyenne, ainsi que le nombre d'éléments trouvés se résumant à des paragraphes. Si un élément est un paragraphe, le document dont il est issu est utilisé pour l'évaluation. De plus, on lui confère une lisibilité maximale, qui reflète ici le gain considérable apporté par la réduction de la quantité de texte à lire et non la lisibilité moyenne des phrases. Précision, lisibilité moyenne et nombre de paragraphes retournés parmi les N premiers éléments retrouvés, avec différentes valeurs du paramètre λ pour la prise en compte de la lisibilité dans le classement des résultats (CLEF 2003) λ N Précision à N Lisibilité Nombre de paragraphes 0 10 0,23 85,68 6,55 0 20 0,17 86,92 13,6 0,3 10 0,20 93,01 8,2 0,3 20 0,16 93,80 16,65 Les résultats montrent qu'en remplaçant les documents contenant un segment de similarité supérieure par ce segment, et sans estimer la pertinence en fonction de la lisibilité, on aboutit à une faible perte de précision au regard de celle subie lors de l'indexation pure des segments introduite dans le tableau 1. Dans tous les cas, 50%des documents contiennent suffisamment d'information pertinente dans un seul segment. Dans une configuration où l'on prend en compte la lisibilité des documents complets (à hauteur de 30 %), on aboutit à 80 % de documents qui peuvent être référés par un segment aussi pertinent. La précision obtenue est à mi-chemin entre celle qui est obtenue en indexant uniquement les segments et celle qui est obtenue en ne prenant pas en compte la lisibilité. La campagne d'évaluation DUC 8 (Document Understanding Conference) est dédiée au résumé automatique. Elle comporte une tâche de résumé multidocument orienté requête, ce qui correspond à une synthèse de l'information disponible et distillée dans le corpus. Si cette tâche permet de faire ressortir des informations noyées dans des documents plus vastes, elle présente aussi l'avantage de réduire la quantité de texte à lire pour obtenir des informations. Les méthodes les plus efficaces dans ce domaine effectuent une extraction des phrases les plus pertinentes. Le système de résumé par extraction sur lequel nous nous appuyons (Favre et al., 2006) sélectionne une par une les phrases selon un critère qui maximise à la fois leur similarité à la requête et leur dissimilarité au résumé en cours d'élaboration et constitué des phrases précédemment sélectionnées. Ceci permet d'éviter une certaine forme de redondance dans les phrases extraites. La sélection des phrases du résumé se fait en autant d'étapes que nécessaire pour parvenir au nombre de mots souhaités dans le résumé. La méthode MMR (Maximum Marginal Relevance) a été proposée par (Carbonell et al., 1998). A chaque étape, un algorithme glouton sélectionne la phrase qui maximise sa similarité avec la requête tout en minimisant sa similarité avec la moyenne des phrases déjà sélectionnées pour le résumé. L'algorithme 1 détaille le processus de sélection des phrases d'un résumé R parmi l'ensemble P = {p 1, …pi, …, pn} des phrases contenues dans les documents pertinents par rapport à la requête q, préalablement retournés à l'aide d'un système de recherche documentaire. Les valeurs utilisées pour λ peuvent être déterminées de manière empirique. (Murray et al., 2005) suggèrent de faire évoluer λ en fonction du nombre d'itérations de l'algorithme. Nous avons choisi d'utiliser une normalisation de la distribution des similarités à chaque itération en leur imposant une moyenne nulle et une variance unitaire (standardisation des distributions). La notion de similarité suggère de placer les phrases dans un espace vectoriel à l'intérieur duquel il est possible de calculer des distances au sens vectoriel. Nous avons choisi de projeter les phrases vers un espace sémantique réduit à l'aide de l'analyse sémantique latente LSA (Deerwester et al., 1990). Celle -ci permet de créer des classes de mots en fonction de leurs cooccurrences, et s'appuie sur une décomposition en valeurs singulières de la matrice de cooccurrences du corpus. En employant une similarité de type cosinus, les phrases sont ordonnées au sein du résumé, mais l'on ne dispose pas de score de pertinence associé. En effet, la mesure utilisée à chaque étape par l'algorithme pour sélectionner la phrase la plus pertinente fournit un score uniquement par rapport au résumé existant à cet instant. La campagne DUC en 2006 consistait à produire automatiquement des résumés d'une taille maximale de 250 mots à partir de thèmes de recherche sur le corpus AQUAINT (articles issus de l'Associated Press, du New York Times et de Xinhua New Agency). Elle s'apparentait ainsi à une tâche de type questions-réponses complexes. Chaque thème (topic) était constitué d'un titre et d'une description. Par exemple le thème D0629B avait pour titre Computer viruses et pour descriptif Identify computer viruses detected worldwide. Include such details as how they are spread, what operating systems they affect, what damage they inflict, their country of origin, and their creators wherever possible.. Pour produire les résumés, les systèmes pouvaient s'appuyer sur une liste, fournie aux participants, de 25 documents pertinents par thème. Les résumés ont été évalués à l'aide d'une mesure de comparaison entre les n grammes des résumés de référence (4 par requête, rédigés manuellement) et ceux produits automatiquement. La mesure ROUGE-2 proposée par (Lin, 2004) se base sur la comparaison des bigrammes et est réputée comme étant la plus fiable parmi les mesures d'évaluation automatique. Les résumés ont également été évalués manuellement selon leur qualité linguistique. Celle -ci tenait compte de critères de cohérence et de style mais n'avait pas pour objectif de mesurer la lisibilité au sens où nous l'entendons ici. Le système que nous avons fait concourir a été classé 5 e sur 34 selon la mesure Rouge-2 et 8 e pour sa qualité linguistique. Etant donné que les données de DUC sont rédigées en anglais, nous avons choisi d'appliquer la mesure de lisibilité de Flesh (1) établie pour l'anglais, même si elle n'est pas spécifique à la dyslexie. Et puisque notre système de résumé ne propose pas de score de pertinence au sens d'une mesure de similarité pour chacune des phrases sélectionnées, nous avons utilisé leur rang 4. Le graphe de la figure 2 montre la corrélation entre les taux de lisibilité (calculés selon la mesure de Flesch) et les valeurs de la mesure ROUGE-2 pour les résumés produits avec différents λ (4). Les lignes de référence sont les valeurs de ROUGE-2 pour le meilleur système de DUC 2006 d'une part et pour un système naïf d'autre part (résumé obtenu en sélectionnant le document le plus récent du corpus), ainsi que la valeur de Flesch pour les résumés de référence, produits manuellement. La courbe présente un point d'inflexion notable pour λ = 0,3, qui correspond également à la valeur optimale de prise en compte de la lisibilité obtenue précédemment en la recherche documentaire. Le gain de lisibilité est très important, puisqu'il est de près d'un tiers de l'échelle d'évaluation de Flesch. De plus, la lisibilité des résumés obtenus dépasse celle des résumés manuels. La figure 3 montre un exemple de résumé sur le thème des virus informatiques produit en prenant la lisibilité en compte avec cette valeur optimale (à droite), et le résumé produit pour le même thème sans prendre en compte la lisibilité (à gauche). Jusque dans les années 1970 la dyslexie était considérée comme un trouble visuel associé à la confusion de lettres ou de syllabes. Les recherches en psycholinguistique (Snowling, 2000) ont montré qu'il s'agit en réalité d'un dysfonctionnement des représentations phonologiques qui est à l'origine de la dyslexie. Une des conséquences de cela est que les représentations mentales des liens entre les phonèmes (les sons parlés) et les graphèmes (les lettres ou groupes de lettres correspondants) sont dégradées. Du point de vue de la lisibilité, les correspondances graphèmes-phonèmes les plus complexes (comme le son « o » dans manteau ou le son « f » dans amphore) vont présenter une difficulté supplémentaire pour le lecteur. Une haute fréquence de ces difficultés mobilise les ressources attentionnelles du lecteur dyslexique qui perd des capacités de mémorisation à court terme, ce qui rend la compréhension de la phrase et du texte plus difficile. Le niveau de complexité dans la correspondance graphèmes-phonèmes est ainsi un facteur important pour l'évaluation de la lisibilité. En réalité, il s'agit aussi de complexité mnésique, puisque ce sont les aspects qui influent sur la mémoire à court terme qui sont impliqués : la difficulté de correspondance, associée parfois à une difficulté de lecture directe (minimisant le rôle du découpage en phonèmes), engendre un risque plus élevé d'oubli des phonèmes précédemment identifiés. La lisibilité est donc une caractéristique essentielle qu'un système de recherche d'information doit prendre en compte et ceci d'autant plus si l'utilisateur est dyslexique. Une mesure de lisibilité orientée dyslexies peut s'inspirer de celles définies pour les normo-lecteurs et doit être adaptée à chaque utilisateur. De nombreux types de dyslexies sont en effet recensés (et parfois contestés, ou du moins, discutés) qui touchent plus ou moins gravement certaines aptitudes de lecture. Citons, en se référant aux différentes routes de la lecture reprises de (Southwood et al., 1999) et illustrées par la figure 4 : la dyslexie dyseidétique (ou dyslexie de surface) : lecture lente sans altération de la qualité de la compréhension au moins pour les mots réguliers (la faculté à lire des mots inconnus est plus ou moins atteinte et en tout cas très ralentie). Elle correspond à une perte de l'accès direct au sens (route A sur la figure 4). La route (C) est alors privilégiée : par exemple femme est lu fèm et le mot peut alors ne pas être reconnu; la dyslexie dysphonique : lecture à vitesse normale mais certains mots sont substitués par d'autres sans altération profonde du sens (par exemple viande est lu lorsque jambon est écrit). La route (A) est efficace contrairement à la route (B); la dyslexie phonologique : incapacité à prononcer de nouveaux mots ou des nonmots. La route (C) est déficiente. Cette forme de dyslexie est parfois associée à une aphasie voire à une difficulté à nommer les objets vus; la dyslexie profonde : il s'agit d'une forme aggravée de dyslexie phonologique qui touche les trois routes (A), (B) et (C) et engendre une incapacité à lire des mots nouveaux (perte de la capacité à convertir des graphèmes en phonèmes), des erreurs sémantiques et phonétiques. En lien avec les critères de lisibilité mentionnés dans la section 2, énonçons maintenant quelques remarques autour de la dyslexie : si l'effet de fréquence est constaté chez une personne dyslexique comme chez un normo-lecteur, i.e. si les mots fréquents sont plus rapidement lus que les mots rares et ceci indépendamment des autres caractéristiques du mot telles que sa longueur, cela témoigne de la possibilité d'utiliser la voie lexicale (routes B et C); les effets de régularité graphèmes/phonèmes sont constatés aussi bien chez des personnes atteintes de dyslexie développementale que chez des normo-lecteurs. Autrement dit, un mot régulier est toujours lu plus rapidement qu'un mot irrégulier ou encore qu'un non-mot. Cela signifie que si déficit phonologique il y a, la lecture peut tout de même se faire selon des voies différentes parmi les routes (A), (B) et (C); la longueur des mots est un facteur plus important pour la personne dyslexique que pour un normo-lecteur; les dyslexiques dits profonds ont de grandes difficultés à identifier les mots abstraits alors que les mots concrets sont lus correctement. La dyslexie entraînant une capacité réduite à identifier les mots écrits, le nombre de mots difficiles est augmenté par rapport à celui d'un normo-lecteur. Par ailleurs, la variabilité et la complexité des types de dyslexie est telle qu'il est inadapté de prédire la lisibilité d'un texte à partir des seuls critères de longueur moyenne des phrases ou des mots comme cela a été défini précédemment. Cela nous a incité à utiliser d'autres critères tels que le nombre de lettres qui composent un mot, sa rareté dans le langage courant, sa catégorie morpho-syntaxique et sa cohésion graphème-phonème. Nous avons estimé cette dernière par le rapport entre le nombre de phonèmes et le nombre de lettres dans le mot 9. Elle permet de tenir compte du fait qu'un mot contenant des lettres muettes ou bien des phonèmes de plusieurs lettres (ph vis-à-vis de f seul) est plus complexe à lire qu'un mot pour lequel la correspondance graphème-phonème est bijective 10. À partir de la définition de la complexité d'un mot, celle d'une phrase peut être estimée en fonction de la moyenne des complexités des mots qu'elle contient. Afin de déterminer les coefficients à appliquer à chacun des critères retenus pour estimer la difficulté d'un mot, nous avons choisi d'entraîner un classifieur à partir des temps de lecture d'un ensemble de phrases lues par des enfants. Ces données ont été recueillies par une équipe de psycholinguistes conduite par S. Ducrot, du Laboratoire Parole & Langage (LPL) du CNRS et de l'Université de Provence, dans le cadre d'expérimentations sur le diagnostic de la dyslexie par l'empan perceptif (Lété et al., 2007). Neuf enfants pour lesquels le français est la langue maternelle ont dû lire vingt phrases d'une longueur de douze mots 11. L'expérimentation a été conduite par l'intermédiaire d'un logiciel réalisé par des étudiants en Master Informatique sous la supervision de L. Sitbon et de P. Bellot. Les phrases ont été lues mot à mot (le passage d'un mot au suivant se faisant par activation d'une touche au clavier), ce qui a permis de mesurer des temps de lecture globaux et mot à mot. La lecture effective de chaque phrase a été validée par une épreuve visuelle de compréhension (l'enfant, après avoir lu chaque phrase, devait choisir l'image qui la représentait le mieux parmi deux). En faisant l'hypothèse que le temps de lecture d'un mot ou d'une phrase est relié à sa difficulté, alors mesurer la lisibilité d'une phrase peut se ramener à prédire son temps de lecture. La première approche choisie pour cette évaluation sont les SVM (Support Vector Machines), pour leur capacité à travailler sur des faibles volumes de données. Les SVM projettent les données initiales dans un espace de plus grande dimension jusqu' à trouver un hyperplan séparateur. La seconde approche est la régression linéaire, choisie pour sa capacité à fournir une mesure transparente : une combinaison linéaire des paramètres les plus discriminants. L'apprentissage des modèles a été réalisé à l'aide de l'environnement WEKA 12 (Witten et al., 1999). Les temps de lecture des mots ont été normalisés pour chaque utilisateur sur une échelle allant de 0 à 100 (0 étant le temps de lecture normalisé du mot le plus vite lu et 100 celui du mot lu le plus longuement). A partir de là, les temps de lecture normalisés des phrases sont les moyennes des temps de lecture normalisés des mots les constituant. Aucune normalisation n'a été effectuée par rapport à la taille des phrases, car elles comportent toutes 12 mots, ni par rapport à la taille des mots eux -mêmes. Les paramètres utilisés sont ceux utilisés pour l'établissement de la lisibilité pour des normo-lecteurs dans le cadre d'autres expériences basées sur l'apprentissage, ainsi que ceux qui sont spécifiques à la lecture de documents par des dyslexiques. La figure 5 illustre l'ensemble des données utilisées pour refléter les différents paramètres d'une phrase, avec des valeurs attribuées à chacun des paramètres. La fonction de prédiction du temps de lecture que nous avons déterminée par régression à partir des données d'apprentissage est définie par : où ADV et CON sont le nombre d'adverbes et de conjonctions dans d (un texte), et COH exprime la cohésion graphèmes-phonèmes de d, i.e. le nombre de phonèmes de d divisé par son nombre de lettres. Des modèles sur la base de données communes à tous les utilisateurs ont été réalisés et évalués à l'aide d'une validation croisée. Le tableau 3 contient l'écart moyen entre les temps prédits par les classifieurs testés (SVM et régression linéaire) et les temps réels. Une comparaison est effectuée avec un classifieur naïf (l'algorithme ZeroR affecte la valeur moyenne des données d'entraînement à toutes les données de test), et un classifieur aléatoire (qui affecte des valeurs aléatoires entre 0 et 100). Si l'on considère qu'une phrase est lue en approximativement 20 secondes, un écart de 2 points est de l'ordre du dixième de seconde. Les résultats du classifieur naïf montrent que les données utilisées sont très homogènes et centrées autour de la moyenne. Des résultats similaires avec les deux classifieurs testés suggèrent l'utilisation prioritaire de la régression linéaire étant donné qu'elle fournit une mesure transparente pour des résultats équivalents aux SVM. Taux d'erreur dans la prédiction du temps de lecture de mots isolés ou de phrases (obtenus par validation croisée 10 plis) selon les classifieurs SVM ou régression linéaire, un classifieur basé sur la moyenne des données disponibles (naïf) et un classifieur aléatoire SVM Reg, linéaire Naif Aléatoire mots 9,38 9,74 10,1 37,97 phrases 5,01 5,00 5,07 35,69 Cette définition permet de définir une nouvelle mesure de lisibilité L′ considérant à la fois les difficultés spécifiques aux personnes dyslexiques (fonction Temps, formule [6 ]) et la lisibilité générique de Kandel (formule [2 ]) : Elle retourne une valeur entre 0 (pour un document d idéalement lisible) et 100 (pour un document d illisible). Des expérimentations avec des phrases de taille et de composition variables permettront de valider ou d'affiner ce choix. La campagne d'évaluation CLEF (Cross Language Evaluation Forum) 13 fournit une référence en recherche documentaire francophone pour la tâche ad hoc monolingue. Cette tâche consiste à retrouver les documents pertinents pour 60 requêtes dans une collection d'environ 130 000 documents. La référence est construite par des validations manuelles des résultats de plusieurs moteurs de recherche. Il y a en moyenne 16 documents pertinents par requête posée. Nos expériences sont réalisées à partir des scores de similarité fournis par Lucene (avec ses paramètres par défaut) pour les données françaises de la campagne d'évaluation CLEF 2003, en appliquant un score de lisibilité calculé à l'aide de la formule [6] précédemment établie pour des lecteurs dyslexiques. Les résultats de l'application des deux formules d'intégration du paramètre de lisibilité (formules 4 et 5) montrent sur les figures 6 et 7 que le calcul de la pertinence en fonction de la similarité permet d'augmenter la lisibilité sans dégrader la précision, jusqu' à un taux d'intégration de 30 % de la lisibilité. En revanche, le calcul de la pertinence basé sur le rang initial des documents retournés par Lucene fait très rapidement chuter la précision des 10 premiers documents dès lors qu'on prend en compte la lisibilité. L'augmentation de la lisibilité pour λ = 0,3 dans le calcul à partir des scores de similarité est assez faible mais significative. Etant donné que la pertinence n'est pas dégradée, on peut conclure que si elle est contrôlée, l'intégration de la lisibilité apporte une amélioration notable des résultats. La raison pour laquelle il est possible de réorganiser les données afin d'optimiser un critère orthogonal au besoin thématique est qu'il existe dans les cas étudiés suffisamment d'informations thématiquement pertinentes pour pouvoir sélectionner uniquement les plus lisibles. D'après les expériences menées sur la recherche documentaire et le résumé automatique, nous avons montré qu'il était possible de prendre en compte la lisibilité pour 30 % du score de pertinence sans pour autant fortement dégrader les performances. Les expériences ont été réalisées sur des données en français et en basant l'évaluation de la lisibilité sur la mesure élaborée pour des enfants dyslexiques. Des expériences similaires ont également été réalisées sur des données en anglais, avec la mesure de Flesch pour la lisibilité, en utilisant un outil de segmentation thématique. Les résultats obtenus sont tout à fait similaires, ce qui tend à valider leur généricité. De même, des expériences similaires ont été réalisées sur le résumé automatique en évaluant la lisibilité à l'aire de la mesure établie sur le français pour des personnes dyslexiques, ce qui amène des résultats identiques. Cela dit, les problèmes de lecture (dyslexie) étant souvent couplés à des problèmes d'écriture (dysorthographie), les systèmes de recherche d'information doivent être adaptés en ce sens comme nous avons discuté dans Sitbon et al. (2007, 2008a, 2008b) en implémentant un système de réécriture de questions en langage naturel destiné à améliorer la robustesse des systèmes de RI. En ce qui concerne les scores proposés, nous avons défini une combinaison linéaire mais cela peut ne pas être la meilleure solution. D'abord car il a été montré que les différentes stratégies de classement internes peuvent interférer avec un tel choix et que d'autre solutions sont souvent préférables (Savoy et al., 1997). Ensuite, parce que la redondance des indices pris en compte dans chacun des scores peut entraîner une sélection déséquilibrée. Toutefois, les définitions de la lisibilité que nous avons utilisées tiennent compte d'indices qui ne sont pas liés à la fréquence d'apparition des mots dans les documents. Ainsi la combinaison linéaire du score de lisibilité avec une fonction de score BM25 ne fait pas perdre la non-linéarité vis-à-vis de la composante fréquentielle des mots dans les pondérations. Cependant, si l'on considère l'ensemble des critères de lisibilité envisagés (et non uniquement ceux que nous avons utilisés dans nos expériences), et donc la fréquence d'apparition des mots, cette propriété de non-linéarité serait mise à mal. En effet, un mot de la requête qui apparaîtrait plusieurs fois dans un document verrait cette quantité prise en compte deux fois dans le calcul du score, une fois pour la lisibilité et une fois pour la similarité BM25. Ainsi, il est possible qu'un document contenant plusieurs fois un même mot de la requête, et uniquement celui -ci, soit préféré à un document qui contient deux mots de la requête. Pour répondre à ce problème précis, (Robertson et al., 2004) ont modifié la composante fréquentielle plutôt que de combiner des scores qui, indépendamment les uns des autres, utilisent la fréquence réelle des mots. Si l'on estime par exemple qu'un mot qui apparaît 3 fois dans un document est 2 fois plus lisible qu'un mot qui n'apparaît qu'une seule fois alors on modifie sa fréquence estimée en la multipliant par deux. Une perspective intéressante réside donc dans la définition de fonctions de score qui préservent l'efficacité des mesures de type okapi tout en tenant compte de la lisibilité. De manière générale, nous pourrons passer d'un processus qui enchaîne : pondération des mots des documents et de la requête selon une approche type okapi /BM25; calcul des scores de pertinence vis-à-vis de la requête des documents de la collection; calcul des scores de lisibilité des documents extraits de la collection à l'étape précédente; réordonnancement des documents en fonction des scores de pertinence et de lisibilité vers un nouveau processus, incluant une rétro-action de pertinence améliorant simultanément la lisibilité et la pertinence des documents trouvés. Selon un processus interactif, il serait possible d'associer à des requêtes, et par suite à des thématiques, des listes de documents que l'utilisateur aura trouvés non seulement pertinents mais également utilisables (lisibles) et ainsi définir des fonctions de score adaptées à chaque utilisateur .
Nous proposons de prendre en compte des indices non purement informationnels, tels que la lisibilité, en recherche d'information. Nous montrons sur les données des évaluations TREC, CLEF et DUC que cette prise en compte peut être efficace dans un cadre général. Enfin, nous proposons une estimation automatique de la lisibilité adaptée à des personnes dyslexiques.
sciencesInfo_11-0471917_tei_DN_131_0161.tei.xml
termith-454-communication
L'utilisation croissante des Technologies de l'Information et de la Communication (TIC) a réactualisé le débat engagé depuis une dizaine d'années autour de l'enseignement à distance. Le regain d'intérêt pour ce mode de transmission des savoirs a été porté par la volonté politique d'en faire une stratégie pour porter des changements dans l'enseignement supérieur à travers l'usage des TIC. Les appels d'offre « Campus Numériques Français » (CNF) lancés entre 2000 et 2002 s'inscrivaient bien dans cette perspective. L'intérêt de revenir à cette stratégie est qu'elle nous renvoie aujourd'hui à une réalité incontournable; celle d'un mode d'enseignement qui cherche toujours sa place au sein des universités. Trois faits viennent conforter cette réflexion : La première concerne le consortium « E-miage » : un authentique produit de cette politique, qui en 2000, s'est construit autour de dix-huit universités. Aujourd'hui, seules six d'entres -elles tentent d'exploiter ce dispositif de formation à distance. La deuxième constatation renvoie à un état des lieux des politiques éducatives relatives au déploiement des TIC dans les universités (Gauthier, 2003). L'analyse des contrats quadriennaux pour la période 2004-2007 indique que seules quinze universités ont renseigné l'indicateur « formation totalement ou partiellement à distance s'appuyant sur des ressources en ligne » qui, de surcroît s'adresse à seulement 2 % de leur effectif. La plupart des projets retenus par les appels d'offre « Campus Numériques Français » n'ont pas dépassé la phase d'étude de faisabilité ou la phase d'expérimentation, et peu d'entre eux-sont aujourd'hui réellement opérationnels. La troisième enfin, renvoie à une enquête de la Fédération Interuniversitaire de l'Enseignement à Distance (FIED) 1 concernant la nature de sa mission à l'ère du numérique (Thibault et Gervais, 2005). Elle montre que 85 % des cours sont encore sous format papier et que les services de la Poste restent le moyen de diffusion le plus utilisé. Le tout numérique apparaît comme bien loin d'une pratique courante. Ces quelques constats suffisent-ils à considérer que la politique nationale d'impulsion et de soutien de la formation à distance dans l'enseignement est un échec ? Il serait injuste de répondre par l'affirmative en excluant de la réponse au complexité du système universitaire et les conditions de sa mutation. L'objectif que nous nous sommes fixés dans cet article n'est ni de réaliser une évaluation stricto sensu de la politique des TICE, ni de prescrire des recommandations, mais de tenter de comprendre les difficultés de l'implantation dans le tissu universitaire de la formation ouverte et à distance médiée par les TIC. Si les évolutions techno-pédagogiques sont souvent évoquées pour expliquer la difficulté de l'insertion des TIC en milieu universitaire, ce sont des orientations politiques des établissements et des préoccupations économiques qui semblent peser sur les décisions et sur les stratégies des TIC à l'université. Pour conforter cette hypothèse, nous nous attacherons d'abord à identifier et à analyser les points de tensions liés aux stratégies de transformation /modernisation de l'enseignement supérieur et leurs articulations avec la figure imposée du consortium; une forme organisationnelle qui a orchestré les projets retenus par le Ministère de l'Education Nationale et de l'Enseignement Supérieur (MENSER) lors des appels d'offre CNF. Ensuite, nous abordons la question des enjeux socio-économiques et leurs décalages par rapport à la réalité d'un dispositif de formation à distance. Nos réflexions s'appuient sur les observations et les données issues d'enquêtes réalisées par nos soins dans différentes structures universitaires 2. Un des objectifs des appels d'offre CNF s'attache à la modernisation de l'enseignement supérieur par l'usage des TIC. Cette idée n'est pas nouvelle. Elle a souvent accompagné les discours sur les technologies éducatives depuis le début du siècle dernier (Chaptal, 2003). Nous la retrouvons précisément dans les deux premiers paragraphes du texte de l'appel d'offre 2000 : (…) l'enseignement à distance, lié dorénavant aux nouvelles technologies de l'information et de la communication, peut apporter une réponse aux besoins sociaux actuels en éducation et en formation. Facteur important de la modernisation des systèmes éducatifs et de la promotion des pratiques pédagogiques innovantes. (…). Nous aborderons l'analyse de cet objectif en considérant d'une part la réorganisation pédagogique de l'enseignement supérieur à travers des projets de transmission du savoir à distance et d'autre part le changement dans les modes de fonctionnement et de gestion des projets au sein des universités. Le premier volet de la modernisation s'inscrit dans le modèle conceptuel du dispositif 3 de formation basé essentiellement sur l'usage intensif des technologies numériques. Ce modèle conduit à une restructuration de l'ingénierie de formation par la réalisation efficiente d'une action de formation « proche des besoins des apprenants, se libérant des contraintes de lieux et de temps, offrant des services sur mesure, conçue de façon modulaire, afin de permettre des parcours individualisés et s'adapter à des contextes différents » 4. Ce modèle conceptuel s'inspire essentiellement des orientations de Maryse Quéré dans son rapport « Vers un enseignement supérieur sur mesure » (Quéré, 1994) 5. Il entraîne un déplacement du centre de gravité de l'enseignement universitaire, historiquement défini comme un acte oralisé, vers un modèle centré sur l'apprenant où l'enseignement devient un acte essentiellement écrit (cours en ligne et tutorat à distance). Ce glissement forme une pièce maîtresse située au cœur du modèle des campus numériques, marquant ainsi une rupture avec le fonctionnement pédagogique de l'enseignement universitaire traditionnel. De nombreux spécialistes des nouvelles technologies d'information et de communication en éducation conçoivent ce glissement comme un ensemble structuré de manière paradigmatique (Paquette, 1997, Depover et al., 1998, Charlier et al., 2003; Alberto, 2003; Carré, 2003). La structure du modèle conceptuel d'une formation à distance se caractérise par une séparation entre la production des ressources et le service d'accompagnement. C'est dans cette séparation que réside le changement considéré comme la base d'une modernisation de l'enseignement supérieur aboutissant à une rationalisation de l'acte éducatif. Celle -ci prend l'allure d'une organisation weberiennne 6, c'est-à-dire une organisation sous un ordre rationnel-légal renforcé par une division de la tâche éducative. Elle est caractérisée par la délimitation des sphères de compétences et de pouvoirs sous forme d'un ensemble de fonctions agencées et hiérarchisées les unes par rapport aux autres sur la base de réglementations et de procédures plus ou moins codifiées : auteurs, tuteurs, concepteurs médiatiques, techniciens, informaticiens, coordinateurs, animateurs, moniteurs, etc. Cette fragmentation de la fonction d'enseignant universitaire, historiquement le seul maître à bord, induit une déqualification de ce dernier, qui voit alors son rôle se réduire à la prescription et à la certification (Moeglin, Trembley, 1999; Fichez, Deceuninck, 1999). Une telle réduction ne va pas de soi et a pesé lourdement sur l'organisation et la survie des campus numériques 7. Cette rationalisation de l'acte éducatif a buté sur à une autre difficulté, celle d'un modèle pédagogique de la formation à distance peu stabilisé. L'apprentissage collaboratif a bien sûr bénéficié ces dernières années d'un regain d'intérêt de la part des communautés éducatives qui ont contribué à élaborer un cadre théorique à cette forme d'apprentissage. Cet apport n'a cependant pas réduit significativement le fossé important entre les résultats de la recherche et les usages réels (Bruillard, 2004; Sidir, 2004). Cette situation a conduit à l'adoption d'un modèle simpliste situé à mi-chemin entre une autodidaxie basée sur des ressources pédagogiques distribuées et disponibles sur des serveurs et une prestation assortie d'un simple échange de questions-réponses entre apprenants et tuteurs. Dans ce contexte, le rôle des tuteurs se confond avec les services hot-line proposés par les centres de relation clientèle des entreprises commerciales. Le deuxième volet de la modernisation se situe du côte du fonctionnement même des universités. En effet, les appels d'offre notamment celui de 2000 expriment d'une façon explicite une forte volonté politique de rompre avec un fonctionnement universitaire autocentré et de promouvoir une nouvelle forme d'organisation à travers l'institutionnalisation du partenariat sous la forme de consortiums regroupant établissements publics et privés. Le texte de l'appel justifiait la constitution de cette organisation par un certain nombre de considérations pratiques la constitution d'une offre nationale à distance dépasse les possibilités d'un seul établissement. Elle nécessite des collaborations et des financements importants, non seulement pour les contenus de formation, mais aussi pour la qualité et la pertinence de leur mode de diffusion, pour la mise en place des services d'accueil et de tutorat à distance et pour les facilités nécessaires au regroupement des publics en mode présentiel pendant de courtes périodes. Cette forme organisationnelle est inédite dans le paysage de l'enseignement supérieur français 8 où l'intégration des technologies s'affiche désormais comme « une affaire de collectif ». Certains auteurs 9 y détectent même une nouvelle forme de régulation qui dépasse les contraintes institutionnelles normalisées dans la mesure où les règles de gestion ne sont pas définies à l'avance et où les membres du consortium occupent une place de choix pour susciter l'engagement de leurs institutions. Néanmoins, nos observations sur le consortium « E-miage » montrent que le concept ne semble pas être perçu de façon claire et pertinente par toutes les universités partenaires. Au contraire, de nombreuses réunions ont été nécessaires pour aboutir à un consensus auquel finalement, peu d'universités ont réellement adhéré. En analysant les campus Cultura et C@mpuSciences, Elisabeth Fichez (2006) fait le même constat. Elle observe que le premier s'est construit sur des conventions disparates entre les partenaires et que le second a abouti, après cinq années de travail, à une simple convention de partenariat entre les établissements concernés. En réalité, si le consortium est une instance pertinente pour l'organisation des campus numériques, il reste néanmoins un concept flou souvent marginalisé au sein des universités. Les raisons des difficultés d'intégration du « consortium » sont liées, à nos yeux, au fonctionnement même des universités. Ces structures sont des établissements dirigés par les enseignants-chercheurs sur la base d'assemblées représentant les différents acteurs. Elles font apparaître la dimension interne comme un constituant fort et décisif. Même si le dispositif « campus numérique » est avant tout un projet d'établissement, il apparaît néanmoins comme un projet d'individus. La position de ces porteurs de projet au sein de leurs universités et leurs relations avec les acteurs politiques sont des éléments importants et non sans conséquence. Tout changement de direction peut modifier des priorités et fragiliser des alliances. C'est le cas par exemple, de l'université de Picardie où le changement de direction dans les années 2000 a eu un impact direct sur le campus numérique « E-miage ». Il a fallu beaucoup d'efforts et de ténacité à son chef du projet pour que ce campus numérique trouve une place au sein du dispositif de formation à distance de cette université mis en place depuis 1996. Nous retrouverons une situation similaire avec le campus Cultura (Fichez, 2006, p. 324). Mais le problème majeur auquel sont confrontés tous les consortiums reste principalement celui du financement. Un problème difficile à démêler dans le contexte d'une université publique. En soi, prendre la mesure du phénomène est déjà un objectif ambitieux mais mener une étude de plusieurs mois, c'est prendre le risque de traiter un phénomène complexe sans pour autant cerner tous ses aspects. Hormis les travaux de Patrice Grevet (2005, 2006) peu d'études en France ont été menées sur ce terrain difficile. Les appels d'offre CNF présentaient clairement aux acteurs éventuels que le soutien public en matière de financier ne pouvait représenter qu'un processus d'amorçage; à charge aux établissements d'enseignement supérieur s'engageant dans la mise en place d'un campus numérique d'élaborer toutes solutions d'auto-financement (stratégies de marché) permettant d'assurer la pérennité du dispositif de formation. Dans le cadre de ces appels, les consortiums constitués étaient invités à définir un plan de financement : Dans le cas d'un consortium constitué, celui -ci devra produire un plan de financement qui s'appuiera sur une étude de faisabilité (domaines couverts et publics ciblés) portant sur les 3 prochaines années, précisant l'apport des différents partenaires publics et privés ainsi qu'un compte d'exploitation prévisionnel permettant d'estimer le point mort et le retour sur investissement pour chacun des partenaires. Les perspectives étaient celles d'une offre de qualité s'inscrivant dans un contexte de concurrence internationale accrue. Cette position de la tutelle nous semble importante à analyser. Elle marque une rupture avec un mode de financement de l'enseignement supérieur basé essentiellement sur une logique « budget-dépense » inhérente au fonctionnement du système éducatif. Les universités sont habituellement financées par deux sources principales : la dotation globale de fonctionnement (DGF) octroyée annuellement sur la base du nombre d'étudiants inscrits à l'université. Cette dotation tient compte des groupes de travaux dirigés et du potentiel d'encadrement mis à disposition (barèmes SAN REMO - Système ANalytique de REpartition des MOyens). le contrat quadriennal passé entre un établissement universitaire et l'Etat qui permet un financement de projets spécifiques L'objectif d'assurer un autofinancement s'inscrit-il alors dans une perspective de modernisation de l'enseignement supérieur par une rationalité économique des actes éducatifs ? Les textes des appels d'offre ne l'expriment pas d'une façon explicite et l'articulation entre objectif économique et changement de modèles pédagogiques n'est pas clairement établie. Bien que la situation soit différente du projet de réduction des dépenses par une « mécanisation de l'éducation » telle que l'envisageait l'économiste de l'éducation Lê Thanh Khôi (1967), il n'en demeure pas moins que la fin des années 90 a vu s'épanouir des stratégies politiques favorables à la marchandisation de la formation. Cette époque enfiévrée par le phénomène de la bulle Internet promettait une forte croissance par rapport à l'émergence de nouvelles compétences susceptibles de doper le marché de la formation. Ce contexte accompagne la libération des services initiés par l'Accord Général sur le Commerce des Services; une initiative de l'Organisation Mondiale du Commerce. Cette libération des services a suscité de nombreux espoirs chez les grands industriels de logiciels ainsi que chez les éditeurs scolaires et ludo-éducatifs alléchés par les possibilités de la formation tout au long de la vie (lifelong education). Le WEM, marché mondial de l'éducation, de la formation et du savoir dans ses versions canadiennes (2000 et 2001) puis européennes (2002 et 2003) est le reflet d'une politique mondiale qui tente de faire entrer de plain-pied le monde de l'éducation dans le monde économique. Ces références ne prennent leurs véritables significations qu' à travers l'usage qui en est fait dans les arènes institutionnelles. En effet, le compte-rendu d'une table ronde de l'OCDE qui s'est tenue à Philadelphie en février 1996 sur l'enseignement à distance, prône une dimension mondialiste de l'éducation décentralisée par les possibilités offertes par les technologies et le réseaux Internet. Nous y lisons L'apprentissage à vie ne saurait se fonder sur la présence permanente d'enseignants mais doit être assuré par des prestataires de services éducatifs. (…) La technologie crée (…) la possibilité nouvelle de proposer des programmes d'enseignement dans d'autres pays sans que les étudiants ou les enseignants ne partent de chez eux pourrait fort bien avoir d'importantes répercussions sur la structure du système d'enseignement et de formation à l'échelle mondiale. Il y est suggéré de limiter l'intervention de l'Etat à une fonction de compensation pour ceux qui n'auraient pas les moyens de financer leur formation et qui de ce fait, ne seront jamais « rentables » : les pouvoirs publics n'auront plus qu' à assurer l'accès à l'apprentissage de ceux qui ne constitueront jamais un marché rentable et dont l'exclusion de la société en général s'accentuera à mesure que d'autres vont continuer de progresser 10. Dans la même année (1996), la commission européenne publie un rapport intitulé Construire la société européenne de l'information pour tous » où est indqué, page 58 que « le développement d'une industrie forte du logiciel multimédia d'éducation et de formation basée en Europe est hautement souhaitable aussi pour des raisons économiques (…) celle -ci deviendra une industrie de services les plus importantes en XXIe siècle, voire la plus importante. Des discours encore plus hyperboliques engagent le procès contre la conception actuelle du système éducatif. Dans le rapport Éducation et compétences en Europe publié par les industriels de l'European Round Table (ERT), le puissant groupe de pression patronal européen, est écrit que le monde de l'éducation (…) généralement ne perçoit pas la nécessité du changement avec autant d'acuité que le monde économique (…). La clé de la compétitivité de l'Europe réside dans la capacité de sa force de travail à relever sans cesse ses niveaux de connaissances et de compétences 11. Mais tout cela ne suffit pas à l'ERT, il souhaite que la responsabilité de la formation doit en définitive être assumée par l'industrie. (…) le monde de l'éducation semble ne pas bien percevoir le profil des collaborateurs nécessaires à l'industrie. (…). Pour atteindre ces objectifs, la Commission souligne qu'il faut mettre en place « des structures d'éducation qui devraient être conçues en fonction des besoins des clients » 12. A cette même époque, le Ministre de l'Education Nationale, Claude Allègre, déclare qu'il a pour objectif d'instiller cet esprit d'entreprise et d'innovation qui fait défaut dans le système éducatif français et annonce la création d'une agence pour la promotion de la formation à l'étranger : nous allons vendre notre savoir-faire à l'étranger, et nous nous sommes fixés un objectif de 2 milliards de francs de chiffre d'affaires en trois ans. Je suis convaincu qu'il s'agit là du grand marché du XXIe siècle… 13. Bien que les appels à projets CNF ne se soient pas inscrits explicitement dans cette démarche réductrice de l'éducation, les textes officiels, notamment ceux de 2000, évoquent que dans un contexte international actuel d'évolution accélérée de l'enseignement, le développement de ce secteur constitue un enjeu fort pour les établissements de l'enseignement supérieur français. Ils précisent que l'objectif est de construire une offre nationale de formation à distance compétitive sur le marché international. C'est bien une logique commerciale qui guide ces appels d'offre afin de répondre à l'avance de futurs concurrents. C'est dans ce cadre que Guy Aubert, directeur du CNED 14 resitue en décembre 2000 la mission que Claude Allègre lui avait alors confiée face au développement des initiatives privées et à la menace potentielle de l'offre étrangère sur le marché de l'éducation et de la formation, les opérateurs publics français se devraient de réagir 15. Telles sont les conditions de la mise en œuvre des appels d'offre en question dans cet article et le contexte dans lequel ont été déployés les consortiums. Pour mieux cerner la dimension économique nous ne pouvons sacrifier à l'exercice d'analyse de coût d'une formation à distance. Les discussions avec les collègues de la faculté d'économie impliqués dans le dispositif de formation à distance de l'université de Picardie et la volonté des différents acteurs de ce dispositif (responsables de formation, responsables administratifs, enseignants, tuteurs, animateurs) de clarifier la question de l'économie de la formation à distance et de l'articuler avec leurs actions respectives, nous ont aidés dans la démarche d'analyse des coûts de production et d'exploitation d'un tel dispositif. Cette étude s'inscrit dans la perspective d'une action porteuse de quelques éléments de compréhension de la dimension économique d'un dispositif de formation à distance qui n'est pas sans conséquence sur son évolution en milieu universitaire. Rappelons très brièvement le contexte de cette étude. Il est question d'un dispositif de formation à distance de l'université de Picardie (opérationnel depuis 1996) impliqué dans deux projets CNF : « E-miage » et « Apelac 16 ». Ce dispositif compte aujourd'hui plus de 800 apprenants essentiellement francophones inscrits dans une dizaine de formation diplômantes. Nous n'avons pas adapté une méthodologie basée sur une grille d'analyse des comptes d'un dispositif de formation à distance comme celle décrite et utilisée par Patrice Grevet (2005) pour l'analyse économique du consortium Canège. Notre méthode de travail est essentiellement basée sur des entretiens semi-directs avec les responsables de formation, les responsables administratifs, les animateurs de formation en ligne et les tuteurs. Pour affiner cette étude, nous avons suivi toutes les étapes de la mise en ligne (réelle) d'une licence professionnelle. L'intérêt principal de cette démarche réside dans les modes de production des ressources pédagogiques qui se sont fortement inspirés de la démarche mise en place par le consortium « e-miage ». La mise en ligne totale de cette formation a demandé deux ans et correspond à la durée moyenne de mise en ligne d'une formation à l'université de Picardie. Il est important de signaler les types de coûts analysés. Nous les avons organisés de la manière suivante : les coûts directs et francs qui représentent les dépenses vérifiables sur le plan comptable : rémunérations et achats de ressources ou de services principalement; les coûts cachés liés à la genèse des projets, au montage des dossiers, aux animations d'équipes pédagogiques, administratives, techniques, au développement ou achat d'outils, etc. L'estimation de ces coûts est pratiquement impossible dans le contexte universitaire français car ils correspondent à des activités « non standard ». L'étude d'Algora a fait largement la preuve du manque de précision afférent à ce type de coûts (temps passé sur une activité par exemple). Par ailleurs, certains de ces coûts sont non répertoriés et considérés comme nuls (bénévolat !) et d'autres sont dilués dans des activités plus larges (activités administratives ou techniques par exemple); les coûts indirects ou structurels (locaux, personnel général, téléphone, affranchissements, etc.) et d'infrastructures (réseaux de télécommunication, maintenance de serveurs et de postes de travail ou encore licences de logiciels). Diluée dans les dépenses générales, la part attribuée à la FOAD est difficilement calculable sauf en faisant une surveillance tatillonne des activités (quelle part atribuée à la FOAD pour l'entretien des locaux utilisés par un tuteur ?). Comme pour les coûts cachés, il est difficile d'espérer une précision suffisante. On peut donc apprécier la difficulté à analyser les coûts des dispositifs de FOAD en milieu universitaire. Difficulté qui n'est pas spécifique à la FOAD puisque le coût réel d'une formation traditionnelle reste tout autant difficile à estimer pour les mêmes raisons de coûts cachés et indirects. Les contenus de formation sont conçus par des enseignants et la réalisation technique (médiation technique) est confiée à une équipe spécialisée 17. La chaîne de production exige une approche planifiée et structurée où chaque tâche est définie (cf. figure 1). La formation dont il est question ici est la 10e formation mise en ligne par le service de formation à distance de l'Université de Picardie. Ce service de formation à distance a acquis une expérience réelle et a su mettre en œuvre une démarche organisationnelle empruntée au management des projets. Chaîne de production des contenus, adoptée par le consortium « E-miage » et le service de formation à distance de l'Université de Picardie La formation se compose de 16 modules, chaque module correspond à 40 heures de cours en présence. En règle générale, les contenus sont élaborés par trois enseignants et l'écriture des contenus demande une trentaine d'heures pour chacun d'eux. La structuration et la scénarisation des cours sont prises en charge par un concepteur médiatique en collaboration avec les enseignants. Ils travaillent ensemble pendant deux journées (en moyenne) pour la structuration des cours en session 18. Chaque enseignant consacre un temps important, environ 60 heures, à la scénarisation des cours. La réalisation technique demande environ 120 heures par module. Finalement, et après entretiens avec les acteurs du projet, 9 heures sont nécessaires aux évaluateurs pour étudier et tester l'ensemble de la production. Le processus global de réalisation se déroule ainsi sur plusieurs mois. A ces estimations, il convient de rajouter environ 40 heures/Hommes pour les différentes réunions : démarrage (objectifs, rôles des acteurs, planification, problèmes divers), scénarisation et bilan avec les évaluateurs. Le tableau 1 synthétise ces différents informations. Les charges brutes dans l'activité de production Tâches Heures/Homme Définition des contenus 90 Structuration des contenus 15 Scénarisation des contenus 180 Réalisation technique 140 Evaluation 27 Réunions 40 TOTAL BRUT 492 Notons que les techniciens et le concepteur médiatique travaillent dans le cadre de leur service statutaire Les enseignants et les différents experts participent en dehors de leur service statutaire 19 et sont généralement rétribués sur le taux de l'heure complémentaire (environ 45 euros, charges comprises). A cela, il faut ajouter le nombre d'heure consacré à la conduite de projet. Dans notre enquête et consécutivement aux différents entretiens réalisé, nous avons évalué cela à environ 30 heures/Homme. Compte tenu de ces différents éléments, le coût de chaque module s'élève à environ 23 490 €. A cette somme s'ajoutent à concurrence de 10 % les dépenses structurelles : matériels informatique et logiciels, téléphone, chauffage, personnels administratifs, etc. Le tableau ci-dessous reprend ces principaux chiffres. Les coûts de la mise en ligne d'un module (équivalent à 40h de cours en présence) Nature des coûts Heures/Homme Montant en équivalent rémunérations Processus brut de production 452 20 340 € Réunions 40 1 800 € Conduite de projet 30 1 350 € Coûts structurels et frais généraux 52,2 2 349 € total 574,2 25 839 € Ces calculs comportent une forte dose de subjectivité et les situations diverses peuvent faire varier considérablement la dépense. Par exemple le recours à un prestataire extérieur à l'université pour la réalisation technique peut alourdir considérable la facture. Une critique évidente des calculs ci-dessus est que le taux de rémunération est basé sur l'heure complémentaire « Travaux Dirigés » et ne tient pas compte du salaire véritable des intéressés. Les chiffres obtenus peuvent être traduits de la manière suivante afin d'obtenir des indicateurs simples : tout d'abord, si l'on calcule la charge pédagogique en pourcentage de la charge totale, on obtient 292 heures/homme soit 60 % de la charge totale. Les 40 % restants correspond aux charges administratives, techniques et de gestion de projet; la charge pédagogique de 292h pour le développement d'un module dont l'équivalent « en présence » est de 40 heures signifie que la dépense pédagogique est de 7,3 heures pour mettre en ligne une heure d'enseignement « en présence ». Ce ratio ne permet pas la comparaison entre formation présentielle et formation à distance. En formation présentielle, l'enseignant a une charge de préparation de ses cours; cette charge n'est pas clairement définie mais est bien réelle. Si on estime grossièrement qu'une heure de cours nécessite une heure de préparation le ratio s'établit plutôt autour de 3/4 heures. 20 Le coût de la production d'un seul module peut sembler élevé mais il demeure trois fois mois élevé que celui du consortium Canège (Grevet, 2005, p. 30). Il convient toutefois de noter que l'existence d'une cellule de développement technique et de concepteurs médiatiques à l'université de Picardie a joué en faveur de la baisse du coût de production des modules dans le consortium « E-miage ». Il est important de constater que les subventions ministérielles couvrent à peine les dépenses relatives à la phase de production. Ce constat est généralisable à l'ensemble des consortiums. A croire Philippe Perry, chef de bureau TICE pour l'Enseignement Supérieur « la plupart des campus numériques se sont jetés sur la production de ressources pédagogiques et ont dépensé leur budget. Si l'on suivait, cela coûterait un milliard de francs ! » (cité par Grevet, 2006). Dans le cas du consortium « e-miage », la polarisation sur les ressources n'a pas été sans conséquences puisqu'elle s'est heurtée à une ambivalence dans la logique de production. En effet, la structure des cours sous forme d'objets d'apprentissage normalisés (e-Learning Objects) a donné lieu à une activité très importante en termes de réunions et de discussions qui, de notre point de vue, a beaucoup affaibli le consortium en faisant émerger une tension entre une logique de recherche marquée par le développement multiple de prototypes expérimentaux et une logique de mise en ligne et d'exploitation plus ou moins rapide. Le consensus entre les deux logiques à tarder à prendre forme et a nettement perturbé les démarches collaboratives. A cette difficulté, sont venues s'ajouter celles relatives aux règles juridico-économiques, particulièrement délicates à identifier. Finalement et alors que les conventions entre l'université porteuse de projet et les partenaires ont soigneusement mis au point le mode de co-production et les règles d'exploitation des ressources, ainsi que leur cadre financier, les droits de propriété intellectuelle rendus encore plus délicats par la coopération entre groupement d'auteurs sur les mêmes modules sont restés en suspens. La difficulté majeure des consortiums est le passage de la logique de production des ressources à la logique d'exploitation de celles -ci (Grevet, 2006, Fichez, 2006). Pour tenter de mieux saisir cette difficulté, nous analysons ici les coûts de l'exploitation que nous apprécions sur la base du fonctionnement actuel du dispositif étudié. Les coûts correspondants peuvent être répartis en trois catégories : les coûts pédagogiques liés aux activités de tutorat; les coûts administratifs englobant les frais généraux; les coûts techniques liés à la maintenance des équipements informatiques. Une analyse de Gérard-Michel Cochard (Cochard, 2003), chef de projet du campus numérique « E-miage » et responsable de plusieurs formations à distance montre que la clé de répartition entre ces trois catégories se présente comme suit : coûts pédagogiques : 60 %, coûts administratifs : 30 %, coûts techniques : 10 %. Cette approche nous semble quelque peu drastique car, de fait, seuls les coûts pédagogiques sont évaluables de manière directe. Les coûts administratifs et techniques dilués dans les frais généraux de fonctionnement du service de formation continue sont difficilement identifiables. Pour pouvoir évaluer avec justesse les coûts d'exploitation d'une formation à distance, on suppose que le taux de succès aux examens de chaque module est donné par le pourcentage S %; on admet que ce taux est le même quel que soit le module et que la formation démarre avec une montée en charge régulière de E % d'entrants nouveaux par semestre. Il convient de noter que la montée en charge est limitée par la capacité d'encadrement puisqu'il est admis qu'un tuteur ne peut prendre en charge plus de vingt étudiants; lorsque le nombre d'étudiants tutorés dépasse ce nombre, il est nécessaire de recruter de nouveaux tuteurs. Le tableau 3 présente les barèmes 21 de rémunération des activités d'accompagnement votés par le Conseil d'Administration de l'université de Picardie en décembre 2003 et toujours en vigueur à l'heure actuelle. Barèmes de rémunération des activités d'accompagnement adoptés par l'UPJV Activité Périodicité Barème de rémunération Tutorat asynchrone Tout au long du semestre Forfait de 2 h par étudiant tutoré, par module et par semestre Chats 4 réunions d'une heure par module et par semestre 4 h par module et par semestre regroupements 1 journée par module et par semestre 7h par module et par semestre animation Tout au long du semestre Forfait de 1 h par étudiant en stock et par semestre Compte tenu de ces données, il est possible de simuler les dépenses de fonctionnement pédagogique, de déduire les coûts administratifs et techniques et finalement d'obtenir le coût total pour un effectif donné. Les tableaux 4 et 5 donnent sur six semestres (3 ans) les trois catégories de coûts pour des valeurs de S et E fixées : Coût de l'exploitation d'une formation en ligne pendant 3 ans S=50 %, E=10 % coûts semestre entrants pédagogiques administratifs techniques total 1 20 19 260,00 € 9 630,00 € 3 210,00 € 32 100,00 € 2 22 32 490,00 € 16 245,00 € 5 415,00 € 54 150,00 € 3 24 41 242,50 € 20 621,25 € 6 873,75 € 68 737,50 € 4 26 50 028,75 € 25 014,38 € 8 338,13 € 83 381,25 € 5 28 52 402,50 € 26 201,25 € 8 733,75 € 87 337,50 € 6 30 56 311,88 € 28 155,94 € 9 385,31 € 93 853,13 € Coûts des activités d'accompagnement S=25 %, E=10 % coûts pédagogiques semestre entrants tutorat asyn . chats regroupt . animation total 1 20 14 400,00 € 1 440,00 € 2 520,00 € 900,00 € 19 260,00 € 2 22 23 310,00 € 2 880,00 € 5 040,00 € 1 890,00 € 33 120,00 € 3 24 30 780,00 € 2 880,00 € 5 040,00 € 2 880,00 € 41 580,00 € 4 26 35 190,00 € 5 760,00 € 5 040,00 € 3 566,25 € 49 556,25 € 5 28 38 610,00 € 5 760,00 € 5 040,00 € 4 145,63 € 53 555,63 € 6 30 39 870,00 € 5 760,00 € 5 040,00 € 4 623,75 € 55 293,75 € Il est intéressant de noter que si la production des contenus apparaît comme un investissement à moyen terme, l'exploitation ne peut s'effectuer à coût constant. Néanmoins, la montée en charge présentée dans le tableau 4 est limitée par la capacité d'encadrement. Lorsque le nombre d'étudiants tutorés augmente - souvent sous la pression des apprenants se considérant comme des consommateurs d'une offre de formation - les promoteurs des programmes sont dans l'obligation de recruter de nouveaux tuteurs. Contrairement à une idée reçue, l'enseignement à distance de qualité peut être difficilement un enseignement de masse. Toutefois, la fragmentation des activités d'accompagnement devient de plus en plus rationnelle. Elle vise notamment à satisfaire le marché (et ses clients !) et au mieux le séduire. Le tableau 5 détaille les coûts pédagogiques relatifs aux différentes composantes de la fonction tutorielle. Le tableau 5 met en évidence le poids du tutorat asynchrone qui pèse sur les coûts pédagogiques sachant qu'il est difficile voire impossible de réaliser l'économie de ce type d'accompagnement. Celui ci en raison de l'intérêt de l'asynchronicité, semble imposer à l'apprenant une formulation de ses consignes, de ses suggestions et de ses remarques sous une forme précise. (Henri, 2001) a mis en évidence l'avantage du mode asynchrone en soulignant que « les atouts de l'asynchronicité sont indéniables pour la collaboration et pour l'apprentissage à distance en raison de la souplesse des échanges à distance qu'il procure et de la profondeur du contenu qu'il permet d'atteindre ». En revanche, les interactions en temps réel (ou chat) exigent une prise de rendez -vous entre partenaires et un engagement de présence. Les données présentées qui n'ont ni une ambition comptable ni la rigueur d'une analyse économique donnent une idée des (im)possibilités de mesure de certains coûts de production et d'exploitation de contenus dans un dispositif de formation à distance utilisant le numérique. Cependant, il importe de signaler l'impossibilité de circonscrire un modèle de mesure de coûts et de rentabilité spécifiques à la formation à distance universitaire. D'une part, l'analyse des coûts ne peut être conduite indépendamment de son contexte; celui -ci est lié à un modèle donné et à un certain nombre de règles de production, de fonctionnement et d'accompagnement loin d' être normalisées dans le milieu universitaire. D'autre part, les surcoûts cachés (donc non intégrés au calcul) sont partout présents et les outils de modélisation permettant de les mesurer ont du mal à cerner toutes les variables. L'opacité du système et la résistance des acteurs concernés ajoutent une contrainte supplémentaire et rendent difficile les investigations. A croire que le coût d'une formation est une notion étrangère en milieu universitaire alors que les interrogations, même au sein de l'université, sur l'investissement et la rentabilité financière reviennent régulièrement dans les débats et les échanges sur le développement de cette modalité de formation. Rappelons que l'appel d'offre, notamment celui de 2000 fait apparaître d'une façon explicite et déterminante le lancement d'une activité qui doit être dotée d'un solide business-plan.. Il indique que " dans le cas d'un consortium constitué, celui -ci devra produire un plan de financement qui s'appuiera sur une étude de faisabilité (domaines couverts et publics ciblés) portant sur les 3 prochaines années, précisant l'apport des différents partenaires publics et privés ainsi qu'un compte d'exploitation prévisionnel permettant d'estimer le point mort et le retour sur investissement pour chacun des partenaires ". Pour Patrice Grevet, ce type de demande est inédit. Il marque une volonté de rupture avec la logique du financement public renouvelé d'année en année. Cette demande, selon l'auteur, est un marqueur idéologique et pratique pour signifier qu'on est bien dans le domaine du lancement d'une activité qui doit assez vite trouver son équilibre sur le marché (Grevet, 2005a, p. 15). Il nous semble que la notion idéologique est à nuancer car le contexte des débuts des années 2000 était trompeur en étant basé particulièrement sur le développement important d'Internet. Le Nasdaq était à son plus haut niveau et devait, selon les spéculations, drainer une forte croissance des effectifs et des chiffres d'affaires de la formation à distance. Les décideurs politiques comme certains économistes ont été largement bernés. L'éclatement de la bulle spéculative financière a poussé à modérer les envies et le marché du formation à distance n'a pas été aussi spectaculaire que nous le promettaient les prophètes de l'économie. Ainsi, la plupart des grandes entreprises (EDF-GDF, France Télécom, Renault, la Poste, etc.) ont créé leurs propres plates-formes de formation pour leurs salariés (Caspar, 1998). Dans ces conditions, certains responsables se sont orientés vers une logique marchande pour assurer la pérennité de leur dispositif de formation à distance confortant ainsi la thèse de Bernard Miège (2004, p. 119). : « le développement des TIC s'effectuait presque exclusivement au sein de la sphère marchande ». Cette logique n'est pas nouvelle au sein des universités. Elle est présente dans les services de la formation continue réglementée par les lois de 1971 où l'apprenant est incité à prendre en charge en ou en totalité les frais de formation au titre de la formation professionnelle continue. Néanmoins, le transfert des campus numériques à des services de formation continue n'a pas toujours été simple. En effet, comment céder un projet qui a demandé tant d'efforts et d'énergie à un service de l'université qui ignorait parfois même son existence ? Certains campus numériques comme l ' « E-miage » ont été contraints d'intégrer les services de formation continue et leur exploitation a rencontré deux contraintes majeures. Tout d'abord, un cadre législatif en matière de formation à distance qui a du mal à franchir les portes de l'université même si la circulaire du 20 juillet 2001 de la DGEFP 22 le rappelle bien. Ensuite, les règles administratives ont du mal à intégrer un fonctionnement particulier des formations à distance. Rappelons que les rémunérations du tutorat et de la conception des cours sont comptabilisées en heures de présence de l'enseignant devant des étudiants. Ils n'est pas étonnant que certains agents comptables soient surpris par une telle démarche et suspendent le traitement de ce type de dossier. Entre la complexité du contexte et l'absence de cadre réglementaire régissant le fonctionnement particulier de la formation à distance, les services de formation continuent se sont données du mal – et continuent à le faire pour certains d'entre eux - pour faire fonctionner un dispositif considéré comme un « corps étranger » au sein de l'université (Sidir et Cochard, 2003). D'autres responsables se sont orientés vers un marché très particulier, celui des pays du Sud, basé essentiellement sur des aides et des financements d'organismes non-gouvernementaux. Alors que certains d'entre eux ont accompagné ce mouvement par un transfert de compétences pédagogiques, organisationnels et techniques dans les pays visés, d'autres se sont contentés d'un transfert de produits « clefs en main » et de services « tout prêts » pour tirer des recettes des frais d'inscription sans tenir compte ni des besoins locaux, ni de la diversité culturelle et linguistique. Les difficultés que la mise en place de « campus numériques français » ont entraînées ne doivent pas laisser sous silence l'impact que ces campus numériques ont pu avoir – au-delà même du fonctionnement financier des établissements du supérieur - sur l'organisation même des universités et les pratiques éducatives. Même s'ils ont fait l'objet d'affrontements, de contestations et de débats dans les arènes universitaires, nul ne peut nier la dynamique inédite d'acteurs autour de ce mode d'enseignement qu'ils sous-tendent et qui a montré à quel point il pouvait ne pas être fédérateur. Le mouvement de mise en place de consortiums entre établissements a dépassé le cadre comptable du partage de la note de frais. Les engagements dans l'organisation de ces campus numérique ont éveillé les responsables sur le retard ou l'avancement de leur stratégie en matière de TICE et ont permis à certains enseignants de remettre en cause leurs pratiques voire leurs modèles pédagogiques. Il apparaît que les campus numériques ont été une occasion de fusionner la pédagogie et la technologie dans des nouveaux systèmes d'interaction et de collaboration entre établissements universitaires d'une part et enseignants du supérieur d'autre part. Aujourd'hui les stratégies politiques en matière de TICE ont considérablement changé et les plus récentes actions telles que le B2i 23, C2i 24, le MiPE 25 et la clé USB 26, etc. marquent la fin des controverses. Ne témoignent-elles pas d'une autre approche, plus prudemment constructive dans le processus d'intégration des TIC dans le système éducatif ?
Cet article est construit autour de deux points forts. Il porte d'abord un regard critique sur la modernisation de l'enseignement supérieur par le recours à l'enseignement à distance pour aborder par la suite les problèmes de déploiement de ce mode d'enseignement au sein des universités. Au-delà des aspects technopédagogiques souvent évoqués pour expliquer ces difficultés, l'article défend la thèse selon laquelle les orientations politiques des établissements et les préoccupations économiques ont fortement pesé sur les structures et sur les stratégies de l'insertion de ce mode de formation dans les universités. Pour conforter cette hypothèse, l'article s'appuie sur les résultats d'études menées sur le consortium « e-miage » et sur le dispositif de formation à distance de l'Université de Picardie.
sciencesInfo_10-0384089_tei_DN_103_0107.tei.xml
termith-455-communication
Avec le recul, je ne suis pas sûr que Le Jeu de la mort restedans les mémoires pour les raisons qu'auraient souhaitées ses auteurs : unedénonciation définitive du pouvoir de la télévision. Il ne semble pas, en tout cas ,que le public qu'il s'agissait de convaincre ait été ébranlé au point de moins laregarder. Force est de constater qu'il n'y a pas un « avant » et un « après »l'émission de Christophe Nick. Aucune prise de conscience massive qui aurait pousséune large frange du public à abandonner son passe-temps favori, aucun effet non plussur la politique de programmation des chaînes ou sur la production des programmescondamnés, tels ceux de la téléréalité. Alors pourquoi en parler ? Au moment de memettre à la rédaction de cet article, cette question revient avec insistance et jesens bien qu'elle en conditionne l'aboutissement. Elle se pose d'autant plus pourmoi que l'auteur du Jeu de la mort supporte si peu lacontradiction qu'il incite parfois les contempteurs de son entreprise à se taire .Ayant eu moi -même l'occasion de critiquer dans les médias son documentaire et dedialoguer avec lui sur un plateau de télévision, j'eus ainsi la surprise, un jour demai 2011, de lire ce commentaire sur mon blog, signé Christophe Nick : « S'il vousplait [sic] monsieur Jost : oubliez -moi, continuez àdélivrer vos messages où bon vous semble mais sans moi ,vous n'avez pas besoin d'alibi ou de chiffon rouge pour tenter un exercice depertinence ». Pas facile de se lancerdans l'analyse d'un programme quand son auteur vous demande de vous taire ! Pourquoiune telle hargne ? Simplement parce que j'avais écrit, à un tout autre sujet : « Depuis les années 40 au moins, avec notamment les travaux d'Adornosur l'industrie culturelle, les discours les plus audibles sur les médias sont ceuxde ses contempteurs, qui affichent périodiquement le mépris qu'ils leur inspirent .Tout a été dit et on assiste à une répétition incessante des mêmes discours dedégoût, de Bourdieu à Christophe Nick, en passant par les germanopratins du magazinePhilosophie, jusqu' à Montebourg et Mélenchon ». Cette seule expression « dégoût de la télévision » suffit à déclencher les foudres decelui qui écrivait dans son documentaire : « Notre expérience pose donc clairementla nature du pouvoir de la télévision [… ]. La télévision peut sans contestationpossible organiser demain la mort d'un individu en guise de divertissement ». Jen'avais pas compris qu'il s'agissait d'une déclaration d'amour… Contrairement auprocès de la télévision qui se déroulait sur le terrain du téléspectateur, laréponse de Christophe Nick se situait du côté du métier et du statut professionnel :« Je n'ai pas le dégoût de la télé : j'y travaille depuis des années, écrivant ,réalisant et produisant des documentaires pour le service public et Canal Plus ». Cedéplacement de l'argumentation sonne comme le recul d'un réalisateur qui se rendcompte, après coup, que son réquisitoire contre la télévision dans le cadre même dela télévision peut porter préjudice à sa carrière, d'autant plus que l'audience duprogramme n'a pas été à la hauteur des espérances de la chaîne et, surtout du budgetdépensé. Comme on voit, ma question initiale, « Pourquoi parler du Jeu de lamort ? », en recouvre une autre : « Puis -je parler du Jeude la mort ou dois -je “oublier” Christophe Nick ? ». La réponse estévidente : il faut oublier l'arrogance coutumière de certains producteurs detélévision qui voudraient qu'on reçoive les émissions comme eux, et exercerlibrement notre droit d'analyse. À cet égard, les réactions de l'auteur ou, dumoins, certaines réactions de l'auteur (je laisse de côté les médisances et lesattaques personnelles) sont des éléments intéressants dans la mesure où elles sontdes symptômes de certaines ambiguïtés du programme qu'il a réalisé. Les raisons quimotivent un retour sur ce programme, disais -je, ne sont peut-être pas cellesqu'auraient souhaitées les auteurs. Quelles sont-elles alors ? La première est aucentre de l'article tout à fait passionnant de Brigitte Le Grignou et Érik Neveu( 2011), à savoir l'évaluation scientifique des propos tenus par le documentaire .Globalement, on le verra, je m'accorde avec leurs critiques et leur argumentation .En me penchant sur la réalisation de l'émission, je prolongerai leur évaluation parune interrogation sur la prétendue adaptation du protocole de l'expérience deStanley Milgram. La deuxième raison est plus proprement télévisuelle : la diffusion ,la programmation et la réception de cette émission nous apprennent plus sur lefonctionnement de la télévision et les téléspectateurs que le documentairelui -même. En fin de compte, Le Jeu de la mort, au-delà de sonpropos, pose la question suivante : « Comment critiquer la télévision à latélévision ? ». D'abord, l'article de Brigitte Le Grignou et Érik Neveu confirme qu'une émissionde télévision commence bien avant sa diffusion, par les promesses et le baindans laquelle elle est immergée. Faut-il pour autant parler d'un « pacte deréception » ? Comme j'ai eu maintes fois l'occasion de l'écrire, je ne le pensepas. Un pacte suppose, d'une part, une formulation claire de la relation dutéléspectateur au texte ou au document, quel qu'il soit, comme le « pacteautobiographique », par exemple, qui engage le lecteur à prendre le récit pourréel ou plutôt « factuel », comme disent les narratologues, et non pour unefiction; d'autre part, il suppose un accord, fût-il implicite, entre les viséesde l'émetteur et le mode de réception. Or, ce que montre l'ensemble de lacommunication de cette émission, depuis sa promotion jusqu' à sa réception, c'estun malentendu profond sur son sens et sur la façon de le regarder. Une foisencore, je préfère donc considérer la promotion de l'émission comme une promesse qui n'engage que celui qui la fait. Maislaissons de côté cette discussion théorique, qui ne remet pas en cause laméthode de Brigitte Le Grignou et Érik Neveu et relisons le « florilège detitres » de journaux qu'ils nous proposent. Un premier constat s'impose : ce quemet en avant la presse écrite n'est pas le genre de l'émission ni même saprétention scientifique, mais son aspect purement spectaculaire : « Sur leplateau, face à face, un tortionnaire et sa victime. Glaçant » (Télé Obs, 13-19/03/10); « Un documentaire en deuxparties simplement fracassantes [. .. ]. Âmes sensibles s'abstenir » (TV Magazine, 13-19/03/10); « Des candidats prêts à entorturer d'autres pour complaire à la caméra » (Libération, 17/03/10); « La télévision serait-elle devenue mûre pourtuer ? » (Le Progrès, 03/03/10), etc. Ces titres fontcertes écho au dossier de presse qui présente Le Jeu de lamort de la façon suivante : « Et si la mort en direct devenait undivertissement ? Les dérives de la téléréalité sont graves. Violence, tortures ,humiliations dominent les programmes dans le monde entier. La télévisiondétient-elle un pouvoir spécial ? Dans les années 60, une expériencepsychosociale prouvait que… ». Néanmoins la comparaison entre ce document publicitaire et les articles publiésdans la presse fait apparaître deux, trois glissements significatifs. D'abord ,la généralisation du propos : de la téléréalité on passe à la télévision engénéral; les titres de journaux ne posent plus la question des dérives d'ungenre, mais celle du rôle d'un média. Ensuite, la mise au second plan del'expérimentation scientifique : il faut entrer dans le corps des articles ou ,au moins, dans leur chapeau, pour y trouver trace de l'expérience de StanleyMilgram. En somme, ce qui est au centre du battage médiatique, c'est lecaractère sensationnel du programme et la peur qu'il peut – qu'il doit –provoquer en nous. On imputerait volontiers ce glissement à l ' habitus de la presse, si les expressions mises en avant, notamment« glacer » et « glaçant », n'étaient au cœur des interviews données parChristophe Nick. Ainsi, à la question « Comment avez -vous eu l'idée de reprendrel'expérience de Milgram ? », répond -il : « J'ai retrouvé par hasard son livredans une brocante. Et peu de temps après, j'ai vu Le maillonfaible. Tous ces gens abjects qui s'entre-éliminent, cela m'a glacé lesang ! J'ai eu l'impression qu'un palier avait été franchi, que c'était unemétaphore de notre époque » (Télé-2 semaines ,13-26/03/10). Cet exemple du Maillon faible sera reprisdans de nombreux médias. La confusion entre la condamnation de la téléréalité etcelle de la télévision est donc savamment entretenue par l'auteur qui metl'accent sur les effets escomptés de son documentaire sur les téléspectateurs .Il s'agit plus de promouvoir un événement télévisuel qu'une argumentationscientifique. Enfin, il faut rappeler que la promotion dont a bénéficié ladiffusion de ce programme n'a pas eu d'égale depuis LoftStory. Pour autant, est -ce que, comme le soutiennent Brigitte leGrignou et Érik Neveu, tous les journalistes « acceptent la définition etl'interprétation des résultats » ? Différents éléments obligent à répondre parla négative. Ayant été mêlé de très près au lancement de ce documentaire, je me permetsd'apporter mon propre témoignage en tant qu'il fournit quelques éléments decompréhension. D'abord, Le Jeu de la mort est sans doutel'un des premiers programmes de France Télévisions qui ait bénéficié descompétences de la nouvelle responsable de la communication online des chaînes du Groupe France Télévisions et du Club FranceTélévisions. Quelques semaines avant la diffusion, celle -ci m'a proposéd'inviter à la projection organisée pour les journalistes, via mon blog, les gagnants d'un jeu de devinettes que je soumettraisaux lecteurs de mon blog et qui concernerait l'expérience de Stanley Milgram. Laprojection eut lieu le 15 février 2010, en présence de toute l'équipe du film etde la directrice de l'unité de programmes documentaires, Patricia BoutinardRouelle. Contrairement à ce qu'on pouvait attendre, la salle de journalistes futassez froide et de nombreux doutes furent exprimés quant à la scientificité del'expérience. Jean-Léon Beauvois fit montre dans ses réponses d'une agressivitécertaine. Il me semble donc très rapide d'affirmer que, pour les journalistes ,la démonstration est faite que la télévision/téléréalité peut nous transformeren tortionnaires. Peut-être, parce que j'avais mis en cause le protocole del'expérience et que j'avais subi une réponse insultante du psychosociologue enchef, peut-être par habitude, les journalistes furent assez nombreux à medemander d'apporter la contradiction à Christophe Nick. En quelques jours ,j'intervins dans plus d'une douzaine de médias – presse écrite radio outélévision – et je fus même opposé à l'auteur du Jeu de lamort sur le plateau de Médias, le magazine (France 5). Tout cela pour dire que les doutes qui avaient été émis le jour dela projection apparurent à la surface médiatique au moment de la promotion, mêmesi, comme c'est l'habitude journalistique, on choisit un expert extérieur pourl'exprimer. Ainsi mes interviews furent-elles titrées de la façon suivante :« On ne peut pas condamner la télévision en général » (L'Humanité, 17/03/10); « Il faut arrêter de toujours diaboliser latélévision » (Métro, 17/03/10); « Christophe Nick a unevision apocalyptique de la télé » (TV Grandes chaînes ,18/03/10); « La télé est-elle nocive ? non. Cedocumentaire joue sur les peurs » (France-soir 17/03/10); « Faut-il éteindre nos télévisions ? Débat. Christophe Nick soulèvetrois questions clés. Les réponses qu'il y apporte sont discutables : la téléest-elle dangereuse ? Jusqu'où peut-elle aller ? La télé modèle -t-elle noscomportements ? » (Télé2semaines) .Les voix ne furent donc pas unanimes pour accepter lesthèses du film et je ne vois guère d'indicateurs qui prouvent son succès, que cesoit la réussite du producteur-auteur, qui conforterait sa position ou celle dela chaîne, qui affirmerait du même coup les « valeurs du service public ». Dupoint de vue de l'audience, qui reste l'un des premiers indicateurs objectifs dusuccès d'un programme, Le Jeu de la mort est un écheccuisant, comme le résume assez bien ce titre de France-Soir (18/03/10) : « Le jeu de la mort atué l'audience. Seuls 3 millions de téléspectateurs ont regardé le doc choc deFrance 2. Un four monumental à 2,5 millions d'euros » (19/03/10). Lestéléspectateurs ont préféré ce soir -là Louis la Brocante (4 millions de téléspectateurs) ou New York Sectioncriminelle (7 millions de téléspectateurs). Dans la mesure où le succès d'une case de la grille est un ratio entre le publicattiré par un programme et son coût, d'un point de vue économique, le programmeest une catastrophe : quand on sait qu'un épisode de série américaine coûte de100 000 à 200 000 euros, la rentabilité de la case horaire est très médiocre. Ladirectrice de l'unité de programme comme l'auteur du film, qui n'avaient paséconomisé leur présence médiatique 15 jours auparavant, sont d'ailleurs auxabonnés absents, tandis que la présidente de l'Association d'entraide des usagesde l'administration des services publics et privés lance : « Jeter les denierspublics comme ça, c'est incroyable ! Il n'y a plus de limites ! C'est révoltant .On ne doit pas laisser la porte ouverte à ce genre d'expérience. Le producteurdoit être sanctionné » (ibid.). L'ire de certains quantà l'argent dépensé est à la mesure du battage médiatique du programme. Dès lors ,Christophe Nick se trouve un peu dans la même situation que Leos Carax aprèsl'échec des Amants du Pont-Neuf (1988) : la confiance qu'il inspirait s'est érodée et les chaînes risquentde regarder à deux fois ces projets. Quant à l'image du service public, loind' être rehaussée, elle se trouve plutôt rabaissée. D'autant qu'au même moment ,deux anciens ministres socialistes, Paul Quilès et Marie-Noëlle Lienemann ,portent plainte contre la direction de France 2 et les réalisateurs del'émission pour montrer « qu'il y a des limites à ce que peut montrer – même aunom de louables intentions – ce média fort qu'est la télévision » .Interrogé à l'époque, Christophe Nick juge l'action « consternante » et« absurde » .Je n'ai pu trouver les suites données à cette plainte; cependant, la réactiondu réalisateur éclaire sa hargne quand on parle de son dégoût de la télévision :en voulant montrer jusqu'où la télévision peut aller, il est allé lui -même troploin et n'a sûrement pas redoré l'image du service public. De ce point de vue ,les deux ministres ne font qu'exprimer un sentiment partagé, comme on le verra ,par une partie du public. Le démontage épistémologique du Jeu de la mort parBrigitte Le Grignou et Érik Neveu pointe les erreurs suivantes : 1. L'usage constant des pourcentages et des résultats chiffrés pour « fairescience » et, en particulier, le fait que le taux d'obéissance est supérieur( 81 %) à ce qu'il fut dans l'expérience de Stanley Milgram (62 %). « Cetterevendication de produire un taux d'obéissance sans précédent n'a aucunfondement », puisque, entre les années 60 et aujourd'hui, l'expérience a étéreproduite de nombreuses fois et que des taux supérieurs ont été atteints àd'autres reprises. 2. L'émission ne prend pas en compte la dimension sociale; elle réduit lefonctionnement télévisuel à la seule dimension psychosociale. L'expérience neprend pas en compte de déterminants sociaux. Si la composition de l'échantillonn'est pas indiquée dans le film, les renseignements que j'ai trouvés sur sastructure vont à l'encontre de ce qui aurait pu sembler « vraisemblable », àsavoir que « l'agence de casting sollicitée se soit employée à constituer ungroupe à la composition proche de la population française » (Le Grignou, Neveu ,2011) : « 80 candidats de classe moyenne (soit ce qu'on appelle en jargon descatégories socioprofessionnelles B et C, c'est-à-dire en gros de Bac-2 à Bac+3 ,en bonne santé, trois catégories d' âge… surtout condition importante. Il nefallait pas que les personnes soient déjà passées à la télé ou même soient endemande. Évidemment, il était nécessaire qu'elles acceptent d' être filmées. Ilne s'agissait pas d'un panel représentatif de la population française, commedans un sondage, mais d'un échantillon obéissant aux critères scientifiques deStanley Milgram, afin que les résultats puissent être comparés et éventuellementrepris à l'identique dans dix ou vingt ans » (Nick, Dossier depresse). Malgré l'hétérogénéité de cet échantillon, qui mélange desgens sans diplômes et des titulaires d'un bac+3, à aucun moment les statutssociaux ne sont indiqués aux téléspectateurs et l'analyse des résultats ne s'yattarde pas. La seule prise en compte des csp àl'exclusion de critères plus fins comme, par exemple, la détermination de laprofession en fonction de l'acquisition de capital économique ou culturel, lemanque d'intérêt pour l'appartenance politique ou le sexe ne peuvent évidemmentpas mettre en évidence des faits comme ceux relevés par Laurent Bègue et MichelTerestchenko (Le Grignou, Neveu, 2011), que « le fait d' être engagé à gauche etfemme accroît de manière non marginale la probabilité de résister auxinjonctions ». Quant à la conformité possible de l'échantillon de l'expérience2010 dans la société française avec celui formé à partir de la sociétéaméricaine des années 60 et celui de la société française du futur, elle laisseperplexe. Tout autant que ce recrutement de candidats parmi une population quine soit pas « en demande » de passer à la télévision ! Fait-on la démarche devenir voir un producteur en vue d' être recruté pour un programme sinon vraimenton se fiche de paraître à la télévision ? 3. L'expérience repose sur des lieux communs implicites chez les observateurs ,notamment sur l'hypothèse décliniste qui voit dans latélévision d'hier un âge d'or. J'ajouterai que cette attitude est singulièrementsensible dans le dossier de presse : « La télévision, de ses débuts aux années 70, déclare ChristopheNick, s'est développée sur le modèle de la fenêtre sur le monde. On nousmontrait là où nous n'irions jamais. Jusqu'aux premiers pas sur la Lune. C'estune formidable promesse : la culture pour tous, etc. Mais enfin, dès qu'onretirait cette couche culturelle, il restait la main du pouvoir, l'informationsous contrôle et la diversion : “Pensez à autre chose, regardez ailleurs, nenous emmerdez pas ! ». Depuis le début des années 80, avec l'exploration del'intime, la télévision est entrée dans une seconde phase ». Sautant d'un genre à l'autre pour retracer l'histoire de la télévision – de la« fenêtre sur le monde » à la culture pour museler l'ensemble parl'information –, Christophe Nick opère le réductionnisme bien connu – dont leSur la Télévision. Suivi de L'emprise du journalisme de Pierre Bourdieu (1996) est un parfaitexemple – des programmes à l'information qui commande l'ensemble et résume àelle seule la télévision. Cette pensée binaire, qui ne voit que deux périodesdans l'histoire de la télévision, repose certes sur le mythe d'un « âge d'or » ,mais elle représente surtout l'un des obstacles épistémologiques majeurs desdiscours sur la télévision : le paradigme avant/après (dont témoigne à sa manière l'opposition paléo-/néo-télévision). Le premiertemps, sans aucune importance pour ces pseudo-historiens, finit là où ce qu'ilsdénoncent doit commencer (la télé - trash, la télé del'intimité, peu importe). Or, si Christophe Nick connaissait un peu mieuxl'histoire de la télévision ou s'il la caricaturait un peu moins, il aurait puciter des expérimentations qui ont été poursuivies par le Service de larecherche de l ' ortf et, même s'inspirer d'une émissioncomme Vocations sur laquelle je reviendrai infra. 4. Brigitte Le Grignou et Érik Neveu épinglent cette phrase lue dans L'expérience extrême (Nick, Eltchaninoff, 2010 : 172) :« Là où, il y a 50 ans, un peu plus de 60 % des sujets obéissaient auxscientifiques et allaient jusqu'au bout de la série de décharges, nous sommesaujourd'hui 81 % à accepter d'administrer des chocs électriques ». Pour eux, ce passage est placé sous le signe de deux« mythologies » télévisuelles : « Le déterminisme technologique qui prête auxmédias de masse des effets massifs; la pensée magique qui attribue à latélévision, grand sorcier, un pouvoir à la fois puissant, mystérieux etmaléfique, dont on ne sait comment il agit sinon qu'il est doté d'une forcecontagieuse » (ibid.). Certes. Mais ce qui me frappeplus encore, c'est que cette citation est emblématique de la façon de raisonnerdes auteurs de l'expérience : d'un jeu mettant en scène des candidats dontChristophe Nick affirme qu'ils ne sont pas représentatifs de la populationfrançaise, on tire des conclusions quantitatives sur une communauté, peu claired'ailleurs, qui représente au moins les Français et, pourquoi pas ?, pas leshommes en général. Il s'agit là d'une induction tout à fait abusive, qui trouvesa légitimation dans l'émotion qu'elle provoque : ces hommes, dans l'écran, quiobéissent à des ordres absurdes sont nos frères, suggère -t-elle. C'est selon lamême méthode que les auteurs sont passés de la téléréalité à la télévision engénéral. 5. Enfin, l'article de Brigitte Le Grignou et Érik Neveu pointe « l'évacuationdélibérée du public », les téléspectateurs étant toujours supposés se comportercomme l'échantillon de questionneurs. Et ils observent à juste titre, ens'appuyant sur les expériences célèbres de David Morley ou Elihu Katz et TamarLiebes, que les mécanismes d'influence de la télévision sont loin d' être aussimécaniques que le croient les auteurs du film. Mais, au-delà de laméconnaissance des théories de la réception dont témoignent les« scientifiques » qui ont monté l'expérience, ce qui doit être interrogé, c'estla pétition de principe qui pose comme équivalentes les réactions desquestionneurs et celles du téléspectateur. En effet, le film passe brutalementde l'obéissance de 81 % des candidats à « nous » qui sommes soumis au pouvoir dela télévision, à nous qui la regardons. Alors qu'il existe un véritable publicdans le dispositif, les auteurs ne s'interrogent jamais sur ses comportements .Les conditions du tournage montrent d'ailleurs que rien n'a été fait pour entenir compte. Pour comprendre le comment et le pourquoi de ce « point aveugle » ,il faut laisser de côté les discours du psychosociologue ou les aphorismes (dutype « la télévision dispense de faire l'amour » (Nick, Eltchaninoff, 2010 :281) et examiner ce que dit le dispositif lui -même. C'est ce que je vaism'employer à faire à présent. Revenons au point de départ du programme qui est de transposer l'expérience deStanley Milgram : « Comparez les deux situations, nous dit le commentaire ,suppose que tous les paramètres de l'expérience soient respectés ». On recrutedonc des candidats dans les mêmes csp (voir supra ce qu'il faut en penser), on leur donne 40 euros ,équivalents aux 4 dollars des années 60, on donne le même but au jeu – retenirune liste de mots –, on calque les ordres de l'animatrice sur ceux duscientifique. .. Tout est semblable sauf que, dans un cas, il s'agit d'uneexpérience scientifique conduite dans un austère laboratoire avec des hommes enblouse blanche et, dans l'autre, d'un plateau clinquant, avec lumières, musiqueet public criant « la for-tune ! » ou « châ - ti - ment ! ». Cette différence de contextes'observe même dans les instruments qui rendent possible l'expérience : alorsque le questionneur de Stanley Milgram a devant lui quelques interrupteurs etcurseurs électriques, celui de « l'expérience extrême » a de grosses manettessur un éventail de zones aux couleurs criardes, qui sont à l'image de l'universde pacotille des jeux télévisés. Contrairement à Brigitte Le Grignou et ÉrikNeveu, je ne pense pas que « la dimension situationnelle est bien fondée » ,parce qu'il y aurait dans les deux cas le « poids d'une autorité symbolique ,qui, ici, n'est pas la Science à majuscule, mais une animatrice qui incarnel'Institution ». D'autant que Christophe Nick et Michel Eltchaninoff nient quela télévision soit une institution. Après coup, certains « obéissants » disentqu'ils ont été jusqu'au bout parce qu'ils ont compris qu'ils étaient dans un jeu( « Je me suis laissé avoir parce que je suis dans un jeu parce que je suis dansun théâtre »). Mais les expérimentateurs refusent d'en tenir compte et s'entirent par des rationalisations assez peu rationnelles : « Dans La Zone Xtrême ces questionneursfont un pari fou, la télé ne peut pas oser ça, ils n'en savent rien mais dans ledoute ils choisissent de faire confiance à l'autorité. Ils ne se sont pas levéspour crier à la supercherie. Tous se sont pliés à la règle du divertissement. Lespectacle continue ». Pourquoi un « pari fou » ? N'ont-ils pas, au contraire, parfaitement analysé lasituation sans avoir besoin de se lancer dans un pari ? L'annonce passée par lesproducteurs pour recruter les candidats n'était-elle pas en elle -même unegarantie de moralité ? « rbri recrute des candidatspour mettre au point un nouveau jeu télévisé pour FranceTélévisions ». Qui peut imaginer que le service public fasse unspectacle fondé sur la torture ? La moindre des choses pour dénoncer les excèsde la télévision commerciale, puisque c'est bien elle qui est constamment dansle collimateur, eût été de faire croire aux candidats que le jeu était destiné àune chaîne privée. Dans l'explication donnée par le commentaire, ce qui est plusétonnant c'est l'aveuglement dont il témoigne : pour maintenir l'hypothèse dedépart sur l'obéissance, on affirme que le candidat a fait confiance àl'autorité, mais on se garde bien de la qualifier. Est -ce encore l'animatrice ,le public, le « système télévisé » ? Non, c'est « la règle du divertissement » !Règle qui s'applique à tous les jeux, qu'ils soient télévisuels ou non. L'auteurreconnaît donc bien que le genre auquel appartient une émission agit sur laconduite du candidat et, ce faisant, s'il allait jusqu'au bout de sonraisonnement ou l'analysait tout simplement, il comprendrait qu'il a transforméen profondeur le protocole de l'expérience. Entre le monde de la science, oùchacun travaille pour un progrès commun, celui de l'humanité, et le mondeludique, il y a un gap que les candidats sentent trèsbien. Malgré la volonté affichée des instigateurs de LaZone Xtrême de « respecter » les paramètres del'expérience de Stanley Milgram, il est difficile de considérer commeéquivalentes les injonctions « L'expérience exige que vous continuiez » et « lejeu exige que vous continuiez ». Le glissement de la téléréalité au motfourre-tout « télévision » n'est donc pas qu'un effet rhétorique qui permet detenir un discours plus effrayant, c'est aussi l'indice d'une absence deréflexion théorique sur ce que j'ai appelé les « mondes de la télévision ». Selon Christophe Nick, l'origine du projet en témoigne, ce Maillon faible qui lui a « glacé le sang », avec « tous ces gensabjects qui s'éliminent ». Le livre y revient : « Le concept est terrifiant : lecandidat ne gagne plus parce qu'il est le meilleur, mais parce qu'il empêche lesautres de gagner [… ]. Laurence Boccolini apprenait à tout le monde, juste avantles infos, que, pour devenir un ‘ winner ', il faut être une ordure » (ibid. : 26). Ceux à qui il est arrivé de regarder cette émission, comme moi, ne peuvent êtrequ'étonnés des mots employés : « abjects », « terrifiant », « ordure ». .. Debiens grands mots pour un jeu à qui l'on peut tout juste reprocher son côtégrandguignolesque, avec son animatrice déguisée en grande prêtresse, jouantostensiblement la maîtresse sévère. Que la stratégie des candidats les conduiseà certains moments du jeu à éliminer celui qui est en position de gagner estassez courant dans l'univers ludique sans qu'il soit nécessaire d'y voir unedérive « terrifiante » de notre société ou des « gens abjects ». Ou alors, ilfaut aussi interdire le « plouf-plouf (ou pouf-pouf, ou ploum-ploum, ou trou-trou, etc. )[ qui] permet de choisir un joueur en éliminant successivement tous les autres .Un des participants joue le rôle de meneur. Tous les enfants se mettent encercle, souvent accroupis, avec un pied au centre de façon à ce que les pointesdes chaussures se touchent ». En réalité, Christophe Nick ne veut pas distinguer entre les genres télévisuels ,alors même que cette distinction conditionne la réception. C'est aussi patentquand il déclare : « On est aujourd'hui à disséquer des cadavres en public surChannel 4, à les ouvrir en deux dans les Experts pouraller y voir ». Cette fois, il refuse de distinguer la posture spectatorielledevant la réalité et devant la fiction, faisant comme si elles étaientsemblables. Encore une fois, le réalisateur-producteur ne va pas jusqu'au boutde son raisonnement : si vraiment il n'y a aucune différence entre la violencedu monde et la violence feinte par la fiction, pourquoi condamner la télévisionplus qu'Hollywood ? Cela dit, ce refus de distinguer entre les mondes de latélévision n'est pas nouveau. Il fonde de nombreuses critiques de la violencetélévisuelle qui amalgament réalité et fiction, pour traiter à égalité laviolence d'un accident filmé et celle d'un chat aplati par une enclume qui luitombe sur la tête dans un dessin animé, et qui dénient l'attitude ludique devantcertaines images, ce qui conduit à inclure au dossier de la violencetélévisuelle certains jeux comme N'oubliez pas votre brosse àdents pour leurs « épreuves humiliantes » (Frau-Meigs, Seibel, 1997 :66). Cette confusion des genres dans une grande marmite nommée « télévision » estassez étonnante chez un psychologue, pour qui a en tête le fameux texte d'OctaveMannoni (1969) sur le « je sais bien mais quand même » propre à la fiction .Pourtant Jean-Léon Beauvois (in : Nick, Eltchaninoff ,2010 : 286) la fait sienne : « Les publicités, les séries, les jeux, lestalk-shows créent des modèles, des façons d' être modales qui s'immiscent dansles mémoires et qui n'agissent pas par adhésion, mais par simples effets dedisponibilité ou de familiarité ». Pour éviter l'objection de ceux quiexpliquent leur attitude par le fait qu'ils ont su qu'ils étaient dans un jeu ,Christophe Nick et Michel Eltchaninoff sont prêts à tous les méandres de lapensée : « Ainsi, ceux qui participent à l'expérience, et qui sont desêtres élevés par la télévision, mais aussi peut-être les téléspectateurs ,perdent leurs repères. Ils confondent fiction et réalité. Ils torturent leurssemblables en se disant que c'est pour jouer, mais surtout pour bien jouer lerôle que la télévision attend d'eux – tout en sachant que c'est peut-être réel »( ibid. : 276). Si les candidats disent que leur obéissance feinte est dictée par le statutludique de l'expérience, c'est qu'ils confondent réalité et fiction ! J'avoueque, en ce point, la logique du raisonnement m'échappe : dire qu'ils « torturentleurs semblables » est évidemment faux puisqu'ils pensent qu'ils feignent detorturer; il faut une certaine mauvaise foi pour postuler qu'ils savent « quec'est peut-être réel », alors même qu'ils n'ont pas envisagé cette possibilité .Ces inférences sur ce que les candidats ont dans la tête, mais qu'ilsn'expriment pas, est d'ailleurs un mode d'explication récurrent des auteurs. Ledocumentaire comme le livre qui l'accompagne restent silencieux sur deux aspectsdu protocole d'expériences pourtant fondamentaux pour juger de son bien-fondé .Le premier touche à la logique du jeu. Le candidat sait qu'il s'agit d'unpilote, qu'il n'y a donc rien à gagner, et que l'ensemble de l'émission relèvedu ludique, comme en témoigne ce dialogue entre le faux producteur et lecomédien qui joue Jean-Paul : « Producteur : “C'est donc une émission test. Elle n'est pasdestinée à être diffusée. Nous travaillons sur ce concept depuis des mois. Si lachaîne qui est notre partenaire trouve le pilote convaincant, alors le jeu serabientôt à l'antenne. En général, il y a beaucoup de modifications entre unpilote et le rendu antenne ”. Jean-Paul : “Ok… On est filmé, on joue, maisc'est pour de vrai, c'est un test ”. Producteur : “Exactement. Vous allezjouer, mais vous ne gagnez rien” ». Ce dialogue écrit d'avance avertit donc bien le candidat que tout est joué et ilmet dans la bouche du comédien la confusion développée par les auteurs dulivre : c'est joué, mais c'est pour de vrai. Curieuse définition du paradoxe ducomédien. Mais, surtout, il rappelle qu'il n'y a rien à gagner dans ce test .Quand, par la suite, l'animatrice insiste auprès du candidat pour qu'il continueet lui lance : « Dans dix minutes le candidat vous remerciera », commentcelui -ci peut-il croire à cet argument puisqu'il sait que, en l'occurrence ,aucun argent n'est en jeu et qu'il fait semblant de le croire ? Le raisonnementdes psychosociologues relève ici d'une conception du langage héritée de lalinguistique structurale et qui ne tient aucun compte des acquis de lapragmatique : le sens littéral de l'énoncé sur la récompense escomptée se dilueforcément si le système des récompenses et des punitions est feint. Un autreexemple de cette naïveté nous est fourni, une nouvelle fois, par latransposition des injonctions de Stanley Milgram : le « nous assumons toute laresponsabilité » du scientifique n'est pas l'équivalent du « nous assumonstoutes les conséquences » prononcé par la présentatrice Tania Young, toutsimplement parce qu'elle appartient au service public, à France Télévisions ,dont il est difficile d'imaginer qu'il tue un candidat, dans un simple pilote ,de surcroît ! L'injonction contradictoire « on joue, mais c'est pour de vrai » se retrouve àd'autres moments de la mise en scène, notamment au moment où Tania Youngprésente le dispositif aux candidats : « Ici notre générateur à châtiments; çava de choc léger à choc dangereux. Attention, choc, il n'y pas de lésionirréversible, de toute façon c'est un jeu, nous jouons pour un million d'euros ,900 000 euros pour le candidat, 100 000 pour le questionneur ». En quelquessecondes et dans la même phrase, la présentation du dispositif affirme à la foisla réalité dangereuse de l'expérience, la dénie pour évacuer toute inquiétudesur le sort du candidat (« c'est un jeu ») et ment au public en affirmant que cejeu a un gain, et non au candidat, qui sait, lui, qu'il n'y en a pas. Encoreque, dans certains cas, le public le sache aussi. En effet, le second aspectdouteux du protocole est le public présent dans le studio. Sait-il qu'il assisteà un spectacle truqué ou non ? Le livre – non le documentaire – donne cetteréponse peu approximative : « Les deux mille personnes devaient arriver sansrien savoir de l'expérience elle -même. Elles assisteraient à quatreenregistrements d'affilé. Fatalement, dès le deuxième sujet, ellescomprendraient qu'il ne s'agissait pas d'un jeu, puisque l'acteur-élève quirépondrait aux questions des candidats serait toujours le même » (ibid. : 60). On tirerait évidemment la conclusioninverse : dès le deuxième « sujet », le public sait que c'est un jeu, que c'est« pour de faux ». Sur le nombre, on peut même penser qu'il y eut fatalement des gens qui connaissaient l'expérience de Stanley Milgram ouqui avaient vu le film I comme Icare mais là n'est pas leproblème le plus grave. Alors que les auteurs ne sont pas avares d'explications quand il s'agitd'expliquer le dispositif « scientifique » de l'expérience, ils ne nous disentpas si l'on explique au public le dispositif et, surtout, le réalisateur mêle –sans aucun avertissement, sans que le téléspectateur puisse le savoir – lepublic « naïf », celui qui découvre le jeu, et le public « complice » (celui quisait « fatalement »). La conséquence, c'est que le film mélange sciemment laréalité (= le public naïf, surpris par ce qu'il découvre) et la fiction (= lepublic qui joue son rôle et qui crie “la for-tu-ne ! » » ou « châ - ti - ment ! » en sachant qu'il n'ya pas d'enjeu véritable). En somme, ceux qui sont sincères et ceux qui ne lesont pas, ceux qui éprouvent un sentiment et ceux qui feignent de l'éprouverforment une masse indistincte, ce qui rend impossible à interpréter les « reaction cuts » sur des visages du public. On assistedonc au paradoxe suivant : pour comprendre l'emprise de la télévision sur lestéléspectateurs, on imagine la fiction qu'un candidat jouant dans un jeutélévisé les représente, mais on ne tient aucun compte du véritable public qu'ona sous la main ! Ce serait un simple paradoxe si ne s'y ajoutaient pas plusieurs contradictions .Pour les mettre au jour, il faut analyser la variante de l'expérience quiconsiste à laisser le candidat face à ses manettes en l'absence de l'animatrice .Les candidats sont-ils alors livrés à eux -mêmes ? Pas tout à fait, concède lecommentaire : « Ne reste qu'une pression sur les épaules, celle du public », cepublic dont on ne sait toujours pas s'il croit à ce qu'il voit ou s'il joue sonrôle. Résultat : 75 % des gens abandonnent, d'où cette conclusion de la voix : « La preuve est donc là, personne ne profite d'une position dedomination pour jouir en toute impunité de la souffrance des autres [… ]. Notreexpérience pose donc clairement la question du pouvoir de la télévision. Quelleest sa nature. Quelles sont ses limites ? ». Si la « question » est légitime, elle n'a pas le temps de devenir uneproblématique car la réponse tombe immédiatement : « Sur un plateau de télévision, les questionneurs sont seuls ,totalement seuls. Personne ne peut venir à leur recours [sic ]. Dans une entreprise un salarié qui reçoit un ordre lecontraignant à commettre un acte qu'il réprouve peut s'appuyer sur ses collègueset contraindre ainsi sa hiérarchie à négocier. Sur un plateau de télévision, lescandidats ne sont pas soumis à une hiérarchie, ils subissent l'emprise d'unsystème qui les écrase [… ], un système à ce point puissant que son emprise surla plupart des individus dépasse celle d'autres systèmes d'emprise comme celleque peut avoir la religion dans nos sociétés médiatisées ». Comment comprendre cette réponse ? Comment s'explique la contradiction entrel'affirmation de la solitude du candidat et la pression du public ? Commentpeut-on dire que les questionneurs sont seuls quand cent personnes hurlentautour d'eux, sauf, à postuler que nous sommes tous, tout le temps, seuls face ànous -mêmes, ce qui est, après tout, une position philosophique comme une autre ,mais pas une explication scientifique. Interrogés sur ce point, les auteursrépondent par « l'emprise d'un système » dont ils ne montrent ni les élémentsconstitutifs ni le fonctionnement. Système dont l'emprise est d'ailleurs àgéométrie variable puisque, quand il s'agit d'expliquer la « rébellion » d'uncandidat, on trouve sous la plume des auteurs l'explication suivante : « Miracled'un probable enfant de la télé absolument libre vis-à-vis d'elle » (ibid. : 194). Pour ceux qui ne croient pas aux miracles ,dont je suis, l'explication est un peu courte, non seulement parce qu'elles'appuie sur du « probable », mais surtout parce que la fréquentationcontinuelle de la télévision par un individu aurait dû accentuer son emprise. Enfait, cette contradiction n'est qu'une trace parmi d'autres des sauts continuelsdu raisonnement « scientifique » aux jugements de valeurs sans aucun fondementépistémologique. Comment peut-on affirmer que l'emprise de la télévision estplus forte que celle de l'entreprise où tout se négocie ? Combien de suicidescausés par des jeux télévisés et combien pour la restructuration de FranceTélécom ? Christophe Nick et Michel Eltchaninoff (ibid. : 235) envisagent furtivement cette comparaison, mais, là encore ,c'est la faute à la télé : « Ces suicides manifestent ce vers quoi tend lalogique de l'autorité télévisuelle appliquée au monde du travail : le passage àl'acte dans le spectacle ». En somme, quand la réalité est pire que latélévision, c'est parce qu'elle a réglé tous nos comportements jusqu' à faire deson suicide un spectacle. En ce point, le raisonnement cède le pas à un cerclevicieux sans aucune vertu heuristique, cercle vicieux qui est une machine àsusciter du sensationnel : l'emprise télévisuelle est pire que celle de lareligion. Et que celle des intégristes kamikazes qui se suicident pour réussirleurs attentats ? Le livre va encore plus loin : « La structure la plus intime de la temporalité humaine est, parelle [la télévision ], totalement prise en charge – de manière bien plus‘ ‘ pleine ' ' que dans la religion la plus stricte ou le totalitarisme le plusfanatique [… ]. Même en Union soviétique et dans l'Allemagne nazie, par exemple ,on pouvait encore chuchoter dans sa cuisine ou douter dans son for intérieur –au moins ceux qui en avaient la force morale » (ibid. :283). Avec ce parallèle avec le nazisme et le fanatisme, on atteint ce point Godwinselon lequel « plus une discussion dure longtemps, plus la probabilité d'ytrouver une comparaison impliquant les nazis ou Adolf Hitler s'approche de 1 » .Parvenu à ce point, le raisonnement n'a plus aucune prise. J'arrête là cedémontage épistémologique des thèses exposées par Le Jeu de lamort, laissant de côté bien des zones troubles, pour interroger lafonction de ces amplifications absurdes. Pourquoi parler du Jeu de la mort, demandais -je enintroduction ? Certainement pas pour ses qualités scientifiques, qui résistentmal à l'analyse, quel que soit le point de vue épistémologique adopté. Il resteque ce film est un cas d'école : aucun programme depuis LoftStory n'a eu autant de battage médiatique et, pourtant, je l'ai dit ,les résultats d'audience ont été très faibles, surtout eu égard aux sommesengagées. Cela prouve sans doute que le public de télévision est moins« obéissant » qu'on pourrait croire et que l'emprise de la télévision a deslimites. Mais quelles sont les causes de ce refus d'obtempérer aux injonctionsde la promotion ? La première cause peut être cherchée dans la structuration dudocumentaire. Notons d'abord que, du point de vue narratif, il reprend lescénario du lancement de Loft Story : mise en avant duprocessus de recrutement (en l'occurrence l'envoi de 13 000 e-mails) pour trouver les 80 candidats; description des règles dujeu; échantillon du spectacle. La bande-annonce du programme est très brutaleet n'explicite nullement qu'il s'agit d'une « expérience ». Comme celle d'unetéléréalité, elle montre des images spectaculaires sans même dire qu'il s'agitd'un documentaire : le mot « événement » surgit du fond de l'écran pourl'envahir, cédant la place à l'image du comédien qu'on attache sur sa chaiseélectrique, tandis que Tania Young énonce cette règle : « À chaque manette, 20volts supplémentaires ». Cela va de choc léger à choc dangereux (on voit ledispositif). Le candidat baisse la manette en disant « 180 volts », suscitantdes cris venant de la cabine où est enfermé Jean-Paul. Une voix over inquiétante énonce cet aphorisme : « Personne nenaît obéissant. Mais la télé peut vous obliger à le devenir ». Tania Young :« Ne vous laissez pas impressionner, continuez ». Un cri plus fort que leprécédent. « On est en zone de torture, hein ! ». La voix over conclut : « Après ça, vous ne regarderez plus le petit écran dela même manière… Jusqu'où va la télé ? de Christophe Nick, mercredi soir à 20 h35, sur France 2 ». Cette bande-annonce montre donc des images « choc »décrivant le dispositif et les cris qu'il engendre en se gardant bien de faireune « promesse pragmatique » sur le genre du programme à venir. On saitseulement qu'il est « de Christophe Nick ». Ce n'est donc pas une démonstrationscientifique qui est promise au téléspectateur ou, même, un documentaire, cepeut aussi bien être un jeu un peu plus trash que ceuxque l'on a vu précédemment. Manifestement, le producteur et/ou le diffuseur ontvoulu entretenir l'ambiguïté et attirer le téléspectateur avec des imagesspectaculaires. Cette volonté est encore plus marquée quand on entre dans lefilm. La voix de l'acteur Philippe Torreton, inquiétante elle aussi, prévient :« Ce que nous allons regarder est extrêmement dur. Il ne s'agit pourtant que detélévision et de divertissement », tandis que retentit une musique inspirée decelle qui annonce l'intervention de la voix surnaturelle de Neptune dans Idomeneo (Mozart). Se succèdent ensuite des images descascades dangereuses de Jackass sur mtv, des jeux brutaux de la télévision japonaise, puis une séquence del' Île de la tentation. Tandis qu'un couple presque nus'enlace dans les vagues, la voix commente « En France, on embauche destentateurs pour briser de jeunes couples ». Vient ensuite l'image de DerrenBrown qui met un revolver sur sa tempe : « L'animateur Derren Brown lance unpari fou : jouer sa vie à la roulette russe. Il affirme qu'il devinera dansquelle chambre du barillet son adversaire va glisser la balle ». Enfin, sontmontrées des images de dissection d'un cadavre, tirées d ' Anatomy for Beginners, diffusé sur Channel 4. Àn'en pas douter, ces images sont « extrêmement dures », même si elles ne sontpas toutes au même niveau (un couple nu dans l'eau ne vaut pas une rouletterusse). Mais, pour les rendre plus violentes, Christophe Nick n'a pas hésité àutiliser quelques procédés assez proches de ceux que l'on trouve dans latélévision qu'il condamne : le moindre est sans doute la dramatisation del'enjeu de L' Île de la tentation; le pire, laprésentation de la séquence de roulette russe. Celui que le commentaire désignecomme un « animateur » est en fait est un illusionniste et « mentaliste » trèsconnu en Angleterre qui, de surcroît, a des émissions régulières sur Channel 4 –Mind Control et Tricks of TheMind – développant des tours d'illusionnisme et de suggestions. DerrenBrown (2007 : 312) écrit dans son livre Tricks of theMind : « Je suis souvent malhonnête dans mes techniques, mais honnêtedans ma malhonnêteté. Comme je le dis dans chaque spectacle, je mélange magie ,suggestion, psychologie, distraction et savoir-faire de showman ». Quant à « l'adversaire », ce n'est qu'untéléspectateur qui a été choisi parmi 12 000 candidats pour mettre la balle dansle barillet et pour vérifier, comme dans tout tour de magie, qu'il n'y a pas detruc… Pour augmenter l'émotion du téléspectateur du Jeu de lamort, Christophe Nick a décontextualisé la séquence : de même qu'il atransposé les consignes de Stanley Milgram comme si le sens littéral nechangeait pas en fonction du contexte de l'expérimentation, il a présenté cettescène terrible en supprimant l'information centrale pour la comprendre, à savoirqu'il s'agit d'un tour d'un illusionniste célèbre. Comme si montrer un homme quicoupe vraiment une femme en plusieurs morceaux avait le même sens qu'unspectacle dans lequel un magicien accomplit ce geste sans mettre en péril sapartenaire ! Pour convaincre de la barbarie à laquelle est parvenul'audiovisuel, Christophe Nick aurait mieux fait de montrer de le film d'EdwinS. Porter, intitulé Execution of Czolgosz, dans lequel onvoit un homme mourir sur une chaise électrique et dont rien n'indique que c'estune reconstitution. Dommage qu'il date de 1915, époque où télévision ettéléréalité n'avaient pas encore été inventées ! Cette violence calculée quin'exclut pas, parfois, une certaine mauvaise foi, comme on le voit, n'a pasréussi au film. À vouloir trop faire peur, Christophe Nick a joué avec le feu ,plutôt qu'avec la mort. Une partie du public à qui s'adressait ce film a étérebutée dès le début par la violence qu'il montrait. Cette réaction s'estexprimée le lendemain sur les radios et j'ai pu la constater par les messageslaissés sur mon blog le 18 mars 2010, comme ceux -ci : « Personnellement, ayanthorreur de la violence, même feinte, je ne pouvais regarder un tel programme .J'ai bien sûr zappé une fois, car la tentation est grande. Mais n'ayant pasd'autorité qui me disait “regarde ce programme ! », je ne me suis pas soumis…C'est beaucoup plus facile de loin, bien sur, que sur le plateau » (Olivier) ;« Prétendre que la télévision peut critiquer la télévision, tout en respectantles critères d'une production de téléréalité, qui plus est assorti d'un débatmené par Christophe Hondelatte, c'est de la foutaise. Je ne sais pas à quis'adresse ce genre de programme faux-cul. En tout cas pas à moi » (Broussole) ;« Et moi je ne pense pas que le format choisi pour ce documentaire (émissionultra-coupée, remontée comme un drama avec la musique solennelle qui dénaturecomplètement la volonté de véracité de l'expérience) soit le bon » (Manuuu) .L'expérience scientifique a donc perdu en partie sa crédibilité auprès decertains téléspectateurs parce que ce documentaire, que la bande-annoncerefusait d'appeler comme tel, a utilisé des moyens audiovisuels et des procédéssensationnels qu'il prétendait critiquer. C'est d'ailleurs aussi l'argumentqu'ont employé les anciens ministres qui ont porté plainte contre ledocumentaire. Comme je l'ai écrit ailleurs, il s'agit d'un cas demonstration-dénonciation fort courante dans la télévision : on diffuse lesimages les plus trash d'une télévision lointaine, souventjaponaise, mettant en scène des scènes violentes ou repoussantes, tout enpoussant des cris horrifiés (« Pas de ça chez nous ! »). Dire que l'on ne ditpas tout en le disant (« Je ne dirai pas que tu es un crétin… ») porte un nomdans la langue : la « prétérition ». La prétérition télévisuelle qui donne àvoir d'un côté ce qu'elle condamne de l'autre est une tartufferie destinée àfaire de l'audience tout en se donnant bonne conscience (Jost, 2010). Au-delà de ces erreurs, ces implicites, ces approximations et une certaine dosede mauvaise foi, ce documentaire pose une question sérieuse : comment critiquerla télévision à la télévision ? Malheureusement, il s'engage dans une mauvaisevoie pour y répondre. Christophe Nick n'est pas le premier à s'y confronter .D'autres s'y sont essayé avant lui en empruntant des chemins plus scientifiques .Je pense notamment à ce numéro de Vocations, produit parle Service de la recherche de l ' ortf et diffusé le 2février 1969 (à 22 h 45), que j'ai analysé dans La Télévisiondu quotidien. Entre réalité et fiction (2003). Dans un premier temps ,on voit Paul Sivadon, professeur de psychologie fort connu à l'époque, discuteravec Pierre Dumayet du thème de l'interview qui allait suivre. Pendant cetteséquence, le psychologue raconte un souvenir d'enfance, selon lui déterminantdans sa vocation. Dans un second temps, le journaliste prévient soninterlocuteur que leur entretien va être enregistré. Le professeur reprend sonrécit, non sans avoir reboutonné sa veste. Bien que, sur le fond, l'anecdotereste la même, toute son énonciation s'est profondément modifiée : il transposesa narration au passé simple, l'orne de digressions et de détails pittoresques ,et accompagne l'ensemble d'une gestuelle à la fois emphatique et professorale .Pierre Dumayet reprend enfin la parole et dévoile au professeur le piège qu'illui a tendu : la première phase – la préparation de l'entretien – a étéenregistrée à son insu et chacun a pu noter la modification radicale de soncomportement dès qu'il a pensé qu'il était filmé : l'interlocuteur cordial alaissé place à un orateur pontifiant. Paul Sivadon rit de bonne grâce à observerles conséquences de cette image de soi qu'il a voulu médiatiser. Cette séquenceproduit une véritable expérimentation télévisuelle dans laquelle letéléspectateur peut juger, sans doute pas du « Pouvoir de la télévision », avecun grand « P », mais au moins du pouvoir déformant de la caméra surl'interviewé. Et le téléspectateur a appris tout en se distrayant sans recours àdes procédés que l'on veut condamner. La promotion du Jeu de la mort, comme le documentairelui -même, ont usé des procédés qu'il dénonçait, recourant systématiquement auspectaculaire, au sensationnel et aux jugements apocalyptiques. Cetteprétérition télévisuelle, qui consiste à montrer au public ce qu'on condamne ,est mise en œuvre avec succès par les chaînes privée dans de nombreux programmesqui flattent le voyeurisme du téléspectateur. Y recourir pour s'adresser à untéléspectateur citoyen était jouer avec le feu car celui -ci attend autre chosedu service public. À cet égard, Le Jeu de la mort est lesymptôme d'un service public qui a perdu son « âme » et qui ne sait plus où ilse trouve : d'un côté, il continue à vouloir « éduquer » le téléspectateur, del'autre, il garde comme priorité l'audience. À mi-chemin entre la mise en scènede la démarche scientifique et de la télévision à grand spectacle, ce programme ,qui tient tout autant du documentaire que du jeu télévisé, a échoué sur les deuxtableaux .
Bien qu'il fût l'objet d'un battage médiatique exceptionnel, Le Jeu de la mort a été un échec relatif. Cette contribution en examine les causes, depuis la promotion jusqu'à la réception. D'un bout à l'autre de la chaîne, ce programme vise d'abord à créer de l'émotion chez le téléspectateur et à lui faire peur devant les conséquences possibles du pouvoir de la télévision. En revanche, son examen détaillé empêche de le considérer comme une transposition juste de l'expérience de Stanley Milgram. En particulier, il néglige de prendre en compte la présence du public. Ce dispositif de jeu, épistémologiquement critiquable, est pourtant à la base de jugements de valeur qui touchent très vite ce « point Godwin » où le raisonnement n'a plus aucune prise. La quête du spectaculaire a finalement décrédibilisé le message scientifique. À sa manière, ce documentaire témoigne de la crise d'identité du service public de la télévision française.
sciencesInfo_13-0090580_tei_1012.xml
termith-456-communication
Les moteurs de recherche jouent un rôle prépondérant dans l'utilisation quotidiennede l'internet et la collecte d'informations, mais les interrogations des chercheurssur ces moteurs n'ont pas encore trouvé de réponses réellement satisfaisantes. Sil'on observe la concentration du marché des moteurs de recherche où il reste à peinequatre principaux concurrents – à savoir Google, Yahoo, msn et Ask –, il estimportant de porter un regard extérieur sur ces questions. En gardant cela àl'esprit, les chercheurs ont le devoir d'examiner le niveau de performance de cesmoteurs de recherche et de déterminer les mesures qui devraient être utilisées pouren évaluer la qualité afin de donner aux utilisateurs des standards objectifs dequalité. Nous savons que les critères traditionnels d'évaluation utilisés en recherched'information ne permettent pas de mesurer la qualité d'un moteur de recherche dansson intégralité. Mais la mise au point de mesures spécifiques, comme celles proposéspar exemple par Liwen Vaughan (2004) ne suffisent pas non plus. La qualité d'unmoteur doit trouver une définition plus large et intégrer des facteurs allant bienau-delà des performances de recherche d'information. Nous sommes convaincus queseule une approche intégrée de l'évaluation de la qualité peut conduire desrésultats susceptibles d' être utilisés pour le développement de meilleurs moteurs derecherche. À l'instar de la recherche d'information, de manière générale, nousobservons un changement de paradigme d'une perspective plus technique (centrée surle document) vers une perspective centrée sur l'utilisateur (Ingwersen, Järvelin ,2005). Dans un premier temps, nous reverrons les études réalisées jusqu'ici sur lecomportement des utilisateurs des moteurs de recherche et en proposerons unesynthèse. Dans la section suivante, nous présenterons un cadre général d'évaluationde la qualité des moteurs de recherche. Nous analysons ensuite l'évaluation de laqualité selon ces quatre dimensions : la qualité de l'index, l'efficacité de larecherche d'information, la qualité des fonctionnalités de recherche etl'utilisabilité du moteur de recherche. Dans la dernière partie, nous synthétiseronsles résultats et proposerons des stratégies susceptibles d'améliorer les moteurs derecherche. Il existe deux approches principales de l'observation du comportement derecherche de l'utilisateur : les méthodes super visées et celles qui ne le sontpas. Les études et enquêtes menées en laboratoire sont dites super viséeslorsque le sujet sait qu'il est observé par un chercheur. Les méthodes nonsuper visées consistent en l'analyse des historiques de transactions (transaction logs) et l'observation en direct des saisiessur les moteurs de recherche. Il est également possible d'associer les deux ,mais cette combinaison est rarement observée comme approche principale. Nousrésumerons brièvement ces deux méthodes d'observation du comportement del'utilisateur pour en déduire des paramètres d'évaluation de la qualité. Dans certaines enquêtes, on demande parfois directement aux utilisateurs commentils décriraient leur comportement de recherche. Elles donnent aussi une visionsubjective, du point de vue de l'utilisateur, sur ce qu'ils savent des moteursde recherche et de leurs services complémentaires. Des utilisateurs ayant desniveaux de connaissance différents montrent des comportements de recherchedifférents (Schmidt-Maenz, Bomhardt, 2005). Dans la plupart des cas, les études en laboratoire portent seulement surde petits échantillons et, de ce fait, ne sont pas représentatives. Il arriveégalement que les sujets, se sentant observés, essayent d'adopter une méthode derecherche plus professionnelle, par exemple en utilisant un plus grand nombred'opérateurs ou de fonctionnalités de recherche. Une façon plus représentativede collecter des informations sur le comportement réel d'un utilisateur passepar l'analyse des historiques de transactions ou les données saisies en direct .Dans ce cas, le problème est qu'on ne dispose pas d'informations complémentairessur l'utilisateur lui -même, telles ses caractéristiques démographiques et seshabitudes en général. L'étude de Marcel Machill, Christoph Neuberger, Wolfgang Schweiger et WeinerWirth (2003, 2004) est constituée de deux parties : une enquête téléphoniqueauprès de 1 000 participants et une analyse en laboratoire sur 150 sujets. Cetteétude montre que 14 % des utilisateurs de moteurs de recherche utilisent desfonctionnalités de recherche avancées. Seulement 3 % des personnes interrogéessavent qu'il est possible de personnaliser les interfaces d'un moteur derecherche. Le titre et la description des pages dans les résultats trouvés parle moteur de recherche sont très impor tants pour évaluer les listes derésultats. Pour 44 % d'entre eux, les utilisateurs sont mécontents lorsque lesrésultats n'ont rien à voir avec la requête soumise. Par ailleurs, 36 % d'entreeux rejettent ce que l'on appelle les liens morts. Marcel Machill et al. (2003) concluent leur étude en soulignant que lesutilisateurs attendent une présentation rapide des résultats, des pages derésultats claires et la satisfaction de leurs besoins d'information. ChristophHoelscher et Gerhard Strube (2000) ont obser vé des comportements de recherchedifférents selon que l'utilisateur est expert ou novice. Gord Hotchkiss (2000 )distingue différents groupes de comportements de recherche quant à l'examen despages de résultats. Par ailleurs, les utilisateurs privilégient les résultatsnaturels par rapport aux liens sponsorisés. L'analyse des historiques de transactions des moteurs de recherche montre uncomportement de recherche similaire. La plupart des études on été réalisées àpartir du moteur de recherche Excite (Jansen, 2000; Spink, Jansen, 2004 ;Spink, Jansen, Ozmutlu, 2000; Spink, Ozmutlu, Ozmutlu, Jansen, 2002; Spink ,Wolfram, Jansen, Saracevic, 2001). D'autres ont utilisé les historiquesd'Altavista (Silverstein, Henzinger, Marais, Moricz, 999; Beitzel, Jensen ,Chowdhur y, Grossman, Frieder, 2004) et Alltheweb (Jansen, Spink, 2003; Jansen ,Spink, 2006). Des chercheurs (Cacheda, Viña, 2001) ont également pu travaillersur l'historique du moteur de recherche espagnol biwe (Buscador en Internet para la Web en Español). Christoph Hoelscher etGerhard Strube (2000) ont analysé l'historique des requêtes de Fireball, unmoteur de recherche allemand. Jason Zien, Jörg Meyer, John Tomlin et Joy Liu( 2000) ont observé en direct sur une période de 66 jours les requêtes saisiessur Webcrawler. On peut aussi trouver un état de l'art général et un descriptifde toutes ces données (Höchstötter, Koch, 2008). Cette étude indique aussi lesparamètres les plus importants pour décrire le comportement de recherche del'utilisateur, comme la longueur moyenne des requêtes, le pourcentage derequêtes complexes – notamment le pourcentage de recherches sur des expressions– et la proportion de sessions de recherche où seule la première page derésultat est consultée (tableau 1). Il est évident que les requêtes sont trèscour tes. En second lieu, une partie importante des requêtes ne contient qu'unseul terme. À quelques exceptions près, l'usage des opérateurs booléens est trèsrare. L'utilisation de la recherche d'expressions est l'une des façons les pluscourantes d'affiner les requêtes. Les utilisateurs se contentent généralementd'examiner la première page de résultats. Ces faits démontrent que lesutilisateurs des moteurs de recherche formulent leurs demandes de manièreintuitive et qu'ils n'évaluent pas chaque résultat de la liste (voir égalementSchmidt-Maenz, Koch, 2006). Par ailleurs, les utilisateurs ne modifient pas lesparamètres de recherche par défaut des moteurs, car ils n'utilisent pas defonctionnalités de recherche particulières. Min Xie et al. (1998) ont proposé un cadre de référencepour mesurer la qualité des moteurs de recherche puis celui -ci a été développépar Haixun Wang et al. (1999). Les auteurs se fondent surle modèle de servqual (Service et qualité) appliqué aux moteurs de recherche( Parasuraman, Zeithaml, Berr y, 1988). Ils comparent les attentes desutilisateurs aux performances perçues des moteurs de recherche, mais nepondèrent pas les facteurs observés. Dans le cadre qu'ils proposent, il estclair qu'il manque le modèle centré sur le système d'évaluation de la recherched'information (ri). Il est intéressant de voir que, d'après cette recherche ,l'un des points principaux de l'évaluation (« les résultats de la recherche sontpertinents vis-à-vis de la requête ») ne diffère pas significativement d'unmoteur à un autre. À l'opposé de telles approches centrées sur l'utilisateur, il en est égalementune– dite système » classique » – qui essaye de mesurer la performance dessystèmes de recherche d'informations d'un point de vue plus « objectif ». TefkoSaracevic (1995) distingue deux grandes catégories d'approches pour l'évaluationdes systèmes de recherche d'informations, chacune comportant trois niveaux : lesniveaux d'évaluation centrés système– niveau d'ingénierie (e.g. performances du matériel ou du logiciel), niveau d'entrée( couverture du corpus) et niveau du traitement (e.g .performance des algorithmes); les niveaux d'évaluation centrés utilisateur– niveau de sor tie (interaction avec le système, rétroaction), niveau del'usage et de l'utilisateur (où sont soulevées des questions d'application à desproblèmes et tâches donnés) et le niveau social (qui tient compte de l'impactsur l'environnement).Tefko Saracevic (1995 : 141) conclut que les résultats d'unniveau d'évaluation ne disent rien sur la performance du même système quant auxautres niveaux d'évaluation et que « cette séparation des niveaux d'évaluationpourrait être considérée comme une insuffisance de base de toutes lesévaluations de ri ». Selon nous, ce constat s'applique également à l'évaluationdes moteurs de recherche. Seule une combinaison des deux approches, cellecentrée sur le système et celle centrée sur l'utilisateur, peut donner une imageplus précise de la qualité globale d'un moteur de recherche. C'est pourquoi nous étendons le cadre d'analyse de qualité, appliqué une premièrefois par Dirk Lewandowski (2006c), aux quatre rubriques suivantes : Qualité de l'index; elle souligne l'impor tance des bases de données desmoteurs de recherche pour obtenir des résultats pertinents et complets ;les mesures appliquées dans cette rubrique comprennent la couverture duWeb, les biais liés aux pays et la mise à jour. Qualité des résultats; c'est là que sont appliqués les tests dérivés deri classique. Comme le montre de l'analyse des mesures de ri évoquée supra, il convient de se demander quelles mesuresdevraient être appliquées et si de nouvelles mesures sont nécessairespour satisfaire le caractère spécifique des moteurs de recherche et deleurs utilisateurs. Par exemple, on devrait appliquer ici une mesuresupplémentaire, à savoir la singularité des résultats par rappor t auxautres moteurs de recherche. Qualité des fonctionnalités de recherche; le moteur propose un ensembleconséquent de fonctionnalités (comme la recherche avancée) qui donnentdes résultats fiables. Utilisabilité du moteur de recherche; elle renseigne rétroactivement surle comportement de l'utilisateur et est évaluée par le biais d'enquêtesauprès des utilisateurs ou d'analyses des historiques de transactions .Elle fournit des paramètres que l'on peut comparer sur la conception del'interface – la visualisation des liens sponsorisés – et la performancedu moteur de recherche – rapidité, liens morts et résultats indésirables( spam). L'aide fournie à l'utilisateur et lefait de proposer des fonctionnalités de recherche avancées sontégalement un aspect important de cette rubrique. Les moteurs de recherche sont uniques dans la manière dont ils construisent leursbases de données. Tandis que les systèmes traditionnels de recherched'information s'appuient habituellement sur des bases de données construitesmanuellement par des indexeurs humains à partir de sources sélectionnées, lesmoteurs de recherche doivent utiliser la structure en réseau du Web pour trouverleurs documents en parcourant le Web de lien en lien. C'est un énorme défi quede construire et de maintenir un index généré par des robots de collecte. KnutMagne Risvik et Rolf Michelsen (2002) en donnent une bonne synthèse. On peutconsidérer de plusieurs façons la qualité de l'index d'un moteur de recherchedonné. En premier lieu, les index doivent être étendus (c'est-à - dire qu'ilsdoivent couvrir une grande partie du Web). Un moteur de recherche idéal serait celui qui conserve une copie complète duWeb dans sa base de données. Or, pour divers motifs, cela est impossible. Unindex important est nécessaire pour deux raisons. La première est le cas oùl'utilisateur souhaite obtenir une liste complète de résultats, par exemplepour se familiariser avec un sujet. Le second cas est celui des requêtes peuclaires qui ne donnent que peu de résultats. Ici, le moteur qui dispose d'unindex plus grand à de meilleures chances de trouver davantage de résultats .On compare parfois les index des moteurs de recherche les uns par rapportaux autres, en s'appuyant sur leurs tailles respectives absolues. Maiscertaines études qui traitent de la taille du Web s'intéressent également àla proportion qui est couverte par les moteurs de recherche. Il existe trois façons d'obtenir des estimations chiffrées pour analyser lataille du Web et la couverture des moteurs de recherche : les chiffresdéclarés par les prestataires de moteurs (pour une synthèse, voir Sullivan ,2005), les analyses de recouvrement et l'échantillonnage aléatoire. KrishnaBharat et Andrei Broder (1998) utilisent un robot de collecte pour parcourirune partie du Web et construire un vocabulaire à partir duquel ilssélectionnent des requêtes et les envoient aux quatre principaux moteurs derecherche. À partir de l'ensemble aléatoire des pages trouvées, les auteurscalculent le pourcentage de couverture de ces moteurs de recherche. L'étudela plus récente fondée sur le recouvrement est celle de Antonio Gulli etAlessio Signorini (2005). Les deux chercheurs utilisent une version étenduede la méthodologie de Krishna Bharat et Andrei Broder et mettent en évidenceque le Web indexable en 2005 contient au moins 11,5 milliards de pages. Lacouverture par les moteurs de recherche de l'ensemble de données (formé detoutes les pages retrouvées par au moins un des moteurs) se situe entre 57et 76 % pour les quatre principaux moteurs de recherche (Google, Yahoo, msn ,Ask). La recherche la plus importante qui ait utilisé une techniqued'échantillonnage aléatoire pour déterminer la taille totale du Web est laseconde étude de Steve Lawrence et C. Lee Giles (1999). Elle s'appuie sur unensemble d'adresses ip générées de manière aléatoire dont ils testent ladisponibilité. Les auteurs évaluent la taille du Web indexable à environ 800millions de pages. Ils testent la couverture des moteurs de recherche grâceà 1 050 requêtes. NorthernLight, le moteur de recherche qui enregistrait lesmeilleures performances, couvrait uniquement 16 % du Web indexable àl'époque. Les moteurs soumis à cette évaluation couvraient, tous réunis, àpeine 42 % du Web indexable. Toutes les études portant sur la taille du Web et la couverture des moteursde recherche que nous avons mentionnées ont ceci en commun qu'elles seconcentrent sur la partie indexable du Web, appelée Web de surface. Mais ilne s'agit que d'une infime par tie du Web, le reste formant ce qu'on appellele Web invisible ou Web profond. Pour résumer, le Web invisible est lapartie du Web que les moteurs de recherche n'intègrent pas à leurs index .Michael K. Bergman (2001) estime la taille du Web Invisible à 550 fois celledu Web de Surface. Toutefois, comme l'ont montré Dirk Lewandowski et PhilippMayr (2006), ces estimations de taille sont bien trop élevées, en raisond'erreurs statistiques et fondamentales. Même si cette estimation repose surdes données de 2001, il semble que le taux de croissance propre des taillesdes bases de données (Williams, 2005) n'affecte pas la taille totale demanière considérable. Il est nécessaire de développer d'autres recherchespour distinguer le Web visible et le Web invisible. Au cours des dernièresannées, nous avons observé la conversion de grandes bases de données enpages html afin de permettre leur indexation par les principaux moteurs derecherche en ligne. Bien que cette pratique soit principalement le faitd'acteurs commerciaux, d'autres fournisseurs – telles les bibliothèques –ont suivi la même approche avec des degrés de réussite divers (Lewandowski ,2006b). Même s'il est important pour un moteur d' être le plus complet possible, unmoteur de recherche doté d'une bonne couverture générale n'est pasnécessairement ce qu'il y a de mieux pour chaque domaine du Web. Par exemple, un utilisateur qui recherche un contenu en langue française nesera pas satisfait si le moteur de recherche assure une couverture généraledu Web de 80 % mais n'inclut pas du tout de documents en français ouseulement très peu. Dans le processus de collecte des contenus du Web ,l'index différera d'une part selon les points de départ choisis et, d'autrepart, selon la structure du Web. Les pages qui sont la cible de nombreuxliens ont de meilleures chances d' être retrouvées par les moteurs que lespages situées en « périphérie » du Web. Andrei Broder etal. (2000) ont modélisé la structure du Web sous la forme d'un nœudpapillon. Toutefois, les pages au centre du Web (le noyau de celles qui sontfortement connectées entre elles) sont probablement les plus anciennes et ,si l'on considère la structure évolutive du Web, en provenance desÉtats-Unis (Vaughan, Thelwall, 2004). Il est surprenant de constater qu'ilexiste (du moins à notre connaissance) à peine deux études por tant sur lesbiais liés au pays. Notamment dans le contexte européen, vu les nombreuseslangues qui y sont parlées, ce sujet devrait susciter un intérêt plusvif. Lewen Vaughan et Mike Thelwall (2004) comparent la couverture des sites Webaux États-Unis, en Chine, à Singapour et Taiwan. Ils notent que les sitesaméricains sont mieux couverts tant en proportion qu'en termes de profondeurd'indexation. Ils en concluent que le désavantage en faveur de ces sitesdoit provenir de la structure des liens du Web et non des différenteslangues. Cette étude a été reproduite et étendue en 2005 (Vaughan et Zhang ,2007). Les résultats obtenus ne diffèrent pas vraiment de ceux de lapremière étude. Ces études indiquent qu'il existe des biais importants liésaux pays dans les index des moteurs de recherche. Nous pensons qu'il estimportant de conduire des études similaires. Si l'on revient à la questionde savoir s'il faut envisager la construction d'un moteur de recherchepurement européen pour concurrencer les moteurs de recherche américainsdominants et à l'analyse de l'utilité de moteurs de recherche spécifiquespar pays, nous pensons qu'il est urgent de mener des études sur la questiondes biais liés au pays, au moins pour certains pays européens. Le troisième facteur important de la qualité des index est leuractualisation. Le Web est dans un flux constant (Ntoulas, Cho, Olson ,2004) : de nouveaux documents sont ajoutés, d'anciens disparaissent etd'autres sont mis à jour. Comme on peut le constater d'après l'étude deNadine Schmidt-Maenz et Martina Koch (2006), la plupart des utilisateursfont des recherches sur des faits actuels et des actualités récentes. Deplus, le nombre de liens entrants change de manière similaire. Les pages Webqui traitent de sujets d'actualité feront l'objet de davantage de liens sices pages ont quelque importance (Schmidt-Maenz, Gaul, 2005) .L'actualisation pose un triple problème aux moteurs de recherche. D'abord ,il est important de maintenir l'index pour qu'il soit récent. En secondlieu, ces facteurs sont utilisés dans le classement des pages Web (Achar yaet al., 2005; Lewandowski, 2006a). Enfin, cesfacteurs pourraient jouer un rôle important dans la recherche scientifiquesur le Web (Lewandowski, 2004b). Nous avons comparé l'actualité des index des principaux moteurs de recherche( Lewandowski, Wahlig, Meyer-Bautor, 2006; Lewandowski, 2008a). Lesrésultats montrent que, du point de vue de la mise à jour, le meilleurmoteur de recherche change au fil des années et qu'aucun des moteurs n'a desolution idéale pour préserver la fraîcheur de son index. Les distributionsde fréquence concernant l'ancienneté des pages sont faussées, ce quisignifie que les moteurs de recherche font bien la différence entre lespages selon qu'elles sont mises à jour fréquemment ou rarement. Nous avonsidentifié un problème majeur quant au délai entre le moment où les pagessont collectées et celui où elles sont disponibles pour une recherche enligne, qui diffère d'un moteur à un autre. Si l'on se penche sur la qualité des résultats, il existe quantité de littératurescientifique sur l'évaluation de l'efficacité de la recherche des moteurs( Leighton, Srivastava, 1999; Wolff, 2000; Singhal, Kaszkiel, 2001; Ford ,Miller, Moss, 2002; Griesbaum, Rittberger, Bekavac, 2002; Griesbaum, 2004 ;Machill et al., 2004; Véronis, 2006). Du fait que lepaysage des moteurs de recherche change en permanence, les études les plusanciennes sont sur tout intéressantes pour leurs méthodes mais elles ne sont qued'une utilité limitée quant à leurs résultats. Pour les besoins de cettecontribution, nous examinons les résultats généraux de la littératurescientifique sur l'efficacité de la recherche d'information ainsi que lesrésultats de notre propre étude (Lewandowski, 2008b), qui fait également un étatde l'art approfondi. Le nombre de requêtes utilisées dans les études varie considérablement. Enparticulier, les études les plus anciennes (Chu, Rosenthal, 1996; Ding ,Marchionini, 1996; Leighton, Srivastava, 1999) utilisent quelques requêtesseulement (5 à 15) et sont, par conséquent, d'un intérêt limité (Buckley ,Voorhees, 2000). Les plus récentes utilisent au moins 25 requêtes, certaines 50 ,voire plus. Dans les études plus anciennes, les requêtes sont généralementinspirées de questions de référence ou des systèmes commerciaux en ligne, alorsque les études récentes se concentrent davantage sur les centres d'intérêt del'utilisateur commun ou mélangent les deux types de questions. Certainestraitent d'un ensemble spécifique de thèmes de requêtes (par exemple, dans ledomaine des affaires, voir Gordon, Pathak, 1999), mais nous constatons unetendance à se focaliser sur l'internaute ordinaire dans les tests demoteurs. En ce qui concerne le nombre de résultats pris en compte, la plupart des étudesne tiennent compte que des 10 ou 20 premiers résultats. Ceci, principalement enraison de la quantité de travail que cela représente pour les évaluateurs, maiségalement au vu du comportement général des utilisateurs des moteurs derecherche. Ces utilisateurs voient rarement plus que la première ou la deuxièmepage de résultats (avec généralement 10 résultats par page). Habituellement, cesont les moteurs de recherche les plus importants et les plus populaires quisont testés, et ils sont parfois comparés avec des moteurs de recherche nouveauxou spécifiques à une langue donnée (e.g. Véronis, 2006) .Une question importante est de savoir comment on devrait mesurer les résultats .La plupart des études utilisent des échelles de pertinence (de trois à sixpoints). Les analyses de Joachim Griesbaum (2004; Griesbaum et al., 2002) s'appuient sur des jugements de pertinence binaires avecune exception : les résultats peuvent aussi être jugés comme « renvoyant vers undocument pertinent » (c'est-à-dire que la page elle -même n'est pas pertinentemais contient un hyperlien vers une page pertinente). Tandis que la plupart desétudes récentes assurent l'anonymat des résultats (le moteur de recherche n'estpas connu), nous avons trouvé seulement deux études qui rendent les listes derésultats aléatoires (Gordon, Pathak, 1999; Véronis, 2006). Les études récentesmontrent en général que, dans l'ensemble, les résultats des moteurs de recherchene sont pas très bons, mais ils fournissent quelques bons résultats sur lapremière page de résultats. Il existe des différences de performance entre lesmoteurs mais – au moins pour les moteurs de recherche les plus performantsGoogle et Yahoo – les résultats ne diffèrent pas au point de justifier l'énormepréférence des utilisateurs pour Google. En ce qui concerne la spécificité des moteurs de recherche, nous devons fairela distinction entre le caractère unique des bases de données (défini parleur recouvrement) et le caractère unique des résultats de la recherche( jusqu' à un certain seuil). En effet, deux moteurs de recherche exploitantun index strictement identique peuvent donner les résultats dans un ordretotalement différent en fonction de leurs algorithmes de classement. Desétudes analysant le recouvrement des résultats de recherche de différentsmoteurs ont été réalisées à large échelle (e.g .Schwartz, 1998; Chignell, Gwizdka, Bodner, 1999; Gordon, Pathak ,1999; Nicholson, 2000). L'étude la plus récente sur le sujet est celled'Amanda Spink, Bernard J. Jansen, Chris Blakely et Sherr y Koshman (2006) .Les moteurs de recherche couverts par cette étude sont Ask Jeeves, Google ,msn et Yahoo. Pour chaque moteur de recherche, les 10 premiers résultats ontété pris en compte. L'étude repose sur deux ensembles de requêtes, soumisesà partir d'avril 2005 (10 316 requêtes) et en juillet 2006 (12 570requêtes). Pour chacune, les 10 premiers résultats du moteur ont ététéléchargés. Le recoupement est fait de manière automatique par comparaisondirecte des url. Cette approche est quelque peu problématique car descontenus identiques peuvent correspondre à des url différents et les moteursde recherche ne conservent qu'un url pour les contenus dupliqués (Bharat ,Broder, 1998). Amanda Spink et al. (2006) constatent qu'un seulmoteur de recherche liste 84,9 % de l'ensemble des résultats, deux moteursen listent 11,4 %, trois 2,6 % et tous les moteurs étudiés n'en listent que1,1 %. Les auteurs concluent qu' « en utilisant un seul moteur de rechercheWeb pour une requête, l'utilisateur se prive de découvrir une gamme de sitesWeb bien classés qui apparaissent sur la première page de résultats pourn'importe quelle requête » (ibid. : 1385). Les comparaisons des fonctionnalités et des commandes des moteurs de recherche nemanquent pas (Ojala, 2002; Hock, 2004; Notess, 2006). Dirk Lewandowski (2004a )analyse les fonctionnalités de recherche que devraient proposer les moteurs etle degré auquel les principaux moteurs de recherche les appliquent .Malheureusement, ces comparaisons des moteurs sont irrémédiablement dépassées .Nous renvoyons le lecteur ici à la compilation de Greg R. Notess (2007). Dansune comparaison des moteurs de recherche et bases de données en ligne, RoslinaOthman et Nor Sahlawaty Halim (2004) montrent à quel point les fonctionnalitésde recherche des moteurs sont généralement limitées. Le problème est que lafiabilité opérationnelle des fonctionnalités de recherche est souventsurestimée. Alors que certaines fonctions ne présentent manifestement aucunproblème potentiel (comme la restriction au domaine de premier niveau), d'autresfonctions pour tant relativement simples à appliquer ne fonctionnent pasconvenablement sur certains des principaux moteurs, par exemple l'opérateurbooléen or sur Google (voir Notess, 2000). Le niveau de performance d'autresfonctions, comme la restriction à un certain langage, la recherche de pagesapparentées, les filtres sur le contenu et la restriction par date, n'est pasclair. En ce qui concerne le comportement de recherche des utilisateurs, nous exploitonsles résultats de l'étude que nous avons menée en ligne en 2003 (Schmidt-Maenz ,Bomhardt, 2005) ainsi que d'autres études sur les utilisateurs des moteurs derecherche. En outre, nous avons obser vé les requêtes saisies en temps réel surtrois moteurs différents – Fireball (fb), Lycos (l) et Metaspinner (ms) – depuisl'été 2004 (Schmidt-Maenz, Koch, 2005, 2006). Dans les requêtes en temps réel que nous avons observées, la liste apu être automatiquement mise à jour, à l'aide d'un programme de rafraîchissementdes pages. Grâce à ce dispositif, nous avons collecté une liste pratiquementcomplète des requêtes effectuées sur ces moteurs au cours de notre périoded'observation. Certains résultats sont listés dans le tableau 1. Les interfaces des moteurs de recherche ont une seule dimension mais ilexiste différents groupes d'utilisateurs de moteurs de recherche avec desbesoins différents (Hotchkiss, Garrison, Jensen, 2004). La plupart desinternautes qui effectuent des recherches d'information évaluent la listedes résultats très rapidement avant de sélectionner une ou deux pages Webrecommandées (Hotchkiss et al., 2004; Spink, Jansen ,2004). Sur Google, la fenêtre de saisie de requête est très claire alors quecelle de Yahoo est surchargé de messages publicitaires et d'actualités( Geoghegan, 2004). Les liens provenant de la publicité payante ne sontgénéralement pas clairement séparés des résultats naturels. Ces liens sontsignalés par des couleurs de fond très pâles (e.g .sur Google) ou par une indication textuelle en très petits caractèresde couleur claire (e.g. Altavista). C'est pourquoi ,souvent, les utilisateurs ne peuvent différencier les deux ou ont lesentiment que le lien sur lequel ils ont cliqué pourrait être un lienpublicitaire payant. De plus, il est important de ne présenter que quelquesrésultats (10 à 15) car les utilisateurs des moteurs n'aiment pas fairedéfiler la liste (Hotchkiss et al., 2004). En outre ,les moteurs de recherche doivent fournir des fonctionnalités pour aider lesutilisateurs à affiner leurs requêtes. Seuls les utilisateurs aguerrisemploient les opérateurs et les fonctionnalités avancées. Chacun desprincipaux moteurs de recherche propose des fonctions de recherche avancée àl'exception d'Excite (Fauldrath, Kunisch, 2005). Les requêtes des internautes sont très cour tes et ce paramètre ne montreaucune variation dans le temps. Les requêtes en allemand sont en moyennelégèrement plus cour tes que les requêtes en anglais, car l'allemand utilisedes mots composés plutôt que des chaînes de mots. Près de la moitié desrequêtes ne contiennent qu'un seul terme. En ce qui concerne les termesemployés pratiquement quotidiennement (Schmidt-Maenz, Koch, 2006), onconstate l'utilisation inadéquate de nombreux opérateurs et des prépositionscomme » dans » ou « pour ». Cela montre combien les internautes formulentleurs requêtes en ligne de manière intuitive. L'usage d'opérateursreprésente moins de 3 % de toutes les requêtes observées. La recherche surdes expressions exactes est la forme la plus fréquente de formulationcomplexe de requêtes. Dans cette étude, les requêtes sur des expressionsreprésentaient 2,1 % pour Fireball, 2,4 % pour Lycos et 2,5 % pourMetaspinner (Schmidt-Maenz, Koch, 2005). Dans leurs enregistrementsd'expressions de requêtes en temps réel (liveticker), les moteurs de recherche allemands comme Fireball etMetaspinner montrent aussi la région de recherche sélectionnée. Seule larecherche de pages en allemand est fréquemment sélectionnée. Ceci tient aufait que la région géographique est un paramètre par défaut des deux moteursde recherche. Dans plus de deux tiers de l'ensemble des requêtes, lesutilisateurs n'emploient pas ces fonctionnalités pour personnaliser leurrecherche. Les personnes interrogées dans le cadre de notre enquête internetont également reconnu qu'elles ne personnalisent pas leurs moteurs derecherche favoris en fonction de leurs besoins. En fin de compte, celasignifie que les fonctionnalités telles que les opérateurs de recherche nesont pas adoptées par les internautes. Le facteur le plus critiqué dans les listes de résultats des moteurs derecherche est l'optimisation des pages Web uniquement dans le but de lesfaire apparaître en tête de classement, ce qui présente peu d'intérêt pourl'utilisateur. C'est également le cas pour les pages qui ne correspondentpas à la requête (24,4 % de 2014) et les pages de publicité (21,4 % de2014). Nous pensons que, souvent, les internautes ne savent pas s'ilscliquent sur des résultats dont le référencement est payant ou naturel. Dans l'étude de Marcel Machill et al. (2003), lespersonnes interrogées se déclarent mécontentes des résultats dont personnene sait s'il s'agit d'un référencement payant ou non. Une grande partie despersonnes interrogées (76,6 % de 6133) ne pensent pas aux possibilités depersonnalisation de leurs moteurs préférés. Ces résultats montrent qu'il estpossible d'évaluer l'utilisabilité du moteur de recherche par le biaisd'enquêtes auprès des utilisateurs. Les personnes interrogées déclarentégalement trouver ce qu'elles recherchent. Toutefois la qualité desrésultats obtenus n'est pas claire. 70,8 % des 6722 répondants retournenttrès souvent sur le moteur, immédiatement, dès qu'ils ne trouvent pas cequ'ils souhaitent sur une page Web recommandée. Généralement, les internautes ne savent pas comment fonctionnent les moteursde recherche. Nous leur avons posé cinq questions générales sur les moteurs ,telles que « L'affirmation suivante est-elle exacte ? Les métamoteurspossèdent leur propre index ». Seulement 44,2 % sur 5944 personnesinterrogées ont pu répondre correctement à quatre ou cinq de ces questions .Nous avons également constaté que les utilisateurs qui ont donné le plus deréponses exactes utilisent beaucoup plus les opérateurs (Schmidt-Maenz ,Bomhardt, 2005). Ces résultats permettent de montrer qu'en général lesutilisateurs ne comprennent pas les moteurs de recherche. Compte tenu decela, il est important que l'interface d'un moteur de recherche soit claireet simple pour en améliorer l'utilisabilité. La plupart des moteurs de recherche proposent des fonctions d'aide mais c'esttoujours via un bouton minuscule (Google,Yahoo). Jens Fauldrath et ArneKunisch (2005) ont constaté que seulement 57 % des moteurs de recherchequ'ils ont analysés proposent une page d'aide qui soit facile à trouver. Enoutre, il manque une description générale de ce que font réellement lesmoteurs de recherche. Seulement 71 % des principaux moteurs de recherchefournissent une aide sur la manière de procéder à une session de recherche .Un autre point pour améliorer les conseils aux utilisateurs serait defournir des informations supplémentaires sur les pages classées. Sur cepoint, le titre des documents, une brève description et l'url sont utiles .Tous les moteurs de recherche fournissent cette information. Il est pourtant tout aussi intéressant pour l'utilisateur de voir quand les dernièresmodifications ont été apportées à la page recommandée, ou de se voirsuggérer des termes de recherche similaires. 71 % des principaux moteurs de recherche donnent des informations temporelleset seulement 29 % suggèrent des termes similaires (Fauldrath, Kunisch ,2005). Aujourd'hui, personne ne connaît les performances réelles ni l'exactitude desmoteurs de recherche. Toutefois, grâce aux mesures que nous proposons, il estpossible de stimuler le débat sur ce qui est réellement important pourl'évaluation de la qualité d'un moteur de recherche compte tenu de laconcentration du marché dans ce domaine. Cela permettrait aussi d'en améliorerla transparence. Nous avons montré qu'il existe manifestement un écart entre laperformance des moteurs de recherche et les besoins de l'utilisateur, du pointde vue des fonctionnalités proposées. Si l'on tient compte du comportement derecherche de l'utilisateur, plusieurs aspects pourraient être améliorés. Notrehypothèse est que les utilisateurs ne savent pas comment interagir au mieux avecles moteurs de recherche. C'est pourquoi des fonctions d'aide doivent êtreproposées de manière à ce que les utilisateurs qui recherchent de manièreintuitive apprennent aussi à utiliser les moteurs de recherche internet. Les paramètres d'évaluation d'un moteur de recherche que nous proposons aiderontà mener des études de qualité pour comparer différents moteurs de rechercheselon les mêmes mesures. De même, cela aidera les utilisateurs à décider quelsmoteurs de recherche ils préfèreront utiliser. La plupart des recherchesscientifiques utilisent des paramètres très spécifiques pour mesurer la qualitéd'un moteur de recherche et le comportement de l'utilisateur est souventtotalement occulté. Dans notre cas, nous avons introduit une approche globalepour mesurer la qualité d'un moteur de recherche, prenant en ligne de compte àla fois le plan technique et le point de vue de l'utilisateur. Le fait dechanger de moteur de recherche permet d'obtenir des résultats différents. C'estune bonne option lorsqu'on ne trouve pas ce que l'on cherche. De plus, laquestion de la différence des résultats est extrêmement importante dans le débatsur les problèmes de monopole (ou d'oligopole) du marché des moteurs derecherche .
La qualité des moteurs de recherche est un élément fondamental de l'étude de l'accès à l'information et de certains aspects de la politique de communication. La question de savoir si un moteur européen unique est nécessaire et, si tel était le cas, ce qui différencierait celui-ci de ses concurrents américains, ne peut trouver de réponse qu'à travers l'analyse des moteurs de recherche existants. Notre cadre théorique d'analyse de la qualité d'un moteur de recherche comporte quatre domaines: la qualité de l'index, l'efficacité de la recherche d'information, la qualité des fonctionnalités de recherche et l'utilisabilité du moteur en question. Cette contribution présente une revue de la littérature scientifique et les résultats empiriques des études que nous avons réalisées. Les conclusions montrent, notamment, que de nouveaux paramètres réellement centrés sur l'utilisateur seraient nécessaires à l'évaluation de la qualité des moteurs de recherche.
sciencesInfo_09-0474885_tei_1124.xml
termith-457-communication
Comme le soulignent Roger Bautier, Pierre Delcambre, Bernard Miège et StéphaneOlivesi, les deux contributions de Robert Boure (Questions decommunication, 10, 2006; 11, 2007) sur l'histoiredes sciences de l'information et de la communication (sic )s'inscrivent dans un ensemble de travaux que ce chercheur conduit depuis plusieursannées. Le cadre et les modalités de ceux -ci sont emblématiques de la relation queplusieurs acteurs du domaine entretiennent avec la discipline. Commencés au seind'un groupe - Théories et pratiques scientifiques (tps) -dont les membres se sont retrouvés dans le cadre institutionnel que représente lasociété savante qui les rassemble (la Société française des sciences del'information et de la communication, sfsic), ils ont vu unprolongement éditorial (ouvrages, articles) dont ces deux contributions sont unélément. Pourquoi ce préambule ? Parce qu'on lit en cette démarche l'interactionentre une initiative personnelle - en phase avec une préoccupation commune (celle dugroupe au sein duquel elle émerge) - et une légitimation collective à même d'encautionner les visées. D'autant que les sic étantrelativement récentes, elles sont plus enclines que d'autres disciplines en scienceshumaines et sociales (shs) à asseoir les interrogationsépistémologiques sur ce qui s'apparenterait - ce que Robert Boure déclare d'ailleurscomme tel - à une « quête des origines », souvent marquée au coin du récitlégendaire et téléologique, nécessairement établi ex post (cequi d'ailleurs est une forme d'institution disciplinaire). Au vu de ceci, éléments distinctifs et particularismes sont des dimensions dont cechercheur tente de retracer les étapes. Aussi mêle -t-il des questionnements ayanttrait aux acteurs engagés dans un mouvement, à la temporalité de celui -ci et à sesmodes d'apparition (thèses, colloques, ouvrages). Ce qui pose, en arrière-plan, laquestion de savoir, au-delà des sic, ce qu'est unediscipline. À bon droit, Jean-Louis Fabiani (2006 : 12 - 13) explique dans un bel ouvrage collectif - Qu'est -ce qu'une discipline ? (Boutier, Passeron, Revel, 2006) - qu'ilconvient de se méfier de l'illusion naturaliste. La notion de discipline juxtaposedeux ordres historiques de réalité en tension : « Le premier est bien antérieur à lascience moderne. II comprend toutes les dimensions d'un rapport pédagogique maisdésigne primitivement la relation vue à partir de l'élève, du discipulus, c'est-à-dire sous l'aspect de la réception des messages. Ladiscipline ainsi entendue met l'élève au centre du système et organise le savoir àpartir d'un objectif pédagogique. Plus qu'un sujet connaissant, ce sont les formesdu contrôle pédagogique qui occupent ici une place centrale. Il s'agit de s'assurerde la réalité et de l'efficacité d'une autorité pédagogique en tant qu'elles'exprime à travers une opération de communication. Le deuxième objet, central dansnos préoccupations depuis le XIX e siècle, c'est l'organisationparticulière au sein de laquelle se développent des savoirs modernes comme ensemblede pratiques codifiées et reconnues valides par un collectif auto-délimité ,l'activité scientifique se développant par rapport à une ligne de front ». Lacoexistence de ces deux pôles conduit immanquablement à accorder de l'attention àdes processus de stabilisation et reproduction, mais aussi à des processusd'innovation, non sans un aspect agonistique qui ne saurait se réduire à une luttedes places individuelles dans le champ académique. Ce qui revient à estimer qu'ilfaut mener une « enquête sur la hiérarchie des disciplines, qui est simultanémentéchelle sociale des effets symboliques propres à une discipline à un moment del'histoire et échelle des savoirs propre à une é pist é m è entendue comme instance de régulation desrapports entre différentes formes de savoir à un moment donné de l'histoire »( Fabiani, 2006 : 1 9). Penser l'histoire des sic dépasse donc largement les antiennes identitairesautocentrées ! Ce à quoi s'emploient d'ailleurs globalement les contributeurs. Mais pourquoi provoquer un débat qui prendrait le risque de mettre à mal le projetd'objectivation à l' œuvre dans la démarche de Robert Boure ? Quelques éléments deréponse. .. Écrire l'histoire suppose d'opérer des choix, que ce soit par rapport àla chronologie, aux acteurs mis en exergue, aux contenus examinés. Cela contraintégalement à sélectionner, parmi les sources et archives à disposition, celles quiseraient les plus à même d'éclairer l'objet investi. D'où l'hypothèse - pour lemoins classique quand il s'agit de traiter d'un travail s'inscrivant dans uneapproche historique - selon laquelle l'investigation résulte aussi d'un point de vue .Il peut donc être intéressant de placer ce point de vue au centre des « Echanges » ,d'autant que les données sur lesquelles Robert Boure fonde ses analyses sontsuffisamment proches dans le temps pour que d'autres chercheurs se sentent concernéset expriment, eux aussi, un « avis » sur les questions et thèmes soulevés. Ce sont ces considérations qui nous ont amenés à solliciter des chercheurs degénérations différentes, travaillant sur des objets divers, tous engagés dans deslieux qui contribuent - et/ou ont contribué - à assurer la visibilité de ladiscipline, mais à des titres et degrés variables. D'ailleurs, chacun d'eux préciseson parcours ou ce qui le rattache au sujet, Pierre Delcambre introduisant même leséléments biographiques le concernant par ces propos liminaires : « Fidèle à laposition qui veut qu'un acteur social engagé dise “d'où il parle ”, signalons à notresujet que [. ..] ». Et l'auteur de retracer tant ce qui a trait à son ancrage dans ladiscipline (thèse, réseaux d'appartenance) que ses préoccupations de recherche etd'enseignement. Quant à Bernard Miège, se présenter lui permet aussi de rectifierdes erreurs qui seraient commises à son sujet. Aussi prévient-il : « Il est faux deme considérer comme l'un des fondateurs des sic, ce quiserait loin d' être déshonorant mais qui est peu conforme aux faits. [. .. ]Personnellement, je dois à Robert Escarpit de m'avoir accordé toute sa confiance, cequi était très estimable dans une période aussi troublée pour les nouvellesformations. Mais c'est seulement au début des années 80 que je commence à prendrepart activement aux activités des instances nationales ». Quant à Stéphane Olivesi ,il évoque - dans la première note de sa contribution - la fonction de directeurqu'il occupe à l'Institut de la communication (icom) del'université Lyon 2, une structure placée au fondement d'une recherche qu'il mèneactuellement et qui lui permet d'attester cette hypothèse : les configurationslocales sont essentielles dans la formation d'une discipline. Pour sa part, RogerBautier est plus discret sur sa trajectoire, mais sa contribution est placée sous lesceau du ralliement aux sic d'enseignants-chercheursintéressés par la relation entre langage et communication. Finalement, et à soninsu, Bernard Miège résume la position de chaque contributeur : « Je me suisinterrogé non sur la légitimité de ma contribution éventuelle (après tout chaquemembre de la section est fondé à témoigner de sa perception de l'histoire des sic au cours des 35 dernières années sous réserveévidemment de ne pas tenir son “vécu” comme un élément de preuve irréfutable et demarquer autant que possible une distance critique par rapport à lui) je me suisdemandé selon quelle perspective je pouvais intervenir sans risquer de dériver versquelque chose d'assimilable au “présentisme ”, justement dénoncé par l'auteur [RobertBoure] ». Initialement, nous souhaitions qu'interviennent des chercheurs étrangers et/oud'autres disciplines, afin qu'un regard extérieur soit posé sur ces travaux. Le faitque cela n'ait pu se concrétiser confirme, sans que pour autant il y ait euintentionnalité dans les défections, ce que Stéphane Olivesi constate, à savoir que« la question du passé suscite l'intérêt, non pas des historiens des sciences, maisdes acteurs de la discipline ». En revanche, figureront dans cette introduction leséléments de deux courtes contributions non publiées mais qui nous ont été adressées ,celles de Daniel Jacobi et de Rémy Ponton qui ont livré une réflexion de typeépistémologique et qui éclaire le propos d'ensemble. C'est d'ailleurs la premièrephrase du texte de Daniel Jacobi qui donne son titre à la première partie de notretexte, « Qu'est -ce qui fait courir Robert Boure ? », celle -ci résumant un aspect del'argumentation commune à l'ensemble des chercheurs de cette livraison. Enfiligrane, c'est la question de savoir ce que le chercheur fait aux sic qui est posée. Puis, sur cette base, dans une secondepartie, on pourra envisager ce que les contributeurs de ces « Échanges » font àRobert Boure, eux qui suggèrent d'autres pistes d'analyse, à même d'enrichir etnuancer celles investies par le chercheur. Plus globalement, nous interrogerons la notion même de discipline, spécifiquementquand il s'agit de désigner celle qui est au centre du débat. Car ne peut-on voirdans l'histoire de cette dernière une dimension performative - qui n'a cessé deguider certains des acteurs engagés dans des actions de type institutionnel - et quin'a pas été sans conséquences sur les problèmes d'identité (sociale ,professionnelle, institutionnnelle) souvent relevés ? Les chercheurs doivent doncgérer deux aspects. Un premier qui consiste à « faire avec » un acte de naissancequi est aussi une gageure, dans le sens où celui -ci tentait de rassembler desconnaissances et méthodes (et donc de s'ériger en sciences) axées sur des domainesdifférents, les uns en lien avec l'information (par exemple la documentation ,bibliologie, bibliothéconomie. ..), les autres avec la communication (tels les médiaset la culture). Un second qui relève de l'expérience acquise au sein d'ungroupe scientifique progressivement constitué, avec des outils, des concepts, desnotions et « arts de faire » (Miège, Pailliart, 2007 :28 1 )qui, sans lui être propres, s'ajustent néanmoins et tentent de répondre à desinterrogations spécifiques. On le constate, les problèmes excèdent la seulediscipline, d'autant qu'ils font face à une contradiction entre délimitationterritoriale et adaptation aux domaines de recherche en shs. Daniel Jacobi pose en des termes quelque peu provocateurs l'interrogation qui ainspiré le titre de cette partie; il le fait à partir d'une personnalisation duchantier dans lequel s'est lancé le chercheur. La réponse qu'il esquisse esttout aussi provocatrice puisqu'il se demande « si le but ultime de cette coursene serait pas une sorte d'entreprise têtue, comme pour, malgré elle, faireémerger une conscience théorique au sein d'une communauté molle et dispersée » .Mais le chercheur d'ajouter que « l'entreprise de Robert Boure est plusambitieuse qu'il n'y paraît : elle s'inscrit dans un contexte d'interrogation dela place des shs dans la communauté scientifique et dela recherche de sa scientificité par comparaison avec les sciences dures » .C'est d'ailleurs sur ce versant que Stéphane Olivesi place d'emblée soninterpellation : » Pourquoi avoir engagé maintenant ce chantier historique ? » .Succède à cette question liminaire une série d'autres sur le risque qu'encourtune telle démarche, au vu de la relative jeunesse de la discipline, du problèmerécurrent de son identité qui peut, en cette occasion encore, prendre le pas surdes préoccupations différentes. Stéphane Olivesi précise que l'intérêt pourcette histoire, dès lors que celui -ci est le fait d'acteurs du champ, « n'estpas d'ordre purement cognitif ». S'ajoutent plusieurs considérations. Nous enretiendrons une, celle de la place du chercheur en sic dans les shs qui peut se retrouver en butte à « descollègues malveillants, appartenant à d'autres disciplines, qui ne manquerontpas de lui rappeler - ou de lui suggérer - sa basse extraction épistémique ,voire de le cantonner aux tâches subalternes du communicant de service, niantpar la même occasion sa qualité de chercheur ». Et que n'a -t-on dit desenseignants en techniques d'expression ? Risquons un commentaire en lien avec ladimension pédagogique et la professionnalisation de la communication (Walter ,1995). L'un des objectifs des formations en information-communication étant depréparer des étudiants à être opérationnels au sein d'entreprises etd'organisations, les préoccupations de ces derniers sont moins d'ordrescientifique que directement pratique. Deux caractères dont on pourrait espérerqu'ils ne s'excluent pas, mais qui se voient souvent opposés par les étudiantseux -mêmes. Ajoutons qu'il faudrait s'interroger plus avant sur cette partition ,car c'est oublier qu'une part du savoir ou des méthodes, réputée « savante » ,provient de professionnels extra-universitaires (e.g. l'école de Chicago s'estnourrie des pratiques de journalistes ou de travailleurs sociaux). En tout étatde cause, l'enseignant-chercheur de ces filières est donc un être bicéphale, sesrecherches pouvant être éloignées de l'enseignement qu'il dispense et la ruptureépistémologique avec la sphère des professionnels de la communication, souventrevendiquée, tenant lieu de ligne de démarcation pour institutionnaliser uncollectif de chercheurs. D'où cette question de l'identité revenant comme unleitmotiv dans nombre d'écrits ou discours, qui n'est pas seulement fonction dela genèse de la discipline mais de son hiatus constitutif. En revanche, si l'on regarde du côté d'autres disciplines, on ne peut queconstater le contraste entre les travaux que celles -ci consacrent à leurhistoire et ceux que les sic produisent. Un exemple :quand les historiens traitent d'historiographie, ils reviennent, certes, sur deséléments relatifs à la création de la discipline, mais aussi sur lescontroverses, les mouvements, les points de vue qui, souvent, les divisent. Pours'en convaincre, il n'est qu' à se référer à l'actualité éditoriale, notammentavec cet ouvrage de Christian Delacroix, François Dosse et Patrick Garcia ,publié une première fois en 1999, et réédité en 2007, Lescourants historiques en France (XIX esi è cle-XX e si è cle) .On y suit à la fois les transformations de la profession et celles de ladiscipline, ce à travers les grandes figures, les courants de pensée, leschapelles et les débats. Or, ce questionnement se révèle à distance de celui deschercheurs en sic dont Stéphane Olivesi constate« l'incompréhension mutuelle, [I]'absence de dénominateur commun ,[ l]'hétérogénéité dans les manières de concevoir l'enseignement et larecherche ». Aussi peut-on comprendre que cette configuration se révèle être unterreau propice aux « tentatives d'appropriation ». Ce qui expliquerait, selonl'auteur, la prudence dont fait preuve Robert Boure dans ses deux contributionset qui consiste à chercher « à neutraliser les préjugés [plus] qu' à avancer deséléments de nature à répondre à ces inquiétudes « existentielles » dont certainstémoignages laissent supposer qu'elles sont largement répandues tout en faisantl'objet de dénégations répétées ». Si c'est à l'aune du présent d'un groupe de chercheurs et de ses incertitudes queStéphane Olivesi tente de comprendre la démarche de Robert Boure, c'est àl'évaluation de l'engagement de ce dernier dans un projet scientifique rigoureuxque Pierre Delcambre s'emploie. Plus précisément, il discute le profit d'unedémarche se voulant à distance de toute vulgate réductrice où la discipline neserait envisagée que selon le cadrage intellectuel qu'en proposerait une poignéede chercheurs (voir les pages consacrées à Yves Winkin et Daniel Bougnoux). C'estdonc du côté de l'échange théorique et méthodologique que se place PierreDelcambre. Ainsi revient-il sur certains choix ou non-choix de Robert Boure ,notamment quant aux catégories convoquées, dont celles d' « histoire spontanée »et d' « histoire officielle ». À cette occasion, il prend au mot les critiques deRobert Boure sur les dangers que représentent l'une et/ou l'autre, et lesapplique à la démarche de ce dernier Aussi suggère -t-il, sans pour autant ledire en ces termes, que Robert Boure façonne également une façon de dire etd'incarner la discipline, par exemple lorsqu'il fait appel à certains auteurs etnon à d'autres pour traiter de la discipline dans des ouvrages collectifs .Pierre Delcambre en arrive donc à cette hypothèse : « Avec les histoiresspontanées et l'Histoire officielle, nous sommes en présence de deux catégoriesdont l'apport heuristique est faible. En revanche, leur rôle discursif est grandcar; dans une polémique, elles jouent le rôle de “répulsifs ”, permettant ainsid'installer une bonne pratique ». Comme Stéphane Olivesi, Pierre Delcambre pose cette question : « Pourquoi sepencher avec autant de ferveur sur les origines ? ». Et de donner un amical coupde griffe à Robert Boure qui formule l'hypothèse selon laquelle le 7 e congrès de la sfsic, en 1990 ,constitue « un tournant important dans la construction de pans de l'histoireofficielle », alors qu'il ne s'agit pas là d'un événement marquant des origines .En résulte le constat selon lequel la chronologie est un aspect important àinterroger À condition toutefois de ne pas en rester à une analyse interne qui ,selon Pierre Delcambre, répond mal « aux rythmes de développement d'unediscipline ». Ce qui suppose de prendre en compte autant les facteursgénérationnels que ceux en lien avec le corps auquel appartiennent lesenseignants-chercheurs, sachant que des transformations se sont opérées « ausein d'une communauté faite de collectifs, marquée par la cooptationintergénérationnelle ». D'où une suggestion : « Combiner l'analyse desmouvements de création de postes avec celle du remplacement générationnelpermettrait vraisemblablement de dégager des phases observables dans la vie desorganisations collectives et des instances représentatives de ladiscipline ». Contrairement à Stéphane Olivesi et Pierre Delcambre, Bernard Miège et RogerBautier ne s'interrogent pas sur le sens de la démarche de Robert Boure .D'ailleurs, au détour de son argumentation, Bernard Miège évoque l'aide quelui -même a apportée au chercheur lorsqu'il tentait d'établir la liste des thèsessoutenues. Avec une conclusion consistant à souligner l'intérêt de faire appel àla mémoire individuelle. C'est donc de l'intérieur que ce chercheur se proposed'intervenir dans le débat, avec cette précision néanmoins : » Marquant monaccord avec ce “projet”[. .. ], je vais m'efforcer d'en évaluer la réalisationactuelle comme les objectifs qui lui sont assignés ». Il se s'agira pas pour luide discuter les présupposés et/ou les méthodes, mais d'accompagner le projet ,comme il l'avait déjà fait, c'est-à-dire en s'inscrivant » dans la voie qu[eRobert Boure] avait tracée », et en apportant « si besoin des compléments, desquestionnements ou tout simplement des éléments d'information à [sa ]disposition ». Avant cela, il dresse une grille de lecture du projet selonquatre visées et/ou spécificités : il intéresse « nos “contemporains endiscipline” »; il est enraciné « non seulement sur le temps long, mais dans soncontexte de production »; il met en avant « autant des méthodeshistoriographiques que de la réflexivité », il engage des travaux scientifiquesassociant éléments d'ordre empirique et réflexion théorique. Une grille croisantcelle de Daniel Jacobi qui voit dans les recherches conduites « une mesure entrois temps », avec une dimension empirique, le traitement de problèmesépistémologiques et une démarche introspective, » c'est-à-dire au sein de [la ]communauté scientifique d'appartenance ». Quant à Roger Bautier; il écrit sansfard « laisser à d'autres le soin de revenir peut-être sur les aspectsméthodologiques et sur les résultats fournis », préférant s'attacher à prolongerle propos de Robert Boure « en reprenant les cheminements qu'il a dessinés » .Une option toutefois introduite par ce constat : Robert Boure a mis au jour« des éléments de connaissance que ses lecteurs ne pouvaient pas acquérireux -mêmes facilement, soit qu'ils aient été empêchés par la lourdeur de la tâcheà accomplir; soit qu'ils aient préféré n'en rien savoir; pour des raisonsdiverses, institutionnelles ou personnelles ». On le voit, à la question « Qu'est -ce qui fait courir Robert Boure ? », lesréponses sont fonction du lien - personnel pour partie - que les contributeursentretiennent avec le chercheur; mais plus largement aussi, de celui qui lesrattache à l'institutionnalisation de la discipline. Ce, non seulement d'unpoint de vue générationnel, mais aussi selon l'engagement de chacun dans cemouvement et avec des effets sur l'interprétation qui est donnée de ce que peutêtre une approche historique dans le court terme (sachant pourtant que, parexemple, si l'on s'intéresse aux relations publiques, on remontera à la fin duXIX e siècle; ou que si l'on se penche sur la rhétorique, onremontera à l'Antiquité !). Ce contraste se répercute sur les propositionsformulées parles uns et les autres pourvoir amplifiée la démarche initiée parRobert Boure. Avec une idée partagée néanmoins : la recherche de celui -ci peutconduire à une illusion contre laquelle il faut se prémunir; et quiconsisterait à voir se dérouler une histoire linéaire dont on négligeraitaccidents de parcours et ruptures. C'est précisément ce risque qu'évoque Rémy Ponton. Selon lui, « le conceptd'institutionnalisation serait trompeur s'il faisait penser à une évolution qui ,une fois passée le cap critique des débuts, aurait un caractère linéaire ». Pouren attester; il précise que, « dans les sic, [il y a] ,d'une génération à l'autre, des décalages de points de vue et de centresd'intérêt, des renouvellements de paradigmes et, à l'intérieur d'une mêmegénération, des polarités voire des divergences qui paraissent une menace pourl'unité du domaine tout en introduisant l'inventivité qui trouve à s'exprimer » .Au passage et en suivant Jean-Claude Passeron (1991), notons que « les sciencessociales ne peuvent pas être définies à partir de la notion de paradigme dans lamesure où elles n'ont jamais atteint un niveau de consensus suffisant entre lesmembres liés entre eux par un objet de savoir commun » (Fabiani, 2006 : 21 - 22) .Contre ce risque, plusieurs solutions, du reste souvent suivies par RobertBoure : procédera l'examen comparatif des méthodes et terrains d'études des sic; envisager, en se fondant sur des trajectoires ,quelles ont été les « stratégies de reconversion » de certaines personnalités ,« par déplacement d'une discipline, d'un terrain d'étude ou d'une institution àune autre ». Autant de pistes qui mettent en présence « de ce qui engendrel'hétérogénéité, le caractère « mosaïque » interne de cette discipline » .Cependant, selon Rémy Ponton, « il serait intéressant de compléter la méthoded'analyse documentaire de Robert Boure, avec le recueil d'informations par desentretiens approfondis, orientés par des hypothèses, et par la diffusion d'unquestionnaire dans le milieu professionnel des sic » .Une piste vis-à-vis de laquelle Daniel Jacobi se dit, pour sa part, réservé, luiqui considère que les témoignages complexifient l'analyse : « La mémoire desacteurs et leurs souvenirs personnels construisent un terreau subjectif oùchacun brode sa propre trame d'une histoire sauvage nécessairement partielle ettoujours partiale. Le chercheur qui explore les matériaux de ce corpus, auquellui -même participe et contribue, a évidemment du mal à l'explorer objectivement .Et il est même soupçonné ou accusé d'en faire une lecture trop orientée par sespropres convictions ». Mais qu'il s'agisse de recourir à l'examen des archives ou à la mémoire deplusieurs acteurs du champ, un maître mot inspire l'ensemble des contributions :la complexité. Que celle -ci concerne la définition de l'objet ou qu'elles'attache aux outils convoqués pour l'étudier, chacun des contributeurss'accorde à débusquer ce qui pourrait avec profit permettre l'amplification del'analyse proposée. Parmi un ensemble de suggestions, Pierre Delcambre évoqueces « éléments historiques complexes qui ont émaillé l'histoire del'institutionnalisation des sic ». Ainsi en est-il des« rapports entre l'Etat et cette néo-discipline, et le développement progressifdes recherches sur les technologies de l'information et de la communication. Etce, dans une période de montée en puissance des questions technologiques pourles Etats et les industriels, et donc de leur réflexion sur de nouveaux thèmesde recherche ». De même pour la prise en compte de « la poussée des néo-entrantsqui produisent et cherchent à développer des espaces de production et dereconnaissance ». Si cette dimension concerne une large configuration, il en est une autre - locale- qui, pour Stéphane Olivesi, est déterminante : « L'histoire des sic ne doit pas être uniquement écrite à partir d'un ouplusieurs points de vue nationaux, fondés sur des sources officielles, mais doitrecourir à des monographies sur les lieux d'enseignement et de recherche, mêmeles plus périphériques, qui ont présidé à son institutionnalisation ». Uneperspective à distance d'une vision institutionnelle portée à examiner le rôlede « pères fondateurs », mais en lien avec des attentes sociales déterminés par« le développement local de lieux d'enseignement » dont Stéphane Olivesi précisequ'ils le sont plus que par la recherche. Et si l'on croise cette hypothèse avecl'interrogation de Pierre Delcambre sur ce que signifie « être membre d'unediscipline », on en vient à l'obligation de toujours resituer temporellement lescontours et caractéristiques de la discipline étudiée, et à mettre enperspective l'univers de référence que celle -ci construit et le rapport que sesmembres (Robert Boure parle de « ressortissant », ce que d'ailleurs PierreDelcambre analyse) entretiennent à elle. À ce sujet, soulignons la justesse dela formule utilisée par Pierre Delcambre - « un entre-soi disciplinaire » - quirevient à envisager la discipline comme un construit social dont il fautrétablir l'épaisseur D'autant que l'objectif de Robert Boure est clair : ils'attache aux processus par lesquels une discipline s'institutionnalise. Iln'étudie donc ni un champ, ni une science, et ne peut, par conséquent ,« exclusivement poser le problème en termes de domination symbolique et/ou deluttes ». Outre la construction sociale à laquelle se réfère « l'entre-soi », il suggèreaussi que cet aspect se façonne sur un territoire dont les limites se dessinenttant au gré du positionnement d'un ensemble de disciplines, qu' à celui desformations dispensées dans les établissements universitaires, ce qui conduit àpenser en terme d'agencement disciplinaire ou de convention. Deux points àenvisager selon le lien qui les unit, Bernard Miège prévenant que « le projetd'une histoire scientifique des sic doit, à partird'une période donnée [. .. ], se positionner sur l'un et l'autre plan, en sedonnant pour tâche de les articuler et d'en mettre en évidence lesinteractions ». Robert Bautier synthétise ceci par la proposition d'élargirdoublement - en synchronie et en diachronie - l'angle adopté par Robert Boure .Sur le plan synchronique, il considère que l'institutionnalisation des sic doit être analysée en tenant compte, d'une part ,des rapports ambivalents entretenus avec l'enseignement des techniquesd'expression, en formation initiale et en formation continue; d'autre part ,avec la recherche en linguistique et, notamment, en sociologie du langage et enlinguistique informatique. Sur le plan de la diachronie, il lui semble qu'iln'est pas déraisonnable de considérer que les sic sontnécessairement liées à une histoire fort longue, d'abord celle de la rhétorique ,puis celle de la réflexion sur la presse et les médias (ce qui ne se réduit passeulement à l'origine littéraire de ces sciences). Aussi suggère -t-il qu'ilserait utile de regarder le passé très récent en examinant l'éventualité del'intégration des sic dans une super-science naturellequi serait la « science des réseaux ». Mais qui dit territoire, dit délimitation de celui -ci. Or, cette opération quipourrait conduire à une discussion sur les frontières (poreuses ? étanches ?floues ? productives ?. ..) se révèle particulièrement périlleuse, surtoutlorsqu'on se veut un lieu interdisciplinaire ou transdisciplinaire et que cetterevendication fonctionnerait comme signe distinctif d'immatriculation dans lesshs (sans compter avec le succès du syntagme« société de l'information » qui renforce chez certains la prétention àmaîtriser un savoir total). Une anecdote évoquée par Bernard Miège estsignificative. Ce dernier raconte qu'en 1985, le terme « périmètre » a été lancépar un membre du cnu « habitué des mots d'esprit, àl'issue de longs débats pas toujours clairs et alors conflictuels ». Un termequi, selon Bernard Miège, est « à l'origine de bien des simplifications, ettoujours la cause de méconnaissances et d'incompréhensions ». Et ce dernierd'ajouter que les textes successifs rédigés par les membres du cnu ont été élaborés au prix de « patientesnégociations ». Il n'est qu' à lire le texte que rappelle ce dernier pour s'enconvaincre : « Est donc du ressort de la 71 e sectionl'étude des processus d'information et de communication relevant d'actionscontextualisées, finalisées, prenant appui sur des techniques, sur desdispositifs, et participant des médiations sociales et culturelles. Sontégalement pris en compte les travaux développant une approche communicationnellede phénomènes non communicationnels ». Bernard Miège dit de la rédaction de cetexte qu'elle est « assez contournée », comme l'est celle de « tout texte àvisée normative » et, ajouterons -nous, avec l'objectif plus ou moins explicite ,de standardiser les savoirs disciplinaires. Effectivement. Mais ne peut-ons'interroger aussi, dès lors que le type de recherche auquel ce contenu faitréférence couvre des domaines élargis, sur le fait que des non-qualifications dechercheurs aient pu, certaines années, être prononcées, au motif que leurstravaux ne marquaient pas suffisamment leur ancrage en sic ? Pour autant, la question du bornage demeure une question importante dont RobertBoure a surtout retracé les spécificités à partir de la littérature. On l'a dit ,Robert Bautier propose d'élargir les termes de l'analyse, notamment en tenantcompte des relations entre sic et linguistique, plusparticulièrement la sociologie du langage. Un questionnement de cet ordre a étémené par l'Association des sciences du langage (asl) ,avec une journée d'étude Sciences du langage et sciences de l'homme, organisée à Paris, à l'Ecolenationale supérieure, le 10 décembre 2005. Alice Krieg-Planque (2007) en rendcompte dans une contribution parue dans un ouvrage collectif. C'est surtout àl'angle institutionnel que celle -ci s'attache quand bien même fait-elleréférence à certaines pratiques de recherche. Dans les « récits de fondation( observables dans les manuels et dans les enseignements des « fondamentaux » parexemple) », elle constate des références communes entre sic et sciences du langage (sdl), lespremières, « s'origin[ant] en partie chez des auteurs et dans des travaux queles sdl elles aussi reconnaissent comme des figuresmajeures », avec cette précision « le Jakobson des linguistes n'est pas celuique l'on fréquente en sciences de l'information et de la communication »( Krieg-Planque, 2007 : 104). Revenant sur les créations de diplômes à partir de1977, elle souligne cependant que « les sic negarantissent qu'une place très périphérique aux sdl » (ibid. :105). Faisant référence, comme Bernard Miège, au texte du cnu de 1993, mais à propos d'un passage traitant explicitement dudomaine linguistique, elle note que, dans un cadre qui est celuid'une perspective de recrutement, l'accueil fait aux linguistes concerne undomaine circonscrit : l'informatique, les technologies, les sciences del'ingénieur, les finalités opérationnelles de traitement de l'information .Evoquant un rapport rédigé la même année par le Comité national d'évaluation desétablissements publics à caractère scientifique, culturel et professionnel (epcscp), elle constate, là encore, un écartd'interprétation entre des problématiques de recherche pourtant communes aux sic et aux sdl telle laquestion des significations. Alice Krieg-Planque (2007 : 107) en conclut que« l'institutionnalisation des sic se produit dans unrapport aux sdl, et non pas dans l'indépendance oul'ignorance à l'égard de celles -ci. Mais ce rapport laisse les sdl et ses points de vue (aussi divers soient-ils) dansune situation fragile, qui rappelle que les positions et les objets ne sont ,dans les institutions, jamais offertes mais toujours à défendre ». L'ensemble dela démonstration qui suit est éclairante par rapport au sujet : elle retrace lerôle de certains acteurs et de divers moyens de diffusion, dont les revues, dansles liens entre sic et sdl .Une réflexion du même type pourrait d'ailleurs être menée sur la liaisonavec l'anthropologie, l'ethnologie, l'histoire, la science politique ,sociologie, etc. Or, cette question des revues, sur laquelle se penche - notamment - AliceKrieg-Planque, est un point aveugle de l'échange autour des deux textes deRobert Boure.Si les contributeurs commentent l'analyse que ce chercheur fait durôle que les ouvrages de Daniel Bougnoux (e.g. 1992, 1993) et d'Yves Winkin( e.g. 1 98 1, 2003) ont pu jouerdans le formatage intellectuel de la discipline, ils restent discrets sur la ,place des revues. Pourtant, celles -ci constituent aussi un pan important duformatage disciplinaire tant par les sujets et objets qui y sont traités que parles chercheurs sollicités. Dansune précédente contribution, Stéphane Olivesi (2005) revenait sur les argumentsavancés par les lecteurs d'un article que lui -même avait soumis à une revue .L'analyse de ceux -ci lui permettait de montrer de quels présupposésscientifiques le recours au terrain était emblématique. Mais elle le conduisaitaussi à évoquer un aspect des motivations inhérentes à l'évaluation : « Pourparaphraser Pierre Bourdieu, on pourrait dire que les évaluateurs s'évaluenteux -mêmes par les évaluations qu'ils opèrent et qui les conduisent à mobiliserdes catégories qui disent, à leur insu, leur propre conditionnementépistémologique, véritable inconscient impliqué dans cette activité » (Olivesi ,2005 : 1 73). Aussi peut-on suggérer qu'une étudeapprofondie des choix opérés par les revues pourrait avec profit aider àcomprendre comment se déploie, au sein de la discipline, la mise en visibilitéde certains chercheurs ou groupes de chercheurs. On l'aura compris, impossible d'échapper à l'histoire des disciplines. Et cechantier pose d'immenses questions qui ne relèvent pas seulement de l'empirie( corpus, terrain, etc.), mais bien de l'élaboration théorique et méthodologiquedont on ne prend peut-être pas toute la mesure des avancées dans des travauxrécents. Ceci étant, avec Jean-Louis Fabiani (2006 : 28), on peut considérer queles sic sont loin d' être un hapax dans les shs : « Une des caractéristiques des sciences socialesest en effet la longueur des phases “pré-paradigmatiques” au sens que Kuhn[ 1970] donnait à l'expression : on peut aussi être amené à penser que lessciences de la société offrent à l'observateur le paradoxe de présenterconjointement : I) les aspects du maintien prolongé dansune phase prédisciplinaire, perceptible à travers l'intensité des mobilisationsidéologiques, la survivance des formes “salonnières” de sociabilité et laréitération des discours de fondation; et : 2) l'apparence d'unehyper-institutionnalisation, remarquable dans le fait que les ritesd'institution sont régulièrement “surjoués” ». Les preuves sont faciles àdonner : il suffit d'analyser les attendus des congrès de la sfsic, de dresser le bilan du fonctionnement des sessions du cnu sous l'angle des qualifications aux fonctions demaître de conférences ou de professeur Mais il est vrai aussi qu'il fautcomposer avec l' « image » des sic dans le paysage desshs. Les sic ne sont-ellespas un espace privilégié où se manifeste une tendance forte et productiveheuristiquement dans les shs contemporaines, soitl'hybridation qui déjoue les découpages hérités d'une approchestrucuralo-fonctionnaliste des disciplines ? Citons une fois encore Jean-LouisFabiani (ibid.) s'intéressant au « programme des sciencessociales » : pour lui, « les disciplines avortées ou les disciplines qui sontliées à des pratiques sociales plutôt qu' à des corps de savoir constituentd'excellents sujets de réflexion : les sciences de la communication, parexemple, sont définies par l'existence de formes diverses et évolutives detechnologies qui permettent de l'émission et la réception de messages mais nedonnent pas lieu au couplage d'un objet, d'une méthode et d'une communauté .Elles offrent l'exemple d'une institutionnalisation indépendante de l'émergenced'une matrice disciplinaire, fût -ce au sens le plus faible de la notiondéveloppée par Thomas Kuhn ». Au lecteur d'apprécier. .. et de réagir
Robert Boure (2006, 2007) a retracé en deux volets certains jalons de l'histoire des sciences de l'information et de la communication. Dans le premier, il posait cette question: « À quoi peut donc bien servir l'histoire des sciences de l'information et de la communication ? ». Pour y répondre, il confrontait l'histoire des chercheurs, et celle, officielle, des instances ayant pour mission de la représenter. Dans le second, il revenait sur un aspect de cette histoire: son origine littéraire. Dans cette livraison, Roger Bautier, Pierre Delcambre, Bernard Miège et Stéphane Olivesi discutent les choix épistémologiques et méthodologiques de ce dernier, interrogeant autant la démarche conduite et ses fondements que la discipline elle-même.
sciencesInfo_10-0023557_tei_1118.xml
termith-458-communication
Vingt-six ans après PostScript, créer une police consiste à dessiner des contours à l'aide de programmes comme FontLab ou Fontographer. Principalement parce que les formats de police standard s'expriment sous la forme de contours. Le Type 1 de PostScript, TrueType et OpenType utilisent des courbes de Bézier quadratiques ou cubiques reliées entre elles pour définir les limites de l' œil de chaque caractère de la police. Deux raisons à cela : chaque lettre a toujours la même apparence et la meilleure façon d'obtenir des contours est de les dessiner directement. La première raison s'explique par un a priori culturel qui prend ses racines dans les techniques industrielles du passé qui partaient d'un moule pour produire en grand nombre des copies identiques de l'image implicitement contenue dans ce moule. Avec l'adoption de l'ordinateur comme principal outil de création de polices, cette façon de faire a survécu et chaque caractère affiché ou imprimé est une copie fidèle de l'original. C'est là ne pas profiter de l'originalité de l'outil informatique qui permet nettement plus de souplesse. Comme Jay Bolter l'a écrit : « Le changement est la règle en informatique, la stabilité l'exception » (Bolter, 1991, p. 5). La deuxième raison émane d'une autre tradition technique : en 1885, Linn Boyd Benton élabora le premier pantographe qui permettait de graver la matrice d'une police à différentes forces de corps à partir d'un même modèle. Déjà, avant Benton, certains artistes de la Renaissance (par exemple Feliciano, Pacioli, Palatino, Dürer et Tory) tentèrent de définir les lettres capitales romaines sous la forme de constructions géométriques. La même méthode était utilisée par les graveurs pour ciseler des bijoux et créer des pièces de monnaie, c'est également ainsi que Sébastien Truchet conçut Le Romain du Roi (1695). L'utilisation du pantographe dans la création de polices comportait un défaut : le même dessin sert à toutes les forces de corps. C'est une rupture par rapport à la tradition des graveurs de poinçons qui modifiaient légèrement la forme et les proportions des œils selon la force afin d'éviter les changements perceptibles produits par le changement d'échelle des lettres. Les photocomposeuses utilisèrent le même principe que Benton. Passons en revue les réponses proposées à ces problèmes dans quelques recherches intéressantes. La plupart des créateurs de police travaillent à l'aide de (contours définis par des vecteurs) qui sont transformés en un plan de bits à l'écran ou sur papier. Les vecteurs sont des fonctions, la forme demeure donc invariable, contrairement au plan de bits, quelles que soient la force de corps et la définition choisies. On a élaboré des techniques complexes de nuancement (hinting) pour éviter ce problème. Un seul dessin s'adapte à toutes les forces de corps. Mais, si chaque trame de pixels est différente, garder le même dessin n'est qu'une option et ne devrait pas être la règle (rappelonsnous que l'adaptation est la règle pour l'ordinateur). Il est possible de faire en sorte qu'une police adopte un comportement dynamique selon une variable aléatoire ou tout autre précepte. La première police dynamique fut créée par Donald Knuth en 1980, il la rendit publique en 1988 (Knuth, 1988). Elle s'inspirait des graffitis punks des années 70 et elle déformait chaque trait d'une manière aléatoire comme s'ils étaient tracés sur un mur rugueux. Jacques André à transposé celle -ci en PostScript en 1989 (André et al., 1989) afin de la rendre vraiment dynamique en y rendant le positionnement aléatoire de chaque point du trait à chaque utilisation. Letterror (Middendorp, 2004), la même année, publia Beowolf (FontFont), une autre police aléatoire munie d'une fonction spéciale appelée freakto s'inspirant de lineto et curveto qui permet de préciser la position de chaque point du contour d'une lettre à l'intérieur d'un espace donné. En 1993, Letterror tenta de nouvelles possibilités sous la forme de la police Kosmik, qui propose trois glyphes différents pour chaque caractère qui seront utilisés dans le bon ordre (les auteurs ne trouveront qu'un seul mot avec trois lettres identiques successives : Sauerstoffflasche. Comme ils le faisaient remarquer dans un article du magazine Émigré 1 : « Les méthodes de typographie traditionnelle nous ont appris à considérer que chaque lettre d'une police particulière devrait toujours avoir le même aspect. Cette façon de penser résulte d'un processus technique et non l'inverse. Toutefois, il n'existe pas de raison technique qui oblige à produire à chaque fois une lettre numérique sous la même forme. Il est possible de calculer chaque point et chaque courbe différemment chaque fois qu'on produit un glyphe en modifiant légèrement les points qui défi-nissent un caractère dans plusieurs directions aléatoires [. ..] » Ces expériences intéressantes démontrent le potentiel des machines que nous utilisons. Pourquoi devrions -nous perpétuer une mentalité industrielle à l'époque de l'informatique ? Il nous est possible de produire des documents originaux dans leur composition à l'aide de nos ordinateurs à la manière d'artisans qui personnalisent leur production. Le marché aura sans doute le dernier mot, car il doit suivre une autre direction : actuellement les fonderies vendent des polices dépourvues de tout comportement dynamique. Les programmes de création de polices les plus communs définissent directement les contours qui seront stockés sous forme vectorielle (PostScript, TrueType ou Open-Type). Ikarus (depuis 1974), Fontographer (1985), FontLab (1992), DTL FontMaster (vers 1995) et FontForge (2000) sont les programmes les plus utilisés pour dessiner des polices, tous fonctionnent de cette manière. Mais la définition à l'aide de contours ne signifie pas qu'il faille les utiliser directement pour dessiner les caractères. En fait, comme on l'a vu, les écrans et les imprimantes manipulent en fin de compte des plans de bits alors que nous n'utilisons plus de polices à plans de bits. Les contours sont convertis en points et remplis : les polices vectorielles ne sont donc qu'un intermédiaire pour obtenir le résultat. Nous pourrions étendre ce principe et réaliser un système assez intelligent pour dessiner par lui -même les contours des caractères de n'importe quelle police, comme Donald Knuth le fit quand il élabora METAFONT dans les années 1970. Il s'inspira du mode de pensée de la calligraphie pour définir comment la machine devait dessiner les lettres tramées. Deux de ses meilleurs étudiants produisirent des extensions afin de permettre la création de contours : John Hobby et son METAPOST et Richard Kinch qui créa METAFOG. METAFONT n'est pas vraiment accessible à l'utilisateur moyen : il définit pas moins de 62 paramètres différents et nécessite des compétences en programmation. On comprend donc que peu de polices aient été créées de la sorte, mais le chercheur peut en dégager des leçons importantes : il s'agit en effet d'une solution à un problème complexe qui reste ouverte. Comme nous l'avons mentionné ci-dessus, les polices vectorielles utilisent un même dessin pour le même glyphe dans toutes les forces de corps. On peut, bien sûr, définir des polices pour chaque classe de force de corps (habituellement quatre : notes de bas de page, texte courant, sous-titre et titre), mais chaque nouvelle police multiplie le travail à effectuer. Dessiner des contours est rapide, mais ce travail devient laborieux quand il y en a beaucoup trop. On comprend qu'il faille donc une sorte de mise à l'échelle intelligente. METAFONT, est le premier système dote d'une mise à l'échelle dite optique. Chaque force de corps est rendue de façon indépendante, on peut donc faire subir de légères variations aux paramètres qui déterminent l'apparence finale. Jacques André a élaboré un système de mise à échelle non linéaire au sein de PostScript avant d'écrire plusieurs communications intéressantes sur le sujet (André et al., 1994). Peter Karow, créateur d'Ikarus, a mis au point le module-KQ en 1991 au sein du programme HZ (Karow, 1997), en collaboration avec Hermann Zapf, en utilisant l'interpolation comme principal outil. En 1992, six ans après la version finale de METAFONT, Adobe publia le format Multiple Master qui repose sur l'interpolation entre plusieurs archétypes selon un ou plusieurs axes; une fois paramétré par l'utilisateur le système produit une police PostScript Type 1. Ces polices étaient chères et seul Adobe Illustrator permettait d'en créer interactivement des instances. Adobe a annoncé en 2000 l'abandon des Multiple Masters dans le cadre de l'accord avec Microsoft qui a conduit au format OpenType. Vers le milieu des années 1990, on vit apparaître quelques beaux programmes comme Ares Chameleon et Incubator – tous les deux ont disparu depuis – qui offraient cette fonctionnalité. Il nous faut aussi évoquer ici TrueType GX, la solution concurrente d'Adobe au Multiple Master qui, malheureusement, n'était pas correctement pris en charge par les fabricants d'outils de conception graphique. Nous disposons actuellement d'OpenType qui possède une fonctionnalité fontsize qui – espérons -le – sera présente dans des familles de polices afin d'indiquer au moteur de rendu quelle police convient à une force de corps donnée. Comme nous avons tenté de le montrer, il existe une alternative aux programmes de dessins vectoriels, quelques options ont disparu, d'autres sont difficiles d'accès et nécessitent la connaissance de la programmation de telle sorte que peu de gens les utilisent. Il est une chose que les dessinateurs de fontes doivent accepter : il faut désormais savoir programmer. Les principales applications de conception graphique combinent le dessin direct et la composition à l'aide de langage informatique afin d'éviter les tâches répétitives ou de créer de nouveaux effets. C'est le cas d'outils, comme Flash avec ActionScript, InDesign avec JavaScript ou FontLab avec Python. N'utilisons pas les filtres de Photoshop, créons -en de nouveaux. Quand l'outil ne permet pas de faire ce que le projet requiert, il faut alors élaborer de nouveaux programmes ou de nouveaux scripts pour créer des alphabets, faciles à utiliser, avec peu de paramètres et s'inspirant des principes calligraphiques. Nous avons conclu que les méthodes de dessin vectoriel plongent leurs racines dans des techniques industrielles de production à la chaîne et que l'ordinateur est un outil plus proche de la démarche artisanale qui nous permet de créer des produits uniques, ou en petites séries, à la maison, seul sans assistance, sans moule coûteux et sans machine. La typographie est une invention industrielle, la calligraphie un vieil art qui s'adapte à la faculté d'adaptation de l'ordinateur. La calligraphie s'articule sur plusieurs préceptes, elle est donc facile à appréhender et des préceptes ou des règles peuvent être transposés en paramètres. Si l'on sait apprendre à bien écrire à des étudiants, il est possible de faire de même avec une machine. C'était aussi la principale source d'inspiration des pionniers de la typographie, ces deux techniques partagent donc beaucoup d'aspects. Dans l'esprit d'un concepteur de polices vectorielles, les deux lettres de la figure 1 sont possibles. Ces deux contours ont le même nombre de points de contrôles, la direction des contours est correcte, il n'y a donc rien à redire à leur sujet. Toutefois, seul l' « A » à gauche nous est familier, pourquoi ? On peut songer à des raisons historiques, au poids de la tradition, le fruit de l'habitude. En fait, c'est l'instrument primitif utilisé pour écrire nos lettres, le roseau, qui explique que le trait à gauche est plus fin que celui de droite (Catich, 1968). Le calame, ce roseau taillé, est le principal outil traditionnel pour les écritures occidentales et proche-orientales alors que le pinceau fut l'instrument préféré dans le monde extrême-oriental. Le calame et la grosse plume (qui partagent les mêmes caractéristiques) créent des traits différents selon le sens et l'angle du bec. Pour les lettres romaines, l'angle était de 20° à 30° : le trait tracé en se déplaçant vers le bas à gauche devient fin et redevient épais en se déplaçant vers la droite. Le diagramme de la figure 2 illustre cette relation. Une profonde connaissance de la calligraphie (Mediavilla, 1993) peut donc être très utile lors de la création de police, particulièrement les polices de labeur. Bien qu'elles soient deux formes différentes de l'écriture, les lettres de notre alphabet partagent de nombreux éléments structurels et formels : qu'elles soient manuscrites, peintes, gravées ou préfabriquées (typographies); elles possèdent une structure ou une charpente commune que nous appellerons le cursus ou chemin parcouru par l'outil sur le support d'écriture. L'outil possède une certaine forme et se comporte d'une certaine manière pendant ce déplacement, ces deux facteurs déterminent la forme fi-nale du caractère et son contraste. Nous nommerons cela le modus ou la modulation. Un changement radical dans le sens du cursus des lettres produit un nouvel alphabet, un changement dans leur modus crée de nouveaux éléments dans la famille graphique (gras ou maigre par exemple). L'outil détermine l'ordre des traits (le ductus). Si les changements au cursus sont arbitraires, ceux au modus sont systématiques, ils peuvent donc être paramétrés. Examinons de plus près le comportement du cursus. Il existe deux genres de traits selon le sens de la plume (figure 3) : les pleins qui glissent vers le bas et sont faciles à dessiner et les déliés qui remontent en poussant la plume sont plus difficiles à tracer. Les lettres faites de pleins se nomment romaines, leur tracé est interrompu, brisé. Les lettres cursives sont, au contraire, composées de pleins et de déliés reliés entre eux, leur tracé est continu, lié Le modus, pour sa part, est déterminé par la forme de l'outil et par les mouvements pendant son déplacement. La calligraphie occidentale utilise principalement deux outils : la plume large (une évolution du calame) et la plume pointue (qui vit le jour autour du xie siècle avec les cursives gothiques et devint très courante à la Renaissance). La plume large est rigide, produit des traits réguliers, centrés sur le cursus, ce que notre équipe appelle la translation. La plume pointe est souple et fine, elle produit des traits d'épaisseur variable, selon la pression appliquée par la main. Nous appelons ceci l'expansion 2 (figure 4). Un bon calligraphe parvient également à varier l'angle de la plume pendant le mouvement de translation ou d'expansion. On nomme cette opération la rotation du bec. La combinaison de ces éléments donne au scripteur un large éventail de possibilités. Brossons rapidement ci-dessous un portrait succinct de l'histoire de l'écriture : Antiquité et Moyen Âge : après l'invention de l'alphabet, le roseau et la plume large sont les principaux outils pour la production de texte non gravé. Paramètres entrant en jeu : translation, pas de rotation. Renaissance : plume pointue souple, expansion, pas de rotation Maniérisme : plume large ou pointue, translation ou expansion, rotation Romantisme et néoclassicisme : plume pointue souple et angle fixe Contemporain : outil souple (pinceau), expansion, rotation On peut définir la typographie comme « l'écriture à l'aide de lettres préfabriquées » (Noordzij, 2000). Il importe donc peu si ces lettres sont influencées par la calligraphie ou le lettrage. Aujourd'hui, la calligraphie n'a, peu ou prou, pas d'in-fluence sur la typographie, car les techniques modernes (le dessin vectoriel) sont semblables au lettrage, à savoir à l'aide d'une suite de traits. Nous voulons parler de ce sujet, et nous ne sommes pas les seuls. Cette façon de pensée nous a mené à relever un nouveau défi : créer un nouveau système qui respecte ce principe spécial : travailler directement avec des vecteurs et non avec des contours. Le résultat est Constructor, un programme qui fonctionne tout en respectant l'esprit de la calligraphie. J'ai élaboré Constructor dans le cadre de ma thèse de doctorat en collaboration avec Marc Antoni Malagarriga i Picas qui a écrit l'algorithme en langage PostScript. Aujourd'hui, deux applications séparées le composent : cursus.ps et ductus.ps. Le premier module prend le fichier eps créé par l'utilisateur à l'aide d'un programme de dessin vectoriel comme Freehand ou Illustrator,squelette des glyphes, et analyse le nom bre de traits et de oints de contrôle et les affiche dans un fichier pdf à l'aide de couleurs différentes. On crée ensuite un fichier txt qui énumère chaque point de contrôle auquel on pourra ajouter les valeurs de paramètres décrites dans la section 6. Après le réglage de ces paramètres, ductus.ps dessine la suite des lignes selon les instructions données par l'utilisateur et crée un pdf comme résultat. Après avoir vérifié les résultats de ductus.ps, nous avons produit une interface utilisateur. La première version est un module PHP pour exécution à distance. Nous sommes actuellement à la recherche de partenaires pour collaborer à la mise au point d'une seconde interface dans un langage de programmation de haut niveau exécuté localement qui serait adapté à Linux, MacIntosh et Windows OS. Nous désirons en faire un projet de source libre Open Source parce que nous voulons que tout un chacun puisse utiliser notre système sans restriction. La première étape consiste à tracer le cursus dans un format eps, l'application crée une suite de vecteurs dont le comportement est régi par quelques paramètres (épaisseur, type de contraste, rotation et calage avant enfin de produire le contour, éditable au besoin. Il existe aussi des paramètres généraux qui régissent certains aspects importants comme les variations horizontales d'échelle. On peut également modifier l'épaisseur générale. Ceci signifie qu'on peut créer une famille de polices entière en quelques minutes. Il est également possible de changer le contraste : Le type de construction : Il est également possible de laisser le programme choisir des valeurs au sein d'un intervalle précisé par l'utilisateur. La dernière option présentée ci-dessus est très intéressante, car nous opérons ici avec un nouveau concept, plus souple, adapté à l'ordinateur, qui n'imite plus les anciennes formes issues de la typographie au plomb. Nous avons effectué d'autres tests pour vérifier s'il serait opportun de faire revivre les caractères en plomb, il nous semble qu'il est difficile de reproduire certaines subtilités 3. La facilité d'utilisation du système permet de combiner le monde de la calligraphie et celui du lettrage. Constructor, notre programme, peut être utilisé pour déterminer la structure et la forme principale d'une lettre alors que la finition peut s'effectuer à l'aide d'outils vectoriels. Les changements se font facilement et rapidement sans avoir besoin de redessiner chaque lettre pour en faire une version grasse ou étroite. Nous avons trouvé ce programme nettement plus facile d'emploi que METAFONT. Les utilisateurs ne doivent régler que quelques paramètres à chaque point de la structure et ils peuvent la dessiner à l'aide d'éditeurs de graphiques vectoriels comme Freehand ou Illustrator. Le résultat peut être tracé à l'aide de Streamline d'Abobe ou de tout autre outil similaire et copié/collé tel quel dans Fontographer ou FontLab. Il est donc possible de marier calligraphie et typographie, opérer sur la structure et le contraste à l'aide de Constructor et, ensuite, affiner le contour et d'autres détails. La production de différentes versions d'une famille de polices est très rapide, plus rapide qu'avec un logiciel de contour. Il est donc possible d'utiliser Constructor pour produire la première version d'un alphabet, pour effectuer des tests et apporter des corrections. Une fois ce travail terminé, la finition peut être accomplie à l'aide de programmes d'édition de polices vectorielles comme FontLab, Fontographer ou Font-Forge en touchant les points terminaux et les BCP des contours .
L'incertitude concernant la guerre des polices est révolue. Nous avons aujourd'hui de puissants ordinateurs, des systèmes de visualisation et d'impression à différentes définitions et une kyrielle de programmes pour saisir et formater les textes. Nous avons aussi désormais accès à des fonctionnalités typographiques subtiles, programmables et sensibles au contexte. Ces documents peuvent être diffusés sur la Toile dans de nombreuses langues et dans des fichiers multiplateformes. Mais nous avons peut-être perdu quelque chose en chemin. Il est temps d'évaluer le travail effectué par les grands pionniers de la typographie numérique et d'appliquer leurs belles idées à notre domaine de recherche. Les formats de police standard (PostScript, TrueType et OpenType) sont parfois trop rigides pour certains concepteurs de police, c'est pourquoi nous nous penchons dans cette communication sur les systèmes typographiques intelligents et souples comme METAFONT et les expériences de la fin des années 80 (Jacques André, Letterror, Hermann Zapf, parmi d'autres) et les développements intéressants du milieu des années 90 (Ares Chameleon, Incubator, Intellifont) qui ont, malheureusement, disparu sous la pression du marché. Selon nous, ces idées ne devraient pas être oubliées, c'est pourquoi nous présentons ci-dessous quelques progrès récents réalisés dans la mise au point d'un nouveau système nommé Constructor particulièrement destiné à la création directement en langage PostScript de polices paramétrées à l'aide de connaissances calligraphiques similaires à celles utilisées dans METAFONT.
sciencesInfo_07-0514620_tei_DN_093_0117.tei.xml
termith-459-communication
EN 2005, PLUS DE QUINZE ANS APRES LA publication du document communautaire Lignes directrices pour améliorer la synergie entre secteur public et secteur privé sur le marché de l'information [1] 1, la France a transposé par ordonnance et décret la directive communautaire concernant la réutilisation des informations du secteur public publiée deux ans auparavant. Ces textes récents sont issus d'une longue et progressive évolution des conditions techniques, économiques et sociales qu'expriment les textes communautaires et nationaux successifs. Suivant les époques et les priorités politiques, les notions d'accès citoyen à l'information publique, de diffusion de cette information et de réutilisation commerciale sont soit bien identifiées avec une priorité donnée à l'une ou à l'autre, soit au contraire intégrées les unes aux autres sans claire définition d'une politique. La France dispose aujourd'hui d'un cadre satisfaisant pour faciliter la réutilisation des informations émanant du secteur public. En impulsant une nouvelle dynamique pour le secteur de l'information professionnelle, la nouvelle législation ouvre de nombreuses possibilités de développement économique tant pour les producteurs publics que pour les opérateurs privés. Il s'agit aussi pour l'administration, dans le cadre de la modernisation de l' État, de relever le défi de cette ouverture plus large au secteur concurrentiel par la qualité de l'information, par l'adaptation à l'évolution des formats et des méthodes de transmission et par le dialogue avec les sociétés privées et les utilisateurs. Malgré l'action des associations professionnelles dans le domaine de l'information, ces textes sont encore trop peu connus. Leur application par les services publics se fait très lentement et les sociétés privées ignorent très souvent les possibilités qui leur sont offertes, la richesse et la variété des ressources informationnelles qui sont accessibles. Il faut faire largement connaître les droits et les devoirs des différentes parties, institués par les textes de 2005, et apporter des réponses aux questions que pose leur mise en pratique. La liberté d'accès aux documents administratifs est organisée en France par la loi du 17 juillet 1978 « portant diverses mesures d'amélioration des relations entre l'administration et le public et diverses dispositions d'ordre administratif, social et fiscal 2 ». Modifiée par celle du 12 avril 2000 [9] relative aux droits des citoyens dans leurs relations avec l'administration, cette loi définissait les documents administratifs, leurs conditions d'accès, ainsi que la fonction et la composition de la Commission d'accès aux documents administratifs (CADA) chargée de veiller au respect de cette liberté d'accès. À la fin des années quatre-vingt, les méthodes d'accès et de diffusion ont évolué et la demande des utilisateurs professionnels, qui porte sur la commercialisation et la réutilisation des informations publiques [voir le hors texte « Qu'est -ce qu'une information publique ? » page 222 ], provoque la publication de rapports et de textes officiels communautaires et français dont les principaux sont mentionnés dans le tableau 3. En 1989, le premier document européen sur le sujet, déjà cité [1 ], indique le souci de la complémentarité et de l'équilibre entre les droits et les devoirs des deux parties. Il s'agit d'un document important mais dont la faiblesse, ultérieurement dénoncée, réside dans le statut peu contraignant. En France, trois ans plus tard, le rapport de Philippe Gaudrat pose, par son titre même, Commercialisation des données publiques [2 ], la question de la vente de ces données, soit directement par l'organisme public, soit en partenariat avec le secteur privé. Ce premier pas franchi, les contributions françaises au débat s'intensifient durant les années suivantes. La circulaire du 14 février 1994, dite « circulaire Balladur » [3 ], définit les règles générales de conduite : la diffusion des données publiques doit être confiée à des services spécialisés publics ou privés; les services publics doivent plutôt faire faire que faire et respecter les règles de la concurrence; les conditions permettant à un organisme public de diffuser des données à valeur ajoutée sont indiquées. Durant les années suivantes, plusieurs rapports précisent les statuts des différents organismes publics diffusant des données (administrations et établissements publics dont cette activité est la mission principale : Institut géographique national, Institut national de la propriété industrielle, Météo France, La Documentation française, etc.), signalent les secteurs d'activité particulièrement sensibles (données géographiques et météorologiques, informations juridiques et informations sur les entreprises, etc.) et proposent la création d'une instance de concertation paritaire et indépendante [4] [5] [8 ]. Près de dix ans après son premier document, la Commission européenne publie en 1998 un Livre vert sur l'information émanant du secteur public dans la société de l'information [6 ]. Les nombreuses réponses des opérateurs privés, des organismes publics et des associations professionnelles aux questions posées par ce document 3 permettent à la Commission de publier la directive du 17 novembre 2003 [11] concernant la réutilisation des informations du secteur public. Dans l'objectif de permettre aux entreprises européennes d'exploiter et de valoriser le potentiel des informations publiques et de contribuer à la croissance économique et à la création d'emplois [voir le hors texte « Valorisation des informations publiques » page 223 ], la directive fixe un ensemble minimal de règles et de moyens pratiques pour faciliter la réutilisation de ces informations : principe général, traitement des demandes, principes de tarification, licences, non-discrimination, etc. Cet objectif de croissance prend en compte les limites actuelles du marché de l'information. Parmi les pays qui ont transposé la directive européenne [voir le hors texte « La transposition dans les pays de l'Union » page 225 ], le Royaume-Uni a effectué un travail particulièrement intéressant. L'Office of Fair Trading, équivalent britannique du Conseil de la concurence, a publié en décembre 2006 un rapport intitulé The commercial use of public information 4. Ce rapport évalue à 870 millions d'euros les revenus issus en 2005 de l'information publique, soit par vente directe, soit par vente issue de la réutilisation de cette information au Royaume-Uni. Il évalue aussi le manque à gagner, c'est-à-dire le montant du chiffre d'affaires qui serait réalisé si étaient levés les différents freins actuellement mis par les administrations et les organismes publics à la réutilisation de leurs données : prix de vente trop élevé (30 M €), restrictions d'accès (206 M €) et non-accessibilité de l'information (529 M €). Le déficit de l'activité économique est donc évalué à 765 M €, soit 88 % du marché actuel, ce qui correspond à un marché potentiel de 1,635 milliard d'euros [tableau 1 ]. Le potentiel du marche de l'information publique au Royaume-Uni en 2005. Évaluation en millions d'euros Chiffre d'affaires de l'information publique Limites à la réutilisation l'information publique l'information publique Chiffre d'affaires potentiel de de l'information publique Prix trop élevés Restrictions d'accès Inaccessibilité de l'information Établissements publics 736 30 147 913 Administrations 30 30 Autres (informations peu diffusées ) 104 59 529 692 Total 870 30 206 529 1 635 765 (88 % ) Source : The commercial use of public information (CUPI). Étude de l'Office of Faire Trading 20064 .Un calcul analogue peut être effectué pour le marché français sur la base de l'étude Serda-Archimag réalisée pour le GFII : L'information électronique professionnelle en France 5. Le chiffre d'affaires 2005 est de 1,336 milliard d'euros, le chiffre d'affaires provenant de l'information publique est évalué pour l'ensemble des secteurs d'activité à 53 % du chiffre total, soit environ 708 M € [tableau 2 ]. En appliquant à ce chiffre, comme dans l'étude anglaise, le rapport de 88 % correspondant au déficit imputable aux freins mis par les administrations à la réutilisation des données publiques, on peut évaluer le manque à gagner à environ 623 M € et donc le marché potentiel à environ 1,331 milliard d'euros. Étant donné la moindre ouverture actuelle des gisements publics français, la proportion de 88 % figurant dans le rapport anglais peut être considérée comme une hypothèse basse pour la France. Le marche de l'information publique en France en 2005. Évaluation en millions d'euros Chiffre d'affaires global de l'information électronique professionnelle Part de l'information publique * Chiffre d'affaires de l'information publique Information financière 271 50 % 136 Information de presse 234 0 % 0 Information juridique 186 100 % 186 Information scientifique, technique et médicale 147 80 % 118 Information de solvabilité 112 100 % 112 Information multisectorielle 111 50 % 55 Information images 94 0 % 0 Information marketing 83 50 % 41 Information économique 76 50 % 38 Information de propriété industrielle 22 100 % 22 Total 1 336 53 % 708 Source : L'information électronique professionnelle en France : le marché en 2006 et les tendances. Étude Serda-Archimag réalisée pour le GFII, 20075 . * Pourcentage du chiffre d'affaires réalisé à partir de l'information publique (vente directe et vente par des opérateurs privés) .Les différents rapports français et la directive européenne avaient, à juste raison, bien différencié l'accès citoyen (éventuellement gratuit) et la réutilisation commerciale qui demande d'autres conditions techniques et tarifaires 6. Les premiers travaux français de transposition, en 2004, ne font pas cette distinction; ils intègrent les deux notions et s'intéressent particulièrement à l'accès citoyen gratuit à l'information publique, ce qui n'est pas l'objectif de la directive européenne. Il est aussi rapidement indiqué que la transposition sera effectuée par ordonnance et décret et ne fera donc pas l'objet d'un débat parlementaire. En effet, l'article 1er de la loi du 9 décembre 2004 de simplification du droit a autorisé le gouvernement à modifier et à compléter par ordonnance les dispositions de la loi de 1978. Après différentes mises au point des autorités publiques en charge du dossier est publiée l'ordonnance du 6 juin 2005 [13 ], suivie de son décret d'application du 30 décembre 2005 [14 ]. Ces deux textes, qui ont des contenus très proches de celui de la directive européenne, voire dans certains cas identiques, sont complétés par une lettre du Premier Ministre en date du 29 mai 2006 [15 ]. Leurs dispositions simplifient et modernisent le régime d'accès aux documents administratifs, encadrent la réutilisation des informations publiques et renforcent les attributions de la Commission d'accès aux documents administratifs (CADA) qui devient une autorité administrative indépendante. Ces trois textes s'intègrent néanmoins dans une modification de la loi du 17 juillet 1978 concernant la liberté d'accès aux documents administratifs à laquelle s'ajoute un chapitre II, « De la réutilisation des informations publiques », et ne prévoient pas la création d'un organisme paritaire de concertation comme cela était à nouveau proposé 7. C'est un mélange des genres préjudiciable à une définition efficace de la réutilisation commerciale des informations publiques contre lequel se sont élevées les associations professionnelles qui avec le GFII ont constitué un groupe de travail interassociations « Diffusion des données publiques » [voir le hors texte « Les associations professionnelles actives au sein du groupe inter-associations » page 226 ]. Ces associations participent depuis plus de dix ans aux différents projets communautaires et français. Elles recueillent les réactions de leurs adhérents aux textes proposés, expriment ces positions et font part de leurs propositions par des communiqués de presse, des lettres aux organismes concernés et des journées d'information 8 [tableau 4 ]. Il s'agit d'une profonde modification de la loi de 1978 puisque la possibilité d'accès à l'information publique et de réutilisation de celle -ci se substitue aux conditions d'accès et à l'interdiction de réutilisation 9 : « Les informations figurant dans des documents élaborés ou détenus par les administrations mentionnées à l'article 1er, quel que soit le support, peuvent être utilisées par toute personne qui le souhaite à d'autres fins que celles de la mission de service public pour les besoins de laquelle les documents ont été élaborés ou sont détenus. Les limites et conditions de cette réutilisation sont régies par le présent chapitre, même si ces informations ont été obtenues dans le cadre de l'exercice du droit d'accès aux documents administratifs régi par le chapitre Ier. 10 » Qu'est -ce qu'une information publique ? Les informations publiques sont des informations détenues par l' État, les collectivités territoriales et les personnes publiques ou privées chargées de la gestion d'un service public et qui sont considérées comme accessibles au public et donc réutilisables (circulaire du Premier Ministre du 29 mai 2006). Ces informations sont ainsi issues de producteurs publics institutionnels dont l'activité est organisée en vue de leur diffusion (IGN, Météo France, INPI, etc.) ou de services auxquels les textes assignent comme mission principale la diffusion de données produites par d'autres administrations (Direction des journaux officiels, Documentation française). Au total, les organismes sources d'information publique sont extrêmement nombreux : ministères, préfectures, communes, départements, régions, établissements publics nationaux et locaux, organismes chargés de la gestion d'un service public, etc. Les secteurs d'activité pour lesquels la réutilisation de l'information publique est particulièrement importante pour les opérateurs privés sont : l'information géographique avec le marché de l'information cartographique; l'information juridique qui alimente le marché de l'édition juridique; l'information sur les entreprises avec les données d'identification des entreprises et de leurs dirigeants et les données économiques et financières; l'information météorologique avec une dimension internationale obligatoire; l'information de propriété industrielle avec les données de brevets, de marques et de dessins et modèles. Le législateur prend acte de l'enjeu économique que constituent les informations publiques, en raison de leur potentiel commercial : « À la préoccupation de la transparence administrative qui a inspiré la loi du 17 juillet 1978, vient ainsi s'ajouter un objectif de développement de l'activité économique par une meilleure valorisation des gisements de données dont dispose l'administration. 11 » L'ordonnance du 6 juin 2005 stipule que, « lorsqu'elle est soumise au paiement d'une redevance, la réutilisation d'informations publiques donne lieu à la délivrance d'une licence. Cette licence fixe les conditions de la réutilisation des informations publiques. Ces conditions ne peuvent apporter de restrictions à la réutilisation que pour des motifs d'intérêt général et de façon proportionnée. Elles ne peuvent avoir pour objet ou pour effet de restreindre la concurrence. Les administrations qui élaborent ou détiennent des documents contenant des informations publiques pouvant être réutilisées […] sont tenues de mettre préalablement des licences types, le cas échéant par voie électronique, à la disposition des personnes intéressées par la réutilisation de ces informations. 12 » Une société qui avait estimé trop restrictives les conditions d'une licence a obtenu gain de cause à la suite d'un avis favorable de la CADA qu'elle avait sollicitée. En revanche, lorsqu'elle n'est pas subordonnée à la délivrance d'une licence, la réutilisation d'informations publiques ne nécessite pas de recueillir l'autorisation préalable de l'administration. Si un refus est opposé à une demande de réutilisation, « il convient en tout état de cause de motiver une décision de rejet 13 ». L'établissement de tels répertoires est imposé : « Les administrations qui produisent ou détiennent des informations publiques tiennent à la disposition des usagers un répertoire des principaux documents dans lesquels ces informations figurent. 14 » Ce répertoire doit « précise [r ], pour chacun des documents recensés, son titre exact, son objet, la date de sa création, les conditions de sa réutilisation et, le cas échéant, la date et l'objet de ses mises à jour 15. » Le décret d'application prévoit encore que, « lorsque l'autorité administrative dispose d'un site internet, elle rend le répertoire accessible en ligne ». L'établissement de ce répertoire est obligatoire pour toute autorité administrative sans considération de sa dimension. Les collectivités territoriales de petite taille ne sont pas exclues de cette obligation. Le fait que celles -ci n'entendent pas soumettre l'utilisation de leurs informations à des conditions particulières de réutilisation dans le cadre de licences ne les dispense pas davantage d'établir ce répertoire. En revanche, ces dispositions ne confèrent pas un caractère exhaustif à ce répertoire. Les administrations disposent donc d'une marge d'appréciation pour définir les documents qui doivent y figurer, en tenant notamment compte de l'intérêt que pourrait présenter leur réutilisation. La modification apportée à la loi de 1978 par l'ordonnance et le décret de 2005 élargit la compétence de la Commission d'accès aux documents administratifs à la réutilisation des informations publiques. « Autorité administrative indépendante », la CADA est chargée « de veiller au respect de la liberté d'accès aux documents administratifs et aux archives publiques ainsi qu' à l'application du chapitre II relatif à la réutilisation des informations publiques dans les conditions prévues par le présent titre et par le titre Ier du livre II du code du patrimoine. Elle émet des avis lorsqu'elle est saisie par une personne à qui est opposé un refus de communication d'un document administratif en application du chapitre Ier, un refus de consultation des documents d'archives publiques, à l'exception des documents mentionnés au c de l'article L. 214-4 du code du patrimoine, ou une décision défavorable en matière de réutilisation d'informations publiques. 16 Par ailleurs, alors que la CADA n'avait jusqu'alors qu'un rôle purement consultatif, l'ordonnance a instauré un mécanisme de sanction à l'encontre des personnes qui réutilisent les informations publiques en méconnaissance des nouvelles dispositions. Les avis demandés à la CADA pour l'application de la loi sont, d'une part, des demandes d'éclaircissement sur le contenu de ces textes et, d'autre part, des questions pratiques de réutilisation posées soit par des organismes publics qui interrogent sur la possibilité de réutilisation de leurs données, soit par des sociétés privées qui demandent cette utilisation ou qui font appel à la suite d'un refus. Les ministères, préfectures, communes de dix mille habitants ou plus, départements, régions, établissements publics, etc., sont tenus de nommer une « personne responsable de l'accès aux documents administratifs et des questions relatives à la réutilisation des informations publiques ». En cette qualité, celle -ci est chargée de : « 1° Réceptionner les demandes d'accès aux documents administratifs et de licence de réutilisation des informations publiques ainsi que les éventuelles réclamations et de veiller à leur instruction; « 2° Assurer la liaison entre l'autorité auprès de laquelle elle est désignée et la commission d'accès aux documents administratifs. « Elle peut être également chargée d'établir un bilan annuel des demandes d'accès aux documents administratifs et de licence de réutilisation des informations publiques qu'elle présente à l'autorité qui l'a désignée et dont elle adresse copie à la commission d'accès aux documents administratifs. 17 » Chaque organisme est libre de l'organisation de cette nomination, qu'il s'agisse d'une personne seule ou du responsable d'un réseau, soit géographique soit sectoriel, suivant la mission de l'organisme public. Il appartient donc à chaque organisation concernée d'évaluer si les questions qui vont être posées à ce correspondant portent plutôt sur l'accès ou sur la réutilisation des informations publiques pour déterminer en conséquence le « profil » le plus adapté du responsable. L'ordonnance précise que « la réutilisation d'informations publiques peut donner lieu au versement de redevances ». « Pour l'établissement des redevances, l'administration qui a élaboré ou détient les documents contenant des informations publiques susceptibles d' être réutilisées tient compte des coûts de mise à disposition des informations, notamment, le cas échéant, du coût d'un traitement permettant de les rendre anonymes. « L'administration peut aussi tenir compte des coûts de collecte et de production des informations et inclure dans l'assiette de la redevance une remuneration raisonnable de ses investissements comprenant, le cas échéant, une part au titre des droits de propriété intellectuelle. Dans ce cas, l'administration doit s'assurer que les redevances sont fixées de manière non discriminatoire et que leur produit total, évalué sur une période comptable appropriée en fonction de l'amortissement des investissements, ne dépasse pas le total formé, d'une part, des coûts de collecte, de production et de mise à disposition des informations et, d'autre part, le cas échéant, de la rémunération définie au présent alinéa. 18 » Qu'est -ce que la valorisation des informations publiques ? « Les informations émanant du secteur public constituent une matière première importante pour les produits et les services de contenu numérique et deviendront une ressource de plus en plus importante sur le plan du contenu numérique à mesure que les services de contenu sans fil se développeront. » (Considérant 5 de la directive européenne 2003/98/CE du 17 novembre 2003 [11 ]) « L'enjeu des données publiques dépasse celui de leur consultation par les usagers du service public. Elles constituent en effet la matière première d'un marché très important pour le secteur privé, qui peut faire un usage commercial de la production d'informations publiques. » (Rapport de la Commission sur l'économie de l'immatériel [16 ]) Les opérateurs privés réutilisent ces données avec différents niveaux de valeur ajoutée : addition de données, intégration, calculs, classements, marketing, etc. Quelques exemples de valorisation : données sur les entreprises : calculs des ratios financiers, classement et notation d'entreprises, indice de solvabilité, assurance-crédit, cartographie des dirigeants et des actionnaires, études de marché, aides à l'implantation d'entreprises, marketing ciblé par données financières, secteurs d'activité, localisations, etc.; données géographiques : représentation topographique et cartographique, techniques de positionnement satellite, systèmes de navigation, géolocalisation et calcul de chemins, modélisation, géomarketing, etc.; données de propriété industrielle : veille technologique et concurrentielle, intégration dans le processus d'intelligence économique, indicateurs sectoriels et géographiques, création de nouveaux noms de marques, analyse automatique de textes de brevets, etc.; données juridiques : commentaires, liens entre textes, etc. Textes communautaires Textes français Tous les textes législatifs et réglementaires cités peuvent être consultés sur le site wLignes directrices pour améliorer la synergie entre secteur public et 1989 secteur privé sur le marché de l'information. hCommercialisation des données publiques, rapport / Philippe Gaudrat. La Documentation française, 1992. 96 p . 1994 Chronologie des textes communautaires et français relatifs a la diffusion des données publiques : 1989-2007 [3] Circulaire du 14 février 1994 relative à la diffusion des données publiques. Journal officiel, 19 février 1994, p. 2864-2868 1997 [4] La commercialisation des données publiques, atelier de la Direction générale de la concurrence, de la consommation et de la répression des fraudes, Ministère de l' Économie et des Finances, 29 janvier 1997. 182 p . [5] Diffusion des données publiques et marché de l'information, rapport Pierre Soubie. Paris, Communication publique, 1997. 34 p . [6] L'information émanant du secteur public : une ressource clef pour 1998 [7] Programme d'action gouvernemental pour préparer la société de l'Europe. Livre vert sur l'information émanant du secteur public dans l'information (PAGSI). Voir hsociété de l'information. 30 p. COM (1998) 585. 1999 [8] Diffusion des données publiques et révolution numérique : rapport de l'atelier « Des moyens nouveaux au service de la diffusion des données publiques » / Commissariat général du Plan; président Dieudonné Mandelkern; rapporteur Bertrand du Marais. La Documentation française, 1999. 123 p. hLoi n° 2000-321 du 12 avril 2000 relative aux droits des citoyens dans leurs relations avec les administrations. Journal officiel, n° 88, 13 avril 2000, p. 5646 [10] eEurope 2002 : créer un cadre communautaire pour l'exploitation 2001 de l'information émanant du secteur public. Communication de la Commission au Conseil, au Parlement européen, au Comité économique et social et au Comité des régions. 23 octobre 2001. 17 p. COM (2001) 607 final. h2003/98/CE du Parlement européen et du Conseil du 2003 17 novembre 2003 concernant la réutilisation des informations du secteur public. Journal officiel de l'Union européenne n° L 345 du 31 décembre 2003, p. 90-96, hLoi n° 2004-1343 du 9 décembre 2004 de simplification du droit. Journal officiel, n° 287, 10 décembre 2004, p. 20857 et n° 51, 2 mars 2005, p. 3697 (rectificatif ) 2005 [13] Ordonnance n° 2005-650 du 6 juin 2005 relative à la liberté d'accès aux documents administratifs et à la réutilisation des informations publiques. Journal officiel, n° 131, 7 juin 2005, p. 10022 [14] Décret n° 2005-1755 du 30 décembre 2005 relatif à la liberté d'accès aux documents administratifs et à la réutilisation des informations publiques, pris pour l'application de la loi n° 78-753 du 17 juillet 1978. Journal officiel, n° 304, 31 décembre 2005, p. 20827 2006 [15] Réforme des dispositions régissant l'accès aux documents administratifs et institution d'un droit de réutilisation des informations publiques. Lettre du Premier Ministre n° 5156/SG du 29 mai 2006. Consultable sur le site du GFII (dans la rubrique « Données publiques » [16] L'économie de l'immatériel : la croissance de demain, rapport de la / Commission sur l'économie de l'immatériel; Maurice Lévy, Jean-Pierre Jouyet. La Documentation française, 2007. 170 p. wArrêté du 23 avril 2007 portant création d'un service à compétence nationale dénommé « Agence du patrimoine immatériel de l' État ». Journal officiel, n° 110, 12 mai 2007, p. 8684 Réexamen de la directive 2003/98/CE par la Commission européenne 2008La loi encadre la fixation du montant des redevances tout en laissant une marge d'appréciation importante, mais l'administration ne peut pas intégrer dans la fixation de la redevance un paramètre permettant de tenir compte des recettes que dégagera la réutilisation des informations par l'entreprise. « Enfin le fait que l'administration ne serait pas en mesure de faire payer une redevance, faute de texte l'instituant ou de licence type en définissant les conditions, ne saurait faire obstacle au droit de réutilisation institué par la loi : cette réutilisation sera, en pareil cas, gratuite. 19 » Les principes de non-discrimination, de commerce équitable, d'interdiction d'exclusivité et de réexamen des droits d'exclusivité existants, déjà énoncés dans la directive européenne, sont repris dans les textes français de transposition. L'ordonnance indique que « la réutilisation d'informations publiques ne peut faire l'objet d'un droit d'exclusivité accordé à un tiers, sauf si un tel droit est nécessaire à l'exercice d'une mission de service public. Le bien-fondé de l'octroi d'un droit d'exclusivité fait l'objet d'un réexamen périodique au moins tous les trois ans. 20 » Le décret d'application précise que « l'autorité qui a accordé un droit d'exclusivité en application de l'article 14 de la loi du 17 juillet 1978 susvisée procède au réexamen de son bien-fondé avant tout renouvellement de celui -ci. Le titulaire du droit d'exclusivité est informé de ce réexamen un mois au moins avant l'échéance de ce droit. Le renouvellement d'un droit d'exclusivité ne peut résulter que d'une décision explicite et motivée. 21 » La transposition dans les pays de l'Union À ce jour, six pays n'ont pas encore transposé la directive concernant la réutilisation des informations publiques : Autriche, Belgique, Bulgarie, Espagne, Portugal et Roumanie. En Allemagne, la transposition a été complétée et est entrée en vigueur le 19 décembre 2006. En Autriche, la transposition demande un texte fédéral et neuf textes pour les différentes régions. Le problème est le même en Belgique où chaque région ou communauté doit transposer la directive. En Estonie, la transposition n'a pas présenté de difficulté par rapport aux lois nationales concernant la diffusion et la réutilisation des données publiques. De même en Hongrie où la Constitution prévoit l'accès et la diffusion des informations. En Lettonie, la transposition a été faite par un amendement de la loi sur la liberté de l'information. Le Luxembourg a transposé en mettant à jour une loi de 1994 « encourageant la production et la diffusion d'information à valeur ajoutée ». La transposition se termine aux Pays-Bas avec une législation qui intègre l'accès, l'accessibilité, l'échange et la réutilisation pour les données des différents types d'organismes gouvernementaux. La transposition en Pologne s'est faite difficilement en intervenant dans les domaines de la société de l'information, du développement économique et des affaires administratives. En République tchèque, un amendement a été apporté à la loi de 1999 sur la liberté d'accès à l'information. Au Royaume-Uni, la mobilisation publique et associative est très importante depuis la publication de la directive européenne : mise en place de l'Office of Public Sector Information (OPSI) et transposition de cette directive (2005), création de l'association Locus, représentant essentiellement les sociétés privées, rapports de l'Office of Fair Trading (2006) et de l'OPSI (2007). Pour plus d'information : www. epsiplus. net, réseau thématique européen sur la réutilisation des informations publiques. « Les informations contenues dans des documents détenus par des services publics et sur lesquelles des tiers détiennent des droits de propriété intellectuelle, par exemple les informations issues d'un marché public, ne sont pas considérées comme des informations publiques. 22 » L'ordonnance fait intervenir les droits de propriété intellectuelle dans la part des investissements, facteurs possibles de tarification. Cela représente une incertitude importante en l'absence de méthode de calcul de cette partie de tarification. Des précisions doivent être apportées pour éviter que cet élément soit un facteur arbitraire et incohérent dans une tarification qui, par ailleurs, a des limites précises. Les associations professionnel les actives au sein du groupe inter-associations « Diffusion des données publiques » AFIGéO L'Association française pour l'information géographique rassemble l'ensemble des acteurs français de ce secteur pour en assurer un développement optimal en France et en Europe. Elle déploie ses actions sur l'ensemble du territoire français par une représentation au niveau local où elle a mis en place un réseau actif d'acteurs de l'information géographique. www. afigeo. asso. fr/ ACSEL L'Association pour le commerce et les services en ligne joue le rôle d'un club d'entreprises et de réflexion dont l'objectif est de rassembler une communauté d'intérêts. Sa mission est triple : être une force de proposition, être le porte-parole de la communauté des professionnels et demeurer une source d'informations incontournable sur les services en ligne. www. acsel-net. org FIGEC La Fédération nationale de l'information d'entreprises et de la gestion de créances représente les principales sociétés dans le recouvrement de créances et le renseignement commercial. www. figec. com GESTE Le Groupement des éditeurs de services en ligne a pour objet et but principal de créer les conditions favorables au développement des services en ligne. Il œuvre ainsi pour l'organisation et le développement de la profession d'éditeur de services en ligne. www. geste. fr GFII Le Groupement français de l'industrie de l'information réunit les principaux acteurs publics et privés de l'industrie de l'information : producteurs, serveurs, intermédiaires, diffuseurs d'information, prestataires. Le GFII est pour ses adhérents un lieu d'information, d'échange d'expériences, de réflexion et d'action. www. gfii. asso. fr SPDG Le Syndicat professionnel de la géomatique, créé en mai 1993 par des professionnels et utilisateurs de systèmes d'information à référence spatiale, entend promouvoir l'utilisation et la diffusion de l'information géographique et favoriser le développement harmonieux de cette activité économique. Carrefour de compétences, il traduit une volonté d'échange et de collaboration entre les industriels, les collectivités locales et territoriales, les sociétés privées et les administrations et services publics. www. spdg. org L'article 37 du décret, qui concerne le délai de réponse de l'administration à une demande de licence, renvoie à des articles relatifs à l'accès aux documents. Ces délais, définis par deux durées maximales de silence de l'administration encadrant la saisie de la CADA, peuvent atteindre une durée de cinq à six mois incompatibles avec l'activité efficace d'une entreprise. Ce refus, exprimé par une non-réponse de l'administration, n'est pas motivé. Ces conditions sont en contradiction avec l'article 25 de l'ordonnance : « Toute décision de refus d'accès aux documents administratifs ou décision défavorable en matière d'informations publiques est notifiée au demandeur sous la forme d'une décision écrite motivée comportant l'indication des voies et délais de recours. » La loi de 1978 modifie la composition de la CADA qui compte maintenant parmi ses membres une personnalité qualifiée en matière de protection des données à caractère personnel, proposée par le président de la Commission nationale de l'informatique et des libertés (CNIL), et une personnalité qualifiée en matière de diffusion publique d'informations. Les champs de compétence de la CADA et de la CNIL ne sont pas clairement définis et une divergence d'interprétation d'un même problème par ces deux instances est possible : position plus orientée sur la diffusion des informations par la CADA, position plus orientée sur la protection des données par la CNIL. Des règles de traitement et de communication entre ces deux instances doivent être définies afin que le demandeur d'un avis sache à qui s'adresser et que sa demande soit traitée dans un délai raisonnable. Nul n'est censé ignorer la loi ! Certes, ce principe est fondateur et il permet l'accès gratuit à l'information juridique, mais force est de reconnaître que, un an et demi après leur publication, les textes de transposition et les conséquences qui en résultent pour les différentes parties sont peu connus et/ou peu mis en pratique. Les demandes d'avis reçues par la CADA montrent que le principe même de droit de réutilisation n'est pas connu, que le nombre de licences types actuellement répertoriées est de l'ordre de la dizaine, que peu de répertoires d'information sont disponibles et que seulement 160 responsables de l'accès aux documents et des questions relatives à la réutilisation des informations publiques ont été nommés, alors que les textes en prévoient environ 2.500 ! « Dans la plupart des ministères et des établissements publics, ce travail de recensement et de valorisation n'a pas encore été effectué », constate le rapport de la Commission sur l'économie de l'immatériel [16 ]. Les efforts actuels des associations professionnelles sont insuffisants par rapport à l'ampleur de la tâche. Il faut en effet rapidement produire et diffuser les outils indispensables : contenu des licences types, annuaire des responsables de l'accès et de la réutilisation, répertoires des informations disponibles, etc. Il est de la responsabilité des différents organismes publics en charge de ces questions – la CADA, la CNIL, la Direction générale de la modernisation de l' État (DGME), l'Agence du patrimoine immatériel de l' État (APIE) tout récemment créée [17] – de fournir les moyens d'une application rapide de la loi que tous les organismes publics concernés ont l'ardente obligation de mettre rapidement en œuvre 23. La Commission sur l'économie de l'immatériel rappelle à ce sujet que « les services administratifs [doivent] notamment : mettre au point un répertoire des informations produites par leurs soins et le mettre en ligne; élaborer des accords de licences types pour définir les conditions de concession de l'usage et de l'exploitation des données par le secteur privé; mettre au point des bases de calcul retenues pour la perception éventuelle de redevance pour service rendu. [16] » Après deux ans d'un débat national en 2004 et 2005, la France dispose depuis 2006 d'un cadre satisfaisant pour faciliter la réutilisation des informations publiques. Les textes de la transposition française de la directive européenne ont ajouté à la préoccupation de transparence de la loi du 17 juillet 1978 un objectif de développement de l'activité économique par une meilleure valorisation des gisements de données dont dispose l'administration. Cet objectif est bien celui de la directive européenne. Certes, des précisions devront progressivement être apportées par l'usage en fonction des secteurs d'activité et du statut des organismes publics. Mais, dès à présent, les conditions de réutilisation sont clairement définies par les textes. Juillet 1999 Réponses au Livre vert de la Commission européenne Février 2002 Réponse à la consultation de la Commission européenne « Vers la définition d'un cadre pour l'Union européenne relatif à l'exploitation de l'information émanant du secteur public » Mai 2002 Communiqué du secteur de l'information concernant l'exploitation des informations du secteur public Août 2002 Prise de position sur la diffusion des données publiques Communiqué sur l'amendement « Diffusion des données publiques » adopté dans le cadre de la loi sur l'économie numérique Janvier 2004 Novembre 2004 Organisation d'une journée d'étude à l'Assemblée nationale : « La réutilisation des données publiques, un enjeu majeur pour la société européenne de l'information » Contributions des associations professionnelles au débat sur la diffusion des informations publiques [voir note 8 ], et proposition d'un texte de transposition de la directive européenne Juin 2005 Communiqué de presse et lettre au Secrétariat général du Gouvernement suite à la publication de l'ordonnance transposant la directive Novembre 2005 Lettre au Premier Ministre sur le projet de décret d'application de l'ordonnance Janvier 2006 Organisation d'une journée d'étude à la Maison de l'Europe : « Diffusion et réutilisation des données publiques : un nouveau marché à haut potentiel » [voir note 8] Janvier 2007 Réunion avec la Commission d'accès aux documents administratifs Avril 2007 Réunion avec la Direction générale de la modernisation de l' État Ces textes et leur implication économique sont encore largement méconnus, comme l'indique le faible nombre de responsables nommés pour l'accès et la réutilisation des informations publiques, de licences types disponibles et de répertoires d'informations publiques. Toutes les parties concernées doivent agir ensemble pour participer rapidement au développement de la diffusion des informations publiques. Les instances politiques doivent exprimer nettement leur volonté de fournir les moyens nécessaires à une mise en pratique rapide de ces textes, faute de quoi ce long cheminement vers une valorisation économique de l'information publique ne conduira à aucun résultat. Cet effort national doit être réalisé en liaison avec les autres pays de l'Union et avec la Commission européenne – un effort qui doit permettre aux entreprises européennes d'exploiter le potentiel de ces informations et contribuer à la croissance économique et à la création d'emplois. JUIN 2007
Transposant en droit français une directive européenne de 2003, une ordonnance de juin 2005 a mis fin à l'interdiction faite aux citoyens d'utiliser à des fins commerciales des documents d'origine administrative et consacré un droit à la réutilisation des données publiques. Cette initiative est l'aboutissement d'une réflexion engagée depuis plus de vingt ans en France et dans l'Union européenne sur les modalités de réutilisation des informations du secteur public. Après avoir rappelé cette évolution, de la loi française de 1978 sur la liberté d'accès aux documents administratifs aux dispositions les plus récentes, cet article analyse les acquis de la nouvelle législation, ses insuffisances et sa mise en oeuvre.
sciencesInfo_07-0502530_tei_DOCSI_idPAS_D_ISBN_pu2007-03s_sa02_art02.tei.xml
termith-460-communication
La question de la responsabilité sociale des médias apparaît par étapes, dès laseconde moitié du XX e siècle, dans une histoire dominée par unlibéralisme sans cesse réaffirmé. C'est surtout à partir des années 80 qu'elle estrevendiquée avec une grande netteté, après divers événements dont la couverture afortement décrédibilisé la profession de journaliste et conduit à une largedésaffection du public, notamment à l'égard de la presse écrite. La responsabilité ,jusqu'alors considérée comme individuelle, apparaissait comme responsabilitécollective, donnant naissance, par exemple en Amérique du Nord, à un mouvement nommépublic journalism ou civicjournalism ,auquel est consacrée cette contribution. Plus récemment, le développement desblogs et de divers portails a induit une revendication« citoyenne » du contrôle de l'information. Parallèlement, en France, on assiste àla création de « chartes » dans les rédactions, à la prolifération du recours à la« déontologie », à l' « éthique », et à la mise en valeur du rôle des « médiateurs »La taille de cet article interdit de s'interroger simultanément sur ces trois formesd'affirmation d'une responsabilité sociale, où il est souvent difficile dedistinguer marketing ou affirmation d'une véritable responsabilité sociale etpolitique ou encore « citoyenne » du journalisme. Mais il est clair que l'identitédu journalisme est directement mise en cause parl'affirmation d'une responsabilité citoyenne (civic journalism) ,professionnelle (chartes) et éditoriale (médiateurs). Dans les trois cas, ils'agit d'une responsabilité collective : communauté « locale » dans le premier cas ,corporation des journalistes et collectif d'une entreprise face au public dans ledeuxième et le troisième. Tout cela, répétons -le, est récent et fort éloigné d'unehistoire focalisée sur la liberté, qu'il nous faut d'abord rappeler rapidement. Les médias contemporains sont les héritiers d'un long combat pour la liberté depenser puis la liberté d'expression, qui concerne d'abord le livre. Parmi toutesles traces de cette revendication, où s'ancre d'abord la lutte contre la censurereligieuse, on peut relever l'exemple de l'Aeropagiticade John Milton en 1644 qui plaide « for the liberty ofunlicensed printing », au nom de lavérité chrétienne (« only the good can truly be free »). Cela se poursuit tout au long duXVIII e siècle, par exemple avec les Nouvelles Ecclésiastiques, nées du rejet, par le peuple de France, dela condamnation des jansénistes dont témoigne la bulle Unigenitus. La liberté « politique » ne s'affirme vraiment que sous le siècle des Lumières .Avant la Déclaration des droits de l'homme et du citoyen ,deux textes constitutionnels : en Suède, en 1766, avec l'affirmation de laliberté de la presse, puis, en 1776, aux États-Unis, dans le Virginias Bill of Rights (« the freedom of thepress [. ..] can never berestrained but by despotic governments »), qui précède le PremierAmendement voté en 1791 : « Le Congrès ne fera aucune loi restreignant laliberté de la parole ou de la presse », ce qui rejoint les articles 10 et 11 dela déclaration française. Cela se poursuit tout au long du XIX e siècle, notamment sous la plume de Karl Marx en 1842-43 : « Lapresse libre [. ..] est le monde idéal qui jaillit perpétuellement du monde réelet, esprit toujours plus riche, y reflue pour le vivifier à nouveau » (in :Muhlmann, 2004 : 170). Depuis la fameuse thèse de Jùrgen Habermas (1962) sur l'espace public et lestextes de Roger Chartier (1990) sur les origines culturelles de la Révolutionfrançaise, nous sommes plus sensibles à la théorisation de cette liberté ,notamment à partir des deux articles de Kant de 1784 et 1786. On peut d'ailleursglobalement voir dans les législations européennes du XIX e siècle sur la presse la marque directe du caractère conservateur, despotique oulibéral des gouvernements successifs, dont témoigne la grande loi française de1881 sur la liberté de la presse. Mais l'attention portée à la démocratisationpolitique fait presque oublier la montée du capitalisme qui est une des causesdirectes de la crise de confiance dans la presse contemporaine, du double faitde la concentration et des conflits d'intérêts, fortement dénoncésaux États-Unis dans diverses conférences. La doctrine libérale de l'information repose sur un principe hérité desLumières : la raison universelle conduit à l'idée que nul ne peut avoir lemonopole de la vérité, et donc à la contestation a prioridu principe d'autorité. Mais elle estprise dans une contradiction. D'une part, elle présuppose qu'il n'y a pas decritère pour établir la vérité : on doit donc laisser parler quiconque peutaider à la vérité, ce qui est à coup sûr une marque de défiance àl'égard de toute idée reçue; mais, d'autre part, et cela constitue une sorte demythe contemporain, elle postule que, à l'instar de l'économie monétairelibérale, la bonne information finira par chasser la mauvaise. C'est là, commeon le verra, une des grandes ambiguïtés du public journalismparce que le public n'est ici qu'un autre nom du marché qui, sans qu'on ledise, devient le critère décisif de la vérité. Cependant, le traumatisme de la Seconde Guerre mondiale et son cortège depropagande inversent la proposition libérale initiale : ce n'est pas tant lejournaliste qui a le droit de dire ce qu'il pense, que le public qui a désormaisdroit à l'information. Ce virage a pris deux formes d'où émerge peu à peu laquestion de la responsabilité sociale de l'information : la presse remplit unservice public; elle a une responsabilité sociale. On voit ici une évolution très sensible parrapport à la Déclaration universelle de I'onu (article 19, 18 décembre 1948, www.un.org) centrée sur la libertéd'information, même si elle mentionnait l'exigence de la pluralité des sourceset le souci moral des journalistes. Au fond, la seconde moitié du XX e siècle voit unrenversement sensible de perspective : la liberté n'est plus conçue comme unmoyen de résister au despotisme, ce qui était au cœur de la pensée du XVIII e siècle, et l' État, tenu à distance par le PremierAmendement de la Constitution des États-Unis, devient le garant des libertés. Onpasse du droit de l'information au droit à l'information, formellement énoncépendant le concile Vatican II dans l'Encyclique Pacem interris qui mentionne explicitement (article 12) « le droit de tout êtrehumain à une information objective ». Depuis lors, l'idée du droit àl'information s'est étendue, du fait de la croissance de l'audiovisuel, au droità la communication, comme on le lit sous la plume de Jean d'Arcy, fondateur del'Union européenne de radiodiffusion, en 1969. Cette évolution est à l'origined'un mouvement très sensible à la fin du siècle parce qu'il constitue, enFrance, le fondement juridique de la libéralisation de l'audiovisuel (1982) etde la communication des collectivités locales dont on connaît l'ampleur à partirdes élections de 1982 et 1989, avant d'inspirer deux grands programmesgouvernementaux. Mais la question qui nous occupe iciest beaucoup plus limitée. L'idée d'une responsabilité du journaliste est certes présente, notamment enFrance au moment où la profession tente de s'organiser à partir de 1918 (Tétu ,2002), sous la forme des « droits » et « devoirs » du journaliste, mais on doitsignaler que la revendication éthique est de type individuel et nullementpolitique et sociale : le journaliste, même lorsqu'il cesse de se penser commeécrivain, fait œuvre de création, intellectuelle, personnelle et individuelle .L'idée selon laquelle le journaliste doit être un « chien de garde » (watchdog) de la démocratie est beaucoup plus marquée auxÉtats-Unis, où le journaliste se veut depuis longtemps un gardien des droits, etun pourfendeur des turpitudes. Mais la fin du XX e siècleconduit à une perte des anciens repères : la chute du mur de Berlin, la fin del'URSS interdisent désormais toute pensée globale; la guerre du Golfe montreune totale incurie des médias, incapables de toute investigation, et SaddamHussein reste en place; le retour aux identités, nationales et ethniquesentraîne des guerres, des massacres et des violences qu'on croyait impossiblesdepuis la fin du génocide nazi. En France, le titre d'un éditorial d'IgnacioRamonet dans Le Monde diplomatique du printemps 1992 ,« Lère du soupçon », nomme le malaise : celui des journalistes perturbés par lescandale du sang contaminé, celui d'une opinion choquée par le traitement dufaux charnier de Timisoara en 1989, puis par la couverture de la guerre du Golfeen 1991, pour ne prendre que ces deux exemples. Les médias français sortent delà discrédités. Émergentalors le leitmotiv « éthique » dans les propos desjournalistes, notamment dans les publications du syndicat national desjournalistes, la multiplication soudaine des « chartes » et le développement des médiateurs. Malgré cela, lesjournalistes français continuent de privilégier leur indépendance (liberté dedécision et niveau d'autonomie personnelle), alors que cette indépendance esttrès secondaire aux États-Unis où « la possibilité d'aider les autres » vient enpremière position depuis 1971 (Abare McCane, 1992 : 7). La revendication d'un journalisme « public » ou « civique » est née d'undouble constat aux États-Unis : d'une part, la baisse très sensible dunombre de journaux, notamment locaux (200 ont disparu en 20 ans), et dunombre global de lecteurs (20 millions de lecteurs en moins), et d'autrepart, la forte chute de la participation aux élections américaines de 1988et 1992 qui tombe aux environs de 40 % (contre 65 % en i960), après descampagnes où l'information fut particulièrement déplorable, notamment dansl'affrontement Bush vs Dukakis, d'où une défianceforte du lectorat. La situation américaine est analysée autrement par les pilotes de ce nouveau« mouvement » comme le nomme son fondateur Jay Rosen (1999), et rapidement diffusée et défendue par le PewCenter for CivicJournalism (pcq) .Il s'agit, selon ses promoteurs, d'une nouvelle approche du métier dejournaliste qui, selon Thierry Watine (2003 : 231), « vise à accroîtrel'utilité sociale des professionnels de l'information au sein de leurenvironnement immédiat afin de garantir un meilleur fonctionnement de la viedémocratique ». Les principaux initiateurs de ce mouvement sont, outre JayRosen, Arthur Charity (1995), et Davis Meritt (1995), rédacteur en chef duWichita Eagle (Kansas). Ce mouvement a rapidementacquis une importance significative, du moins dans la presse américainelocale : une enquête du pccj de juillet 2001 auprès des cadres de 360quotidiens américains tirant à plus de 20 000 exemplaires indique que 66 %des éditeurs y adhèrent. Pourtant, à lire les textes qui en émanent, on nepeut qu' être surpris. Leurs auteurs semblent y découvrir que le journalismeest bien une construction sociale et symbolique de la réalité ,prônent des méthodes, dont le sondage, dont on connaît depuis longtemps lesbiais. Nouvelleforme de marketing médiatique ? On peut enfin estimer que la participationdirecte à la résolution de problèmes sociaux généralement locaux éloigne cejournalisme de la distance constitutive du journalisme d'information .Peut-être, après tout, ce « mouvement » relève -t-il d'un changement globalde paradigme comme le pensent Jean de Bonville et Jean Charron (Brin et al., 2004). Reprenons d'abord le constat de Jay Rosen : la presse fait fausse route enmatière d'information politique, notamment en période électorale; elle estcoupable de dérapages éthiques incessants (faux reportages, absence decontrôle des sources, ce dont témoignent quelques retentissantslicenciements, rumeurs et rectificatifs repris par les blogueurs américains ,ce qui entraîne la crise de confiance d'un public dont le cynisme et ledésengagement politique vont croissant, puis la baisse inquiétante dulectorat, mais aussi le malaise, voire le découragement des journalisteseux -mêmes. Il faut donc une « réforme », dit Jay Rosen, qui, sur certainspoints, va à l'encontre de la tradition américaine la plus forte : on saitassez, en effet, qu' à l'opposé du journalisme « de révérence » dont laFrance donne un piètre exemple, le journaliste américain, héritier des muckrackers et du stunt journalism du début du XX e siècle ,est a priori critique à l'égard de la classepolitique, fréquemment agressif à son égard quand il faut dénoncer sescomportements nocifs et démasquer ses turpitudes; le journaliste américain« ne dîne pas en ville », ne passe pas ses vacances avec les notables dumoment, etc.. Les modèles du journalisme américainsont plutôt à chercher du côté de figures comme celle d'Edward R Murrow dont les célèbres documentaires de 1953 et1954 ont abattu Mac Carthy Mais les choses ont changé : « Ces 15 ou 20dernières années, dit James Fallows, beaucoup de journalistes sont soudaindevenus riches grâce aux talk shows, aux émissionspolitiques à la télévision et aux tournées de conférences sur les campus. Ortous ces exercices réussissent particulièrement bien à ceux qui sontarrogants, provocateurs, cyniques ». Or, dit Jay Rosen, il faut désormaisremplacer la critique par la recherche des solutions. Il faut évidemmentremarquer qu'aucune des grandes figures du journalisme américain ne s'estjamais désintéressée des solutions, pas plus qu'en France un Albert Londres ,mais ils ne considéraient pas que la solution fût de leur ressort, ni deleur rôle. C'est donc d'abord au nom de la démocratie qu'il faut changer les choses ,d'où le nom, revendiqué, de journalisme « civique » : « Peut-il exister untype de journalisme qui non seulement donne aux gens des nouvelles et desinformations, mais les aide à faire leur travail de citoyen, un journalismequi ne se contente pas d'accorder son attention à la question civique choquante du jour mais qui incite les gens àpasser à l'action, à s'engager à penser que c'est à eux qu'il appartient derésoudre les problèmes, un journalisme qui considère les gens non pas commedes spectateurs, mais comme des participants ? Il ne conseille pas à lapresse de renoncer à son rôle de chien de garde mais y ajoute au contraired'autres responsabilités ». L'essentiel de ces nouvelles responsabilités, etdonc des objectifs à atteindre, est d'abord l'utilité de l'information ,c'est-à-dire que le journaliste « civique » doit d'abord aider le public àretrouver le sentiment qu'il peut faire quelque chose pour changer lasituation et, au fond, stimuler la « démocratie », terme qui revient sanscesse dans les propos. Il faut cesser d' être spectateur pour devenir acteur .Ce thème est explicitement repris, entre autres sujets, par Sandra MimsRowe, ex-rédactrice en chef du Portland Oregonian :« Je préfère augmenter de 10 % la participation électorale que gagner leprix Pulitzer ». Une autre formule, ou image, enfonce le clou : « On peutêtre guide sans renoncer à son rôle de chien de garde. Et ils [lesjournalistes] sont ravis d'abandonner leur rôle de loup ». Et cela estterriblement ambigu, aussi bien le terme de « guide » que l'idée dedémocratie, qui semble alors signifier consensus, ou pire, domination parune majorité. Le consensus, en effet, revient lui sans cesse : « Lejournalisme civique [. ..] s'efforce de couvrir le consensus [mis en italique par nous] aussi bien que les conflits ,les succès comme les échecs, avec des articles qui pourront aider d'autrescollectivités à faire face à des problèmes difficiles ». Écarté, le journalisme au service de ladémocratie par l'intégration des conflits, tel que l'a théorisé l'école deChicago. Ce modèle se voue au nouveau culte du fait majoritaire. Le pire ,peut-être, étant que les exemples le plus souvent proposés exaltent descauses « charitables » à la façon (pur miroir narcissique) dont, en France ,l'animateur Pierre Bellemare faisait surgir l'émotion au son du « Vous êtesformidables ». La pertinence de la démarche se fonde, bien entendu, sur le succès évalué entermes quantitatifs : « En Californie, l'Orange CountyRegister a expérimenté une nouvelle technique lors d'un reportagesur les enfants pauvres qui vivent dans des motels aménagés pour lesindigents situés littéralement en face du parc de Disneyland [. .. ]. Laréaction de la collectivité a été extraordinaire. Cette expérience a permisde recueillir 200 000 dollars de dons, 50 tonnes de produits alimentaires et8 000 jouets ». Or rien n'est dit sur les causes de la pauvreté localeincriminée : « Le journalisme civique vise à fournir aux gens despossibilités d'intervention afin de les amener à agir, et à encouragerl'interactivité entre les journalistes et les citoyens. Il cherche à créerun dialogue avec les lecteurs, au lieu de se borner à transmettre lesinformations en sens unique [. ..] ». Thierry Watine donne pour premierexemple de ce journalisme l'opération de lutte contre la criminalité dansdes quartiers très défavorisés « Taking back ourneigbourhoods » du journal Charlotte Observer (Charlotte, Caroline du Nord) :reportages, interviews, partenariat avec radio et TV locales, et recherchede solutions : « le taux de criminalité a chuté de 24 % depuis 1994 et lenombre de crimes violents a diminué de 48 % ». Pour faciliter ce dialogue avec la population, les journaux nord-américainscommuniquèrent d'abord l'adresse électronique des journalistes à la fin desarticles. La messagerie devint rapidement une nouvelle ressource, prompte àfaire croire, comme les images du tsunami indonésien, au mythe singulier du« tous journalistes » : le Charlotte Observer s'estrendu compte que certaines de ses meilleures idées provenaient du courrierélectronique adressé par ses lecteurs. Plus précisément encore, cejournalisme se met au service d'une politique qui ne fait l'objet d'aucunexamen critique. En voici un exemple assez singulier : le PCCJ a récemmentfourni des fonds à la nhpr (New Hampshire Public Radio) pour la mise au point d'un programmepermettant d'estimer les factures de gaz et d'électricité, afin de mieuxfaire comprendre au public le problème de la déréglementation des servicesde distribution. « Faire comprendre au public ». L'expression explique pour une part l'autre nomde ce mouvement, le journalisme « public ». En effet, il y a une distinction àopérer entre le journalisme « civique » (= citoyen) et le journalisme« public » (au sens de « bien public »), ce que permettent de comprendre lestextes déposés sur le très sérieux site www.usinfo.state.gov/journals, où il est facile de comprendre que levocable « public » n'a rien à voir avec Kant ou Habermas, mais désigne lejournal au service de la collectivité. À propos d'un sondage effectué en 1992par le News Journal de Wilmington (Delaware) sur lacroissance économique de la localité : « Un rapportrécapitulatif résume ainsi l'objectif que visait ce projet : " Cerner les grandesquestions, solliciter le point de vue du public sur ces sujets et suivrel'évolution de ces dossiers " » Autre exemple illustratif : « En 1993, le Register quotidien de la ville de Des Moines (lowa), adonné pour consigne à tous ses journalistes d'interviewer en face à face aumoins quatre " Américains moyens " pour découvrir ce qui les tracassait » (autotal, il y eut 600 interviews). Un peu plus clair encore : « En 1993 et en1994, le quotidien Star de la ville d'Indianapolis( Indiana) a fait faire un sondage de grande envergure sur les attitudes deshabitants de la région en matière raciale et il a consacré une semaine à laprésentation des résultats. La série d'articles de suivi reflétait " l'expériencevécue des citoyens, et non pas l'opinion d'un expert ", ce qui était une grandenouveauté pour ce journal ». Le journal doit ainsi « soulager les inquiétudes dupublic », ce qui fonde l'argumentation de Davis Meritt : « [fournir] desinformations pertinentes de nature à clarifier les valeurs fondamentales » et« s'exprimer clairement sur les convictions et les priorités qui sous-tendentchacun des problèmes qui se posent au public ». Et Paul Malamud de conclure :« À une époque obsédée par les images superficielles - les excentricités desvedettes et les scandales du jour - l'attention portée à l'homme de la rue et àses petits soucis pourrait bien être un ballon d'oxygène pour la presse aussibien que pour la société civile des États-Unis » Certes le public américainreste plus friand des frasques de Paris Hilton que les journalistes qui en sontparfois excédés, mais faut-il remplacer les people parles avatars des Simpson ? Le projet de Jay Rosen et Davis Meritt, faire desjournaux les sages-femmes de la citoyenneté, semble conduire à de nouvellesformes de communautarisme, trouve un puissant relais auprès des autoritéspolitiques américaines et sert de relance de la consommation médiatique. Pour ne pas se leurrer sur des perspectives que les exemples précédents semblentcaricaturer, il faut considérer que, selon le PCCJ, le journaliste a uneobligation envers la vie publique qu'on peut résumer ainsi : la capacité àchoisir la meilleure chance de stimuler la prise de décision citoyenne et lacompréhension des problèmes par le public; la capacité à prendre l'initiatived'informer sur les principaux problèmes publics de telle façon que ce public aitde meilleures connaissances sur les solutions possibles et sur les valeurs qu'onpeut engager dans des actions alternatives (Lambeth, 1998). Le public journalism doit donc être envisagé au sein des formesalternatives des médias qui se sont développées aux États-Unis et que ChrisAtton (2002) résume en quatre positions : advocacy media ,qui doivent sensibiliser les dirigeants publics ou privés aux sujetssociaux; grassroots media, qui cherchent à être au plusprès des racines locales, au risque de populisme; accountability media, qui doivent rendre transparents les faitspublics; lobbying media, qui visent les profits privés .La grande enquête de David Weaver et Cleveland Wilhoit (1986) sur lesreprésentations de la fonction primordiale de l'information va dans le sens del'accentuation de l'idée selon laquelle le journaliste doit rendre un service aupublic. Cette idée n'est pas une spécificité américaine et Rémy Rieffel (1984) abien montré combien la fonction missionnaire est ancrée dans l'imaginaire desjournalistes français, mais alors qu'elle repose - en France - sur une capacitéintellectuelle propre du journaliste, elle ressemble, aux États-Unis, à une« écoute » du public. En témoigne le recours systématique du public journalism au sondage, alors que, en France, le sondageintervient lorsqu'on ne sait pas comment traiter un sujet. Dans l'Hexagone, lacroissance du recours au sondage semble surtout indiquer le désarroi desjournalistes dans l'interprétation de la vie publique. Avant de dire un mot de l'héritage contemporain de ce mouvement, il convient des'arrêter un instant sur trois caractéristiques insistantes : le refus de laséparation de la représentation et de l'action; la volonté d'introduire unautre agenda et une autre hiérarchie de l'information; la volonté de servir lebien public défini comme bien commun du groupe local. La première dimension (le primat de l'action) est ce qui est le plus vivementrejeté par ses détracteurs au nom de l'impartialité constitutive de ce queserait l'essence du journalisme. Bien loin de vouloir défendre ici uneintrouvable ontologie du journalisme, il faut rappeler d'un mot ce qui fonde la« distance » en journalisme. Le point de départ en est bien l'idée de l'opiniontelle qu'elle s'est construite au XVIII e siècle. Dans letexte rappelé plus haut (1784, 1786), Kant établit fort clairement (doubleexemple de l'officier et du prêtre) la nécessité de fonder un espace desopinions, séparé de l'espace des actions. L'Aufklärung nevise donc pas une action, mais un processus né de l'échange public de regardsqui, eux, sont portés vers l'action; les Lumières, c'est ce qui vient, non pasde l'action, mais de ce regard. Cela a été fortement repris par Hannah Arendt( 1978 : 87), qui, commentant Kant, explique que « seul le spectateur; maisjamais l'acteur sait vraiment de quoi il retourne »; seul le spectateur saitvraiment le sens de ce qui se passe, parce que « le fondement existentiel de saperspective est son désintéressement, sa non-participation, son absenced'engagement ». L'idée de l'impartialité en découle naturellement, parce qu'elle provientnécessairement d'un échange intersubjectif : « je nourris l'espoir », écrit Kantdans une lettre citée par Hannah Arendt (ibid. : 70) ,« qu'en considérant ainsi, avec impartialité, mes jugements du point de vue desautres, je parviendrai à un troisième aperçu qui améliorera ma perspectiveantérieure », et Hannah Arendt (ibid.) de poursuivre :« On accède à l'impartialité en prenant en compte le point de vue des autres ;l'impartialité ne résulte pas d'une position supérieure qui [. ..] trancherait laquerelle ». En somme, contrairement à l'élu qui reçoit mandat de ses électeurspour agir dans la vie publique, le journaliste a mandat d'en construire unereprésentation, d'en chercher et d'en dire le sens, ce qui est une constanteforte dans la vision classique du journalisme. Dans cette perspective, le tortdu journaliste public ou civique est moins de perdre son indépendance lorsqu'ilorganise des forums ou propose des solutions, que de confondre son rôle aveccelui de l'élu. On sait que la plus forte critique portée à la définition kantienne de l'usagepublic de la raison vient de Marx, pour qui le regard politique est biaisé ,aveugle à ce qui le détermine : les promesses du principe de publicité sontdoublement fausses, d'abord parce que certains groupes sont exclus de fait del'espace public, ensuite parce que les représentations sont trompeuses ,entachées d'idéologie, ce que reprendra plus tard Louis Althusser (1970). C'estpour cela que Marx, qui défendait l'idée du public dans la Rheinische Zeitung d'octobre 1842 à mi-43, l'abandonne dans l'Idéologie allemande en 1845 au profit de l'idée demasse : « C'est en tant qu'elle n'est pas un publicobservateur et bavard que la masse est le moteur de l'histoire » (in : Muhlmann, 2004 : 201). Prenons maintenant les deux autres dimensions du journalisme public, un « bienpublic » fondé sur une conscience commune des problèmes sociaux. Or sur cepoint, ce sont les théoriciens de l'école de Chicago qui fournissent leséléments de réflexion les plus précieux, à commencer par sa figure la plusremarquable, Robert E. Park Dès sa thèse de 1904, ce dernier, s'inspirant deGabriel Tarde (1901), distingue la « conscience commune » (common consciousness, propre au « public ») de la « poussée commune »( common drive, propre à la foule), distinction quesemblent bien méconnaître les chantres du journalisme public. En effet, laréflexion de Robert E. Park est largement inspirée de Georg Simmel (1908) dontil reprend deux idées fortes. La première est que le conflit est une forme desocialisation, qui intègre, au-delà des divisions qu'il révèle, ce que Robert E .Park reprend sous les deux formes d' « opposition » et de « compétition ». On estici très loin du consensus du public journalism. Le public ou civic journalism futd'abord un journalisme « local », tendant à resserrer les liens d'une communautédont les questions semblaient négligées à la fois par les autorités et par lesjournalistes. Il n'a jamais vraiment atteint les grands journaux ni les grandsréseaux de télévision. Mais il est le point de départ de deux phénomènes plusrécents, et plus vastes, que sont les blogs ou lesportails citoyens, et les accords de partenariat entre de grandes institutionsd'informations et des portails civiques, à l'instar de l'Associated Press (ap) avec le portailcanadien NowPublic.com en février 2007( ap distribuera en syndication des nouvellesproduites par le portail civique dans ses fils de presse), ou celui dupartenariat entre Yahoo et Reuters (qui permet de mettre en ligne des photos etvidéos susceptibles d' être reprises sur les fils de Reuters). Plus encore ,l'idée du « tous journalistes » a fait du chemin depuis les attentats contre leWorld Trade Center, la guerre contre l'Irak, letsunami en Indonésie, les attentats de Londres, etc., et cela comme remède auxdifficultés de l'information contemporaine, à un point tel que le très officielrapport Tessier remis au ministère de la Culture envisage, parmi les remèdes à la crise de lapresse française, une rémunération des citoyens informateurs sur le modèleancien des correspondants de la presse locale et régionale. Donc, l'idée d'unjournalisme citoyen a fait d'importants progrès, mais ce vocable unique recouvretrois réalités bien différentes. Il y a d'abord le fait que des citoyens ordinaires deviennent des « sources »d'informations brutes pour les medias qui s'en emparent, comme le « téléphonerouge » d'Europe 1. C'est le crowd sourcing de Jay Rosen .Mais les technologies de l'information et de la communication (tic) ont amplifié le phénomène, en permettant à lasource d' être son propre diffuseur de textes ou d'images. La nouveauté tientdonc à la « dé-médiation » des organes de presse, et autorise aussi bien ladiffusion d'informations tenues cachées par les autorités (les exactions à laprison d'Abou Ghraib), que les plus folles rumeurs. On doit constater une fortepropension des « citoyens ordinaires » à prendre la parole, ce sur quoi reposeune part du succès de la radio, et cela est un premier indice fort d'une « crisede la représentation ». On note aussi la production d'informations par des citoyens plus « compétents »qui diffusent des contenus de qualité. C'est le cas d'Agoravox qui réussit là oùPlace Publique a échoué, cela sur le modèle du pionnier coréen Ohmynews. Cesorganes comportent des instances de tri, qui ne sont pas exactement desrédactions en chef, puisqu'elles ne pilotent pas en amont la recherched'information, mais les réorganisent en aval et les hiérarchisent plus ou moinssur leurs sites. Les current events blogs sont désormaisune quasi institution (Le Cam, 2006). Les journalistes assument ici la seulefonction d'éditeurs d'une parole privée qu'ils rendent publique. Il y enfin ladiffusion d'information par des « experts » (dont une bonne part dejournalistes), qui profitent de la baisse des coûts d'édition permise parl'internet. Le cas de rue89.com animé pard'anciens journalistes de Libération appartientévidemment à cette catégorie, comme la plupart des sites des grands organes depresse. Le très rapide succès de certains de ces sites (en matière de rentréespublicitaires) est encore trop récent pour assurer qu'un nouveau modèleéconomique se met en place. Mais il est certain que la précarité croissante dumétier de journaliste a constitué un puissant accélérateur du mouvement. Laresponsabilité, ici, est celle du franc-tireur. Dans tous les cas, l'ambition est bien de contribuer à un débat social enrenouvelant les locuteurs légitimes, et en mettant en cause le monopole des« experts » ou des élus : le site d' Étienne Chouard à l'occasion du référendumfrançais sur le traité européen en est un exemple tout à fait significatif. Maisun certain nombre de problèmes subsistent : le plus visible est l'instrumentalisation du « public » ,à des fins « journalistiques », sensible dès les débuts du public journalism. Ce « public » est toujoursconsidéré comme une donnée, mais n'est jamais questionné, niproblématisé. La critique de Pierre Bourdieu (1973) ou Patrick Champagne( 1990) sur l'opinion publique n'a donc rien perdu de son actualité. Plusencore, la figure du public devient une ressource pour légitimer laposition d'acteurs émergents, y compris dans le monde des acteurspolitiques (Ségolène Royal); du fait de la pseudo-communauté des internautes, lesclivages sociaux sont fortement sous évalués. La critique marxienne n'arien perdu de sa force; la confusion entre journalisme et fonctionreprésentative est extrêmement forte, et contribue paradoxalement àdiminuer l'importance, dans les démocraties contemporaines, des « corpsintermédiaires ». La démocratie directe a toujours été un fantasme renouvelé par l'émergence denouveaux médias, et on sait assez, depuis les travaux de Nicole Loraux (1997) ,que la démocratie athénienne était au service de groupes très majoritaires. Cequ'on voit aujourd'hui est l'émergence de nouvelles revendications majoritairesou communautaires, et que son moteur fortement théorisé par Jùrgen Habermascomme ré-féodalisation, est le ressort économique et marchand de la « marque » :la marque de tel organe d'information est une garantie, disent les détracteursdes sites émergents, mais eux même imposent leur marque, devenue le site de x oude y d'où le renforcement du rôle des propriétaires (Hoyer Lauk, 2003). Actuellement, la nature de la responsabilité des journalistes ne peut se penserqu' à partir de la perte de leurs repères traditionnels (Charron, 1993). Outreles changements globaux du monde déjà signalés et un relatif silence desintellectuels souvent dénoncé, ce sont les journalistes d'information généraleet politique qui semblent les plus désorientés, du fait de leur perted'influence sensible au profit de l'audiovisuel et de l'information spécialisée .Ce phénomène très général conduit à des réponses variables selon les lieux. Latradition américaine d'un journalisme tourné vers l'extérieur, le public, lecitoyen, cherche d'autres façons de traiter les faits ou la mise en lumière dece qui est caché ou masqué. La tradition française pose de façon plus nette laresponsabilité du journaliste dans la vie de la cité, ne serait qu'en luiaccordant une part active dans le débat d'idées; il s'agit toujours de chercheroù se situer par rapport au sens de l'histoire ou au progrès. Mais la légitimitéest bel et bien en crise. Le journalisme audiovisuel dont l'ambition majeure estde transmettre le plus immédiatement possible les éléments d'une situationsemble moins gêné parce qu'il se conçoit moins comme médiateur que comme passeuret le journaliste d'information spécialisée peut se réfugier dans satechnicité. Au fond, c'est à une redéfinition de l'identité journalistique que ce sujetinvite : « Depuis la fin des années 80, le phénomène du journalisme publicsemble fondé sur l'idée que les journalistes ont pour mission de permettre auxcitoyens de débattre des questions publiques qu'ils estiment fondées [. .. ]. Ledéveloppement des current events blogs semble prolongerces pratiques, mais, et c'est ce qui est novateur en les transférant du groupedes journalistes traditionnels vers le public lui -même » (Le Cam, 2006 : 152) .C'est pour cela que l'actuelle « crise du journalisme » semble bien provenird'une crise plus générale de la représentation .
La responsabilité sociale des médias et la responsabilité collective des journalistes apparaissent progressivement à la fin du XXe siècle, après plusieurs siècles de revendication de la liberté d'expression et d'impression. Elle est consécutive à l'affirmation du droit du public à l'information. Le public journalism, mouvement américain des années 90, surtout ancré dans la presse locale, en est une illustration: il part de la crise de confiance du lectorat et des journalistes eux-mêmes, et propose une forme de journalisme fondé sur le consensus. Mais ce consensus risque de devenir un communautarisme qui éloigne le journalisme de la distance et de l'impartialité qui sont ses principes constitutifs. Aujourd'hui, la revendication « citoyenne » bascule des journalistes vers les lecteurs, d'où le développement des current event blogs.
sciencesInfo_10-0032247_tei_1110.xml
termith-461-communication
Que ce soit dans les réseaux d'entreprises ou directement sur le web, la rapide augmentation de la quantité de données accessibles au format électronique offre des mines d'or pour les méthodes numériques. Une grande partie de cette information est de nature textuelle, format naturel pour les humains mais d'exploitation bien plus difficile pour les systèmes d'information. Depuis un certain nombre d'années, les ressources humaines ont fait l'objet de divers travaux dans le domaine de la recherche informatique. La gestion de ressources humaines est souvent un processus long et coûteux pour les entreprises. Depuis les années 1990, internet joue un rôle croissant dans la coordination du marché du travail. D'abord centrée sur des segments spéci-fiques, son utilisation s'étend à mesure qu'augmente la part des internautes dans la population. (Fondeur, 2006) décrit l'évolution de ce marché au cours des dernières années et de ce qu'on appelle désormais l'e-recrutement. Celui -ci repose sur l'émergence et le déploiement de sites internet, organisés en plates-formes à deux versants, chargées de faire converger les offres et demandes de travail : les job boards. On citera à titre d'exemple Monster (), l'Anpe 1.) et HandiQuesta (), un nouveau site d'emploi entièrement conçu et dédié aux personnes en situation de handicap en recherche d'emploi. Par ailleurs, les nouveaux acteurs que sont les agrégateurs d'offres d'emploi 2 permettent d'effectuer des recherches centralisées sur les différents job boards et les sites « carrières » des entreprises. À partir d'un point unique, l'accès est ouvert à un vaste éventail d'opportunités d'offres d'emploi. Les agrégateurs d'offres d'emploi ont amélioré l'accessibilité de l'information brute sur les opportunités d'emploi en diffusant des annonces d'offres d'emploi et en constituant des bases de données de curriculum vitae (CVthèques). C'est notamment en ce sens qu'une étude de l'Agence pour l'emploi des cadres (APEC) 3 en 2006 conclut qu'avec internet le marché du travail est « de plus en plus transparent ». Pour l'emploi des cadres, la part des recrutements réalisés sans publication d'offre d'emploi serait passée de plus de la moitié en 1996 à seulement un tiers, dix ans après, et toutes les offres feraient l'objet d'une diffusion internet. Il va de soi qu'il faut relativiser ces chiffres en fonction de la profession des recrutés, l'utilisation d'internet restant plus marginale dans le secteur de la grande distribution alimentaire contrairement à l'informatique où elle est le premier canal de recrutement. Cette explosion d'informations (août 2003 : 177 000 offres, mai 2008 : 500 000 offres comme le montre la figure 1) 4 pose divers problèmes dans leur traitement. D'abord, l'audience élevée et hétérogène de ces « bourses à l'emploi électroniques » tend à induire un taux important de candidatures non pertinentes. Internet a engendré une banalisation de l'acte de candidature : la possibilité de se porter candidat en quelques clics a abaissé le niveau d'autocensure des candidats et a suscité un accroissement des candidatures dites « non qualifiées » (Fondeur, 2006). (Autor, 2001) avance l'idée selon laquelle une conséquence naturelle de la baisse du coût de l'acte de candidature est que beaucoup de travailleurs vont postuler pour plus d'emplois. En fait, l'excès de candidatures apparaît être la norme pour les offres d'emploi déposées en ligne, avec des employeurs rapportant qu'ils reçoivent fréquemment des nombres ingérables de CV en provenance de candidats tant sur que sous-qualifiés, souvent de manière répétée. Ce « bruit » perçu par les recruteurs est aussi nourri par celui auquel sont confrontés les candidats face à l'accroissement du nombre d'offres d'emploi disponibles en ligne. Ces offres d'emploi publiées selon des standards différents, sans référence à des nomenclatures communes, perdent une grande partie de leur richesse lorsqu'elles sont agrégées. Il est difficile pour le candidat de faire le tri parmi les annonces à partir de formulaires très largement fondés sur la recherche de mots-clés en plein texte et/ou dans le titre des postes comme le souligne (Mellet, 2006) dans son analyse des requêtes d'un agrégateur d'offres. (Beauvallet et al., 2006) pointent ainsi dans leur étude les difficultés des internautes à trouver l'offre d'emploi du fait de la quantité d'information disponible et de son éparpillement. Nous présentons dans cette section les différentes approches qui ont été proposées dans la littérature afin d'aborder ces problématiques ainsi que différentes solutions innovantes sur le marché. La spécificité des informations contenues dans les documents d'une candidature à une offre d'emploi conduit au développement d'approches sémantiques. (Desmontils et al., 2002;Morin et al., 2004) proposent une méthode d'indexation sémantique de CV fondée sur le système BONOM (Cazalens et al., 2001). La méthode consiste à exploiter les caractéristiques dispositionnelles du document afin d'identifier chacune des parties et l'indexer en conséquence. (Rafter et al., 2000a) décrivent les lacunes des systèmes actuels face à la problématique de recherche d'emploi et proposent un système sur la base d'un filtre collaboratif (ACF) permettant d'effectuer des profilages automatiques sur le site JobFinder. La seconde approche que l'on rencontre dans la littérature est celle d'ontologies spécifiques au domaine. Dans le domaine des ressources humaines, (Mocho et al., 2006) décrivent l'importance d'une ontologie commune (HR ontology) ainsi qu'un guide pour mettre en place ce type d'application. (Bourse et al., 2004) décrivent un modèle de compétence et un processus dédié à la gestion des compétences dans le cadre du e-recrutement (principalement des CV ou des offres d'emploi). De la même façon, s'appuyant sur la technologie HRXML (Allen et al., 2001; Dorn et al., 2007) décrivent un prototype de métamoteur spécifique à la recherche d'emploi. Celui -ci privilégie la récolte des informations importantes (catégorie de l'emploi, lieu du travail, compétences recherchées, intervalle de salaire, etc.) sur un ensemble de sites web 5. Plus récemment, dans le cadre du projet Prolix, (Trog et al., 2008) proposent une ontologie de ressources humaines basée sur le cas de British Telecom. Ils proposent une architecture en plusieurs niveaux en fonction des compétences, des interactions et du contexte. Plus proche des méthodes numériques, l'étude du document principal d'une candidature, le CV (curriculum vitae), a fait l'objet de différents travaux pour qu'il puisse être analysé automatiquement. (Clech et al., 2003) décrivent une approche de fouille de données avec des automates capables d'apprendre à identifier des typologies de CV, de profils de candidats et/ou de postes. Les travaux présentent une approche limitée à la catégorisation de CV de cadres et de CV non cadres. La méthode s'appuie sur l'extraction de termes spéci-fiques permettant une catégorisation à l'aide de C4.5 (Quilan, 1993) et un modèle à base d'analyse discriminante. La spécificité de certains termes ou concepts (tels que le niveau d'étude, les compétences mises en avant) afin d'effectuer cette classification est mise en évidence mais reste décevante au niveau des résultats : 50-60 % de CV correctement classés. (Roche et al., 2006; Roche et al., 2008) décrivent une étude d'extraction de terminologie spécifique sur un corpus de CV 6. Leur approche permet d'extraire un certain nombre de collocations contenues dans les CV sur la base de patrons (tels que Nom-Nom, Adjectif-Nom, Nom-préposition-Nom, etc.) et de les classer en fonction de leur pertinence en vue de la construction d'une ontologie spécialisée. Le second document d'une candidature est la lettre de motivation (abrégée en LM par la suite). La LM est généralement considérée comme un exercice de style (Knouse, 1988) et un complément d'informations du CV. Elle est généralement consultée uniquement dans des cas particuliers par les recruteurs (parcours atypique, choix entre plusieurs candidats très proches, etc.). Il y a peu de travaux consacrés au traitement des LM. On notera les travaux de (Audras et al., 2006) sur les erreurs usuelles dans le passage à l'écrit d'une population apprenant le français. L'approche proposée est la détection de motifs syntaxiques propres à une catégorie d'apprenants, et qui se trouvent absents ou peu usités chez les locuteurs natifs. L'étude porte en partie, sur la rédaction de LM. On notera aussi l'étude de (Amadieu, 2007) sur un petit échantillon de CV/LM. Il conclut qu'il n'existe pas de critère discriminant lors d'un recrutement dû à la faible différence de traitement entre les candidats dans les entreprises testées. Parmi les solutions innovantes sur le marché, on notera les travaux de Lingway avec LINGWAY e-RH Applications 7 sur la base de thésaurus spécifiques au domaine, Twitter 8 qui lance le site de recherche d'emploi basé le concept de message court (moins de 140 caractères) et ZaPoint 9 qui propose une solution originale et intéressante dans l'intégration de CV, appelée Lifechart, qui permet de mettre le CV sous forme de graphique au travers de diverses courbes. Le LIA, en partenariat avec le LIRMM 10 et Aktor Interactive, une agence de communication française spécialisée dans l'e-recruiting, ont développé le système E-Gen pour résoudre ce problème. Celui -ci se compose de trois modules principaux : extraction d'information à partir de corpus des courriels (d'offres d'emploi); analyse de réponses des candidats (séparation automatique de LM et CV); analyse et calcul d'un classement de pertinence du profil des candidats. Afin d'extraire l'information utile, le premier module analyse le contenu des courriels d'offres d'emploi. Cette étape présente des problèmes intéressants liés au TAL : les textes des offres sont écrits dans un format libre, sans structure, avec certaines ambiguïtés et des erreurs typographiques. Après l'identification de la langue, E-Gen analyse le message et extrait le texte de l'offre d'emploi du message ou du fichier attaché à l'aide de modules externes en fonction du format (wvWare 11 et pdftotext afin de traiter les documents de source Ms Word et pdf). Après l'étape de filtrage et lemmatisation, nous utilisons la représentation vectorielle pour chaque segment afin de lui attribuer une étiquette en fonction de son rôle dans le texte. Par la suite, cette séquence d'étiquettes, qui donne une représentation de l'enchaînement des différentes parties du texte de l'annonce, est traitée par un processus correctif qui la valide ou qui propose une meilleure séquence. À la fin du traitement, un fichier XML contenant l'annonce est généré. Lors de la publication d'une offre d'emploi, une segmentation particulière des annonces est requise par les job boards. Lors de la réception d'une candidature, le système extrait le corps du message, ainsi que les différentes pièces jointes. Une version texte des différents documents contenus dans la candidature est alors produite. Différents processus de filtrage et lemmatisation permettent au système d'identifier à l'aide de Support VectorMachines (SVM), le type du document (CV et/ou LM présents dans le corps du courriel ou dans les pièces jointes (module 2, section 5)). Une fois la LM et le CV identifiés, le système effectue un profilage automatisé de cette candidature à l'aide de mesures de similarité en s'appuyant sur un petit nombre de candidatures préalablement validées comme candidatures pertinentes par un consultant en recrutement (module 3, section 6). La figure 2 présente une vue d'ensemble du système. Dans un premier temps, nous effectuons un prétraitement des données textuelles (offre d'emploi, CV et LM) permettant d'anonymiser les candidatures et de supprimer des informations non pertinentes telles que les noms des candidats, les adresses, les courriers électroniques, les noms de villes. La suppression des accents et des majuscules est également effectuée. Une approche classique pour définir les unités textuelles dans un corpus est d'utiliser les « mots » pouvant être produits par des techniques simples de segmentation automatique. Cependant, ces unités élémentaires peuvent également faire l'objet de traitements additionnels permettant l'intégration de connaissances linguistiques plus sophistiquées dans les représentations. Dans la recherche documentaire, nous sommes intéressés par des mots discriminants, c'est-à-dire des mots utiles à la recherche d'information dans ces documents. Le lexique est de ce fait une composante importante de la matrice, nous utilisons divers processus afin d'amoindrir la malédiction dimensionnelle 12 : uniformiser la casse : transformation des majuscules en minuscules; filtrage : suppression des mots fonctionnels et des verbes (être, avoir, pouvoir, falloir…), des expressions courantes (par exemple, c'est-à-dire, chacun de…), des nombres (écrits en chiffres ou en lettres) et des symboles (comme $, #, *, etc.); lemmatisation : ce traitement peut entraîner une réduction importante du lexique. La lemmatisation simple consiste à trouver la racine des verbes fléchis et à ramener les mots pluriels et/ou féminins au masculin singulier 13 avant de leur associer un nombre d'occurrences. La lemmatisation permet donc de diminuer le nombre de termes qui définiront les dimensions de l'espace de représentation ou espace vectoriel. Même si une perte d'information difficilement quantifiable existe lors de ces opérations (perte de structures comme les énumérations, le rapprochement délicat de certains termes (« La Poste recherche … pour un poste de facteur »), ces opérations permettent de réduire considérablement la dimension de l'espace tout en augmentant la fréquence des termes canoniques. L'extraction des 1 000 offres d'emploi les plus récentes à partir de la base d'informations d'Aktor Interative a permis d'avoir un corpus de taille relativement importante nommé par la suite corpus d'offres d'emploi. Chacune de ces offres ayant été segmentée manuellement par l'entreprise en fonction des besoins des sites d'emplois. Quelques statistiques du corpus sont rapportées dans le tableau 1. Une analyse rapide a montré que les offres d'emploi se composent souvent de blocs d'information thématiquement proches qui gardent une structure logiquemais restent cependant, fortement non structurés. Une offre d'emploi est composée de quatre blocs : Description : bref résumé de l'entreprise qui recrute; Titre : titre de l'emploi; Mission : courte description de l'emploi; Profil : qualifications et connaissances exigées pour le poste. Les contacts sont généralement inclus dans cette partie. On peut en déduire que dans une offre il peut y avoir plusieurs segments de même type. Ceux -ci pouvant être consécutifs ou non. Statistiques du corpus d'offres d'emploi Nous avons choisi les SVM pour cette tâche suite aux résultats lors de travaux précédents sur la classification de courriels (Kessler et al., 2006). Nous nous sommes servis de l'implémentation LibSVM (Fan et al., 2005), plus appropriée à cette tâche. Après une première étape de filtrage et de racinisation (voir section 4), nous utilisons une représentation vectorielle pour chaque segment de texte afin de lui attribuer une étiquette à l'aide des SVM. Nous avons effectué une série de tests afin de déterminer le noyau SVM le plus intéressant pour notre tâche. On observe que les noyaux polynomial, sigmoïde et radial obtiennent toujours des résultats inférieurs (linéaire 85 %, polynomial 75 %, sigmoide 55 %, radial 49 %). Au vu de ces résultats préliminaires, nous avons décidé d'utiliser un modèle SVM avec un noyau linéaire. Nous avons choisi par la suite les CRF (Conditional Random Fields) (Lafferty et al., 2001) qui ont été utilisés avec succès dans de nombreuses tâches d'étiquetage telles que l'étiquetage morphosyntaxique ou la détection d'entités nommées. L'avantage principal des CRF par rapport aux modèles génératifs tels que les Hidden Markov Model (HMM) est la possibilité d'utiliser l'ensemble des observations d'une séquence pour prédire une étiquette. Nous nous sommes servis de l'implémentation CRF++ 14. Nous avons formaté les données afin d'associer à chaque séquence de mots une étiquette pour chaque partie de l'annonce. Pour la méthode probabiliste, nous avons construit les unigrammes et les bigrammes de mots pour chaque partie de l'annonce avec leur probabilité P puis nous calculons pour obtenir le score t des n - grammes pour un document D : Les deux dernières égalités proviennent de l'application du théorème de Bayes. En prenant comme hypothèse afin de donner tout son poids au contenu : on obtient : avec comme seconde hypothèse, pour obtenir des estimations fiables, malgré la faible taille des corpus disponibles : avec t la classe d'appartenance, W i le i eme mot dans le document D. Le tableau 2 présente des exemples de bigrammes de mots discriminants pour chacune des classes dans le corpus d'offres d'emploi. Les résultats obtenus montrent une classification performante des segments individuellement pour chacun des classifieurs (voir figure 3), mais les premiers tests d'intégration d'une offre d'emploi complète ont montré une chute importante des performances due au grand nombre d'annonces avec un ou deux segments mal classés. La figure 3 présente le pourcentage de segments en erreur pour chaque classifieur sur une série de 50 tests avec tirage aléatoire sur le corpus d'offres d'emploi. On observe que malgré de bonnes performances globalement (≈ 20 % d'erreurs en moyenne), le système à base de méthode probabiliste reste inférieur au classifieur SVM (≈ 13 % d'erreurs en moyenne) sur l'ensemble des tests, lui -même inférieur au CRF (≈ 5 % d'erreurs en moyenne). Bigrammes de mots discriminants pour chaque partie de l'annonce La catégorisation de segments sans considérer leur position dans l'offre d'emploi peut être une source d'erreurs. En effet, nous avons constaté que les SVM produisent globalement une bonne classification des segments individuels, mais les segments d'une même offre d'emploi sont rarement tous correctement étiquetés. En raison d'une grande variété dans les paramètres (texte libre, découpage incertain, délimiteur varié), il s'est avéré difficile de traiter ce type de documents avec des expressions régulières. Une des erreurs les plus fréquentes et les plus visibles rencontrées lors de ces tests était unemauvaise catégorisation des segments Titre. Ce segment est en général très court, mais contient des informations importantes sur l'offre d'emploi comme le montre l'exemple suivant. Exemple d'offre d'emploi Le dernier segment est catégorisé Titre, mais cela est impossible. Afin de corriger ce problème, nous avons opté pour un automate de Markov, permettant ainsi de gérer la position de chaque élément de l'annonce vis-à-vis des autres. Le modèle proposé a six états différents : Début (S), Titre (1), Description (2), Mission (3), Profil (4) et Fin (E). Nous avons donc représenté une offre d'emploi comme une succession d'états dans cette machine. Chaque état ayant la possibilité d'émettre un segment ou de passer à l'état suivant en fonction d'une certaine probabilité. Nous avons donc parcouru l'ensemble du corpus de référence afin de déterminer les probabilités de transition entre les états. Le tableau 3 montre la matrice de probabilités obtenue. Matrice de Markov L'observation de cette matrice nous renseigne sur la structure d'une offre d'emploi. Ainsi, celle -ci a une probabilité p = 0, 99 de commencer par le segment Description mais il est impossible de commencer par Mission ou Profil. De la même manière, un segment Mission peut seulement être suivi soit d'un segment Mission soit d'un segment Profil. Ceci nous a permis d'en déduire l'automate représenté sur la figure 4. Celui -ci possède quatre états plus les états initial et final. Chaque état pouvant boucler sur lui -même ou passer à l'état suivant en fonction d'une certaine probabilité déterminée par la matrice 3. Le processus correctif décrit en 5.4 est piloté par cet automate. Lors de la classification d'une offre d'emploi complète, quelques segments sont classés incorrectement, sans un comportement régulier (un segment Description a été détecté au milieu d'un Profil, le dernier segment de l'offre d'emploi a été identifié comme Titre, etc.). Afin d'éviter ce genre d'erreurs, nous avons appliqué un post-traitement inspiré de l'algorithme de Viterbi (Manning et al., 1999; Viterbi, 1967). La classification par SVM donne à chaque segment individuellement une classe. Une offre complète est une succession de segments de texte. Chaque segment pouvant être répété (dans le cas ou la segmentation du document a été mauvaise). Par exemple, une annonce qui donnerait le découpage en segment suivant : Description → Description → Titre → Mission → Mission → Profil donnerait la séquence suivante : S → 2 → 2 → 1 → 3 → 3 → 4 → E. Notre algorithme inspiré de Viterbi calculera la probabilité de la séquence. Si la séquence est probable, l'automate renvoie cette probabilité et la séquence est proposée comme découpage de l'offre. Si la séquence est improbable, il renvoie 0, la séquence est rejetée et le processus correctif est interrogé afin de transmettre la séquence avec un nombre d'erreurs minimales (comparé à la séquence produite par les SVM) et une probabilitémaximale. Ce processus parcourt l'arbre des solutions possibles en calculant la probabilité de la séquence ainsi que le nombre de différences par rapport à la séquence produite par les SVM. La figure 5 présente un exemple de déroulement du post-processus correctif avec la sous-séquence hypothétique suivante 3 → 4 → 3 → 3 → 4 → 5 (d'après l'automate 4, il est impossible de passer de l'état 4 (Profil) à l'état 3 (Mission)). Le post-traitement propose donc différentes solutions : les trois premières ayant deux différences par rapport à la séquence SVM, la dernière n'aboutissant pas à l'état final (5), la séquence retenue sera la quatrième 3 → 3 → 3 → 3 → 4 → 5, celle -ci ayant une seule erreur et la probabilité la plus importante. Les premiers résultats étaient intéressants, mais avec des temps de traitement assez grands lorsque le nombre de segments était important (plusieurs heures de calcul pour une annonce d'une cinquantaine de segments). Nous avons introduit une amélioration en utilisant un algorithme Branch and Bound (Land et al., 1960) pour élaguer l'arbre : dès qu'une première solution est trouvée, le nombre de différences par rapport à la séquence du classifieur et sa probabilité sont retenues et comparées chaque fois qu'une nouvelle séquence est traitée. Si la solution n'est pas meilleure (au sens nombre de segments différents et probabilité inférieure), le reste de la séquence n'est pas calculé. L'utilisation de cet algorithme permet d'obtenir une solution avec des temps très acceptables (le traitement de séquences contenant 50 symboles avoisine les 2 secondes) mais présente cependant quelques lacunes. Le post-processus s'appuie sur la séquence transmise par le classifieur. Si celle -ci contient trop d'erreurs ou des erreurs autorisées par l'automate, le processus correctif n'apporte aucune amélioration. Nous sommes conscients qu'une erreur en début de séquence peut conduire l'automate à produire une solution valable sans être certain qu'elle soit optimale, cependant elle était industriellement acceptable. Nous avons effectué une évaluation selon deux niveaux de finesse : par segment et par offre d'emploi entièrement reconnue. La figure 6(a) montre une comparaison entre les résultats obtenus par les SVM, les CRF avec et sans le processus correctif. Les courbes présentent le nombre de segments non reconnus en fonction de la taille du corpus d'apprentissage. La figure présente les résultats des SVM seules, des CRF seules sur la tâche de classification des segments. Les résultats sont bons et prouvent quemême avec une petite fraction de patrons d'apprentissage (20 % du total), les deux classifieurs obtiennent un fort taux de patrons bien classés (taux d'erreurs < 10 %). Le processus correctif (ligne continue) donne toujours de meilleurs résultats que les classifieurs quelle que soit la fraction d'exemples d'apprentissage. En comparaison, une classification Baseline avec la classe la plus probable (étiquette Profil avec environ 40 % d'apparition sur le corpus) donne 60 % d'erreurs calculées sur tous les segments. La figure 6 présente une comparaison entre les résultats obtenus par chaque méthode en fonction de chaque niveau de finesse (par segment et par offre d'emploi entièrement reconnue). On observe une considérable amélioration du nombre d'offres d'emploi identifiées avec le processus correctif. Avec un apprentissage de 80 % SVM obtient un minimum d'environ 50 % des offres d'emploi mal étiquetées, et le processus correctif en obtient 25 %, donc une amélioration de plus de 50 % du score des SVM. Les CRF obtiennent d'environ 30 % des offres d'emploi mal étiquetées, et le processus correctif en obtient 25 %, donc une amélioration de 5 %. La figure 7 montre une comparaison entre les résultats obtenus pour chaque méthode, avec ou sans processus correctif, selon les offres d'emploi partiellement ou totalement mal reconnues. On observe que le processus correctif améliore les résultats quel que soit l'algorithme de classification (amélioration d'environ 30 % pour la méthode probabiliste, environ 20 % pour les SVM et d'environ 5 % pour les CRF). L'ensemble des tests montre également que la classification par CRF obtient des résultats de meilleure qualité que les deux autres classifieurs. Par ailleurs, les résultats des CRF et des SVM avec le post-processus sont très proches. Nous souhaitons mettre en place un système capable de fournir une première évaluation automatisée des candidatures selon divers critères. Nous présentons dans cette section les travaux concernant les problématiques de séparation de CV/LM ainsi que ceux correspondant au classement de candidatures. Nous avons effectué une seconde extraction du système d'information en regroupant plusieurs offres d'emplois ainsi que les diverses réponses à ces offres d'emploi étiquetées par un recruteur du cabinet lors de la présélection. Il regroupe un ensemble d'offres d'emploi avec des thématiques différentes (emplois en comptabilité, entreprise, informatique, etc.) ainsi qu'une étiquette associée à chaque candidature par le recruteur. Afin de simplifier le problème, nous avons réduit l'ensemble des étiquettes à deux avec les valeurs retenues ou non retenues. Une valeur retenue correspond à un candidat potentiellement intéressant pour un emploi donné et une valeur non retenue a été attribuée à une candidature non pertinente, selon l'avis d'un consultant en recrutement. Ce regroupement nous a permis d'équilibrer un peu le corpus, celui -ci étant majoritairement composé de candidatures étiquetées non retenues comme le montre le tableau 4. Les offres d'emplois peuvent être rédigées en différentes langues, mais nous n'avons conservé pour cette étude que les offres et les réponses en français. Ce sous-ensemble, nommé Corpus offres/réponses a donc permis d'obtenir un corpus de réponses classés en fonction de l'offre d'emploi ainsi que du jugement d'un recruteur sur les candidatures. Statistiques du corpus offres d'emplois Nous avons effectué un prétraitement des CV et LMpermettant leur anonymisation (noms des candidats, suppression des adresses, des courriers électroniques et des noms de villes). La suppression des accents a également été effectuée. Nous avons, par la suite, utilisé les processus de filtrage et racinisation présentés en section 4. Pour arriver à identifier automatiquement le type de document traité, nous avons tenté une classification simpliste en nous basant uniquement sur les noms des fichiers. Ceci s'est avéré insuffisant 15 en raison de la diversité des noms de fichiers 16. L'observation des statistiques du tableau 5 nous a incité à créer deux classifieurs basiques basés sur les longueurs moyennes des phrases et sur le nombre de mots dans chaque type de documents. On notera la faible différence au niveau de la longueur moyenne des phrases, les LM étant généralement des documents courts et les CV des documents de synthèse présentant peu de caractères délimitant les phrases («. », «. : », etc.). Nous avons ainsi construit un premier classifieur basique N1 qui décide en fonction de la longueur des phrases p (p < 18 ⇒ CV, p > 18 ⇒ LM) et un second N2 en fonction du nombre de mots m (m < 200 ⇒ LM, m > 200 ⇒ CV). Cependant les résultats (tableau 6) montrent les limites de ce genre de méthode. Statitistiques des classifieurs basiques Précision, Rappel, F-score obtenus par les deux classifieurs basiques Le tableau 6 présente les résultats obtenus avec chacun des classifieurs basiques, N1 et N2. Le classifieur N1 sépare l'ensemble des documents comme des CV et aucun dans la classe LM. Les résultats obtenus par le classifieur N2 sont plus mitigés mais restent décevants. Nous expliquons cela par l'hétérogénéité des données (des CV parfois très courts et des LM parfois extrêmement longues) qui entraîne une variance importante perturbant la prise de décision. Nous avons donc choisi les SVM pour cette tâche compte tenu des bons résultats obtenus dans les travaux précédents en catégorisation de texte. Après une étape de filtrage et de racinisation (voir section 4), nous utilisons une représentation vectorielle de chaque document et nous lui attribuons une étiquette (CV ou LM). Afin de régler les paramètres et tester nos méthodes, nous avons effectué une validation croisée en divisant le Corpus offres/réponses en cinq sous-ensembles approximativement de la même taille A i; i = 1, …, 5. avec une répartition aléatoire mais équilibrée des candidatures dans chaque sous-corpus. Le protocole expérimental a été le suivant : nous avons concaténé quatre des cinq sous-ensembles comme ensemble d'apprentissage et gardé le cinquième pour le test (par exemple, les sous-ensembles d'apprentissage A 1, A 3, A 4 et A 5 valident le sous-ensemble de test A 2). Cinq expériences ont été ainsi effectuées à tour de rôle. Nous avons choisi d'effectuer ce découpage afin d'éviter de régler les algorithmes sur un seul ensemble d'apprentissage (et un seul ensemble de test), ce qui pourrait conduire à deux travers, le biais expérimental et/ou le phénomène de sur-apprentissage (Torres-Moreno et al., 2007). Les algorithmes ont été évalués sur les corpus de test en utilisant la mesure F-score sur l'ensemble de documents bien classés, avec une macro-moyenne sur toutes les classes (avec β = 1 afin de ne privilégier ni la précision ni le rappel) (Goutte et al., 2005). Les résultats obtenus par les SVM sur la tâche de classification de CV/Lettre de motivation sont d'excellente qualité en Précision, Rappel et F-score sur chaque sousensemble (entre 0,95 et 0,98). Ceux -ci ont été publiés dans (Kessler et al., 2007). Une analyse des CV/lettre demotivationmal étiquetés fait apparaître qu'il y a deux types de CV mal classés : certains sont de mauvais étiquetage dans le Corpus de référence et d'autres des CV, étiquetés LM, qui sont un message généré automatiquement par des sites d'emploi, ceux -ci contenant des versions très courtes de CV avec un lien vers une version complète comme le montre les exemples dans (Kessler et al., 2008). Une fois la problématique de tri de CV/LM résolue, nous avons pu générer le Corpus offres/réponses présenté par la suite et qui a servi aux expériences pour l'ensemble du troisième module et de la tâche de classement de candidatures. Nous avons opté pour une approche par mesure de similarité afin d'obtenir un classement des candidatures par rapport aux offres d'emploi proposées. Chaque document a été transformé en un vecteur avec des poids représentant la fréquence des termes (Tf). Une série de tests a été effectuée dans (Kessler et al., 2009) avec le Tf-idf sans amélioration visible. Les mesures de similarité que nous avons utilisées sont décrites dans (Bernstein et al., 2005) : le cosinus (5), qui permet de calculer l'angle entre l'offre d'emploi et la réponse de chaque candidat, les distances de Minkowski (6) (p = 1 pour Manhattan et p = 2 pour la distance euclidienne), et la distance de Recouvrement (7) : avec j une offre d'emploi, d la candidature, i un terme, ji et di le nombre d'occurrences de i respectivement dans j et d. Afin de combiner ces mesures, nous avons effectué une normalisation de chaque mesure selon les minima/maxima puis nous avons utilisé un algorithme de décision (AD) (Boudin et al., 2007; Torres Moreno et al., 2009) qui fusionne les valeurs obtenues par chaque mesure de similarité selon 2 tendances. Deux moyennes différentes sont calculées : la décision est calculée à partir de ces moyennes, la tendance positive (lorsque la mesure obtient un résultat λ > 0,5) et la tendance négative (λ < 0,5). Afin d'améliorer les résultats obtenus, nous avons modifié le système afin d'intégrer un processus de retour de pertinence (Relevance feedback) (Spärck Jones, 1970). Le Relevance Feedback est une méthode classique de reformulation de requête afin d'améliorer les résultats obtenus au préalable en l'enrichissant de façon plus ou moins automatique au moyen de documents trouvés lors d'une première passe. Par exemple, un utilisateur vérifie soigneusement la réponse d'un ensemble résultant d'une première requête, puis il reformule la requête en ajoutant les documents jugés pertinents pour améliorer le résultat de cette nouvelle requête. L'algorithme de (Rocchio, 1971) et ses différentes variations ont été largement utilisés dans le domaine de la recherche d'information (Frakes et al., 1992; Leuski, 2000) et la catégorisation de texte (Joachims, 1997). Plus proche des ressources humaines, (Rafter et al., 2000b) proposent un système de Relevance Feedback afin de guider l'internaute dans sa recherche d'emploi à partir d'informations récoltées sur le site d'emploi JobFinder 17. Dans notre système, la méthode Relevance Feedback permet de prendre en compte les choix du recruteur lors d'une première évaluation de quelques CV. Notre objectif n'étant pas un système capable de trouver la candidature idéale, mais un système capable de reproduire le jugement du consultant en recrutement. Il est extrêmement important de pouvoir signaler à un recruteur une candidature pertinente qu'il aurait évaluée de façon trop rapide. L'objectif de notre système est donc de l'aider à limiter ce genre d'erreur en repêchant ce qui a échappé à sa vigilance. Notre système va donc permettre d'effectuer un ordonnancement de façon assistée. Cette approche repose sur l'exploitation des documents retournés en réponse à une première requête pour améliorer le résultat de la recherche (Salton et al., 1990). Dans notre contexte, nous effectuons un tirage aléatoire de quelques candidatures (de une à sept dans nos expérimentations) parmi l'ensemble des candidatures étiquetées par le recruteur comme pertinentes. Cellesci sont ajoutées à l'offre d'emploi. Nous enrichissons ainsi l'espace vectoriel par les termes appartenant à des candidatures jugées pertinentes par un consultant en recrutement. Ceci nous permet d'effectuer un nouveau calcul Sim ′, pour chaque mesure de similarité entre la candidature que nous évaluons et l'offre d'emploi enrichie du nombre de candidatures pertinentes du processus de Relevance Feedback : avec j une offre d'emploi, d la candidature, pi une candidature pertinente, n le nombre de candidatures retenues pour le Relevance Feedback et ∥ l'opérateur de concaténation. Nous souhaitons mesurer la similarité entre une offre d'emploi et ses candidatures. Le corpus offres/réponses contient 25 offres d'emplois associées à au moins quatre candidatures. Nous transformons chaque document en une représentation vectorielle (Salton, 1991). Puis, nous mesurons leur similarité à l'aide des mesures présentées en section 6.3. Chacune de ces mesures produit un classement entre l'offre d'emploi et l'annonce. L'algorithme de décision combine l'ensemble de ces similarités afin d'ordonnancer les candidatures. Afin d'évaluer la qualité de l'ordonnancement obtenu, nous utilisons les courbes ROC (Receiver Operating characteristic) (Ferri et al., 2002). La courbe ROC est avant tout définie pour les problèmes à deux classes (positive et négative). Elle indique la capacité du classifieur à placer les exemples positifs devant les négatifs. Elle met en relation dans un graphique le taux d'incorrect (c'est-à-dire les candidatures non pertinentes mieux classées que les candidatures pertinentes) en abscisse et le taux de correct (c'est-à-dire les candidatures pertinentes classées en tête) en ordonnée. La surface sous la courbe ROC ainsi créée est appelée AUC (Area Under the Curve). Le principal avantage des courbes ROC est leur résistance au déséquilibre dans le corpus (par exemple un déséquilibre entre les exemples retenu et non retenu). Le détail et l'intérêt de cette mesure sont développés dans (Roche et al., 2006). Pour chaque offre d'emploi du corpus, nous évaluons la qualité du classement obtenu avec les courbes ROC. Nous avons écarté lors de l'évaluation les candidatures où une pièce était manquante (CV ou LM). Nous nous sommes intéressés à la structure de nos données. Comme déjà mentionné en 5.1, une offre d'emploi est composée d'une brève description de l'entreprise (D), un titre (T), une mission (M) et un profil (P). Nous utilisons pour la suite deux combinaisons différentes de ce découpage : l'offre d'emploi complète (DTMP) sans tenir compte du découpage; l'offre d'emploi composée de son titre, sa mission et son profil (TMP). Le tableau 7 présente les résultats obtenus en fonction de la candidature globale : le CV, la LM avec une offre d'emploi DTMP ou TMP. Ceux -ci ont été publiés dans (Kessler et al., 2009). On observe que les meilleurs résultats sont obtenus en combinant les deux parties de la candidature (CV et LM) avec une offre d'emploi TMP, même si le CV reste le documentmajeur de la candidature avec un résultat très proche. La mesure cosinus obtient les meilleurs résultats quelles que soient les approches (DTMP ou TMP) sauf lorsque l'on considère uniquement la LM où la mesure Manhattan obtient des résultats légèrement meilleurs. Nous supposons que les résultats obtenus par l'algorithme de décision sont bruités par la mauvaise performance de certaines mesures. Nous observons que le CV contient plus d'informations pertinentes que la LM. Ceci vient confirmer notre intuition que le CV est le document principal de la candidature. AUC obtenu en fonction du découpage de l'offre d'emploi Dans le tableau 8, nous présentons les résultats obtenus en effectuant un découpage des CV et LM en 3 parties afin d'identifier les morceaux contenant les informations les plus pertinentes. Nous obtenons des scores particulièrement bas dans les dernières parties des CV et des LM, cela permet de conclure que les informations les plus importantes afin de déterminer si une candidature est pertinente ou pas se situent dans les deux premiers tiers de chaque document. Nul besoin d'effectuer une analyse très poussée pour découvrir ce à quoi on pouvait s'attendre : le dernier tiers contient des informations rarement cruciales telles que « loisirs », « autres » pour le CV, ou encore les formules de politesse pour les LM (« je vous prie d'agréer », « en vous remerciant par avance de votre réponse », etc.). La figure 8 présente, sous forme graphique, l'ensemble des résultats obtenus en fonction des découpages. AUC obtenu en fonction du découpage des réponses Afin de pouvoir tester le principe de relevance feedback, il a été nécessaire de retirer certaines offres d'emploi du corpus offres/réponses, celles -ci ne possédant pas un nombre de candidatures retenues suffisantes. Les offres avec moins de 6 candidatures retenues ont été retirées. Nous désignerons ce nouveau corpus comme Corpus RF. Nous utilisons un residual ranking (Billerbeck et al., 2006) : les documents utilisés pour le Relevance Feedback sont retirés de la collection avant d'effectuer la requête reformulée. Chaque test a été effectué une centaine de fois avec un tirage aléatoire des candidatures pertinentes ajoutées au Relevance Feedback. Nous désignons par RF1 à RF7 le nombre de candidatures utilisées lors du processus de Relevance Feedback (RF1 pour 1 candidature, RF2 pour 2 etc.). On observe une progression positive du score AUC entre la référence et le RF7 pour 10 offres sur 12. L'étude détaillée des résultats montre que l'offre 33746 comporte quelques candidatures vides étiquetées pertinentes. Ce qui conduit le système à dégrader les résultats obtenus lorsque celles -ci sont les seules à être évaluées. L'offre 34783 obtient un bon score dès le départ mais comporte peu de candidatures évaluées pertinentes (7) dont des candidatures incomplètes (sans LM), ce qui entraîne une dégradation du score puisqu'elles ne sont pas prises en compte dans le résultat. La figure 9 illustre graphiquement les résultats des offres d'emploi ayant eu une progression avec le retour de pertinence. Comparaison entre les scores AUC obtenus en fonction de chaque taille de Relevance Feedback et la référence pour chaque offre d'emploi, triée en fonction du numéro de l'offre La progression n'est pas régulière mais le processus de Relevance Feedback améliore les résultats obtenus. RF1 obtient une moyenne de 0,65 et RF6 de 0,66. Il est malheureusement impossible de tester RF n avec n > 6 puisque le nombre de candidatures pertinentes est trop petit dans certaines offres d'emplois. Il serait intéressant de pouvoir tester le Relevance Feedback avec un nombre plus important de candidatures ajoutées afin de connaître ses limites, cependant cela nous obligerait à retirer à nouveau des offres d'emploi du Corpus RF. Dans cet article, nous avons présenté E-gen, système pour le traitement automatique des offres d'emploi, découpé en 3 modules. Le premier module est dédié à la catégorisation des différentes sections composant une offre d'emploi. Le traitement de ce type d'information est difficile car il s'agit de textes libres (non structurés) provenant de sources diverses. L'analyse du corpus d'offres d'emploi a permis de détecter des blocs d'informations possédant des caractéristiques communes. Chaque offre se décompose en quatre parties distinctes, la description de l'entreprise qui recrute, un intitulé, la mission qui sera confiée au futur collaborateur et le profil auquel celui -ci devra correspondre. Les premiers résultats obtenus par les SVM et les CRF étaient très intéressants avec environ 90 % et 95 % de segments bien étiquetés pour un corpus d'apprentissage de 80 %. Le processus correctif améliore ces résultats pour chaque méthode de classification (SVM, CRF et méthode probabiliste) et diminue considérablement les erreurs de segments isolés incorrectement classés, tout en restant dans des temps de calcul très raisonnables. La seconde partie met en avant les deux modules de traitement des réponses à des offres d'emploi. La tâche de séparation de chaque document de la candidature est effectuée par un SVM et obtient de très bons résultats. Le traitement des candidatures de façon automatisée est une tâche extrêmement difficile car l'information est en format libremalgré une structure conventionnelle.Le classement des candidatures restant fortement subjectif, nous avions pour but la mise en place d'un système d'aide à la décision pour le recruteur. Ce dernier effectue une évaluation des premières candidatures afin de guider le système par la suite. Après différentes étapes de filtrage et de racinisation, nous produisons une représentation vectorielle afin d'effectuer un classement des candidatures à l'aide de mesures de similarité et diverses représentations des documents. Nous avons observé une amélioration des AUC obtenue à l'aide du retour de pertinence. Nous envisageons quelques tests complémentaires (recherche de critères discriminants sur les candidatures identifiées comme négatives, pondération en fonction de l'importance de chacune des parties de l'offre, découpage de la candidature en fonction de termes particuliers etc.) pouvant apporter de nouvelles améliorations. Nous souhaitions par ailleurs inclure d'autres paramètres tels que la richesse du vocabulaire et l'orthographe afin d'évaluer la lettre de motivation, ceux -ci étant à l'heure actuelle faiblement exploités lors de la prise de décision par les recruteurs, mais les premiers tests sont restés peu concluants pour l'instant. Nous envisageons par ailleurs la mise en place d'un système d'évaluation de CV afin d'effectuer l'opération inverse (le candidat dépose son CV et le système lui propose les offres d'emploi les plus adaptées à son profil) ainsi qu'une simulation de l'évaluation sur une offre donnée pour permettre au candidat d'améliorer son dossier .
L'internet est au cœur du marché du travail et son utilisation s'étend à mesure qu'augmente le nombre d'internautes. La recherche d'emploi au travers des « bourses à l'emploi électroniques » et l'e-recrutement se sont banalisés. Cette explosion d'informations pose divers problèmes pour leur traitement rapide et efficace. Nous présentons le projet E-Gen, qui permet d'analyser les offres d'emploi de manière automatique ou assistée. Basé sur des classifieurs pilotés par un automate de Markov, le système obtient de très bons résultats. Nous proposons également une stratégie afin d'assister les recruteurs dans la tâche - difficile et d'une grande subjectivité - de classement de candidatures. Nous évaluons différentes mesures de similarité afin d'effectuer un classement pertinent des candidatures. L'utilisation d'un modèle de relevance feedback a permis de surpasser nos résultats.
sciencesInfo_12-0293268_tei_DN_id9782746232495_pu2010-03s_sa05_art05.tei.xml
termith-462-communication
La modernisation rapide et l'internationalisation des échanges ont donné naissance àce qu'Ulrich Beck appelle « une société du risque » qui se préoccupe non plus de lasécurité des individus par rapport aux seules forces de la nature, mais par rapportaux forces du développement technologique. Le risque est devenu partie intégrante dela subjectivité et de la réflexivité; sa gestion et sa prévention sont considéréescomme une nécessité politique, économique et sociale. Induit par la productionhumaine, le risque est également potentiellement réductible du fait même del'implication de l'homme dans le processus, en partie par des formes de régulationet d'auto-régulation. Toutefois, la prégnance du risque résulte en ce que ZygmuntBauman qualifie de « peur liquide », un sentiment d'insécurité qui émane duprocessus d'individualisation et d'autonomisation propre au système libéral, lequelmet de plus en plus la responsabilité des choix entre les mains de l'individu alorsmême que la capacité d'exercer ces choix est limitée par des infrastructurestechniques, politiques et économiques qui se complexifient et manquent detransparence. Cette théorie a été appliquée aux risques scientifiques etenvironnementaux, comme dans le cas du « principe de précaution » (Lupton, 1999) .Elle n'a pas été appliquée à l'environnement médiatique, dont la construction desproblèmes sociaux est pourtant très fortement associée aux incertitudes desnouvelles technologies de l'information et de la communication. Pourtant le sentiment d'insécurité à l'égard des médias s'est traduit ces dernièresdécennies par une série de peurs liquides qui pourraient être qualifiées de« paniques médiatiques » : ce sont des formes extrêmes d'engagement des individusavec certaines représentations véhiculées par les médias – perçues comme descontenus à risque (réels ou possibles) –, au point de les amener à se manifestercollectivement et à interpeller les pouvoirs publics. Ces paniques sonttrans-médiatiques, présentes tant dans les médias audiovisuels classiques que dansles médias numériques. Elles parcourent l'opinion publique en profondeur etconcernent de manière récurrente un nombre assez restreint de contenus focalisés surdes représentations de violence, pornographie, pédophilie et publicité. D'autrespréoccupations moins clairement exprimées existent aussi sur le rapportfiction/réalité, l'obésité ou encore l'identité culturelle et l'appartenanceethnique. Toutes relaient un sentiment de perte des repères, de désarroi des valeurssociales et manifestent une inquiétude pour l'intégrité morale et psychique de lapersonne. Leur substrat montre que la peur touche à des valeurs profondes de lasociété, certaines conditionnant sa survie : la mort et qui peut la donner( violence), la sexualité et qui peut la susciter (pornographie, pédophilie). Dansces deux cas, il s'agit des modes de production et de reproduction sociale qui sonten jeu. D'autres conditionnent la survie des médias eux -mêmes : la publicité et lerapport fiction/ réalité posent la question de la vérité et de la manipulation ,essentielle pour légitimer les médias dans leur utilité sociale. D'autres enfinconditionnent la survie de l'individu : l'identité et l'obésité relèvent dubien-être et de l'équilibre psychique et physique. Dans tous les cas, deux éléments récurrents sont à noter : leur attention auxcontenus de la représentation, présentés comme « à risque » et pouvant mener à descomportements eux -mêmes « à risque »; leur focalisation sur les jeunes commepopulation « à risque ». En cela elles se distinguent de tout autre phénomène ouévénement dont les médias s'emparent et se font le relais amplificateur, comme lacouverture politique d'une manifestation ouvrière ou la représentation fictive d'unerelation amoureuse ou familiale. L'attribution du risque médiatique devient donc unacte public et politique de la part d'une série d'acteurs sociaux, préoccupés del'intervention croissante des médias dans la socialisation des jeunes. C'estl'impact des messages qui pose problème, leur trace dans les esprits comme dans lesattitudes, d'où le fait que les paniques se focalisent très rapidement sur laprotection de l'enfance et de l'adolescence et s'appuient sur les droits de l'homme( à la dignité, notamment). Dans le cas de la violence par exemple, en France commeaux États-Unis et au Canada, dans les années 1994-1997, la panique a mené leséducateurs, les parents et les médecins de l'enfance à se mobiliser pour finalementobtenir des pouvoirs publics la mise en place d'une signalétique assortie d'uneclassification des programmes tenant compte des divers âges et degrés de contenu, etce, malgré la résistance active du secteur de l'audiovisuel (Frau-Meigs, Jehel ,1997). Une telle attribution du risque médiatique implique d'associer théorie du risque etmorale sociale ainsi que de s'adosser à une théorie de la socialisation par lesmédias qui ne va pas de soi pour de nombreux chercheurs (Frau-Meigs, 2010a). Pourles uns, cela supposerait de criminaliser les médias en les associant à la peur ducrime, ce que beaucoup répugnent à faire car, traditionnellement, le blâme tend àêtre mis sur des individus, pas sur des entités abstraites (Lupton, 1999; Critcher ,2003). Pour les autres, cela reviendrait à reconnaître des effets des médias enréception alors qu'ils tendent à construire celle -ci comme un acte individuel et nonpas collectif (Mondzain, 2002). Pour d'autres encore, cela impliquerait dereconnaître que les usages individualisés sont seulement palliatifs, atténuant lessymptômes sans agir sur la cause, les jeunes pouvant toujours « faire avec » lesmédias en s'adaptant à l'offre commerciale (Livingstone, 2008). Toutes cesréticences scientifiques – légitimes, quoique liées à des positionnementsstratégiques et territorialisés de la recherche – peuvent expliquer la répugnance denombreux chercheurs à s'impliquer dans une analyse du phénomène qui, dans la sociétéfrançaise, a, en outre, tendance à opposer l'irrationalité des paniques à la libertéd'expression et à associer panique et censure (Juiller, 2002). Malgré tout, lespaniques médiatiques reviennent cycliquement, comme une forme collective derésistance basique, instinctive, têtue. Elles ne parcourent pas seulement la sociétéfrançaise : si elles traversent l'Occident et tous les pays riches en médias, ellesn'épargnent pas les pays émergents de l'Asie et de l'Europe de l'Est, preuve queleur prégnance est la marque d'une réelle peur liquide. Elles sont« cosmopolitiques », dirait Ulrich Beck, c'est-à-dire qu'elles subissent lescontrecoups de la mondialisation des flux et des contenus médiatiques de manière nonlinéaire qui dépasse les frontières des états. Toute analyse de ces paniques dans lasociété des réseaux et des échanges transnationaux doit donc incorporer une lecturemultilinéaire du phénomène et en faire une construction évolutive et dialogique pourtenir compte de l'intensification croissante de l'interaction sociale à distance encoprésence avec des formes de sociabilité locale (Giddens, 2001). Les chercheurs anglo-saxons ont pris les paniques beaucoup plus au sérieux que leurshomologues francophones, notamment en s'appuyant sur des modèles développés lors desmouvements sociaux associés aux événements de 1968. En Grande-Bretagne comme auxÉtats-Unis, plusieurs modèles de paniques sont en concurrence, tous tendant à lesmontrer comme un processus séquentiel et une forme de gestion sociale. Elles sontmodélisées comme des paniques morales, mais les uns les ont interprétées à partird'une analyse de la déviance et de ses phénomènes attenants (Cohen, 1973) alors queles autres les ont conçues comme une forme de construction publique des problèmessociaux (Blumer, 1971). Dans ces modèles, le rôle des médias est identifié très tôt ,mais reconnu comme secondaire par rapport à celui d'autres acteurs sociaux. Lesévénements du 11 septembre 2001 ont renouvelé l'intérêt pour le sujet, d'autant queles médias y ont joué un rôle plus central (Critcher, 2003). Toute une série deréponses émotionnelles à l'acte terroriste, comme l'anxiété, la colère et la peur ,ont montré l'importance d'associer à la théorie du risque les dernièresconnaissances en sciences cognitives qui insistent sur la centralité de lareprésentation et son rôle dans la socialisation des individus (Frau-Meigs, 2007) .Mais les sciences cognitives prennent peu en compte les médias, malgré leurfocalisation sur la représentation mentale (Ledoux, 1996; Goleman, 2006). Larelation entre cognition et médias ne va pas de soi et doit être explicitée( Jullier, 2002). De ce point de vue, l'analyse de ce type particulier de paniquemorale qu'est la panique médiatique peut éclairer, à la fois, sur la constructiondes problèmes sociaux et sur le rôle central des médias en cognition car, bien quela panique médiatique ait pour caractéristique principale le fait que son objet estun contenu à risque diffusé par les médias dont le relais dans l'opinion publiqueest opéré par les médias, elle n'en a pas moins des implications politiques, légaleset sociales. Comprendre la socialisation par les médias implique donc de s'appuyersur une approche qui incorpore à la fois la théorie du risque et la théorie del'esprit en utilisant l'apport des neurosciences dans leur version socialisée par lasocio-cognition. La présente analyse propose une modélisation qui se fonde sur un corpus examinant unesérie d'études de cas sur les quatre paniques majeures qui mettent en cause lesmédias, dans leurs flux multilinéaires mondiaux : la violence, la pornographie, lapublicité et le rapport à la réalité dans l'actualité (Frau-Meigs, 2010a). Ellerecourt à certaines des notions utiles dans les modèles explicatifs de paniquesétablis en Grande-Bretagne et aux États-Unis mais, tout en gardant des aspects desmodèles antérieurs qui ont fait leur preuve, elle incorpore les apports récents dela théorie du risque et de la théorie de l'esprit pour ajouter à la compréhension duphénomène. Que peut apporter la théorie du risque à l'analyse des médias ? Peut-onl'appliquer à la construction publique des problèmes sociaux liés aux médias, ellequi est généralement associée aux risques scientifiques et environnementaux ? Peut-onparler de « risques médiatiques » ? De quelle nature sont-ils ? Peut-on considérer queles paniques médiatiques sont une réponse culturelle à la transgression de valeurs ,voire de tabous, avec un recours aux attributs émotionnels (peur, colère, anxiété ,frustration) qui sollicite les compétences cognitives des publics ? Quel est l'apportd'une analyse cosmopolitique, contrastée et comparative, non linéaire de cespaniques ? Chas Critcher, dans Moral Panics and the Media (2003) ,propose une revue critique des analyses anglo-saxonnes, en comparant l'approcheanglaise et l'approche américaine. Il retrace les grandes étapes de l'évolutionde ces modèles, afin de mieux situer le sien, en prolongement du modèled'origine, celui de Stanley Cohen. En effet, dans Folk Devils and Moral Panics (1973) ,Stanley Cohen propose le modèle le plus clair à ce jour. Selon lui, lapanique est un phénomène d' « amplification de la déviance » en plusieursséquences. Il définit la déviance comme un écart par rapport à la normesociale admise qui entraîne un conflit visible, amplifié par les médias, quijouent comme une caisse de résonance intervenant à plusieurs étapes duprocessus pour mieux le mettre en crise. Toutefois, même s'il se fonde surle processus d'amplification, ce modèle n'en reste pas moins un peu linéaireet séquentiel du fait des étapes relevées et de sa conviction qu'il seproduit un retour au statu quo, une fois la crisepassée : Problème social structurel de départ/initial; Solution initiale déviante initiale + réaction socialeexagérée; Déviance accrue et polarisation; Inventaire (par les médias); Sensibilisation avec rétroaction sur les acteurs; Surestimation de la déviance; Réaction par culture de contrôle + intervention; Retour au statu quo. Travaillant à partir de la couverture par la presse de manifestationsouvrières et de désastres, Stanley Cohen met l'accent sur le rôle crucialdes médias dans la mise à disposition de l'information disponible au public ,dans la caractérisation de la déviance et ses causes. Il les considère commedes « agents d'indignation morale ». Au sein de ces séquences, la phase« inventaire » voit les médias jouer un rôle important avec trois processusde base : exagération, prédiction et symbolisation, le langage les aidant àcréer des stéréotypes ou des profils de déviance. Dans la phase de« réaction », les médias jouent d'autres rôles : orientation de l'évaluation( déclin moral), étiquetage généralisateur (« les déviants ») et explicationsde causalité (rupture de l'ordre, de la loi et de la morale). Les systèmesde contrôle social sont également mis en évidence par le rôle des« entrepreneurs de morale » que sont les hommes politiques et autresdécideurs qui prennent en charge, soit la mise en place de mesuresinnovantes, soit le renforcement de celles qui existent déjà. Selon StanleyCohen, la sensibilisation au phénomène social mène à une surestimation de ladéviance qui entraîne un accroissement de l'intervention de la « culture decontrôle » aux mains des élites conservatrices. Les médias jouent un rôled'amplificateur et de caisse de résonance au service de cette classe aupouvoir. Ils aident au retour du statu quo, eninvalidant la déviance comme une rupture de l'ordre social. Cependant, pourl'auteur, la panique morale reste une entité discrète dont il est possiblede marquer le début et la fin avec une résolution finale de la crise. Dans Policing the crisis (1978), Stuart Hall proposeun modèle de règlement idéologique des crises dans lequel il considère lespaniques morales comme des moyens de maintenir le statuquo et de juguler la déviance présentée comme un moteur dechangement social positif. Lui aussi examine la contribution spécifique desmédias en montrant leur dépendance à l'égard des sources officiellesconsidérées comme « marqueurs premiers » (primarydefiners) de la définition du problème; les médias sont des« marqueurs secondaires » (secondary definers) quitraduisent le discours officiel en discours public; ils retournent auxdécideurs leurs opinions comme si elles émanaient de l'opinion publique, s'ysubstituant de fait. Le résultat final est que les médias servent lesdécideurs pour définir une crise spécifique et effectuer le règlementidéologique de cette crise, qui continuera à être traitée de la même manièreà chaque retour du problème. La panique morale pour Stuart Hall n'est pasdiscrète mais multiple car elle tend à perdurer au-delà de l'événement quil'a déclenchée. Elle est utilisée par l' État pour mettre en crise sa propreautorité et la rétablir par le maintien du statu quo et l'écrasement des déviants. Sources officielles (État) = marqueurs premiers (primary definers); Traduction des sources officielles en « langage public »( public idiom) par les médias = marqueurssecondaires (secondary definers); Rétroaction (feedback) desmédias aux primary definers sous formed'opinion publique (public opinion); Exagération de la violence par les médias pour justifierétat de peur et de crise publique (publicconcern); Création de précédent qui sert à analyser les crisesfutures; Retour au statu quo. Pour Stuart Hall, il s'agit donc moins de « culture de contrôle » qued'hégémonie étatique pour le maintien de certaines normes contre ladélinquance et la permissivité sociale. La panique requiert un retour del'autorité de l' État qui doit mobiliser le consensus de l'opinion afin derétablir l'ordre. Ici aussi les médias sont secondaires et suivistes ,facilement manipulés par l'état. L'analyse marxiste rajoute donc la notiond' « hégémonie » et analyse la panique morale en relation à une façon devivre de près la crise, qui permet à l'état de maintenir son appareilrépressif et ses outils de domination (sur les lois, les délinquants, lessyndicats, etc.). Chez Stanley Cohen comme chez Stuart Hall, la déviance estune tendance connotée positivement (par la possibilité de changementpolitique) tandis que la panique est connotée négativement comme un artificepour ôter toute sa crédibilité à la déviance et maintenir le pouvoir auxmains de ceux qui l'ont déjà. Les chercheurs américains évoluant dans un univers scientifique de typepragmatique et comportementaliste sont sur une position moins idéologiqueque les chercheurs anglais. Ils sont aussi dans une position plusinterventionniste car la perception du risque est associée à toutes sortesde conséquences légales et juridiques avec des retombées financières dontcherchent à se prémunir les principaux acteurs politiques et économiques ,comme l'illustre le cas de Natural Born Killers : en1996, Oliver Stone et son studio hollywoodien, TimeWarner, furent assignés en justice par Patsy Byers, la victimed'une attaque imitant les comportements de violence extrême représentés dansle film. Les chercheurs américains sont aussi sollicités par un systèmeétatique plus décentralisé avec de multiples niveaux de gouvernance et demultiples niveaux d'intervention pour les acteurs impliqués. Le modèle depanique morale qui a inspiré tous les autres est celui proposé par HerbertBlumer dans « Social Problems as CollectiveBehavior » (1971). Il ne se focalise pas sur la déviance mais sur laconstruction publique des problèmes sociaux et adopte une approche« constructiviste » et fonctionnelle. Émergence; Légitimation; Mobilisation; Formation d'un plan officiel; Mise en œuvre. Le modèle constructiviste se veut volontairement orienté sur des prises dedécisions publiques et politiques quant au problème social, quel qu'il soit .Il fait très peu de cas des médias. S'inscrivant dans la lignée d'HerbertBlumer, Malcolm Spector et John Kitsuse, dans ConstructingSocial Problems (1977) complexifient la perspective de politiquepublique en rajoutant la perspective des acteurs et en prenant davantage encompte les médias. Ils s'appuient sur les discours des acteurs décrits commedes « porteurs de revendications » (claims-makers )pour exposer les conditions et attitudes moralement critiquables ouintolérables. Ils insistent sur les institutions, les interactions avec lesgroupes de pression et les réponses juridiques et légales données auproblème social. Contrairement à Stuart Hall, ils se focalisent peu sur lesstructures de pouvoir et de domination comme des conditions objectives de lasociété qui peuvent expliquer l'instrumentalisation des paniques. Ilsconsidèrent le problème social comme le résultat d'une activité négociée (etnon la condition). Revendications affirmées et publiées; Réponse des instances officielles; Dissensions sur les solutions; Propositions d'alternatives; Modification du programme/réforme. Leur analyse se focalise sur les acteurs, les stratégies, les lieux etl'impact. Les « porteurs de revendications » ne sont pas nécessairementdes « entrepreneurs de morale », mais des activistes, des professionnels deslobbies, des juristes, des membres de la société civile, des associations ,voire même des agences officielles qui ont une mission de veille. Ilssous-estiment le rôle des médias, considérés seulement les vecteurs desrevendications exprimées par les divers acteurs en présence. Ce sont ErichGoode et Nachman Ben-Yehuda, dans Moral Panics : TheSocial Construction of Deviance (1994) qui, les premiers ,s'essaient à une tentative de synthèse entre construction sociale etdéviance. Leur modèle n'est pas un modèle en étapes; il propose plusieurscritères de reconnaissance et d'identification de la panique morale qui faitintervenir des éléments sociocognitifs et complexifie la position desacteurs comme porteurs de revendications. Ils font intervenir cinq attributsnécessaires aux paniques morales. Inquiétude sur un comportement; Hostilité; Consensus et résonance sociale; Disproportion (par rapport à la réalité); Instabilité (ébullition, irrégularité épisodique). Erich Goode et Nachman Ben-Yehuda fournissent trois explications possiblesaux comportements des « porteurs de revendications » : le modèle « sociétécivile de base » (grassroots model), issu du grandpublic et de sa tendance à la peur liquide; le modèle « manipulation parl'élite » (elite-engineered model), issu de laculture de contrôle; le modèle « groupe d'intérêt spécifique » (interest group model), issu des échelonsintermédiaires de la société et des échelles de pouvoir (middle management). Dans ces modèles, la panique n'est pas la faceadverse et négative de la déviance mais un des éléments de négociation ,nécessaire à la prise de conscience de la gravité du problème public. Lesdifférences et similarités entre les deux pays confirment la validité d'unelecture cosmopolitique des paniques morales. Elles mettent en circulation uncertain nombre de concepts explicatifs et d'étapes qui permettent de validerl'existence de ces paniques et leur légitimité comme objet d'analysesociale. La perspective anglaise met l'accent sur les valeurs morales et lesconditions de leur production et de leur survie par la culture de contrôle( élite); la perspective américaine met l'accent sur la dimension légale etsociale des politiques publiques, avec interaction négociée entre acteursdivers (dont les alliances sont temporaires et contingentes). Pour fines et complémentaires qu'elles soient, ces approches et modèles n'enprésentent pas moins des biais idéologiques pour certaines et des lacunesexplicatives pour d'autres. C'est ce que démontre Chas Critcher qui, commeStanley Cohen, essaie de proposer un modèle synthétique « orienté sur leprocessus tout en donnant une place bien plus centrale aux médias. Ilreconnaît que toutes ces étapes n'apparaissent pas nécessairement lors d'unepanique mais insiste sur le fait que les paniques sont cycliques ,récurrentes et non pas discrètes, à la différence de Stanley Cohen. Elleslaissent des traces dont se nourrissent des paniques ultérieures, sur desproblèmes sociaux semblables ou connexes. Émergence; Inventaire par les médias; Intervention des entrepreneurs de morale; Recours aux experts; Résolution; Disparition; Héritage et relation à d'autres problèmes sociaux. Chas Critcher complexifie donc le modèle de Stanley Cohen, notamment enrajoutant deux notions et étapes : le recours aux experts et l'héritage. Lesexperts sont vus comme un effort d'objectivation de la déviance qui vientsouvent contredire ou atténuer le discours des entrepreneurs de morale, lesmédias pouvant alors faire jouer une explication plus qu'une autre .L'héritage de la panique rend, quant à lui, compte du fait que les discoursdiffusés par les médias continuent à circuler dans la société et à nourrirle répertoire d'action collective des acteurs impliqués; ils ont des effetsà long terme avec des relations possibles à d'autres problèmes sociaux. Ce qu'il manque à ces modèles, c'est une plus grande prise en compte de cequi fait réagir l'opinion publique, qui n'est pas exclusivement la dévianceou le problème social mais aussi la perception du risque collectif etindividuel. Ce sont des modèles où seule l'élite intervient et où seule laculture des élites est la « culture de contrôle ». Ils tiennent peu comptede la culture populaire et de ses modes d'interaction avec la culture desélites, par le biais des acteurs intervenants, qui ne sont pas que des« entrepreneurs de moralité », mais aussi des « porteurs de revendications »c'est-à-dire des groupes d'intérêt spécifique, notamment autour de l'intérêtdes enfants (travailleurs sociaux, professionnels de l'enfance, pédiatres ,éducateurs, associations familiales, mouvements sociaux comme le féminismeou la non-violence, etc.), dans le cas des paniques sur la violence et lapornographie. Ce sont aussi des modèles qui ignorent le secteur privé et sonpropre agenda, régi par les lois de la concurrence qui peut le mener à desalliances inattendues, soit avec le gouvernement, soit avec la sociétécivile. Ainsi une chaine commerciale comme TF1 tient-elle compte de publicssectorisés, aux demandes parfois contradictoires, comme les homosexuels oules familles, en relation directe avec eux, afin d'établir une image deproximité mais sans faire étalage des implications d'une telle politique surla programmation et en se présentant comme le parangon de la libertéd'expression. Enfin, ces modèles ne prennent pas en compte les paniquesgénérées par les contenus à risque des médias où la « culture de contrôle »est souvent la culture populaire, pour ne pas dire la culture jeune. Ilstendent à présenter le comportement collectif comme inexplicable etirrationnel, éruptif, excessif et disproportionné, et ne tiennent pas compted'une perspective plus cognitiviste qui consisterait à intégrer le contexte ,la situation et son interprétation négociée par toute une série d'acteurs ,réunis en « communautés d'interprétation » (Fish, 1980) qui sont autant decommunautés de pratique (enseignants, parents, pédopsychiatres, etc.). Engénéral, ces communautés se caractérisent moins par l'irrationalité que parune excessive professionnalisation et un sens de la responsabilitécollective. C'est aussi en quoi l'approche par phases ou étapes poseproblème car elle tend à gommer l'interaction continue entre les médias, laculture et les diverses couches de l'opinion dans une perspectivesociocognitive de socialisation. La conception cognitiviste de lasocialisation tient compte de la place centrale des médias qui sollicitentl'intelligence collective, la collaboration, la co-construction des savoirs ,la mise en synergie des compétences, etc. De la sorte, les médias peuventêtre des outils et non plus des objets, des agents de réseau et desociabilité et pas seulement des vecteurs de contenus. Ils permettent dereconfigurer aussi les usages sous la forme d'interactivité, d'activation (agency), de participation, qui intègrent lescaractéristiques socioculturelles des acteurs et leurs besoins fonctionnelstout autant que leurs compétences communicationnelles. D'où le besoin deprendre en compte l'émergence, associée aux communautés d'interprétation etde pratique, des « réseaux d'acteurs » (Latour, 1989) qui incluent desacteurs non-humains comme les médias, et des paradigmes de la« communication engageante » et du « projet engageant » (Joule, Bernard ,2004). Le projet engageant pense le changement à partir de communautés depratique dans lesquels les individus se regroupent autour d'un objectifcommun. Il procède par une opération de catalyse autour d'une cause qui n'apas l'utilitarisme technologique pour centre mais l'appropriation socialedes contenus médiatiques pour objectif. C'est un paradigme de type cognitifqui recourt à la psychologie sociale tout autant qu'aux sciences del'information et de la communication pour associer cognition et action ausein des organisations. Les notions cognitives d'intelligence collective, deco-construction des savoirs, de prise de décision, d'engagement, derésistance sont parmi les éléments de modélisation à prendre en compte .Elles permettent d'envisager un arbitrage cohérent et proportionné à lasituation entre global et local et elles créent des conditions favorables àla modification des comportements tant des individus que des institutionsdans lesquelles ils évoluent. Les réseaux d'acteurs, les communautésd'interprétation et leurs projets engageants relèvent d'une dynamiqueascendante qui fait remonter la perception négative des risques véhiculéspar les médias en fonction des objectifs et des enjeux des acteurs qui nerelèvent plus de la seule culture de contrôle de l'élite, à la dynamiquedescendante. Au-delà des injonctions de l' État ou d'un groupe hégémonique ,c'est bien la recherche du lien et du sens qui est voulue. Cette recherchedu sens et du lien est mise en crise par un dilemme éthique représenté dansles médias par des contenus dont il est désormais possible de préciser lanature du risque : le risque de destruction sans concertation de certainesvaleurs partagées par une société donnée. Le cas de la violence estparticulièrement révélateur : dans l'Europe des droits de l'homme ,post-Seconde Guerre mondiale, il est difficile d'accepter des contenus où laloi du Talion est mise en avant comme une réponse sociale acceptable à laviolence. D'où les paniques autour de certains dessins animés (Dragon BallZ) ou de certains films (Seven) qui valorisent des comportements déviants parrapport à l'état de droit prescrit par la Déclaration universelle. Lamondialisation met ces images venues du Japon ou des États-Unis au contactd'une société européenne en co-construction qui n'a aucun intérêt à ce queces images incompatibles avec le projet européen obtiennent une quelconquelégitimité auprès d'un public de jeunes considéré comme le public des futurscitoyens européens. Cette coprésence d'éléments éthiques non-compatiblesfait dilemme, instaure de l'écart par rapport à la norme, qui crée de ladéviance laquelle, à son tour, génère la panique. Celle -ci force lescommunautés d'interprétation et de pratique à se mobiliser. Leur travailsocial consiste ensuite à transformer la panique en projet engageant quiréinjecte le média ou les contenus incriminés dans le processus social, enrecadrant leur usage acceptable dans le contexte local. Ces communautésd'interprétation et de pratique forment des alliances temporaires etfluctuantes autour d'un projet « engageant » dont la finalité politiquen'est pas strictement idéologique : l'intérêt des enfants fait autantconsensus à droite qu' à gauche, même si les raisons objectives de cesalliances diffèrent en profondeur. La spécificité de cette approche enprojet engageant réside dans la formation de coalitions au sein de réseauxsur la base d'un processus d'intéressement et d'enrôlement des divers typesd'acteurs, avec des partenariats qui reconnaissent l'importance des acteurslocaux, sans nier la dynamique des acteurs nationaux et institutionnels. Cesont les complémentarités entre acteurs et non les oppositions qui priment .Tous les échelons d'interaction sont sollicités : les micro-acteurs( famille, réseaux affinitaires), les acteurs intermédiaires (écoles ,associations) et les acteurs institutionnels (municipalités, universités ,ministères, autorités de régulation) ainsi que les acteurs internationaux( organisations intergouvernementales, organisations non-gouvernementales ,fédérations d' États, regroupements d'entreprises. ..). L'analyse détaillée des quatre paniques majeures confirme l'existence d'unschème social de la panique construite comme « risque médiatique », à partirde projets engageants autour de l'enfant construit comme futur citoyen et àpartir de communautés d'interprétations engagées dans un processus finaliséqui vise à l'appropriation sociale des médias et de leurs contenus( Frau-Meigs, 2010a, 2010b). Elle conduit à raffiner encore plus le modèleorienté sur le processus de Chas Critcher, en reprenant certaines de sesétapes et en les enrichissant par l'idée d'un projet finalisé. Elle conduitégalement à ne pas présenter déviance et panique en opposition mais ensynergie, comme deux pièces d'un processus négocié, autour d'un problèmesocial plus ample que l'écart par rapport à la norme sociale car il impliqueaussi une dimension d'éthique publique. Elle suggère l'émergence d'un modèledes paniques médiatiques qui fonctionne sur l' « amplification du dilemme »plus encore que de la déviance car tous les acteurs ne s'accordent pas àreconnaître à la déviance une connotation négative, et qui inclut« l'engagement médiatique » car tous les acteurs sont unanimes pour allerplus loin que la panique, et sont actifs pour dépasser le statu quo, travailler dans la durée et reconnaître le rôle centraldes médias dans la socialisation. Ce modèle fait émerger quatre phases ,composées elles -mêmes d'étapes sociocognitives complexes (avec boucles derétroaction et de pro-action) : 1. Déclenchement (événement déclencheur qui attirel'attention, lié aux concepts cognitifs d'émergence etd'attention); 2. Débat public autour d'un dilemme éthique qui entraînediscussion sur prohibition/permission du média ou du spectacleincriminé (mobilisation de l'opinion publique, avec évaluationémotionnelle et intellectuelle, lié aux concepts cognitifsd'attachement, d'engagement, d'attribution, de cadrage cognitifsocialisé, etc.); 3. Dénouement par résolution négociée et temporaire( avec réformes, autorégulation et autres chartes éthiques, lié auxconcepts cognitifs de mise en compatibilité et d'alignement desidées, etc.); 4. Déplacement, sans retour au statuquo d'origine (lié aux concepts cognitifs d'équilibration ,de révision des valeurs et des formes d'autorité, de réévaluationd'une question de société ou de la perception d'un groupe déviant ,etc.). Ces phases mettent le sens éthique, le processus de participation et lasocialisation au centre des enjeux de représentation et de construction desproblèmes publics. Les relations au sein des médias et entre médias sont àprendre en compte pour comprendre l'inscription du problème public dansl'agenda commun à tous les médias, que ce soit pour exagérer, distordre ,dénoncer ou soutenir. Le niveau d'inquiétude collective doit être assezélevé pour que les élites médiatiques activent la panique et y contribuentafin de clarifier leur statut ou la légitimité d'une nouvelle représentationqu'elles proposent et qu'elles doivent faire valider afin de pouvoircontinuer à exercer leur rôle public et commercial. Pour faire consensus ,cette inquiétude doit affecter les ressources sémiotiques et les opérateurscognitifs ainsi que les conditions de la réception. C'est donc avant toutune inquiétude symbolique qui interpelle la relation entre représentation etréalité. Dans la phase de déclenchement, toute une série de processus cognitifs sontinvoqués et utilisés : émergence, attention, attribution, mise en dilemme .Une inquiétude collective émerge, qui se cherche une définition et uneattribution des causes, ce qui peut passer par la désignation d'un campopposé et adversaire. Un certain nombre de propositions d'interprétation duproblème à résoudre sont avancées par divers intermédiaires interprétants ,« porteurs de revendications » (pas nécessairement des « entrepreneurs demorale ») et les mouvements sociaux qu'ils représentent par le biais de« communautés d'interprétation ». Dans la phase de débat/dilemme, les processuscognitifs invoqués s'enrichissent : engagement, mobilisation, inventairemédiatique, logique des positions radicalisée, réactions de diversescommunautés d'interprétation, questionnement de l'autorité, révisionémotionnelle, évaluation intellectuelle et morale. L'inquiétude collectiveprend la forme de l'excès et de la disproportion, créant de la disruptionpublique et de la dissonance cognitive. Les médias se trouvent dans lasituation-piège d' être à la fois juge et partie, avec les divers soupçons ettensions impliqués par l'éthique du dilemme. Dans la phase de dénouement, d'autres mécanismess'enclenchent : équilibration, recherche d'un consensus moral, résolutionnégociée et temporaire du dilemme, stabilisation des acteurs et actions del'état, mise en compatibilité culturelle, alignement des idées et des lois ,modification légale, solutions symboliques. L'inquiétude collective secalme, non sans sursauts, non sans allusions à des épisodes antérieurs, nonsans intimation que d'autres peuvent surgir à l'avenir. La réévaluation dustatut du média ou du spectacle incriminé s'opère, avec la permission decontinuer à émettre, sous conditions, notamment à l'égard des jeunes. Dans la phase de déplacement, l'héritage de la paniquecontinue d' être discuté par les intermédiaires et les communautésd'interprétation : prise de conscience du dilemme comme indicateur d'unequestion sociale ou un problème public en mutation (changements familiaux ,changements du statut de l'enfant, etc.), analyse coûts-bénéfices ,comparaison internationale, contextualisations historique et géographique .Les conséquences culturelles et idéologiques sur les médias s'installentdans la longue durée. Même si la tendance des médias semble être le retour àla routine du « business as usual », l'atmosphère achangé, certaines contraintes existent, de nouvelles niches sont créées( programmes pour enfants, jeux ludo-éducatifs, classification, etc.). Dessursauts et modifications se manifestent par rapport à la situation dedépart, avec des alternatives au sein des médias et aussi des intermédiairesinterprétants qui suivent l'application des modifications légales obtenueset se maintiennent en position, voire développent des activités demobilisation et de surveillance malgré le déclin attendu de l'attentionpublique. Ainsi les médias produisent-ils leurs propres intermédiairesinterprétants, dont l'agenda est lui -même objet de soupçon et devérification. Il est donc difficile de nier la panique et de l'évacuer commeun épiphénomène car des résultats tangibles existent et perdurent, avec deseffets sur les politiques publiques et la législation. Dans leur construction du risque médiatique, les paniques médiatiques s'appuientdonc sur un substrat cognitif. Dans chaque panique, l'ambiguïté du contenu àrisque qui fait problème social repose sur l'émotion et réactive l'éthique dudilemme, mettant en circulation un débat sur les valeurs. Souvent, les contenusengagent l'attention des différentes communautés d'interprétation car ils sontconstruits sur la base du dilemme, c'est-à-dire qu'ils font des propositions desituation qui impliquent des raisonnements contradictoires ou contraires auxvaleurs sociales, entre lesquels l'individu est mis en demeure de choisir( Pincoffs, 1971, 1986). Il peut être mis en demeure de choisir entre une valeurou un comportement national ou étranger (se venger ou s'en remettre à lajustice) ou entre une valeur et un comportement ancien ou nouveau (être pour lapornographie échangiste ou la famille élargie aux comportements sexuelslibéraux). L'engagement que suscitent ces contenus réclame une posture de témoinassocié, voire de complice, qui peut devenir intolérable ou inacceptable si lasituation proposée est incompatible avec la culture ambiante. L'éthique dudilemme remet en cause la logique des positions sociales et interpelle lafonction de régulation du sens moral, ce qui mène à l'intervention panique .L'émotion est donc le moteur de la panique, au sens cognitif, moins en tant quecomportement irrationnel que comme base de la rationalité morale (Tomasello ,1999; Livet, 2002). Les émotions associées à la panique (peur, colère ,angoisse, etc.) nous révèlent nos valeurs et introduisent la capacité derévision de ces valeurs, selon la situation. Mais si les émotions introduisentde la variabilité par cette possibilité de révision, les valeurs résistent à larévision car elles visent, selon Pierre Livet (2002), à la stabilité, aumaintien de la communauté. En fait, les valeurs se révèlent être des valeurslorsqu'elles survivent au test de l'émotion et résistent aux différentesrévisions que les émotions leur imposent. La mise en cohérence des émotions etdes valeurs par la société permet de dégager un sens moral et une rationalitémorale et normative qui peut être révisée selon les époques et selon lescultures. Telle est l'utilité sociale des paniques en général, et des paniquesmédiatiques en particulier. Dans le cas de paniques sur la violence ou lapornographie, cette révision est visible dans ses divers déplacements : lestermes du consensus final ont évolué, s'éloignant d'une interprétation étroitede la protection de l'enfance. Les experts, tout comme les autres acteurssociaux, sont passés d'un discours de danger (à contrôler) à un discours derisque (à prévenir), moins répressif et y ajoutent désormais un discoursd'éducation (à acquérir). Par rapport au modèle original des paniques moralessur l' « amplification de la déviance » de Stanley Cohen, des confirmations etdes infirmations apparaissent. Le rôle crucial des médias en société estconfirmé par la présence des phénomènes d'amplification, de distorsion et destéréotypie observés par ce dernier. Mais les médias ne sont pas de simples« agents d'indignation morale » à leur propre égard car ils tendent à utiliserla liberté d'expression pour se draper dans leur propre dignité, et réfutentl'orientation d'une évaluation qui les accuserait de contribuer au déclin moral .S'ils continuent à mettre des étiquettes stigmatisantes sur certains sujets ouobjets de paniques (« les jeunes »), ils refusent toute étiquette qui puisse lesaffecter. Les explications de causalité qu'ils mettent en avant relèventtoujours de la rupture de l'ordre et de la morale mais ils ne se sentent nicoupables ni responsables. Ils tendent à instrumentaliser les systèmes decontrôle social, focalisant l'attention loin d'eux vers les autres« entrepreneurs de morale » qu'ils répugnent à légitimer comme porteurs derevendications ou communautés d'interprétation. Ils leur laissent le soin demettre en place des mesures de sortie dont ils ne veulent pas faire partiemalgré l'entreprise de modélisation des valeurs qui sous-tend leur offre dereprésentations. À cet égard, les chercheurs comme Stuart Hall qui suggèrent quela culture de contrôle et les médias complices visent le maintien du statu quo ne donnent pas une explication satisfaisante ousuffisante de l'échange et de la dynamique qui a lieu lors d'une panique .Toutefois, ils attirent l'attention sur les structures de biopouvoir et sur lapuissance des dispositifs de représentation, ainsi que sur les effetsstructurants de l'économie des systèmes médiatiques (Foucault, 1975). Cependant ,les médias ne sont pas nécessairement vecteurs de visions réactionnaires ouconservatrices; ils peuvent aussi laisser passer des modificationsprogressistes, un peu comme la société civile dont certains acteurs sontprogressistes et d'autres pas. De même, la culture de contrôle peut fairel'objet de tensions, lorsqu'une partie de l'élite se rallie aux médias etl'autre pas. L'équilibre des pouvoirs et des réactions n'est pas donné d'avanceet les alliances d'intérêt peuvent se modifier. Le flux des interrelations etdes interactions qui ne sont pas nécessairement fondées sur de vieillesalliances peut modifier la donne. Les paniques actuelles semblent caractériséespar ce mélange de processus et de pratiques, sans doute de par l'usage même desmédias que peuvent faire les divers acteurs, vu la prolifération des plateformeset des stratégies d'engagement possibles. Même s'il ne prend pas assez en comptela situation d'interaction et les ressources sémiotiques et cognitives desmédias, le modèle « processuel » de Chas Critcher est l'un des plusconvaincants. Cependant, il tend à réduire le rôle du public à la portioncongrue, posant que l'opinion est simplement invoquée plutôt que mobilisée. Legrand public reste peu impliqué, laissant d'autres agents intermédiaires ,entrepreneurs de moralité et groupes de pression industriels ou associatifs agirà sa place. C'est sans compter la capacité de mobilisation et de délégation dupublic dans les paniques, surtout depuis les années 1990, où les pétitions et lacréation de mouvements spécifiques dédiés à l'analyse des médias en société ,comme le Collectif interassociatif enfants-médias (ciem), ou de fondations, comme la Fondation pour l'enfance, commencentà exercer de véritables pressions soutenues par la base et pas seulement parquelques militants engagés. Les communautés de pratique sont à l' œuvre dans lapanique ainsi que les processus interprétatifs qui aident à construire leproblème social sous-jacent et à continuer à en délibérer après, dans la phasepost-panique. Ces modèles, qui tous indiquent qu'il y a bien un schème social de la panique ,sont donc à complexifier car de nombreux acteurs impliqués font bouger lesrepères de la « culture de contrôle » ailleurs que dans la culture de l'élite .La culture populaire établit ses propres modes d'interaction avec la cultureélitaire, par le biais d'acteurs intermédiaires interprétants qui ne sont pasque des « entrepreneurs de moralité » mais aussi des communautés de pratique ,compétentes dans le secteur de la jeunesse (travailleurs sociaux, acteursassociatifs, mouvements sociaux comme le féminisme ou la non-violence, etc.). Lesecteur privé avance avec son propre agenda et les lois de la concurrencepeuvent le mener à des alliances inattendues : leur tendance est moins às'appuyer sur l'état pour légitimer leurs droits commerciaux que sur la sociétécivile elle -même pour satisfaire des publics construits comme des usagers dontil faut gagner la confiance pour accéder à leur pouvoir d'achat. Comprendre ces« coalitions dynamiques » implique de reconsidérer aussi le modèle de ErichGoode et Nachman Ben-Yehuda qui montre bien les tensions entre grand public ,élite et échelons intermédiaires en mal de pouvoir et de reconnaissance (commedans le cas de l'élite médiatique montante). Les paniques profitent sans doutele plus à cette culture médiane, cette culture des intermédiaires où desassociations de la société civile, des professionnels et des instancesmédiatiques le disputent aux décideurs politiques pour ce qui est du contenu, dela teneur du risque et de la conclusion de la panique, y compris la prise encompte du principe de précaution médiatique. Que ce soit en relation à la famille, la reproduction, ou encore l'engagementavec les médias eux -mêmes, les paniques médiatiques sont révélatrices deproblèmes publics en mutation autour de la socialisation des jeunes. Ellesmettent en évidence des déplacements dans les structures de pouvoir, lesinstitutions qui les incarnent et les discours en concurrence qu'ellesvéhiculent. Elles font saillir les failles dans les frontières mouvantes del'autorité et les lignes à haute tension des cultures de contrôle. Elles sontrécurrentes parce qu'elles manifestent de constants réajustements face auxmutations médiatiques actuelles, perçues comme lointaines et peu transparentespar de nombreux secteurs de la population. Structures dissipatives, ellesallient un sentiment de perte de repères culturels à l'instauration d'unenouvelle sensibilité. Elles opèrent un travail de deuil sur le passé tout enœuvrant pour la révision du présent. Elles savent la nouvelle situationirréversible mais tentent de lui donner une cohérence où la souveraineté del'individu l'emporte sur l'autorité du dispositif (Frau-Meigs, 2010a). En celales paniques médiatiques relèvent de la théorie du risque, émergeant en réactionà la toxicité perçue de certaines substances dans l'écosystème des médias ,repérant l'élément à problème et essayant d'y porter remède. Elles produisentcomme une espèce d'orage chimique qui prendrait la société dans son ensemble etl'obligerait à se mettre en compatibilité avec son environnement. Après l'orage ,il y déplacement, sans retour au statu quo, même si lanouvelle atmosphère est à peine subtilement transformée. Elles réclament plus desolidarité avec le quotidien, elles insistent sur la nécessité de refonderl'expérience collective, au-delà du culte de la marchandise, vers plus de sensdes valeurs. Elles portent sur les médias pour critiquer leur tyrannie en pleineconscience de leur potentiel libérateur. À proprement parler, ce sont donc aussides paniques cognitives, intrinsèquement liées à la théorie de l'esprit et à larelation cerveau-média-culture : l'émergence d'un nouveau support ou d'unnouveau programme demande la révision des scripts établis de l'intelligencematricielle pour réparer la dissonance, voire la fracture cognitive créée( Frau-Meigs, 2010a). C'est sans doute l'une des raisons pour lesquellescertaines paniques ne « prennent » pas, ne parviennent pas à mobiliser l'opiniondurablement : la concentration des médias, la collusion entre propriétaires desmédias et hommes politiques, les ménages des journalistes. Ce sont plutôt desscandales que des paniques qui relèvent de l'économie politique des médias. Cesont des problèmes qui peuvent trouver un exutoire dans le débat public ,parfois, mais qui, fondamentalement, n'affectent pas la représentation mentaleet sociale. En outre, en termes de coûts-bénéfices, il n'est pas de l'intérêt dupublic de se mêler du financement ou du fonctionnement en interne des médias .C'est seulement lorsqu'ils outrepassent leur fonction de socialisation qu'ilssont rappelés à l'ordre, un rappel à l'ordre symbolique, littéralement. Il estpossible de dire, avec Deborah Lupton, que le risque médiatique fait problèmelorsqu'il met en danger la culture dans ses principes moraux et éthiques; c'estalors qu'il réclame attention et intervention. Il peut être compris comme uneréponse culturelle à la transgression de valeurs, perçue comme brutale etnon-négociée au préalable (Lupton, 1999; Frau-Meigs, 2010b). Les retombées surdes questionnements d'accès, de propriété des médias, de collusion d'intérêtssont alors secondaires, et seulement si leur influence sur les contenus estavérée, ce qui peut alors mener à des modifications de politiques publiquescomme, par exemple, l'obligation de quotas nationaux (dans la directiveeuropéenne Télévisions sans Frontières) ou l'instaurationd'obligations de service public sur les médias commerciaux (pour produire desprogrammes pour enfants, ou susciter du pluralisme, etc.). Les paniquesmédiatiques correspondent à deux besoins cognitifs à la fois, celui de laplasticité et celui de la stabilité. Elles tendent à porter sur les formesdiverses de régulation et de socialisation. Ayant identifié les médias commeartefacts cognitifs et outils de transmission, elles savent que la multiplicitédes supports laisse la porte ouverte à toutes sortes de déviances etd'expérimentations possibles entre le licite et l'illicite, plus encore que lelégal et l'illégal (lequel est très fortement régulé, avec sanctions à la clé) .Elles se mobilisent lorsqu'une offre de représentation introduit trop derelativisme social et de tolérance à la diversité des comportements et desvaleurs attenantes. Le risque de la perte des repères est perçu comme pouvantnuire à la cohésion sociale, bien au-delà de la recherche de certitudes moralesou politiques. Au-delà de la panique, la société recherche un relatif consensusstabilisé sur l' être-ensemble et vise à l'équilibration une fois l'oragepassé. Dans cette perspective, le rôle des médias est essentiel car, de fait, lespaniques morales contemporaines sont inconcevables sans paniquesmédiatiques, que ce soit celles sur l'environnement et les catastrophesnaturelles tels les tsunamis et les cyclones ou les catastrophesalimentaires comme la vache folle ou le mais transgénique. Toutefois, lerôle des médias n'est pas tout à fait le même car, dans le cas des paniquesmédiatiques, ils sont à la fois juge et partie. Dans ce double rôle, ils nesont pas de simples miroirs ou fenêtres sur le monde, mais des opérateurs dechangement. Leur nature transformative se révèle dans la construction desproblèmes publics en événements. Ils proposent des représentations etspectacles qui ont à voir avec la réalité, tout en étant des systèmessociaux et institutionnels avec leur propre agenda. Ils affectent tout lecycle de la panique, du déclenchement au dénouement, intervenant dans l'inventaire comme dansla négociation. Ils construisent partiellement la panique tout en ladéconstruisant, préoccupés de tirer leur épingle du jeu. Ils ont longtempsrésisté à reconnaître la moindre responsabilité mais sont de plus en plusdifficilement dissociables des institutions sociales impliquées dans lapanique car leurs corporations sont désormais trop puissantes pour êtreignorées, que ce soit Disney, Microsoft ou Vivendi. Ils ne présententd'ailleurs pas nécessairement un front unique et monolithique, même sil'intérêt corporatiste peut prédominer à l'heure de la régulation et de ladécision politique car la concurrence existe entre eux également. Lacoexistence de médias de masse et de médias des masses (à revoir) a aussichangé le traitement des paniques car l'approche protectionniste de laprofession a été déboutée par ces dispositifs capables de relayer lesintérêts de groupes spécifiques et de mobiliser leurs troupes indépendammentdes grands organes de presse aux capacités de verrouillage puissantes. Leurcapacité d'influer sur le débat public a d'abord été négligeable, la grandepresse pouvant encore poser comme le meilleur représentant de l'opinionpublique en cas de panique médiatique mais, depuis les années 1990-2000, leslignes ont bougé et ils peuvent se faire déborder par les nouvelles formesde militance en ligne qui mobilisent différentes portions du public mieux etplus vite qu'eux. De là le fait que les médias classiques ont lâché du lestdu côté de l'autorégulation et de la co-régulation, se rendant compte qu'ilsrisquaient d' être laissés hors du débat s'ils n'y prenaient garde. Couvrirla panique relève de l'injonction paradoxale puisque les médias doiventinscrire à leur agenda des événements qui les mettent sur la sellette. C'estque les médias sont pris dans la situation-piège de l'inévitabilité de leurspropres routines informatives, avec des prises de risque pas toujours biencalculées. Ils le font à cause de ce qu'ils considèrent comme les critèresde valeur de l'information : la proximité, la pertinence sociale, lacontinuité (avec d'autres histoires similaires), la toxicité de l'événement ,le taux faible d'ambiguïté et la mise en récit personnalisée (Frau-Meigs ,2007). Ces critères se retrouvent tous réunis en conjonction avec lespaniques comme l'illustre le cas de la violence, thématique qui revient leplus universellement dans le traitement de l'information. L'acte violent estprésenté par le biais d'une histoire où des personnes clairement identifiéess'affrontent (récit), elle crée une atmosphère délétère avec perturbationmaximale de la communauté (pertinence et proximité) qui n'est pas sansrappeler d'autres événements du même genre (continuité), elle relève d'unesituation dont l'ambiguïté s'éclaire par des explications individuelles etsociales (cause et effet) qui ont l'avantage de présenter des points de vuepolarisés, des camps en opposition, notamment entre entrepreneurs demoralité et défenseurs de la liberté d'expression, ce qui crée l'obfuscationde toutes les positions intermédiaires si caractéristiques de la couverturede la panique. Les contenus à risques donnant lieu à des comportements àrisque sont donc incontournables par les médias, dans leur propre logique devaleur de l'information. Ils sont contraints de se mettre en scène, l'imagenégative qu'ils donnent d'eux -mêmes étant partie intrinsèque du mécanisme :ils sont pris partiellement au piège de leur propre dispositif .Partiellement, car ils éprouvent une sorte de jubilation narcissique àdonner des preuves de leur pouvoir de représentation. De même, leurfocalisation sur la toxicité les pousse à un cadrage narratif sur la formed'oppositions binaires (bien/mal, coupable/innocent, nocif/inoffensif, etc. )dont ils peuvent faire les frais, du moins dans les premières phases de lapanique, celle du déclenchement, dansl'identification du fait divers, comme celle du débat, dans l'étape de l'inventaire. Ils opèrent alors eux -mêmes lelien de cause à effet entre représentations et paniques, en mettant en scèneles comportements déviants et à risque qu'ils peuvent produire tout en s'endéfendant. Ce n'est pas le moindre des paradoxes de la panique que derépondre au principe qu'il vaut mieux être dans l'actualité que pas du tout ,même en cas de mauvaise image ou de mauvaise nouvelle. Mais, du coup, lesmédias fonctionnent sur le mode du déni, comme l'illustre la panique sur lapublicité : les publicitaires nient les effets de leurs spots etamoindrissent la valeur de leurs actes d'images et de paroles alors qu'ilsles mettent en scène à grands frais et n'hésitent pas à raffiner l'audimatet la médiamétrie. Ils se sortent de cette contradiction irréductible parleur couverture de la panique, dans les étapes de consolidation( débat/dilemme et dénouement). Celle -ci reste de l'ordre du récit incomplet ,qui se focalise sur un événement déclencheur et spectaculaire, sans chercherà en révéler la complexité et sans suivi des effets à long terme, sansperspective critique sur les usages, sans sollicitation des compétencescognitives requises pour en décoder la signification et la recoder dans lasituation. Les médias se sortent de cette situation-piège par deux stratégies : le biaisde couverture et la symbiose conflictuelle. Le biais de couverture apparaîtnotamment dans l'instrumentalisation de l'expertise lors de la phase dedébat/dilemme : les experts qui développent les meilleures stratégiesmédiatiques et surtout qui s'en tiennent à un discours clair, simple et sansambiguïté auront tendance à être favorisés, au détriment de ceux quitiennent un discours nuancé, complexe et incriminant partiellement lesmédias. Ils apparaissent aussi parce que les médias sont leurs propressources officielles, marqueurs premiers du problème social et marqueurssecondaires, filtrant et cadrant l'information à toutes les étapes. Ilscréent l'agenda et orientent ainsi la construction du problème social. Maisle modèle de Stuart Hall qui se focalise sur « le règlement idéologique » dela panique ne suffit pas à expliquer le jeu de la concurrence propre ausystème libéral. Les médias commerciaux se livrent une guerre entre eux etessaient de s'instrumentaliser de manière fratricide : la presse écrite estsouvent celle qui sonne l'alarme et dénonce l'offre de représentation d'unnouveau support car elle est la plus ancienne, la plus en danger aussi parrapport aux nouveaux médias et à leurs formats inimitables, comme latéléréalité ou les réseaux de socialité sur internet. C'est encore elle quidicte l'agenda des autres médias d'actualité qui tendent à lui emboîter lepas. La stratégie de la « symbiose conflictuelle » (Gitlin, 1981) ressort dela co-dépendance entre porteurs de revendications et grande presse, lesmédias attribuant un cadrage spécifique à un groupe qui en a, à la fois ,besoin et doit pourtant s'en défaire. Les interprétants militants peuventavoir recours à la « scandalisation » parce qu'elle mène inéluctablement auscoop, dans la logique économique et opératoire des médias. C'est ainsi queles médias peuvent se faire les porte-parole d'autres institutions oucommunautés qui contribuent au paramétrage des débats sociaux, lesquelles nerépugnent plus à se servir des médias comme organe d'expression. Le rôle desactivistes et des associations de la société civile, comme communautésd'interprétation capables d'une certaine mobilisation, ne saurait êtresous-estimé. Ils peuvent inciter tel média à pousser le cri d'alarme ou lepousser au suivi du problème. La mis en compatibilité culturelle se fait parle biais de ces interprétants qui réagissent à l'agenda explicite et cachédes médias. Ce sont les perceptions de toxicité qui comptent plus encore queleur réalité et quelques cas suffiront à inciter ces acteurs vigilants àdemander des comptes aux instances politiques et économiques. Toutes lessections de l'opinion publique ne se mobilisent pas pour ou contre lesmédias, pour ou contre les paniques. C'est plutôt le rôle des acteursproches des questions à problème, à qui le reste de la société a déléguécette mission (professionnels de l'enfance, sociologues, psychologues ,etc.). Ce qui remet en cause l'argument avancé par les médias et certainsanalystes des paniques qui la considèrent comme la réaction d'une « culturede contrôle », d'une élite protectrice de ses valeurs sous prétexte qu'iln'y a pas de manifestation massive de l'opinion publique. C'est méconnaîtrela capacité du grand public à déléguer son attention et à s'en décharger surdes communautés d'interprétation spécifiques, qui seules peuvent restermobilisées sur toute la durée de la panique et construire des arguments quirésument les positions de l'ensemble. Ainsi les paniques médiatiquesprésentent-elles l'intérêt d' être parmi les rares cas où la fonctiond'agenda de la presse peut être débordée par la fonction d'agenda de lasociété civile, même si cela reste tout à fait relatif comme en témoignel'aura négative autour de toute panique (et l'usage abusif et stigmatisantdu terme dans les médias eux -mêmes). Les paniques médiatiques montrent lepouvoir de ces nouveaux acteurs que sont les groupes de pression activistesde la société civile qui cherchent de plus en plus à valider leur légitimitéauprès des instances de régulation. D'où le fait que, depuis les années1990-2000, les groupes de pression en sont passés par la nouvelle stratégieconsistant à demander des commissions d'enquête ou de réflexion donnant lieuà des rapports contenant un certain nombre de recommandations. En France ,l'année 2002 est particulièrement caractéristique du pic de panique, dans saphase de dénouement : elle voit paraître le rapportsur l'environnement médiatique des jeunes de Divina Frau-Meigs et SophieJehel (1997) pour le ciem et le ministère de laFamille, le rapport sur les jeunes face aux images de Claire Brisset (2002 )pour le ministère de la Justice, le rapport sur la violence de BlandineKriegel (2002) pour le ministère de l' Éducation, et le rapport sur lapublicité de Monique Dagnaud (2002) pour le ministère de la Culture. Cesrapports, commandités par des ministères et issus de commissionmultipartenaires, impliquent toute une série d'acteurs, soutenus par leurscommunautés d'interprétation respectives. Dans cette stratégie d'actioncollective, le gouvernement et les groupes de pression sont en connivence ,au détriment des médias, temporairement, car toutes les recommandations nesont pas suivies d'effets et d'applications. Le but cognitif de ces rapportsest moins leur capacité à générer du droit qu' à générer une conversationéclairée qui laisse des traces dans la phase de déplacement. Les paniques révèlent aussi une guerre larvée entreélites médiatiques, les médias plus anciens répugnant à être déplacés dansleur pouvoir de représentation, tandis que les nouveaux cherchent à percerleur cuirasse hégémonique. Cette lutte au sein de la sphère médiatique semanifeste autrement dans la sphère publique. Là, l'élite médiatique dans sonensemble, en alliance objective, essaie de déplacer les élites plusanciennes du monde de la religion, de l'éducation ou de la loi. Elle est laplus récente mais elle est moins reconnue et cherche à faire valider sonstatut grandissant dans la socialisation. Elle ne peut toutefois s'imposerqu'en cassant les moules de l'ancien modèle, l'obligeant soit à bouger surses positions et à reconnaître son obsolescence, soit à partager le gâteaude la socialisation et les bénéfices importants qui en résultent en termesde pouvoir et de gains financiers et symboliques. La stratégie de l'élitemédiatique consiste en fait à mettre les anciens systèmes en crisepermanente, en espérant que certaines paniques feront bouger les frontières .L'élite médiatique recherche alors du soutien dans le grand public etcherche à l'impliquer en établissant des bases de reconnaissance et descommunautés d'interprétation qui lui sont acquises (les fans notamment) .C'est ainsi que l'on peut expliquer l'alignement des jeunes sur Skyrock ousur M6, par une espèce de pacte stratégique de mise en visibilité où unesection du public est très impliquée. Culture populaire et culture élitairepeuvent y voir des intérêts objectifs à partager, même si chacune espère ytrouver des gains séparés en sortie de panique (Frau-Meigs, 2010a). La phase de déplacement est sans doute celle àconsidérer avec le plus d'attention car elle doit désormais prendre encompte la mondialisation, qui introduit l'acculturation, c'est-à-dire descontenus à risque qui entrent en contact avec des sociétés qui doivent à lafois gérer leur propre relation à la violence et à la pornographie, et gérerla relation d'autres cultures à ces mêmes phénomènes. Les dissonancescognitives s'aggravent de dissonances interculturelles. Cette dimensioninternationale est désormais incontournable dans les paniques, du fait desdifférentes situations locales et de l'impact de la culture jeuneinternationale. Étant donnés les flux de distribution des programmes etplateformes, les États-Unis sont en ligne de mire, la mondialisation pouvants'interpréter comme une américanisation. Le positionnement de nombreux payspar rapport aux États-Unis et à l'exportation agressive de leur culturemédiatique peut ainsi jouer dans l'intensité et la résolution d'une panique ,comme l'a montré la crise de l' « exception culturelle » dans les années1990. Ladite exception consistait pour la France et ses alliés à contesterla logique de positions acquises des médias américains et à invoquer lanécessaire séparation des médias des autres services en discussion lors desaccords internationaux du gatt (devenu depuisl'Organisation mondiale du commerce, omc). Cettedemande d'exception avait des arguments cognitifs sous-jacents puisqu'ellereposait sur l'idée que les médias sont porteurs d'identité, de diversité etde culture. L'anti-américanisme peut se définir cognitivement comme larésistance à une offre homogène et à un modèle peu diversifié avec unehyperinflation des contenus à risque car jugés plus exportables. C'est aussiun facteur de résistance qui donne encore plus de complexité aux paniquesmédiatiques, même si les États-Unis connaissent les mêmes. Le positionnementpar rapport à l'enfance, à la famille, au rôle de la société civile, dusecteur privé et de l'état colore les sorties de panique encore plus queleur entrée. L'existence de groupes organisés, d'instances professionnellespuissantes (médecins, éducateurs, juristes, etc.) ou de mouvements sociauximportants, comme ceux du féminisme ou de l'intégrisme, donnent aussi desnuances de paniques, de pays à pays. Les définitions du problème peuventvarier d'un pays à l'autre mais aussi les politiques publiques décidées ensortie (Critcher, 2003; Frau-Meigs, 2010a, 2010b). De plus en plus, desadaptations et des formes de résistance dues à une combinaison non-linéairede facteurs en présence se mettent en place : la plus ou moins grande proximité culturelle avec lemodèle américain, ou plus largement anglo-saxon (souvent innovant auniveau des supports et formats médiatiques, mais suscitant souventaussi une réaction anti-américaine); la concurrence entre solutions internationales (unesco, omc, etc.) et décisions politiqueslocales (signalétique du csa, etc.); les groupes affectés par la panique (enfants ,adolescents, publics fragiles, adultes); le degré d'organisation de la société civile et desdivers acteurs intermédiaires (syndicats, ministères, associations ,etc.); la tolérance à l'égard des fauteurs de trouble( pédophiles, pornographes, déviants, jeunes, etc.); la capacité locale à politiser le débat (relais locaux ,presse de tiers secteur, représentations régionales d'instancesnationales ou internationales); la force des mouvements sociaux (féminisme ,non-violence, consommation, religion, etc.); la capacité de réponse et de réactivité des autorités etdes décideurs (interpellation du secteur privé, mesures incitatives ,préventives, défenseur des enfants, etc.); la prise de relais et la capacité de suivi etd'interpellation post-panique par les experts et réseaux d'acteursde l'enfance et leurs communautés d'interprétation (observatoires ,éducation aux médias par l'école et hors l'école, etc.). Dans les pays où le système d'entraide publique est solide, la tendance seraà confier le relais aux institutions sociales appropriées, en étendant leursmissions (service public, csa, ministère del' Éducation, de la Culture, etc.). Dans les pays où le secteur privé domine ,l'économie des médias aura tendance à édulcorer les résultats et à reprendrele dessus par l'autorégulation (chartes de bonne conduite, conseils desurveillance, etc.). Dans des pays où la violence sexuelle et corporelle estpeu tolérée, les paniques se verront interprétées avec sérieux tandis quedans les autres, elles seront traitées avec légèreté. Seule la panique surla violence pédophile semble faire l'unanimité avec des remèdes uniformémentsemblables d'un pays à l'autre et un consensus international pour y mettrefin (Chritcher, 2003). Ce contexte international de résonance sélective des paniques peut expliquerles deux récits en concurrence sur l'évolution possible des médias etimplicitement des paniques et des risques associés. L'un est positif ,l'autre négatif, tous deux sont développés par des anthropologues ,observateurs de la mondialisation et de ses effets, qu'ils soientmédiatiques ou autres. Arjun Appadurai (1996), directeur du Globalization Project, pose que la communicationmondialisée est en train de créer une nouvelle culture avec les médias enleur centre. Face au risque d'éclatement des cultures traditionnelles, lesmédias contemporains ont le pouvoir de faire lien. Au-delà des publics endiaspora, ils peuvent rassembler une importante audience internationale .Pour Arjun Appadurai (1996), les médias mettent l'imagination au travail etenrichissent la culture locale en l'alimentant au quotidien, par collage etbricolage, donnant à l'individu la possibilité d'orienter des élémentsexogènes pour servir ses propres finalités, notamment identitaires .L'acculturation est alors positive car la culture cible n'est plusnécessairement dominée et impose un sens nouveau et mobilisateur au contenuà risque. Dans ce contexte, la panique permet de sortir de l'inertie dessociétés traditionnelles, de créer le débat de société nécessaire à ceprocessus d'appropriation et de modernisation, et Arjun Appadurai derestaurer la force du fantasme, comme « antidote à la finitude del'expérience sociale ». Les médias, notamment ceux qui favorisent lasimulation et le jeu, font pénétrer l'imagination dans les pratiquessociales, non plus comme des expériences extraordinaires et rares, maiscomme des potentialités accessibles à tous. Il est partiellement en phaseavec les cognitivistes, qui voient les promesses de la vicariance et lasimulation par les médias virtuels et les plateformes de contenuscollaboratifs. Ils produisent une forme de gratification par le privilègedonné au nouveau et à l'inconnu avec les gains potentiels qui y sontattachés. Dans un environnement changeant, ces gains potentiels permettentde passer les paniques au compte des pertes sans profit, un mal nécessairedont il faut faire le deuil et dont il faut se faire une raison. Ce qui estméconnaître le pouvoir des traces culturelles et sociales laissées dans laphase de déplacement. En effet, l'usage del'imagination et du fantasme à des fins commerciales et marchandes poseproblème. C'est particulièrement vrai de la publicité qui les manipule sanscesse, mais cela devient aussi le cas des nouveaux formats comme ceux de latéléréalité qui font fi de tous les tabous et ne laissent pas de place à lalatence de l'enfance ou de temps à l'inhibition des schèmes dangereux. Or ,toute culture établit ses codes de la pudeur, quand elle ne vise pas àprotéger ses membres par le recul ou le report de la réalisation dufantasme. Faire passer le fantasme dans la réalité trop souvent, lebanaliser trop tôt en détruit la spécificité et tue le désir sans favoriserla socialisation. C'est ce que rappelle Constantin von Barloewen( 2003 : 48), préoccupé de la phase ultime, celle du déplacement; la culture est mise en danger si elle est tropsubordonnée à la technologie et aux médias : « Dans une culture essentiellement archaïque, le lien entreles choses et les significations est également porté par le mythe et lesacré. Le sensoriel et l'utilitaire sont coulés dans le même moule et nemenacent pas de se scinder en ouvrant un gouffre, comme cela se passe dansla culture technique [… ]. Cette situation a des effets sur tous les domainesde l'existence, sur la conception du travail, sur sa destination – le biencommun –, sur la sphère la plus privée de l' être humain, la relation entrel'homme et la femme, mais aussi sur la conscience des êtres humains ,conscience qui les force à avoir les uns avec les autres des relations deplus en plus instrumentales et fonctionnelles ». Il s'interroge sur notre capacité à dépasser cet archaïsme pour échapper à lacivilisation technique et retrouver la dignité humaine. Il récuse laco-dépendance homme-machine, posant que seule la culture offre à l'homme dusens, un ordre adapté à ses questions immuables que la société technique nepeut résoudre car elle est prise dans une forme d'intendance de l'économieglobale. Le sujet est abandonné à lui -même et la souveraineté du moidisparaît dans le dispositif. Contrairement à Arjun Appadurai, Constantinvon Barloewen ne pense pas que les médias aident à provoquer chez lesindividus une forme quelconque de résistance. Ils sont plutôt vecteursd'homogénéisation, laquelle ne permet pas la « maturation spirituelle » oula préparation à recevoir adéquatement la nouvelle culture. Alors qu'elleest une nécessité existentielle, l'identité culturelle s'en trouveperturbée, et Constantin von Barloewen de préconiser la mobilisation d'uneréflexion spécifiquement humaine, fondée sur l'histoire, la mémoire et latransmission, afin de réintroduire la dimension symbolique dans lefonctionnement de notre monde contemporain. Dans ce cas, les paniquesmédiatiques peuvent être un moyen de rappeler aux principes d'humanité et deréalité. Constantin von Barloewen rejoint l'inquiétude de Régis Debray( 1992) qui considère la « vidéo-sphère » comme une culture où l'usageélimine le sens, où l'avancée de la technologie via la logique numérique optimise l'échange d'informations au détriment du liensocial – la représentation offrant un nouvel opium du peuple et remplaçantla réflexivité par le narcissisme. La persistance des faits de croyance etle retour de l'exigence éthique et de la philosophie morale dans la sphèrepublique attestent de ce besoin de sens, et les paniques médiatiques fontelles -mêmes sens dans ce contexte de désarroi. En ce qui concerne le risquemédiatique, la vérité est sans doute entre ces deux positions. De fait, cene sont pas que nos sociétés qui ont muté, ce sont aussi les médias et ilfaut se préparer à les prendre à la fois comme des supports, des systèmes ,des spectacles et des services. La co-dépendance homme-machine est déjà uneréalité, les artefacts cognitifs proliférant dans la société del'information. Elle est déjà préfigurée dans les médias en la figure du « cyborg », organisme cybernétique hybride qui semanifeste dans les divers avatars que nous constituons en ligne et quiaffectent notre présence réelle et notre être-ensemble. Liée à l'écosystèmedes écrans, cette identité terminale exige une forme d'éthique nouvelle quigarde la force du sens au dessus de celle de l'usage. Elle a pourcaractéristique de nous faire retrouver les principes de la dignité et desdroits de l'homme au bout des pratiques au lieu de les placer en normesabstraites au début du dispositif (Frau-Meigs, 2010b). L'école de lasocialisation préserve le besoin d'un sens éthique sans qu'il soitnécessairement implanté dans une religion incarnée ou dans une moraleimpérative. Il émane d'une conception de l'humanité où les médias restentdes prothèses, pas des parasites qui se substituent à la relation avecl'autre et avec l'environnement. Fondamentalement, c'est une affaire deculture car c'est elle qui donne de la signification à notre vie. Elleindique le sens qui dépasse l'usage et permet l'équilibration de l'identitéindividuelle et collective. Il importe donc de prendre au sérieux lamodernité médiatique sans lui tourner le dos mais en la dotant d'uneperspective positive qui prenne en compte les risques sans les laisser créerune paralysie dommageable. C'est seulement à ces conditions que les paniquesmédiatiques cesseront et que les publics seront à l'écoute des propositionsmédiatiques capables de satisfaire à la fois la collectivité et l'individu .L'étude des paniques et du risque médiatiques peut donc s'avérer éclairante surles processus sociaux à l' œuvre dans l'appropriation des médias et dans leursocialisation de publics diversifiés. Elle révèle que la socialisation par lesmédias relève d'un projet politique tout autant qu'éthique, qui implique unegouvernance des médias où tous les acteurs soient associés. Il ne faut pasqu'ils soient associés dans le seul acte de consommation ou d'usage en fin deparcours mais, au contraire, qu'ils soient impliqués au niveau du design, enamont du processus de création du dispositif. L'engagement de départ peut alorsse prolonger en aval en se donnant les moyens d'une gouvernance dynamique de lasocialisation. Les prochains dispositifs de gouvernance des médias seront sansdoute partiellement façonnés par la perception du risque (Frau-Meigs, 2010b). Ilimporte donc de prendre au sérieux la modernité médiatique sans lui tourner ledos mais en la dotant d'une perspective cognitiviste, dans laquelle leschercheurs, comme communauté d'interprétation et de pratique à part entière ,soient pleinement impliqués. Les perspectives théoriques ouvertes par l'analysedes paniques médiatiques sont quant à elles riches d'éclairages, à la fois surles médias et sur l'esprit. L'approche par la théorie du risque nécessite d' êtredavantage développée, notamment dans la distribution des chances en société ,certaines populations étant mieux protégées que d'autres et certains groupespouvant en tirer davantage partie que d'autres. Comme Ulrich Beck le suggère ,c'est moins la richesse que la connaissance qui permet d'éviter le risque et dele maîtriser, et cela ouvre des perspectives sur l'éducation aux médias commeprincipe de précaution à partager par tous pour ne pas seulement « faire avec »les représentations et leur mise en dilemme. Les compétences cognitivesnécessaires pour une telle éducation sont encore loin d' être cernées etimpliquent une mobilisation de toutes sortes de stratégies scientifiques pourmieux comprendre le phénomène de la socialisation par l'environnementmédiatique. Les domaines d'analyse associés aux paniques sont nombreux. Lesprincipales paniques sont assez bien connues mais pourraient bénéficierd'approches comparatives et contrastives dans une perspective cosmopolitique .Par ailleurs, des paniques mineures sont en passe de prendre de l'importance ,notamment celles qui associent les médias à l'obésité, à l'addiction et àl'inattention (porteuse d'échec scolaire). En outre, chaque nouveau supportsemble avoir la capacité de provoquer une panique, phénomène qu'il seraitintéressant de pouvoir anticiper car il ne s'agit pas de se laisser prendre à lafatalité du risque mais bien de le contrôler, pour bénéficier des nombreuxapports positifs des médias .
La contribution analyse les paniques médiatiques à partir de la théorie du risque (Ulrich Beck, Anthony Giddens, Zygmunt Bauman) et des approches cognitives sur la socialisation des jeunes aux médias (Divina Frau-Meigs). Elle place les paniques médiatiques en relation avec des modèles plus amples de paniques morales et montre leur spécificité dans les cadrages de la déviance et de la construction publique des problèmes sociaux. En s'appuyant sur quatre exemples universels de paniques médiatiques - autour de la violence, la pornographie, la publicité et l'actualité ― elle offre un nouveau modèle, « l'amplification de dilemme et l'engagement médiatique » qui prend en compte les diverses communautés d'interprétation et les stratégies des acteurs impliqués dans le processus de panique. Elle examine le rôle spécifique des médias et examine le processus « cosmopolitique » (Ulrich Beck) qui provoque ces « peurs liquides » (Zygmunt Bauman) que sont les paniques, dans la mondialisation. Elle conclut en soulignant le besoin d'une gouvernance médiatique globale.
sciencesInfo_12-0000964_tei_1042.xml
termith-463-communication
Si la communication peut être considérée comme pathologique – c'est-à-dire provoquantdes désordres, des souffrances ou des aberrations quand elle fonctionne trop bien –peut-on, à l'inverse, considérer que, pour éviter qu'elle n'engendre despathologies, il faut admettre qu'elle repose sur un malentendu ? C'est la thèse quenous défendons dans ce texte. Avant nous, d'autres ont avancé l'idée que « lacompréhension [était] un cas particulier du malentendu » (Culioli, 1990 : 39) .Toutefois, cette formule ne remet pas en question le présupposé selon lequel unebonne communication repose sur la transparence de l'intercompréhension : ellesuggère juste que cela sur vient rarement. Le fait est que les recherches eninformation et communication sont encore aujourd'hui confrontées à des difficultésqui les travaillent depuis leur émergence et qui sont relatives à une tension entrele champ du savoir et celui de l'action. En effet, dès qu'il y eût conscience del'importance des activités de communication dans les sociétés, celles -ci furentrapportées à des enjeux qui déterminèrent, pour partie, la pertinence des modèles .La portée empirique des processus de communication a directement conduit à ce quemédias et techniques soient pris dans une visée d'instrumentalisation : les médiasde masse, relais de l'émancipation des masses ou, au contraire, de leurabrutissement; les techniques de communication, relais de tous les désirs demanipulations, et actuellement, la culture, relais d'une resocialisation, d'unremaillage du tissu social par le biais de la médiation culturelle. .. Toutes cesconceptions reposent sur l'idée qu'il existe une bonne et une mauvaisecommunication : la bonne étant une communication réussie, c'est-à-dire débouchantsur des effets conformes à l'intention de l'émetteur; la mauvaise échouant à lesfaire coïncider. Une communication efficace est donc considérée comme transmissionet non comme véritable médiation, qui, quant à elle, suppose un rapport pluscompliqué à l'altérité. Qu'on la pratique ou qu'on s'en offusque, la communicationest un quasi-synonyme de manipulation et renvoie à une mécanique de l'activitésymbolique qui prive le destinataire de toute liberté et de toute parole propre( d'autant plus, bien entendu, s'il n'est pas éduqué). C'est cette idée, ainsi que lemodèle de la communication comme transmission qui l'accompagne, que nous voulonsquestionner. Nous le ferons à partir d'un domaine empirique permettant de mettre enrelief l'illusion qui caractérise l'idée d'une réussite de la communication :l'étude de systèmes de communication homme-animal. Parmi les nombreux systèmes de communication homme-animal (chasse, cirque ,animaux domestique ou de compagnie, animaux mangés, nuisibles, aidants ouchasseurs…), nous avons privilégié l'un des plus inhabituels : des rencontresenchantées entre des humains et des dauphins sauvages. Celles - ci sontqualifiées d'enchantées car les personnes y font des expériences hors ducommun : par exemple, elles entendent les dauphins leur parler ou fontl'expérience de la dissolution des frontières du moi ou du « sentimentocéanique » (Freud, 1929) qui caractérise les expériences mystiques. Le butn'est pas d'expliquer comment ces phénomènes surviennent, une ébauche en a ététentée ailleurs (Servais, 2005). En revanche, ces cas particuliers de communicationentre humains et dauphins nous intéressent parce qu'ils posent problème à celuiqui veut les décrire. Premièrement, il est impossible de supposer qu'ilsreposent sur un code commun, contrairement à la communication avec les animauxdomestiques ou de dressage. Ensuite, on se trouve en présence de deux créaturesqui, par leurs dispositions biologiques et, pour ce qui concerne l'humain ,sociales et culturelles, énactent (Valera, 1989) ou spécifient des mondesradicalement différents. Ceci pose la question du rapport entre communication etmonde partagé. Enfin, leur analyse est compliquée par le fait quel'identification de ce qui est transmis (un signal ou un message) est ambiguë .Ces rencontres entre humains et dauphins ont encore d'autres propriétés dontcelle de reposer largement sur l'émotion, de ne pas pouvoir être reliée – sinonde manière très délicate – à l'intentionnalité (du moins pour ce qui concernel'animal) et de n'impliquer que de manière adjacente les dimensions sociales etinstitutionnelles de la communication. Pour toutes ces raisons, il s'agit detypes de relations qui sont peu représentatifs des processus de communicationfaisant habituellement l'objet des recherches en sciences de l'information et dela communication (sic). C'est là leur intérêt autant que leurs limites. Si nous avons choisi ces cas si particuliers, c'est que les difficultésméthodologiques qu'ils posent sont telles qu'elles obligent à envisager lesprocessus de communication en dehors du modèle de la transmission, et àconcevoir la communication au sein des interactions humains - dauphins commeétant structurée par un malentendu. C'est ce que nous tenterons de montrer dansla première partie, à partir de témoignages de rencontres enchantées. Il estensuite intéressant de comparer cette structure interactionnelle avec d'autresmodèles de mécompréhension : la mésentente (Rancière, 1995) et le différend( Lyotard, 1983). Les notions de mésentente et dedifférend – telle qu'elles ont été développées et utilisées par leurs auteurs –engagent à développer la discussion dans de nouvelles directions : la politiqueoù le peuple (au sens platonicien du terme) ne peut prendre la parole, faute departager l'idiome du dominant (Rancières, 1995), d'une part, l'impossibilité dedire le génocide ou d'en transmettre simplement l'expérience (Lyotard, 1983 ,Coquio, 1999), d'autre part. En effet, le malentendu et le différend sonttraités par ces deux auteurs en rapport avec la question du génocide; la raisonen est que, tout comme les situations de communication inter-espèce, cessituations demandent une appréhension différente de la relation entre codecommun et communication. L'analyse de situations de communication inter-espècenous sert donc à mettre en évidence des structures de communication qui, enfait, dépassent largement ce cadre restreint. En nous référant auxquestionnements plus philosophiques de la communication que proposent lesnotions de mésentente et de différend, l'objectif est de montrer que lemalentendu pose de facto une question politique, parcequ'il est en rapport avec l'hégémonie et le contrôle. Si ces situations, quoiquetrès différentes par ailleurs, peuvent être rapprochées sur le plan de leurstructure interactionnelle, il est envisageable de les rapprocher également surle plan de l'analyse du contrôle et de la pathologie qui en est issue. Dans lesinteractions humains-dauphins, les tentatives pour contrôler, par la force, lecomportement des animaux, apparaissent comme des tentatives de solution( Watzlawick et al, 1974), responsables de pathologies etsources de violence. Dans les situations humaines décrites, de même que dans lesinteractions quotidiennes qu'analysent les thérapeutes, des pathologiesproviennent du refus d'accepter le fait que, d'une certaine manière, lacommunication est toujours structurée par un malentendu. Il nous semble quecette perspective offre des pistes méthodologiques intéressantes; elle permetégalement de se désengager de la violence symbolique implicitement présente dansles modèles de la communication comme transmission d'un message. Dans ce cadre, notre but n'est évidemment pas de remplacer ou de nier la valeurd'analyses ou de modèles alternatifs : nous n'avons aucune prétention àl'hégémonie ou au fanatisme, qu'il soit disciplinaire ou méthodologique .D'autres analyses peuvent être faites à partir de nos témoignages, notammentdans le cadre d'une anthropologie de la communication (Hymes, 1967). Notreobjectif est de développer un modèle possible pour l'analyse de situations decommunication où, en l'absence d'un code partagé, les modèles reposant sur lecode sont inopérants. Avant d'aborder la définition du malentendu dans son rapport au différend et à lamésentente, revenons sur l'anecdote évoquée à propos d'Antoine Culioli. Lelinguiste parle de malentendu à propos d'une question qui lui est posée au sujetde la définition de la linguistique. Antoine Culioli (1990 : 39) ayant indiquéque l'activité de langage ne se limitait pas à « l'échange d'informationsunivoques, stabilisées et calibrées entre deux sujets qui seraient pré-ajustéspour que l'échange soit une réussite sans à-coups et sans faille », l'un de sesinterlocuteurs en a inféré que l'interaction entre le propriétaire d'un chat etle chat pouvait relever d'une activité signifiante, et se demande, dès lors, sielle pourrait faire l'objet de la linguistique. Le linguiste corrigeimmédiatement en précisant qu'il ne confond pas activité signifiante etinteraction. Au contraire de l'activité signifiante, l'interaction ne supposepas que « les formes produites par l'énonciateur soient reconnues par leco-énonciateur comme étant produites pour être reconnuescomme interprétables » (ibid. : 39). De la part desco-énonciateurs, elle ne suppose donc ni intentionnalité, ni accord sur ce quiconstitue un signe. Le problème posé conduit directement au cœur du débat :comment rendre compte de l'interaction, voire d'une communication, sans supposerque le chat reconnaît les signes comme devant être interprétés ? C'est toute laquestion du code commun, ainsi que celle de la différence entre réaction etréponse, qui sont en jeu dans cette discussion autour de la définition de lalinguistique. Selon Antoine Culioli, si cette dernière doit être en mesure deprendre en compte le malentendu (informations non univoques, pas de réussitesans faille de l'échange, etc.), il est nécessaire que celui -ci soit strictementlimité par l'existence d'une intercompréhension possible et relative àl'identification des signes : le malentendu repose sur une entente possible( mais, nous verrons que, en définitive, cette position n'est pas tenable). Leverle malentendu signifie, alors, découvrir la règle commune sur laquelle s'élaborel'échange : dans le cas de cette discussion, il s'agit de l'accord sur ce qu'estun signe et sur ce qu'il n'est pas. Cette question des limites et d'une règle commune nécessaires àl'intercompréhension est à l'origine du malentendu entre Antoine Culioli et soninterlocuteur. Si les interlocuteurs ne sont pas pré-ajustés, ils sont néanmoinssusceptibles de s'ajuster dans et par l'échange sur la base de la reconnaissancede ce qu'est un signe et de l'intention qui le qualifie. C'est bien ce quicaractérise une activité signifiante qu'Antoine Culioli n'est pas pressé dereconnaître au chat. Le malentendu vient de ce que le linguiste estime que lacommunication homme/animal est un malentendu (l'homme croit qu'il partage desrègles avec le chat, alors qu'il ne peut y avoir de signe pour le chat), tandisque son interlocuteur la conçoit dans le cadre d'une entente ou d'un échangesusceptibles de faire l'objet d'un accord. Mais alors, sur quelle règle communereposerait le malentendu entre l'homme et son chat et, sur tout, qui pourrait lelever ? En l'occurrence, seul le savoir du linguiste peut lever le malentenduentre son interlocuteur et lui, c'est-à-dire un discours d'autorité édictant unenorme à partir de laquelle la relation homme/animal peut être réinscrite dansune asymétrie salutaire pour la science linguistique. Comme le montre cet exemple, la relation homme/animal pose au malentendu laquestion de la règle, singulièrement celle des règles de communication et ,au-delà, de la norme. Si, dans ce cadre, le signe doit être redéfini par AntoineCulioli, c'est bien que ses limites doivent sans cesse – lorsqu'il s'agit desanimaux – être réaffirmées; ré-instituées, et cela parce que la relationhomme/animal fait apparaître leur « différance » (Derrida, 1968). En somme, s'agissant des animaux, ce que l'ondécouvre, lorsque l'on lève le malentendu, c'est la norme, imposée ici par lascience linguistique. Le malentendu serait le lieu de l'institution de la normeet, par conséquent, du politique (Lyotard, 1983). Il le serait non pas de manière contingente, maisnécessairement. C'est également en ce sens que nous voudrions l'interroger. Dans son ouvrage sur le malentendu, l'anthropologue Franco La Cecla (2002 : 23 )insiste sur le fait qu' être d'accord ne signifie en aucun cas se comprendre .Plus précisément, le malentendu est « une divergence d'interprétation entrepersonnes qui croyaient se comprendre » (Robert, 1995). Catherine Coquio (1999 :21-22) qui reprend cette définition du Dictionnairehistorique de la langue française Robert (1995), dans la longueintroduction qu'elle consacre au malentendu, précise que « conflit qui s'ignoreou ignore ses raisons, [le malentendu] est un scénario d'échange désirant etraté qui,à la faveur d'un langage (ou d'un sentiment) commun, protège l'insud'une divergence pour faire durer un accord trompeur, ou un désaccord opaque .D'où deux énoncés latents : mieux vaut bien s'entendre que se comprendre; mieuxvaut se disputer que savoir pourquoi ». Dans cet ouvrage consacré à Parler des camps, penser les génocides, l'auteure estimeque le débat sur les génocides fait l'objet d'un malentendu. Selon elle, lapensée même du génocide n'a lieu que dans une « culture policée du malentendu »( id.) qui protège le déni dont il fait l'objet et dontles victimes font les frais. Si la pensée du génocide fait l'objet d'unmalentendu, c'est parce qu'elle s'articule autour de la notion de différend (etavec le différend tout ce qu'elle réunit sous la bannière d'une penséenihiliste) qui, toujours selon elle, maintient dans et par les mots, uneoccultation esthétique du réel (valeur de l'indicible, de l'écriture dudésastre) produisant l'autonomisation de la catastrophe dans un mythe, uneesthétique, et empêchant que soient pris en compte les crimes réels. Cettepensée nihiliste, « axée sur un sens déréalisé, n'a pas pris acte del'extermination réelle, qui est perte de vie et par là desens » (ibid. : 26). Aussi le nihilisme est-il « l'alliéobjectif de la raison génocidaire. Qui marque un point décisif lorsque [… ]l'intransmissible devient ultime contenu de transmission, sacré à ce titretragique » (ibid. : 31). Le malentendu articulant ledébat sur les génocides se caractérise par le fait qu'un langage commun occulteque l'on parle, en réalité, de choses différentes : événement exalté comme telpour les uns, mort réelle pour d'autres. En d'autres termes, il y auraitmalentendu parce que ceux qui parlent de différend se maintiennent dans lasphère symbolique (Catherine Coquio estime que, pour Jean-François Lyotard, lecamp et l'extermination ne sont qu'un « objet culturel ») ,au pire, se paient de mots et négligent la réalité de la mort et de lasouffrance. Il convient de « retirer le « différend » post-génocidaire à safatalité linguistique, en révélant sa part idéologique : celle du malentendu mémoriel, qu'il faudrait hisser au statut demésentente politique, au sens où en parle JacquesRancière » écrit-elle (ibid. : 20-21). Que signifiefaire du différend, un malentendu, et lui donner, avec la dimension politique ,le statut de mésentente ? Au cœur de cette polémique, figure la question d'une « transmission privée detiers » (id.). Si, « comme l'a montré […] DionysMascolo, l'identification au rescapé n'est au mieux qu'un émouvant malentendu ,[ … ], l'événement génocidaire aurait-il donc pour particularité de ne livreraucune vérité commune […] ? » (ibid. : 29). De ce point de vue, cet événement relève bien alors d'undifférend : « À la différence d'un litige, un différend serait un cas de conflitentre deux parties (au moins) qui ne pourrait pas être tranché équitablement ,faute d'une règle de jugement applicable aux deux argumentations. Que l'une soitlégitime n'impliquerait pas que l'autre ne le soit pas » (Lyotard, 1983 : 9) .« Un cas de différend entre deux parties a lieu quand le “règlement” du conflitqui les oppose se fait dans l'idiome de l'une d'elles, alors que le tort dontl'autre souffre ne se signifie pas dans cet idiome » (id.). Dès lors, « le différend se signale par cette impossibilité deprouver. Celui qui porte la plainte est écouté, mais celui qui est victime, etqui est peut-être le même, est réduit au silence » (ibid. : 24-25). L'absence d'un idiome commun, d'une méta-règle, ne permetpas d'établir la réalité du tort : si celui -ci est effectif et si la victimepeut en témoigner, ce n'est pas un tort qu'elle a subi mais seulement undommage, et la victime n'est plus qu'un plaignant : telle est la structure dudifférend, qui est aussi celle de la double contrainte (Bateson, 1972). Aussi latransmission mémorielle des génocides a -t-elle également cette caractéristique :« Cette culture de la mémoire se constitue en système discursif sur uneinjonction paradoxale : devoir transmettre des événementssans pouvoir fixer leur sens aujourd'hui pour demain. Cedéfaut de sens étant cela même qui les rend mémorables – et litigieux » (Coquio ,1999 : 26). À la différence toutefois de ce qu'affirme Catherine Coquio, cette impossibilitén'est, selon nous, nullement substantialisée ou esthétisée chez Jean-FrançoisLyotard, puisqu'il ne cesse d'affirmer la nécessité de « phraser le différend » .« C'est l'enjeu d'une littérature, d'une philosophie et peut-être d'unepolitique de témoigner des différends en leur trouvant des idiomes [où] le vraiet le faux sont en jeu » (Lyotard, 1983 : 30; 35). Aucune extériorité n'estréellement possible pour qui cherche à penser l'événement génocidaire (Coquio ,1999 : 30). Il convient d'aborder cet événement à la fois de l'intérieur et del'extérieur (ibid. : 26). La tâche que se donnel'auteur, à travers une « saisie individuelle et collective des productionspolitiques de l'inhumain » (ibid. : 57) et la prise encompte du témoignage, en dehors du leurre de l'identification fusionnelle avecle rescapé, est bien de phraser le différend. Catherine Coquio appelle de sesvœux la possibilité de transmettre quelque chose sans que le sens en soitétabli, de penser l'humanité contre l'unité, l'universalité, etc., c'est-à-direune pensée du malentendu. Pour cet auteure, c'est la reconnaissance dumalentendu qui rend possible une pensée qui ne soit pas fondée sur l'unicité ,sur l'universalité des normes. De ce fait, le malentendu serait le masque, laforme non reconnue du différend. Le différend génère le malentendu – autrementdit l'illusion de l'accord – lorsqu'il n'est pas reconnu comme tel, c'est-à-direlorsque l'une des deux parties peut ou croit pouvoir imposer sa norme commevalable pour les deux parties; reconnaître l'existence d'un malentendupermettrait alors de faire émerger le différend et d'en rendre nécessairel'explicitation, ainsi que l'acte de le phraser. C'est est une opérationindispensable pour penser la pluralité des points de vue, prendre en compte lacontingence de deux systèmes inconciliables, ainsi que pour identifier ladomination. Si l'on applique ces réflexions au cas de la relation à l'animal, il apparaît quecelle -ci est susceptible de relever non seulement d'un malentendu, mais encored'un différend : impossibilité d'établir une règle commune aux deux idiomes ;absence d'universalité des normes ou d'unicité d'un système (de signes, denormes, etc.), mais reconnaissance de la contingence de deux systèmes; absencede preuve de la réalité de l'événement – « le différend n'a pour objet aucuneréalité établie » (Lyotard, 1983 : 50); nécessité de se situer à la fois àl'intérieur du système et hors de lui pour en rendre compte; définition d'uneimpropriété comme propre. Tous ces éléments se trouvent dans la communicationinter-espèces. Toutefois, la relation à l'animal relève encore de la mésentente. Définie comme« un type déterminé de situation de parole : celle où l'un des interlocuteursentend et n'entend pas ce que dit l'autre » (Rancière, 1995 : 12), la mésententese distingue du malentendu en ce qu'elle ne porte pas seulement sur les mots ,mais aussi sur la situation de parole, et notamment sur le statut desinterlocuteurs l'un par rapport à l'autre. Si le différend concerne lui aussil'ensemble de la situation d'énonciation, la mésentente a pour caractéristique de ne pasporter sur l'argumentation, mais sur l'argumentable, sur la présence ou non d'unobjet commun aux interlocuteurs : « Elle concerne la présentation sensible de cecommun, la qualité même des interlocuteurs à le présenter » (Rancière, 1995 :14). La mésentente renvoie à la possibilité ou non d'un « partage du sensible »avec comme situation extrême « celle où X ne voit pas l'objet commun que luiprésente Y parce qu'il n'entend pas que les sons émis par Y composent des motset des agencements de mots semblables aux siens. Comme on le verra, cette situation extrême concerne, au premier chef, lapolitique (Rancière, 1995 : 14). Par exemple, cette situation extrême est celleoù le peuple, décrit comme gros animal par Platon, est considéré comme faisantusage de phonè et non de logos ,exprimant la peine ou le plaisir, mais non le juste et l'injuste. La métaphorede l'animal, note Jacques Rancière, n'est pas une métaphore, mais « sertrigoureusement à rejeter du côté de l'animalité ces êtres parlants sans qualitéqui introduisent le trouble dans le logos » (ibid. : 44). La mésentente concerne ce partage entre logos et phonè, où le logos est toujours aussi « le compte par lequel uneémission sonore est entendue comme de la parole, apte à énoncer le juste, alorsqu'une autre est seulement perçue comme du bruit signalant plaisir ou douleur ,consentement ou révolte » (id.). Le politique sur vient lorsque se pose la question d'une scène commune oùpourraient débattre de quelque chose ces deux parties dont l'une ne compte pascomme partie de la communauté. Dans cette situation paradoxale, il sur vientquand il faut faire entendre au peuple qu'il n'y entend rien; il faut luisupposer le logos pour lui faire comprendre qu'il n'yprend pas part. Le concept de mésentente renvoie luiaussi à la possibilité de phraser le différend, dans le sens où il décrit desphénomènes, où – à propos d'un objet sensible – apparaît la dissymétrie entredeux parties; cette dissymétrie étant paradoxalement fondée sur une symétrieimplicite, mais non reconnue. Jacques Rancière insiste d'ailleurs surl'injonction paradoxale dans laquelle se déploie la mésentente, puisqu'il s'agitde communiquer à autrui qu'il est impossible de communiquer avec lui. Nousretrouvons la nécessité évoquée par Catherine Coquio de se situer à la fois àl'intérieur et à l'extérieur du système, de pratiquer ce que Jacques Derrida, àpropos de la greffe, appelait une « double description ». En résumé, nous devons reconnaître que le malentendu est susceptible de serésoudre par un accord possible sur la différence, mais cet accord engagenécessairement la référence à une norme, voire son imposition. Au contraire, ledifférend est insoluble dans le présent, mais appelle une nouvelle forme dedescription ou d'argumentation. La mésentente ajoute à cette structure laquestion d'un partage du sensible relatif à la reconnaissance que l'autrepossède, lui aussi, le logos. La comparaison entremalentendu, différend et mésentente, ainsi que l'examen de leurs relations etcomposantes communes, donne un contexte à la situation d'interactionhomme/animal; ce contexte permet d'en saisir les enjeux : enjeuxépistémologiques, puisqu'il est question d'une description fondée surl'incomplétude et l'impropriété des événements décrits; enjeux scientifiques ,car nous pouvons nous demander quelle serait la discipline susceptible defournir un tel point de vue; enjeux politiques, puisque cette question renvoie ,au fond, à la possibilité de rendre compte de l'altérité, de la pluralité, et decompter avec elle. Étant fondée sur une asymétrie et sur une altérité radicales ,la relation homme-animal oblige à se donner des outils de description quiprennent en compte l'ensemble de ces questions. À la fin des années 90, une enquête ethnographique sur les rencontres entrehumains et dauphins a permis de recueillir des données qui semblaient poser undéfi à une description en termes de communication. Il s'agissait de récits ou detémoignages d'expériences quasi mystiques, ou surnaturelles, derencontres avec des dauphins sauvages. Les humains en revenaient transformés. Aucontact de l'animal, ils avaient expérimenté une communication directe etintime, immédiate et bouleversante, qui s'apparentait à une forme de révélation .Les dauphins leur avaient parlé; ils avaient compris et appris sur eux -mêmesdes choses qu'ils ne savaient pas auparavant,et nombreux étaient ceuxqui,cherchant à expliquer ce qui leur était arrivé, ne trouvaient pas de motsassez forts. Parfois, la rencontre avait formé le point de départ d'un processusthérapeutique. Ces rencontres – que nous avons appelées enchantées – sontcaractérisées par la présence de deux éléments : d'une part, une communicationvécue comme directe, de conscience à conscience, avec les animaux; d'autrepart, la perte de conscience des limites du moi et l'expérience d'un lien avecl'ensemble de la création, qui donne leur caractère mystique aux rencontres .Toutes les rencontres avec des dauphins ne sont pas enchantées. Beaucoup sontbanales et dépour vues du sentiment d'intercompréhension rapporté ici; mais cesont les rencontres enchantées qui nous intéressent. Par exemple, « c'est unepersonne transformée qui vous écrit » annonce Christina dans une lettre à larevue Dolphin : « Lorsque le choc de l'eau froide sur ma tête et mes mainsdiminua, j'ai pu flotter et regarder l'eau autour de moi, et Freddie apparut juste à côté de moi. J'ai fait comme Gordonm'avait dit, je lui ai caressé les flancs. L'amusement de Freddie lorsqu'iltourna ensuite sur son dos, tout à côté de moi, et resta pratiquement sansbouger, attendant plus de caresses ! [… ]. Les dix minutes qui suivirent furentles plus merveilleuses de ma vie. Je lui grattais le dos, la tête et lesmâchoires, et en retour, Freddie m'offrait de longues chevauchées – de la joie àl'état pur. C'était comme s'il répondait à mes sourires et mes rires en frappantses nageoires sur l'eau [. .. ]. Je pense aussi qu'il me comprenait, parce qu'unefois, il me fit faire une longue chevauchée loin du bateau, et en réalisant oùj'étais, je lui ai demandé de me ramener au bateau, et il l'a fait ! ». Dans ce récit, quoi que fasse le dauphin, Christina comprend. Elle n'a aucunepeine à interpréter ce que fait Freddie comme des réponses à son proprecomportement et à son égard : Freddie réagit à ses caresses en lui offrant sonventre clair, il répond à ses rires en frappant l'eau de ses nageoires; iloffre une chevauchée contre des caresses et il la comprend : il fait demi-tourau moment où elle prend peur. C'est le cas de la majorité des récits enchantés :le dauphin émerveille les nageurs parce qu'il réagit de manière tellement senséeà leurs propres réactions ! En d'autres termes, le dauphin semble répondre. La compréhensionréciproque est bien l'une des marques de l'enchantement. Mais l'effet est encoreplus fort quand l'animal donne l'impression d'agir intentionnellement : « Quelques jours plus tard, nous fîmes l'expérience de notreplus forte communication avec les dauphins. Nageant parmi eux, nous avionsrepéré un très gros barracuda avec une sale gueule. De toute évidence, ilsavaient conscience de notre crainte, car de temps à autre, ils éloignaient lebarracuda. Le jour suivant, dans l'un des canots que nous traînions, noustrouvâmes, raide mort et desséché, le barracuda avec des marques de dentscourbes sur son dos. Les dauphins semblaient l'avoir balancé là, tel un présentpendant la nuit, comme pour dire : “Hurumphff Barracuda. .. Pas de quoi avoirpeur ! Tenez” » (Doak, 1981 : 240). Parfois, les récits de rencontre avec les dauphins ont l'allure de transeshypnotiques légères et le thème de la communication par les espritsapparaît : « Face à l'océan, Doak entre dans une rêverie qui l'amène dansun état proche de la transe. Puis, soudainement et de manière tout à faitinattendue, “se produisit la rencontre homme-dauphin la plus élevée que j'aiejamais vécue. Quelque chose que je trouve très difficile à articuler autrementque par les faits à l'état pur. Durant au moins une heure, peut-être deux, sixdauphins Stenella ont gambadé sous moi. Il y avait une mère avec son petit etquatre autres. [. ..] Puis, commença une séance dans laquelle ils sautaient etretombaient en parfaite synchronie avec mes pensées, mes questions. Quelquechose que je n'arrive pas à croire, après coup, et dont je me souviens pour tantsi clairement, comme les images arrêtées d'un film [. .. ]. Dans le courant del'après-midi, ils quittèrent tranquillement la baie, emportant tous les doutesque je pouvais avoir sur les liens entre esprits” » (Doak, 1981 : 187). En effet, pour beaucoup de ceux qui l'ont expérimentée, la communication avec lesdauphins est de l'ordre d'une communication par les consciences : « Le processusde communication [avec les dauphins] ne sera pas vocal, car nous en savonssuffisamment maintenant pour reconnaître que la communication chez les cétacésse fait par les esprits » a expliqué un orateur à une conférence (26-30/05/90 )sur les baleines et les dauphins. Les témoignages attestant despouvoirs télépathiques du dauphin sont nombreux : « Il semblait tout connaître demes besoins, de mes désirs »; « Il avait perçu télépathiquement mesintentions »; « Il lisait dans mes pensées ». Il arrive que la rencontre avecun dauphin sauvage affecte profondément l' être humain, comme c'est le cas derencontres dites thérapeutiques : « À seize ans, explique Jemina, je suis devenue anorexique .Aujourd'hui, à 23 ans, je me bats encore pour m'extirper de ces difficultés ,mais je suis convaincue que la raison pour laquelle je n'ai pas lâché prise nirechuté, c'est que j'ai nagé avec un dauphin sauvage. Lors de notre premièrerencontre, Dorad m'approcha par derrière et en-dessous […] Se tournant sur lecôté pour me regarder avec un œil, il plongea délibérément son regard dans lemien. Il n'y avait nulle part où se cacher. Cette créature sauvage ne regardaitni mon corps ni même mes expressions, mais droit dans la douleur de mon âme […] .Et le regard d'un dauphin pourrait être la seule manière de calmer la douleurd'une terrible et très profonde blessure psychologique [… ]. Dorad m'a appriscomment regarder ma souffrance en face et l'affronter vraiment. J'ai faitl'expérience d'une confiance mutuelle et d'un amour inconditionnel, quepeut-être seule une autre espèce extrêmement intelligente comme le dauphin peutoffrir » (1990). Dans cet exemple, Jemina a fait une expérience correctrice qui s'accompagned'émotion intense. En se regardant à travers les yeux du cétacé, elle découvresur elle -même quelque chose qu'elle ignorait ou n'osait croire. La teneur decette expérience est évidemment différente pour chacun, mais celle -ci est unaspect important de la communication enchantée, en particulier de la dimensionde révélation de la rencontre. Quand le dauphin se met à « parler » à l' êtrehumain, il lui parle, d'abord et avant tout, de lui -même; et beaucoup desmessages reçus par les humains peuvent être considérés comme une traductionapproximative de ce qui est expérimenté dans la participation à l'interaction .Mais dans ce cas, quelle est la valeur de ces messages ? Il est difficile decroire qu'ils ont été effectivement envoyés par les dauphins. « La littérature abonde de récits de dauphins “rieurs ”, “souriants ”, “jouettes” ,alors que ce que voyait l'observateur, c'étaient des claquements de mâchoires etdes hochements de tête qui chez les dauphins signifient des intentionsagressives » (Nollman, 1987, in : Pr yor, Shallenberger ,1991 : 163). Dans ce cas, les témoignages exaltés de rencontres avec un dauphinne seraient que l'effet d'une profonde illusion anthropomorphique, d'uneauto-suggestion comparable à celle dont est victime le propriétaire de chienlorsqu'il croit que son animal lui donne un baiser quand il lui lèche le visage .C'est effectivement sur le terrain bien connu de l'illusion anthropomorphiqueque nous emmènent la plupart de ceux qui se sont intéressés à la communicationinter-espèces (Hediger, 1980; Hediger, 1981; Sebeok, Sebeok, 1980; Sebeok ,Rosenthal, 1981; Despret, 2004). Tout comme il est difficile à l'éthologue decroire le chasseur qui lui explique comment l'animal chassé s'est offert à lui ,il est impossible, à qui n'y croit pas, de souscrire à l'idée que les dauphinsadressent des messages et communiquent télépathiquement avec les nageurs. Àpartir de là, il semble intéressant de commencer par distinguer, dans cesrécits, ce qui se passe vraiment de ce que les nageurs croient, à séparer ensomme ce qui relève de processus de communication véritables de ce qui relève del'illusion ou de la croyance; et ce, dans le respect d'une pertinenceéthologique. Toutefois, cettedémarche de bon sens s'avère difficile à appliquer comme le montre le cas trèsélémentaire du regard : « Le matin, après mon arrivée à Dingle, j'endossai unecombinaison de plongée, embarquai sur un bateau et dès que je vis l'ailerondorsal de Dorad, je sautai à l'eau. Presqu'immédiatement, il nagea près de moiet me gratifia d'un regard qui m'est resté depuis lors – un regard d'une grandeintensité, de connaissance et d'acceptation [. .. ]. C'est ce premier regard ,d'une acceptation indicible, qui m'accompagnera pour toujours » écrit à Dolphin un Anglais reconnaissant. « Les dauphins recherchent le contact visuel avec l' être humain » nous avait dit ,sur le ton de la confidence cruciale, un énorme marin australien; ce regardadéclenché de puissantes réactions émotionnelles : « Permettre à un dauphin detoucher votre cœur, c'est comme tomber amoureux »; « J'ai perçu un sentiment depur amour venant du dauphin. .. »; « J'étais ivre de joie, comme dans unrêve »; « J'ai posé ma main sur sa tête et j'ai quitté ce monde ». Rencontrerle regard d'un dauphin apparaît comme un échange interspécifique d'une rarerichesse : « J'ai souvent lu des descriptions des sentiments que l'on alorsqu'on regarde dans les yeux d'un dauphin, et c'est réellementindescriptible – comme regarder profondément dans l' âme de quelqu'un, unecompréhension d' êtres d'intelligence égale » m'a dit un homme émerveillé. « Nousavons souvent regardé dans les yeux des dauphins, et la qualité de leur regarden retour ne ressemblait à celle d'aucun autre animal que nous ayons connu. .. » ,confirme, en 1990, la cétologue Ann Spurgon. Il est aisé de se rendre compte que cet échange de regards modifie la scène del'interaction et devient un élément essentiel de son contexte en y introduisant ,précisément, l'intention. Dans les textes qu'il a consacrés à la question de l'animal, Jacques Derrida (2006) fait l'hypothèse qu'il y auraitau fond, du point de vue de l'animal, deux grandes formes de traités surl'animal : ceux qui sont signés par des gens qui ne se sont jamais vus regardéspar un animal ou qui n'en ont tiré aucune conséquence, et ceux dont les auteursont pris en compte le fait « que ce qu'ils appellent “animal” pouvait les regarder et s'adresser à eux depuis là-bas, depuis uneorigine tout autre » (ibid. : 31). Selon Jacques Derrida( ibid. : 32), la dénégation de ce regard n'est pas unedénégation parmi d'autres, elle « institue le propre de l'homme, le rapport àsoi d'une humanité d'abord soucieuse et jalouse de son propre ». Il semble quec'est d'un tel franchissement de frontière qu'il s'agit ici et que lestémoignages cités plus haut font état de la possibilité d'articuler – quoique demanière indécidable – le différend en un simple malentendu : tout se passe commesi l'on pouvait se comprendre, et cette possibilité, fût-elle fictive, a deseffets bien réels sur l'interaction elle -même. En effet, la reconnaissance dudauphin comme sujet d'un monde et, au-delà, d'un savoir, d'un message, d'uneintention bouleverse toutes les catégories des nageurs dès lors qu'ilsreconnaissent que ce tout autre s'adresse à eux. Nous devons considérer qu'elleoblige également à reconsidérer les catégories de la communication et de saréussite en général dès lors qu'une telle adresse est seulement possible. Maiscomment la décrire ? Les nageurs parlent d'amour, d'émotion, de communication avec un êtreintelligent. Cependant, si l'on éprouve quelque difficulté à concevoir que lesdauphins envoient délibérément de l'amour, il est tout aussi délicat de préciseren quoi consiste l'illusion. Qu'est -ce qui est faux exactement ? L'attitudeamicale des dauphins ? La signification que donnent les nageurs aux émotionsqu'ils ressentent ? Du point de vue humain, celle -ci est pour tantéthologiquement valide. Et si le sourire du dauphin est une illusion, quels sont lesvéritables signaux faisant fonctionner cette interaction ? Quand on cherche àidentifier précisément les illusions ou erreurs dont est victime le nageur et àles mettre en regard de faits éthologiques objectifs, on est conduit àconfronter ce que croit le nageur à la signification réelle des signaux oucomportements du dauphin. Certes, le nageur se trompe quand il croit que ledauphin lui sourit, car ce qu'affiche le dauphin n'est qu'une particularitéanatomique et non un véritable sourire. Bien sûr, le nageur a tort de croire quele dauphin lui envoie des messages : ce qu'il reçoit comme informations, surlui -même par exemple, n'a probablement jamais été envoyé comme tel par ledauphin. Mais il faudrait être dauphin soi -même (au moins) pour savoir ce que lepetit cétacé envoie vraiment comme information. Et s'il est des cas où leshumains prennent une menace (un claquement de mâchoires) pour du jeu, on n'a pastout dit de l'interaction, une fois l'illusion dénoncée. Pas plus qu'on n'aexpliqué l'enchantement, une fois considéré qu'il survient parce que les nageursy croient comme nous l'avons souvent entendu dire par des collèguespsychologues. Quand on oppose ainsi l'illusion à la vérité éthologique, l'enjeuest de condamner des gens et des pratiques plutôt que de comprendre commentfonctionnent des interactions. Cela ne permet en rien de comprendre ce qui sepasse dans les rencontres, sauf à renvoyer toute l'explication sur le dos del'anthropomorphisme, de l'irrationalité humaine ou de la croyance – ce quin'explique rien. Au mieux, cela produit deux descriptions séparées, voireincommensurables : une description éthologique (réputée objective, scientifique ,exacte) du comportement animal et une description ethnologique de pratiques etde croyances humaines où la question de la pertinence éthologique n'est pasposée. Mais aucune des deux n'envisage la rencontre comme communication et nedonne véritablement accès à l'interaction. Ce que montre également cet exemple, c'est que, contrairement aux présupposés del'anthropologie culturelle, un animal n'est pas un donné dépourvu designification que des représentations purement humaines et culturellesviendraient saisir. Pour rendre compte de l'interface entre hommes et animaux ,des anthropologues tentent aujourd'hui de faire place à l'animal en tant quesujet de son monde (Ingold, 1988; Reed, 1988; Brunois, 2005). Dans lesrencontres enchantées, comme dans bien d'autres cas de communicationinter-espèces, le recouvrement partiel des systèmes sémiotiques de l'animal etde l'humain (Bouissac, 1980) entraîne l'inadéquation des notions de message oude signal. En effet, comme nous l'avons dit, la plupart des messages reçus n'ontjamais été envoyés et les signaux eux -mêmes sont instables, puisqu'il peutarriver que ce que le récepteur prend pour un signal n'en soit pas un du pointde vue de l'émetteur. S'agissant de deux espèces différentes, les modalitéssensorielles, les capacités perceptives et les processus cognitifs ne sont pascomparables. La communication ne peut pas être décrite comme transmission demessages. C'est d'ailleurs l'usage inconsidéré de ce type de modèle qui conduitles participants à croire que s'ils perçoivent des messages d'amour, c'est quele dauphin les leur a (intentionnellement) envoyés; ce qui conduit à laprofonde illusion dont nous avons parlé. Ainsi les auteurs de ces témoignages font-ils clairement état d'une expérience decommunication qu'ils rattachent à cette image idéale de la communication commetransport, véhicule d'une représentation formée antérieurement, et au contenului -même idéalement préservé par le transport. Étant donné la dissymétrie quiexiste de fait entre les deux systèmes sémiotiques, l'image est, dans ce cas ,manifestement idéale voire fausse, bien que l'interaction produise des effets deprésence (présence l'un à l'autre des interactants, présence à soi desindividus), et un certain type d'effets intentionnels (conviction d'uneintention accomplie permettant la poursuite de l'interaction) bien réels. Dèslors, doit-on considérer cette interaction comme un exemple de communicationmanquée, à la différence d'une communication réussie qui serait caractérisée parun transport de représentations fondé sur un accord (préalable ou consécutif )quant au sens ? La première question que posent ces témoignages est celle descritères d'une communication réussie. Clairement, parce qu'elle est fondée surcette asymétrie des codes, la communication interspécifique pose la question desa réussite d'une manière qui ne permet aucun choix définitif, aucune décisionqui ne soit pas arbitraire. Ne pourrait-on pas considérer que c'est en réalitéle cas, du moins en principe, pour toute forme de communication ? En effet, quesignifierait qu'une forme – ou un acte – de communication soit réussie oumanquée ? Pour cela, il faut aller plus loin et nous demander ce dont ces expériencespeuvent témoigner, si on lève le malentendu sur lequel elles prennent corps, etce que cela peut nous apprendre du signe ou de la communication en général. On avu que, dans l'interaction, l'échange de regards joue un rôle prédominant car ilpermet de cadrer la relation comme réciproque. Si l'on se demande maintenantcomment cela est possible (voir un animal s'adresser à soi), on peut apportertrois types de réponses. Au fond, le premier est celui adopté par AntoineCulioli (1990). Ainsi, dans le cas des interactions interspécifiques, lesnotions de message, de signe et d'intention, sont-ils instables et suspectes .Cependant, toute tentative pour discriminer, de manière simple, entre la réalitéet l'illusion est vouée à l'échec : elle ne peut être utile qu' à unedisqualification morale – et scientifique – de ces rêveurs qui se sont vusregardés par un animal, sans que pour autant l'on comprenne mieux ce qui sepasse dans de tels échanges. Une seconde réponse pourrait être celle qu'avance John R. Searle (1991 : 228 )avec la notion d' « intentionnalité collective ». Loin d' être l'apanage deshumains, écrit-il, l'intentionnalité collective « semble plutôt être une formebiologiquement primitive de l'existence animale » (id.) .L'intérêt de cette notion est qu'elle n'est pas réductible à des intentionsindividuelles auxquelles s'ajouteraient des croyances, car « les intentions en“ Nous” sont primitives » (ibid. : 231). Cetteintentionnalité collective « présuppose, en arrière-plan, un sentimentpré-intentionnel de la communauté » (ibid. : 241). Ainsi« le sentiment, biologiquement primitif, de l'autre personne comme un candidat àune intentionnalité partagée est une condition nécessaire de tout comportementcollectif » (ibid. : 242). Outre la grande difficultéque rencontre l'auteur pour articuler l'acte collectif avec l'acte individuel ,ainsi que le fait qu'il n'envisage pas de communautés interspécifiques, cettenotion présente l'inconvénient d'offrir une explication faible à l'interaction :invoquer une prédisposition – fût-elle biologique – des interactants à interagirne peut constituer une explication, et encore moins si cette prédisposition doitelle -même s'accompagner d'une autre en arrière-plan. Enfin, préexistant auxactions, elle se présente aussi comme susceptible d' être pleinement remplie parles actes collectifs qui s'y inscrivent, et a un caractère clairement idéal ,inentamé, puisque primitif, premier, naturel. On retombe dans le contexte d'unecommunication susceptible d' être réussie. Le dernier type de réponse pouvant être apporté à la question de savoir ce quirend possible que les nageurs puissent ainsi se sentir interpellés par un animalqui s'adresse à eux, suppose de prendre ces témoignages au sérieux, tout enadmettant qu'il soit impossible d'y distinguer, de manière définitive, le signede l'illusion, la réalité éthologique du signe ou du signal, l'interprétationjuste de la fausse croyance. En d'autres termes, il faut admettre la natureessentiellement fictive du signe ou, pour utiliser un terme plus adéquat, de lamarque. Si l'on se réfère àl'analyse que fait Jacques Derrida (1999) de l'itérabilité de la marque, on note que celle -ci me parvient del'autre en tant qu'elle est déjà altérée par moi, par l'altérité que jeconstitue pour lui. De ce point de vue, la possibilité de la fiction ne dériveni de la plénitude du réel, ni d'aucune littéralité, ni d'aucun langageordinaire (ibid.); la possibilité de la fiction esttoujours première, y compris dans l'expérience où, pour le dire vite, lareprésentation précède la présence. C'est exactement ce que montre le premiertémoignage où la nageuse n'a cessé, pour raconter son aventure et en particulierfaire part des réponses du dauphin, d'user de ce « comme si » caractéristique :on ne sait si elle l'a vécu ainsi ou si elle a eu besoin de ces termes pourl'expliquer. C'est ce « comme si » qui supporte toute l'étendue du malentendu etvient masquer le différend, permettant que s'établisse et se poursuivel'interaction. C'est à cette condition de la possibilité essentielle de lafiction et de la dérive de la marque que l'on peut rendre compte de ce qu'unetelle adresse du dauphin à l'homme est possible. L'itérabilité, qui re-diviseautrement les oppositions telles que nature/ convention, rend compte de ce quetoute marque est d'avance divisée par l'autre à qui elle s'adresse. Ainsi lerisque de la fausseté (de l'échec) est-il nécessaire au fonctionnement même dela marque, pour autant que la communication ne soit pas purement répétitive ,mais engage – comme c'est très manifestement le cas ici – une forme dedifférence ou d'altérité. En d'autres termes, on pourra compliquer ou raffiner ,comme on le voudra, le modèle télégraphique (par l'implication du contexte, del'intention, etc.). La réussite de la communication ne peut être établie et lemalentendu est une condition de l'entente. Reste maintenant laquestion de la description de ces interactions. Si, dans une situation dedifférend, la réalité du référent n'est pas établie, ici, nous pouvons affirmerque la réalité même de l'interaction est problématique. Ce pourquoi les nageurstémoignent de leur expérience sans que le sens en soit fixé. À qui revient-il dele faire, et selon quelles modalités ? L'alternative habituelle aux modèles télégraphiques de la communication résidedans les modèles orchestraux (Winkin, 1981). Selon Ray Birdwhistell (1970 :230), la communication n'est pas un échange de cerveau à cerveau, mais peut sedéfinir comme « la structure dynamique qui soutient l'ordre et la créativitédans l'interaction sociale » ou « un système complexe par lequel les membresd'une société s'inter-relient avec plus ou moins d'efficacité et de facilité » (ibid. : 12). Dans cette perspective, c'est ce systèmecomplexe dans son fonctionnement qu'il convient de décrire. Mais les modèlesorchestraux ont un inconvénient majeur : bien qu'ils soient heuristiques sur unplan conceptuel, ils n'offrent guère de piste méthodologique permettant de lesopérationnaliser dans un programme de recherche empirique. En effet, si chacun –qu'il le veuille ou non – participe à la communication, et si tout estcommunication (au moins potentiellement), on a besoin de critères pour choisirles unités comportementales à décrire. Dans ces conditions, il est intéressantde repartir de la notion d'information telle que la définit Gregory Bateson( 1979 : 105) : une différence quelque part qui crée une différence ailleurs, etde considérer que le dauphin et l'humain sont chacun porteurs d'une infinité dedifférences. Parmi celles -ci, seule une faible partie sera perçue et feraréellement une différence. Une autre manière de présenter les choses est deconsidérer que le dauphin et l'humain sont chacun porteurs d ' affordances qui seront énactées par le partenaire aucours de la rencontre, tel un processus de communication inter-espèces quipourrait ressembler au schéma ci-dessous : Au centre, l'ovale représente la partie visiblede l'interaction. Cette partie est composée de séquences de comportements et, enprincipe, elle est objectivable. Elle fournit la ligne de base du déroulement del'interaction : qui fait quoi, comment, à quel moment ? La partie de droitereprésente la perspective du participant humain sur cette interaction. Elledépend de la position qu'il occupe dans l'interaction, de ses attentes, de sonsystème sensoriel et perceptif, de ses apprentissages préalables, des habitudesculturellement acquises, des présupposés qui organisent sa rencontre avecl'animal, etc. Elle représente également l'humain et son monde tel qu'ill'énacte, ou le fait advenir par ses actions. De manière symétrique, la partiede gauche représente l'animal qui, lui aussi, énacte un monde propre ens'engageant dans une interaction avec un humain. Ce modèle repose sur unepropriété fondamentale de l'interaction qu'a identifiée Gregory Bateson (1951 :250) : « Il n'y a pas de lecture objective d'une interaction, au-delà de ladescription des comportements comme s'ils étaient tous isolés les uns desautres ». Je peux décrire la rencontre entre un humain et un dauphin endécrivant ce que fait chacun : le dauphin plonge, l'humain met la tête dansl'eau, le dauphin se tourne sur le côté, l'humain ne bouge pas, etc. Mais, ilmanque ce qui relie ces comportements les uns aux autres. Or, l'unitéélémentaire du lien social c'est « la réponse de A au comportement de B à son égard » (Bateson, 1935 : 221). La descriptionobjective d'une interaction réfère à une réalité qui n'existe nulle partailleurs que dans le regard de l'observateur. C'est là tout le problème desanalyses structurales de l'interaction. Quel est le statut exact des régularitésobjectives, des redondances ou des patterns qu'ellesmettent en évidence ? Dans la pratique de la thérapie de couple, les thérapeutes notent régulièrementle caractère extrêmement répétitif des disputes qui suivent un schéma évidentpour un observateur extérieur. Mais, pour comprendre la dynamique del'interaction autrement qu'en termes de succession de comportements, nous avonsbesoin de savoir ce que le comportement Y fait à Madame, et ce que la réponse deMadame fait à Monsieur, c'est-à-dire de décrire le point de vue de chacun surl'interaction et le découpage particulier qu'il y opère. Comme le suggère notreschéma, décrire l'interaction revient à croiser les descriptions subjectives dechacun des participants. « On fait un grand pas si l'on commence à envisagerdeux parties d'une interaction comme deux yeux, chacun d'eux donnant une visionmonoculaire de ce qui se passe, et les deux donnant ensemble la visionbinoculaire de la profondeur : c'est cette double vision qui constitue larelation » (Bateson, 1979 : 139). Pour rendre compte objectivement d'un systèmeinteractionnel comme l'enchantement, sans négliger la question du sens, il fautprocéder à des doubles descriptions. On ne peut pas en rendre compte enpostulant que seul l'humain construit une signification. En définissantl'interaction comme le produit de deux visions subjectives, ce modèle repose surle postulat que chacun des partenaires construit son monde d'une manière oud'une autre. En fait, il présuppose une définition phénoménologique ducomportement humain et animal (von Uexküll, 1934); encela, au vu des développements récents de l'éthologie cognitive (Gallo, 1988 ;Gallo et al, 1991; Delfour, Carlier, 2004), il est trèscontemporain. Ce modèle possède également un certain nombre d'avantages dont le premier estprobablement qu'il offre une réelle alternative au modèle inadéquat de lacommunication sociale qu'est le modèle télégraphique. Appliqué à lacommunication humaine, il considère comme inhérentes au processus decommunication des propriétés que le modèle télégraphique considérait commepathologiques ou anormales : par exemple, le simple fait que a et b ne peuvent concevoir un message x de manière identique, parce qu'ils occupent despositions différentes dans une interaction. Une autre de ses particularités estde favoriser une vision interactionnelle de la communication. Parce qu'il obligeà recourir à des doubles descriptions, il met en évidence l'erreur qu'il y a àcroire qu'une partie de l'interaction (l'un des protagonistes) peut contrôlerl'ensemble. Comme l'ont amplement montré les praticiens de l'école de Palo Alto ,la recherche du contrôle (sur la relation ou l'interaction, voire sur lepartenaire) génère des pathologies. Considérer qu'une relation est toujours le produit de deux descriptions, c'estreconnaître que chacun – l'animal tout autant que l' être humain – s'engage dansl'interaction pour y jouer sa propre partition (pour reprendre la métaphoreorchestrale) et que, dans ces conditions, aucune des deux parties ne peutprétendre disposer de la bonne version de la relation ou du message. Laperspective de l'humain n'est précisément que cela : la réalité qu'il construitpar sa participation au sein d'une totalité qui le dépasse, la relation. Lessystémiciens ont montré que, par définition, une partie ne peut contrôler letout dont elle fait partie. Dans l'interaction, le contrôle est nécessairementune illusion. Bien entendu, un dresseur peut connaître suffisamment bien lesrègles du conditionnement opérant pour faire exécuter à son animal un sautpérilleux. Temporairement, il peut croire qu'il maîtrise l'animal. Mais le bondresseur sait qu'il est toujours à la merci d'un geste trop brusque, d'unefemelle en chaleur, d'une humeur passagère, d'un environnement trop bruyant oud'une punition en trop (Pryor, 1975; O'Barry, 1989 : 204-205). Dans lesdelphinariums européens, deux écoles de dresseurs s'opposent dans leur manièrede gérer les comportements agressifs des mâles en captivité. La première chercheà les contrôler par la force, la punition, la privation de nourriture ,l'isolement. Dans ces delphinariums, les dresseurs ont peur des dauphins et ilsn'osent pas aller nager avec eux en dehors des spectacles. Dans l'autretradition, les dresseurs essayent de faire avec les comportements agressifs etlaissent les animaux régler leurs conflits en intervenant le moins possible .Dans ces delphinariums, les soigneurs peuvent se permettre de nager avec lesdauphins en dehors du contexte de travail. Les premiers cherchent à contrôler etils se retrouvent dans une relation incontrôlable au sens où ils ne peuvent pasfaire confiance à leurs animaux; les seconds contrôlent beaucoup moins etpeuvent faire confiance aux animaux… Visant la maîtrise des cétacés, lespremiers s'engagent dans des escalades de violence parfois considérables; lesseconds ont la sagesse de reconnaître qu'obtenir la soumission ou l'obéissancene revient pas à avoir le contrôle. Dans les relations humaines, la conceptiond'une communication efficace, qui néglige totalement le fait que le récepteur ,lui aussi, construit sa propre réalité, conduit à des pathologies del'interaction. Le modèle qu'on propose restitue au récepteur sa place et sa libertéd'interprétation. Il possède un champ d'application très vaste, notamment parceque, ici, la question de l'intention à transmettre un message n'est paspertinente. Si l'on accepte la prémisse du malentendu comme structurefondamentale de la communication inter-espèces (ce qui n'interdit pas quecertaines significations soient partagées), les difficultés de descriptionposées par nos rencontres entre humains et dauphins sont résolues. Il devientvain de chercher à savoir si l'humain s'est trompé ou non, quel est le vrai sensd'un message, ou quand finit la vérité éthologique etquand débute l'illusion. La vérité éthologique n'est plus opposée à descroyances profanes et la question de savoir si le chasseur a tort ou raison ,quand il pense que l'animal s'offre à lui, perd sa pertinence. On se donneégalement les moyens de décrire l'interaction en tant que système. Et àconsidérer l'interaction homme/animal comme un système, il est clair quel'enchantement ne se trouve ni dans le dauphin, ni dans l' être humain. Il nes'explique ni par des pouvoirs spéciaux du dauphin, ni par une illusion spécialede l'humain (deux hypothèses dormitives), mais bien par le produit d'uneinteraction (de deux descriptions) qui, parmi plusieurs possibles, prend uneconfiguration particulière. Tout en reposant sur une conception orchestrale dela communication, où chacun participe à la communication conçue comme un baincontinuel de signaux circulant à de multiples niveaux, le modèle suggère despistes méthodologiques. Par exemple, il serait possible d'identifier les affordances portées par l'animal et de les mettre enrapport avec les significations que l'humain leur donne, étant donné sesconceptions d'un animal, d'un dauphin, d'un message, de la communication ,etc. Si la vision objective de l'observateur ne correspond, en réalité, à aucunevision subjective, il s'ensuit qu'il n'y a aucune correspondance entre uneméta-règle de régularité (observée par une tierce personne) et une méta-règle deprescription (que suivraient également les interactants) ou de traduction( permettant de traduire un idiome dans l'autre). Ainsi peut - on constater quel'existence d'une méta-règle de régularité ne suppose absolument pas l'ententeou la reconnaissance d'une quelconque règle commune. Il est important dereconnaître la contingence essentielle du rapport entre structure objective etvision subjective. Dès lors, c'est la notion de contexte qui devientproblématique. D'une part, parce qu'il est impossible de le définir de manièreexhaustive en adoptant une position de surplomb qui n'existe pas; d'autre part ,parce que l'interaction elle - même constitue une part de son contexte. On nepeut plus définir le contexte comme ce qui entoure l'interaction, mais il fautreconnaître que, à la fois pour l'observateur et pour les interactants mais demanière différente, il en fait partie : « Il n'y a que des contextes, sans aucun centred'ancrage absolu » (Derrida, 1990 : 126). Toute description d'une interactionconstitue, à la fois, une simple description et un geste discursif, se situe àun double niveau dénotatif et performatif qu'il faut assumer, notamment entermes de statut de la vérité. Cette double écriture, qui fait manquer lavérité, est la condition pour que quelque chose soit dit de l'interaction et dela communication qui s'approche de leur réalité. Définir la règle ou laprescription qui permet d'établir le contexte comme étant « le contexte », est ,de ce point de vue, toujours un acte, une opération performative et non purementthéorique. Et cet acte comporte toujours une part de violence, celle del'institution de la règle ou de la loi. C'est pourquoi, comme le remarqueJacques Derrida (1990 : 251), il y a toujours quelque chose de politique dans leprojet même de tenter de fixer le contexte des énoncés : « C'est inévitable, on ne peut rien faire, et sur tout pasparler, sans déterminer (d'une manière qui n'est pas seulement théorique, maispratique et performative) un contexte. Cette expérience est toujours politiqueparce qu'elle implique, dans cette détermination même, un certain type derapport non “naturel” avec l'autre (et cela vaut aussi pour ce qu'on appelle les“ animaux” car […] ce que je dis implique une transformation assez profonde duconcept de “politique” et de quelques autres pour qu'on puisse dire que l'hommen'est pas le seul animal politique) ». Dans le cas de communication inter-espèces, il est patent que, pour un dresseur ,le contexte est constitué par une relation de domination, acceptée de part etd'autre, et qui explique que, dans le chef du dresseur, il ne puisse y avoir dedispute avec le dauphin. Dans ce cadre, l'animal ne peut répondre mais seulementréagir, et il n'y a aucune reconnaissance d'un quelconque malentendu. Aucontraire, l'identification claire des règles de la relation suppose qu'il n'y aqu'une seule vision possible de l'interaction : l'animal obéit ou non. Si toutedétermination du contexte implique un rapport de force, et si toute prise deparole implique, à son tour, la détermination d'un contexte, alors, il fautrenoncer au primat normatif de l'activité communicationnelle que postulaitJürgen Habermas (1992), même si celui -ci considérait que dans les actes deparole ouvertement stratégiques, les conditions de validité normative étaientremplacées par des conditions de sanction. À l'inverse ,pour les nageurs enchantés par la rencontre, la relation est cadrée par uneforme de réciprocité qui rend l'animal capable de répondre et de s'adresser .Dans ce cas, la divisibilité du contexte, le fait qu'il n'entoure pas seulementl'interaction, mais aussi la constitue, apparaît de manière irréductible commedans tous les cas où est prise en compte la possibilité même d'un malentendu ;et le rôle du scientifique devient plus problématique, car il implique – luiaussi – un choix d'ordre politique. On voit bien que c'est l'acceptation dumalentendu qui, dans la mesure où elle entraîne l'abandon de toute tentative decontrôler l'autre et la reconnaissance de sa liberté de réponse, rend cetterencontre enchantée. Cette reconnaissance d'une forme de responsabilité (au sens fort) de chacun, dansl'interaction, est, selon nous, nécessaire à toute communication nonpathologique; c'est pourquoi il est indispensable de considérer que lemalentendu est une condition de l'entente et qu'il est une structurefondamentale de la communication. La volonté de supprimer le malentendu, de lerésoudre en s'en rapportant à une règle, est toujours le moment où émerge ladomination; celle -ci se poursuivra tant que le dominé ne pourra se faireentendre dans l'idiome du dominant, prendre la parole depuis une place qui nelui est pas reconnue, auquel cas l'interaction se transformera alors en conflitproprement politique. C'est la mésentente au sens où l'entend Jacques Rancière( 1995), moment d'apparition sur une scène commune, de celui qui jusque là étaitsans part, hors communauté, hors scène. On peut considérer que l'une des marqueset l'un des actes les plus forts de la domination consiste à refuser à l'autrel'accès au langage (au logos), à l'exclure de lapossibilité même d'entendre la norme qui gouverne le code commun alors même que ,comme le souligne Jacques Rancière (1995), il doit comprendre qu'il n'y comprendrien. Un code compris n'est en aucun cas, politiquement, un code commun .L'exemple de la communication enchantée montre que la possibilité de la fiction ,au cœur de la marque, permet de phraser le différend en un simple malentendu .Sur le plan politique, Jacques Rancière (1995) montre qu'il est égalementnécessaire que celui qui est exclu de la communauté fasse comme si il en faisaitpartie en prenant la parole. Cet acte performatif est ce qu'il appelleapparition. C'est à cette condition de la fiction que peuvent être bouleverséesles limites de la communauté. En d'autres termes, il est nécessaire d'accepterle malentendu pour qu'un différend puisse se phraser, pour que puisse apparaîtresur la scène du politique toute forme d'altérité. La communication peut-elle réussir ? Peut-on dire qu'elle est réussie ? Choisirpour domaine empirique la relation homme/animal permet de mesurer toutes lesimplications d'une telle question, car il s'agit là d'un domaine où l'altériténe peut être réduite. La comprendre et la décrire obligent à élaborer un modèlede communication fondé sur la pluralité qui est nécessairement une penséepolitique. Chez Jacques Rancière (1995), c'est le partage du sensible ,c'est-à-dire une valeur esthétique, qui en est le corrélat, comme d'ailleurschez Emmanuel Kant où le sensus communis apparaît bienplutôt comme un dissensus communis. De ce point de vue, un mondepartagé n'est pas un monde commun ou que nous aurions en commun, mais celasignifie qu'il y a là un sensible qui nous tient ensemble, dans la mesure où ilnous sépare, qui est notre ligne de partage et qui nous partage au sens où nousne sommes pas identiques à nous -mêmes. Parler de monde partagé permet de pensernotre différence à nous -mêmes; celle -ci est indispensable pour qu'un rapport àl'autre soit seulement possible. C'est pourquoi, penser la pluralité permet deménager une possibilité de réponse qui ne soit pas une simple réaction; et lerapport à l'animal, parce qu'il interroge toutes ces questions, nous autorise àles réarticuler d'une manière plus fine. Lorsque Gregory Bateson (1935, 1972 ,1979) montre qu'il n'y a pas de lecture objective d'une interaction, lorsqueJean-François Lyotard (1983), opposant le différend au consensus de JürgenHabermas (1992), remet en question l'existence d'une méta-règle qui autoriseraitin fine l'entente, lorsque Jacques Derrida (1968 ,1990, 2006), par la déconstruction du signe linguistique et, au-delà de lanotion de communication, lie – de manière essentielle – la question du sens àcelle de l'autre et de l'altérité, chacun étaie cette idée qu'aucune partie d'unsystème ne peut prétendre exercer un contrôle unilatéral sur l'ensemble dusystème. De ce point de vue, il est assez clair aujourd'hui que ladéconstruction du signe linguistique par Jacques Derrida est inséparable de ladéconstruction de la frontière homme/animal. Ce qu'a montré l'examen de la communication inter-espèces est que toute mesure ,description, évaluation de la communication en termes de réussite, postulel'appropriation totale du sens de l'autre, son assimilation. C'est également ceque dit Franco La Cecla (2002 : 14) lorsqu'il définit le malentendu comme « unezone neutre, un terrain vague où l'identité, ou mieux, les identités différenteset confrontées peuvent se positionner tout en restant séparées précisément grâceau malentendu. En ce sens, le malentendu peut défendre l'identité interne d'unepersonne ou d'une culture selon le schéma : « Tu ne me comprends pas ? Cela vautmieux; ainsi tu ne prétends pas que je passe dans ton espace et devienne commetoi ». Les enjeux politiques de ces conceptions respectives de la communicationsont importants. En définitive, la question qu'ils posent est : que pouvons -nousaccepter de l'autre ? Comment pouvons -nous penser le commun de telle sorte qu'ilne réduise pas l'altérité, de telle sorte qu'il n'y ait pas un sens en commun( Nancy, 1982, 1996), et que l'on soit ramené à la bonne traduction ou la bonneinterprétation, mais que nous nous maintenions en rapport ?
Dans les modèles télégraphiques, on considère que la communication fonctionne si les messages de départ et d'arrivée sont identiques. Sinon, cela signifie que le récepteur a mal compris ou que l'émetteur s'est mal fait comprendre. Dans ce cadre, la pathologie de la communication est l'incompréhension. Ce que nous proposons ici, à partir de l'analyse de situations de communication très particulières (des rencontres enchantées avec des dauphins sauvages), c'est que, à l'inverse, la structure fondamentale de la communication est le malentendu. Or, c'est le refus de reconnaître ce fait (dû notamment au désir vain et désastreux de contrôler le partenaire) qui engendre des pathologies. Admettre au contraire qu'émetteur et récepteur disposent nécessairement de versions différentes de l'interaction et qu'il n'y a pas de version plus objective qu'une autre, c'est replacer l'altérité au cœur d'une communication qui est réussie parce qu'on accepte de mal se comprendre.
sciencesInfo_10-0280742_tei_1089.xml
termith-464-communication
L'information des malades sur leur mal et les soins qu'ils reçoivent figure parmi lesquestions centrales qui traversent les débats sur la place des patients dans lesystème de soins comme dans la relation thérapeutique (Demma etal., 1999 ;Hirsh,1999; Amar, Minvielle, 2000).Ces dernières années, unlarge mouvement s'est d'ailleurs imposé, notamment sous la pression desassociations, pour revendiquer cette information. Ingrédient incontournable de ladémocratie sanitaire — en vertu de quoi le patient est crédité d'un pouvoir dedécision et d'une aptitude à prendre en charge sa santé, en tant que sujet éclairé( Brocas, Le Coz, 2000; Collectif, 2005) —, la nécessité de donner toutel'information au malade sur son état de santé s'enracine dans l'affirmationcroissante de l'autonomie du sujet qui a fourni en partie la substance de la loiKouchner du 4 mars 2002 (art. L. IIII-2). Enjeu fondamental des relations quis'établissent entre médecins et malades, l'information — celle que le médecinfournit au malade, mais aussi celle que le malade est conduit à délivrer au médecin ,sur lui et sur son corps, pour lui permettre d'exercer efficacement son art — est unpréalable à toute bonne prise en charge médicale. Pour autant, peut-on dire quecette information est réalisée et que les échanges verbaux qui s'effectuentdans le cadre des relations médecins-malades la rendent effective ? En vérité, en dépit de l'arsenal déontologique et juridique existant dans lessociétés contemporaines pour défendre la position d'un malade sujet de soins etéclairé, le champ des relations médecins-malades comporte des faiblesses, deslimites et des contradictions. La rétention de l'information reste une arme souventutilisée au sein de cette relation, comme cela ressort d'une rechercheanthropologique que j'ai menée sur la nature et les mécanismes de l'information quiy est délivrée : ses conditions, ses enjeux et ses modalités (Fainzang, 2006). Cetterecherche m'a conduite à porter l'attention sur les échanges entre les protagonistesde cette relation. Elle a consisté à étudier la nature et le contenu de ceux -ci ,autrement dit ce que les acteurs y expriment, ce qu'ils disent et ce qu'ilsentendent, afin de mettre en lumière, au regard de la recherche d'information par lepatient auprès du médecin, le rôle qu'y jouent les mots utilisés, les thèmesabordés, la diversité de leurs sens et de leurs implications. La recherche a non seulement mis en évidence des pratiques de soustraction del'information, mais aussi l'existence de pratiques mensongères de la part desmédecins comme des malades. La question de la vérité et du mensonge est généralementposée en termes éthiques, et nombreux sont les travaux qui prennent pour objet cettequestion en vue de défendre, précisément, une position (Geets, 1993; Delaporte ,2001; Reich, 2004; Rabaté, 2005). Pour les auteurs qui la traitent, il s'agit depointer les questions éthiques soulevées, notamment par la formulation d'unpronostic ou bien par la demande de consentement faite au malade quand celui -ci nedispose pas des éléments pour en juger. Tel n'était cependant pas l'objectif de marecherche. La perspective était celle des sciences sociales. Autrement dit, il s'estagi d'analyser une situation sans en inférer une position normative. L'analyse a permis de substituer à l'explication psychologisante habituellementproposée pour rendre compte des difficultés dans la réalisation d'une bonneinformation, une analyse véritablement anthropologique, laquelle suppose uneattention aux logiques sociales et symboliques qui sous-tendent les conduites desindividus (Augé, 1984; Sahlins, 1976),à travers une mise à distance des discours etdes pratiques étudiés, pour réinterroger ce qui paraît relever de l'évidence. Ici, je présenterai en premier lieu les aspects méthodologiques et épistémologiquesde la recherche de terrain, en montrant comment s'est construite ma place au regardde ma problématique, puis j'évoquerai ses principaux résultats. À cet égard, àpartir de la confrontation entre les doctrines des acteurs et la réalité de leurspratiques, on examinera quels mécanismes sociologiques règlent l'information etquels enjeux s'y expriment, en tentant de cerner quelle place le mensonge occupedans la relation médecin/malade et dans l'échange d'informations entre eux. Les enquêtes ont été menées pendant quatre ans en milieu hospitalier (dans desservices de cancérologie et de médecine interne), auprès de quelques80 patients, pour la plupart atteints de cancer, et d'une douzaine de médecins .Les malades, d' âges différents, des deux sexes, et de divers milieuxsocioprofessionnels, ont été rencontrés à des stades divers d'avancement de lamaladie, les uns considérés comme pratiquement guéris, ne fréquentant plus leservice que pour des visites de contrôle, les autres suivant des cures( chimiothérapie, radiothérapie, opérations), d'autres encore recevant des soinspalliatifs. Élément fondamental d'une enquête de terrain en anthropologie, la recherche afait un large recours à l'observation. En l'occurrence, l'observation desconsultations médicales a permis de cerner les conditions et les modalités deséchanges entre médecins et malades, lesquels étaient revus ensuite, séparément ,à l'issue de la consultation. Ces entretiens ont pris la forme d'une sorte de« débriefing », dans lequel ils expliquaient ce qu'ils avaient dit, pourquoi ilsl'avaient dit, ce qu'ils n'avaient pas dit, et pourquoi. Les sujets ontégalement été rencontrés dans d'autres contextes, notamment lorsd'hospitalisations ou à leur domicile. Un intérêt particulier a été porté à la confrontation des déclarations despersonnes et des pratiques réelles observées, concernant les questions posées ounon, les réponses reçues, les conditions dans lesquelles ils ont eu connaissancedu diagnostic, l'information obtenue et les réactions entraînées. En effet, àlui seul, le recueil d'entretiens ne présente qu'un faible intérêt sur un telsujet, si l'on considère le fait que la problématique de l'information estsocialement investie et valorisée dans la société contemporaine, et que lessujets enquêtés veulent parfois donner d'eux l'image qu'ils supposent qu'on enattend. C'est pourquoi il était tout à fait essentiel de pouvoir observer lesinteractions entre patients et médecins, afin de vérifier, de pondérer, voire derelativiser, les propos des personnes auprès desquelles était menée l'enquête. L'autorisation qui me fut donnée par les médecins d'assister aux consultationsétait assortie d'une condition : celle que j'endosse une blouse. Si l'on peutparfaitement comprendre la condition que posaient les médecins à ma présence ,compte tenu de la réticence possible que les patients auraient eu à voir unétranger au personnel hospitalier assister à la consultation, cette situation memettait cependant dans une relation de duperie que je refusais de prolonger parla suite. Bien que mon statut de chercheur à l'Inserm ait été révélé avecsincérité, j'étais inévitablement assimilée au personnel médical par le seulport de ma blouse, ce qui induisait une confusion problématique, renforcée parle fait que certains médecins disaient que je les « assistais ». J'ai doncchoisi de compenser cette absence de transparence en révélant ma place exacteaux patients que je revis ensuite en entretien. En effet, il me semblaitpréférable, tant pour des raisons éthiques que méthodologiques, d'affirmer madistance vis à vis de l'équipe médicale et de me départir de la casquettemédicale dont on voulait me coiffer. Une des difficultés inhérentes à la méthode anthropologique, impliquant uneimmersion dans la situation étudiée, voire parfois une participation, est que laprésence même du chercheur peut modifier les conditions de l'observation .Toutefois, ces modifications mêmes font partie des conditions de l'enquête etdoivent être intégrées à l'analyse. Les difficultés que la présence del'anthropologue comporte, sur le plan méthodologique et heuristique, sont parcontrecoup productrices d'informations. Par exemple, si le fait que le médecinconnaisse l'objet de l'étude est susceptible d'induire de sa part descomportements différents de ceux qu'il a habituellement, cette difficulté peutêtre vaincue grâce à une enquête de terrain de longue durée, favorisant lerelâchement de la surveillance, par les personnes enquêtées, de leurs conduites .Par ailleurs, corollaire du terrain de ce type, l'inévitable empathie quis'instaure entre enquêteur et enquêté dans la relation ethnologique m'a amenée àme retrouver des deux côtés (du côté des médecins et du côté des malades), cequi m'a permis d'établir une distance, salutaire pour la recherche, avec lesdeux groupes de sujets enquêtés et de soumettre plus facilement leurs discours àl'analyse critique. L'enquête ethnographique ne s'est pas limitée à recueillir des paroles. Elle aégalement consisté à consigner les gestes et les actes accomplis dans le cadrede la relation médecin/malade, ainsi que les expressions de visage et lesregards, pourvoyeurs de riches informations. Paroles, gestes, regards ,habillement, positions corporelles, sont de puissants vecteurs d'information ,tant en ce qui concerne l'objet étudié proprement dit, que sur les conditions durecueil du matériel lui -même. À cet égard, si le langage du corps fournit auchercheur un précieux matériel ethnographique, il est aussi un moyen pour lui des'interroger, tout au long de son travail de terrain, sur sa propre place dansla relation étudiée (Fainzang, 2006). Bien que de nombreux médecins, prenant appui sur la loi du 4 mars 2002, tendent àconsidérer que, de nos jours, « on dit tout au patient », on constate pourtantque l'information n'est pas toujours faite et que la vérité sur leur état desanté n'est pas toujours dite. Le principal obstacle à la délivrance del'information est l'argument souvent invoqué par de nombreux médecins selonlequel, dans certains cas, cette information n'est pas bénéfique au malade etqu'il est parfois préférable, « dans son intérêt », de ne pas la lui donner. Etpuisque, « dans son intérêt », il ne faut pas tout lui dire, ces médecinsémettent certaines conditions à la réalisation de cette information, chacunayant sa propre doctrine en la matière. Pour les uns, il ne faut donner l'information au malade que s'il la demande .D'autres choisissent de limiter cette information à ce qui est sûr, distinguantà cet égard diagnostic et pronostic, en vertu de la dimension d'incertitude liéeau second. D'autres enfin ne donnent l'information qu'aux malades qu'ils jugentaptes à la comprendre, intellectuellement, ou encore aptes à l'entendre et à lasupporter, psychologiquement. Dès lors, se posent toute une série de questions :comment les médecins décèlent-ils l'existence d'une demande chez les patients ?Comment jugent-ils de l'intérêt du malade ? Comment distinguer si nettementdiagnostic et pronostic lorsque, dans certains cas, la frontière se dilue entreles deux ? Enfin, sur quoi les médecins se fondent-ils pour juger de l'aptitudedu patient à comprendre ou à supporter cette vérité ? Une première difficulté tient à la conviction partagée par de nombreux médecinsque les patients savent déjà ce qu'ils ont (ce qui dédouane les premiers de lanécessité d'informer les seconds), ou qu'ils « ne veulent pas savoir » : « Sipeu de malades expriment cette demande de savoir la vérité, c'est soit parcequ'ils ne veulent pas savoir, soit parce que de manière plus ou moins claire ,ils savent déjà » (Geets, 1993 : 75). Cette conviction se double de leurtendance à qualifier de manière systématique l'attitude des patients en termesde déni, lorsque ceux - ci ne formulent pas de questions explicites. Ainsi lesprofessionnels de la santé s'entendent-ils pour constater que lorsquel'information est bouleversante pour le malade, les patients sont tropabasourdis pour enregistrer les autres informations qui leur sont données, etconsidèrent ensuite qu'ils manquent d'informations, tout en développant del'anxiété et de la dépression (voir Ong et al., 1995) .Ici, il ne s'agit pas pour nous de récuser les analyses des psychologues sur cesujet et de nier l'existence, parfois effective, du déni (par exempleRuszniewski, 1995). Toutefois, le point qu'il convient de souligner est quel'usage outrancier et systématique que certains professionnels de santé font desanalyses psychologisantes revient à nier la dimension sociologique de l'échangeverbal entre médecin et malade. Expliquer systématiquement l'absence dequestionnement de la part des malades en termes de déni ou de refus de savoir ,c'est occulter le fait que, en raison des différences de statut social entrecertains patients et leurs médecins, les patients n'osent souvent pas poser dequestions à l'oncologue, alors qu'ils cherchent manifestement à obtenir del'information auprès du personnel infirmier, de leur médecin traitant, ou auprèsd'autres malades, ou encore des médias ou de l'internet. De même, on entend direque si les patients prétendent n'avoir pas reçu l'information demandée, c'estparce qu'ils sont sous l'effet d'une « sidération », les empêchant d'assimilerles explications reçues. Or, on constate en réalité que les questions posées parles malades reçoivent parfois des réponses « à côté » ou n'en reçoivent pas dutout, ou encore que les informations données ne correspondent pas à cellesdemandées par les patients, donnant lieu à de nombreux malentendus. S'agissant de la distinction entre diagnostic et pronostic, on s'aperçoit que lafrontière tend à être poreuse, voire à se diluer entre les deux. En effet, s'ilest vrai que les médecins disent plus facilement aujourd'hui à un malade qu'il aun cancer — contrairement à ce qui a pu être observé autrefois ou ailleurs( Gordon, 1991) —, c'est parce que le cancer est considéré aujourd'hui davantagecomme une maladie chronique que comme une maladie fatale. Cependant, une autreréalité, elle, est souvent dissimulée : la présence de métastases. Il y asouvent silence sur ce mot qui revêt l'image redoutée qu'avait autrefois le mot« cancer ». La raison de cette dissimulation est que, dans ce cas, le diagnosticcontient en soi un pronostic. Dire à un patient « votre cancer a métastasé » ,c'est l'informer à la fois sur la nature de son mal et sur son devenir possible ,compte tenu du fait que le diagnostic lui -même peut être le signe d'uneévolution défavorable. On est là face à ce que j'appellerai la dimensionpronostique du diagnostic. On assiste donc aujourd'hui à un déplacement de ladissimulation, du non-dit. Le tabou s'est simplement fixé sur un nouvel objet, àun autre stade de la maladie. Du silence fait sur la maladie, on est passé ausilence sur ses complications ou son aggravation. Enfin, s'agissant de la capacité du patient à entendre la vérité et à recevoirl'information, on s'aperçoit que les critères de jugement des médecins sontlargement sociaux. L'aptitude des patients à recevoir une information précise etdétaillée sur leur état de santé est supposée sur la base de l'impression desolidité psychologique que donne le malade, et dont l'appréciation est souventlaissée au seul médecin. En vérité, cette information est donnée essentiellementà des personnes appartenant à des catégories sociales supérieures, soit que leurdistinction (dans l'acception bourdieusienne du terme) laisse supposer une plusgrande aptitude à comprendre l'information, soit qu'elle laisse supposer uneplus grande capacité à la supporter, le médecin faisant souvent un amalgameentre ces deux types de compétences. Nombreux sont les exemples qui révèlent queles médecins parlent plus volontiers du diagnostic ou du type de traitementproposé et de ses effets (voire même du pronostic) au patient en fonction de sonmilieu social connu ou supposé, et du capital culturel également supposé quil'accompagne. R., 66 ans, chef d'entreprise à l'allure assurée, raconte : « Le médecin a été très clair. Il m'a remis sous Campto. “Si ça ,ça marche pas, attendez -vous à déménager d'ici 2004 ”, il m'a dit. Enfin, il m'apas dit ça comme ça, mais c'est ça que ça voulait dire. Et puis l'interne aussi ,il m'a dit que j'en avais plus pour longtemps. Il m'a dit :“on risque de voirapparaître des symptômes ”. Il m'a dit : “si ça marche pas, on verra apparaîtreles premiers symptômes dans 6 à 12 mois ”. Ça veut dire clairement que lesorganes sont atteints et qu'ils n'assurent plus leur fonction, donc après, y ena pour 3 mois, pas plus. C'est l'interne qui me l'a dit, et ça m'a été confirmépar mon médecin ». Le patient s'est vu annoncer l'éventualité d'un sombre pronostic de manière trèscrue, alors même qu'il n'y avait rien de certain. Par ailleurs, il n'a lui -mêmepas formulé de questions. L'information lui a néanmoins été livrée, de manièreassez abrupte d'ailleurs, sur la base de l'assurance qu'il semble avoir et qu'ilaffiche. L'information relative aux risques d'un traitement est, elle aussi, plusvolontiers donnée aux patients d'un niveau socioculturel jugé compatible :Mme A. souffre d'une polyarthrite inflammatoire, liée à une sclérodermierhumatoïde. Son médecin lui explique de manière précise et détaillée les risquesde sa maladie sur le plan immunitaire ainsi que les raisons et les risques dutraitement qu'il envisage. Plus tard, il me dira, en son absence : « Il y a desrisques pour les reins avec le traitement; parfois, je cache les effetssecondaires des médicaments, par exemple le méthotrexate peut entraîner unefibrose pulmonaire; et avec l'endoxan, il y a un problème 30 ans après, y a unrisque de leucémie. Mais elle, je lui ai pas caché, elle a un niveau culturelsuffisant ». Le même phénomène s'observe à propos d'une patiente enseignante, dont le médecintraitant a une conversation téléphonique avec le confrère oncologue auquel ill'a adressée. Ce dernier lui demande s'il peut dire la vérité à sa patiente surson état. Le médecin traitant lui répond : « Tu peux y aller, c'est une prof » .La tendance des médecins à informer préférentiellement les membres des classessociales supérieures est manifeste. Ces conduites sont d'autant plus frappantesqu'elles interviennent alors que les patients n'ont pas nécessairement posé ,quant à eux, plus de questions que ceux à qui l'information est soustraite. Lesmédecins croient déceler une demande d'information, en l'absence même de saformulation, chez les patients jugés dotés d'un capital culturel les yautorisant. Ainsi, même si la plupart des médecins se montrent soucieux de modeler leurscomportements en fonction des dispositions psychologiques des patients ,l'information du malade répond -elle souvent en réalité à des critères sociaux etse révèle être sous-tendue par des mécanismes sociologiques. La dimensionsociale des rapports entre individus n'est pas neuve. On sait, notamment avecles travaux d'Elizabeth M. Hooper et al. (1982), que lestatut socio-économique affecte la manière dont un patient est traité sur leplan thérapeutique : plus il est élevé, plus le patient est susceptible d' êtrevu par le médecin plutôt que par les infirmières, plus il a de consultations, etplus il est susceptible de recevoir une intervention. On sait également que lespatients socialement favorisés et plus éduqués expriment un besoin d'informationplus marqué que les autres, posent plus de questions et formulent davantage leurpoint de vue, et qu' à cet égard, ils sont susceptibles de recevoir plusd'informations (Street, 1992). Cependant, ce que révèle cette enquête, c'est quele médecin anticipe sur les questions du patient ou les préjuge, attribuant auxpersonnes des capacités psychologiques à supporter l'information en fonction deleur appartenance socioculturelle. À ce sujet, un point remarquable est que le médecin fonde son appréciation soitsur la connaissance précise qu'il a du dossier du malade et des informations quile concernent (état civil, profession, etc.), soit, lorsqu'il n'a pas le tempsde consulter tous les éléments du dossier et qu'il ne connaît pas le patient ,sur l'impression que le patient donne en termes d'appartenance sociale. Unmédecin, interrogé à l'issue d'une consultation sur les raisons pour lesquellesil avait informé un patient de manière aussi précise sur son diagnostic pourtantpeu réjouissant, répond : « On voit qu'il a un profil intellectuel de hautniveau ». Les médecins se font une idée approximative du milieu social à partirde signes extérieurs, tel que le langage, la tenue vestimentaire, les attitudescorporelles, la prestance sociale, etc. Autant d'indicateurs approximatifs d'uneappartenance sociale. Les comportements des médecins à l'égard des patients sefondent donc non pas tant en fonction de ce que le malade est, qu'en fonction dece que le médecin croit qu'il est, aux termes d'une appréciation fondée surcette lecture de signes. En définitive, alors que de nombreux médecinsjustifient leurs conduites en matière d'information sur la base des dispositionspsychologiques supposées du patient, elles s'avèrent être largement modulées auvu de ses caractéristiques sociales, ces dernières servant d'assise au jugementsur les premières. Concrètement, les énoncés diagnostiques traduisent une fréquente tentative deminimisation. Le mécanisme consiste à formuler le diagnostic du mal ou de sonévolution en l'euphémisant, et à parler par exemple au patient de « petitsnodules » alors que le compte rendu de consultation fait état d'une « grossemasse pulmonaire » ou à parler au patient de « polypes » alors qu'il a enréalité une lésion cancéreuse. Cette euphémisation conduit parfois les médecinsà donner une fausse information et donc à mentir. Le mensonge peut consister en une manipulation de termes ou de formules dontl'ambiguïté permet au médecin de faire croire au malade autre chose que ce qu'ildit réellement. Un patient est atteint de la maladie de Hotchkin. Le médecin quile suit considère que, « dans son cas, il y a 50 % de chances de survivre à5 ans », mais il lui dit : « Il y a 50 % de guérison complète à 5 ans ». Laformulation a pour objectif de faire croire au patient que l'alternative à laguérison n'est pas la mort mais une guérison partielle. Dans un autre cas, unepatiente a un cancer du foie incurable. Son espérance de vie est très réduite .Le médecin lui annonce qu'il va faire une « pause thérapeutique », pour dire enréalité que le traitement est un échec, et qu'il faut l'arrêter : « On abandonnetoute ambition de la guérir. En fait, on baisse les bras, mais je préfère luidire qu'on fait une pause », explique le médecin en l'absence de la patiente .Ainsi la patiente pense -t-elle que cette pause fait partie de son traitement ,alors qu'en réalité, elle marque l'arrêt de son traitement. Certains mots oucertaines phrases sont ainsi formulés de façon suffisamment équivoque pour quele patient puisse entendre et comprendre autre chose que ce que le médecin dit ,tout en le disant de telle manière que nul ne puisse lui reprocher de ne pasl'avoir dit. Dans d'autres cas, non seulement les médecins pratiquent une rétention del'information sur les risques d'un traitement et découragent les patients à lireles notices pharmaceutiques dans le but d'inciter le malade à le prendre( Fainzang, 2001), mais cherchent à tromper les patients sur les effets possiblesdes traitements pour que cette information ne risque pas de les dissuader deprendre le médicament prescrit, certains médecins allant jusqu' à infirmer lesinformations contenues sur ces notices pharmaceutiques afin que les patients seplient au traitement. La plupart des médecins se font une doctrine du mensonge qui recoupe en partieles critères du refus d'information mais sous une forme exacerbée. Certes, lescritères sont variables d'un soignant à un autre. Ils peuvent concerner : les destinataires du mensonge : « Souvent on ment plus avecles jeunes : on a plus envie de les préserver », confie un médecin; le type de diagnostic : le mensonge tient alors au degré degravité de la maladie et en particulier à la présence de métastases :« 90 % des cancers métastatiques ne sont pas curables, alors leur direqu'ils ont des métastases, c'est leur dire que c'est fini ! C'est pas lapeine de donner une information déstructurante, s'il y a pas de bénéficesur l'acceptabilité du traitement », déclare un oncologue; le type de traitement : « Si une patiente passe d'untraitement curatif à des soins palliatifs, c'est-à-dire s'il y a aucunechance de la guérir, je n'informe pas la patiente. Je lui dis qu'on luifait un traitement, mais elle sait pas que c'est un traitementpalliatif, c'est-à-dire un traitement de fin de vie, seulement contre ladouleur, puisqu'on arrête les traitements anticancéreux ». Chaque médecin définit donc, à son gré, les conditions et les critères auxquelsil choisit de communiquer l'information au malade, chacun établit une frontièreà un stade différent ou dans une finalité différente entre la sphère de lavérité et la sphère du mensonge. On peut parler à cet égard d'une variabilité àla fois du seuil et du registre des mensonges accomplis par les médecins .L'information semble devoir être distillée, distribuée comme un traitement, enrespectant les doses et en l'adaptant à chaque patient. Tout se passe comme s'ilfallait veiller à ce qu'elle n'ait pas d'effets secondaires négatifs et ,éventuellement, adopter le mensonge comme stratégie thérapeutique en vue deprévenir une vérité iatrogène. Mais, comme on le voit, on retrouve en grandepartie les mêmes modèles explicatifs ou justificatifs du mensonge que ceux quiprévalent à propos de la rétention d'information et de la dissimulation de lavérité. On est simplement, avec le mensonge, un palier plus loin. À cet égard ,le mensonge ne se distingue de la non-information ou de la sous-informationqu'en termes de degré et non de nature. De la même façon que l'information n'est donnée qu'aux personnes jugées aptes àla recevoir, et que la vérité n'est dite qu'aux personnes jugées aptes àl'entendre, le mensonge n'épargne que ceux que le médecin juge de taille àsupporter la vérité. Les médecins se révèlent moins prompts à mentir auxpatients de milieux socioculturels supérieurs. Ainsi, de même que l'informationsur leur état n'est donnée, on l'a signalé, qu' à ceux qu'ils créditent d'unefaculté de comprendre parce qu'ils présentent les signes d'une appartenancesociale et culturelle supérieure, de même, et à l'inverse logique, le mensongeest-il davantage accompli à destination des patients de milieux populaires. Ausujet d'un patient, agriculteur, atteint d'un lymphome (cancer des ganglions) ,un médecin oncologue me confie : « On peut le guérir, il peut vivre jusqu' à95 ans sans problème, mais il vaut mieux pas lui dire qu'il a un cancer. On nepeut pas tenir le discours de la vérité à un malade qui n'est pas dans unesituation culturelle apte à le recevoir » .Au sujet d'une patiente, agent deservice, le médecin dit : « J'veux lui en dire assez pour qu'elle adhère autraitement, mais pas trop pour pas l'angoisser. Elle a un niveau culturelinsuffisant. Je sais pas si je dois prendre le risque de l'effrayer ou êtrerassurant ». Avec le mensonge, on a donc tout à la fois une expression et unrenforcement des différences sociales de traitement en matièred'information. Parfois, les patients font eux aussi de la rétention d'information et sont mêmeparfois auteurs, eux aussi, de mensonges à l'égard des médecins. Ladissimulation de certains symptômes résulte en partie de la volonté des maladesde ne pas laisser le médecin penser que le mal s'est aggravé. On peut alorsparler du caractère performatif du mensonge dans la mesure où dissimulerl'apparition d'un symptôme, c'est empêcher de faire advenir un diagnosticd'aggravation. Mais la dissimulation de certaines conduites procède également parfois de la peurde révéler au médecin des comportements qu'il pourrait condamner, qu'ils soientà visée thérapeutique ou non, tels que le recours à l'automédication, auxmédecines alternatives, ou encore la pratique ou non d'un sport, la prise ou nond'une pilule contraceptive, etc., toutes conduites susceptibles d'entraîner ladésapprobation du médecin s'il les juge préjudiciables à la santé du malade, etque le patient dissimule donc par peur de se faire sermonner. Il est frappant deconstater que ces dissimulations s'observent davantage chez les patients demilieux sociaux défavorisés (employé de cantine scolaire, agent commercial dansune entreprise de transports, etc.). Une patiente, agent de service, souffrantd'une polyarthrite rhumatoïde causée par un lupus, s'entend dire par son médecinque sa maladie pourrait être aggravée par une grossesse et, au cas où elle enenvisagerait une, que sa maladie devrait être d'abord stabilisée. En l'absencede la patiente, il explique, « si elle était enceinte maintenant, ce serait unecatastrophe, elle risquerait de voir flamber sa maladie, de voir des organesattaqués ou elle risquerait de perdre l'enfant » ce qu'il ne lui a pas dit ,« pour ne pas l'inquiéter ». De son côté, craignant de se faire réprimander parle médecin, elle lui cache qu'elle n'utilise pas de moyens contraceptifs. Lecomportement social du malade est lié à la difficulté pour lui de tenir lenouveau rôle que la société lui assigne, c'est - à-dire de s'affirmer commeindividu autonome apte à décider. N'osant pas revendiquer ses conduites et seschoix éventuellement contraires aux recommandations du médecin, il se sentcontraint de recourir au mensonge ou à la dissimulation pour ne pas se voirchapitrer par celui qui incarne l'autorité médicale. Les dissimulations ou les mensonges des patients ne prennent cependant pas lesmêmes formes et ne sont pas sous-tendus par les mêmes mécanismes que ceux desmédecins. Les modalités et les motivations de l'information sont liées à ladimension structurelle de la relation médecin/malade. À cet égard, on a vu que ,non seulement la rétention d'information et le mensonge sont davantage pratiquéspar les médecins à l'égard des personnes de statut social inférieur, mais que ,inversement et symétriquement, le mensonge à l'égard des médecins est davantageaccompli par les patients de milieux défavorisés. Le décalage entre le statutsocial de chacun, voire entre le capital social ou culturel supposé dont chacuncrédite l'autre, construit a priori les conditions deréalisation de l'information. Les sciences sociales ont montré que le mensonge pouvait être analysé dans sesliens avec le pouvoir (Arendt, 1969; Bok, 1979; Barnes, 1994). S'interrogeantsur la rétention du savoir, Philippe Roqueplo (1974) a montré qu'elle étaitprotection de sa propre place dans la hiérarchie sociale. À l'instar de larétention du savoir, le statut du mensonge en tant que technique visant àréduire la distribution sociale de la connaissance est un mécanisme sociologiquequ'a bien mis en évidence Michael Gilsenan (1976), en montrant qu'il étaitétroitement mêlé au système du pouvoir et du contrôle de la société. Dans le cas de la relation médecins-malades, le mensonge est aussi exercice dupouvoir et rétention d'un savoir puisque le médecin garde jalousement un savoirface à celui qui est placé sous sa dépendance (Furst, 1998; van Dongen ,Fainzang, 200S). Le mensonge pratiqué par les médecins est lié à la positionspécifique qu'ils occupent à l'intérieur de la relation médecins-malades, et àl'exercice du pouvoir qui caractérise leur position. Celui -ci se traduitexemplairement par l'appropriation du corps du malade. De ce point de vue, lechoix que fait le médecin de dire la vérité ou de mentir n'est que partiellementpersonnel. Sa conduite résulte d'une construction sociale, à la fois de son rôleet de sa place dans la relation médecin/malade, qui le moule, le modèle, et luienseigne le mensonge. L'usage du mensonge par les médecins est induit par unemanière, apprise, socialisée, de se positionner dans la relation médicale .Toutefois, le médecin se retrouve aujourd'hui tiraillé entre la conformité à sonrôle social l'autorisant à ne pas tout dire, voire à mentir (et donc à exercerce qu'il est convenu d'appeler le « privilège thérapeutique »), et le souci dene pas apparaître comme contrevenant aux nouvelles valeurs édictées par ladémocratie sanitaire, prônant l'autonomie du malade. En revanche, le mensongedes patients résulte d'une alchimie entre leur adhésion au modèle du médecincomme autorité (professionnelle et sociale), et leurtendance, sinon à mettre en cause la légitimité de sa parole, du moinssecrètement à y résister. Des deux côtés, on constate une pratique du mensongequi permet de faire jouer les mécanismes du pouvoir et de la résistance aupouvoir, sans lui donner une forme ouverte, revendiquée, en raison de ladifficulté pour les sujets de contourner les valeurs sur lesquelles ilsreposent : en l'occurrence, l'autorité du médecin et la nouvelle figure dumalade, telle qu'elle est construite aujourd'hui. En mentant, les médecinsreconduisent les malades dans leur statut subordonné, tandis que ces dernierstémoignent en partie de leur sujétion au statut qui leur est conféré. À ceniveau, le mensonge opère une action symétrique, tout à la fois d'instrument derenforcement des rapports sociaux entre médecins et malades, et de subversiondes rôles nouveaux que la société leur confère ou leur reconnaît. On a observé que l'information des malades obéissait à des mécanismes sociaux envertu desquels elle n'est donnée qu'aux patients qui présentent les signes d'uneappartenance sociale et culturelle supérieure, et que, à l'inverse, le mensongeétait davantage accompli à destination des patients de milieux populaires. Lespratiques d'information et de mensonge s'inscrivent donc en partie dans unmécanisme de reproduction sociale suivant lequel les médecins, en voulants'adapter à l'aptitude supposée des patients à recevoir l'information, lafournissent de préférence à ceux qui en sont les dépositaires habituels dans lasociété, ou qui sont déjà les mieux outillés pour la rechercher. Aux tristementcélèbres inégalités sociales d'accès aux soins parmi les patients, s'ajoute doncune inégalité sociale d'accès à l'information que ce mécanisme contribue àfavoriser. Comme on le voit, l'information entre médecins et malades comporte des limites àpartir desquelles on peut légitimement se demander si les malades peuventvéritablement exercer ce qu'on appelle leur pouvoir de décision et si, plutôtque de « consentement éclairé », il ne serait pas plus juste de parler, à cetégard, de « consentement résigné ». Bien que la législation tende à la garantir et qu'un certain nombre deprofessionnels de santé s'en fassent les défenseurs, l'information du maladereste donc parcellaire, voire lacunaire. Le problème ne se réduit pas aunon-respect de la réglementation, ou au défaut d'application du législatif dansla société civile (Lahoutte, 2000). Les obstacles sont essentiellement sociauxet culturels : la difficulté tient en partie au rôle social que chacun, dans larelation médecin/malade, s'attribue et attribue à l'autre. Les modifications quiont pu être observées ces dix dernières années dans la relation médecins-maladesn'ont pas évacué la relation inégale entre eux, en vertu de quoi chacun occupeun rôle social distinct. À l'intérieur de cette relation, chacun gère sa paroleet s'interroge sur les paroles de l'autre, et chacun cherche à acquérir unpouvoir à travers l'usage qu'il en fera. Certes, tous les médecins ne font pas de la rétention d'information et tous nementent pas, ni de la même façon, ni pour les mêmes raisons. Il est manifesteque certains médecins veulent œuvrer à l'information du malade — bien qu'ilssoient souvent peu conscients des motifs de leurs conduites comme de leurseffets — et se montrent soucieux de modeler leurs comportements en fonction desdispositions psychologiques du patient. Toutefois, cette recherche a permis demettre en évidence un mécanisme qui échappe à l'explication psychologiquehabituellement mobilisée pour rendre compte des difficultés de communicationentre médecins et malades et pour caractériser leurs conduites dans le domainede l'information .
L'information figure aujourd'hui parmi les principaux enjeux de la relation médecins-malades. Toutefois, en dépit de la loi du 4 mars 2002 relative aux droits des malades, peut-on dire que cette information est réalisée ? L'observation de consultations médicales en milieu hospitalier et le recueil des échanges verbaux entre leurs protagonistes permet de mettre au jour des pratiques de soustraction de l'information, voire de mensonge. On se propose de montrer ici quelles sont les limites de la communication d'informations et d'en analyser les ressorts, à distance des analyses habituellement mobilisées pour en rendre compte.
sciencesInfo_10-0298629_tei_1079.xml
termith-465-communication
À la suite de plusieurs affaires (sang contaminé, hépatite B, amiante ,. ..) et ,surtout, avec la médiatisation de la lutte contre le sida, les modalités du débatsur la santé et sur la médecine ont évolué : les malades et les associations sontdevenus des acteurs privilégiés des émissions de télévision, effaçant peu à peu laplace des professionnels de santé et des professionnels de l'information (Marchetti ,1997; Henry, 2000; Barbot, 2002; Dodier, 2003). Médecine et santédébordent alors du seul cadre des émissions médicales et donc de l'unique sphèrescientifique pour intégrer celle des émissions de société (Soulages, 2003 : 1). Sinous nous intéressons ici à l'évolution actuelle des émissions sur la santé, àtravers la thématique du cancer, c'est parce que celles -ci sont révélatrices à lafois d'évolutions sociales et de l'évolution structurelle de la télévision. En effet, la télévision est intrinsèquement liée à des évolutions sociétales largesqui rendent un discours dicible et recevable à un moment donné, en fonction demutations sociohistoriques profondes, et sur le long terme. Ainsi le cancer est-ilprésent dans la mémoire et les représentations collectives, d'une part, parce que lamaladie est inhérente à l'existence et, d'autre part, parce qu'elle touche ou atouché presque toutes les familles de près ou de loin. Contrairement à d'autresmaladies ayant bénéficié d'une exposition médiatique comme le sida ou le sangcontaminé, le cancer ne connaît pas d'événements déclencheurs, pas d'urgencesanitaire ni politique, pas de scandales politico-sanitaires, pas de population oucomportements à risque, et donc aucun phénomène « d'emballement médiatique ». Ainsiune première étude quantitative sur la base du dépôt légal de l'INA permet-elled'établir que la médiatisation du cancer existe depuis longtemps et sous une formebien établie. Excepté un pic en 1996, qui correspond conjointement au scandale del'Association pour la recherche sur le cancer (ARC), à la mort de FrançoisMitterrand, au livre du médecin de celui -ci, Claude Gubler, et à l'anniversaire de la catastrophede Tchernobyl, la présence du cancer ne laisse apparaître aucune fluctuationquantitative flagrante. Toutefois, depuis 2003, la présence des malades tend às'équilibrer avec celle des médecins et, les journalistes ne sont plus desjournalistes spécialisés. C'est pourquoi nous proposons ici une analyse qualitativeà partir d'un corpus réduit (2000-2005). Le choix des bornes chronologiques reposesur l'hypothèse que si le discours de Jacques Chirac le 14 juillet 2002, n'avait pasprovoqué d'évolution quantitative, le statut du porteur du message et l'instaurationd'un chantier présidentiel – donc d'une forme de priorité – avaient provoqué unemutation qualitative des discours sur le cancer. Du point de vue de l'évolution structurelle, et jusqu' à la fin des années 80, deuxtypes de représentations de la santé coexistent à la télévision : des émissionsspécialisées sur la santé et la recherche médicale, et des émissions desociété qui abordent la santé, comme d'autres thématiques, par son aspectcompassionnel, à travers des témoignages et des reportages (Delforce, 2004; deCheveigné in : Pailliart, 2005). Les unes ont pour objectifde diffuser des informations scientifiques, les autres se saisissent d'unethématique de santé pour la mettre en scène et susciter de l'empathie à travers laprésentation de récits de vie et de discussions en plateau. Depuis, un troisièmetype d'émission – les émissions de santé – s'est imposé par un glissement mutuel desémissions médicales vers les émissions de société. Cette évolution est due à unemutation structurelle du média lui -même et non à la thématique du cancer, celle del'émergence des témoignages renvoyant à la télévision de l'intimité (Mehl, 1996) ,celle de la promotion de la parole ordinaire en lieu et place de l'expert et parfoismême du journaliste (Cardon, Heurtin, 1999; Romeyer, 2004). Cette tendance ,plusieurs fois étudiée, est particulièrement adaptée à la thématique santé où ils'agit de faire part de son expérience sur un mode éminemment émotionnel, d'exposersa souffrance, et d'évoquer publiquement son intimité. Alors comment saisir en même temps et sans les opposer, les mutations liées àl'évolution sociale, celles liées à l'évolution structurelle des médias, et cellesspécifiques à la télévision, sur un sujet précis comme celui des formes de mise envisibilité du cancer à la télévision ? Si les différentes approches de la télévisionrestent souvent spécialisées (linguistique, sémiologique, économique, sociologique ,historique), nous prônerons une analyse du média dans son ensemble, c'est-à-dire àla fois comme une entreprise de production appelant une certaine rentabilité, commeun programme culturel et de divertissement, et comme un outil d'information. Ils'agit donc de dépasser l'analyse des faits linguistiques ou celle des images, dedépasser les analyses sur les effets supposés de la télévision, pour envisager lesdifférentes formes de discours de la télévision, discours entendu dans son acceptionla plus large, à savoir non limité à sa dimension linguistique. Selon nous, c'est lameilleure façon d'envisager le caractère protéiforme de la télévision et lesmultiples enjeux que revêt l'évolution de la santé à la télévision. Ainsiinscrivons -nous notre démarche dans une recherche de « mouvements de longue duréeportant aussi bien sur des processus de production que sur des processus deconsommation ou des mécanismes de formation des usages » (Miège, 1989 : 18-19) ,c'est-à-dire dans une volonté de faire émerger des « logiques sociales ». Cefaisant, notre objectif permet de dépasser l'opposition entre approche macro etmicro, entre phénomènes structurels et phénomènes langagiers. Plus précisément, auniveau macro, l'ancrage social et politique du cancer rend possible le discoursmédiatique sur la maladie et les malades, ainsi que sur les évolutions sociétalesqui en font évoluer les modalités. Ceci se vérifie au niveau micro par plusieursmutations particulières comme le rôle, l'évolution et la place du témoignage desmalades. Enfin, les enjeux de ces mutations se situent au niveau méso, là oùs'articulent les stratégies d'acteurs, les enjeux identitaires à la fois desmédecins, des journalistes, des journalistes spécialisés, des associations, etc. À travers l'analyse des émissions médicales et généralistes ayant abordé le cancerentre 2000 et 2005, nous évoquerons d'abord la permanence de deux formes de mise envisibilité de la santé : émissions spécialisées et émissions de société abordant lasanté. Si le genre « spécialisé » perdure, nous verrons comment, par une intégrationdes normes de fonctionnement des émissions de société – notamment les témoignages – ,il s'est vidé de sa substance. Il n'est plus alors qu'une étiquette permettant denommer et classer un produit dans une grille de programmation. Enfin, en devenant unproblème social, la santé semble quitter la sphère scientifique et médicale, etprovoquer l'émergence d'un nouveau type d'émission : les émissions de santé. Ceglissement sous-tendu par des enjeux importants n'est pas sans provoquer quelquesréactions. À l'aune des positionnements théoriques et méthodologiques décrits ,l'analyse du discours télévisuel – tel que défini supra – metainsi en évidence l'émergence d'un nouveau type d'émissions, révélatrices à la foisd'évolutions sociétales et d'évolutions structurelles du média. L'allongement de la scolarité, la multiplication des hebdomadaires généralistes ,l'attention croissante portée aux médias, la diffusion d'informations surl'internet ont contribué à créer un volume important de connaissances médicalesaccessibles. Actuellement, un utilisateur averti des médias peut se tenirinformé des récentes avancées thérapeutiques aussi bien qu'un médecin. Legénéraliste, s'il garde l'avantage de l'expérience et de l'accès aux circuitshospitaliers, tend à perdre cette singularité qui le posait en « homme del'art » face à son patient. Une enquête réalisée par le CSA en 2000, et réactualisée en 2002, établit que lesémissions scientifiques sont moins nombreuses que les émissions dedivertissement; et parmi les programmes scientifiques, les sujets médicaux sontrelativement moins nombreux que ceux de sciences humaines (les reportages àcaractères historiques et archéologiques chaque semaine sur Arte ou encore l 'Odyssée de l'espèce, par exemple). Relativement, carl'étude a montré qu'entre 1990 et 2002, l'offre globale d'émissions médicales (Le Journal de la Santé, le Magazinede la santé, Savoir plus santé, les émissionsspéciales sur le sida ou les maladies génétiques) a été multipliée par 4,4contre 3,5 pour les émissions abordant des sujets de sciences dites exactes (Savoir plus sciences, E=M6, Rayons X). Les émissionsmédicales sont donc plus présentes sur les écrans et les thématiques de santélargement plébiscitées, ce qui contribue à leur construire un domaine de plus enplus autonome parmi l'offre de programmes télévisés. En effet ,traditionnellement, les émissions touchant au corps humain bénéficient d'unebonne audience : Savoir plus santé, programmé à une heure relativement peu favorable ,le samedi en début d'après-midi sur France 2, rassemble plus de 3 millions detéléspectateurs. Le Magazine de lasanté sur France 5 connaît une moindre audience, mais c'est une émission quotidienne .Depuis deux décennies, la santé a surtout gagné les émissions de société : Ça se discute, C'est auprogramme, Zone interdite, etc. Ce sont ainsideux univers qui se côtoient à la télévision avec un partage des rôles bieninstallé. Ainsi, pour fournir des informations sur la santé, les émissions médicalesont-elles toujours fait appel à des spécialistes ou du moins à desprésentateurs investis d'une mission pédagogique : Pierre Desgraupes, le regard vissé à la caméra annonce : « Nous allonstout vous expliquer sur le fonctionnement de l'intelligence ». La formulemagistrale des années 60 résiste au temps tout comme le ton didactiqueauquel aucun des successeurs de ce pionnier n'a renoncé. Par exemple, Le Magazine de la santé du 17 janvier 2004 proposecet échange composé de propos explicatifs et de schémas : - 1 ' 49 Marina Carrère d'Encausse : « Il n'existe pas un seultype de cancer du sein et pour les distinguer il faut d'abord savoir commentest fait un sein. Le sein est fait de plusieurs composants ». - 1 ' 56Coupe transversale d'un sein et les explications de son fonctionnement .- 2 ' 09 ' ' Marina Carrère d'Encausse : « Et parmi les grands types decancer qui existent la grande majorité se développe à partir des cellulesdans ces canaux » (elle montre sur le schéma). - 2 ' 20 ' ' MichelCymes : « Alors des origines différentes mais tous ces types de cancerpeuvent revêtir des gravités différentes aussi parce que les cellulescancéreuses peuvent rester dans ces canaux. .. » (il pointe les canaux sur leschéma). Parfois, le programme télévisé montre les sondes, les perfusions, le sang, laréalité des soins, comme cette tumeur du sein exposée à la caméra, dans leMagazine de la Santé du 17janvier 2004. De même, de nombreuses images de matériel médical illustrentces émissions. Ces images sont rarement commentées, elles semblent sesuffire à elles -mêmes : leur rôle est de garantir le sérieux et le caractèrescientifique de la médecine. Sophie Aurenche, présentatrice de Savoir plus santé déclare d'ailleurs que « la forcede la télévision est de montrer et donc, une image d'un bloc opératoire, ouun schéma en 3 dimensions sont bien plus explicatifs que de longs discours ». Même succincte, une figuration animée estpréférable à un cliché photographique. Pour suggérer un processus évolutif ,le texte appuyé sur des dessins distingue des phases, énumère et représentesuccessivement des phénomènes simultanés. Ces programmes médicaux soulignentles avancées de la recherche et développent un discours qui se veutvulgarisateur. Celui -ci concerne à la fois les émissions médicales (Savoir plus santé, Le Magazine de la santé) et lesjournaux télévisés. Ainsi Jean-Daniel Flaysakier déclare -t-il : « Mon rôle est d'expliquer deschoses très compliquées, en étant le plus simple possible, et le tout dansun climat de pression car ce sont toujours des sujets d'actualité doncd'inquiétude. Et je dois le faire en très peu de temps à l'intérieur dujournal télévisé ». Les acteurs principaux de ces programmes sont donc desjournalistes spécialisés comme Sophie Aurenche, des journalistes-médecinstels Michel Cymes ou scientifique comme Jean-Daniel Flaysakier, ainsi quedes médecins ou personnels médicaux et des scientifiques. Pour appuyer leurspropos et mettre en valeur l'image de la science, les magazines médicauxproposent des reportages scientifiques où de multiples spécialistes sontinterviewés sur leur lieu de travail avec toujours un bandeau deprésentation en bas de l'écran qui rappelle leur appartenance auxprofessions médicales. C'est donc unevolonté d'encadrement didactique des sciences qui accompagne ces émissionsavec de nombreux schémas, des images en trois dimensions, etc. Autant decaractéristiques traditionnelles renvoyant à la mission d'information de latélévision qui cohabitent avec un autre univers, plus contemporain de latélévision mettant en scène témoignage et intimité. En effet, profondément intégré depuis au moins quatre décennies à l'universfamilial, le téléviseur se fond dans le décor quotidien et en partage labanalité. Une large gamme de programmes a été conçue pour renforcer cettebanalisation. Tel est le cas des émissions qui développent des servicespratiques sur des thématiques de santé et non des explications. Ainsi E=M6 ou C'est au programme abordent-elles des questions simples et sous un aspect généralementpragmatique. La médecine tient une large place dans ce genre d'émissions .Même Savoir plus santé, sans doute pour dédramatiserson sujet, se construit à partir de problèmes précis auxquels sont apportésdes réponses brèves et claires. Ces émissions de service s'apparentent à cesmagazines de presse écrite de conseils (Santémagazine par exemple) qu'on achète parce qu'ils fournissent desrecommandations utiles. C'est ce qu' Éric Giacometti appelle « faire de labobologie », expression qu'il utilise pour qualifier les émissions de santéà la télévision. Élément quelconque du milieu familier, la télévision joue la complicité avecl'univers familial grâce à ces émissions de services. C'est en partie par saproximité avec les préoccupations des téléspectateurs que la santé à latélévision a progressivement gagné l'ensemble des magazines de société ,passant ainsi de l'univers spécialisé des émissions médicales à une mise envisibilité publique dans les émissions de société diffusées en prime time. Cependant, d'autres raisons ont encouragécette prégnance des thématiques de santé à la télévision : l'émergence de laparole ordinaire, d'une part, et, la mise en avant du malade, de sasouffrance et de ses difficultés, d'autre part. Ce processus renvoie à desévolutions sociétales qui sont relativement bien connues pour plusieursmaladies. Quelques-unes des associations de lutte contre le sida ontdéveloppé un militantisme passionné, tourné vers le malade et ses problèmeset cela aurait contribué à l'émergence de la parole ordinaire sur lesplateaux, celles des malades et des victimes. Le Téléthon pour les maladies génétiques a également exposé au plusgrand nombre les difficultés quotidiennes des malades (voir Walter, 1998) .Pour le cancer, la manifestation que la Ligue a organisée en 1998 sous letitre « États-Généraux » a joué le rôle de révélateur de cette parole desmalades. Suivant ce mouvement, les malades du cancer vont avoir eux aussiune visibilité accrue dans les émissions de télévision de société .Visibilité renforcée par l'annonce présidentielle élevant la lutte contre lecancer au rang de chantier prioritaire. Toutefois, si les associations demalades du sida ont fait évoluer les formes de militantisme et lesreprésentations de la maladie, les associations de lutte contre d'autresmaladies n'ont pas systématiquement adopté ce fonctionnement (Barbot, 2002) .D'ailleurs, Sophie Aurenche le souligne en notant que « la lutte contre lecancer n'a pas interpellé de ministres ou mis de préservatif sur un monument[ une des actions phare d ' Act up sur l'Obélisque dela place de la Concorde à Paris ]. .. ». Elle ajoute : « Après l'épisode sida ,ce sont les médias qui se sont imposés, qui se sont autorisés à aller voirplus de malades parce qu'on avait compris sans doute qu'ils avaient uneforce et qu'ils pouvaient amener quelque chose ». Ils'agit donc moins d'une modification des modalités de fonctionnement et decommunication des associations que d'un changement dans les pratiques desmédias eux -mêmes. La spécificité du support télévision entraîne les émissions de société à sesaisir des questions de santé et à profiter ainsi de l'émergence de laparole ordinaire, mise en évidence par de multiples travaux (Mehl 1996 ;Dayan, Katz 1992; Cardon, Heurtin 1999), et de l'empathie provoquée par lamultiplication des témoignages de malades. Ces émissions de société ontainsi multiplié les témoignages et les reportages s'appuyant sur ce discoursémotionnel, porteur d'audience. En définitive, c'est la santé et la sciencedans son ensemble qui sont mises en spectacle à travers un raffinement de lamise en scène qui s'éloigne des canons traditionnels du discoursd'information et de la vulgarisation scientifique. Dans ces émissions, lesscientifiques et les médecins ne sont donc plus les « vedettes », ils n'yont plus la place de l'expert et ont tendance à disparaître des émissions desociété, au profit des malades. Par exemple, Jean-Luc Delarue a consacrétrois émissions au cancer en quatre ans. Sur sonplateau, aucun médecin n'est présent en tant qu'expert. Tout juste deuxmédecins sont-ils venus en fin d'émission donner un point de vue. L'absencedu monde médical est également flagrante dans les reportages. Ainsi, lors dunuméro de mars 2001, intitulé « Avoir une maladie grave à 20 ans », sur lesquatre reportages, aucune interview de médecin, aucune prise de parole dechirurgien, ou autre spécialiste. Seule allusion au monde médical, à deuxbrefs instants, la caméra nous montre la réalité du traitement. Toutefois ,c'est le malade qui s'administre lui -même ses injections sans aucuneprésence de personnel médical. En règle générale, dans ces émissions desociété, le présentateur a pour tâche d'animer le plateau, de convaincre lesspectateurs qu'ils doivent se montrer attentifs, et d'amener les invités às'exprimer. Sur des thèmes sensibles, comme le cancer, les témoignages sontlargement suffisants pour combler le temps d'antenne, d'autant que ceux quiparlent, emploient presque toujours les « bons » mots et recréent, à partirde leurs expériences, une spectacularisation de la maladie et des soins .Ainsi, Sophie Aurenche, tout en émettant quelques réserves sur l'émission deJean-Luc Delarue, s'est trouvée « très émue par les témoignages du numéro deÇa se discute sur le cancer dont elle était le grand témoin ». Qu'elles réunissent des téléspectateurs sur le plateauou qu'elles comportent de courtes séquences de reportage, les émissions surla santé révèlent dans le public une assez large information et, un désirfréquent de se prendre en charge. De plus, le public affiche une capacité àtirer les leçons qu'apporte une expérience personnelle de la maladie. Ainsi ,dans C'est au programme, une malade témoigne : « Audébut on joue les braves petits soldats et puis on est tellement infantilisépar le corps médical qu'on n'ose pas poser les questions ». Les formes de médiatisation de la santé dans les grands magazines de société( Ça se discute, Zone interdite, C'est au programme ,Contre courant) produisent une image de souffrance et s'appuientsur l'empathie provoquée par les témoignages. Ces programmes sont portés pardes animateurs (parfois animateur-producteur), non spécialistes desquestions de santé (Sophie Davant, Jean-Luc Delarue, etc.), et des malades. Ici, iln'est pas question de médecins ou d'experts. Les émissions sont construitessur des reportages portant sur la vie quotidienne des malades et sur destémoignages poignants en plateaux. Dans ce type d'émission, le témoignage avaleur d'argument contrairement aux émissions médicales où ce sont lesimages quelles soient de soins, d'opérations ou de spécialistes quiillustrent le discours des journalistes et des médecins. Et ce témoignage nepeut pas être contesté ni remis en cause, le malade étant le seul à avoirvécu cette expérience : il fait donc autorité. Le témoin-malade vientexposer son expérience personnelle qui devient alors une expertise (celle desa propre expérience que nul autre ne peut partager ni discuter) et celasuffit à faire preuve. C'est l'arrivée de ce tiers qui bouleverse lastructuration traditionnelle de la santé à la télévision, en provoquant uneréaction des producteurs des émissions médicales. Si les émissions de société semblent avoir pris le pas sur les émissionsmédicales en terme d'audience, une réaction s'opère qui conduit ces dernières às'approprier des procédés jusque -là spécifiques aux émissions de société, etnotamment l'utilisation du témoignage. Cette généralisation rend la distinctionentre émissions médicales et émissions de société de plus en plus difficile .Pour autant, les émissions médicales sont-elles en train de disparaître dusecteur audiovisuel français ? Après avoir analysé l'émergence de cestémoignages dans les émissions médicales, nous proposerons une étude comparativedu rôle des témoignages dans les émissions médicales et celles de société. Ainsiétablirons -nous que ces témoignages sont révélateurs de l'émergence d'une formeparticulière d'émissions que nous qualifions d'émissions de santé. Ces émissionsne sont plus tout à fait spécialisées, mais pas non plus des émissions desociété généralistes. L'utilisation accrue des témoignages se mesure à travers l'évolution de Savoir plus santé : au départ ,avec Martine Allain-Régnault et François de Closets, un médecin était présentsur le plateau et personne d'autre. C'est lui qui détenait le savoir et laparole, et les journalistes apparaissaient essentiellement comme desprésentateurs, distribuant les tours de parole, annonçant les reportages .Puis, à la fin des années 90, l'émission présentée par MartineAllain-Régnault et Laurent Broomhead donnait l'occasion à des journalistesen plateau d'interroger un médecin. Depuis l'arrivée de Sophie Aurenche en2004, aux côtés de Laurent Broomhead, deux médecins sont présents sur leplateau; ils discutent et débattent entre eux, mais aussi avec desjournalistes et le public, « des vrais gens qui posent des questions » ,précise Sophie Aurenche. Parce que les médias sont enperpétuelle recherche d'audience, et parce que les journalistes sont àl'écoute des mouvements sociétaux, les émissions médicales se sont donctournées vers les témoignages des « vrais gens ». Cependant, la plupart dutemps, il s'agit d'un témoignage-illustration qui n'a pas valeur d'argument .Il vient illustrer l'argument donné par un autre, journaliste ou médecin, etil est noyé dans les images de matériel médical. De plus, la présence plusimportante des malades dans les émissions médicales semble être plusquantitative que qualitative. Les malades sont invités à participer auxémissions mais ils sont presque systématiquement relégués à un statut defigurants, venant appuyer les propos d'un spécialiste. D'autres continuent àparler pour lui : journalistes, animateurs, médecins ou associations. Ainsi ,lors du Magazine de la santé du 26 avril 2003 ,consacré pourtant à l'expression des malades (« Quand les femmes prennent laparole »), les journalistes ont bénéficié de 26,6 % de temps de parolependant le dossier, contre 40,1 % pour les experts (médecins et sociologue) ,et seulement 15,8 % pour les malades. Dès lors comment analyser le rôle deces témoignages ? Si le développement de la parole ordinaire à la télévision a été étudié à denombreuses reprises, la notion de témoignage reste, elle, à approfondir. Eneffet, « l'émergence des témoignages dans les médias a partie liée avec unemobilisation d'acteurs individuels et collectifs d'origine hétérogène [et ]on ne dispose pas d'une théorisation de ce processus qui intégreraitpleinement la dimension médiatique » (Walter, 2005 : 8). Les témoignages demalades à la télévision posent un problème sémantique particulier : ilsconstituent à la fois un acte de langage, une prise de parole publique, etune illustration par l'image (celle de la personne se racontant) d'une ligneéditoriale plus large (celle de l'émission où le témoin s'exprime). Parailleurs, ce témoignage des malades est une parole ordinaire non fondée surla maîtrise de tel ou tel savoir mais sur une volonté individuelle des'exprimer; elle renvoie également à la notion de témoin c'est-à-dire à unepersonne venant faire part d'une situation dont elle a été le témoindirect; enfin, ces témoignages sont en plus des récits biographiques :c'est leur expérience personnelle de la maladie et leur combat contrecelle -ci sur plusieurs années, vécue au jour le jour dont ils viennent fairepart. C'est pourquoi le témoignage ne prend sens qu'intégré à une analysedépassant le cadre énonciatif, alliant le contenu visuel aux contextes deproduction et de réception. Le rôle des témoignages dans les émissionsmédicales n'est compréhensible qu'en prenant en compte, d'une part ,l'évolution du discours sociétal sur la santé et, d'autre part, les ligneséditoriales des différentes émissions. Les interventions télévisées des téléspectateurs ne sont induites ni par lehasard ni par le rituel des émissions de plateau. L'assurance dont ils fontpreuve et les doutes qu'ils manifestent sont liés à un profondbouleversement dans l'appréhension sociale des problèmes médicaux. Enparlant de la maladie, les téléspectateurs ne se bornent pas à raconter desexpériences individuelles : ils traduisent également un souci collectif, ilsrendent manifestes les curiosités et les craintes qui parcourent l'ensemblede la société, c'est-à-dire qu'ils conjuguent, dans leurs témoignages, cequ'ils ont observé chez eux, dans leur milieu privé, et ce qui, constituantune préoccupation générale, relève de l'espace public. Sans doute leproblème de la santé est-il très particulier car il amplifie la part del'investissement personnel dans l'écoute télévisuelle. En parlant de leurcorps, les téléspectateurs expriment à la fois un point de vue individuel etune préoccupation collective. Ce qui importe est moins l'évolutionpsychologique des individus que le contexte dans lequel se développe lacommunication médicale : « l'universalisation du particulier » (Chartier ,1990) est consacrée par le témoignage télévisuel. Du côté de la télévision, les émissions médicales se sont données pourobjectif d'intégrer la parole des malades à leur dispositif. Il s'agit de sedoter à la fois des caractéristiques de l'information et des spécificités dela vulgarisation scientifique. C'est pourquoi la science et le scientifiquesont mis en avant : neuf personnes du corps médical sont ainsi à l'antennelors de l'émission du 4 septembre 2004. Ces émissions diffusent une imagepositive de la recherche scientifique avec, par exemple, des titresd'émissions tels que « Cancer : nouvelles victoires ». Les témoignages s'alignent sur cette ligne éditoriale résolument optimiste :« J'ai été extrêmement bien pris en charge et je me suis retrouvé dans uncentre ultra performant ». Les malades viennent témoignerde leur guérison, de leur prise en charge à temps et de leur confiance en lamédecine. Contraste singulier avec les témoignages des émissions de sociétémettant la douleur et l'échec en avant. Dans ces dernières, le ton est plus « polémique ». Le malade qui s'exprimesur le plateau peut mettre en doute les capacités des généralistes ,souligner leurs hésitations et leurs erreurs, avec l'appui bienveillant del'animateur. Ainsi, dans C'est au programme, SophieDavant coupe -t-elle la parole à un médecin et déclare -t-elle : « Vous ditesqu'il ne veut pas entendre la vérité, ce n'est pas vrai...Vous [montre untémoin sur le plateau ], vous avez dit tout à l'heure que vous souhaitiezentendre la vérité. .. ». Certains n'hésitent pas à témoigner de leurdécision d'abandonner leur traitement comme ce fut le cas dans chacun destrois numéros de Ça se discute consacrés au cancer .Ce statut du témoignage découle là aussi des caractéristiques de cesprogrammes : son utilisation pour créer de l'empathie. Les témoins y sontsoigneusement choisis. Par exemple, le plateau de Ça sediscute se compose des témoins représentant toutes les situationspossibles sur un sujet donné. L'émission du 16 novembre 2005 présente unenfant de 5 ans en train de se battre contre la maladie, une jeune fillemannequin qui a été malade et qui s'en est sortie, un homme de 42 ans qui avécu trois rechutes en 15 ans et qui n'ose pas s'afficher en rémission, unefemme qui a accompagné son mari jusqu' à la mort, et enfin une femme de 50ans qui a eu un cancer du sein et qui est déprimée depuis. Pour lesémissions de société, il s'agit de mettre la médecine en débat et non del'expliquer. Le discours est plus critique, les hiérarchies remises enquestion, les experts écartés. Et donc le témoignage y est totalementdifférent : il a ici valeur d'argument dans la ligne éditoriale del'émission. Il n'est plus une simple illustration, c'est sur ce témoignageque repose le message produit par l'émission. Ce n'est plus la preuve parl'image mais par le témoignage, sans remise en question ou en discussion surle fond de ceux -ci. La généralisation des témoignages est donc effective. En outre, d'autresprocédés se sont généralisés comme l'utilisation de moniteurs enarrière-plan, ou encore la multiplication des « micro-trottoirs ». Lesémissions médicales se rapprochent ainsi de plus en plus des émissions desociété par l'intégration des témoignages, alors que les émissions desociété n'ont jamais été aussi proches des premières en parlant de plus enplus de santé : l'émission de santé est donc bien un genre émergeant, quitranscende les oppositions traditionnelles. Elle est marquée par l'ouverturede la sphère médicale à un acteur nouveau, le malade, par l'effacementrelatif des scientifiques et des experts, et l'utilisation du témoignage enplateau. En effet, la santé est devenue un problème collectif dépassant leseul cadre des spécialistes. Bien plus, un espace social de la santé est encours de construction : moins soumis aux règles purement scientifiques etplus ouverts sur les conséquences sociales de la maladie. Nous pouvonssynthétiser les caractéristiques de ces émissions dans le tableausuivant : Nous l'avons vu, ces témoignages n'ont pas le même statut :témoignage-illustration dans les émissions médicales, il devienttémoignage-argument dans les émissions de société, et ce en raison ducontexte de production et des lignes éditoriales des ces émissions. Ensomme, un double discours sur la santé coexiste. D'un monde médical auxmains des spécialistes, la télévision diffuse l'image d'une médecine moinssûre d'elle, plus à l'écoute des malades. Plus tout à fait scientifiques ,pas totalement émissions de société, les émissions que nous appelons desanté sont en train d'inventer un nouveau type de programme, ce qui ne vapas sans créer quelques tensions. Ici, la télévision est un révélateur de ce glissement du positionnement de lasanté dans l'espace public. Il faut élargir l'analyse pour en saisir tout lesens. Jusque vers le milieu du xx e siècle, souffrir était une disgrâce privée dont on ne parlait qu'avec la plusgrande discrétion, qu'on cachait même comme une sorte de faiblesse (Laplantine ,1986). L'acte médical était encore un tête-à-tête entre le praticien et sonpatient. Le changement majeur réside en ceci que la santé, autrefois souciindividuel, est devenue un problème collectif. Affaire désormais publique, ledébat sanitaire est ouvert, de la même manière que pour les transports, lafamille ou l'éducation. Les médias sont contraints de lui accorder une placegrandissante parce que les interventions politiques se multiplient dans cedomaine et parce que les patients, leur entourage, et la société désirent êtreinformés et participer aux débats. Si cette légère inflexion des caractéristiques des émissions médicales paraîtanodine, elle révèle en fait des enjeux multiples pour le positionnement dela santé dans l'espace public : la légitimité à s'exprimer sur desthématiques de santé évolue, et ces mutations révèlent plusieurs tensions .Au niveau politique, des enjeux de société sont latents autour de cettelégitimité de parole dans l'espace public, de l'émergence de nouveaux thèmessociaux liés à la maladie (perte d'emploi, difficulté de prêt) et de laconstitution d'un espace public de débat sur la santé. Les émissions detélévision accompagnent un mouvement sociétal qui les dépasse. Les citoyensne peuvent plus être considérés par les différents pouvoirs – publics ,industriels ou politique – comme cet individu passif devant les choix desociété qui lui sont proposés, que cela concerne l'environnement, la scienceou la santé. Cette acuité des citoyens vis-à-vis des sujets de santé s'estvue renforcée par de multiples événements apparaissant comme des scandales( Marchetti, 1997; Henry, 2000; Barbot, 2002; Dodier, 2003) : lesscientifiques et les experts mais aussi les politiques ont été remis encause. L'intervention du Président de la République désignant le cancercomme chantier prioritaire indique également une réaffirmation des questionsde santé publique comme relevant de ses prérogatives : « C'est un choixd'affirmation politique de la place de la santé publique dans la viepolitique au sens large ». Après les misesen cause de la responsabilité des hommes politiques (sang contaminé ,amiante, canicule ,. ..), nous assistons à une reprise en main des affairesmédicales par la sphère politique, et cette dernière le fait savoir et lemontre. Ainsi Jean-François Mattei, outre 100 Minutes pourconvaincre – un rendez -vous politique – a -t-il également bénéficiéd'un Magazine de la santé spécial pour expliquer sapolitique. La maladie met en jeu des rapports de pouvoir qu'elle exprimedans les corps à travers les différences face aux risques de l'existence ouaux possibilités de se soigner, qui sont autant de façons d'inscrirephysiquement l'ordre social. Elle les révèle dans l'intervention de ceux quel'on crédite de la capacité de guérir, mais aussi dans les relations quis'instaurent entre les professions de santé et les pouvoirs publics. Elleles dévoile enfin dans la recherche de réponses collectives dontl'efficacité représente toujours un test pour l'autorité (Fassin 2000). Au niveau de la recherche ensuite, la maîtrise de l'information médicale estaussi source d'enjeux pour la sphère médicale avec le partage des rôles ,mais aussi de la visibilité et des fonds entre chercheurs et médecinspraticiens. Les enjeux économiques entourant les grands laboratoires et lesdécouvertes susceptibles de donner lieu à des brevets, rendent la maîtrisede l'information médicale et de sa médiatisation tout à fait essentiellepour bon nombre de centres de recherche. La maîtrise de l'informationmédicale permet ensuite une reprise en main de la recherche sur les malades .Ces derniers avaient atteint une grande visibilité via les associations de lutte contre le sida ou après les ÉtatsGénéraux de la Ligue en 1998. Une place telle que le Président de laRépublique les plaçait « au centre des préoccupations ». La plus ou moins grande prise en comptedes malades et de leur parole finit d'ailleurs par scinder les associationsentre celles tournant leurs efforts vers l'aide à la recherche, et celles seconsacrant désormais aux malades et aux aspects sociaux de la maladie. Lamédiatisation a eu tendance à se focaliser sur ces dernières associations endélaissant les plus traditionnelles, celles tournées vers l'aide à larecherche qui apparaissent subitement « vieillottes » et décalées del'aspiration sociale comme du chantier prioritaire. Dans ce cadre, le plancancer et la création de l'Institut national du cancer seraient unetentative de reprise en main des chercheurs. Il s'agit de fédérer lesefforts pour mieux les canaliser. D'ailleurs, Jean-François Mattéi déclare :« En matière de santé publique, il faut savoir recentraliser. C'est l' Étatqui doit décider de ce qu'il convient de faire et les opérateurs sur leterrain le feront ». Au niveau du média télévision, la recherche d'audience met en concurrence lesémissions de société avec les émissions médicales; des tensionsprofessionnelles entre journalistes et animateurs, et entrejournalistes-médecins ou spécialistes et journalistes non spécialistesvoient le jour. La montée en puissance de la parole des malades a entraînéun certain leadership en matière d'audience desémissions de société, et donc de leurs animateurs (Jean-Luc Delarue, SophieDavant. ..), sur les émissions médicales et leurs journalistes spécialisés( Sophie Aurenche, Jean-Daniel Flaysakier, etc.). Ces derniers ont connu unfort développement depuis les années 70 et se sont structurés (Marchetti ,2002) sous l'effet de la complexité des questions liées à la santé .Cependant, devenant un problème plus social que médical, la santé vit unélargissement des questions et des thématiques en débats et donc unemultiplication des acteurs et des discours. L'alignement des émissionsmédicales sur les émissions de société peut être interprété comme unetentative des journalistes spécialisés pour affirmer leurs prérogatives surles animateurs. Il existe en effet un certain « dénigrement » des émissionsde société par les journalistes spécialisés. Ainsi Sophie Aurenchedéclare -t-elle ne « pas faire le même métier » queJean-Luc Delarue. Pourtant, elle n'a pas hésité à être le grand témoin d'unede ces émissions le 16 novembre 2005. Au-delà de l'indice des tensionsrégnant dans ce champ professionnel, cette attitude révèle peut-être aussil'envie d'atteindre une plus grande visibilité pour la journalisteco-présentatrice de Savoir plus santé. Le présentateur se trouve dans la situation inconfortable de ne pas pouvoirparler de qu'il a vécu et de ne pouvoir faire état d'aucune compétenceclinique. Le déséquilibre est d'autant plus évident que de nombreusespersonnes non liées au corps médical sont capables d'exprimer un point devue personnel et maîtrisent suffisamment le langage médical pour élever leurintervention à un niveau général. Sauf à devenir le modérateur d'une tribunelibre, le présentateur doit faire appel à des représentants légitimes dudiscours global sur la pathologie, c'est-à-dire à des médecins pour lesémissions médicales et, à des témoignages de malades pour les programmes desociété. Au contraire des présentateurs, les médecins affichent le souci dela nuance et le désir d' être précis. Jusqu' à la fin des années 70, lesprofessions médicales ont joui d'une considération dont témoignent lessit-coms et feuilletons : des médecins, entourés du respect général, s'yposaient des cas de consciences et les résolvaient aux dépends, parfois, deleur carrière, telle la série Médecins de nuit. Après1980, la fiction est devenue moins lénifiante, les patients et lesinfirmières se sont mis à protester, les hôpitaux sont en difficulté, despraticiens cyniques en questionnement, comme c'est le cas dans la série Urgences. Plus globalement, la façon dont les médias parlent des maladies, des traitements ,des dangers, reflète la perte de prestige des médecins et la prégnance de lanotion de risque : de 2000 à 2005, 30 % des articles du journal Le Monde consacrés au cancer, l'ont fait sous l'angle durisque. Si une pandémie préoccupe particulièrement l'opinion, il devientnécessaire d'en parler là où s'opère la communication collective, donc enpremier lieu à la télévision. Devenues préoccupations collectives, maladies etguérisons occupent une place croissante dans l'échange quotidien, les propostenus à leur sujet, les nouvelles qui circulent amplifient la rumeur qui lesentoure et diffusent un savoir parfois rigoureux, parfois moins, qui, en toutétat de cause, est une donnée fondamentale de la culture contemporaine. La diffusion du savoir médical et la banalisation du discours sur la santérésultent de nombreux facteurs techniques, scientifiques, économiques etculturels qui ont été relayés par les médias mais se seraient sans doute aussibien développés sans eux. Le média télévision joue son rôle dans un ensemble detransformations dont il n'est pas le moteur. Si elle ne constitue pas le tout del'information, elle participe davantage que n'importe quel autre support à laconstruction de représentation de la maladie comme du « bon » état de santé. Lesreprésentations qu'elle diffuse ne lui appartiennent cependant pas. Elle lesemprunte aussi bien à la partie de son public qu'elle fait intervenir sur lesplateaux qu' à l'hôpital, aux laboratoires ou aux décisions politiques de santépublique. Forts d'un savoir acquis pour une part grâce à l'école, la presse, lecommerce de la santé mais aussi dans leur milieu domestique, les spectateursutilisent la télévision comme lieu de parole, ils viennent y confronter leurexpérience à celle des autres. Face à eux, les médecins défendent leur prestigeen donnant des assurances scientifiques, tout en se pliant au feu des critiqueset des questions. Parce que la santé est un souci collectif et parce que lesinterrogations se multiplient à son sujet, le balancement entre sphère publiqueet sphère privée, caractéristique de la télévision, intervient de façon évidenteau cours des émissions abordant les thématiques de santé. Comprendre ce que les formes de visibilité de la santé à la télévision nousapprennent sur les mutations à l' œuvre dans ce secteur, nécessite donc de varierles niveaux d'analyse (Walter, 2005). En effet, il serait vain de chercher dansle dispositif médiatique une explication. L'étude de la parole ordinaire et destémoignages serait également insuffisante; mais, s'en tenir à une analysesociohistorique et sociopolitique de la santé serait tout aussi décevant. Enfait, il faut accepter d'embrasser chacune de ces dimensions pour cerner lacomplexité des mutations en cours et leurs conséquences. Contrairement au sida ,comme a pu le montrer Dominique Marchetti, le cancer n'est pas devenu unproblème public : c'est un problème public ancien qui est en train d'évoluer enproblème social. En effet, le cancer a toujours été au cœur de l'action et del'attention publiques. Ce qui est nouveau, c'est sa « socialisation », notammentà travers les grands médias de masse. Ainsi trois niveaux d'analyse sont-ilsimbriqués : au niveau le plus général, nous avons repéré les interactions entreplusieurs facteurs. Les dynamiques de la mise en visibilité de la santé dansles médias font appel à différentes approches historiques (science ,information scientifique et sa diffusion, médias, émergence de la paroleordinaire, espace public, eux d'acteurs). C'est ainsi que nous avons retracél'évolution de la présence de la santé à la télévision, dans notre premièrepartie; au niveau le plus particulier, le plus précis, nous nous sommes intéresséeau dispositif médiatique et à l'utilisation du témoignage. Avec celui -ci, ils'agit d'apporter de la présence corporelle. C'est une façon de proposer auspectateur des points d'ancrage identificatoires qui leurs soient infinimentpersonnels; ce que nous avons montré dans notre deuxième partie; entre les deux, le niveau intermédiaire, le plus difficile à appréhender ,les enjeux de ce positionnement de la santé et les cristallisations quis'opèrent entre les différents acteurs font émerger les cadresinterprétatifs, objet de notre troisième partie. La médiatisation de la santé à la télévision s'intéresse dorénavant aux aspectssociaux de la maladie et non plus seulement aux aspects strictement médicaux .L'émergence d'un nouveau type d'émissions que nous avons qualifié « de santé »est révélatrice de rapports de forces importants entre plusieurs professions .Ces émissions de santé sont un compromis entre des acteurs dont une part chercheà maintenir une position dominante, une autre essaie d'accéder à ce statut etd'autres enfin qui font leur entrée dans la médiatisation de la santé. L'analysede la santé à la télévision à travers ces trois niveaux, révèle ainsi lesconflits autour de son positionnement dans l'espace public. La prégnance desquestions de santé dans l'espace public et la demande d'informations ontprovoqué une obligation de communiquer et donc une mise en visibilité croissanteselon des modalités moins scientifiques que sociales .
La place de la santé à la télévision française a évolué. Un temps cantonnée aux émissions spécialisées, la thématique a lentement irradié les émissions de société, puis toute la grille de programmation. La santé a ensuite quitté la sphère scientifique et médicale, ce qui est analysé ici à travers l'utilisation et le rôle des témoignages. Ces mutations sont révélatrices de deux phénomènes: d'une part, des enjeux socioprofessionnels tant pour les médecins que pour les journalistes, mais aussi pour les hommes politiques, les malades et les associations ; d'autre part, du phénomène de « socialisation » de la maladie notamment sous l'action des médias de masse.
sciencesInfo_10-0245714_tei_1097.xml
termith-466-communication
Le temps où la radio était le seul média audiovisuel domestique n'est plus. Latélévision s'est implantée durant la seconde moitié du XX e siècle dans lesfoyers et l'environnement est maintenant multimédiatique. On peut dater de lapremière moitié des années 60 le renversement définitif de l'audience radiophoniquedu soir au profit de la télévision (Méadel, 1999). Un second changement adviendraplus tard, quand la radio cédera aussi sa place du « midi ». Nous sommes maintenantdans un troisième temps où, toutes catégories confondues, la radio se définit nonseulement comme média du matin, à l'exception de certaines radios jeunes, maisaussi, semble -t-il, comme média relativement alternatif de la télévision .L'existence de l'internet modifie en partie les usages de la radio, en termesd'accès à l'information sur le monde et la musique et d'écoute en différé. Pour autant, l'audience de la radio demeure en grande partie ignorée de la sociologiealors que les données statistiques existent. Les plus souvent citées secaractérisent par leur niveau d'agrégation, très élevé, en termes de chaînes et depratiques. Elles portent souvent sur le média en général (radio, télévision, etc.) ,et non pas sur telle chaîne ou station en particulier, ainsi que sur des taux et desdurées d'écoute assez grossiers. C'est le cas des enquêtes de pratiques culturellesou d'emploi du temps des Français issues des institutions publiques qui renseignentsur les pratiques médiatiques en général (Donnat, 1998; Coulangeon, 2003; Donnat ,Larmet, 2003; Muller, 2005). Quant aux quelques analyses statistiques qui existent ,elles ne portent pas sur le détail de la sociologie des publics. Dans The Mass Audience, James G. Webster et Patricia F. Phalen (1 996) abordent la mesure de l'audience via les comportements de consommation médiatique, notamment les « effetsde succession » (inheritance effects) et les « effets derépétition » (repeat viewing). Leur analyse ne porte pas surune sociologie ou une sociographie des publics de la télévision aux Etats-Unis. Ceciétant, ils notent le processus de « fragmentation » et de « polarisation », à savoirla « tendance des audiences à être composée de fans et de non-téléspectateurs » entélévision (Webster, 2005). Les sociologues et les statisticiens ne se sont jamaispenchés sur une analyse fine de la relation entre type d'auditeurs et type deradios. En dehors des enquêtes de pratiques culturelles, on ne connaît guère enFrance que les taux dits « d'audience cumulée » (soit le nombre de personnes ayanteu un contact durant une journée), et de parts de marché que la société Médiamétriemesure et diffuse dans la presse depuis le milieu des années 80 (Méadel, 2002). Desréflexes de morgue et de suspicion, qui n'ont pas lieu d' être au regard de larigueur des enquêtes de Médiamétrie, que ne feraient qu'égaler les chercheurs ,semblent avoir empêché jusqu' à maintenant les spécialistes de tirer de ces donnéesce qu'elles peuvent apprendre sur une pratique aussi méconnue et importante quel'écoute de la radio aux enjeux sociologiques décisifs (Glevarec, 2005; 2007a). En effet, les sociologues doivent faire face à une objection récurrente qui concernela nature de l'audience : son rapport aux « données brutes » d'une part, et à la notion de public d'autrepart. Après avoir argumenté en faveur de l'audience comme forme positive dedéclaration, nous analyserons la structuration des pratiques radiophoniques, puis laconfronterons aux attendus et analyses anciennes de l'audience de la télévision .Ici, nous nous intéressons aux formes de l'écoute radiophonique en direct et à lastructure des auditoires. L'enquête dite Panel de Médiamétrie qui servira de base d'analyse est uneenquête par carnet d'écoute sur trois semaines, auprès d'un échantillonreprésentatif de la population française. Médiamétriedemande aux panélistes de remplir un carnet d'écoute hebdomadaire (renvoyé àla fin de chaque semaine), qui croise en ligne la journée divisée en quartsd'heure et en colonne I 8 radios nationales, leslocales de Radio France, celles du groupement des Indépendants et de IPFrance, Radio Classique (d'après leur audience quand elle estsignificative selon les Médialocales urbaines de Médiamétrie), et les autresstations entendues dans la région de l'enquêté. La base de données exploitéecomprend, quant à elle, 1 8 stations nationales, lesstations locales de Radio France, « nationalisée » en une catégorie uniqueFrance bleu, et une catégorie intitulée « autres radios » regroupant l'ensemble des radios( principalement locales) qu'un panéliste pour avoir déclarées durant letemps de l'enquête. En 2000 et 2001, 9 985 individus ont rempli ce carnetauto-administré sur toute la durée de 23 jours. L'enquête a été menée endeux vagues : une première du 9 au 29 octobre 2000, une seconde du 1 5 janvier au 4 février 200 1 .Les deux périodes sont ensuite compilées pour former trois semainesmoyennes. À la différence de la « 126 000 », l'autre enquête menée en continue par Médiamétrie ,qui consiste à interroger par téléphone tout au long de l'année environ I 26 000 individus sur leur écoute de la veille ,l'enquête « Panel sur 21 jours » comprend moins de personnes enquêtées etune méthodologie qui a ses propres limites, mais possède le très grandavantage d' être une enquête saisissant la pratique temporelle de mêmesindividus. De plus, son échantillon de près de 1 0 000personnes est suffisamment grand pour permettre des tris fins sur desaudiences ou des auditoires de faible taille. L'audience, surtout télévisuelle, a reçu des critiques d'au moins troissortes (Glevarec, 2007b) : une critique méthodologique, le lien de la mesureà la pratique réelle est incertain, l'audience est ainsi artefactuelle( Hartley, 1988); une critique sociologique : l'audience n'est pas un public( Dayan, 2000); enfin, une critique herméneutique : la mesure d'audience nedit rien du sens de la consommation (Ang, 1991). Nous ne développerons pasces critiques, renvoyant aux auteurs précités et à nos travaux (Glevarec ,2007b). Mais nous mentionnons la critique du double manque de l'audience parrapport au réel et au public. Antoine Hennion et Cécile Méadel (1986; 1988 )ont montré que les auditeurs réels d'une radio étaient insaisissables, queles variables statistiques des taux d'audience de Médiamétrie étaient desmédiations parmi d'autres de figures d'auditoires à jamais « représentéspar. .. » des chiffres d'audience, du courrier des appels téléphoniques (voiraussi de De Bussière, é tal. ,1994). Dans notre cas, cette position n'est plus tout à fait défendablepuisqu'elle reviendrait à annuler notre prétention à la descriptionsociologique et aux assertions argumentées. Mais il demeure que les contactsdu Panel ne sont pas des données brutes au sens d'unités de base que l'onaurait ramassées en se penchant et qui seraient exonérées de tout processusde construction ou d'interprétation, ou exemptes de tout supportinstitutionnel (Searle, 1995). Une grille de codage telle que la proposel'enquête Panel pré-structure un certain nombre de faits, nécessite uneréflexivité et entraîne une suspension des routines. Par ailleurs ,l'audience reçoit une seconde objection sur le plan méthodologique : mesuréestatistiquement, elle serait un mauvais outil d'appréhension des publics ,c'est-à-dire de l'engagement de récepteurs se reconnaissant comme tels ;elle serait simple effet de comptage. Tout d'abord, notons que l'on adresseà l'audience des critiques qu'on ne fait jamais aux enquêtes de déclarationsde pratiques culturelles (Donnat, 1994, 1998). On ne dit jamais que le tauxde spectateurs du théâtre en France ne fait pas plus de public que ceux del'audience d'un mois de telle émission télévisée. Pourtant on fait comme si .Enfin, et de façon plus décisive, nous avons défendu que le « contact » quemesure une enquête d'audience, quelle que soit sa méthodologie (déclaration ,carnet ou audimètre actif ou passif), est une forme de déclaration( Glevarec, 2007b). Un contact n'est donc pas une donnée brute, mais ce n'estpas pour autant un artefact. Un contact a toujours la force d' être unedéclaration (avoir considéré que durant ce quart d'heure « j'ai écouté » ou« j'ai été auditeur » ou autre chose, ce que seule une autre enquête surl'enquête permettrait sans doute de mieux cerner), et la faiblesse d' êtrepris dans un protocole de mesure, auquel il ne pourrait échapper dans lecadre de la mesure d'une pratique. Du coup, le « contact » que Médiamétrierecueille (au téléphone ou sur un carnet d'écoute) est beaucoup plus fortque ne le disent ses critiques, et l'enregistrement de (tous) les contactssonores d'un individu (via une audimètre portable telque la montre radio et télécontrolen Suisse), et d'une présence encore accrue des médias dans toutes lessituations de la vie quotidienne, rend cette remarque encore plus décisive .En effet, paradoxalement là encore, la technique de la montre enregistreuse ,a priori désignée pour attraper de façon passivele contact (quatre secondes des sons ambiants sont enregistrées trois foispar minute et agrégées statistiquement en audience à la minute), en ditmoins sur le jeu de langage dans lequel s'inscrit l'auditeur et sur son typed'écoute que les méthodes déclaratives. Le radiocontrolne saisit guère plus le zapping situé d'unauditeur qui balayerait 10 stations en une minute sur son autoradio, niveauqui est pourtant celui de l'accroche et de la prise avec un programmeentendu. Ajoutons que, pour lire l'analyse qui suit, il faut avoir à l'esprit lalimitation herméneutique propre à toute enquête d'audience, mais aussi lechamp d'application du Panel, qui cr é e un artefact d'auditeurs nationauxhomogènes et un artefact d'offre radiophonique nationale strictementidentique et disponible. Aussi l'audience de la catégorie « autresradios », qui agrège les contacts avec des radios territoriales (locales ,transfrontalières. ..) ou d'agglomérations (Le Mouv '. ..), voire captées parl'internet (écouter Sud radio à Lille. ...), n'a -t-elle pas de véritablepertinence nationale (par définition des radios différentes, notammentlocales, fussent-elles d'un même genre, ne forment pas une radio nationale) .De même, si 12 millions d'individus ont écouté une antenne locale de FranceBleu (locales de Radio France), ce ne sont pas 1 2millions d'individus qui ont écouté la même radio. De surcroît, l'audienced'une station comme Sud Radio est entachée par la faible taille de sonbassin d'audience. Elle ne devrait être logiquement comparée à d'autresradios que dans les limites d'un territoire où elle est entendue. L'essentiel de l'audience radiophonique sur 21 jours est à l'écoute dès lepremier jour .Les auditeurs présents dès le premier jour d'enquête représentent 87, 1 % de l'ensemble de l'audience radiophonique sur troissemaines. En trois jours, la déclaration d'écoute des Français âgés de 11 ans et plus atteint 91,1 % ,soit 95,2 % de son audience totale sur 2 1 jours .Cette vision longitudinale des déclarations de contacts avec au moins une radiolaisse supposer le poids écrasant d'un type quotidien de pratique. L'audience cumulée journalière est d'une remarquable stabilité tant d'une semainesur l'autre que d'un jour à son correspondant la semaine ultérieure. Elle tendseulement à décroître très légèrement semaine après semaine au cours du Panel .Autrement dit, il semble y avoir une très significative typification -temporelle - de la pratique radiophonique, doublement marquée par saquotidienneté et sa dimension hebdomadaire. L'analyse menée par Philippe Tassi( 2005 : 69-79), à partir d'une mesure de la corrélation linéaire entre deuxjours, confirme, sur la base du Panel Médiamétrie de 1998, « un processus decomportement d'écoute hautement stationnaire, traduisant ainsi une très grandereproductibilité quotidienne des façons d'écouter la radio ». Il faut noter quecette corrélation est encore plus forte pour la durée d'écoute (corrélationsupérieure à 70 %), d'un jour sur l'autre ou à son surlendemain, voiredavantage, mais aussi bien d'une semaine sur l'autre, que pour l'audiencecumulée (corrélation avoisinant les 60 %). Le jour d'audience la plus élevée est le lundi, suivi du mercredi, puis du samediet du dimanche. Les « petites » radios ont une audience cumulée, qui accusemoins que les autres, une chute d'audience le week-end. À la différence du traditionnel chiffre d'Audience cumulée issu de l'enquêtequotidienne par téléphone dite « 1 26 000 », la mesure del'audience continue d'un même individu sur une période de trois semaines esttrès favorable à l'audience des petites et moyennes radios. Les radios aux petits auditoires sur un jour ;telles France Musique et France Culture, multiplient par quatre ou six leuraudience sur 21 jours. C'est dire si le critère de durée d'enquête reste décisif( bien qu'il recouvre par ailleurs d'autres variables de fréquence et derégularité de l'écoute). En 2000-2001, la hiérarchie des taux d'audience desradios nationales sur trois semaines varie de un à trois; elle met aux deuxextrémités de l'audience radiophonique, France Culture - qui représente 10 %d'Audience cumulée ou 1/10 e de la population, soit 5 066820 millions d'auditeurs de I I ans et plus, et NRJ, quireprésente 33,1 % d'AC ou un tiers de la population, soit I6 779 250 millions d'auditeurs. Demeurent donc des petites et des grossesradios. La comparaison des deux principales variables de mesure de la déclarationd'écoute que sont l'audience cumulée et la durée d'écoute nuance cependant debeaucoup les seules données d'audience cumulée. La seconde aide à pondérer lapremière. Tandis que NRJ et RTL sont proches du point de vue de leur audiencecumulée, leur auditoire les écoute un temps moyen qui va du simple au double, de11 h et 30 ' à 22 h et 42 '. Il y a une structurerelativement homogène de l'assentiment radiophonique : les radios ayant le plusgrand nombre d'auditeurs déclarés sont aussi les plus longuement écoutées enmoyenne. Autrement dit, le plébiscite que mesure le nombre d'auditeurs estimportant : il s'accompagne, dans ses grandes lignes, d'une relation deproportionnalité avec la durée d'écoute moyenne des auditeurs. Les 1 4 605 670 auditeurs de RTL ont l'écoutée en moyenne uneheure et cinq minutes par jour Les 5 066 820 auditeurs de France Culture surtrois semaines écoutent en moyenne 1 2 minutes par jourcette antenne. Les radios aux plus petits auditoires sont tendanciellementcelles les moins longuement écoutées par leurs auditeurs; c'est la situation deFrance Musique, France Culture, MFM et RMC. Les radios qui échappent à cetterelation entre nombre d'auditeurs et durée (approchée grâce au quart d'heuremoyen) sont, dans le sens de la baisse, des radios musicales, NRJ et Nostalgieet, dans le sens de la hausse, une radio généraliste, France Inter II faut noterici la position particulière de Sud Radio, radio régionale du sud de la France ,et des locales de Radio France (France Bleu régions). Après les trois grandesradios généralistes que sont RTL, France Inter et Europe 1, les stations régionales sont le second type de radio, devant lesmusicales, dont les auditeurs sont de gros consommateurs. Les radios se différencient très nettement du point de vue de la densité de leurauditoire au premier jour Sous cet angle, tout oppose France Culture et RTL parexemple. En effet, les radios dites généralistes et d'information (RTL, Europe 1et France Inter) atteignent la moitié de leur auditoiresur 21 jours dès le premier jour du Panel. Une dimension de quotidienneté deleur auditoire apparaît ici. À l'inverse, les radios thématiques comme France Culture ou FranceMusique ont seulement un vingtième de leur auditoire présent dès le premier jourPour faire image, nous pourrions dire qu' à la fin d'une journée moyenne J, lamoitié de l'auditoire des radios dites généralistes - RTL, France Inter etEurope 1 - a potentiellement écouté au moins une fois leurradio, tandis que seulement un vingtième de l'auditoire de MFM et de FranceCulture les ont écoutées. Tous les auditoires radiophoniques grandissent d'environ une dizaine de points entre le premier jourde l'enquête et le lendemain. La part des auditeurs d'un jour ordinaire (nousavons, pour cela, retenu le mardi de la deuxième semaine) est du même ordre quecelle du premier lundi retenu. Les premiers éléments déjà notés de typicité dela pratique radiophonique laissent peu de place à l'hypothèse d'un turn-over massif des auditeurs, et bien davantage àl'idée d'une coupe transversale dans un ensemble de pratiques d'une très forterégularité (éventuellement organisée selon des temporalités diverses). Cettedensité au premier jour sera affinée par la suite, précisée par la régularité ounon des moments de l'écoute. Il reste que, dès à présent, il est possibled'avancer l'idée qu' àtravers la méthodologie du Panel latemporalité est uncritère de caractérisation des auditoires des différentes radios : l'auditoirede RTL, de France Inter et d'Europe 1 sont des auditoirespour leur moitié quotidiens,tandis qu' à l'opposé, ceux de France Culture, MFM etRMC sont des auditoires majoritairement hebdomadaires ou (quasi) mensuels. L'écoute radiophonique présente une typification de l'activité, c'est-à-dire uneidentité des pratiques sous une certaine régularité. Paddy Scannell (1988) ditde la quotidienneté de l'écoute de la radio qu'elle participe d'uneco-structuration et d'un co-accompagnement de la vie quotidienne dans sonorganisation temporelle (relativement à ce qu'on appelle très généralement untemps industriel homogène). Cette régularité de la pratique coexiste avec uneponctualité de l'écoute radiophonique, ponctualité au sens de contactssporadiques, second aspect tout aussi important. La pratique radiophonique est structurée par la quotidienneté/ponctualité desauditeurs des radios généralistes et la ponctualité des auditeurs des radiosmusicales, locales et thématiques. Il y a une distribution bimodale despremières qui s'oppose à la distribution unimodale des secondes. Bien qu'ilssoient logiquement indexés à la période prise en compte dans la mesure d'unauditoire, ici trois semaines, des auditoires « longs de 2 1jours s'opposent à des auditoires quotidiens (ou quasiment). Lareprésentation des formes de l'assiduité des auditoires radiophoniques forme untriangle qui met aux trois sommets : les auditeurs assidus des généralistes, lesauditeurs-d'un-jour des généralistes et les auditeurs-d'un-jour des petitesradios. On le voit, ce que dissimule une définition large de l'auditeur à partirde l'audience cumulée ce sont non seulement des fréquences notées plus hautd'écoute très contrastées entre radios, mais aussi des fréquences trèsdifférentes à l'intérieur des auditoires eux -mêmes. La structuration des fréquences de contacts journaliers confirme l'ensemblespécifique que forment RTL, Europe 1 et France Inter; eneffet, ces radios ont des auditeurs déclarés quotidiens (21 jours de contact sur21 jours d'enquête) qui représentent entre 10 et 14 % de leur auditoire global .Agrégés aux auditeurs quasi quotidiens ils forment des noyaux durs d'auditeursreprésentant environ un tiers des auditoires globaux de chacune d'entre elles ;ils sont alors équivalents ou supérieurs à leur auditoire d'un jour Mais cesradios se caractérisent aussi par des pratiques d'écoute ponctuelle pour unepart non négligeable de leurs auditeurs. À l'opposé, une radio comme FranceCulture possède des auditeurs-d'un-jour qui représentent plus de la moitié deson audience globale sur trois semaines (Glevarec, Pinet, 2007a). En ce quiconcerne cette radio, c'est un auditoire ponctuel qui la caractérise : un tiersenviron de son auditoire l'écoute entre deux et cinq jours sur trois semaines .Le degré de spécialisation des radios influe fortement sur la fréquence ducontact radiophonique : plus elles sont généralistes, c'est-à-dire à la foismédias d'information, d'animation et de service, et à destination des adultes ,et plus leur auditoire comprend une part d'auditeurs quotidiens élevés. Il estpossible de connaître les effectifs réels de chacun des sommets du « triangle »de l'assiduité des auditoires radiophoniques. Le triangle des masses estrelativement homothétique de celui de la répartition des auditeurs pour chaqueradio. Les auditeurs ponctuels des radios généralistes sont très nombreux. Ceciposé, l'écart de taille entre les différentes audiences-d'un-jour (qui varie ,pour s'en tenir aux radios nationales, de 2 461 760 auditeurs de France Musiqueà 4 085 140 auditeurs de NRJ), est sans commune mesure avec l'écart entre lesaudiences-quotidiennnes (qui varie, elle, de 45 350 auditeurs de France Cultureà 1 989 020 auditeurs de RTL). Dans un cas, le facteurmultiplicateur est de 1 .6, dans l'autre de 44. Ce quicaractérise les grosses radios, c'est le poids de leur auditoire quotidien. Afin de préciser les formes de la pratique déclarée, nous avons établi deuxcritères, le nombre de jours de contacts et le nombre de contacts discontinus( deux moments discontinus consacrés à une même radio sont considérés pardéfinition comme deux contacts), susceptibles d'aider à préciser les formes de lapratique. Le nombre de jours de contact classe les radios dans le même ordre que laprécédente durée d'écoute sur 2 1 jours. En revanche, lesécarts n'y ont plus la même proportionnalité. Ils allaient du simple auquintuple pour la durée d'écoute, ils vont du simple au triple pour le nombre dejours de contacts. Autrement dit, la pratique des différentes radios diffèreplus par la durée d'écoute que par le nombre de contacts de leurs auditeurs ,plus par l'investissement que par la ritualité. Il y a une ritualité de lapratique radiophonique qui rapproche les radios et un investissement qui lesdifférencie. Le nombre de contacts croît, lui, avec le nombre de jours decontact; tout laisse entendre a priori une relationentre la ritualité (quotidienne ou autre), de l'écoute radiophonique et safréquence (nombre de contacts par jour). Plus on écoute quotidiennement laradio, plus on est susceptible de l'écouter à plusieurs reprises par jour Ainsicela vaut-il particulièrement pour les grosses radios. Les auditeurs de radio ont indiqué en moyenne quatre radios différentes (4,2exactement) sur 21 jours. Est-il possible d'interpréter ce chiffre, qui nesouffre d'aucun écart entre catégories véritablement significatif ? Quatreradios déclarées en moyenne sur 21 jours, est -ce peu dans un environnementdense ou beaucoup par rapport à une hypothèse basse de préférences et deformats restreints ? Comment définir l'espace pertinent de choix desauditeurs sur la base d'une enquête statistique ? Dans un environnement médiatique dense et exponentiel, sur un support oùchanger de station ne nécessite a priori qu'unemanipulation physique relativement simple, 1 3 % desauditeurs n'écoutent pourtant qu'une et une seule radio sur 21 jours. Cepourcentage des auditeurs en contact avec une seule radio n'est ninégligeable, ni anodin. L'exclusivité ou, au contraire, la multiplicité des postes écoutés semblefortement corrélée à l' âge; les 20-24 ans ont le nombre moyen de radiosdéclarées le plus élevé : 5,2. En fait, tout semble opposer sur ce point lesétudiants et les retraités, les jeunes et les personnes âgées. Tandis queles premiers multiplient les postes (1 3 % d'entre euxindiquent neuf radios ou davantage), les seconds ont une exclusivité dansleur choix très caractéristique d'une forme de fidélité (Caradec, 2003). Ilfaut noter que la multiplication des radios déclarées par les adolescents etles jeunes adultes, qui rejoint ici une intensité de la vie culturelle notéechez les 1 5-24 ans (Tavan, 2003), ne vaut pas pourles pré-adolescents; les 11 - 14 ans se caractérisentau contraire de façon très typique par l'écoute privilégiée d'une, deux outrois radios. Les cadres, les professions libérales et les professionsintermédiaires indiquent un grand nombre de radios et s'opposent sous cetangle aux inactifs autres que retraités et étudiants ou élèves. Le niveaud'études semble très structurant du nombre de radios déclarées. Plus lesindividus déclarent un niveau de diplôme élevé, plus leur nombre de radiosécoutées croît tandis que décroît l'exclusivité de leur écoute d'une seuleantenne. Un quart des diplômés du niveau primaire sont des auditeurs d'uneseule radio sur 21 jours. La première interprétation générale qui vient àl'esprit est celle d'un rapport symétrique entre le nombre de radios et uneposition d'investissement dans le monde social (activité professionnelle ,activités culturelles, famille, grande agglomération). Munis de cette règlegénérale, nous pouvons avancer quelques typifications : les pré-adolescentsse focalisent sur deux ou trois radios privilégiées. Les 20-24 ans ont unzapping élevé. Les 30-60 ans tendent à écouterdeux ou trois radios. Les catégories supérieures et individus diplômésindiquent davantage de radios. Les personnes de plus de 60 ans se portentsur une seule radio. L'appartenance à une famille nombreuse s'accompagned'un accroissement du nombre de radios déclarées. On peut qualifier de deux façons, relative et absolue, la force du lien entreune radio et ses auditeurs : par la fidélité et par l'exclusivité. Lesauditeurs fidèles (ceux dont le lien à telle radio est récurrent), et lesauditeurs exclusifs (ceux dont telle radio est la station exclusive, voiresimplement dominante), forment les deux auditoires dont le lien à la radio aune certaine force. Du point de vue statistique, la fidélité de l'auditoired'une radio peut s'approcher à l'aide d'un critère de fréquence ou derégularité des contacts ou d'un critère d'assiduité ou de présence( durée d'écoute totale et durée des contacts). Il y a alors plusieurs formesde fidélité à une radio : celle mesurée à l'aune de la fréquence des joursde contacts (de un à 21 jours de contact) n'est pas tout à fait la même quecelle mesurée à l'empan du nombre de contacts par jour ou sur 21 jours, nonplus que celle évaluée à la durée des contacts ou à la durée d'écoute (de unà X quarts d'heure).Tout ceci peut, le cas échéant ,dessiner une sorte d'identité des contacts (sorte de mesure de la« ritualité » de l'écoute). Sous l'angle de la fidélité de fréquence mesurée au nombre de jours decontact, de I à 21, le tableau cité plus haut indiqueque tous les auditoires ont un noyau de fidèles quotidiens ou quasiquotidiens. C'est au sein des grosses radios, et non des petites, que l'ontrouve un noyau d'auditeurs fidèles au sens de fréquents. En revanche, lafidélité supposée des auditoires des petites radios comme France Musique ouFrance Culture doit être mise en face du nombre de fidèles, statistiquementbien plus nombreux, des grandes radios. Autrement dit, rien ne confirme lafidélité supérieure de certains auditoires par rapport à d'autres, a fortiori celle souvent avancée des auditoires despetites radios. Au contraire, on note qu'il y a un noyau plus volumineux defidèles au sein des grosses radios, celles dont les audiences cumulées sontles plus élevées (celles aussi, nous le verrons, qui ont des noyauxd'auditeurs exclusifs). Pour saisir la fidélité de régularité mesurée aunombre de contacts (discontinus) par jour, nous avons produit deuxtableaux : un portant sur la fréquence de contacts quotidiens un jourordinaire (le mardi de la semaine 2), le second sur l'ensemble des 2 1 jours. On note sur le premier que le mode de ladistribution des contacts intra-journaliers se porte, pour l'ensemble desradios, sur un seul contact. Cependant, il y a une hétérogénéité relative dela distribution en ce qui concerne les grosses radios dont les auditoiresles écoutent à plusieurs reprises dans une journée. La fréquence de contacts sur une journée augmente avec la taille des radios .La comparaison avec le tableau précédent renforce l'idée selon laquelle lesradios musicales ont des auditeurs plus fréquents que fidèles. Les radiosmusicales sont des radios que l'on écoute fréquemment dans une journée, lesradios généralistes des radios que l'on écoute régulièrement d'un jour surl'autre. Sur 2 1 jours, la valeur centrale de ladistribution de l'ensemble des contacts correspond, pour l'essentiel desradios thématiques et musicales, à moins de deux contacts. Il y a cependantdeux types de radios selon la fréquence de contacts de leurs auditeurs :celles qui ont leur centre de gravité dans leur auditoire ponctuel (lagrande majorité des petites radios et les radios musicales) et celles quiont leur centre de gravité dans leur auditoire fréquent (France Inter etRTL). Quelques radios sont entre-deux, c'est-à-dire possèdent un auditoireéqui-polarisé, sans véritable centre de gravité. C'est le cas de FranceInfo, Europe 1 et NRJ qui se caractérisent par unehétérogénéité de leur auditoire sous l'angle de la ponctualité. Lesauditoires les plus fidèles sous cette définition sont ceux des grossesradios. La durée d'écoute est une autre manière de mesurer la fidélité de présenceparce qu'elle est la plus proche d'une mesure de l'investissement desauditeurs. À une extrémité, on trouve les radios qui ont létaux le plusélevé d'auditeurs n'ayant écouté qu'un seul quart d'heure, RMC et MFM, àl'autre, les radios les plus longuement écoutées, Europe 1, France Inter etRTL. Les trois radios généralistes se caractérisent donc doublement parl'importance qu'y ont leurs auditeurs réguliers (quotidiens notamment) etleurs auditeurs assidus (sous l'angle de la durée d'écoute). On note ànouveau la bi-modalité caractéristique des grosses radios, notamment desgénéralistes. Sous l'angle de la durée des contacts, l'écoute radiophonique estcaractérisée par un trait massif et partagé : quelle que soit la radio, lavaleur centrale de la distribution des durées moyennes de contacts est pourl'ensemble des radios comprise entre 30 ' et 59 '. Le tableau 9 des duréesmoyennes des contacts apporte une information nouvelle sur le profil desauditoires : le temps moyen de connexion. Les profils des radios sontdifférents sous cet angle. En effet, des petites radios comme FranceCulture, France Musique, Sud Radio, RMC, MFM et RFM ont une part aussiimportante que les grosses radios, voire supérieure, d'auditeurs qui ont descontacts longs. Bref, quand les auditeurs de ces antennes écoutent, ils lefont longuement. Il y a ici une disjonction entre la fidélité de fréquencemesurée au nombre de contacts et la fidélité de présence mesurée à leurdurée. En résumé, si toutes les radios ont des auditeurs qui les écoutent peu et desauditeurs qui les écoutent longuement, elles se distinguent selon le profildu lien de leurs auditeurs. Les radios généralistes ont des auditeursfréquents, réguliers et, dans le cas de RTL, assidus; les radios musicalesont des auditeurs ponctuels et/ou irréguliers, à l'exception de NRJ qui aaussi des auditeurs réguliers; enfin, les petites radios ont de nombreuxauditeurs ponctuels, mais dont le contact est paradoxalement long quand il alieu. En somme, il y a trois modalités caractérisâmes du lien aux radios :une régularité des radios généralistes, une fréquence des radios musicaleset une intensité des petites radios. Les répartitions de durées d'écoute etde nombre de contacts permettent de donner une première représentation desauditoires des radios sous la forme de cercles concentriques de taillesvariables selon le nombre d'auditeurs qu'ils comprennent. Le cercleintérieur comprend le noyau dur des auditeurs réguliers ou fréquents, lecercle extérieur comprend les auditeurs ponctuels et très ponctuels. Touteélévation du critère de nombre de contacts (à deux, à trois, etc.) faitproportionnellement varier la taille des différents cercles. Pour les troisradios généralistes, Europe 1, RTL et France Inter ,le rapport entre les cercles s'inverse, puisque celui des auditeurs les plusfidèles tend à dépasser celui des ponctuels. En résumé, il y a un rapport deproportionnalité entre les niveaux de fidélité, appréhendés plus haut àl'aide de différents critères, et la taille des auditoires. C'est au seindes grosses radios que l'on trouve des auditoires fidèles et consistants .Mais ce trait est plus structurant encore puisque l'on peut définir cesmêmes grosses radios comme aussi des radios à l'auditoire fidèle dominantpar rapport à l'auditoire ponctuel. On a vu que les petites radios avaient un profil spécifique tenant en ceci queleurs auditeurs sont moins nombreux, moins fréquents dans leur contact, qu'ilsécoutent moins longtemps que les autres radios, mais quand ils avaient uncontact, celui -ci était plus long. Ce sont des petites radios dont l'écoute -quand elle a lieu - est plus longue. La pratique radiophonique centrée sur uneradio, saisie par la durée d'écoute de ses auditeurs, est une pratique communeet fan : une moitié consomme peu et de façon relativementsemblable, une autre moitié consomme davantage et de façon hétérogène. Laproximité, systématiquement plus forte, entre les valeurs horaires du premierquartile et de la médiane des durées d'écoute des radios qu'entre les valeurs dela médiane et du troisième quartile (voir la « boîte à moustaches ci-dessous » )indique qu'il y a une forte homogénéité de la structure des petits auditeurs dechaque radio, petits auditeurs renvoyant ici à la (première) moitié del'auditoire d'une station. À l'inverse, la distorsion vers le haut indique unehétérogénéité des gros auditeurs, relative alors à la seconde moitié( supérieure) des auditeurs. Le fait que la durée moyenne d'écoute de FranceCulture et des suivantes jusqu' à RFM (en y incluant France Bleu Régions) ,dépasse la valeur du troisième quartile d'auditeurs indique que quelquesauditeurs tirent vers le haut le volume global d'écoute de cette radio. Pour lereste de l'ensemble des radios, les fans ne disparaissentpas, au contraire, ils représentent une masse plus caractéristique encore desradios. Cette structure caractérise même davantage encore les trois radiosgénéralistes. À mesure que l'on va vers les petites radios, la part relative desfans, au sens de ceux qui écoutent le plus longuementrelativement au volume horaire global de la radio, croît. Les fans de France Culture, bien que moins nombreux, caractérisentdavantage cette radio comme telle que ceux de RTL (Glevarec, Pinet, 2007a). Lecture : Si l'on classe les auditeurs de France Culture (c'est à dire tous ceuxqui ont eu au moins un contact avec cette radio sur 21 jours) par durée d'écouteen commençant par la plus basse (un quart d'heure), on constate que pour lequart de ces auditeurs leur temps d'écoute ne dépasse pas 0h30 en tout sur 21jours (premier quartile), que pour la moitié il est de 1 h15 ou moins (médiane), et que pour les trois-quarts il plafonne à 3h30( troisième quartile). Par ailleurs, leur temps d'écoute moyen est de 4 h 12. On doit à Michel Souchon (1998 : 54) d'avoir introduit et insisté sur cequ'il a parfois nommé l'équation « 1/3 — 2/3 » : « La première grande différenciation dupublic de la télévision, écrit-il, est celle qui distingue des gens quiutilisent beaucoup la télévision et d'autres qui l'utilisent peu »; « Untiers des téléspectateurs est responsable des deux tiers desheures-spectateurs [volume total d'écoute] » (Souchon, 2004 : 1 66). Cette répartitiondissymétrique des investissements reste valable pour les données 2000-2001 .En effet, 27,5 % des forts téléspectateurs et 22,8 % des auditeursconsomment 50 % du temps d'écoute globale de ces deux médias. Michel Souchonva plus loin que cette description et propose une explication en termes decompensation socioculturelle de la télévision pour ses gros consommateurs .Contrairement aux idées reçues, écrit-il en 1988, elle est utilisée demanière multifonctionnelle (en termes de genres divers consommés).Tandis quela télévision est un média à toutes fins utiles pour les gros consommateurs ,elle est spécifique pour les petits consommateurs. En termes de sociologie des usages, lamultiplicité des fonctions pour les uns s'oppose à la spécificité des usagespour les autres. Le tableau de la contribution des « fortsauditeurs de chaque radio » (ceux cumulant par le haut, la moitié duvolume-horaire de chaque radio), renforce le constat d'hétérogénéitéstructurelle des auditoires puisque moins d'un quart (22,8 %) des auditeursde radios consomment à eux seuls la moitié du volume d'écoute. On retrouvelà une idée proche de celle qu'a développée Michel Souchon à propos de latélévision, mais à une différence près et essentielle : l'hypothèse que lesprogramme de niches ont un public généraliste plutôt que spécifique estdémentie, nous le verrons. Il y a une spécificité du public des nichesradiophoniques. La part des auditeurs cumulant à eux seuls la moitié duvolume global de l'écoute de chaque radio varie du simple au double de MFM àRTL Autrement dit, le noyau d'auditeurs de MFM, de France Culture, de RMC oud'Europe 2, nécessaire pour atteindre la moitié de leur audience respective ,est plus petit que le noyau équivalent d'auditeurs des radios généralistes ,Europe 1, RTL et France Inter Sur ce point, France Info ne diffère pas deces dernières. La contribution des forts auditeurs au volume global d'une radio est d'autantplus élevée que celle -ci est petite. La logique radiophonique veut qu'ilssoient à la fois moins nombreux que ceux des grosses radios, mais qu'ilsforment un noyau plus important au sein de l'auditoire. Bref, plus une radioest petite, plus son noyau de gros auditeurs maigrit, mais plus il compte envolume dans son auditoire. C'est le paradoxe antidémocratique desminorités : elles comptent beaucoup mais sont peu représentatives. « S'il ya des spectateurs pour les journaux télévisés, les magazines et lesdocumentaires, c'est parce que les gens qui utilisent beaucoup la télévisionles regardent », écrit Michel Souchon (1993 :241). Les chiffres duPanel amènent à soutenir, s'agissant de la radio, une thèse inverse de celleque Michel Souchon défendait pour la télévision. Si l'on considère les grosauditeurs de « radio en général », et que l'on cherche pour chaque radioleur part dans le volume d'écoute, on constate qu'ils n'en représententqu'un quart, au mieux un tiers. Cette contribution montre qu'il n'y a pas depoids dominant des gros auditeurs de radio en général dans l'auditoire dechaque radio. Le tableau précédent indique qu'il y a une contribution élevéedes gros auditeurs au volume horaire global de chaque radio, mais que cesgros auditeurs sont internes aux radios. La clarté logique exige ici dedistinguer, on le voit, les auditeurs de radio en général des auditeursdételle radio en particulier Au sujet de la télévision, Michel Souchon (1998 : 56) écrit encore : « Lepublic des émissions à petit public n'est pas composé des " petitstéléspectateurs ", mais d'une fraction du “grand public” ». Le schèmeexplicatif proposé pour la télévision n'est pas valide s'agissant de laradio : plus une radio est spécifique, plus elle constitue une niche (nousconsidérerons que France Culture et France Musique relèvent a priori de ce genre), plus ses auditeurs sontspécifiques. Que manifeste la proximité de RTL et de France Culture ? Queles gros auditeurs de radio contribuent autant à la plus grosse des radiosqu' à l'une des plus petites radios nationales, c'est-à-dire que ce ne sontpas les forts auditeurs de radio en général qui y contribuent. L'affirmationancienne, mais à propos de la télévision, selon laquelle ce sont les grosconsommateurs d'un média qui font la consommation d'une « niche » ne semblepas valide en 2000-2001 pour la consommation de la radio. Ce qui explique cechangement tient sans doute à ce que Michel Souchon évoluait dans un universmédiatique (et théorique) qui n'était pas marqué par une segmentation del'offre aussi poussée, encore que relative à ce moment de l'enquête( 2000-2001), des supports, notamment radiophoniques. Les groupes d'écoute faible et forte de la télévision ont été décrits parMichel Souchon (1 980 : 1 68 ,1 82) comme sociologiquement comparables. Qu'enest-il en 2000-2001 pour la radio, mais aussi accessoirement pour latélévision ? Les données radio et télévision du Panel 2000-200 1 apportent une information décisive, absente desdonnées du chercheur, la composition sociale des forts et petitsconsommateurs. Ainsi adressons -nous deux questions aux assertions de MichelSouchon : quelle est la composition sociale (structure) du public des grostéléspectateurs ? Quelle est la composition sociale de chaque genred'émissions ? L'intensité de la pratique médiatique (radio et télévision), c'est-à-direl'appartenance aux forts consommateurs de l'un des deux médias, accentue lastructure âgée,faiblement diplômée et inactive des auditoires. Rien nelaisse apparaître donc en 2000-2001 une identité sociologique des deuxgroupes de gros et petits consommateurs de média, radio ou télévision. Les forts consommateurs (de radio et de télévision confondues) sont trèsnettement recrutés parmi les personnes âgées, les catégories ouvrières, lesretraités et parmi les détenteurs de diplôme primaire ettechnique/professionnel. Les groupes des gros consommateurs de ces médiassont très manifestement composés des catégories populaires et des personnesâgées. Une variable spécifie cependant la télévision par rapport à la radio ,le statut d'activité ou d'inactivité des auditeurs : la télévision estnettement plus marquée que la radio par le statut d'inactivité de ses fortsconsommateurs, retraités et autres inactifs. Il faut noter ici lesdifférences entre les deux médias : les forts auditeurs de radio sontmasculins, les forts téléspectateurs féminins. La radio fortement écoutéel'est par les ouvriers de façon manifeste, davantage que la télévision. Lesartisans et commerçants sont surreprésentés parmi les gros auditeurs deradio; on mesure là une écoute de la radio sur le lieu de travail( Glevarec, Pinet, 2007b). Cette contribution traite de la structuration des déclarations de pratiquesradiophoniques recueillies par l'enquête Panel par carnet d'écoute sur 21 jours .Celui -ci ne faisait pas état de la sociologie des auditoires de chacune desradios nationales françaises mais s'intéressait à la structuration des liens etdes usages de la radio. L'analyse statistique menée à partir du Panel deMédiamétrie indique des formes de typicité et de régularité fortes de lapratique radiophonique à l'encontre d'une perception volatile des fréquentationsradiophoniques. Certes, la méthodologie du carnet d'écoute ne permet pas desaisir le niveau de zapping situé d'un auditeur (celui dupapillonnage sur un auto-radio par exemple), mais un niveau de zapping que nous appellerons « consistant ». Il apparaît alors assezcirconscrit par un espace de quelques radios. C'est davantage l'investissementradiophonique que la pratique, la durée que la ritualité, le degré d'intensitédu lien à une radio qui va différencier les auditoires. Plus « grosse » est uneradio (en nombre d'auditeurs), plus gros est son cercle de fidèles, et cela defaçon proportionnelle pour chaque radio. Plus une radio est « grosse », pluselle a aussi des chances d'avoir un auditoire hétérogène, des auditeursfréquents et des auditeurs ponctuels. Plus elle est « petite », plus ses fans ont une place importante dans le volume horaireglobale de la radio, et plus ils ne sont pas représentatifs de la radio. C'estle cas de France Culture, dont on sait par ailleurs qu'elle est une radiosecondaire pour la majorité de ses auditeurs (Glevarec, Pinet, 2007a). Laréflexion à partir des données de Médiamétrie confirme la règle d'hétérogénéitéstructurelle des publics des médias selon leur durée d'écoute, mais à troisremarques près : les faibles auditeurs et téléspectateurs ne sont plus d'aussifaibles consommateurs qu'avant (peut-on encore les appeler « petitsconsommateurs » ?); du fait de la fragmentation des auditoires radiophoniques ,il n'y a pas (ou plus ?) de non-spécificité des niches; enfin ,l'indifférenciation sociologique du « grand public » que constitueraient lesgros auditeurs n'est plus ici vérifiée (ceux -ci sont populaires). Nous avonsnoté que les radios nationales françaises ont des profils d'usage que nous avonsspécifiés comme la régularité des radios généralistes, la fréquence des radiosmusicales et l'intensité des petites radios. Ces modalités laissent conjecturerdes places et des sens sociaux différents pour chaque type de radio. Les radiosgénéralistes ont-elles tout des fonctions de structuration de la vie sociale ,les radios musicales des fonctions de participation et les radios spécialiséesdes fonctions de liens ? Autant d'hypothèses qu'il faudrait vérifier par uneenquête qualitative de terrain. Source : Clersé-lfresi/CSA (www.csa.fr), 2004
Les pratiques radiophoniques sont assez peu étudiées par la sociologie, y compris d'un point de vue statistique. Cet article revient sur la suspicion qui entoure leur mesure et défend une évaluation de l'audience entendue comme jeu de langage. Il se propose ensuite de décrire la structuration des usages et des liens à ce média à partir d'une exploitation originale des données source de l'enquête Panel de Médiamétrie de 2000-2001 sur 21 jours. En s'appuyant sur une série de données de fréquence d'écoute et de structure des auditoires, on montrera que la consommation radiophonique est une pratique très typée temporellement, mais que cette régularité recouvre une hétérogénéité tout aussi structurante de l'auditoire de chaque radio. Enfin, revenant sur ce que Michel Souchon disait du grand public de la télévision, on attestera qu'il y a, en radio, une logique de spécialisation des auditeurs sur les stations.Tout porte ainsi à considérer la forte structuration des pratiques radiophoniques pour mieux comprendre dans quel cadre structuré risquent de s'inscrire internet et le podcast comme nouvelles modalités d'écoute de ce média.
sciencesInfo_10-0023556_tei_1119.xml
termith-467-communication
Nous utilisons de plus en plus l'écran pour lire des textes maintenant que des appareils mobiles comme les téléphones intelligents, assistants numériques personnels et les ordinateurs portatifs se répandent dans notre société. Les écrans à cristaux liquides (LCD, Liquid Crystal Display) s'utilisent fréquemment sur ces appareils. Les générations précédentes d'écran à tube cathodique dépendent très fortement du contexte; la géométrie de l'image affichée est inégale et la taille des pixels (points de trame) varie pour une définition identique. Les écrans plats permettent une meilleure qualité de l'information affichée car chaque pixel peut être réglé de manière précise et facile à mettre en œuvre et leurs définitions augmentent également régulièrement. Toutefois, on peut toujours considérer les écrans à cristaux liquides comme des appareils à « faible définition » puisque le nombre maximal de points disponibles pour décrire la hauteur d'une police de texte est petit comparé à celui des imprimantes laser de bureau. Ces dernières on en effet une définition (resolution) de 300 à 600 ppp 1 tandis que celle des écrans à cristaux liquides va habituellement de 96 à 120 ppp. Pendant la phase de conception, les créateurs de police travaillent avec des courbes de Bézier de grande précision sur des dessins agrandis (par exemple en corps 500) et n'ont pas à se soucier de la petite taille de l'objet conçu. Cependant, le résultat final doit prendre en compte l'appareil cible qui peut être la source de problèmes imprévus si le dessin de la lettre a été mal conçu. La production de polices professionnelles, prévues pour être également affichables sur écran, nécessite non seulement des talents de dessinateur de caractères, mais également une expertise technique poussée. L'impression de textes s'est toujours accompagnée de problèmes et de contraintes techniques. À l'heure de la conception par ordinateur, les dessinateurs doivent prendre en compte le fait que leurs polices seront peut-être utilisées aussi pour afficher des textes à l'écran. C'est d'abord à l'écran, lors de l'élaboration d'une police, que les concepteurs interagissent avec leur travail, même si cette police est destinée à l'impression. On peut donc faire l'hypothèse qu'il faut d'abord s'attaquer aux altérations dues à l'affichage sur écran avant qu'on puisse effectuer le travail de conception à l'écran. Pour être sûr qu'une police fonctionne sur la plupart des appareils, il est judicieux de considérer les pires circonstances où elle pourrait être utilisée. Cet article se concentre sur la précision et les limites du rendu sur écran et n'aborde pas la question de la lisibilité. Après une définition des termes-clés utilisés pour décrire l'affichage de polices sur écran, nous comparons les caractéristiques qui influencent la précision des polices comme la graisse, l'inclinaison, les courbes et la métrique. On donne (à des fins de comparaison) des polices et des documents d'essai. Le nombre de variations ainsi que les déformations des formes d'origine constituent l'axe de cette étude. Les résultats de ces tests devraient permettre de dégager des principes de conception de polices destinées aux écrans et de définir les caractéristiques auxquelles il faut s'intéresser avant et pendant la conception. Cet article se concentre sur l'affichage des polices sur écrans à cristaux liquides (LCD). Toutefois, un bref panorama préalable de l'expérience acquise avec les écrans à tube cathodique (CRT) nous permettra de mieux comprendre les enjeux liés au tramage. On peut assimiler, grosso modo, un écran à une grille ou une trame dont le plus petit élément est le pixel (ou point de trame), cette unité minimale ne peut se trouver que dans deux états différents : noir (éteint) ou blanc (allumé). Les pixels des écrans en couleurs sont le résultat d'une combinaison de trois éléments colorés (habituellement rouge, vert et bleu) dont l'intensité varie indépendamment l'un de l'autre afin d'obtenir une gamme de couleurs et de gris. Si les trois éléments colorés sont à leur intensité maximale, le pixel apparaît blanc. En diminuant graduellement l'intensité des trois couleurs simultanément, on obtient des pixels de niveau de gris différents. Les écrans en couleurs permettent le tramage par gamme de gris (voir 2.3.2). Dans le cas des écrans à cristaux liquides, la position des cellules de couleurs (appelées souspixels dans ce cas) est fixe et connue, il devient donc possible de les utiliser lors du processus de tramage (voir 2.3.3). En 1985, Adobe Systems créa PostScript, un langage de description de page indépendant des dispositifs qui définissait également un format de police numérique toujours en usage. Seul le « comportement abstrait » des polices et des glyphes sont précisés dans le fichier PostScript. Le rendu consiste à convertir ces définitions abstraites pour un dispositif de sortie particulier. Il faut alors faire correspondre la description des courbes de Bézier à une grille de points, appelée également une trame (Adobe Systems, 1990). Adobe a défini dans le cadre de son langage de description de page une unité pour exprimer la taille des polices rendues. Cette unité graphique appelée le point correspond à un 1/72 de pouce, une valeur arrondie issue du Pica typographique utilisé en Grande-Bretagne et aux États-Unis 2. Un Pica est composé de douze points pica et représente quasiment un sixième de pouce. Adobe a alors arrondi son point à 1/72 de pouce. Le tableau 1 illustre le rapport entre les points numériques et les pouces. Il s'est trouvé que, par coïncidence, les premiers écrans cathodiques pour ordinateur possédaient une définition verticale de 72 pixels par pouce de telle sorte que la majorité des logiciels supposaient simplement que le trameur (RIP, raster image processor) utiliserait ce rapport pour convertir les polices en pixels. Un point typographique correspondait alors précisément à un pixel. Même de nos jours, alors que la définition de la majorité des écrans à cristaux liquides est supérieure à 96 ppp, certains programmes graphiques continuent d'utiliser une définition de 72 ppp pour rendre les polices. La taille en pixels d'une lettre affichée à l'écran peut donc varier selon le rapport utilisé par le trameur de l'application. Contrairement à l'écran cathodique où les pixels peuvent être étirés sans intervention logicielle, l'écran à cristaux liquides présente des pixels à taille fixe qui sont souvent des carrés parfaits. Autrement dit, les écrans plats permettent désormais de mieux maîtriser la taille de l'image produite. Néanmoins, les ordinateurs n'utilisent le pixel qu'en tant qu'unité abstraite. La définition des écrans exprimée en pixels par pouce n'est qu'une convention, souvent arrondie, qui ne fournit pas une mesure physique constante. La précision du rapport entre la taille réelle des pixels et la définition annoncée d'un écran dépend des fabricants d'écrans, nous ne l'examinerons pas ici. C'est pourquoi nous exprimerons ici la « définition » en pixels par point typographique numérique (pxppt). Le Tableau 2 illustre le rapport entre la définition exprimée en ppp et celle exprimée en pxppt. Un pouce vaut 72 points, la définition en pxppt est donc 1/72 de la définition en ppp. L'em est une unité typographique anglo-saxonne traditionnelle 3. Il représente la chasse d'un M majuscule « idéal » qui serait égale au corps du caractère en plomb. L'em est un carré dont le côté égale le corps du caractère; ainsi un em de corps 12 a-til une hauteur de 12 points. On utilise l'em pour préciser la hauteur totale de la grille dans laquelle s'inscrivent les glyphes. On divise l'em par l'unité de la police (UP) et le nombre total d'unités par em est l'UPM (unités par em). Le nombre d'UPM ne dépend pas de la définition de rendu, il s'agit d'une propriété dépendante de la police qui gouverne la précision des dessins de glyphes et de leur métrique. La valeur UPM est donc la définition d'origine des glyphes. Selon la définition utilisée par le trameur, on rend les glyphes en fonction du nombre de pixels par em correspondant, au besoin arrondi. Les tableaux 3 et 4 montrent les résultats de la conversion entre points et pixels selon la définition – ou le rapport – utilisée par le trameur. Avant tout affichage, on code la description et le comportement de la police sous la forme de courbes de Bézier – ou de graphiques vectoriels – qui définissent le contour et les approches des glyphes. Depuis 1985, le monde des ordinateurs individuels reposait sur la technique PostScript d'Adobe pour ce qui est des polices vectorielles. Afin de s'affranchir de cette dépendance par rapport à Adobe, Apple et Microsoft ont mis au point ensemble une nouvelle technique de police vectorielle. Depuis 1991, deux formats de descriptions de graphiques vectoriels coexistent : Postscript 4 et TrueType 5. Dans les deux cas, le contour des glyphes est décrit à l'aide de points placés sur une grille qui décrivent les chemins des courbes mathématiques. La description n'est pas liée à un dispositif de sortie particulier, chaque trameur est capable de transformer la description des glyphes exprimée en coordonnées de la grille utilisateur en coordonnées de trame du dispositif, aussi appelé l'espace de périphérique. Hormis la manière de décrire les courbes, les glyphes PostScript et TrueType diffèrent par l'UPM de la grille utilisateur et l'organisation des instructions de rendu qui optimisent celui -ci. La grille utilisateur des polices PostScript, également connue sous le nom d' « espace de glyphe » ou « espace de l'utilisateur » est de 1 000 UPM. Les points et les vecteurs doivent avoir des coordonnées comprises entre − 2 000 et +2 000 unités. TrueType permet de personnaliser la valeur UPM de la grille utilisateur, les coordonnées de point devant cependant se trouver entre − 16 384 et 16 384 (Apple Computers, Inc., 2002). Autrement dit, la grille utilisateur permet de définir les glyphes avec une plus grande précision. Toutefois, cette amélioration de définition dans la grille de départ ne change pas grand-chose si la définition de sortie est basse car les glyphes en sortie sont réduits sur une trame de moindre définition (voir tableau 3). La haute défi-nition utilisée lors de la conception peut aussi induire en erreur le dessinateur. Ainsi, un glyphe de 12 points affiché sur un écran à 108 ppp (ou 3/2 pxppt) prendra 18 pixels par em. Dans une grille utilisateur de 3 600 UPM, il faudra donc en principe effectuer un déplacement de 200 unités pour obtenir un déplacement d'une unité (1 pixel) sur l'écran de sortie. Le format de police Type 1 publié par Adobe en 1993 définit des règles qui permettent de rendre les glyphes d'une même police de manière cohérente, que ce soit à basse ou à haute définition. Le moteur de rendu des polices de Type 1 manipule des instructions d'améliorations ou indications (hints). Le « dictionnaire privé » de la police comprend des instructions globales qui s'appliquent à la police en entier, par exemple, l'épaisseur normale des fûts, la zone de débordement, la pente et les règles liées à la définition. D'autres instructions d'amélioration dans PostScript font partie de la description de chaque glyphe afin d'indiquer au trameur où (fût vertical, horizontal, empattements, etc.) et comment exécuter les instructions du dictionnaire privé. L'exécution de ces instructions dépend des trameurs qui peuvent les interpréter de manière satisfaisante ou non. Les concepteurs de police se fient souvent totalement à l'efficacité du trameur, mais il existe peu d'information sur la manière dont le trameur PostScript utilise ces instructions de rendu car Adobe n'a jamais publié celles -ci. On peut trouver, cependant, l'information sur le tramage dans la description des brevets. La description des courbes TrueType et les méthodes de rendu associées sont complètement expliquées à la fois dans (Apple Computers, Inc., 2002) et (Microsoft Corporation, 2004). Comme dans le cas des polices Type 1, certaines instructions – comme celles précisant la largeur normale des fûts ou les zones d'alignement horizontal – sont définies pour la police dans son ensemble. Toutefois, contrairement à Type 1, il est possible de régler de manière plus fine les cas de rendu particuliers grâce à des instructions facultatives associées à chaque glyphe. Ces instructions permettent de modifier le contour initial afin qu'il s'adapte au dispositif de sortie. En outre, il est également possible de préciser des « instructions delta » ou de « nuancement » pour le rendu à une définition donnée en sortie. Les instructions de rendu permettent d'assurer que la police s'affiche de manière constante et précise quand le dessin original est affecté par la basse définition du dispositif de sortie. Comme nous l'avons vu plus tôt, le résultat graphique dépend à la fois de ces instructions de rendu et du trameur. Il existe différentes techniques pour tramer les courbes de Bézier. Afin de résoudre les problèmes associés aux écrans de basse définition, les informaticiens ont essayé de faire reculer les limites de ces dispositifs grâce à des méthodes de tramage qui améliorent l'apparence de définition. Le tramage précis, une fois de plus, est lié au type de courbe et au format de police. PostScript utilise une méthode de conversion des vecteurs graphiques en pixels différente de celle de TrueType. Dans les deux cas toutefois, le processus de tramage peut se servir d'instructions (de « nuancement ») incluses dans la police. Jusqu' à ce jour, trois types de trameur existent selon qu'ils utilisent des pixels noirs et blancs, des niveaux de gris ou des sous-pixels dans le cas des écrans à cristaux liquides. Le rendu à deux niveaux n'utilise à l'affichage que des pixels blancs ou noirs. Bien que la description du glyphe soit « continue », la trame de sortie est « discontinue » (André, 1997) de telle sorte qu'au problème lié à la définition grossière s'ajoute celui des trous inhérents à l'image de sortie. Quand on utilise le rendu à deux niveaux, l'écart entre les pixels est sensible, de telle sorte que seules sont disponibles des transitions de 90°. À basse définition, activer ou désactiver un seul pixel crée d'importants changements dans le glyphe en sortie – chaque pixel joue un rôle crucial dans la forme finale. Cette grossièreté à basse définition explique la création des instructions de nuancement et les règles de transformation en pixels de PostScript d'Adobe 6, ainsi que les instructions TrueType 7. Même si les instructions de rendu ou de nuancement assurent un meilleur tramage, la nature même de l'affichage noir et blanc fait naître des problèmes. Les « marches » – le crénelage – imposées par la trame de pixels noirs et blancs réduisent considérablement les dessins possibles. C'est pour résoudre ce problème qu'est apparue l'utilisation des niveaux de gris (voir 2.3.2), l'anticrénelage, mais sa mise en œuvre a attendu à cause les limites de vitesse de calcul des premiers ordinateurs personnels. Il y a un autre aspect du tramage qui doit être cité ici. Les écrans se composent d'une grille ou trame de taille régulière et fixe de pixels et l'on parle souvent à ce sujet du « pas » (phase) de l'écran. Quand on réduit les parties d'un glyphe – les jambages par exemple –, ils ne correspondent pas toujours au « pas » de l'écran, leur position et leur forme pourront varier et être irrégulières. Il se pourrait ainsi que différentes positions du fût correspondent parfois à deux, un voire même aucun pixel sur la trame, selon que le fût s'aligne ou non sur le pas de l'écran 8. L'affichage en noir et blanc est la façon la plus rapide d'afficher des glyphes, car il utilise le moins de temps calcul et le moins de mémoire même si la police comprend des instructions de nuancement. C'est la raison pour laquelle cette méthode fut si commune pendant les premières années de l'ordinateur individuel et l'est encore pour des raisons économiques. Quand un ordinateur est assez rapide et que l'écran permet l'affichage d'une gamme de gris, on peut utiliser l'anticrénelage pour améliorer l'apparence des glyphes tramés. En 1986, Peter Karow (1998) et son équipe d'URW développèrent un trameur pour écran à gamme de gris, il était toutefois trop lent pour être utilisé. En 1993, l'équipe d'URW parvint à afficher suffisamment vite un texte anticrénelé sur des écrans en couleur; l'équipe mit même en œuvre un placement subpixellaire 9 (32 sous-pixels par pixel d'écran) afin d'améliorer l'homogénéité images de mots (Karow, 1997). Dans sa thèse, Naiman (1991) décrit le processus de rendu par gamme de gris. Pour produite un glyphe à gamme de gris, on produit d'abord une trame de bits à haute définition (8 fois la définition du caractère désiré). On applique ensuite sur cette trame un filtre qui rend floues les différentes parties correspondant à la trame de sortie désirée. Si on ne retrouve que du noir dans la zone filtrée, un pixel noir est produit, de même pour une zone filtrée complètement blanche. Si on retrouve du noir et du blanc dans la zone filtrée, on calcule alors un pixel en gamme de gris. Une méthode pour créer ce pixel gris consiste à utiliser le taux de blanc et de noir dans la zone et de créer un gris qui correspond à ce rapport. Une autre méthode consiste à pondérer chaque point dans la zone filtrée en donnant plus de poids aux valeurs proches du centre. On peut combiner différentes méthodes pour obtenir le résultat graphique souhaité. Le rendu anticrénelé dépasse les limites des pixels. L'unité minimale devient le nombre de niveaux de gris disponibles par pixel. Cette amélioration dans la précision permet non seulement un meilleur rendu des caractères, mais également une maîtrise plus fine de l'interlettrage appelée le « positionnement subpixellaire ». Les variations d'intensité des pixels de bordure donnent l'impression que le glyphe se déplace, puisque le même glyphe peut être tramé de plusieurs manières selon sa place dans la même ligne du texte (Naiman, 1991). Comme pour le rendu noir et blanc, le rapport entre les glyphes et le pas de l'écran a un effet sur le résultat du tramage. En fonction de sa position sur la trame, un même glyphe peut correspondre à plusieurs plans de points à gamme de gris différents. C'est d'ailleurs ce phénomène qui permet le « positionnement subpixellaire » mentionné ci-dessus. ATM, mis au point par Adobe (( Adobe Systems, 1997), (Adobe Systems, 1998)), utilise un rendu en gamme de gris au niveau du système ce qui permet un lissage général des glyphes rendus. Les limites de l'anticrénelage par gamme de gris deviennent visibles pour les petits corps, un trait mince s'affiche en effet comme un gris très pâle qui peut passer inaperçu. Dans certains cas, les formes peuvent devenir tellement floues qu'une trame de points en noir et blanc fournirait une forme plus reconnaissable. C'est pourquoi, ATM assombrit d'abord les caractères au fur et à mesure que le corps des caractères diminue et enfin désactive l'anticrénelage pour les plus petits corps. Il importe de remarquer ici que les techniques d'anticrénelage permettent d'améliorer le rendu autant dans le sens horizontal que vertical; on utilise les mêmes valeurs de gris quelle que soit la direction. Les améliorations de précision apportées par le rendu en gamme de gris s'observent particulièrement dans le lissage des courbes et les variations d'épaisseur. Les écarts sensibles inhérents au rendu en noir et blanc disparaissent de manière efficace, même à petit corps. Les traits obliques paraissent moins dentelés grâce aux niveaux de gris mais leur épaisseur devient irrégulière (figure 1). Il faut aborder le rendu subpixellaire de la même manière que le rendu en gamme de gris. Il s'agit également d'une technique d'anticrénelage qui prend, ici, en compte les propriétés propres aux pixels d'écrans à cristaux liquides qui se composent de trois cellules verticales (figure 2) – ou sous-pixel – une pour chacune des valeurs RVB. Cette propriété des pixels des écrans à cristaux liquides permet au trameur d'attribuer des couleurs aux pixels de bordure d'un glyphe en fonction de sa position horizontale dans le graphique vectoriel; on triple alors, de manière virtuelle, la définition horizontale. Modifier l'intensité des sous-pixels de la bordure des glyphes crée un mouvement physique du résultat graphique. Toutefois, le rendu subpixellaire ne fonctionne que sur l'axe horizontal. Il faut rappeler que l'utilisation de sous-pixels pour augmenter artificiellement la définition horizontale s'utilisait déjà au début des années 80 sur les ordinateurs individuels Apple II (Gibson Research Corp., 2005). Cette technique n'est pas neuve, mais son développement est lié aux normes d'écran et ce n'est que depuis que les écrans à cristaux liquides sont abordables, efficaces et très répandus que le rendu subpixellaire peut se généraliser. Jusqu' à ce jour, trois trameurs subpixellaires sont d'un emploi courant sur les ordinateurs individuels : CoolType d'Adobe, ATSUI d'Apple (grâce au moteur Quartz2D) et ClearType de Microsoft. Les solutions d'Apple et de Microsoft opèrent au niveau du système et sont donc à la disposition de tous les programmes. CoolType d'Adobe ne fonctionne qu'au niveau de l'application (p. ex. Adobe Reader). Selon Microsoft, l'anticrénelage par gamme de gris brouille trop le glyphe et réduit le contraste, alors que le noir et blanc nécessite trop de nuancements à l'aide d'instructions de rendu. Microsoft promeut donc ClearType pour réduire le nombre de nuancements nécessaires. Greg Hitchcock prétend que le « contraste est ce qui différencie ClearType des autres techniques de rendu » (Microsoft Corporation, 2005b). En outre, des filtres de couleur, fondés sur les caractéristiques de la vision humaine, corrigent la trame et évitent des « effets chromatiques indésirables ». ClearType utilise également des éléments d'un pixel qui se composent de 3 sous-pixels, mais qui pourraient ne pas entrer dans la trame pixellaire habituelle. Bien que ClearType n'opère que sur des courbes TrueType, les essais effectués dans le cadre de cette communication démontrent que ATSUI et CoolType peuvent également traiter des courbes Type 1. Il est difficile d'obtenir des renseignements sur le fonctionnement des trameurs d'Adobe et d'Apple, mais ce communiqué tente d'éclaircir la question. En outre, les clichés agrandis démontrent que CoolType comme ATSUI allient le rendu subpixellaire à l'anticrénelage par gamme de gris traditionnel pour l'axe vertical. Comme on l'a vu plus haut, les programmeurs ont développé différentes techniques de rendu afin de résoudre les problèmes liés aux définitions trop grossières. Aujourd'hui, le rendu subpixellaire des écrans à cristaux liquides et la définition plus importante de ces écrans semblent améliorer grandement la situation et devrait faciliter le dessin de polices destinées aux écrans. Il faut, cependant, quantifier l'ampleur de l'amélioration et énumérer les limites qui demeurent afin d'obtenir un ensemble de règles et de conseil pour la création de polices. Nous avons sélectionné des documents et des polices d'essai afin de comparer les techniques de rendu à des tailles de pixel différentes et d'illustrer les améliorations pour la précision. Pour cette étude, nous avons choisi des applications très répandues qui produisent des résultats tramés par gamme de gris ou par sous-pixels (tableau 5). TextEdit d'Apple, WordPad de Microsoft et Adobe Reader (avec le moteur CoolType activé) produisent des trames subpixellaires. Adobe Reader s'utilise aussi pour produire des résultats en gamme de gris. Si on considère que le corps des textes affichés est typiquement entre 6 et 14 points par em et que la définition utilisée par les applications varie entre 72 et 144 ppp, le champ de recherche de nos comparaisons et essais doit s'étendre de 6 px/em à 28 px/em (voir le tableau 3). Pour des raisons pratiques (décrites en annexe 5) liées aux programmes et aux définitions utilisées, nous effectuons les évaluations quantitatives à 12 pixels par em (tableau 6). Nous donnons ensuite des documents d'essai pour effectuer des comparaisons quantitatives. Cette méthode d'évaluation préliminaire permet de trouver des valeurs qui pourront servir à notre évaluation qualitative. On évalue les différents trameurs mentionnés ci-dessus en mesurant deux paramètres : le nombre maximum de valeurs d'intensité par pixel et le nombre de variations par pixels (de positionnements subpixellaires). Les résultats sont déduits de l'analyse de clichés d'écrans et rapportés dans le tableau L'analyse des clichés d'écran ne permet pas d'établir que le trameur subpixellaire d'Adobe Reader opère d'une manière différente surWindows que sur MacIntosh, même à des définitions différentes. Une variation dans l'intensité générale est perceptible, mais elle peut être le résultat de profils chromatiques de l'écran différents. On peut, toutefois, faire les commentaires suivant sur les capacités des trameurs : ATSUI dans TextEdit et ClearType dans WordPad n'utilisent pas le positionnement subpixellaire de glyphe; CoolType utilise le plus grand nombre de valeurs pixellaires; ATSUI et CoolType allient le rendu subpixellaire et en gamme de gris; ClearType, en revanche, utilise très peu de valeurs subpixellaires qu'il ne combine pas avec le rendu en gamme de gris ce qui réduit la précision du rendu vertical à celle d'un rendu en noir et blanc; le rendu en gamme de gris d'Adobe permet le positionnement subpixellaire mais on observe parfois de grandes altérations de forme. Ces résultats soulignent le fait que, comme dans le monde de l'imprimerie, les instructions et les courbes ne sont pas les seules variables qui ont un effet typographique, le trameur est un facteur aussi important dans le résultat final. La recommandation de José Scaglione (2005) d' « évaluer régulièrement les méthodes de test » et d'utiliser « des données comparatives » prend également tout son sens dans le cas de la création de police pour écrans. Toutefois, on pourrait étudier d'avantage les possibilités et limites restantes de la conception de polices en évaluant nos exemples. Afin de mesurer la précision des résultats affichés, il est nécessaire de calculer la « taille de pixel » souhaitée que le trameur devrait produire. Pour une valeur en UP donnée, les équations suivantes définissent la conversion entre « la taille de pixel » et la taille en UP. Dans le cas du test d'épaisseur (figure 4), la police est à 1 000UPM et tramée à 12 px/em. Les 10 premiers exemples dont des variations de 10 UP, c'est-àdire des variations de (10×12) / 1000 = 0,12 pixel, soit 0,12×3 = 0,36 sous-pixel. Dans le cas du rendu en noir et blanc, l'unité minimale (un pixel) représenterait ici 1 000/12 ≈ 83,3333 UP. Pour ce qui est du rendu subpixellaire, la taille minimale horizontale est le sous-pixel qui représente 1 000/(12×3) ≈ 27,7778 UP. Ceci souligne l'amélioration due au rendu subpixellaire; on pourrait faire varier beaucoup plus l'épaisseur horizontale, mais des aberrations chromatiques limitent cette précision théorique. Le cas concret du graphique de la figure 4 illustre la sensibilité réelle du rendu subpixellaire à la variation d'épaisseur horizontale. Cette sensibilité est illustrée ci-contre avec des valeurs RVB par des bandes de LCD (à gauche) et par des images non saturés (à droite). L'exemple de CoolType montre qu'un véritable positionnement subpixellaire a lieu. L'exemple non-saturé a été visuellement aligné de façon à permettre la comparaison avec les autres. L'amélioration du résultat d'une épaisseur théorique de pixel de 0,12 à 1,2 pixel par pas de 0,12 px – ou de 0,36 à 3,6 sous-pixels par pas de 0,36 sous-pixel – indique qu'on peut dorénavant utiliser de petites variations horizontales pour obtenir un affichage plus ef-ficace. ClearType affiche 7 cas différents, ATSUI 5 et CoolType 9. Il n'est cependant pas conseillé de concevoir des variations d'épaisseur horizontale – comme celles des fûts verticaux – qu'il faudra tramer à une taille inférieure à un sous-pixel pour le corps le plus petit (les deux premiers cas du test). La comparaison des différents résultats tramés permet de voir qu'il vaut mieux prévoir que la variation horizontale minimale soit de plus de deux sous-pixels pour le corps souhaité. Nous n'avons pas testé ici la sensibilité à l'épaisseur verticale 10 car, actuellement, seul l'affichage traditionnel en gamme de gris permet d'afficher des variations verticales. L'évaluation de la précision du rendu le long d'un axe oblique est qualitative. Nos observations ont déjà identifié des défauts tels que des écarts sensibles, des traits d'épaisseur inégale et un flou extrême (figure 5). On en déduit des intervalles de meilleure précision. L'idée consiste à créer des polices en gardant à l'esprit les cas qui s'affichent correctement et d'éviter les cas où il est difficile pour le trameur d'affi-cher des trames de points optimales. Puisque le rendu subpixellaire n'améliore la définition que sur l'axe horizontal, il est légitime de penser que les mouvements horizontaux s'affichent de manière plus précise. En outre, des essais démontrent que des déplacements entre l'horizontale et 20 degrés troublent l'affichage ou font apparaître des écarts. Il est donc très important d'éviter de dessiner des traits obliques dans cet intervalle. On obtient de meilleurs résultats entre 74 et 70 degrés et l'horizontale – résultats que l'on peut étendre jusqu' à l'intervalle entre 90 et 70 degrés – où l'épaisseur est plus régulière et égale. Le tableau 8 et la figure 6 présentent graphiquement ces intervalles de meilleure précision. On peut décrire les courbes (figure 7) à l'aide d'une tangente qui glisse le long d'un chemin. La pente de cette tangente est perpendiculaire à la courbe et se comporte comme les traits obliques décrits en figure 6. C'est pourquoi plus la tangente est verticale à un point de la courbe, plus la courbe sera tramée avec précision. Les zones de précision pour le rendu d'une courbe sont semblables aux zones de précision pour le rendu oblique pivoté de 90 degrés. Ce mécanisme est très bien illustré par les images produites par le moteur ClearType qui n'utilise que le rendu subpixellaire dans les tests (figure 8). Si le trameur allie le rendu subpixellaire au rendu en gamme de gris, la précision verticale s'améliore (figure 9) et on peut effectuer des transitions horizontales plus fines. Malgré l'amélioration apportée par l'adjonction du rendu en gamme de gris, la sensibilité a en fait augmenté entre 45° et − 45° à l'horizontale. L'analyse d'une plus grand gamme de corps permet de voir que cet intervalle diminue légèrement quand on diminue la taille en pixels de l'em et augmente quand on augmente cette taille. En conclusion, il vaut mieux favoriser autant que possible le développement vertical des courbes. Le tramage des courbes horizontales presque plates est plus approximatif. Il est donc conseillé de simplifier ces courbes en traits horizontaux pour optimiser le rendu. Les limites exposées ci-dessus permettent d'éviter des défauts de rendu. Souvent, les glyphes (figure 10) se composent d'une série complexe de fûts droits, de traits obliques et de courbes. La proximité des « caractéristiques critiques » (Figure 11) peut créer de nouvelles situations et de nouvelles difficultés. Éviter de telles situations et utiliser un bon nuancement sont la clé d'un bon rendu global. En 1998, Karow pensait que l'anticrénelage se faisait mieux sans instruction de nuancement. Aujourd'hui l'alliance du rendu subpixellaire et de l'anticrénelage verticale améliore la précision de l'affichage à faible définition. Toutefois, le nuancement – plus particulièrement sur l'axe horizontal – semble essentiel pour garantir un dessin uniforme avec différents trameurs. Le présent article permettra peut-être d'établir une brève série de conseils destinés à ceux qui dessinent des polices pour écran dont voici un résumé. – Tout d'abord, on ne peut s'attendre actuellement à plus de précisions sur l'axe horizontal que sur l'axe vertical. Il est donc important de créer les traits horizontaux épais d'au moins un pixel à la définition minimale considérée. Ce qui pose la question de savoir comment traiter les empattements dont la définition serait inférieure à celle des fûts. – Sur l'axe vertical, on peut effectuer de fines variations de graisse; une variation d'un sous-pixel est permise quand le fût a une épaisseur de plus de deux sous-pixels. Toutefois, il faut éviter les jambages de moins de deux sous-pixels à la plus basse des définitions considérées. – Il faut éviter les courbes presque plates et horizontales,et plutôt favoriser l'utilisation de courbes verticales. Le remplacement des courbes horizontales et presque plates par des traits horizontaux permet d'éliminer l'apparition d'écarts ou de flou extrême. – Il faut éviter de rapprocher les « caractéristiques critiques » du dessin, l'adjonction d'instructions de nuancement est alors importante, surtout surtout pour préserver l'alignement horizontal. – Les instructions de rendu, comme la table « gasp », permettent de définir le comportement du trameur à différentes tailles. – Il vaut mieux préférer les courbes TrueType aux courbes de Type 1 afin de garantir une utilisation efficace du rendu subpixellaire par tous les trameurs .
Les écrans LCD sont de plus en plus souvent utilisés pour afficher du texte destiné à une lecture immersive. La précision d'affichage et la possibilité accrue du contrôle de l'image de ces écrans restent encore bien inférieures à celles des procédés d'impression papier. Le processus de conception numérique de fontes permet une précision peut-être jamais égalée dans l'histoire de la typographie. Cependant, l'affichage final sur écran comporte de multiples facettes qui doivent être comprises et maîtrisées pour exploiter au mieux ce support. Cet article ne parle pas de lisibilité mais concerne uniquement la précision et les limitations de l'affichage écran. Les termes, processus et contraintes techniques, nécessaires à la compréhension du sujet sont préalablement expliqués ; sont ensuite effectués des tests d'affichage basés sur quelques caractéristiques fondamentales, comme le rendu des variations de graisses, l'inclination, les courbes, et finalement la qualité des glyphes dans toute leur complexité. Finalement, sur la base de ces observations, sont élaborés des conseils pour le dessin de caractères destinés à l'affichage sur écran à cristaux liquides.
sciencesInfo_07-0514619_tei_DN_093_0087.tei.xml
termith-468-communication
Dans un travail fondateur s'inspirant d'une sémiotique peircienne appliquée auxdispositifs d'énonciation du journal télévisé français, Eliseo Veron (1981) a montréque la mise en scène matérielle du studio de télévision était partie prenante del'énonciation télévisuelle. Son analyse a ouvert la voie à des recherches visant àrendre compte « des conditions de production ou de reconnaissance d'un discours » (ibid. : 101), envisagé comme « le résultat d'un énormedispositif social » (ibid. : 102). Cela dit, il importe – etnous suivons ici Éric Landowski (1997 : 198) –de « rapporter les discours àdifférentes variables de caractère contextuel correspondant à la diversité empiriquedes situations de communication ». Une telle mise en relation du discours et de lasituation d'énonciation s'inscrit pour nous dans une problématique où la scène dereprésentation télévisée, loin de n' être qu'un paramètre périphérique du débattélévisé, fixe les termes du contrat de l'émission. Autrement dit, la configurationde l'espace télévisé, le lieu réel (par exemple le théâtre) ou mythique (par exemplel'agora) qu'il reproduit, préfigurent le type de gestion de la parole etl'imaginaire accolé à cette parole (Lochard, Soulages, 1999 : 81-83); conçu commearène, amphithéâtre ou salon, le studio de télévision permet aux téléspectateurs etaux protagonistes d'inférer les attendus du genre, tels qu'ils sont du moinsanticipés par l'instance télévisuelle. Ainsi chaque lieu assigne -t-il aux acteurs( animateur, public-plateau, débatteurs) des rôles et un mode de participationtributaires en partie de sa symbolique (l'autorité du lieu, son historique); c'estcette symbolique qui prédispose tantôt à une relation fusionnelle, mimétique, entreles invités et le « public participant » dans les confrontations d'arènes (Ciel mon mardi, TF1, 1998-1992), tantôt à une relationpédagogique entre l'animateur et ses invités dans les « amphithéâtres » (La marche du siècle, 1987, FR3, 1991-1999) ou encore à deséchanges informels et ritualisés entre invités de renom dans « les salons » desdébats culturels (Apostrophes, Antenne 2, 1975-1990). Tout mode d'organisation et de structuration des plateaux de télévision a desincidences sur le régime de présence (mise en place physique) et de visibilité (miseen images) des acteurs qui y sont installés et montrés. Ainsi, par sa fonctiond'ancrage du rituel de parole, le studio est-il d'abord un marqueur du mode deprésence des énonciateurs s'y exprimant. En cela, jonction entre les lieuxinstitutionnels de délibération du politique et l'espace spectaculaire de sareprésentation médiatique, le studio participe de l'acte de monstration de l'hommepolitique, lui impose des structurations posturales, l'assigne à des emplacements ,met son corps « en scène ». Ensuite, l'espace télévisuel a une « incidence sur larelation entre les sujets filmés mais aussi sur la relation induite par le filmageavec le destinataire de l'émission » (Lochard, Soulages, 1999 : 55). Car c'est surla base d'un dispositif scénographique que la régie donne « à voir » le spectaclemédiatique par le recours à des opérations filmiques (cadrage, jeu sur lechamp/contre-champ, ocularisations); le champ du possible en matière deconstruction des plans et de mise en place d'un dispositif réticulaire s'avère eneffet partiellement tributaire de la configuration de l'espace (voir les plansimmergés au sein des dispositifs d'emplacement surélevés et la posture departicipant par procuration que ce point de vue suscite chez le téléspectateur) .Enfin, l'arrangement et la disposition des éléments sémiotiques signifiants( mobilier, emplacement, articulation entre scène et salle) participent del'anticipation faite par les acteurs du débat et les téléspectateurs du typed'interaction privilégié par un genre ou sous-genre « débat télévisé ». Dans la mesure où elle est « supposée déterminer le contenu des manifestationsdiscursives ainsi, d'ailleurs, que leur formes d'expression » (Landowski, 1997 :198), la scénographie d'un studio de télévision produit donc des effets attendus ;elle livre des indices qui permettent d'inférer les types de relations appelées às'instaurer sur le plateau entre les acteurs, et entre ceux -ci et lestéléspectateurs. Mentionnons, tous genres confondus, « l'effet de sérieux » (Antona ,1996 : 195) imputable à la nudité et à l'austérité des émissions d'information etd'interview, celui de « défictionnalisation » (Veron, 1983 : 106) induit par ledispositif frontal et le regard adressé au téléspectateur par le présentateur de JT ,ou encore l'effet de « spectacularisation polémique » (Charaudeau, Ghiglione, 1997 :51) généré par les dispositifs des débats fondés sur un face-à-face d'opinions entredeux ou plusieurs débatteurs. Ainsi les dispositifs traduisent-ils des enjeuxdiscursifs (influence, négociation de l'image de soi) dont acteurs du débatpolitique et téléspectateurs ont à tenir compte. La scène télévisuelle définit alorsles conditions « prédialogiques » (Bromberg : 1992) à partir desquelles le débataura lieu, orientant son déroulement, lui conférant des valences relationnelles( polémique, intimiste) au sens où les caractéristiques desdits espaces (unité ,séparation, dimension, etc.) formatent l'interaction entre les acteurs. Si les scénographies des plateaux télévisés ont déjà été l'objet d'analysescomparatives, notamment interculturelles (Nel : 1988; Lochard, Soulages :1999), ou d'études monographiques (Darras : 1994), une « archéologie » qui prenden compte l'évolution des dispositifs de plateau, par genre et pour une mêmechaîne de télévision, reste à notre connaissance une entrée encore peupratiquée. L'examen de l'évolution du statut accordé par un média à la parolepolitique (débatteurs, public-plateau, animateur, parole des téléspectateurs )peut ainsi être opérant à travers la description de ces scénographies. Pour yparvenir, l'examen d'un « genre » stable semble une condition sine qua non. C'est à ce prix qu'un relevé des couches de« sédimentation » sémiotiques, qui donnent leur plus-value symbolique auxespaces télévisés, peut s'avérer pertinent. Pareille stabilité s'observe à laTélévision suisse romande (TSR) qui n'a programmé que trois émissions de « débatpolitique » stricto sensu lors des quatre dernièresdécennies : Table Ouverte (1966-1996), Droit de cité (1996-2004) et Infrarouge (2004 àaujourd'hui). Dans cet article, nous examinerons les modes hétérogènes d'organisation del'espace du studio de ces trois émissions, avec pour objectif de saisir non pasla perception ou le jeu qu'en font les acteurs du débat politique mais leurorganisation matérielle. Pour y parvenir, sera proposée une modélisationsémiotique de la situation de communication télévisée qui s'appuiera sur undécoupage par unités d'analyse topologique. À l'instar d'une grammairelinguistique qui segmente les textes en unités de langue (morphèmes, phrases ,discours ou autres unités transphrastiques), nous avons recouru à des opérateurslocaux (emplacements, mobilier), intermédiaires (scènes, exploitation de laprofondeur du studio, décor), et macro-topologiques (lieu archétypique). Onconsidérera que les places des acteurs (retrait et centralité), la présence d'unmobilier (continu vs séparateur), l'espace (centripète vs agorisé) et les scènes (diamétralité, centricité), de même que le principed'ouverture/fermeture du studio sur l'extériorité du studio préfigurent, au mêmetitre que les identités des acteurs, au déroulement du débat, et nousrenseignent sur les termes du « contrat de communication » (Charaudeau : 1997 )propre à un genre télévisé (ici le débat). D'emblée, le studio s'envisage comme un territoire structuré et structurant, quiinstalle les acteurs (invités, animateur, public-plateau) et les dispose selonune logique proxémique/posturale. Y sont agencées des scènes qui disposent ,hiérarchisent les places des acteurs et les éléments du plateau (décor ,mobilier), et se greffent ce faisant à un dispositif de « spectacularisation duréel » (Charaudeau, 1997 : 67) qui dote l'espace « d'un certain nombre devaleurs symboliques » (ibid.). On émettra l'hypothèsedescriptiviste que les dispositifs scénographiques traduisent des imaginaires deparole cultivés par l'instance médiatique, et on tentera de mettre au jourl'évolution de ces imaginaires et des valeurs symboliques en prenant pour objetles débats télévisés programmés à la TSR. Force est d'admettre que les studios qui accueillent les débats télévisés engénéral, et les débats politiques à la TSR en particulier, ont un ancragetopologique. Ils se constituent par référence à des lieux réels, voiremythiques, où se tinrent jadis (par exemple le forum ou l'agora), et aujourd'hui( telle que l'assemblée parlementaire) la délibération politique. En suivant deMichel de Certeau (1990 : 172 et sqq.), on distinguerad'une part le lieu, territoire assigné et institutionnalisé, et d'autre partl'espace, ce lieu approprié et pris en charge par l'individu; si le lieurenvoie à une « configuration instantanée de positions » (ibid. : 173), l'espace engage quant à lui des « opérations quil'orientent, le circonstancient, le temporalisent » (ibid.). Cette distinction a une valeur heuristique. En effet ,appréhendés comme des lieux, les studios de télévision qui accueillent nombre dedébats politiques font référence, par effet de modélisation (parfois parodique )à des emplacements institutionnels archétypiques ou fondateurs (l ' archéion) auxquels est relié un imaginaire de paroledémocratisant. Scènes de démocratie directe ou représentative, ces studios nenaissent pas ex nihilo, mais se constituent dans unrapport d'analogie, plus ou moins assumé, avec des lieux sociaux préexistants .Ainsi les trois émissions de débat politique programmées à la TSR entre 1966 et2006 recouvrent-elles des référentiels topologiques distincts : le huis closd'une commission de conciliation (Table Ouverte), ledébat parlementaire (Droit de cité), et un lieu hybride ,à mi-chemin entre le tribunal populaire et la scène de combat (Infrarouge). L'émission Table Ouverte (TO) ,premier débat politique du genre, voit le jour en 1966. Symptomatique d'unepaléo-télévision à « vocation civique » (Lochard, 1994 : 29), TO fait coïncider son agenda avec celui dicté par l'actualitépolitique du moment (votations populaires) et prend appui sur un mandatjuridique qui fixe les obligations d'une télévision du service public en Suisse. Fondée sur un huis clos, et donc sur uneabsence de public-plateau, TO réunit quatre débatteurs( partisans vs opposants), campés deux par deux autourd'une table circulaire. La métaphore contenue dans le titre de l'émissiontraduit d'emblée la volonté de l'instance médiatique d'organiser une discussionentre des adversaires conviés moins à en découdre sur un registre polémique qu' àconfronter leurs opinions, quand bien même le dispositif d'emplacement desinvités reposerait en apparence sur un face-à-face a priori menaçant. Le huisclos de TO n'est pas sans rappeler un espace denégociation, celui que l'on trouve par exemple dans les commissions deconciliation : la table ronde qui joint les invités davantage qu'elle ne lessépare, la proximité entre les invités, la posture en retrait du journalistemodérateur, tous ingrédients réunis pour la mise en place d'un débat « mesuré » ,fondé sur une recherche de consensus très helvétique. Véritable ritueltélévisuel, cette émission s'inscrit dans la lignée d'une télévision du servicepublic jouant pleinement son rôle de courroie de transmission entre l'opinionpublique et les lieux de représentation de la délibération politique (leParlement). Pareil rituel se légitime alors par sa permanence; celle de sondispositif, resté inchangé pendant plus de trois décennies, celle aussi de sonheure de diffusion hebdomadaire qui lui donne sa temporalité quasi liturgique( chaque dimanche à 11 h 30). Emblématique d'un espace public « idéal » au sens où l'entendait initialementJürgen Habermas (1978), dépourvu d'effets de mise en spectacle (absence depublic-plateau), TO se déroule dans un studio clos ,épuré, monochrome. Ce débat n'incarne ni des lieux de délibération politique( re)connus, ni ceux, mythiques, des origines de la délibération démocratique .Scène d'intermédiation entre les lieux institutionnels du politique et l'espaceprivé (foyer domestique), ce débat reproduit un des principes fondateurs dusystème politique suisse : sa collégialité. Assigné à une posture d'observateur dont le regardn'a pas prise sur les coulisses ou sur l'extériorité du studio (un regard invitéà se porter uniquement sur la scène des débatteurs), le téléspectateur assiste àl'émission sans procuration, et sans la médiation d'un « dispositif énonciatifde mise en spectacle » (Soulages, 1999 : 80). De par sa configuration, TO cultive finalement davantage la symbolique d'uneconfrontation d'arguments qu'une logique d'affrontement entre personnes. Ainsile mobilier rassembleur, la bipartition de l'espace scénique des débatteurs ,l'intégration du journaliste à la scène de débat, sont-ils autant d'éléments quiconcourent à faire converger le regard du téléspectateur vers les seulsdébatteurs. Sur cette scène centrale, la représentation spectaculaire estatténuée, car la séparation « scène/salle », qui fonde la mise en abîme desespaces théâtralisés, en vigueur notamment dans les talk-shows, n'a pas cours ici. Cette émission ne s'inscrit pas nonplus dans la filiation des discussions proposées dans les débats-forums etautres espaces agorisés, qui reposent sur la présence massive d'un publicmanifestant ou participant. Dès 1996, l'émission Droit de cité (DdC) remplace TO. Avec cette nouvelle formule ,la télévision suisse romande maintient le principe du genre (une discussionpolitique entre locuteurs « autorisés », élus et porte-parole au premier chef )mais opère un remaniement de la scénographie du studio. Outre l'apport dequelques innovations technologiques (écran géant, présence d'un public-plateau) ,DdC se définit comme un débat polylogal sous-tendupar la mise en place d'un dispositif éclaté, centrifuge. L'émission augmenteainsi le nombre des invités, et opère une disjonction de la scène qui lesaccueille. Mais c'est avant tout la référence topologique du studio qui s'entrouve modifiée. Si, initialement, l'émission TO réunissait des figures représentatives – professionnels du discours politiqueappelés à trouver un terrain d'entente au sein d'une « commission deconciliation » – le débat DdC campe désormais sur undispositif nettement moins rassembleur et intimiste, à savoir celui quicaractérise « l'hémicycle parlementaire ». Les emplacements des invités en arcde cercle, la séparation du studio en deux aires distinctes (qui rend compte duclivage des opinions des débatteurs), de même que l'ajout d'une assistancesituée à la périphérie du débat : autant d'opérateurs attestant la volonté de laTSR d'institutionnaliser sa scène télévisée. En 2001, Droit deCité modifie son décorum; elle table alors sur une agorisation de lascène du studio, et sur une exploitation de la profondeur du studio, invitantaussi davantage de débatteurs : l'analogie avec l'espace parlementaire suisseest alors manifeste. Par une mise en spectacle plus accrocheuse, l'émission Infrarouge (2004) atteste, quant à elle, du passage d'un imaginaire deparole consensuelle, collégiale, à un imaginaire de parole conflictuelle etdissensuelle. À la fois « show » et débat, du moins dans sa mise en scène, cettedernière émission en date entérine une symbolique de l'affrontement en pariantsur une configuration duelle et en « face-à-face » entre deux adversaires dujour. En centrant le débat autour de la scène des débatteurs – une espacecentrifuge et non plus centripète comme dans le studio agorisé de DdC – les concepteurs d ' Infrarouge ont manifestement valorisé une situation d'énonciationpropice aux échanges agonaux. Dans cet espace, conçu telle une scène de combat( un « ring »), le public-plateau est disposé en arc de cercle, et joue un rôleplus actif que dans les versions précédentes des débats. Parmi cette assistance ,s'immiscent des interlocuteurs ratifiés, appelés à se lever, et à supporter vsprendre à partie un des deux invités. Il faut y voir alors, au-delà d'unereprésentation dramaturgique de la discussion politique, la consécration d'unprincipe de polyphonie discursive avec d'un côté, deux débatteurs engagés dansune communication principale (Goffman, 1981 : 156 et sqq.), de l'autre, une parole sollicitée, souventtestimoniale ou polémique, qui se greffe à cet échange. Invités à se lever, àvenir « témoigner » à une barre, les invités donnent à Infrarouge une allure de tribunal populaire dans lequel, fait nouveau ,deux scènes de parole coexistent; une scène principale où a lieu le face-à-faceentre adversaires du jour et une scène secondaire qui enchâsse la première, etaccueille à la fois le public-plateau et les « tiers » intervenants. Par ailleurs, il y a matière à se pencher sur l'identité des invités appelés à endécoudre dans Infrarouge, invités qui sont désormaisrecrutés non plus seulement en fonction de leur statut socioinstitutionnel( élus, parlementaires de la scène politique cantonale ou nationale) mais ausside leur idiosyncrasie anticipée par l'instance médiatique (compétencecommunicationnelle, charisme, etc.). Dès lors, si Infrarouge maintient dans ses débats quelques thématiques strictementpolitiques (financement de la sécurité sociale : 29/08/06, chômage : 04/04/06 ,questions de l'asile et de l'intégration des Musulmans : 11/02/06 et 03/10/06) ,elle privilégie cependant le traitement de faits de société nourris parl'actualité du moment (l'affaire des caricatures de Mahomet : 07/02/06, lagrippe aviaire; 28/02/06, la prostitution lors du mondial de football :23/05/06). Cette ouverture thématique légitime l'invitation par l'instancetélévisuelle de nouvelles catégories d'acteurs moins institutionnels et dont laprésence bloque a priori l'assimilation de cette émissionau genre « débat politique », du moins tel qu'il se déclinait initialement. Surl'année 2006, on constate sur le plateau d ' Infrarouge ,outre la présence de politiciens, notamment ceux de l'Union démocratique duCentre (UDC), toujours enclins à radicaliser l'argumentation (par exemple troisémissions consacrées en 2006 au leader populiste de l'UDC, Christophe Blocher) ,celle de personnalités, souvent « bons clients » qui, ayant déjà fait leurspreuves par le passé, à travers leur sens de la répartie ou leur esprit decontraction, reviennent périodiquement; ainsi, et à titre d'exemple, eninvitant de sémillants avocats prêts à défendre « une » cause (par exempleCharles Poncet, Jacques Barillon) ou des « intellectuels » à la réputationsulfureuse (p tels Tariq Ramadan, invité à deux reprises en 2006, ou JeanRomain, philosophe et écrivain très « médiatique »), les producteurs del'émission induisent des effets de personnalisation dans le jeu politique ,imposent la polémique comme registre attendu, et enfin exploitent autant laposture d' « électron libre » des invités que celle de représentant ou deporte-parole autorisé revendiquée en règle générale par les élus politiques. Au sein de cette configuration identitaire hétérogène, dans laquelle lesparlementaires (conseiller nationaux, élus locaux) conservent, précisons -le, uneforte visibilité, principalement dans les débats orientés autour de thèmes« politiques », l'interdépendance entre le dispositif scénographique et ledispositif d'énonciation s'avère accentuée par rapport aux débats précédents ;duplex, webcam, SMS envoyés par les téléspectateurs, etinsérés par incrustation à l'écran, témoignent de la mise en place d'unimportant dispositif technologique qui participe d'une rupture de l'unité delieu et d'action qui caractérisait historiquement les débats à la TSR. Ainsi ,quand bien même le format de discussion d ' Infrarouge (leface-à-face) s'apparenterait-il à celui en vigueur dans TO, ce sont les éléments sémiotiques circonscrivant ce format qui enmodifient la portée symbolique; car il faut comprendre que la discussionpolitique autour d'un mobilier rassembleur et d'une table rotonde (TO) qui réunit n'équivaut pas à une confrontation autourd'une table rectangulaire et oblongue, qui marque davantage l'opposition qu'ellene rassemble. Comme on l'a vu, les studios des trois débats suisses romands ont des ancragestopologiques distincts. À un niveau plus micro, on détaillera à présent lesopérateurs sémiotiques qui construisent les dispositifs scénographiques. Pour yparvenir, on examinera tour à tour l'agencement scénique, les dispositifsd'emplacement des acteurs et enfin le dispositif d'énonciation que traduit cetteorganisation de l'espace. Au sein des studios de télévision, se localisent desscènes délimitées par des frontières plus ou moins marquées, scènes qui séparentle plateau en espaces principaux et/ou secondaires, clivés ou joints, centrauxet/ou périphériques. Dans son analyse scénologique des débats télévisés, NoëlNel (1990 : 101) appelle « topos des actants » et« topos du public observateur » respectivement le territoire où se développentles échanges de parole entre invités du débat, et celui réservé à l'assistanceprésente dans le studio. Selon l'auteur précité, l'arrangement de ces scènespeut d'ailleurs s'exprimer à la fois comme relation topologique (proximité ,fusion, ouverture vs fermeture) et comme relation euclidienne, construite alorsautour de coordonnées spatiales (points, lignes, profondeur) (ibid. : 98). Appliqué aux débats politiques à la TSR, l'examen de cesdeux types de relations est éclairant. Dénuée de scène réservée au public, lapremière émission (TO) s'édifie à partir d'unépicentre : la scène des débatteurs. Celle -ci joue sur le détachementfond/figure avec un effet d'effacement de la profondeur du studio, conjuguant undécor azur aux vertus apaisantes, et une absence de visibilité de l'espaceextérieur à la scène des débatteurs. Dans un second temps, les débats à la TSR (DdC et Infrarouge) gagnent envisibilité, s'installent dans l'espace de profondeur du studio tout enmaintenant un principe de centralité de la scène des débatteurs; cependant ,l'ajout d'une scène enveloppante réservée au public ne clive pas les scènesentre elles, et ne dissocie pas le statut actoriel et spectatoriel des personnesprésentes dans le studio – comme c'est souvent le cas dans les talk-shows – mais les hiérarchise et les enchâsse. À l'examenmaintenant des relations euclidiennes qui structurent l'espace télévisé, onconstatera que si la TSR a privilégié initialement (TO )un face-à-face euphémisé, construit à partir d'une « diamétralité » et d'une« axialité » spatiale (Boudon, 1981 : 100), elle a, par la suite, organisé lestudio sur un principe de concentricité des scènes (à l'instar des espacesparlementaires), pour enfin privilégier un « dualisme concentrique » (ibid. : 100) qui met en présence deux scènes, l'unecentrale, l'autre périphérique. Tout aussi signifiantes sont les places « physiques » occupées par lesprotagonistes au sein de ces scènes. Ainsi le dispositif d'emplacementcirculaire de TO, remplacé d'abord par une configurationen fer à cheval (DdC) puis par un dispositif plus éclaté( DdC dès 2001), redevient frontal et resserré avec Infrarouge. À l'aune des emplacements, c'est aussi lemobilier qui joue un rôle crucial dans le type de communication relationnellequi s'établit dans ces débats, puisque les emplacements, tantôt partagés, tantôtindividuels, favorisent des jeux de coalition/d'alliance, ou au contraired'opposition et d'antagonisme entre les invités; de fait, ce mobilier rassembleles protagonistes mais les oppose symboliquement dans TO (mobilier continu dans le cas d'une table ronde), il les sépare (mobilierdiscontinu) mais vise à les faire converger dans la configuration en arc decercle de DdC, pour enfin les réunir (autour d'une mêmetable) mais les opposer dans Infrarouge : oblongue et àangle droit dans Infrarouge, circulaire dans TO, la table qui accueille les sujets parlants constitueainsi un marqueur non négligeable de la portée relationnelle des échanges. Faut-il ajouter que le dispositif d'emplacement a aussi des incidences sur lesrégimes proxémiques et posturaux imposés aux invités, à l'animateur et aupublic ? On peut convoquer la grammaire des distances interindividuellesproposée par Edward T. Hall (1971) et admettre que les mises àdistance/rapprochements entre invités nous renseignent sur les modalitésd'échange et le régime de présence des acteurs du débat. Ainsi, si TO rapproche les débatteurs, favorise un échange raisonnéen instaurant une distance « personnelle » entre eux, DdC les maintient à une distance « sociale » et « publique »; cette mise à distancedes sujets parlants, qui va de pair avec une individualisation de leuremplacement (« pupitres » répartis dans le studio), prédispose sans aucun douteà une singularisation de l'énonciation, et restreint la recherche de consensus .La tendance se confirme avec Infrarouge qui impose une« structuration posturale frontale » (Brunnetière, 1996 : 109) entre deuxdébatteurs tenus à distance idoine; ni trop proche afin de leur éviter unesituation d'intimité propice au dialogue empathique, ni trop éloignée pouraccentuer les effets de « tension » recherchés sans doute par les concepteurs del'émission. Quant au modérateur, il a eu, traditionnellement, dans les débats à la TSR, pourrôle prédominant de gérer les interactions sur le plateau (allocation des toursde parole, gestion thématique, etc.). En termes de territorialisation, et sil'on recourt aux opérateurs planaires de l'espace que sont la « centralité » surl'axe frontal du plateau et le « retrait » sur l'axe latéral (ibid. : 104), se dessine la place matérielle et symbolique de cejournaliste-modérateur dans les trois émissions analysées. Point commun àcelles -ci : le journaliste partage lascène des débatteurs, il en constitue même l'épicentre (voir le dispositif deTO ou celui d ' Infrarouge). Enposition de centralité, ce journaliste contrôle les échanges, privilégie sonrôle de gestionnaire des échanges. Assis en « bout » de table dans TO, à son milieu dans Infrarouge ,localisé au centre de l'assemblée dans DdC, lejournaliste se caractérise en outre par une position de « retrait » par laquelleson impartialité et son implication énonciative limitée sont soulignées parcette organisation territoriale. On clôturera ce parcours en rendant compte de l'évolution du dispositifd'énonciation dans les débats télévisés à la TSR. Dans toutes les émissions – àl'exception de DdC –, le dispositif repose sur unprincipe de polyphonie discursive où la voix des téléspectateurs se greffeponctuellement à celle des débatteurs. Dès le premier débat (1966), letéléspectateur, figure du citoyen tout venant, demeure personanon grata sur les plateaux. Convié cependant à s'exprimer en direct surappel téléphonique – un mode d'intervention qui le prive d'une présence physiqueet traduit une coupure sémiotique entre le corps et la voix – ce téléspectateurn'est cependant pas complètement absent du débat, puisqu'un standardtéléphonique, exhibé à l'arrière-plan du décor, rend compte de sa participationvocale; les vitres transparentes du standard, scène dans la scène, et lavisibilité des standardistes dans la profondeur de champ rappellent autéléspectateur que ce premier débat est construit pour lui, qu'il y a sa place ,même si celle -ci s'acquiert par un renvoi métonymique. Sil'intervention téléphonique en direct du téléspectateur est par la suiteabandonnée au profit d'un acte de médiation, un journaliste venant régulièrementsur le plateau rendre compte des questions/remarques des appelants, la mise enrelation du téléspectateur avec les invités demeure cependant tangible. Cetteparticipation du quidam, quoique encadrée et formatée( questions courtes à poser aux invités), ne sera plus opérante dans le seconddébat au sens où le modèle de l' « assemblée parlementaire » reproduit par lestudio de DdC et l'imaginaire démocratisant qui s'yrattache (démocratie représentative) procèdent logiquement d'une éviction de laparole du téléspectateur-citoyen. Il faut attendre 2004 (Infrarouge) pour constater laréapparition physique du profane dans le débat mais selon un modus operandi différent. Cette fois, le studio de la TSR s'ouvre surl'extériorité du studio et le médium télévisé, désormais hybride, emprunte aumédium informatisé sa logique de mise en réseau en se connectant surl' « ailleurs » de la vie quotidienne et sociale (webcam connecté au domicile d'un témoin, recours au duplex, SMS, mise en relation avecle site internet de l'émission). Une analyse (socio)sémiopolitique de la situation de communication révèle que ledébat politique à la TSR s'est récemment spectacularisé, notamment en tablantsur les effets d'audience que peuvent susciter les performances actorielles desdébatteurs (polémique, réactivité, jeu sur les faces des débatteurs). Le studiode télévision, après avoir été un espace de jonction entre l'opinion publique etla sphère du politique, après avoir préfiguré une discussion pacifiée maiscontradictoire, a désormais acquis un statut de scène de représentation ;d'abord en convoquant des références à un lieu institutionnel (l'assembléecollégiale dans DdC), ensuite en s'arrimant à un espacethéâtralisé (tribunal populaire dans Infrarouge). Onassiste ainsi dans le paysage audiovisuel suisse romand à une reconfiguration del' « espace public télévisuel » (Mouchon, 1998 : 15) autour d'une logiqued'affrontement (l ' agôn), avec une arène télévisée fondéedésormais sur l'activation d'une parole dissensuelle et non plus consensuellecomme ce fut le cas précédemment. La rupture intervient, on l'a vu, avecl'émission Infrarouge (2004) qui, aux dires de sescréateurs, a été conçuepar analogie avec un « village virtuel ». Ce concept a pour conséquence – etnotre analyse conforte cette déclaration d'intentions – de rattacher ladiscussion politique à un imaginaire très « contemporain » : celui d'unedémocratie directe et participative. Connecté à tout moment à des espacesextérieurs au studio, le média télévisé emprunte désormais à la logiquedé-spatialisante du médium informatisé. Ayant à composer avec un « contrat decaptation » (Charaudeau et al., 1991 : 17) toujours pluscontraignant (faire ressentir, faire réagir, faire participer) dans l'optique depréserver son audience face aux chaînes concurrentes, Infrarouge a abandonné le principe d'unité spatiale, et conçu sondispositif autour de trois enchâssements sémiotiques : celui de la scène dustudio avec un « ailleurs » (duplex, webcam, espaceagrégatif ou les écrans dans l'écran); celui d'une réalité filmée (ouprofilmique) avec un univers extra filmique (forum virtuel, SMS défilant àl'écran) et enfin celui des discours tenus depuis une arrière-scène( public-plateau) avec ceux tenus depuis une scène principale. Les studios de la TSR ont été initialement mis en scène pour promouvoir desespaces de négociation et privilégier la finalité interne (Vion, 1992 : 127) des échanges, au sens où les débatteurs semblaient avant tout« appelés à s'entendre sur les contenus et délimiter les points de convergence »( ibid. : 127). Dès 1996, ces studios rejouent lesattendus d'une démocratie représentative, par mimesis avec le dispositif scénique en vigueur à l'assemblée parlementaire suisse (DdC) alors que désormais (Infrarouge dès 2004), la TSR met en spectacle une forme syncrétique dedémocratie directe télévisée où les finalités externes des interactions entre invités (gratification symbolique, polémique, figuration )font concurrence, ou du moins se surajoutent aux visées de transmission decontenus, fondatrices des premiers débats. Cette évolution des dispositifstélévisés n'est sans doute pas étrangère à la situation de crisepolitico-institutionnelle traversée depuis quelques années par la Suisse, avecen point de mire, la conflictualisation du débat politique mais aussi la remiseen cause d'un ethos du consensus qui caractérisait à lafois le champ politique et les premiers débats à la TSR. Il s'avère que suite aurécent succès électoral (2003) de la droite nationale populiste (l'UnionDémocratique du Centre) et à l'élection de son leader, Christoph Blocher, ausein du Conseil fédéral, la conflictualisation du débat politique à l'échellenationale se trouve projetée (l'introduction du face-à-face, la métaphore duduel, le « débat-tribunal ») dans l'organisation scénographique d ' Infrarouge, dernier « débat » en date programmé par laTSR. Ce débat - show (ou two-man-show), ne fait finalement que se mettre au diapason destensions surgies dans l'arène politique, la mise en scène des studios traduisantle « style » politique du moment (personnalisation de la politique ,radicalisation des antagonismes). L'articulation entre l'événementialité constatée dans le champ politique et lesmouvements de programmation télévisés invite à jeter un éclairagesémio-politique sur les mises en scène de ces débats. On peut à cet égardrappeler les enseignements du travail de Jean-Pierre Esquenazi (1999) qui, surla base d'un historique des émissions de télévision françaises, montre que lasuccession des régimes politiques en place, et la nature du réseau tissé entreles journalistes politologues, animateurs de débats et les politiques, sontautant d'éléments contextuels qui « affectent la production de formes d'émissionspécifiques, gouvernées par une intentionnalité spécifique » (ibid. : 23). Certaines émissions emblématiques, L'Heure de vérité (dès 1982) notamment, ont été en mesure de modifierles règles du jeu télé-démocratique, d'affecter les rapports de force entreacteurs, et plus spécifiquement de marquer l'ascendant de l'instancetélévisuelle sur la sphère du politique, en enfermant notamment les élus dansune logique performancielle (prépondérance de l'image donnée de soi, prise encompte de l'opinion publique). En cela, Infrarouge, deuxdécennies après le lancement de l'émission de François-Henri De Virieu, sembleêtre en mesure d'imposer de nouvelles règles du jeu, sommant les hommespolitiques de se soumettre à l'épreuve du duel et du réquisitoire public. Parailleurs, si on s'en tient aux mouvements de programmation recensés parSébastien Rouquette (2002), le glissement, constaté dans Infrarouge, d'une logique de confrontation d'opinions vers celle d'unaffrontement entre personnalités, permet de tirer un parallèle entre le débatsuisse et la « vague polémique » de talk-shows quidéferla en France dès 1988. En effet, il y a homologie de structure entre Infrarouge et les shows de parolede l'époque (Ciel mon Mardi ou Stars àla barre), au regard notamment du choix des sujets traités (faits desociété), du style d'animation offensif fondé sur le rôle d'interlocuteur à partentière assumé par l'animateur, et de la typicité (voire archétypicité) desidentités sociales et discursives des invités. Cependant, les conditionsd'émergence de ces formules diffèrent. Ainsi, si la vague de talk-shows polémiques en France n'est pas étrangère au consensus quicaractérisa la période de cohabitation politique et à la situation de forteconcurrence entre les chaînes qui suivit la privatisation de TF1 (avec l'arrivéede nouveaux canaux, La Cinq et M6), la reconfiguration du débat à la TSRapparaît-elle comme l'aboutissement d'une radicalisation des tensions politiques( fin du consensus et du principe de collégialité au gouvernement) et dudurcissement du débat politique public autour de thèmes « sensibles »( immigration, droit d'asile politique). La comparaison s'avère alors éclairante puisqu'elle souligne que l'instancetélévisuelle peut soit accompagner un « climat » politique, mettant en phase sonrégime de parole et les mises en scène de ses débats avec le contexte politiquedu moment (Infrarouge et le contexte politique suisse) ,soit au contraire proposer des formules (types de gestion de la parole) quis'inscrivent en rupture avec une situation politique donnée. C'est ce derniercas de figure que relève par exemple Éric Darras (1994 : 78), dans son analysede l'émission Les Absents ont toujours tort (La Cinq) ,parodie des émissions politiques de l'époque, et dont le dessein fut de« restaurer dans la France politiquement consensuelle de 1992, les couplesnotionnels fondamentaux et fondateurs du jeu politique (majorité/opposition ,droite/gauche, bien/mal) ». Se pose enfin la question de savoir si l'on n'assiste pas à un déclin, du moinsstructurel, sinon conjoncturel du débat politique à la TSR ? Autrement dit ,est -ce que, malgré les missions juridiques assignées à la télévision publique enSuisse, l'unique chaîne publique et généraliste suisse romande ne céderait pasaux sirènes des talk-shows, en préférant tabler sur lamédiatisation spectacularisante de problèmes de société (affaires, scandales )plutôt que de traiter uniquement de dossiers politiques, souvent techniques etpeu propices à drainer un public noctambule ? Si lesdeux premiers débats (Table ouverte et Droit de cité) ont rejoué les attendus d'un espace de délibérationpolitico-médiatique qui informe et édifie la conscience citoyenne destéléspectateurs avant les nombreuses votations (référendum, initiativespopulaires) constitutives du système de démocratie directe en Suisse, le dernierdébat (Infrarouge) propose, quant à lui, de mettre enscène une dramaturgie télévisuelle dans laquelle les débatteurs accomplissentdes performances, et dans laquelle les enjeux, liés aux gains/pertes symboliquesinhérents à ces duels télévisés, sont exacerbés par la scénographie dustudio .
En tant que genre télévisé, le débat peut donner lieu à des analyses longitudinales et historisantes destinées à cerner l'évolution de l'imaginaire de parole qui s'y déploie. À l'aide d'une approche (socio)sémiopolitique, il est possible de prendre pour repère non pas les thématiques, arguments ou indicateurs langagiers à l'œuvre dans ces débats, mais les données situationnelles qui les structurent et les instituent. Sur la base d'un travail empirique prenant appui sur des débats diffusés par la télévision suisse romande (TSR), une analyse de la scénographie et des mises en scène des espaces des plateaux de télévision a été menée. On propose alors un modèle d'analyse de la situation de communication qui rend compte d'une grammaire de l'espace fondée sur un découpage du territoire en unités d'analyse (lieu, scènes, emplacements) ; le postulat avancé étant que cette situation préfigure les interactions à venir et confère aux plateaux de télévision une portée symbolique.
sciencesInfo_10-0227890_tei_1102.xml
termith-469-communication
« La réutilisation de texte est l'activité par laquelle des textes écrits préexistants sont utilisés pour créer un nouveau texte ou une nouvelle version 1 ». Réutiliser un texte est une activité qui nécessite que « l'auteur applique consciemment des procédés de transformations de forme de l'expression du texte source pour arriver au texte final » (Clough et al., 2008). Les doublons, versions, adaptations du genre, résumés, traductions, citations, etc. sont autant de formes de réutilisation d'un texte original. L'étude du problème de la détection de réutilisation présente de nombreux intérêts. D'un point de vue applicatif, elle permet l'amélioration des performances des moteurs de recherche par filtrage des doublons (réduction des coûts de stockage, accélération de l'indexation, réduction du bruit) et elle apporte des solutions au problème de détection de plagiats. Elle offre aussi des moyens de suivre des discussions concernant un produit et de mesurer la portée d'une annonce. La réutilisation d'un texte pour créer un dérivé est complexe. La production d'un texte dérivé intègre de nombreux aspects liés à l'auteur de la réutilisation (par exemple est -ce un des auteurs de la version originale ?), son positionnement par rapport au texte original, les choix effectués sur les éléments de reprise qui dépendent des caractéristiques du texte original (par exemple s'agit-il du contenu – faits, évènements, opinions, etc. – ou du contenant – le style de l'auteur, le genre du texte – en quelle proportion ?). La détection de dérivés présente aussi de nombreuses facettes qu'il faudra adapter en fonction de la granularité de la réutilisation, la disponibilité de corpus, l'espace de recherche des candidats, l'homogénéité stylistique, thématique et de genre de ces données et finalement l'objectif (par exemple identifier un texte comme étant une réutilisation, rechercher des réutilisations d'un texte, rechercher les sources d'un texte, suivre les réutilisations successives d'un texte, etc.). En pratique, la plupart des travaux ne prennent pas en compte tous ces aspects et cherchent à évaluer le nombre d'éléments en commun entre deux textes. Ils construisent une modélisation des textes fondée sur ses éléments textuels que l'on appelle alors descripteurs (Clough et al., 2008; Broder, 1997), puis comparent ces modélisations à l'aide d'une mesure de similarité pour prendre une décision concernant l'existence d'une relation de dérivation entre les textes. Le choix d'une mesure de similarité dépend de la modélisation, et a des conséquences sur le coût de la méthode et la similarité mesurée. De notre point de vue, ces méthodes ont leurs limites et un cadre multidimensionnel est nécessaire pour appréhender cette complexité. En effet, deux documents peuvent partager le même contenu thématique avec les mêmes entités mais ne pas être des dérivés pour autant. Les exemples suivants, extraits de notre corpus, illustrent un dérivé avec réutilisation de texte (mêmes entités et évènements relatés avec des éléments textuels en commun) et un texte similaire non dérivé (des entités en commun mais des évènements relatés différents). Le groupe Carrefour va prochainement se lancer dans la VOD en France mais pas seulement. Fier de ses parts de marché dans la vente de DVD dans d'autres pays d'Europe (autour de 13 %), Carrefour va aussi ouvrir son service de Vidéo à la Demande en Espagne, Italie et Belgique. Exemple (2) Texte dérivé Le géant national de la grande distribution française lancera une offre de VOD, vidéo à la demande en France, Belgique, Italie et Espagne, où par ailleurs il détient une part de marché de 13,3 % dans la vente de DVD. Exemple (3) Texte similaire non dérivé Le 8 novembre 2006 en partenariat avec Orange, Carrefour lancera son offre de téléphonie mobile : Carrefour Mobile. Le groupe de distribution devient ainsi opérateur virtuel de téléphonie mobile (MVNO) avec les mêmes ambitions que son concurrent direct Auchan. Dans cet article, nous nous intéressons au problème de détection de textes dérivés réutilisant du matériel textuel de leur source dans le contexte d'une collection d'articles de presse en français. Nous considérons que l'ensemble des documents candidats dérivés est figé et à disposition, contrairement aux configurations sur un ensemble ouvert de candidats (Fetterly, 2005) ou sur un ensemble évolutif de documents (Conrad, 2003). Nous abordons le problème à l'échelle du document et ce, selon deux configurations applicatives. Dans le premier cas, étant donné deux textes, dont le premier est connu comme étant un texte source, nous cherchons à déterminer l'existence d'une relation de dérivation entre eux, c'est-à-dire si le second texte dérive du premier. Dans le second cas, aucune connaissance a priori n'est donnée sur la nature des deux textes à observer. Il s'agit alors de déterminer l'existence d'une relation de codérivation entre les deux textes c'est-à-dire si l'un dérive de l'autre ou bien si tous deux dérivent d'un ancêtre commun. Nous distinguons ces cas d'étude au niveau des jeux de données mais nous conservons la même approche dans nos expérimentations. Nous explorons l'utilisation de plusieurs types de descripteurs, certains en reprenant le principe des n - grammes, d'autres en s'appuyant sur la nature linguistique des éléments considérés. Nous comparons les coûts de ces différentes approches pour la création, le stockage et la comparaison des modélisations. Notre objectif principal est de minimiser les coûts tout en maintenant un bon niveau de prédiction. Nous justi-fions la sélection des descripteurs sur la base de leur singularité ou de celle dont peut faire l'objet leur combinaison. Nous définissons les singularités comme des éléments spécifiques au document (en général relativement à une collection de même genre ou domaine auquel appartient le document). Nous tentons de montrer que les singularités des documents sont les descripteurs les plus efficaces. À notre connaissance, ce travail constitue la première étude de détection de liens de dérivation et de codérivation entre des textes écrits en français. Il se distingue de surcroît de l'existant d'une part par l'attention que nous portons à l'ancrage linguistique des descripteurs et à leur impact sur la complexité des méthodes, et d'autre part, par la volonté d'adopter une approche multidimensionnelle de la dérivation que nous mettons en œuvre par la combinaison des descripteurs. Dans les sections suivantes, nous précisons la définition du problème de dérivation de texte (cf. section 2). Puis, nous présentons les descripteurs que nous avons choisis (cf. section 3) ainsi que le cadre de nos expérimentations (cf. section 4). Finalement nous rapportons et discutons les résultats obtenus (cf. section 5). Dans un premier temps, nous présentons les différentes facettes de la notion de dérivation à travers les terminologies employées dans la littérature. Dans un second temps, nous présentons les approches de détection existantes reposant sur le calcul d'une mesure de similarité entre des modélisations de documents. La littérature utilise une terminologie variée pour désigner la notion de dérivation. Chaque terme s'attache à un aspect particulier du problème désignant tour à tour : le type de copie, la granularité de la reprise, les liens de dérivation, le matériel repris. Lyon et al. (2004) choisissent le terme de copie (copy) comme terme générique alors qu'il est employé par Brin et al. (1995) et Shivakumar et al. (1996) comme synonyme de plagiat. Nous utiliserons le terme dérivation pour faire référence au processus général de création d'un texte à partir d'autres. Nous nommons le texte copié la source et le nouveau texte créé le dérivé. La source et le dérivé sont liés par une relation de dérivation. Plus généralement, lorsque le lien de parenté n'est pas dirigé ou que les documents ont un ancêtre commun tiers, nous parlons de relation de codérivation (Bernstein et al., 2004). La figure 1 illustre ces deux types de liens. Le processus de dérivation comprend une phase de sélection d'éléments de la source et une phase de transformations éventuelles de ces éléments pour intégrer le dérivé. Concernant la sélection, les éléments empruntés peuvent être des séquences de mots, des syntagmes, des passages de texte, des faits ou même des idées, lesquels sont partagés entre les codérivés selon plusieurs niveaux de granularité. Seo et al. (2008) proposent six niveaux de granularité qu'ils distribuent en deux configurations majeures : les presque-doublons lorsque l'on retrouve la majorité des éléments d'un texte dans l'autre et les réutilisations locales de texte lorsque quelques éléments sont empruntés ponctuellement. Nous nous intéressons dans cet article à ces deux types de configuration même si notre corpus est majoritairement composé de presque-doublons (cf. section 4.1). Les transformations opérées évoluent le long d'un continuum de mo-fications que nous discrétisons en trois classes : la réutilisation, la réécriture et l'inspiration. La réutilisation 2 correspond à un copier-coller sans modification ou avec des modifications uniquement « visuelles » (encodages, retours à la ligne, etc.). Les méthodes fondées sur la mise en correspondance de sous-chaînes (Wise, 1996) sont les mieux adaptées pour les détecter. La réécriture se caractérise par des reformulations, l'emploi de paraphrases ou de synonymes. Ces types de réutilisation sont les mieux repérés par des modélisations à base de n - grammes ou de fragments de texte de tailles variables qui captent les segments non modifés. Enfin, l'inspiration correspond à une réécriture globale du texte original à partir d'une interprétation de son contenu ce qui permet de prendre de la distance avec la forme textuelle originale. Il est alors nécessaire de faire appel à la sémantique ou même la pragmatique du texte (O'Shea et al., 2008; Pirró, 2009). Nous considérons dans le cadre de ce travail la détection des relations de dérivation et de codérivation impliquant des transformations de type réutilisation ou réécriture. En résumé, la détection de dérivation est un problème avec de multiples facettes pour lesquelles différentes méthodes ont été expérimentées avec plus ou moins de succès. Cependant, peu d'approches se sont intéressées aux coûts des processus en termes de temps de calcul et d'espace de stockage. Nous expérimentons des méthodes qui tirent parti des singularités textuelles partagées entre les codérivés. Nous visons notamment le meilleur rapport entre nombre d'éléments de la signature et qualité des prédictions. Les approches fondées sur la comparaison de documents adoptent le schéma classique de modélisation des documents en recherche d'information et reposent sur l'hypothèse que la ressemblance mesurée entre deux documents est corrélée à la probabilité qu'ils soient dérivés. Une telle approche fondée sur la mesure de similarité entre documents se décompose en trois étapes (Clough et al., 2008, p. 6) : la sélection de types d'éléments textuels à observer (par exemple mots, groupes de mots, phrases, paragraphes, n - grammes, etc.), que nous appelons les descripteurs; la modélisation du document sur la base de ces descripteurs, avec application possible de règles de normalisation (morphologique, syntaxique ou sémantique) ou de filtrage (filtrage des mots outils, une taille de n - gramme, les n premiers rencontrés depuis le début du texte, ceux obtenant les meilleurs, etc.). Nous appelons ces modélisations des documents des signatures; le calcul d'un score de similarité par comparaison de ces signatures. Stein et al. (2005) catégorisent ces approches en trois classes : similarité de motsclés, analyse d'empreintes et mise en correspondance de sous-chaînes. En ce qui nous concerne, nous nous intéressons aux similarités de mots-clés et aux analyses d'empreintes étant donné qu'elles mesurent respectivement une similarité globale et locale (Stein et al., 2005). Deux documents sont globalement similaires s'ils sont similaires à l'échelle du document sans que leurs séquences de mots ne soient forcément en correspondance, alors qu'ils sont localement similaires lorsqu'ils partagent une séquence de mots en commun (ils possèdent des régions identiques (Stein et al., 2005)). Nous délaissons la mise en correspondance de sous-chaînes qui revient à réduire la modélisation à l'intégralité du texte. Les approches de type similarité de mots-clés, introduites avec le système CHECK (Si et al., 1997), utilisent les mots porteurs de la thématique du document comme descripteurs. Elles permettent de détecter des similarités globales. Les approches par analyse d'empreintes, introduites avec le système COPS (Brin et al., 1995), mesurent le recouvrement de toutes les séquences de mots entre documents. Ces séquences de mots peuvent être de taille fixe ou correspondre à des phénomènes linguistiques. Afin de réduire le coût de la comparaison de ces signatures, les séquences sont indexées sous forme numérique (à l'aide de fonctions de hachage telles que SHA). Les similarités locales se manifestent alors sous la forme de collisions dans l'index des séquences. Quelles que soient les approches, les mesures de similarité sont appliquées sur les modélisations construites. Elles expriment la similarité sous la forme d'un nombre réel habituellement compris entre 0 et 1. La prise de décision quant à la réalité de la relation de dérivation est alors fondée sur ce résultat, souvent par comparaison par rapport à un seuil déterminé. La mesure de similarité est choisie selon la structure de la signature et le type de relation à identifier. Ainsi, l'absence de propriété de symétrie de la mesure de containment permet de tenir compte de l'ordre des signatures de la relation, ce qui permet de valoriser les éléments de l'une par rapport à l'autre. En résumé, si l'analyse d'empreintes est l'approche la plus employée, elle nécessite de conserver un volume d'éléments au moins égal au nombre de mots du texte tandis que la projection numérique ne différencie pas les modifications mineures sur les descripteurs des majeures. La similarité de mots-clés quant à elle ne permet de mesurer que les similarités globales. Nous avons choisi de combiner ces deux approches afin d'identifier les dérivations et les codérivations de type presque-doublon. Nous proposons de mêler différentes caractéristiques des approches existantes, notamment de modéliser les documents à l'aide de nouveaux descripteurs « statistiques » et « linguistiques », et d'étudier leur combinaison. Notre approche reprend les trois étapes fondamentales présentées en section 2.2 : sélection des descripteurs, modélisation du document et comparaison des modélisations. Nous fixons les deux dernières étapes afin d'étudier plus particulièrement l'impact de nos différents descripteurs et pouvoir ainsi comparer nos approches. Ainsi, les documents sont modélisés par l'ensemble non ordonné des descripteurs sélectionnés (étape 2). Puis, ces ensembles sont comparés (étape 3) avec la mesure de containment (cf. ci-dessous) introduite par Broder (1997). L'intersection entre les signatures ne retient que les correspondances exactes entre les éléments. avec A, B les textes et S(A) et S(B) leur modélisation respective. Nous souhaitons comparer l'utilisation comme descripteurs des trigrammes hapax, des entités nommées, des composés nominaux et des connecteurs discursifs. La figure 2 montre ces derniers annotés sur un texte source et un texte dérivé candidat. Chaque texte est modélisé par l'ensemble des éléments du texte correspondant à un type de descripteur donné. Par exemple, l'ensemble {Elysée, UMP, PS, Benoist Apparu, Valérie Boyer} constitue la signature « entités nommées » du texte source de la figure 2. Cette signature sera comparée à celle de même type pour le texte candidat ({ Le Chef de l ' Etat, PS, Benoist Apparu, Valérie Boyer }) à l'aide de la mesure de containment ce qui donne un score de similarité de. La décision de la présence d'une relation de dérivation est basée sur la comparaison de ce score de similarité () par rapport à un seuil de décision (). Le classifieur () est donc défini par une mesure de similarité (le containment sur nos différentes signatures) et ce seuil de décision : Nous procédons de même pour la codérivation, au seuil de décision près. Cette classification linéaire à partir d'une seule valeur seuil repose sur l'hypothèse selon laquelle plus des textes sont similaires plus la probabilité est forte pour qu'ils dérivent (respectivement codérivent) l'un de l'autre. Il nous faut donc déterminer la valeur seuil à partir de laquelle la probabilité est suffisamment élevée pour classer les documents comme dérivés (respectivement codérivés). Broder (1997), Lyon et al. (2004) et Yang (2006a) utilisent les n - grammes de mots 3 dans leur approche pour repérer des doublons et presque-doublons en anglais. Yang (2006a) rapporte une précision et un rappel autour de 100 % pour cette tâche. Cette prise en compte des séquences de mots couvrant tout le texte revient à comparer les textes en entier en termes de coûts de stockage et de comparaison. Nous proposons d'utiliser une telle approche comme point de comparaison et d'essayer de l'améliorer en réduisant la taille des signatures générées. Pour ce faire, nous proposons de sélectionner les éléments du document source (ici les trigrammes) suivant leur singularité. Nous évaluons la singularité d'un élément d'un texte source relativement à sa distribution au sein d'une collection de référence. La collection doit être composée de textes partageant des caractéristiques identiques avec le texte source (par exemple domaine, genre, registre de langue) de façon à maximiser la probabilité de retrouver des similarités interdocumentaires. Un élément d'un document est alors appelé singularité du document s'il n'apparaît que dans ce document. Nous posons l'hypothèse que la présence de singularités d'un document source au sein d'un document candidat augmente la probabilité que ce document soit un dérivé du document source. Dans ce cadre, nous nous intéressons aux trigrammes hapax. Il s'agit des trigrammes de mots qui n'apparaissent que dans le document considéré. Le document est alors modélisé par l'ensemble de ses trigrammes hapax. Si l'on reprend les exemples de l'introduction (page 71) : Nous étendons cette hypothèse de singularité aux combinaisons de descripteurs linguistiquement motivés. Nous pensons en effet que ces descripteurs sont pertinents par fonction et singuliers par leurs combinaisons. Nos motivations pour utiliser des descripteurs linguistiques sont multiples. D'abord, la nature linguistique des éléments textuels constitue un critère de filtrage de la masse de n - grammes couvrant tout le document. Cela constitue par conséquent un moyen de réduction de la taille des signatures. Ensuite, un texte dérivé reprend nécessairement des éléments de la source qui relèvent de son contenu ou de son organisation. Nous appelons invariants ces éléments. Nous faisons l'hypothèse que les entités nommées, les composés nominaux et les connecteurs discursifs peuvent constituer des expressions de tels invariants. Ainsi, s'il est peut être vrai que ces éléments pris isolément ne constituent pas des singularités, nous supposons que leur utilisation combinée est peu probable. Enfin, ces éléments sont avant tout des réalisations linguistiques qui résultent d'un choix d'expression d'un auteur 4. Par conséquent ils peuvent porter quelques singularités propres à l'auteur du document source. Les entités nommées sont considérées comme porteuses de faits clés dans le domaine de l'extraction d'information. L'extraction d'entités nommées est une technologie mature qui obtient des niveaux de performance de l'ordre de 90 % en précision et en rappel sur les articles de presse en anglais (Sundheim, 1993). Nous avons choisi de les utiliser comme descripteurs, sans effectuer de normalisation ou de résolution d'anaphore. En effet, bien que la simple présence d'entités nommées ne décrit que le fond du texte (potentiellement partagé par des articles traitant du même sujet), le choix des formes lexicales désignant les entités est propre à l'auteur et est donc un indice potentiel pour la dérivation. Pour les exemples de l'introduction (page 71), nous aurions : Les composés nominaux sont privilégiés pour exprimer des idées et des concepts précis. Ainsi, ces derniers représentent plus de 80 % des termes spécifiques à un domaine pour les langages de spécialité (Cerbah, 2000), mais ils sont également communément employés dans le langage commun. Les composés nominaux peuvent se décliner dans de nombreuses variations morphologiques et syntaxiques au sein du discours, toutes doivent être envisagées pour les détecter avec précision. Par exemple, le composé nominal aménagement de la forêt peut apparaître au sein d'un syntagme nominal aménagement de la forêt. Le repérage et l'aggrégation de ces variantes augmentent la représentativité du composé nominal correspondant. Toutefois, pour les mêmes raisons que les entités nommées, nous conservons toutes les variations, ce qui donne : Les connecteurs discursifs sont les marques les plus visibles de la structuration du discours et les plus faciles à identifier (Sporleder et al., 2006). Ils sont le plus souvent présents au début des phrases quand le discours entame un nouveau développement. Les connecteurs discursifs soulignent l'organisation des idées. Certains patrons d'organisation des idées sont largement partagés entre les textes (Hernandez, 2004). Les articles scientifiques par exemple reprennent souvent la même articulation. Toutefois, le choix des connecteurs pour souligner cette organisation et leur enchevêtrement particulier peuvent être caractéristiques d'un document. En effet, la restructuration du discours est fastidieuse et en conséquence peut être un invariant entre codérivés. Les signatures correspondantes aux exemples de l'introduction (page 71) sont : Nous pouvons tirer parti de la présence combinée des trigrammes hapax et des descripteurs linguistiquement motivés tout en conservant une taille de signature inférieure au texte complet. De plus, ceci nous permettrait de caractériser les liens de dérivation sur plusieurs dimensions et non la restreindre au seul recouvrement de n - grammes. Nous étudions cette possibilité dans la section suivante. L'utilisation coordonnée des descripteurs peut s'envisager de deux façons : une combinaison dans la modélisation ou bien lors du calcul de similarité. Premièrement, la combinaison lors de la modélisation (étape 2, section 2.2), dans notre proposition, reviendrait à placer tous les différents descripteurs dans une même signature. Cette modélisation est problématique puisque les différents descripteurs considérés ne sont pas présents en nombre comparable dans les documents. Les plus présents deviendront plus discriminants que les autres lors de la mesure de containment. Cet effet de bord limite l'intérêt de la démarche qui a pour but de tirer parti des spécificités et capacités prédictives de chacun. Deuxièmement, la combinaison peut se faire lors du calcul de similarité (étape 3, section 2.2). Les documents sont comparés sur la base des quatre modélisations, une par descripteur (hapax, composés nominaux, entités nommées et connecteurs discursifs). La similarité entre les documents est alors une combinaison des similarités entre ces différentes modélisations. C'est cette approche que nous retenons, car elle place les différents descripteurs sur un pied d'égalité, tout en permettant de pondérer le rôle de chacun. Ce classifieur général () correspond alors en quelque sorte à l'union des autres classifieurs : En résumé, nous expérimentons plusieurs descripteurs singuliers et leur combinaison. Leur singularité se justifie soit statistiquement dans le cas des trigrammes hapax, soit par leur fonction linguistique et leur combinaison pour les autres. Dans cette section, nous décrivons notre protocole expérimental : les données utilisées, le protocole d'évaluation, l'approche de référence à laquelle nous nous comparons ainsi que nos choix d'implémentations. Comparaison de la constitution du corpus PIITHIE avec les corpus NTF, NTF2 et METER Corpus PIITHIE NTF NTF2 METER # documents 1110 275 270 1717 # sources # dérivés # non dérivés 85 717 308 28 220 0 26 213 0 773 643 301 Taille moy. des textes (en mots) # mots uniques 592 88266 156 3330 152 3437 312 NC Plusieurs corpus en langue anglaise ont été construits et annotés autour de la problématique de la détection de dérivation et ont été utilisés dans la littérature comme corpus d'évaluation, citons notamment NTF (Yang, 2006b), NTF2 (Yang, 2006b) et METER (Gaizauskas et al., 2001). NTF et NTF2 sont composés de lettres de requêtes à l'administration américaine, et METER d'articles de presse. Toutefois, il n'existe pas de tel corpus pour le français. Nous en avons constitué un en nous inspirant de la démarche utilisée pour METER. Dans un premier temps nous avons ciblé les agences de presse telles que l'AFP (Agence France-Presse) et REUTERS qui sont habituellement les fournisseurs de contenus originaux pour la presse en ligne. Nous nous sommes concentrés sur des nouvelles décrivant des évènements politiques ou sociaux durant la période de novembre à décembre 2008. Cette sélection constitue le cœur de notre corpus : les textes sources. Dans un second temps, nous avons tenté de ramener, à l'aide de moteurs de recherche, notamment, mais en se limitant à certains sites d'actualités afin d'assurer une homogénéité de genre, des articles de presse traitant de ces mêmes évènements et qui auraient ainsi pu être dérivés des dépêches d'agence. Nous avons retenu comme textes candidats ceux dont la date de publication était postérieure à celle de la source. Un linguiste a par la suite étiqueté manuellement chacun de ces candidats afin de différencier les articles dérivés de chaque source des non dérivés. Au final, le corpus est composé de 85 textes sources, 717 dérivés et 308 non dérivés. En moyenne, les textes sources et les dérivés candidats ont des tailles comparables en nombre de mots par document (594 pour 592). Le tableau 1 met en perspective la composition de notre corpus par rapport aux corpus METER 5 (Gaizauskas et al., 2001), NTF et NTF2 6 (Yang, 2006b). Contrairement à NTF et NTF2 notre corpus est constitué d'articles de presse, tout comme METER. Nous avons cependant réuni plus de dérivations et des documents plus longs que pour ce dernier. Nous nous sommes intéressés à la fois aux liens de dérivation et de codérivation. Si les premiers ont été annotés dans le corpus PIITHIE, ce n'est pas le cas des seconds. Nous avons construit les candidats à la codérivation par le rapprochement dans chaque partition du corpus des paires de type : source-candidat, candidat-source et candidatcandidat. Les paires candidat{dérivé}-source, candidat{dérivé}-candidat{dérivé} et source-candidat{dérivé} sont considérées comme des codérivations avérées 7. Ainsi, si une paire candidat{dérivé}-source est classée comme une relation de dérivation il s'agira d'un vrai positif, tandis qu'une paire candidat{dérivé}-candidat{non-dérivé} classée comme codérivation sera considérée comme faux positif. Nous avons extrait de notre corpus 1 025 paires de documents pour la tâche de dérivation et 8 589 pour celle de codérivation. Toutefois la proportion de positifs était déséquilibrée entre les deux types de relation : nous avions 2,25 paires de dérivation pour 1 paire de non-dérivation contre 13 paires de codérivation pour 1 paire de noncodérivation. Afin d'obtenir des résultats comparables, nous avons ramené la proportion des paires de codérivation à celle des paires de dérivation par un tirage aléatoire. Nous souhaitons évaluer la capacité de nos méthodes à détecter les liens de dérivation et de codérivation entre des textes, ainsi que leur coût de mise en œuvre. Les méthodes que nous expérimentons calculent une mesure de similarité entre deux documents. Nous présentons dans cette section comment nous recherchons le seuil permettant de décider des liens entre les sources et les candidats. Nous évaluons les différentes méthodes sur la base de leur performance pour la tâche de classification ainsi que sur leur complexité. Nous décidons du seuil en considérant notre problème comme un problème classique de classification binaire. Les classifieurs sont définis par un seuil de décision () (cf. section 3.1), est donc choisi de manière à obtenir la meilleure classification. Cette optimisation peut porter sur différents objectifs : maximiser le nombre de textes correctement classés comme dérivés (respectivement codérivés) auquel cas on choisira d'optimiser la précision (), ou bien de maximiser le nombre de textes dérivés (respectivement codérivés) reconnus auquel cas on choisira d'optimiser le rappel (). Nous faisons le choix d'observer ces deux optimisations dans le cadre de cette évaluation. Cette souplesse permet d'adapter le seuil à la tâche : pour la protection de la propriété intellectuelle le rappel prévaut, tandis que l'on préfèrera une bonne précision pour le suivi d'impact. Nous reprenons les définitions de Manning et al. (1999) de ces métriques y compris celle du F-score. La recherche du seuil optimal est menée en parcourant tout l'espace image que constituent les valeurs de similarités calculées entre les couples de textes. Cette approche nécessite de définir un corpus d'apprentissage pour la recherche du seuil et un corpus de test pour son évaluation. Nous réalisons pour cela une validation croisée dont les partitions sont alignées sur celles définies dans le corpus (une source et ses candidats associés). Le résultat de cette validation est présenté dans le tableau 3. Les métriques d'évaluation (précision, rappel et F-score) sont calculées à partir des vrais positifs, faux positifs, vrais négatifs et faux négatifs collectés durant la validation croisée sur toutes les partitions de test. Nous comparons nos résultats à une approche état de l'art : la signature complète (full-fingerprinting). La signature complète est une des méthodes les plus robustes pour la détection de presque-doublons. Elle est notamment utilisée pour la détection de plagiat (Lyon et al., 2004) et la mesure de réutilisation de texte (Clough, 2003). Elle consiste à représenter un texte par l'ensemble des sous-chaînes de taille fixe qui le composent (Clough, 2003, p. 37). Cette méthode est mise en œuvre, notamment par (Clough, 2003; Lyon et al., 2004; Jamie et al., 2005; Seo et al., 2008), à l'aide de trigrammes de mots avec recouvrement. Cette taille de sous-chaîne est suffisamment grande pour filtrer les mots et les idiomes communs sans pour autant être trop grande et n'extraire que des sous-chaînes singulières. La phrase « votre évolution est très correcte » sera représentée par les sous-chaînes : {' votre-évolution-est ', ' évolutionest-très ', ' est-très-correcte ' }. La signature complète repose sur l'hypothèse que des textes écrits indépendamment partagent un nombre réduit de sous-chaînes 8. Dans le cas présent, seuls quelques trigrammes de mots seront présents dans plusieurs textes écrits indépendamment alors que la plupart seront spécifiques au texte duquel ils sont extraits. Il s'agit d'un corrolaire de la loi de Zipf selon laquelle la plupart des éléments d'un texte sont peu fréquents. Nous nous sommes donc assuré que la loi de Zipf s'appliquait pour les trigrammes de mots de notre corpus. Nous discutons dans cette section nos choix d'implémentation pour la tenue de nos expérimentations, notamment en ce qui concerne le filtrage des trigrammes, l'extraction des entités nommées, des composés nominaux et des connecteurs discursifs. Notre première proposition est de ne retenir que les trigrammes mots spécifiques au texte (trigrammes hapax), ce qui réduit la taille de signature de l'approche de référence. Comme décrit à la section 3, le calcul des singularités d'un texte source doit se faire relativement à une collection présentant d'une part une certaine homogénéité de genre ou de domaine vis-à-vis du texte source donné et, d'autre part, ne comptant pas de textes dérivés du texte source. Afin de nous éviter une tâche de construction d'une collection de référence, et puisque notre corpus garantissait une homogénéité de genre entre tous les textes sources, nous avons décidé d'exploiter celui -ci pour constituer la collection de référence. Une collection de référence a été produite pour chaque texte source. Pour assurer le fait qu'aucune de ces collections ne contenait de textes dérivés, nous avons considéré pour chaque texte source une collection composée de lui -même et des textes des autres partitions (de textes source et candidats) à disposition. La sélection des trigrammes hapax s'effectue alors en fonction du nombre de documents dans lesquels ils occurrent. Notre choix de procéder ainsi a surtout été motivé par la facilité de réaliser ces opérations sur notre corpus au regard du temps que pouvait prendre une tâche de constitution d'un corpus supplémentaire. Notre deuxième proposition repose sur les entités nommées présentes dans un texte. Nous utilisons l'extracteur d'entités nommées Nemesis (Fourour et al., 2002), développé pour le français. Il effectue une analyse lexicale et grammaticale complétée par un processus d'apprentissage permettant d'enrichir automatiquement le lexique. Il a été évalué sur des articles de presse (Fourour et al., 2002, p. 1073) où il extrait les anthroponymes et les toponymes avec une précision de 95 % et un rappel de 90 %. Nous proposons également de considérer les composés nominaux. Leur extraction est assurée par l'outil Acabit (Daille, 2003) adapté aux larges corpus et aux domaines de spécialité. Nous utilisons l'implémentation dédiée au français qui repose sur l'étiqueteur morphosyntaxique de Brill (1994) 9 et sur le lemmatiseur FLEMM 10 (Namer, 2000). Acabit effectue une extraction des composés nominaux candidats à partir de motifs syntaxiques exprimés à l'aide d'étiquettes de rôles grammaticaux 11. Les principaux motifs pour le français sont N N, N Prep N et N Adj. Les variations considérées sont morphologiques et syntaxiques et admettent la présence de déterminants ainsi que des combinaisons de patrons. Finalement, nous nous intéressons aux connecteurs discursifs. Nous les avons extraits à l'aide de motifs construits à partir d'un dictionnaire d'environ quatre-vingt-dix formes lexicales de connecteurs. Ces dernières ont été compilées et traduites de la littérature (Knott, 1996; Marcu, 1997) par Hernandez (2004). Nous sommes conscients de l'ambiguïté des formes lexicales de certains connecteurs discursifs (par exemple le mot autre peut être utilisé comme connecteur, mais également comme adverbe). Nous ne cherchons cependant pas à résoudre ce problème d'ambiguïté ici, ce qui pourrait être fait en utilisant la position du mot dans la phrase ou le paragraphe par exemple. Nous avons fait le choix de fonder l'utilisation combinée des descripteurs sur le calcul de la similarité (cf. section 3.4), ce qui revient à considérer l'union des classifieurs propres à chaque signature. L'idée est de faire une somme des décisions de chacun de ces classifieurs individuels (, ,,) : un point est attribué lorsque le classifieur décide de la dérivation, un point est retiré dans le cas contraire. Les termes de cette somme sont pondérés par la distance normalisée entre le score de similarité () et le seuil de décision () : plus la similarité est éloignée du seuil de décision, plus la décision est claire, au contraire si elle en est proche la décision n'est pas aussi tranchée. On définit donc une nouvelle mesure de similarité pour notre classifieur général : Il manière est alors que nécessaire pour les classifieurs de rechercher individuels. un seuil de décision () de la même En résumé, l'extraction des descripteurs repose sur la disponibilité d'outils état de l'art (c'est le cas de Nemesis et Acabit), de ressources lexicales (c'est le cas des connecteurs discursifs), ou bien d'algorithmes robustes ne requérant pas de ressources (c'est le cas des trigrammes hapax). Nous comparons dans cette section les résultats de nos expérimentations sur les signatures : d'abord la complexité de leur création, ensuite la complexité de leur comparaison et enfin, leur capacité à détecter les relations de dérivation et de codérivation. Une propriété des descripteurs que nous proposons est qu'ils permettent de ne modéliser les textes qu'une seule fois pour ensuite effectuer autant de comparaisons que nécéssaires sur la base de ces signatures. Au contraire, les approches fondées sur l'alignement (Piao et al., 2003) ou la recherche de sous-chaînes communes nécessitent de produire de nouvelles signatures à chaque comparaison. La complexité de notre approche repose donc plus sur la taille des signatures qui seront impliquées dans les comparaisons que sur la création de ces dernières. Le tableau 2 donne une estimation expérimentale de la taille moyenne des différentes signatures. Nous allons en premier lieu traiter de la complexité des signatures fondées sur les trigrammes de mots, c'est-à-dire la signature complète et les trigrammes hapax. L'étape commune à ces deux signatures est l'extraction des trigrammes de mots avec recouvrement : avec la taille du texte en mots. Pour les trigrammes hapax, il est de plus nécessaire de filtrer les hapax. Ce filtrage revient à calculer le complément relatif de dans (noté) 12 avec le texte considéré et l'ensemble des éléments contenus dans les textes de la collection 13. L'opération nécessite de calculer la différence entre l'ensemble des éléments du document considéré et l'intersection de cet ensemble et de l'union des éléments des autres documents. En faisant l'hypothèse que tous les documents ont une taille de mots, et en notant le nombre de documents de la collection, l'intersection se calcule en 14 et la différence en, soit une complexité dans le pire des cas de. La création de la signature complète se fait donc en pour une taille en tandis que la signature des trigrammes hapax se fait en pour une taille en dans le pire des cas. En second lieu, la complexité de création des signatures fondées sur les objets linguistiques dépend des outils utilisés pour extraire ces derniers. Ainsi, le coût d'extraction des entités nommées avec Nemesis est polynomiale par rapport à la taille du document, tout comme le coût des composés nominaux extraits par Acabit. En effet, ils reposent tous les deux sur un étiquetage morpho-syntaxique suivi d'une recherche de patrons et une projection de dictionnaire. L'extraction des connecteurs discursifs est un peu plus simple car elle repose uniquement sur la projection de dictionnaire, ce qui peut être fait efficacement à l'aide d'un arbre de préfixe en. En résumé, toutes les signatures sont créées en un temps polynomial par rapport à la taille des documents, l'approche de référence et celle fondée sur les connecteurs discursifs étant les plus efficaces. Étant donné que les signatures ne sont construites qu'une seule fois pour chaque document, la complexité des méthodes dépend en réalité de la complexité de la comparaison des signatures, qui dépend elle même de la taille des signatures comme nous le montrons ci-après. Dans le cadre de nos expérimentations nous avons fait le choix de la mesure de containment pour comparer nos signatures (cf. section 3). La complexité de cette mesure est bornée par la complexité du calcul de l'intersection des deux ensembles et correspondant aux signatures. Cette opération peut être réalisée en, soit si on considère que les signatures sont de même taille, ce qui est généralement le cas pour notre corpus. La complexité de la comparaison dépend donc directement de la taille de la signature, comme la complexité de notre méthode. La figure 3 montre l'évolution de la taille des signatures par rapport à la taille en mots des documents. La courbe pleine est donnée à titre indicatif, elle correspond à une taille égale à la taille du document. Les autres courbes ont été tracées à partir des données expérimentales extraites du corpus et présentées synthétiquement dans le tableau 2. Les tailles des signatures fondées sur les trigrammes évoluent asymptotiquement à la fonction linéaire, le filtrage des hapax réduisant tout de même d'un tiers la taille de la signature. Les signatures fondées sur des objets linguistiques sont beaucoup plus parcimonieuses, composées en moyenne de vingt fois moins d'éléments que leurs consœurs fondées sur les trigrammes. Comparaison des tailles des différentes signatures par document et pour 100 mots Signature Trigrammes Trigrammes Entités Composés Connecteurs (nb. éléments) hapax nommées nominaux discursifs par document 548,83 370,45 27,59 6,70 2,64 pour 100 mots 93,67 63,28 4,91 1,47 0,22 En résumé, la complexité de nos méthodes est majoritairement impactée par la complexité de la comparaison entre les documents. La complexité de cette même comparaison dépend de la taille des signatures modélisant les documents à comparer. En d'autres termes, en réduisant la taille des signatures, on réduit le temps de calcul. Les signatures fondées sur des objets linguistiques se montrent bien plus concises que leurs homologues statistiques. Nous avons expérimenté les différents descripteurs et évalué leur capacité à identifier les liens de dérivation et de codérivation sur notre corpus d'après le protocole décrit en section 4.2. Le tableau 3 rapporte ces résultats. La relation à identifier est indiquée dans la colonne Type de relation. Pour chaque descripteur et chaque type de relation à identifier, le tableau présente deux résultats : (P) et (R). Le premier correspond à la classification avec un seuil maximisant la précision (), le second avec un seuil maximisant le rappel (). Lorsque plusieurs seuils sont optimaux, nous choisissons celui qui maximise le F-score. La dernière colonne donne la médiane des seuils optimaux obtenus sur chacune des partitions lors de la validation croisée avec, entre parenthèses, l'amplitude de ce seuil (différence entre le seuil le plus haut et le plus bas) qui permet de juger de sa stabilité. La qualité des identifications est mesurée en termes de précision, rappel et F-score présentés dans les colonnes éponymes. Nous pouvons remarquer dans le tableau que l'optimisation sur la précision dégrade bien plus les performances globales (mesurées par le F-score) que l'optimisation sur le rappel quel que soit le type de descripteur, à l'exception des connecteurs discursifs. Cela s'explique par le déséquilibre entre positifs (relations de dérivations et codérivations existantes) et négatifs (absence de ces relations). En effet, comme nous l'avons discuté en section 4.2, nous avons 2,25 positifs pour 1 négatif. Dans ce contexte, l'augmentation de la précision se fait plus au détriment du rappel que l'inverse et cette observation est donc cohérente. L'approche par trigrammes mots constitue la référence état de l'art à laquelle nous comparons les prédictions obtenues avec nos descripteurs. Cette dernière est la meilleure en ce qui concerne la prédiction des deux types de relation. Il s'agit en effet de la seule méthode permettant d'obtenir une précision ou un rappel de 100 % (selon l'optimisation souhaitée) pour les deux types de relation. Cette supériorité est soutenue par la taille de la signature associée. En contenant plus d'éléments que les autres signatures, elle possède plus d'informations susceptibles de discriminer les véritables dérivés des faux. Si l'approche de référence majore les autres approches en termes de précision ou de rappel (selon l'optimisation), ces dernières offrent des meilleurs compromis précision/rappel (évalués par le F-score) dans certains cas, ce qu'illustrent les flèches du tableau 3. Ainsi, pour la codérivation, les trigrammes hapax et les entités nommées obtiennent de meilleurs résultats. Les composés nominaux sont généralement les plus performants, excepté pour l'optimisation du rappel pour la dérivation. Les connecteurs sont meilleurs que l'approche de référence lors de l'optimisation de la précision pour les deux types de relation. Néanmoins comparativement aux autres signatures ce sont avec eux que l'on obtient les plus mauvais résultats. Ainsi, il y a environ 10 points de différence en termes de précision avec l'approche de référence, et entre 35 et 40 points pour le rappel. La médiane des seuils, et plus particulièrement leur amplitude, souligne cette mauvaise performance. Nous remarquons en effet que les seuils ont une amplitude d'environ 15 %, et sont donc très variables. De plus, l'optimisation du rappel mène à un seuil de zéro, soit la prise en compte de toutes les distances qui ne sont pas égales à zéro. Cette mauvaise performance était prévisible. Les connecteurs sont peu présents dans les documents. Ainsi, plus de 20 % des textes du corpus ne présentent aucun connecteur et seuls 33 % en contiennent au moins trois. Il y a ainsi trop peu d'information dans les signatures pour différencier les documents. Résultats de l ' évaluation de la prédiction des liens de dérivation et de codérivation pour les différents descripteurs expérimentés après sélection du seuil par optimisation de la précision (P) ou du rappel (R). Les scores de 100 % sont soulignés et les variations de F-score par rapport à l ' approche de référence sont marquées par des flèches croissantes/décroissantes Les résultats de la combinaison des classifieurs sont présentés dans le bas du tableau 3. La méthode de combinaison basée sur l'addition pondérée des distances (cf. section 4.4) est aussi performante que l'approche de référence en ce qu'elle obtient une précision ou un rappel de 100 % (selon l'optimisation) pour les deux types de relation. Pour l'optimisation de la précision elle permet même un gain général (F-score) de respectivement 24 et 10 points pour la codérivation et la dérivation. Pour l'optimisation du rappel, les résultats sont un peu plus mauvais avec une perte de respectivement 1 et 5 points. Les seuils sont toutefois très variables selon les partitions, notamment lors de l'optimisation de la précision : amplitude de plus de 3 pour un espace image de taille 8 (). Cette caractéristique indique que le seuil pour la combinaison est difficilement portable d'un corpus à un autre. En résumé, si l'approche de référence obtient les meilleurs résultats, les approches fondées sur les trigrammes hapax, les composés nominaux et les entités nommées obtiennent des résultats très similaires pour une taille de signature bien moins importante. À l'opposé, l'utilisation des connecteurs discursifs n'est pas assez aboutie pour permettre d'identifier des relations de dérivation et de codérivation. Finalement, la combinaison des descripteurs hapax, entités nommées, composés nominaux et connecteurs discursifs permet d'approcher et même de dépasser l'approche de référence dans le cas de la précision, pour une signature de plus petite taille. Afin d'analyser nos résultats, nous avons opéré un retour au texte pour expliquer nos erreurs. Nous nous sommes seulement intéressés aux erreurs concernant la classification des dérivations du fait que notre corpus a été initialement construit pour observer ces dernières 15. De plus, nous nous sommes concentrés sur un sous-ensemble des faux positifs issus de l'optimisation de la précision et des faux négatifs issus de l'optimisation du rappel et ce, pour les signatures composées de trigrammes hapax, d'entités nommées, de composés nominaux et de connecteurs discursifs. Nous recensons 43 faux positifs. La majorité de ces erreurs de classification sont attribuées aux connecteurs discursifs. Elles relèvent toutes du fait que la signature des textes sources en comparaison avec celles des textes candidats ne possède pas assez de descripteurs pour assurer une fonction discriminante (dans le cas présent, les textes sources contiennent moins de trois descripteurs contre plus d'une dizaine dans les textes candidats). La mesure de containment ne prenant en compte que les descripteurs présents dans la source, les quelques rares descripteurs présents au sein de la source sont aussi retrouvés au sein des candidats, ce qui entraîne une classification erronée du candidat en dérivé. Deux faux positifs sont relevés pour les entités nommées. Dans les deux cas, les textes sources et les textes candidats rapportent des données géopolitiques relatives au ralentissement des économies des pays de l'OCDE. Les textes suivent la même structure, on retrouve les mêmes pays impliqués et les mêmes aspects décrits de façon similaire. Seules les données numériques changent et pour cause, les rapports sont effectués à des dates différentes. Notre expert avait donc annoté comme non dérivé ces paires de textes. Or du fait que les signatures des textes sources et des textes candidats contiennent les mêmes entités nommées, les noms des pays, le classifieur classifie de manière erronée les candidats en dérivés. Si les textes comparés ne sont pas dérivés, nous observons qu'ils doivent au moins dériver d'un modèle de rapport commun. Un faux positif est relevé pour les composés nominaux. Celui -ci est dû à l'absence de descripteurs au sein du candidat que nous attribuons à une erreur de notre extracteur de composés nominaux. Aucun n'est attribué à la signature à base de trigrammes hapax qui obtient un score de 100 %. Nous recensons 320 faux négatifs. La majorité provient comme précédemment des connecteurs discursifs et sont dûs à l'absence de ces descripteurs dans les documents. L'approche fondée sur les trigrammes hapax ramène 34 faux positifs. Nous avons observé qu'une grande partie de ces mauvaises décisions provient du fait que les trigrammes hapax modélisant la source étaient tirés de l'en-tête des articles (titre, date de publication, auteur, agence). Ces éléments sont certainement les plus variables car ils permettent d'identifier l'article, on pourrait les considérer dans une signature distincte. Nous avons également remarqué que l'inclusion des ponctuations et des mots outils dans les trigrammes empêchait souvent de rapprocher des séquences de mots pourtant très similaires. Cette observation renforce notre intérêt pour les séquences de mots décrites par des patrons linguistiques normalisés. Par ailleurs, il serait intéressant de considérer les mots outils et les ponctuations dans une signature à part entière en incluant leur nombre d'occurrences. La modélisation par entités nommées n'a quant à elle ramené que trois faux négatifs, dont un pour lequel l'annotation comme dérivé est discutable. Pour les deux autres, le candidat est une contraction de la source, c'està-dire une version beaucoup plus courte. Cette opération de contraction passe notamment par la suppression des entités nommées au profit de paraphrases (par exemple « Siegfried Behrendtvivre » vs. « un chercheur d'un institut de recherches berlinois et annoncé au salon de Hanovre »). Finalement les faux négatifs liés à la signature par composés nominaux proviennent en partie d'un dysfonctionnement de l'extracteur. Les autres erreurs sont dues à une différence de taille importante entre le candidat et la source. On observe notamment des cas de dilatation du texte source où les composés nominaux subissent des variations (par exemple « pistolet électrique Taser » vs. « pistolet à impulsion électrique Taser ») ou sont présentés sous forme de propositions. Cet article aborde le problème de la détection de relations de dérivation et de codérivation entre des paires d'articles de presse francophone. Nous nous sommes plus particulièrement intéressés au choix des descripteurs pour la modélisation des textes et avons cherché à évaluer leur capacité à identifier ces relations en les comparant aux performances de l'approche état de l'art fondée sur les trigrammes mots. Nous avançons notamment que le choix des descripteurs peut être guidé par un critère de singularité qui nécessite toutefois une collection de textes homogènes en genre à laquelle se confronter. À notre connaissance, ce travail est le seul traitant de la détection de dérivation pour le français. Nos expérimentations apportent de surcroît des résultats pour la tâche de détection de relations de codérivation. Notre travail est original pour plusieurs raisons. Outre le fait de considérer des descripteurs linguistiques, nous prônons une approche multidimensionnelle du problème de détection des relations de dérivation. Par ailleurs, nos travaux se caractérisent par la prise en compte de la complexité du travail dans son évaluation. Nous avons montré que le choix motivé des descripteurs permet de réduire la taille de la modélisation, tout en maintenant des performances comparables à celles de l'approche état de l'art. Nous avons également montré que la réduction de la taille des signatures offrait un gain non négligeable en regard du coût de calcul et de l'espace de stockage nécessaires à la réalisation de la tâche de détection dans le cadre des approches par signature. Nous avons aussi montré la pertinence du choix des trigrammes hapax, des entités nommées, ainsi que des composés nominaux pour la détection de documents presque-doublons. Selon nous, la prise en compte de variantes linguistiques des entités et des concepts mentionnés dans un texte est une des pistes à suivre afin de détecter des formes de dérivation plus profondes telles que l'inspiration. Notre approche est générale et est par conséquent portable à d'autres genres. Le calcul de singularité des hapax devra tenir compte d'une certaine adéquation de genre et de domaine avec les textes sources considérés pour favoriser la sélection d'hapax pertinents. En ce qui concerne les descripteurs linguistiques (composés nominaux, entités nommées et connecteurs discursifs), le genre peut influer sur leur présence. La phase d'entraînement permettra d'ajuster les seuils de sélection de ces descripteurs pour le nouveau genre considéré. Nos signatures sont modélisées par un ensemble non ordonné de descripteurs. Celui -ci ne contient aucune information de séquence sur les descripteurs. Nous avons choisi d'utiliser ce modèle parce qu'il est le modèle de référence dans la littérature et que l'objectif principal de notre travail était de mesurer l'apport de descripteurs linguistiques par rapport à l'existant. Bien que le modèle n'implique aucune relation d'ordre au sein des descripteurs, ce n'est pas entièrement juste de dire qu'il perd la notion de séquence. En effet, celle -ci peut être capturée autrement, notamment au sein même des descripteurs. n - grammes, composés nominaux et entités nommées intègrent une information de séquence même si celle -ci est dans le cas présent très locale. Ce caractère est à travailler pour les connecteurs discursifs. Notre travail s'ouvre sur plusieurs perspectives. En effet, nous pensons que le processus de dérivation impacte plusieurs dimensions du texte, chacune nécessitant d' être modélisée par des descripteurs idoines. Nous souhaitons travailler sur la classification des types de dérivations afin de pouvoir évaluer plus finement nos approches. Ensuite, nous souhaitons aller plus en avant avec la notion de singularité des éléments linguistiques, notamment par la tenue d'expérimentations visant à calculer la singularité selon la probabilité de rencontrer les éléments linguistiques dans notre corpus. Finalement, dans cette même veine, nous souhaitons élargir les types de descripteurs linguistiques et nous tourner notamment vers les syntagmes capturant les données numéraires et calendaires, tout en relâchant la contrainte de correspondance exacte entre les descripteurs. Il s'agira là de travailler sur la normalisation de nos descripteurs afin de rapprocher différentes variantes linguistiques d'une même information .
Dans cet article, nous traitons du problème de la détection de relations de dérivation et de codérivation entre des paires d'articles de presse en français. Nous reprenons le cadre des approches par signature largement utilisé dans la littérature et nous expérimentons plusieurs types de descripteurs sélectionnés pour leur singularité: trigrammes hapax, entités nommées, composés nominaux et connecteurs discursifs. Nous évaluons ces différentes approches en termes de coût de mise en œuvre ainsi que de capacité à prédire ces types de relations sur le corpus PIITHIE. Nous montrons qu'il est ainsi possible de conserver un niveau de performance comparable à l'approche état de l'art tout en réduisant fortement la taille de la modélisation des documents et donc du coût de mise en œuvre.
sciencesInfo_12-0293267_tei_DN_id9782746232495_pu2010-03s_sa04_art04.tei.xml
termith-470-communication
Rares sont les médias français à disposer d'un médiateur Ils sont une dizaine, dontcinq quotidiens. Parmi eux, Le Monde fait figure de pionnierLe rôle a été cr é een 1994 et son avant-dernier titulaire, Robert Sole - sur lequel porte cettecontribution -, l'a occupé sept ans de 1 998 à 2006 aprèsavoir été directeur-adjoint de la rédaction pendant plusieurs années. Nommé par ledirecteur de publication du quotidien, le médiateur est chargé de « favoriser ledialogue entre les lecteurs et la rédaction », selon les termes de la chartedéontologique du quotidien. Semaine après semaine, de manière plus ou moinsrégulière mais toujours dans l'édition du week-end, le médiateur propose, en sefondant sur des courriers de lecteurs souvent critiques, de revenir sur une enquête ,une faute de style, un titre de « une », un éditorial, une interview, une chroniqueou un dessin, etc. Il propose finalement des billets qui, mis en recueil ,s'apparenteraient à un sorte de « manuel » de journalisme. Celui -ci serait certes unpeu particulier puisque prenant pour point de départ des courriers de lecteurs. Maisle terme pourrait convenir assez bien puisque le médiateur tend en définitive àdistinguer les « bonnes » des « mauvaises » pratiques journalistiques. La médiation du Monde a suscité un certain intérêt deschercheurs en sciences sociales, en particulier parce que le matériau offert - leschroniques - permet de réfléchir aux évolutions de l'activité journalistique, de sesrelations avec ses publics ou de ses modes d'écriture mais aussi des transformationsd'un quotidien de « référence ». Pourtant, les analyses disponibles ont jusqu'icilaissé de côté un pan entier de l'écriture de médiation, soit la propension de sontitulaire à appuyer son argumentation sur le langage de la règle. Le vocable« règle » - il y a des règles à respecter lorsque l'on fait du journalisme, répètele médiateur - revient avec une relative insistance : 83 fois dans un corpus composéde 266 chroniques. En moyenne - sachant que le terme peut apparaître plusieurs foisdans une seule chronique et qu'il peut marginalement renvoyer à d'autres règles( comme celle de l'instruction judiciaire) -, le médiateur a donc toutes les chancesd'y avoir recours entre une fois sur trois et une fois sur quatre. C'est dire quel'appel aux règles est suffisamment fréquent pour questionner Robert Sole précised'ailleurs, dans sa toute dernière chronique qui vient clore huit années d'exercice ,et dans laquelle il revient sur son rôle et action en guise de bilan, que lemédiateur a pour charge de « s'assurer que le journal est fidèle à ses r è gles » (05-06// 11 /2006). En appuyant son raisonnement sur des règles, le médiateur n'a pas recours à n'importequelle métaphore. Il n'est pas dans la situation de nombreux chercheurs pensantune activité sociale à travers l'analogie du jeu (dans lequel il y a aussi justementdes règles). Cette dernière analogie, classique, vise à penser autant qu' à surlignerune activité envisagée comme étant faite d'interdépendances (dans la plupart desjeux, il faut être au moins deux; l'évolution d'un jeu se décrypte à travers lesactions réciproques des joueurs; chacun n'a pas les mêmes chances de gagner tous nedisposant pas de ressources de même poids, etc.). Ici, c'est d'une autre analogiedont il est question, une analogie de type juridique. C'est ce que révèle aisémenttout l'environnement d'écriture de l'analogie mobilisée. Et l'enjeu n'est pasnégligeable :1e médiateur laisse en effet percevoir que le travail journalistiqueest tendanciellement codifiable. Ce faisant, il présente le journalisme comme uneactivité faite de limites ou de frontières. Mais c'est peut-être une autre analogieencore qui permet le mieux de comprendre ce qui se joue. Le médiateur paraîtconstruire une grammaire, entendue ici dans son sens le plus ordinaire, c'est-à-direun ensemble de règles conventionnelles, susceptibles de varier dans le temps; desrègles qui déterminent un usage correct de la langue, ici de la languejournalistique. C'est que les règles visées par la médiation de presse concernentd'abord l'écriture de presse et ses agencements dans les rubriques du journal. Le médiateur ne dit jamais qu'il codifie des pratiques. Pas plus qu'il n'appelleofficiellement à une codification des pratiques journalistiques - le verbe« codifier » est d'ailleurs employé une seule fois dans une chroniquesignificativement titrée « Les tables de la loi » (13-14/06/2004). Mais sapratique s'inscrit dans cette démarche comme le signale l'insistance à parler derègles. C'est bien d'une métaphore dont il s'agit, et pas n'importe laquelle ,une métaphore juridique qui lui offre des ressources argumentatives depoids. Quelques exemples permettront d'indiquer que le médiateur rappellerégulièrement qu'il y a des règles du bon journalisme - il peut aussi, maisà la marge, les qualifier de « règles professionnelles », « règlesdéontologiques », « règles rédactionnelles », « règles morales », « règlestypographiques ». « Le respect des règles que Le Mondes'est lui même fixées » (07-08/07/98). « Si les règles sontfaites pour évoluer; ne faut-il pas une règle, avec des exceptionsclairement précisées ? » (07-08/06/99). « Il leur appartient enrevanche d'observer les règles déontologiques habituelles » (22-23/11/99) .« Le Monde a -t-il dérogé à cette règle ? »( 22/23/ 11 /99). « L'interview [. ..] aparfaitement respecté quelques règles de base » (23-24/07/2000). « X a fait une enquête dans les règles »( 02-03/04/2000). « Les réactions [. ..] qui, en bonne règle, auraientdu être citées » (03-04/ 1 2/2000). « Voilà pourla règle. .. » (11 - 12/06/2000). « Cet éditoriala été rédigé dans les règles » (27-28/08/01). « Naturellement, unerègle existe » (30/06-01/07/02). « Des règles ayant été fixées » (11 -1 2/08/02). « Selon la nouvelle règleintroduite dans les pages “France” » (19-20/05/02). « Une règleimpérative » (10-11/11/02). « Le strict respect des règles qu'elles'est fixées » (02-03/03/03). « Nos règles. .. » (09 - 1 0/03/03). « Les règles d'écriture du journal [. .. ]. Cesrègles se sont modifiées au fil des années » (18-19/05/03). « Une bonne règle veut que. .. » (20-21/07/03). « La règle expérimentéepar Le Monde depuis un an. .. » (07-08/ 1 2/03). « Peut-on définir une règlegénérale ? » (21-22/03/04). « Une seule règle en la matière. ... »( 30/08-0 1 /09/04). « Du moment qu'il respecteles règles de la publication à laquelle il appartient. .. » (13-14/12/04) .« Ils ne respectent pas certaines règles, de forme ou de fond. .. » (1 3-14/12/04). « Tous les rédacteurs etrédactrices du Monde n'appliquent pas cette règle »( 30-31/10/05). « Selon les règles du Monde[. .. ]. Ce n'était pas le cas [. .. ]. Le règle méritait plus que jamais[. ..] d' être appliquée » (04-05/12/05). « Règle d'or : toute erreurcommise. .. » (1 0-2 1 /06/05) .« Le journal ne peut adopter la même règle pour. .. » (27-28/ 11 /05). « La règle méritaient plus que jamais[. ..] d' être appliquée » (04-05/12/05). « La phrase relevée [. ..] nepouvait être que l'exception qui confirme la règle » (15-16/05/06). Le médiateur dit aussi s'appuyer sur des textes qui distingueraient ce qui sefait de ce qui ne se fait pas. Le Livre de Style ,publié début 2002, est le premier texte public de référence luipermettant de disposer de critériums écrits - il « ne porte pas seulementsur l'écriture, écrit Robert Sole : il définit aussi des règlesdéontologiques et professionnelles. Ce qui n'était jusqu'ici qu'uneconstitution non écrite, ou un contrat de lecture implicite, se trouveformalisé et mis sur la place publique » (20-21/01/02). « Contrat » (voiraussi, entre autres chroniques, celle du 05-05/ 1 2/03ou 1 3 - 1 4/ 1 2/04) ou « contrat de confiance » (1 2 -1 3/07/99) ou « constitution » donc, mais aussi« charte » (09 - 1 0/03/03 ou 13-14/06/04 ou 1 7 - 1 8/04/04), » charterédactionnelle » (1 7 - 1 8/03/03 et 30-3 1 /03/03), « bible »( 20-21/01/02 ou 30/06 et 01/07/02), « code d'honneur et code de la route »( 17-18/03/02). Publié deux fois jusqu'ici, à disposition des lecteursintéressés qui peuvent se le procurer en kiosque, il a été mis au point parune petite équipe de journalistes dirigée par Laurent Greilsamer, alorsrédacteur en chef du quotidien. L'idée proviendrait de Jean-François Fogel ,un des auteurs de la nouvelle formule de 1995. Il aurait recommandél'édition d'un « guide rédactionnel » à l'image de ce qu'il avait vu àl'étranger, en particulier aux Etats-Unis. Auparavant, lemédiateur pouvait mettre en avant un « contrat implicite avec les lecteurs »( 05-06/10/98) ou, à l'occasion, un « document interne » (12-13/07/99), voireune ou des « règles » (« selon une vieille règle », 23-24/07/2000) et, unefois, « les tables de loi [qui] exigent. .. » (19-20/03/2000), sans ensignifier plus. Le médiateur y reviendra, deux ans après la première édition du Livre de Style en valorisant le changement de 1 995 (nouvelle équipe de direction, nouvellemaquette, nouvelles normes. ..) : « Pendant un demi-siècle, Le Monde s'est appuyé sur une charte non écrite. Aucun texten'indiquait ce qu'il fallait ou ne fallait pas faire, mais chacun semblaitle savoir exactement. Quelques mois après son embauche, un jeune rédacteurconnaissait la manière de rédiger une brève ou de titrer un entrefilet; ilavait appris à vérifier une information, modérer son style, ne pas proclamerses engagements politiques. .. » (1 3-14/06/04). Le besoin d'un « code d'édition », « charte rédactionnelle » (27-28/12/04) ouautre « guide rédactionnel » serait, indique le médiateur, la conséquence de« la transformation des métiers de la presse », en particulier d'uneévolution faite de changements techniques, de la croissance aussi d'unerédaction de plus en plus étoffée et « beaucoup renouvelée » (le médiateurprécise ainsi dans une chronique précédente que pas moins de cent dixnouveaux journalistes ont été embauchés entre 1 994 et1 999, soit un tiers de l'effectif - 07-08/02/99) .« Le miracle quotidien - écrit le médiateur -, qui consistait à mettre enpage des centaines de textes non calibrés, montrait ses limites. En dépit del'informatisation, on continuait à écrire des articles trop longs, qu'ilfallait couper au dernier moment, ou qui étaient recalés faute deplace ». Depuis, le médiateur peut appuyer son billet sur ce recueil de normes : « Cequi n'était jusqu'ici qu'une constitution non écrite, ou un contrat delecture implicite, écrit-il, se trouve formalisé et mis sur la placepublique » (20-2 1 /0 1 /02). Lemédiateur se définit désormais comme un « exégète » travaillant - autremétaphore utilisée, mais marginalement - « bible en main » ayant pourfonction son « interprétation philologique et doctrinale » (20-2 1 /0 1 /02). L'appel au Livre de Style est sinon fréquent du moins assezrégulier, comme peuvent en donner une idée ces quelques illustrations : « Les rédacteurs du journal devraient ouvrir de temps en tempsLe Style du Monde, pour consulter l'abécédaire »( 24-25/03/02). « Les règles professionnelles, inscrites dans la charterédactionnelle (Le Style du Monde )sont claires » (30-31/03/03). « Une règle existe. Elle figure entoutes lettres dans Le Style du Monde, cette bible dujournal » (30/06 et 1/07/02). « Le “livre de style” du Monde est assez énigmatique, se contentant. .. » (10 -11 /11/02). « Le Livre deStyle nous invite à employer [. .. ]. Employons -le sans hésiter »( 12-13/01/03). « Le Monde, comme l'indique sonLivre de Style [. .. ]. La “Une” [. ..] a pu donnerl'impression d'enfreindre cette règle » (30/08 et 1/09/04). « Larègle, affirmée par le directeur de la rédaction dans LeLivre de style. .. » (18-19/01/04). « Telle qu'elle figuredans son Livre de Style. .. » (1 7 - 1 8/04/06). Le médiateur consacre même une chronique entière en 2004, exceptionnellementsans aucune « saisine » de lecteurs, à ce qu'il appelle la « troisièmeétape » - après renonciation en interne de principes en 1995 et lapublication en kiosque du Livre de Style en 2002. Enfait, une « bible éditoriale » venait d' être proposée en 2004 aux rédacteurssans doute, mais d'abord aux éditeurs - « un volumineux volume » : Editer Le Monde, bénéficiant de précédents « américainsnotamment ». Il y est notamment question des « cinquante-six points àvérifier avant d'envoyer « un texte au central » [i.e. ,la rédaction en chef] et des [. ..] vingt-sept points à vérifier avantd'envoyer une page ou une image ». Sans en être dupe - « sera -t-elle ouverteen permanence sur le bureau de chaque rédacteur ? On peut en douter » - lemédiateur en appelle à la vigilance des journalistes pour qu'ils prennentconscience des « règles qui concernent l'ensemble des journalistes », commepar exemple les manières de « nommer les personnes », d' « éviter lesredondances » ou de construire un article (l'opuscule revient sur les fameux5 W pour « l'attaque d'info »). La chronique lui permet aussi, exemples àl'appui, de rappeler à la rédaction en chef en charge de la « une » qu'elle n'a pas à s'émanciper des « règles » dontelle demande aux simples rédacteurs la stricte application (13-14/06/04) .Le Livre de Style ou EditerLe Monde ont beau être des « bible », « bible éditoriale » ou « volume[ qui] codifi[e] les règles et usages du journal » (13 - 1 4/06/04), ils ne sauraient cependant fixer toutes les limites ducontrôle : « Je ne m'appuie pas sur un texte qui définirait mes prérogativeset leurs limites. Je ne m'en plains pas, l'absence de r è gles précisesrendant la fonction plus stimulante, avec l'impression de l'inventer enmarchant » (29-30/04/0 1). C'est aussila propre définition de son rôle qui se construit par emprunt à descatégories de l'ordre juridique. Il se définit parfois comme un« intermédiaire » ,mais avant tout comme un « juge de paix », exceptionnellement comme un « avocat »et refuse d' être considéré commeun « arbitre » (29-30/04/0 1). Ces premiers repérages l'indiquent : le médiateur adopte bien un langage dela règle. Il pourrait être objecté que tout langage de ce type ne s'inscritpas forcément, ou pas seulement, dans l'univers du droit. Ainsi, parmid'autres sociologues, Pierre Bourdieu a -t-il suffisamment indiqué que le motrègle était ambigu-faut-il entendre là un principe de type juridique, unensemble de régularités objectives, un modèle construit par le chercheurpour rendre compte du jeu (voir par exemple, Bourdieu, 1 987 : 77; voir aussi, dans une autre optique, Ogien, 2007 :273) ? Sans doute le vocable peut-il recouvrir chez le médiateur desacceptions qui ne sont pas toutes superposables - entre par exemple la règledite « déontologique » et celle dite « professionnelle », les différences nesont pas négligeables. Pierre Bourdieu (1980 : 298) ajoutait aussi - nonsans pertinence-qu'il y avait lieu de ne jamais oublier que le langage de larègle, cet « asile de l'ignorance » disait-il avec férocité, fonctionnecomme un véritable piège. Il ne permet en rien « d'enfermer la raison et laraison d' être des pratiques ». C'est « que le piège le plus subtil résidesans doute dans le fait que les agents recourent volontiers au langage de larègle [. .. ], pour expliquer une pratique sociale qui obéit à de tout autresprincipes, dissimulant ainsi, à leurs propres yeux, la vérité de la maîtrisepratique comme docte ignorance, c'est-à-dire commemode de connaissance pratique qui n'enferme pas la connaissance de sespropres principes » (Bourdieu, 1980 : 174). Le rappel est salutaire. Mais iln'interdit pas, justement, de saisir les ressources qu'offre au médiateur lerecours au vocable de règle et d'ajouter que ce n'est pas pour rien qu'ildonne, sans forcément en avoir conscience, une coloration juridique au termede règle. L'étonnement pourrait toutefois affleurer à la lecture de billets danslesquels si souvent le médiateur dit se fonder sur des règles qu'il pensedevoir rappeler ou faire connaître. Beaucoup de journalistes sont en effetsouvent critiques, voire très critiques, vis-à-vis de toute formed'intervention qui leur dirait ce que devrait être le « vrai » journalismeet, en particulier, qui leur dirait publiquement ce qu'ils seraient supposésfaire et, surtout, ne pas faire. Et c'est pourtant bien ce à quoi tend toutdiscours prétendant dégager des règles. Dans l'univers des gens de presse ,la responsabilité individuelle est cependant très souvent mise en avantcomme parangon de la vertu journalistique. Comme l'a souligné Cyril Lemieux( 1 992) la morale journalistique se veut d'exception .Ce n'est pas que les journalistes se penseraient comme n'étant pasresponsables de leurs actes. C'est en fait que leurs exigences civiquesd'indépendance - ils peuvent se penser comme garants de l'espace public - ,les autoriseraient autant que de besoin à transgresser les « bonnes »manières, règles et usages ordinaires dans la recherche de la« vérité ». Ce n'est pas tout. Des chercheurs s'intéressant aux processus de codificationdes pratiques journalistiques ont pu souligner que celles -ci ne peuvent seréduire à un corpus de règles qu'un acteur, institution ou groupe auraientformalisé. L'identification est peu aisée, en conséquence la transmissionest impossible; l'acte journalistique est en effet d'abord individuel doncnon généralisable. Tout processus de codification serait donc voué àl'échec. Gérard Cornu et Denis Ruellan (1995 : 151) écrivent que « laplupart des pratiques journalistiques [. ..] ne sont pas codées au sens oùelles ne font pas l'objet d'une identification claire, et de ce faittransmissible ». Et de poursuivre : « L'acte journalistique est tropintimement régi par des ressorts de niveaux individuels ou restreints pourque l'on imagine un jour une homogénéisation de ses procédures » (ibid). Malgré tout, le recours du médiateur au langage de la règle ne doit pasétonner outre mesure. Pour plusieurs raisons. C'est qu'en le faisant -première raison -, Robert Sole fait directement écho à la chartedéontologique du Monde. Elle précise que le médiateur« veille à l'application, par la rédaction, des r è gles journalistiques énoncéesdans le livre de style. Ces règles définissent le contratde lecture établi avec les lecteurs ». Deuxièmeraison : l'actuel médiateur s'inscrit dans les pas de son prédécesseur ,Thomas Ferenczi, qui faisait de même mais avec une moindre intensité (ilinsistait aussi sur une catégorie de règles rarement nommées comme tellespar Robert Sole, les règles dites « rédactionnelles »). Mais une dernièreraison permet de voir que la démarche du médiateur est somme toute attendue .Tous les spécialistes de déontologie tendent à faire de même, que ce soitdans les univers pratiques ou savants. La déontologie journalistiqueparaît rimer (ou devoir rimer) avec l'existence de « règles ». La plupartemploie sans guère de précision des mots a prioripensés comme synonymes. « Règles », « normes », « principes » ou, pluslargement, comme l'écrit un spécialiste, « ce qui “se fait” et “ne se faitpas” » (Bertrand, 1 999 : 24) paraissent en effetrenvoyer à des logiques plus ou moins identiques, chacun s'accordant, detoute façon, à souligner leur faible effectivité. Mais plus le degréd'objectivation dans un texte nommé « code » ou « charte » paraît fort, plusl'usage du terme de « règles » paraît aller de soi. Plus précisément, lesseuls vocables de « codes » ou « chartes » semblent induire celui de« règle », sans que les utilisateurs de ces termes ressentent le besoin dele préciser L'usage paraît aller sans dire. Sans doute le langage de la règle n'est-il pas d'abord, dans les propos dumédiateur, un langage proprement juridique. Il ne vise pas des pratiquesencadrées par le droit et susceptibles de sanctions établies en cas demanquement, en dehors du régime juridique des droits de réponse qu'il peutaborder à l'occasion (29-30/03/99), celui du secret de l'instruction( 22-23/11/99) ou celui de la protection des sources (30/08-01/09/04). Lemédiateur ne dispose d'ailleurs d'aucun pouvoir de sanction des journalistesen dehors de celui, évidemment non négligeable, de la réprobation publique .Finalement, le vocable « règle » recouvre, dans ses propos, dessignifications plurielles qu'il égrène lui -même dans un billet : « Laqualité d'un journal, écrit-il, dépend en grande partie des règles qu'ils'est fixées - et qu'il applique. Règles morales, professionnelles ,rédactionnelles, typographiques. .. » (13-14/06/04). En fait, ce sont surtout des règles d'écriture qui scandent ses chroniquesou, pour le dire mieux, des règles qui s'expriment dans et par l'écriture .Pas seulement les règles du « bon » français qui lui tiennent tant à cœur( Legavre, 2006). Plus largement, des règles d'écriture de presse quipermettraient de distinguer des « bonnes » et des « mauvaises » pratiques -par exemple, citer ou titrer d'une certaine façon, adopter une certaineposture en interview, donner dans un article la parole de manière équilibréeaux parties prenantes et, en fait et souvent, adopter la « bonne »rhétorique au « bon » endroit, c'est-à-dire dans la bonne « rubrique »( « Sport », « France » ou « Rendez -vous ». ..) ou en fonction du genre visé( la chronique judiciaire, l'éditorial ou l'interview. ..). Et c'est là unparadoxe apparent : ces « bonnes » règles qui ne sont pas des règlesproprement juridiques sont énoncées par le médiateur en recourant à lamétaphore juridique, fusse de manière ludique. Ainsi, au cours d'unentretien, le médiateur peut-il avancer : « C'est une jurisprudence qui sefait en marchant. Il m'arrive pour m'amuser de faire d'ailleurs des règlesmoi -même, en disant, dans ma toute dernière chronique par exemple :“lemédiateur n'est pas habilité à. .. ”, mais c'était une plaisanterie. Cela mepermet de faire ce que je veux. C'est tout l'intérêt de cette fonction ,c'est qu'elle s'invente en ce moment. Je ne me fonde pas sur un modèle »( entretien, mars 2003). Peu importe ici que cette vision héroïque d'un rôle, certes encore peuinstitutionnalisé, soit sans grand rapport avec une réalité « déjà là », etle médiateur le « sait » : au Monde, le poste a déjàété occupé par deux titulaires fixant un cadre à la pratique; il s'inspireexplicitement de certaines médiations étrangères plus que de d'autres( Ferreira Maia, 2004b); il existe en France des médiateurs de presse endehors du Monde; une organisation mondiale desmédiateurs - l'ONO (Organization of News Ombudsmen) -participe à la définition de la « bonne » médiation de presse enmettant en scène des débats entre médiateurs; en juin 2006, s'est aussi cr é e leclub des médiateurs de la presse française et, plus largement encore, lerecours à la médiation est aujourd'hui un dispositif croissant de régulationdans quantité d'univers sociaux. En d'autres termes, le médiateur n'est pasun démiurge inventant un rôle sans repères. Et ce qui compte ici est que, finalement, le médiateur dit en creux qu'unrôle ayant pour fonction de publiciser ce que sont les pratiques de pressen'a pas une panoplie langagière si vaste à sa disposition. Pour l'éclairer ,il faut préciser que le médiateur n'est pas dans une situation habituelle àl'univers médiatique : les journalistes parlent peu de leurs pratiques, lesmettent peu en scène, donnent à voir des résultats (un reportage, uncommentaire, une analyse. ..) plus que des processus (de recherched'information, de négociation avec les sources ou avec la hiérarchie, degestion des concurrences journalistiques, des définitions de la « bonne »actualité). En somme, le fait même de communiquer sur l'interne, d'honorerles « bonnes » pratiques ou de stigmatiser les « mauvaises », en s'appuyantsur des paroles externes (des courriers de lecteurs qui servent de fondementà ses chroniques) paraît l'obliger à retenir le langage de la règle et alorsmême que ses socialisations antérieures, en particulier scolaires, neparaissent pas le prédestiner à aller en ce sens sans même y penser - il n'apas, en particulier, de formation juridique; il est entré, juste après sonbaccalauréat à l' École supérieure de journalisme (ESJ) de Lille; il est parailleurs l'auteur de plusieurs romans. Tout se passe comme si celui qui, dans un univers social, se proposait declasser des pratiques professionnelles avec une visée déontologiquementaffirmée et, ce faisant, se devait de produire de la généralité, n'avaitguère d'autre choix que de mobiliser ce type de langage tendanciellementjuridique. Et la métaphore juridique n'est pas tout à fait ordinaire dans laconstellation de celles - fort nombreuses - sur lesquelles nous appuyonsquotidiennement nos raisonnements. Sans doute, du langage le plus courant etle plus quotidien au langage en sciences sociales, les usages des métaphoresou des analogies sont nombreux et pas équivalentes. Mais, à chaque fois, ils'agit bien de dire « quelque chose [. ..] en termes de quelque chosed'autre » (Lakoff Johnson, 1986 : 15), finalement de toujours rompre avecquelque chose - ce quelque chose étant nos langages communs pour nommer ceque nous ne parvenons ou ne souhaitons pas, pour des raisons biendifférentes, à nommer dans son immédiateté. En définitive, plus que d'autres, la métaphore juridique permet dedistinguer, de hiérarchiser, de classer, de mettre de l'ordre, de fournirdes repères. De conjurer, encore, en « mettant des formes », comme l'on dit ,à une situation grosse de violence potentielle - « il y a une vertu proprede la forme », écrivait encore Pierre Bourdieu (1 987 : 96) dans un article sur la codification. C'est que lemédiateur, ce « traître institutionnel » disait joliment un ancien médiateurportugais (Mesquita, 1989 : 292), en stigmatisant des pratiquesjournalistiques jugées déviantes, doit se garder de perdre le soutien de larédaction dont il a besoin pour travailler, se légitimer, et imposer sonpropre projet éditorial (Legavre, 2007). Comme Robert Sole l'écrit dans sadernière chronique, « le médiateur est régulièrement pris entre deux feux :soupçonné par des lecteurs de servir la soupe, il peut se voir accusé par larédaction de cracher dans la soupe » (05-06/11/06). Et le droit constitue bien une rhétorique protectrice pour celui qui saits'en saisir C'est qu'elle est une rhétorique de l'autonomie, de laneutralité et de l'universalité (Bourdieu, 1 986 : 5) .La médiation en bénéficie, par emprunt plus ou moins impensé et bricolagesordinaires. Le langage de la règle permet ainsi au médiateur de seconstruire comme un « vrai » intermédiaire : il ne se présente pas commejournaliste, il n'est pas non plus un lecteur ordinaire. Il peut du coupparler du journalisme avec hauteur L'autonomie ainsi revendiquée - il n'estpas supposé être un agent de relations publiques ou un porte-parole deslecteurs - rend possible cette prétention à la neutralité. Il peut d'autantplus aisément parler de situations localement situées (tel article de telservice du Monde) qu'il paraît se saisir de règlesforgées par d'autres que lui (des « règles que le Mondes'est fixées », comme il l'écrit souvent; ou, plus largement encore ,des règles qui paraissent concerner l'ensemble des gens de presse). Ce sontautant de conditions à cette prétention à produire de l'universel. .. desrègles. On comprend peut-être mieux ainsi l'intérêt qu'il peut avoir à mobilisercette métaphore. D'autant plus qu'en nous disant au fil des semaines que lejournalisme n'est pas un exercice libre, parce qu'il a des règles et que lesrédacteurs ne peuvent prétendre faire ce que bon leur semble, il produitplus aisément des limites qu'il explicite. En répondant publiquement aux lecteurs, le médiateur peut dénoncer des écarts àla norme de pratiques journalistiques qui lui paraissent déviantes. Il luiarrive aussi de défendre des rédacteurs stigmatisés, de son point de vueinjustement, par les scripteurs. C'est toujours l'occasion de rappeler dans seschroniques une ou plusieurs règles du « bon » journalisme et, ce faisant, deproduire un travail de classement. Autrement dit, son activité peut êtreanalysée comme participant à la construction de quelques-unes des frontières deson activité professionnelle. Cette entreprise passe par une définition de la« bonne » information et, plus encore, par une explicitation des typesd'informations et d'écritures de presse acceptables en fonction des genresjournalistiques visés. Il consacre en effet beaucoup de son temps à rappeler ceque doit être le traitement de l'information au Monde. Ilaime souligner, en particulier, que l'écriture journalistique n'est pasforcément identique dans toutes les rubriques. Les qualités de la « bonne » information, telles qu'elles sont présentées parle médiateur, peuvent ne pas surprendre. Mais c'est toujours à leur aune quesont jugés les articles incriminés. L'ordonnancement est (très) situé. Ilrenvoie à ce que Jean-Marie Charon (1994 : 55) appelle « une figure d'unjournalisme emblématique », celui de la presse d'information politique etgénérale, en tout cas la définition que souhaiterait en retenir Le Monde après 50 ans de sédimentationéditoriale. Le médiateur est loin d' être seulement le gardien de l'ancien Monde. Dans ses billets, il est souvent critiquevis-à-vis de la rédaction en chef (Legavre, 2007). Mais il est aussi letenant d'une certaine orthodoxie. Il exerce au Monde depuis près de quarante ans et il en esttoujours salarié : il a donc toute chance d'adhérer aux croyances penséescomme constitutives d'un quotidien « de référence ». Il aime d'ailleurssouligner que l'appartenance au Monde constitue unlien distinctif qui, tout autant qu'il donne des obligations, réactive lesentiment de participer à une « œuvre » commune et valorisante. Au fil deses chroniques, le médiateur rappelle à tous ce qu'est supposé être Le Monde et ce qu'il impose à ses serviteurs, enparticulier la grandeur de ses charges. Rien de nouveau, à dire vrai : il ya déjà plus de 20 ans, Jean-Gustave Padioleau filait l'analogie religieuseet égrenait, ironique : « sacerdoce », « magistère », « prière » ,« office », « église » « fidèles », « effluves de religiosité » (Padioleau ,1 985 : 1 03 enparticulier). Parmi d'autres quotidiens, Le Monde est ici présenté -dans le désordre - comme un journal de « référence » (25-26/10/04); « unjournal traitant d'abord de l'actualité » (08-09/09/02); un journal« politique » (21-22/05/01); un journal « indépendant » (25-26/06/01); unjournal « d'opinion et d'opinions » (1 2-1 3/07/99 )« qui se veut aussi un espace de libertés pour ses rédacteurs »( 12-13/07/99); « un journal sélectionnant et hiérarchisant » (1 1-12/06/00); un journal « honnête et équilibré »( 12-13/07/99); un journal « fiable » (6-7/09/99); un journal « qui serenouvelle constamment » (13 - 1 4/ 1 2/04); etc. L'affirmation des qualités du quotidien s'exprime, plus largement, par lerappel systématique de l'existence de couples notionnels. Ils dessinent unespace rhétorique. L'illustrer de nombreuses citations rendrait lassante lalecture, tellement ils scandent les chroniques du médiateur Ces notions sontpourtant essentielles. Elles constituent autant de polarités formant desbornes, délimitant des possibles et des pensables pour des rédacteurssupposés, comme l'écrit avec grandiloquence le médiateur, « tendre versl'excellence » - Robert Sole n'hésite pas à y voir, « depuis les origines ,son ambition, pour ne pas dire sa vocation » (06-07/09/99). La première borne indiquée est valorisée. Elle éclaire l'horizon despratiques à suivre; la seconde est rejetée : • la distance versus l'engagement( « les rédacteurs du Monde ne sont ni des militantsd'une quelconque cause, ni des prophètes, ni des justiciers. Ils sont làavant tout pour informer » - 30-3 1 /0 1 /03); • l'argumentation versus l'affirmation (« les phrases simplificatrices neconviennent pas à un débat aussi complexe » - 11 - 1 2/0 1 /04); •l'important et le significatif versus la tentation de« survendre », en particulier en « une », pour séduire (« “survendre” unarticle provoque toujours des déceptions et des suspicions » - 09 - 1 0/04/2000); • l'information versus la rumeur (« le rôle des journalistes n'est pas derapporter des rumeurs mais de donner des informations » - 08-09/ 1 0/2000); • la révélation de faits décisifsversus leur omission non maîtrisée (« rienn'excuse ce manquement à l'information, même s'il se trouve animé desmeilleurs sentiments » - 02-03/06/02); • un article pour tous leslecteurs versus pour une fraction (« un journal n'apas pour vocation à se transformer en modules [. .. ]. Menu unique, donc » -08-09/10/02); • la concision versus la dilution (« l'inflation resteune menace : inflation de mots dans un article, ou d'articles dans undossier. II est toujours tentant de dire en deux pages ce qui tiendrait trèsbien en une seule. Comme si la qualité se mesurait à la surface occupée- 18-19/05/03); • la compréhension immédiate versusla complexité de l'écriture (« l'article contenait sans doute tropd'idées pour trop peu de lignes. Des formules compliquées. .. » - 02-0304/2000); • la maîtrise du « bon » français versus le relâchement enla matière (« quant à l'appauvrissement de la langue, il se traduit par desrépétitions de mots dans un même paragraphe, ou [. ..] par une réduction dela palette des couleurs :“rouge” ou “bleu” ont tendance à se substituer àgrenat, carmin, pourpre, écarlate, azur émeraude, turquoise. .. » (1 1-12/08/02). Deux autres couples notionnels au moins méritent d' être présentés. Lahiérarchie n'est pas ici autant marquée. Mais leur énoncé rappelle que letravail du médiateur consiste aussi à séparer des manières d'écrire et depenser le journalisme « à la française » dans un quotidien de« référence » : • les faits versus le commentaire (« Nepas mélanger les faits et le commentaire » - 07-08/09/98 -; « c'était tropsouvent le cas dans l'ancienne formule [. .. ], parcourir des kilomètresd'analyse et de commentaire avant de trouver enfin l'information » -20/09/99); • l'enquête versus le commentaire( « On [i.e. les rédacteurs] devrait prendre le tempsde s'informer correctement » - 0 1 - 02/04/0 1; « on attend du Monde uneenquête » - 18-19/02/02; « au cours de ce feuilleton lamentable, on auraitaimé que Le Monde se distingue plus souvent par sonobstination à vérifier les faits, par sa retenue ou par son silence » -28-29/09/03). C'est bien d'un usage typique de l'ellipse dont il s'agit là, » sorte demédiation furtive qui oblige le lecteur à ne considérer que les élémentsdont elle rend compte », pour reprendre la définition qu'en propose MagaliProdhomme (2006). Analysant Le Livre de Style duMonde qui en est parcouru, elle souligne, dans son ouvrage sur ladéontologie journalistique, que le procédé permet en fait « d'asseoir, sansnuance possible, la mission du quotidien » (Prodhomme, 2006 : 321). Lemédiateur se propose finalement de trier et de distribuer II souligne ainsien entretien, entre autres rôles, qu'il est « quelqu'un qui tranche endisant :“On a eu raison, on n'a pas eu raison ”, “un tel a raison, un tel atort” » (entretien, mars 2003). Il qualifie aussi son travail de « contrôlede qualité » (07-08/09/98). Lorsqu'il s'attelle à séparer le « bon grain de l'ivraie », le médiateur nefonde pas aléatoirement ses « jugements » sur les énoncés présentés àl'instant. Il le fait en situant les rubriques ou « genres » du journal ou ,pour le dire autrement, les types d'articles qui structurent le chemin defer, c'est-à-dire le plan d'ensemble du journal présentant les places desarticles et des publicités. Les chroniques, surtout celles des premièresannées de son mandat (mais aussi dès lors qu'une nouvelle rubriqueapparaît), soulignent d'abord à l'intention des lecteurs qu'un journal estune succession de rubriques dont les paroles n'ont pas les mêmes limites etlogiques. Les chroniques du médiateur se fondent toutes ou presque sur descourriers de lecteurs. Mais elles peuvent s'attarder minoritairement sur letraitement contesté en tant que tel de l'événement. Le médiateur paraîtpréférer monter en généralité : il en profite alors pour souligner quel'article incriminé appartient à un genre ou rubrique spécifique et quel'évaluation de la dénonciation doit s'étayer à l'aune de ceci. Si le médiateur passe ainsi en revue le chemin de fer du Monde, c'est évidemment dans le désordre, et au fil des ans. De lamanchette à l'ensemble de la maquette de la « une », de l'éditorial à lanécrologie, de l'article de sport à la chronique télévision, du portrait aureportage, de l'enquête à la chronique théâtrale ou musicale, de lachronique judiciaire à la grille du jeu quotidien, de l'entretien à latribune, du commentaire à l'analyse, des annonces de naissance et de mariageà la rubrique automobile, de la photo au dessin de presse, de la critiquecinématographique au jeu quotidien, de la page « Régions » à la rubrique« Il y a 50 ans dans Le Monde », des pages « Débats »ouvertes à des « expertises extérieures » (Neveu, 1993 : 14) aux logiques del'infographie dont la présence est croissante, de la rubrique « tourisme »au « ventre » de « une », en passant par les suppléments « attrapes pub » oula mise en scène des encarts publicitaires, etc., le médiateur dit et reditque toutes les paroles journalistiques ne se valent pas, qu'en tout cas ,elles ne lisent pas identiquement et qu'elles doivent éviter leschevauchements pour être compréhensibles par les lecteurs. En somme, cette évidence a toute chance d'en être une pour les seuls initiés ,plus encore à une époque où les lecteurs occasionnels de la pressequotidienne sont de plus en plus nombreux. Et encore : si les courriers deslecteurs sont probablement écrits d'abord par des lecteurs mobilisés qui onttoute chance d' être le plus souvent des lecteurs réguliers, alors il estmême possible, en s'en tenant aux interrogations et critiques des lettressélectionnées par le médiateur, de penser que même le « noyau dur » dulectorat est loin de maîtriser le propre de la parole journalistique ,c'est-à-dire d' être non pas une même parole se déployant tout au long dujournal mais, au contraire, une combinatoire de paroles mises en scène etencadrées spécifiquement et n'ayant pas la même portée. La (les) parole(s )journalistique(s), comme toute(s) parole(s) professionnelle(s) etdistinctive(s), suppose(ent) une initiation que sont loin d'avoir la plupartdes profanes qui, du même coup, peuvent à loisirs se saisir de mythes, commeceux de » l'objectivité » par exemple, pour dénoncer des « manquements » quisont loin d'en être toujours dans les représentations professionnelles desjournalistes. Comme le résume le médiateur dans un billet : » Au Monde, il existe différents types de textes( articles informatifs, analyses, éditoriaux, entretiens, rectificatifs. .. )pour lesquels sont fixés un mode d'écriture, une forme de titre, unelongueur et même une police de caractère. On ne rend pas compte de la mêmemanière d'un débat parlementaire, d'un colloque ou d'un procès »( 13-14/12/04). On ne pourrait pleinement saisir cette insistante pédagogie s'il l'on n'avaitpas en tête que l'activité de médiation a bien une dimension explicitementinformative. C'est aussi, comme le rappelait encore Pierre Bourdieu (1 987 : 97), que la prétention codificatrices'inscrit toujours dans un processus de communication. Quelle qu'elle soit ,elle assure une communication minimale, ici une communication entre leslecteurs et la rédaction. Le médiateur dit d'ailleurs y accorder une grandeimportance : « Souvent, cette chronique est le seul lieu où l'on révèle deschoses sur le journal. Tout ça est un peu paradoxal. Ce journal a longtempsété un couvent, fermé, qui ne voulait pas du tout communiquer Et puis ils'est mis énormément à communiquer, depuis quelques années, avec des genschargés de la communication. On communique énormément, mais c'est de lapolitique de communication. On communique tout ce qui est positifFinalement, ces gens là n'informent pas sur beaucoup de choses. Et moi ,pendant ce temps, effectivement, je donne des informations qui intéressentles lecteurs. Positives, négatives, purement informatives, cela dépend. Maisje trouve que l'intérêt, c'est le lecteur Le lecteur a envie de savoircomment Le Monde fonctionne, donc je le fais »( entretien, mars 2003). Sans viser l'exhaustivité et sans hiérarchiser; une quinzaine de casd'espèces suffiront ici à saisir la portée donnée par le médiateur à cequ'il convient d'appeler dans un sens large, les logiques formelles durubricage. En effet, ce dernier doit être entendu comme une activité dedistinction éditoriale permettant de classer et situer des paroles - lerubricage est « une mise en scène du sens des énoncés », écrivent ainsiMichel Mouillaud et Jean-François Tétu (1989 :63). Il permet, tout en mêmetemps, de hiérarchiser l'espace, donc de distribuer du pouvoir, etfinalement de donner à voir d'une certaine manière un objet construit - lejournal. C'est dire que le discours du médiateur sur ce point n'est pasanodin. Comme l'écrivent ces mêmes auteurs, « la mise en rubriques [. .. ]transforme les contenus du journal en “réalité” » (Mouillaud, Têtu, 1989 :65). • Le titre principal de « une » est supposé être seulementinformatif. Il n'est pas un éditorial : « Le lecteur est en droit d'exigerqu'une manchette soit honnête - en reflétant exactement le contenu desarticles - et qu'elle ne soit pas un éditorial » (13-14/05/01). •L'éditorial exprime une opinion mais doit être argumenté : » Exprimer sesopinions de manière solidement argumentée et [. ..] se garder d'un tonpéremptoire ou donneur de leçon » (05-06/10/98). • La chroniqueculturelle n'a que l'apparence de la subjectivité : « La critique est moinssubjective qu'on ne le croit : “Il y a une œuvre que l'interprète doitrespecter. ..” » (2/3/04/2000). Mais elle a peu à voir avec le reste duquotidien : « C'est le rôle des fameuses “critiques ”, ces articlesinclassables, autorisés à mêler information et commentaire, dans lesquels lejournaliste peut émettre des jugements tranchés » (28-29/11/05). • Undessin de presse peut exagérer le trait : « On lui accorde une marged'exagération qui ne serait pas supportée d'un autre journaliste » (20-2 1 /04/03). Mais « dans Le Monde ,photos et dessins ne se réduisent pas à des illustrations décoratives :ce sont des informations ou des points de vue à part entière, soumis auxmêmes vérifications et aux mêmes réflexions critiques que les articles »( 20-21/12/04). • Une nécrologie ne doit pas commenter mais rendrecompte d'une vie : elle « doit privilégier les faits plutôt que lecommentaire » (0 1 - 02/04/0 1); elle peut le faire avec une part de parti pris : « Dans le casd'un créateur [. .. ], exprimer de l'enthousiasme, avec un peu de tendresse ,vaut mieux que des réserves sur ce qui sera oublié de toute manière »( 29-30/11/99). • Une chronique télévision n'a pas à commenter lesévénements d'actualité : « On ne lui demande pas de commenter les événementsd'actualité, mais leurs reflets télévisés. X aparfois du mal à rester dans ce cadre. Et il arrive que sa plume griffe tropfort et s'aventure » (1 2 - 1 3/02/200 1). • Lesencarts de publicit é doivent être bien séparés des articles de fond. La publication d'unentrefilet sur une « pilule de l'éternelle jeunesse » : « Une publicité ?Sans doute. Mais il fallait l'indiquer » (20-21/04/2003). • Les pages« Débats » constituent un espace mesuré de discussion : « La publicationd'un point de vue [. ..] ne signifie pas que Le Mondeapprouve les thèses de son auteur [. .. ]. L'équilibre des pages Débatsne se mesure pas au jour le jour; mais sur une certaine période. Et pasforcément avec des chiffres [. .. ]. • C'est la musique de l'ensembleque l'on retient. Les rédacteurs du Monde n'y ont pasleur place. Il ne s'agit pas de défendre des causes - et encore moins derégler des comptes - par le biais de plumes extérieures, mais d'offrir unespace de discussion ouvert, honnête et enrichissant » (11 - 12/10/04). • Toutes les chroniques, commentaires ouautres analyses ne sont pas supposés « coller » à une « ligne » : « Il n'estpas interdit à des journalistes de commenter l'actualité de manièredissonante .Ainsi, une chronique de. .. » (12-13/03/06); • Lachronique judiciaire a des « règles strictes » mais permet aux rédacteursconcernés d'adopter « un style personnel » : « Le journaliste doit donnerl'impression d'avoir assisté à l'audience, mais il ne cite pas les propostenus hors prétoire, dans les couloirs du palais de justice. Ces règles trèsstrictes n'empêchent pas chaque chroniqueur judiciaire d'avoir son stylepersonnel » (13-14/12/04). • Le sport autorise une écriture moinsstricte : « Le sport fait rêver [. .. ]. Sans tomber dans le lyrisme, il fautraconter la course, écrire cette chanson de geste » (1 1-12/07/04). Encore faut-il bien voir que le médiateur, en distinguant des typesd'écriture, ne cesse de compter une (des) histoire(s), celle(s) du Monde. Cette volonté d'inscrire les règles présentéesdans leur historicité - ce que ne faisaient presque jamais ses prédécesseurs- permet sans doute à chacun de mieux saisir des logiques héritées. Soucipédagogique, une nouvelle fois ? Sans doute. Mais pas seulement. Il faut yvoir aussi tout un travail d'entretien de croyances dans l'existence d'unpassé glorieux à transmettre à tous, aux lecteurs sans doute, mais aussi auxrédacteurs. Il y a là sans doute une prétention à inscrire de la continuitédans la discontinuité des « refondations » et autres changements d'équipesde direction (en 1995 avec la nomination d'Edwy Plenel, en 2005, avec celled'Eric Fottorino) dont les traces s'inscrivent explicitement dans lesnouvelles maquettes, formules et cortège de rubriques hier absentes. Pour cefaire, le médiateur n'a guère besoin de puiser aux meilleures sources : ilest l'histoire récente du journal faite corps. Entré au Monde à 23 ans en 1969 au tout début de sa carrière (il avaitauparavant travaillé deux ans dans la presse quotidienne régionale), il estaujourd'hui l'un de ses journalistes les plus anciens, entré avant lesactuels directeur du journal, directeur de la rédaction et l'ensemble desmembres de la rédaction en chef. Trois « coups de projecteur », parmid'autres possibles, suffiront à s'en convaincre. S'agit-il de commenter une chronique théâtrale contestée ? Avant d'enprésenter les logiques actuelles, logiciel à l'appui (« mon premier réflexe ,après lecture de ces lignes, a été d'interroger la banque de données du Monde. Un simple clic sur la rubrique. .. »), lemédiateur revient aux origines. Il raconte aux lecteurs l'histoire de ce« célèbre » chroniqueur de l'après-guerre - Robert Kemp, « membre del'Académie française » - quittant vite la salle de spectacle (« alors que lesapplaudissements crépitaient encore, il rentrait rédiger chez lui sonpapier ») et, en pleine nuit, déposant son texte terminé sur son paillassonà destination d'un cycliste du Monde passant à sondomicile le matin à sept heures. Une seule fois, il n'y parviendra pas .C'était après la première d'En attendant Godot .« Désolé, dit-il le lendemain au rédacteur en chef, avec l'humilitéd'un débutant - précise Robert Sole, rappelant là en creux la modestie quisied aux clercs de papiers - je n'ai pas tout compris, mais je crois quec'est important » (1 4 - 1 5/01 /0 1). S'agit-il de commenter un éditorial contesté par des lecteurs ou de répondreà la question récurrente d'autres lecteurs étonnés qu'un éditorial ne soitpas signé ? Plusieurs fois, le médiateur y revient et pas seulement pourexpliciter ses logiques rhétoriques, celles de la prise de positionargumentée. Ainsi, dans cette chronique de 1999 (12-1 3/07), explique -t-ill'évolution du contenu et de la place du « Bulletin de l'étranger » (« puis“ Bulletin” », avant de figurer sans titre - traitant essentiellement desquestions internationales ») paraissant en « une » (« la fameuse colonne degauche ») jusqu' à la réforme de 1 995 (qui un tempsadopte le double éditorial quotidien). Il en présente le processus defabrication : ilprécise que le texte n'est pas signé, que le sujet est décidé en conférencede rédaction le plus souvent la veille, que « contrairement à l'ancienbulletin, qui était toujours rédigé par un rédacteur spécialisé », une« équipe d'éditorialistes polyvalents s'en charge », sous le contrôle de larédaction en chef, « la touche finale revient au directeur du journal. » Ilprésente les conséquences de l'actuelle formule sur le genre : « Endéménageant dans une page éditoriale, conçue sur le modèle de la presseanglo-saxonne, elle a perdu à la fois son caractère hybride et sa tonalitésouvent très balancée. L'éditorial se caractérise par un ton plus incisif etdes affirmations plus tranchées ». S'agit-il, comme souvent, de répondre à des lecteurs qui critiquent lamanchette de « une » ? Il souligne alors qu'elle est « rédigée généralementau dernier moment, dans l'urgence du bouclage » (1 2-13/10/98). Au fil des transformations visuelles du quotidien, il en présenteles formes possibles et les traduit dans un langage accessible : « Selon laformule actuelle, elle n'occupe qu'une ligne, le plus souvent sur quatrecolonnes, soit six ou sept mots au maximum » (12-13/10/98). Et il pensepouvoir constater un an plus tard : « Les lecteurs du Monde se sont habitués peu à peu à la nouvelle architecture de lapremière page, qui compte systématiquement un gros titre en manchette ». Ilpeut du coup revenir sur le passé et comparer les anciennes des nouvelleslogiques de fabrication : « Les savants dosages de jadis, conduisant àmettre côte à côte plusieurs sujets en leur accordant une largeur variable ,ont cédé la place à un choix clair et net : le thème jugé le plussignificatif, le plus important ou le plus frappant est nettementprivilégié, par un titre d'une ligne sur quatre colonnes, accompagné detrois ou quatre « puces » explicatives » (11-1 2/ 1 0/99). Ou, dans cet autre billet, il souligne que ,« à la manière d'autres journaux [. .. ], Le Monde acessé de hiérarchiser l'actualité en première page par des titres de tailledifférente. Il compte désormais tous les jours, une manchette sur quatrecolonnes, quel que soit le thème retenu. Or, la palette s'est beaucoupélargie, et l'on voit en tête de « une » des sujets qui n'auraient pas étéjugés assez nobles jadis pour y figurer Tout est présenté de la même manière[. .. ]. La volonté d'accrocher le regard dans les kiosques est évidente. Laformule choisie - un titre d'une seule ligne, en gros caractères - oblige àla concision et conduit à des simplifications. Or, pendant des décennies ,Le Monde s'était distingué par des formulationsprudentes et souvent tarabiscotées » (13-14/05/01). Cette volonté deprésenter « l'architecture » du journal et d'adopter une pédagogie de laforme et du vocabulaire spécialisé est presque constante. Une fois encorepour la « une » : « Graphiquement, la première page du journal est à peuprès identique tous les jours, sauf événement exceptionnel. Elle comptequatre “é tages” : une manchette, accompagnée d'undessin de Plantu; un deuxi è me titre, plus petit; une billet appelé“ ventre ”, qui est consacré à un thème plusdécalé; enfin une analyse ou un point de vue, en rez-de-chauss é e. Dixà quinze autres sujets sont annoncés, parfois illustrés dans cette vitrinedu journal ». Et de préciser : « Hormis le dessin etl'analyse, aucune opinion ne doit s'exprimer en “une” » (12 - 1 4/ 1 2/04). Si le médiateur peut avoir tout intérêt à user de cette métaphore de la règle ,c'est bien que celle -ci peut adéquatement accompagner autant que mettre en formeson projet inséparablement déontologique, pédagogique et éditorial (Legavre ,2007; 2008). Mais c'est encore parce que la croyance dans la pertinence dulangage de la règle lui fait croire que le travail journalistique est aussi untravail d'ordonnancement. Il exprime là d'abord une pulsion de chef ayant quittéle terrain depuis bien longtemps et concevant son métier comme celui d'une miseen formes de paroles journalistiques écrites ou recueillies par d'autres ethiérarchisés par ceux qui ont la charge d'animer la rédaction, comme le disentpar périphrase ceux qui ont la capacité d'imposer leurs vues. Robert Soleoccupait des positions hiérarchiques depuis le milieu des années 80. En cela ,son projet est conditionné par le « journalisme assis » qui le caractérise .L'opposition avec le « journalisme debout », de terrain est plus simplifianteque ne le pensent et le disent beaucoup de spécialistes français des médias quien ont fait une des oppositions majeures en l'important des travaux de JeremyTunstall (1971). Certes, tout donne à penser que les journalistes passentaujourd'hui un temps croissant dans les rédactions. Ils ne sont pas pour autanttous hors de leur terrain et sans contact avec des sources autres que cellesprovenant des dépêches d'agences ou ceux que les spécialistes appellentpudiquement sources documentaires. Simplement, ce journalisme - et ce n'est pasrien - est désormais beaucoup plus qu'hier fondé sur l'usage intensif d'untéléphone tendant de plus en plus à se substituer aux interactions de face àface. Sans les remplacer complètement. Mais, au-delà, la distinction entrejournalisme « assis » et « debout » a ce grand avantage de rappeler que lequotidien d'une fraction de journalistes se définit d'abord partout un travailde relecture, de corrections, de titrage et d'habillage - des secrétaires derédaction ou éditeurs aux infographistes, en passant par les directeursartistiques ou autres. .. chefs, précisément. Hiérarchiser « l'actualité » ,mettre en forme(s) un chemin de fer en plaçant les « papiers » dans des« formes », ces emplacements attribués aux rédacteurs et objectivés par leslogiciels de presse, c'est aussi (d'abord ?) unifier la diversité de pratiquesrédactionnelles et leur donner un certain ordre. Et tous les gens de presse n'yont pas le même « intérêt », c'est-à-dire n'y investissent pas les mêmescroyances. Les journalistes producteurs de typologies de « genres »journalistiques ou présentant les logiques des rubriques aiment voir dans leurtentatives de classement la seule expression d'un « journalisme de méthode » quiréclamerait une « compétence technique » et, ce faisant, se départirait de sesorigines « littéraires » (Agnès, Croissandeau, 1979 : 37-38). Pour eux, lamaîtrise des divers genres rendrait possible « la sûreté dans la quête del'information [. ..] et la qualité de l'écriture » (Agnès, 2002 : 1 87). En ce sens, ces typologies seraient la réponse à« une nécessaire formalisation de l'expérience en vue de sa transmission [. ..] ,cette entreprise d'explicitation du travail journalistique constituant] uneffort pour aller “vers un journalisme moins empirique [. .. ], où l'on sepréoccupe de définir des règles” » (Ringoot, Utard, 2005 : 27; citant Agnès ,2004). Le discours sur les « genres journalistiques », précisent cependantRoselyne Ringoot et Jean-Michel Utard (2005 : 28), est tout autant fonctionnelque normatif - en particulier parce qu'il fixe, dans la concurrence, le « bon »journalisme de l'époque. En cela, il peut s'analyser comme un « discoursréflexif d'une profession sur sa pratique discursive, les genres journalistiquesdéfinissant à la fois des manières de faire et des raisons d' être ». Discours réflexif d'une profession ? Pas tout à fait. Plutôt discours réflexifhiérarchiquement situé d'une fraction journalistique, celle qui est en positionde le faire publiquement et qui, ici comme ailleurs, exprime une prérogative dechef ou de porte-parole. Produire de l'unité là où il y a de la diversité etencadrer la fluidité des processus sociaux est probablement ce qui constitue lenoyau du travail d'une hiérarchie, quelle qu'elle soit et quelle que soitl'organisation en cause. En cela, le discours du médiateur sur le journalismeest l'expression d'un journalisme de chefs dont, par définition, il ne faut pasforcément attendre qu'il parvienne à parler autant qu' à saisir les « petiteschoses » qui font que les rubricards réussissent chaque jour plus ou moins bienà faire ce qu'ils font : produire un discours sur et avec des sources quitentent d'imposer une certain vision de l'histoire en train de se faire. Ils lefont en fonction de ce qu'ils sont, donc en particulier en fonction dessocialisations qui les ont construits et des lieux qui les structurent. Autantde facteurs qui ont toute chance d'échapper aux médiateurs et aux médiations depresse.. .
Le médiateur du Monde a suscité un certain intérêt des chercheurs en sciences sociales. Pourtant, les analyses ont laissé de côté une dimension importante de l'écriture de médiation, la propension de son titulaire à appuyer son argumentation sur le langage de la règle. Le vocable « règle » - il y a des règles à respecter lorsque l'on fait du journalisme, répète le médiateur - revient avec une relative insistance. En appuyant son raisonnement sur des règles, il a recours à une métaphore de type juridique. Le médiateur laisse par là percevoir que le travail journalistique est un travail tendanciellement codifiable. Il présente le journalisme comme une activité faites de limites ou de frontières. Finalement, médiateur paraît construire une grammaire qui concerne d'abord l'écriture de presse et ses agencements dans les rubriques du journal.
sciencesInfo_10-0023559_tei_1116.xml
termith-471-communication
Les dossiers numériques peuvent être élaborés directement à partir de documents initialement numériques, mais ils nécessitent souvent d'intégrer des documents plus anciens produits de manière traditionnelle, sous une forme uniquement papier. En outre, pour ceux qui contiennent des informations textuelles, ils peuvent être aussi bien imprimés que manuscrits. La seule numérisation n'est alors pas suffisante (André et al., 1999), car il faut pouvoir accéder au contenu du document papier pour permettre l'utilisation de certaines informations (présentes uniquement sur papier) par le reste du dossier. Il peut également être nécessaire d'accéder à un document à partir de son contenu, qu'il soit manuscrit ou imprimé, grâce à des éléments d'indexation produits de manière automatique. Tout ceci rend indispensable une phase de reconnaissance de documents (ou rétroconversion), c'est-à-dire de passage de l'image à des données représentant le contenu reconnu, en vue de l'intégration des documents papier au sein de dossiers numériques. Ces documents papier qui doivent être intégrés aux dossiers numériques peuvent avoir des formes ou des types très hétérogènes. Il est donc important de développer des systèmes de reconnaissance capables de traiter ces différents types de documents. Cependant, la tendance la plus couramment pratiquée actuellement consiste à développer une application pour chaque nouveau type de documents. Même si, pour des équipes expérimentées, cela peut se faire en réutilisant quelques modules déjà écrits, un tel développement exige encore, néanmoins, de déployer une énergie très importante. A l'heure où dans de nombreux domaines, et en particulier dans celui des archives, on assiste à des campagnes de numérisation des documents papier (Lorie, 2000), nous avons pensé qu'il était important d'automatiser ce développement en séparant les connaissances propres au domaine applicatif ou connaissances a priori, des procédures de traitement d'images. L'approche initialement conçue pour la reconnaissance des partitions musicales (Coüasnon et al., 1995) a pu être étendue par exemple aux formules mathématiques et aux structures tabulaires. L'intérêt d'une approche générique est d'autant plus grand quand les documents sont hétérogènes; il suffit de formaliser les connaissances spécifiques sur la structure de chaque document pour produire l'analyseur adapté. Nous débutons cet article par la présentation de la méthode DMOS, méthode générique de reconnaissance de documents. Puis nous montrons comment, grâce à cette méthode, nous avons pu produire différents systèmes de reconnaissance, notamment de reconnaissance de tableaux, validant ainsi l'aspect générique. La dernière partie illustre une validation de cette méthode sur plus de 5 000 fiches d'incorporation militaire du XIXe siècle. La reconnaissance des documents se trouve très souvent confrontée au paradoxe bien connu : pour reconnaître, il faut segmenter le signal d'entrée, mais pour bien segmenter il faut avoir reconnu 1. Pour s'en sortir, il faut donc faire coopérer les processus de segmentation et les processus de reconnaissance en utilisant au mieux les connaissances a priori sur le domaine applicatif. Un système générique de reconnaissance doit donc : isoler les connaissances a priori afin que l'adaptation à un nouveau type de documents soit simple et bien localisée; utiliser ces connaissances a priori pour remettre en cause les segmentations proposées par le traitement d'image. Les grammaires et les langages qui leur sont associés constituent un formalisme simple et puissant de modélisation. Nous avons donc proposé, pour les documents structurés une méthode baptisée DMOS (Description avec MOdification de la Segmentation), constituée de : un langage grammatical de description de documents que nous avons défini, EPF (Enhanced Position Formalism), et qui permet de modéliser la connaissance a priori; un extracteur des éléments terminaux du langage présents dans l'image; un analyseur associé autorisant une modification en cours d'analyse de la structure analysée. Cette modification permet d'introduire le contexte (niveau symbolique) dans la phase de segmentation (niveau numérique), afin d'améliorer la reconnaissance; un classifieur qui vient, si besoin, reconnaître les symboles pouvant être assimilés à des caractères. Ce classifieur doit avoir des capacités de rejet lorsque le symbole présenté lui est totalement inconnu (Anquetil et al., 2000), car ce cas résulte le plus souvent d'une erreur de segmentation. Ainsi averti, l'analyseur pourra rechercher localement une autre segmentation. Un certain nombre de formalismes grammaticaux permettant de décrire des objets bidimensionnels ont déjà été proposés. Cependant, soit ils offrent une expressivité trop faible (grammaires d'arbres (Brained, 1969) ou grammaires web (Pfaltz et al., 1969)), soit ils ont une syntaxe trop compliquée (grammaires plex (Feder, 1971) ou grammaires de graphes (Grbavec et al., 1995)) qui rend très difficile la mise en œuvre de connaissances complexes. En outre, aucun ne permet d'introduire la connaissance ainsi formalisée dans la phase de segmentation. Nous avons choisi d'étendre le formalisme des Definite Clause Grammar (Pereira et al., 1980) car celui -ci s'exprime assez facilement dans le langage Prolog. Grâce à son mécanisme d'unification, ce langage prend en charge le combinatoire relatif à la gestion des différentes hypothèses de segmentation et de reconnaissance et rend ainsi beaucoup plus simple la réalisation de l'analyseur. En exprimant dans la grammaire les redondances présentes dans le document, il est possible de faire détecter par le système lui -même d'éventuelles erreurs. Ceci est particulièrement nécessaire dans un contexte industriel de traitement de documents, où il n'est pas envisageable d'avoir un opérateur humain qui relise l'ensemble des documents reconnus pour y détecter des erreurs. Nous avons donc défini et développé le langage EPF, permettant de décrire un document structuré aussi bien au niveau graphique que syntaxique. Ce langage peut être vu comme une extension bidimensionnelle des grammaires dans laquelle les terminaux sont des segments ou des matrices de pixels (composantes qui représentent un symbole) au lieu d' être, comme dans les grammaires classiques, des caractères. Cette extension comporte également un certain nombre d'opérateurs spécifiques dont voici quelques exemples : Opérateur de position (encadré par AT) : A && AT (pos) && B où A et B représentent un terminal ou un non-terminal et && désigne la concaténation dans la grammaire. Si, par exemple, pos prend la valeur extremiteGauche cela signifie que B doit se trouver près de l'extrémité gauche de A. Le concepteur de la grammaire peut définir à la demande des opérateurs de position, comme extremiteGauche, de la même manière qu'il peut le faire pour des non-terminaux. L'opérateur définit, par rapport à A, une zone de l'image dans laquelle B doit se trouver (figure 1). Opérateur de factorisation (##, en association avec les opérateurs de position) : A && (AT(pos1) && B ## AT(pos2) && C) signifie (A && AT(pos1) && B) et (A && AT(pos2) && C). En notant par ::= le constructeur d'une règle grammaticale, il est possible, grâce à cette syntaxe de décrire, par exemple, un groupe de notes (des croches reliées par une seule barre de groupe, figure 1). Cette règle groupeDeNote ne spécifie ni le nombre de notes reconnues par noteAuMilieu, ni la direction des hampes. Ainsi une seule règle peut décrire l'ensemble des groupes de notes que l'on peut trouver dans une partition. Opérateurs de référence multiple (- - - > et < - - -). Afin de pouvoir faire référence plusieurs fois à une même instance du terminal ou du non-terminal A, nous proposons de sauvegarder cette instance à l'aide de - - - >. Cette sauvegarde permet ensuite de faire référence (à l'aide de < - - -) à A autant de fois que nécessaire. Il est ainsi possible de décrire ce qu'est un rectangle (figure 2). De la même manière, nous pouvons définir la description d'un triangle (figure 3). Opérateurs de déclaration (DECLARE). Cet opérateur permet de préciser la portée d'un identificateur. Toutes les règles peuvent utiliser l'identificateur ainsi déclaré pour faire référence au même élément non terminal. C'est ainsi que l'on peut exprimer, dans la figure 4 que le triangle et le rectangle ont le côté gauche en commun. Opérateur de réduction d'espace IN(définitionZone) DO(règle). EPF offre également un opérateur pour réduire la zone de l'image dans laquelle une règle doit être appliquée. Cet opérateur est très souvent utilisé lors de définitions récursives. Ainsi nous pouvons, par exemple, décrire une racine carrée qui peut contenir, de manière récursive, une expression mathématique (figure 5). Le termSigneRacine décrit le symbole racine et l'opérateur IN DO permet de limiter la description récursive à la zone sous la racine. L'expression est placée relativement à termSigneRacine par l'opérateur de position droiteRac. Opérateurs de segmentation contextuelle GEL et RECHERCHE. Nous avons montré dans (Coüasnon et al, 1995) (Coüasnon, 1996) qu'il existe une différence entre décrire un document et avoir un moyen de le reconnaître, et que cette différence provient des problèmes de segmentation. Ces deux opérateurs permettent de passer automatiquement de la description au moyen de reconnaître, en modifiant de manière transparente et en cours d'analyse, l'ordre d'analyse et la structure analysée. Ces modifications offrent en fait la possibilité de remettre en cause la segmentation en introduisant le contexte modélisé grâce au langage EPF. Les structures linéaires tiennent une grande place dans les documents : cadres, tableaux, lignes de référence, éléments constitutifs de symboles… Mais elles sont rarement isolées et interfèrent souvent entre elles ou avec les autres éléments du document. Cependant la simplicité de leur structure permet d'envisager de conduire simultanément la segmentation et l'identification et donc de les prendre comme éléments terminaux du langage. Pour détecter les segments de droite, nous nous appuyons sur le filtrage de Kalman qui est une technique d'identification des paramètres d'un modèle à partir d'une suite ordonnée de mesures. Dans le cas des segments de droite, le modèle se réduit à l'épaisseur du trait, à sa pente et à l'équivalent de l'ordonnée à l'origine. Les mesures proviennent de la position et de la taille des empans noirs 2 dans une direction approximativement orthogonale au tracé. Parallèlement à l'estimation des paramètres du modèle, le filtre de Kalman calcule la matrice de covariance de cette estimation. Cette matrice permet d'évaluer d'une part la vraisemblance de l'affectation d'une mesure à un segment et d'autre part la vraisemblance de la poursuite d'une hypothèse perturbée par la présence d'un autre objet. On en trouvera une description plus détaillée dans (Poulain et al., 1996). Les autres éléments terminaux se réduisent aux composantes connexes de pixels noirs qui ne peuvent pas être décrites par un ensemble de segments. Ces matrices seront, si besoin, présentées au classifieur associé. Ainsi une racine carrée est reconnue comme composée de trois segments et non comme un caractère. Cette approche réduit le nombre de symboles et facilite la prise en compte de la variabilité des dimensions. Le langage EPF décrit ci-dessus permet de définir grammaticalement le document à reconnaître. En compilant cette grammaire nous produisons automatiquement un analyseur qui possède des caractéristiques spécifiques à l'analyse de documents bidimensionnels. Nous pouvons souligner les trois principales caractéristiques de l'analyseur à deux dimensions que nous avons développé, par rapport à un analyseur classique (à une dimension) pour les langages formels : remise en cause de la structure analysée en cours d'analyse (pour effectuer des segmentations contextuelles); détection de l'élément suivant à analyser. En effet, pour les analyseurs classiques l'élément suivant est simplement celui qui est en tête de la chaîne analysée, alors qu'en deux dimensions l'élément suivant peut être n'importe où dans l'image, donc n'importe où dans la structure analysée. Ce sont les opérateurs de position qui permettent de spécifier où doit se trouver l'élément suivant à analyser; gestion correcte du bruit. Contrairement aux analyseurs classiques pour lesquels la chaîne analysée est peu bruitée, en reconnaissance de documents il est nécessaire que l'analyseur soit capable de reconnaître le maximum d'informations dans un flux très bruité. Nous pouvons considérer que la gestion du bruit correspond à trouver l'élément suivant, malgré le bruit. Ce bruit est constitué de toute information qui n'est pas spécifiée dans la grammaire. Le bruit peut donc être lié à une perturbation de l'image (taches…) ou bien à une notation non prévue dans la grammaire. Cette gestion correcte du bruit est primordiale car une description grammaticale ne peut être exhaustive. Ainsi, grâce à cette gestion, l'analyseur sélectionnera les terminaux qui correspondent à la description grammaticale dans un ensemble de données beaucoup plus important. Nous sommes arrivés, grâce à la définition et à la mise en œuvre du formalisme EPF et de son analyseur associé, à concevoir un système générique de reconnaissance de documents structurés. La création d'un nouveau système de reconnaissance adapté à un nouveau type de documents s'obtient par simple compilation de la description du document réalisée avec le langage EPF. Eventuellement un nouvel apprentissage automatique du classifieur servant à reconnaître les symboles (terminaux représentés par des matrices de pixels), peut être nécessaire si le document comporte de nouveaux symboles. Afin de valider l'aspect générique de la méthode DMOS, nous avons déjà défini deux grammaires EPF pour produire automatiquement, par compilation, deux systèmes de reconnaissance, l'un pour les partitions musicales (Coüasnon et al., 1995) et l'autre pour les formules mathématiques (Garcia et al., 2001). Certains logiciels disponibles dans le commerce peuvent traiter des tableaux; cependant, ils ne traduisent que la présentation graphique de ces tableaux et ne détectent pas leur organisation hiérarchique. Or cette dernière est primordiale pour pouvoir structurer le document, accéder aux données qu'il contient et les interpréter. C'est dans ce contexte que nous avons défini la description grammaticale en EPF (figure 6) d'un tableau-formulaire constitué d'un nombre quelconque de colonnes et de lignes délimitées par des filets (segments) formant ainsi des cases de dimensions variables. Cette description commence par la définition de la plus grande structure tabulaire détectable dans un tableau, soit le rectangle englobant. Celui -ci est ensuite automatiquement subdivisé en lignes et en colonnes. Ensuite, et de manière récursive, l'intérieur de chaque case constitue une nouvelle zone de recherche d'un tableau. C'est cette description récursive qui permet au système produit de reconnaître l'organisation hiérarchique d'un tableau-formulaire quel que soit son emplacement dans un document. Cette grammaire, qui n'utilise actuellement que les segments comme éléments terminaux, pourrait être étendue par la reconnaissance des textes inclus dans chaque case. Ceci permettrait, par exemple, de retrouver l'intitulé des colonnes. Nous envisageons également de travailler sur la détection des structures tabulaires qui ne sont pas délimitées par des filets, mais simplement par des zones blanches. La reconnaissance de tableaux de structure quelconque décrite ci-dessus suppose que les documents analysés soient d'assez bonne qualité; la détection des segments ne doit pas être trop perturbée. A l'opposé il existe des documents dont la structure est mieux connue (nombre de lignes ou de colonnes par exemple) mais dont la qualité est fortement dégradée. Il est alors possible de construire une grammaire moins générale que la grammaire précédente, mais qui, en tirant mieux parti des connaissances a priori sur le document, sache compenser la mauvaise qualité de l'image. Pour valider cette approche nous avons traité des registres d'incorporation militaire du XIXe siècle. Ces documents sont constitués à partir de formulaires préimprimés. La structure de base de chaque fiche est stable sur une quarantaine d'années, par contre la taille des cases varie d'une année sur l'autre (déplacement de 1 à 2 cm). Ces documents présentent un certain nombre de défauts : la numérisation introduit de petites rotations (cf. figure 11); le papier présente une certaine transparence, le verso est donc partiellement visible; les fiches ont été endommagées, déchirées, recollées, tachées; des tampons viennent perturber l'aspect visuel de la page; les fichiers traités avaient été comprimés en JPEG. Si cette compression affecte peu la reconnaissance des segments, et donc celle de la structure, par contre elle gène la reconnaissance automatique des caractères; et surtout, en raison de la guerre de 1914, certaines cases se sont avérées trop petites à l'usage. Les secrétaires ont donc collé de petites feuilles annexes (paperolles ou retombes) qui masquent largement la structure du document (cf. figure 8). De nombreuses méthodes ont été développées pour reconnaître des structures tabulaires (Lopresti et al., 2000). Quelques méthodes (par exemple (Taylor et al., 1992) ou (Wanatabe et al., 1993)) utilisent une détection bas-niveau de points spécifiques comme les croisements, les coins… Cependant, ces techniques ne peuvent gérer correctement les filets partiellement effacés. (XingYuan et al., 1999) ont proposé un système plus robuste mais qui ne peut, en revanche, fonctionner lorsque certaines parties de la structure sont masquées. En outre, nous n'avons pu trouver de résultats dans la littérature évoquant des formulaires anciens, altérés ou partiellement masqués. Nous avons eu à notre disposition un échantillonnage représentatif constitué par dix registres répartis entre 1878 et 1900, soit un total de 5 268 images. Parmi ces registres, trois présentent une grande proportion de fiches comportant des retombes et des collages; c'est-à-dire que 30 à 60 % des images comportent des défauts. Nous avons commencé par construire la description des fiches au moyen d'une grammaire EPF en inspectant quelques fiches issues de quatre registres, et nous avons produit l'analyseur associé. Puis nous avons utilisé cette unique description pour traiter les dix registres. L'analyseur fournit en sortie une description XML de la structure avec la localisation précise des cases. Il peut également signaler qu'il a été incapable de reconnaître la structure dans la page à analyser en expliquant la raison de l'échec. Le traitement des documents s'effectue en deux phases : le rejet automatique des images dans lesquelles la structure n'est pas présente (images non traitables), puis la vérification de la cohérence des dimensions entre les images d'un même registre. Sur les 5 268 images, 269 ont été considérées comme non traitables (environ 5 %). Il s'agit effectivement de pages totalement différentes comme les tables des matières, de pages mal numérisées ou trop abîmées. Nous pouvons mentionner qu' à ce niveau du traitement, le système n'a produit aucun faux rejet. En effet, aucune des 269 images n'aurait pu être traitée manuellement. Sur les 4 999 images traitables, le système a effectivement localisé la structure complète (12 cases) dans 97,2 % des cas. Nous considérons que la structure est correcte si les filets des cases demandées sont localisés au millimètre près. Pour la partie haute du document (8 cases) qui est moins perturbée par la présence des retombes et qui est la plus importante pour faire une indexation, le taux de reconnaissance passe à 98,7 %. Il est important de noter que dans tous les cas, même avec un taux de reconnaissance si élevé, le système n'a pas produit de fausse reconnaissance. Ceci est primordial dans un contexte industriel dans lequel il devient impossible d'effectuer une détection manuelle des erreurs restantes dans les images reconnues puisque des centaines de milliers de pages peuvent être traitées. Le traitement d'une page en niveau de gris à 200 dpi (2 000x3 000) nécessite environ 50s (35s de traitement d'image et 15s d'analyse) sur un Sun Ultra 60. Le tableau ci-dessous permet d'avoir une vision globale des performances. Description à 12 cases à 8 cases Nombre Pourcentage Nombre Pourcentage Images reconnues 4 861 97,2 % 4 935 98,7 % Images rejetées 138 2,8 % 64 1,3 % Images reconnues à tort 0 0,0 % 0 0,0 % Nous traitons actuellement l'ensemble des registres des Archives de la Mayenne soit environ 80 000 images. En cas de reconnaissance, la méthode DMOS fournit une description XML du document analysé (figure 10). Grâce à cette représentation en XML, les informations extraites du document sont facilement utilisables par d'autres applications de gestion de documents électroniques. En particulier comme cette description comporte d'une part la structure du document et d'autre part la localisation précise dans l'image des différents éléments (figure 10 et figure 11) cela permet d'envisager dans les applications le masquage de certaines zones ou la sélection d'une partie des images. Ainsi, par exemple, les fiches d'incorporation comportent des renseignements médicaux qui doivent rester confidentiels pendant 150 ans. Telle quelle, une partie du fond numérisé ne peut donc pas être mis à la disposition du public, par contre en utilisant la localisation précise des champs confidentiels, il devient possible de les masquer et ainsi de reconstruire des images consultables par tous (figure 10). En l'absence d'une indexation pertinente associée à chaque image, le lecteur se voit contraint de feuilleter l'ensemble du fonds. Un tel travail exige un réseau doté d'une grande bande passante, mais même dans un contexte favorable, le temps de transfert et d'affichage de chaque image est relativement pénalisant. La localisation précise des champs par la méthode DMOS permet de construire des images d'index visuels (figure 12) dont la consultation est beaucoup plus aisée, quitte à demander l'affichage d'une partie ou de l'intégralité du document lorsque l'index paraît convenir. La grammaire actuelle ne décrit pas précisément la structure de chaque case. Une telle extension ne pose pas de problèmes particuliers. Elle permettrait, en particulier, de préciser les positions dans lesquelles une reconnaissance de l'écriture manuscrite est réaliste, soit parce qu'un champ, comme le nom, est bien écrit, soit parce qu'il n'utilise qu'un vocabulaire limité (taille, couleurs des yeux…) comme dans la partie droite de la figure 11. Cette amélioration, sur laquelle nous travaillons, fournirait d'une part des éléments d'indexation des images et d'autre part pourrait ouvrir la voie à des analyses statistiques de ces fiches. A travers la variété des documents traités, nous avons démontré le caractère générique de la méthode DMOS. De plus cette méthode a été validée sur un grand nombre d'images de documents d'un même type. Celle -ci peut donc constituer un outil très précieux pour la rétroconversion d'ensembles de documents hétérogènes constitutifs d'un dossier. La capacité de décrire en XML les documents analysés constitue un atout pour son intégration dans une chaîne de gestion électronique de documents. De plus la description plus ou moins fine des documents dans le formalisme EPF permet une approche incrémentale : analyse de la structure générale, traitement spécifique de certains champs, possibilité d'indexation. Nous travaillons actuellement sur l'adaptation de cette méthode à des documents moins fortement structurés que ceux présentés ici, mais pour lesquels un prédécoupage automatique serait déjà d'une grande utilité .
Dans un certain nombre de cas, les dossiers numériques sont constitués par rétroconversion de documents papier. Or jusqu'à présent ces rétroconversions impliquent de développer, pour chaque type de documents, un système spécifique de reconnaissance. Nous proposons donc une approche générique, la méthode DMOS (Description avec MOdification de la Segmentation), qui permet d'engendrer le système de reconnaissance adapté à partir de la description de la structure de chaque document. Cette méthode qui a déjà été utilisée sur différents types de documents (partitions musicales, formules mathématiques...), permet entre autres de repérer les structures tabulaires contenues dans une page. Elle vient d'être validée sur plus de 5 000 fiches nominatives d'incorporation militaire du XIXe siècle. En produisant une description XML (eXtensible Markup Language) du document, la méthode permet d'appliquer ensuite d'autres traitements comme la constitution de pages d'index visuels ou le masquage de champs confidentiels.
sciencesInfo_03-0024520_tei_DN_061_0129.tei.xml
termith-472-communication
Depuis le web 2.0, les données du web sont devenues réellement omniprésentes sur Internet et se divisent en deux catégories : les bases de données et les documents XML (Abiteboul et al., 2000). Les bases de données sont utilisées pour la gestion de sites de e-commerce et d'applications du web 2.0 (Atzeni et al., 1997), tels que les wikis (p. ex. Wikipedia), les gestionnaires de projets (Trac) et les webmails (GMail). Par ailleurs, les documents XML permettent la gestion des flux d'informations (RSS), la description des interfaces des RIA (Rich Internet Application) et la définition des pages web (XHTML). Au cœur de ces systèmes, la manipulation de données peut être divisée en deux domaines d'application. Tout d'abord, elle permet l'interopérabilité entre des bases de données et par conséquent entre les systèmes qui les utilisent. Ce principe est appelé la translation de schémas puisque le but d'une translation est d'établir un pont entre deux ensembles de données homogènes exprimant un même concept. De plus, la manipulation de données permet la création de présentations. Ce principe est appelé la transformation de schémas étant donné que les schémas sources et le schéma cible n'expriment pas le même concept. Par exemple, la transformation s'applique à la construction d'une page web à partir d'une base de données. Actuellement, la manipulation de données du web (MDW) peut être divisée en trois groupes. Le premier rassemble les techniques et les langages manipulant directement les données, tels qu'XSLT et XQuery. Le principal inconvénient de cette approche est qu'elle ne vérifie pas la structure des données, ce qui rend la manipulation sujette à erreur. Pour éviter ces inconvénients, le deuxième groupe concerne les techniques travaillant au niveau des schémas; au lieu de définir une transformation entre des données, ces techniques travaillent au niveau de leur schéma. Le troisième groupe comprend les approches dédiées à la transformation dans le cadre d'IDM (ingénierie dirigée par les modèles). Même si l'IDM et ses langages associés (ATL, QVT) visent à répondre à un problème plus général que celui de la MDW, une transformation de modèles peut être développée dans ce but. Dans ce contexte, une source de données est considérée comme un modèle et son schéma comme un métamodèle. Cet article étudie les différentes approches permettant la MDW selon les trois groupes présentés précédemment, afin d'identifier le pour et le contre de chacune d'entre elles pour les problèmes de translation et de transformation de schémas. La section suivante présente les différents domaines d'application de la MDW. La section 2.2 propose une classification des différentes approches. Les sections 3, 4 et 5 présentent les méthodes et les langages des trois groupes définis dans la section 2.2. Le tableau 1 de l'annexe, récapitule les caractéristiques des approches majeures présentées pour le problème de la MDW. Cette section met en exergue, dans un premier temps, l'importance de la MDW en présentant ses domaines d'application majeurs. Dans un second temps, elle présente une classification des différentes approches dédiées au problème de la MDW. Dans le web 1.0, les données consistaient en des pages HTML, écrites le plus souvent à la main, et des bases de données (Florescu et al., 1998). Dans ce contexte, les deux principaux besoins de la MDW étaient la communication entre les bases de données et la création de vues et de formulaires permettant la visualisation (Abiteboul, 1999; Abiteboul et al., 1999) et l'édition (Nguyen et al., 1996) de ces données. Ces besoins relèvent des deux domaines de manipulation de données présentés par la figure 1 : la translation et la transformation de schémas. Le passage vers le web 2.0 a renforcé ces besoins en confortant le principe de la séparation entre les données et leurs présentations. La manipulation de données s'est, de plus, étendue aux documents depuis l'avènement d'XML (W3C, 2006a). Les bases de données sont également largement utilisées, notamment pour le fonctionnement des RIA. Une manipulation de données est dite translation de schémas lorsque la sémantique du ou des schémas sources est la même que celle du schéma cible. La translation de schémas permet l'interopérabilité entre des données exprimant un même concept mais de manière différente. Il est courant, en effet, que des données hétérogènes soient représentées dans différents formalismes (p. ex. schéma relationnel, DTD ou XML Schema) ou dans un formalisme identique mais de manière distincte. La translation de schémas a pour but l'homogénéisation d'un ensemble de données sources hétérogènes. Elle peut être divisée en deux sous-domaines majeurs : la translation de données et l'intégration de données. La translation de données, également appelée l'échange de données, est le problème visant à faire passer des données structurées d'un schéma source vers un schéma cible (Fagin et al., 2003; Abiteboul et al., 2002; Atzeni, 2006; Kolaitis, 2005). La figure 2(a) présente un exemple de translation de données où le but est de créer un pont entre un document au format ODF (Open Document Format) et un autre au format OOXML (Office Open XML) qui définissent le même concept (la notion de document bureautique) différemment. L'intégration de données vise à combiner des données résidant dans différentes sources afin de fournir à l'utilisateur une vue unifiée et globale de ces données (Batini et al., 1986; Lenzerini, 2002). La figure 2(b) illustre le principe de l'intégration de données avec un exemple : les sources contiennent les données d'origine tandis que la cible ne fournit qu'une vue virtuelle regroupant tout ou partie des données sources. Bien qu' à l'origine la translation de schémas concernait essentiellement le domaine des bases de données, elle s'est étendue au domaine des documents comme l'illustre la figure 2(a). Ce problème s'est accentué depuis l'avènement de l'XML et du web 2.0 où de nombreux formats de documents exprimés en XML sont apparus. L'ODF d'OASIS et l'OOXML de Microsoft pour les documents bureautiques, ou encore les formats RSS et Atom pour la syndication de flux, élément essentiel du web 2.0, illustrent bien ce constat. Une manipulation de données est dite transformation de schémas lorsque la sémantique du ou des schémas sources diffère de celle du schéma cible. La transformation de schémas peut être divisée en deux sous-domaines majeurs : l'intégration de données et la création de vues. L'intégration de données, présentée précédemment en tant que translation de données, peut également être considérée comme de la transformation de schémas dans certains cas. En effet, si les schémas sources et le schéma cible ont la même sémantique, alors il s'agit d'une translation de schémas. Par exemple, la fusion de deux schémas définissant chacun le concept d'individu, en un schéma global ayant le même but, est un problème de translation. Par contre, la fusion d'un schéma spécifiant le concept d'individu avec un autre schéma définissant le concept d'historique de navigation web, en un schéma global dédié à l'étude statistique de la navigation web des individus, est considérée comme de la transformation de schémas. Dans certains cas la classification d'une intégration de données peut être subtile et dépend essentiellement du contexte et de la sémantique des schémas concernés. L'autre sous-domaine majeur de la transformation de schémas est la création de vues. Abiteboul (1999) présente les vues comme des outils permettant à des utilisateurs de voir des données de différents points de vues. Les exemples de créations de vues sont nombreux et indispensables au fonctionnement du web 2.0. Les blogs sont, notamment, l'assemblage d'une base de données contenant les messages postés et leurs réponses, et d'une présentation généralement synthétisée par une page web. La figure 3 synthétise notre classification des différents grands groupes d'approches de la MDW qui ressortent de la littérature. Les approches basées sur les instances, c'est-à-dire sur les données elles -mêmes et non sur leur schéma, s'appliquent principalement à la manipulation de documents structurés. Cette tendance s'est accentuée depuis le consensus établissant XML comme le langage standard pour le stockage et l'organisation des données et de ses technologies, notamment XSLT et XQuery. Ensuite, les approches basées sur les schémas considèrent le schéma comme l'élément central de la manipulation et non ses données instances. Ces approches s'appliquent aux bases de données, dont le schéma est principalement défini en schéma relationnel, mais également aux documents structurés (schéma XML). Troisièmement, les approches de l'ingénierie dirigée par les modèles (IDM) se rapprochent des approches basées sur les schémas dans le sens où les données ne sont plus considérées comme l'élément central d'une manipulation mais comme une instance possible de son schéma. Dans les trois sections suivantes, nous détaillons les groupes exposés dans la figure 3 notamment en présentant les différents langages et cadres de travail existants. Pour illustrer les approches majeures présentées dans les sections 3, 4 et 5, un même exemple de manipulation de données est utilisé. La source et la cible de cette manipulation sont respectivement le document XML de la figure 4(a) et le document SVG de la figure 4(b). Cet exemple vise à créer une présentation graphique en SVG (W3C, 2003) à partir de données XML représentant un blog. Dans un soucis de simplicité, les commentaires pouvant être attachés aux billets d'un blog ont été omis. Le choix du format SVG, au détriment d'autres formats web plus courant comme XHTML, est dû au fait que l'utilisation de SVG permet de mettre en évidence certains points importants des approches présentées. Les approches basées sur les instances travaillent directement sur des données. L'avantage de ce principe est de permettre le développement de manipulations sans avoir recours à la définition du schéma des données qui dans certains cas n'existe pas ou n'est pas disponible. Ce principe peut s'avérer être un inconvénient lors de manipulations de données dont le schéma est complexe, puisque les données cibles peuvent ne pas être conformes à leur schéma. Etant donné que chaque approche recensée utilise un langage de programmation, nous les avons classées en fonction de leur type : les langages déclaratifs et de requêtes. Il existe également des approches qui étendent des langages de programmation courants afin de faciliter la manipulation de données XML, comme XJ (Harren et al., 2005) et XACT (Kirkegaard et al., 2004) pour Java, XTATIC pour C# (Gapeyev et al., 2006), HaXml pour Haskell (Wallace et al., 1999) ou XCentric pour Prolog (Coelho et al., 2007). De plus, des méthodes graphiques permettent la définition de manipulations comme par exemple, VXT qui génère des programmes Circus et XSLT (Pietriga et al., 2001), visXcerpt générant des programmes Xcerpt (Berger et al., 2003), ou encore l'éditeur commercial Stylus Studio 1 générant des programmes XSLT et XQuery. La programmation déclarative s'applique de manière homogène à la manipulation de données. En effet, un programme déclaratif se compose d'un ensemble de règles décrivant quelles données doivent être manipulées, les opérations à réaliser et les données cibles, sans stipuler comment la manipulation doit être effectuée. Le langage déclaratif le plus connu est certainement XSLT (W3C, 2007b; Kay, 2004b; Drix, 2002). Ce langage permet la transformation de documents XML en d'autres documents textuels, XML ou non. Le principe général de la programmation en XSLT consiste à définir des règles de transformation (templates) à appliquer au document source XML. La navigation dans le document source XML s'effectue de manière arborescente grâce au langage XPath (W3C, 2007a; Kay, 2004a). L'exemple suivant présente une transformation XSLT de l'exemple de la figure 4. Le programme XSLT de la figure 5 se compose de deux règles : la première, ligne 4, définit les actions à réaliser, en l'occurrence la création du corps du document SVG cible, lorsque le nœud courant a pour nom blog. Cette règle en appelle une seconde, ligne 13, qui construit un bloc d'objets SVG pour chaque billet. Les langages de requêtes du web ont pour but de sélectionner, via des requêtes, des données dans des bases de données et, plus récemment, dans des documents structurés. XQuery (W3C, 2006b) est un langage de requêtes pour documents XML dont il est souvent dit qu'il est pour XML, ce qu'est SQL pour les bases de données. Si XQuery et XSLT présentent des similarités en termes de fonctionnalité (ils analysent tous les deux des sources XML, et XQuery peut être considéré comme un langage de transformation), leur principale différence est culturelle; le premier est orienté pour les bases de données alors que le second l'est pour le document. Les deux langages font référence à XPath; XSLT l'utilise de manière indépendante afin de parcourir un document XML, alors qu'XQuery peut être considéré comme une surcouche d'XPath. La figure 6 définit un programme XQuery reprennant le problème de la transformation du blog en un document SVG. Ce programme interroge le document XML source, spécifié à la ligne 2, et retourne les données cibles. Pour chaque billet du blog, l'itération à la ligne 9 lance une requête pour construire un bloc d'objets SVG. Une des particularités d'XQuery est que ce langage peut être considéré comme un langage de transformation étant donné que les données cibles peuvent être restructurées, contrairement à des langages de requêtes classiques comme SQL. XQuery peut donc être considéré comme un langage de manipulation de données réalisant aussi bien de la transformation que de la translation de schémas. Xcerpt est un langage de requêtes pour le web (Berger et al., 2003). La structure de ses programmes se compose en un ensemble de requêtes de construction contenant trois blocs : la construction des données cibles (CONSTRUCT), l'origine de données sources (FROM) et le pattern matching à appliquer sur les données sources (WHERE). Tout comme XQuery, Xcerpt permet de structurer les données cibles afin de répondre au problème de la MDW. Cependant ce langage ne permet pas certaines instructions impératives nécessaires lors de transformations de schémas complexes; c'est pourquoi l'exemple de la figure 4 ne peut être réalisé dans ce langage. Bien que les principaux langages XSLT et XQuery soient appropriés à la manipulation de données, le principal défaut des approches travaillant au niveau des instances est qu'elles n'assurent pas la conformité des données manipulées par rapport à leur schéma. Pour contourner ce problème, certaines approches permettent de valider les données cibles générées en utilisant un schéma (W3C, 2007b). Le fait de travailler au niveau des instances tout en voulant valider les données utilisées est sujet à erreur puisque cela mélange les instances et leur schéma. Les approches basées sur les schémas ont pour but d'éviter ces problèmes comme l'explique la section 4. Les approches basées sur les schémas considèrent le schéma des données comme l'élément central d'une manipulation de données. Elles permettent ainsi de manipuler les données sources et cibles conformément à leur schéma respectif. La figure 7 présente le schéma du blog représenté en Relax NG Compact (OASIS, 2002); la ligne 1 définit l'élément blog comme la racine du schéma, sachant qu'un blog est composé d'un nom (ligne 1) et d'un ensemble de billets (ligne 2). Le schéma SVG est disponible sur le site du W3C 2. Les approches basées sur les schémas sont basées soit sur la structure des données en tant que types, soit sur la correspondance de schémas, comme le détaillent les deux sections suivantes. Certains langages de transformation considèrent le schéma comme un ensemble de types utilisables dans un programme, permettant ainsi la conformité des données manipulées. On peut noter que les langages recensés sont des langages fonctionnels. Car ce paradigme de programmation place les fonctions en tant qu'objets de première classe dont les calculs transforment les paramètres d'entrée en données de sortie (Hudak, 1989). De plus, le pattern matching permet la sélection des données d'entrées en fonction de critères. Ces avantages ont motivé le développement de nombreux langages fonctionnels manipulant des données structurées ou semi-structurées : XDuce (Hosoya et al., 2003) est un langage fonctionnel au typage statique manipulant des données XML. Ce langage possède un pattern matching puissant utilisant les opérations sur les arbres et les expressions régulières. Développé en parallèle avec XDuce, CDuce 3 est également un langage fonctionnel à typage statique pour XML (Benzaken et al., 2003; Frisch, 2004), partageant de nombreux principes avec XDuce comme son typage fort et son pattern matching. CDuce peut être vu comme une extension de XDuce permettant en plus l'utilisation d'itérateurs, la surcharge de fonctions et se voulant plus général (moins orienté XML). Dans le même registre, le langage OCaml+XDuce, fusion des langages XDuce et OCaml, combine les meilleures propriétés des deux langages (Frisch, 2006). Circus est un langage typé spécialisé dans la transformation de structures s'adaptant à la manipulation de documents XML (Vion-Dury, 1999; Vion-Dury et al., 2002). Il s'agit d'une extension du lambda-calcul typé non récursif rendant possible la définition de modules. La figure 8 présente un programme Circus de notre exemple dans lequel la définition des types a été volontairement omise. Le programme Circus (figure 8) se compose d'une première méthode (ligne 2) créant le corps du document SVG. Cette méthode en appelle une seconde (ligne 10) qui construit la représentation SVG des billets du blog. Du fait de leur puissant pattern matching et de leur utilisation d'expressions régulières pour le traitement de données, les langages présentés ont tous la même capacité à réaliser des translations et des transformations de schémas. Tout d'abord, définissons la notion de correspondance : une correspondance est un lien entre des éléments de schémas, tandis qu'une correspondance de schémas est un ensemble de correspondances. Les approches basées sur la correspondance de schémas permettent d'établir des correspondances entre des schémas sources et cibles. La spécification de correspondances est un paradigme utilisé originellement dans le domaine des bases de données dont l'enjeu est double (Raffio et al., 2008; Roth et al., 2006) : pouvoir générer, à partir d'une correspondance de schémas, des transformations dans différents langages manipulant des données instances; capturer la relation entre des schémas pour faciliter la gestion des changements affectant les schémas concernés. Cette section se focalise sur la capacité des approches présentées à gérer le premier point puisque la problématique concerne la manipulation de données et non l'évolution de schémas. Tout d'abord, Clio est un outil IBM permettant la définition graphique de correspondances entre un schéma source et un schéma cible (Miller et al., 2000; Miller et al., 2001; Yan et al., 2001; Popa et al., 2002; Haas et al., 2005). Ces correspondances peuvent être enrichies via un éditeur d'expressions (expressions arithmétiques par exemple). Clio permet de générer des transformations XQuery, SQL ou XSLT à partir de correspondances de schémas. La figure 9 présente l'interface de Clio lors de la définition de la correspondance entre le schéma de la figure 7, contenu dans la partie gauche, et celui de SVG dans la partie droite. Les correspondances sont établies entre les attributs des schémas. Dans notre exemple la première correspondance concerne l'attribut nom de l'élément blog et un élément SVG text; les autres concernent les éléments titre, contenu, date, auteur et num des billets, et des éléments SVG text. Chaque élément cible peut être défini par une correspondance, ou avoir une valeur fixe en utilisant l'éditeur d'expression (voir la fenêtre à gauche de la figure 9). La transformation d'un blog en un document SVG ne peut pas être réalisée avec Clio puisque certaines opérations impératives, comme l'itération, ne sont pas permises. Il est cependant possible de contourner ce problème en appelant directement les fonctions d'un langage de transformation via l'éditeur d'expressions, comme l'illustre la figure 9 avec l'appel de la fonction XSLT count(). L'inconvénient de ce processus est la dépendance à un langage de transformation ce qui contredit l'un des principes fondamentaux de la correspondance de schémas. Influencé par Clio, Clip est un langage graphique réalisant le tracé de correspondances entre des éléments d'un schéma source et d'un autre cible (Raffio et al., 2008). La différence entre ces deux approches est que Clip permet de définir graphiquement la sémantique des correspondances. Le principal inconvénient de Clip est le même que la pluspart des langages graphiques, à savoir le manque de lisibilité et donc de compréhension lorsque le nombre et la complexité des correspondances augmentent. Malan (a MApping LANguage) est un langage de correspondance permettant d'établir des correspondances entre un schéma cible et un schéma source représentés par des diagrammes de classes UML (Blouin et al., 2007; Blouin et al., 2008). L'avantage d'utiliser UML comme format de schéma est qu'il peut représenter les schémas relationnels de bases de données ainsi que des schémas XML de documents. De plus, UML est un langage de modélisation très largement utilisé. A partir de ces correspondances, il est possible de générer des transformations en XSLT. Malan permet la définition de fonctions afin de spécifier des opérations complexes. Par exemple, si un utilisateur veut mettre en majuscule la première lettre de chaque mot d'un billet (cf. figure 4(a)), il peut définir une fonction firstLetterUpperCase qui retourne la chaîne de caractères transformée; ainsi, il peut appeler cette fonction dans une instruction de correspondance. Il est également possible d'éditer graphiquement des correspondances en utilisant le logiciel Eclipse et le plugin Papyrus. La figure 10 présente la correspondance de schéma en Malan pour l'exemple du blog. La ligne 1 définit les diagrammes de classes source et cible utilisés. La correspondance de schémas se compose de deux correspondances : blog2svg ligne 2 et billet2g ligne 10; la première définit le lien entre les éléments blog et SVG, alors que la seconde spécifie qu' à chaque billet correspond un élément SVG g contenant des éléments SVG représentant le contenu de chaque billet. Malan peut être considéré comme un langage de transformation typé (section 4.1) puisqu'une correspondance de schémas peut être directement instanciée en une transformation par un processeur dédié. Le but principal de Malan est cependant de définir, de manière graphique ou non, la relation entre deux schémas; des instructions permettent ensuite d'enrichir et de préciser ces correspondances. Les approches basées sur les schémas répondent certainement le mieux au problème de la MDW. En effet, ces approches garantissent la validité des données et demeurent indépendantes des processus de transformation; les transformations peuvent ainsi être générées dans différents langages à partir d'une même correspondance de schémas. L'utilisation du principe des correspondances permet également l'application d'opérations importantes sur des sources de données et leur schéma, comme le schema matching 4 et le schema merging. Selon (Blouin et al., 2008), Malan et Clio seraient complémentaires pour le problème de la MDW; Malan serait plutôt orienté pour la transformation de schémas tandis que Clio serait mieux adapté à la translation de schémas. La propriété de base de l'ingénierie dirigée par les modèles (IDM) est de considérer les modèles comme des entités de première classe (Bézivin, 2004). Dans cette approche, chaque modèle est conforme à un métamodèle et représente une partie donnée d'un système, comme décrit dans la figure 11. Un langage décrivant un métamodèle est appelé méta-métamodèle. L'approche IDM a plusieurs buts dont l'indépendance de la plateforme, la séparation, la combinaison et l'identification d'aspects d'un système en développement dans des langages spécifiques, ou encore l'établissement de relations entre ces différents langages dans le but de pouvoir réaliser des transformations entre eux (Bézivin, 2005). Bien qu'IDM soit appliqué essentiellement à l'ingénierie du logiciel, cette approche peut être appliquée à la MDW. La section suivante donne les différences fondamentales entre les approches basées sur les schémas et celles basées sur les modèles, la section 5.2 présente la transformation de modèles; la section 5.3 est une discussion sur l'application de l'IDM pour le problème de la MDW. L'IDM est nettement plus généraliste que l'approche basée sur les schémas. La représentation de données du web peut se restreindre au format XML Schema et au schéma relationnel. Au contraire, l'approche IDM définit des espaces techniques permettant de représenter des mêmes concepts avec des technologies différentes (XML Schema, DTD, schéma relationnel, etc.). Par exemple, dans l'espace technique XML, décrit dans la figure 12, un document XML est conforme à son XML Schema, qui est lui -même conforme au schéma d'XML Schema. Des langages dédiés (Domain-Specific language - DSL) établissent un pont entre les différents espaces, comme les langages TCS et XCS (Textual Concrete Syntax et XML Concrete Syntax) (Jouault, 2006). Les deux approches possèdent néanmoins des points communs : un schéma correspond à un métamodèle, et un ensemble de données, instance d'un schéma, correspond à un modèle. Contrairement aux schémas, les espaces techniques assurent une grande flexibilité par rapport à la représentation de données. Cependant, dans le contexte de la MDW, les données sont soient des bases de données, soient des documents XML. Par conséquent, cette flexibilité voit son utilité réduite et provoque alors une contrainte : pour chaque schéma défini, il est nécessaire de spécifier le passage entre le format de ses documents instances et les modèles IDM. La transformation de modèles est une opération essentielle dans le cadre de l'IDM visant à répondre aux besoins suivants, selon (Czarnecki et al., 2006) : la génération de modèles de plus bas niveau, ou de code, à partir de modèles de plus haut niveau; la création de vues d'un système; la réalisation du reverse engineering de modèles de plus haut niveau, à partir de codes ou de modèles de plus bas niveau. Czarnecki et al. (2006) comparent les différents langages de transformation de modèles en se basant sur leurs fonctionnalités. Parmis ces langages, nous pouvons citer ATL et QVT. ATL (Atlas Transformation Language) est un langage de transformation pour l'ingénierie des modèles (Jouault, 2006; Jouault et al., 2006b; Bézivin et al., 2003). Il est à la fois déclaratif, afin de permettre la spécification des règles de transformation, et impératif pour la définition d'opérations complexes. Une transformation ATL est un modèle, conforme au métamodèle ATL : elle utilise un métamodèle source MMs et un métamodèle cible MMc pour créer un modèle cible, conforme à MMc, à partir d'un modèle source, conforme à MMs. Les trois métamodèles sont eux -mêmes conformes au méta-métamodèle MOF. La figure 13 présente un programme ATL pour notre exemple du blog 5. Ce programme est constitué d'une règle de transformation, blog2svg définissant les éléments sources et cibles concernés en utilisant les opérateurs from et to. Cette règle décrit de manière déclarative la structure générale du modèle cible (lignes 5 à 12), ainsi que la transformation des billets en éléments SVG (lignes 13 à 36). Parallèlement à ATL, QVT (Query View Transformation) est une recommandation de l'OMG définissant un langage capable d'exprimer des requêtes, des vues et des transformations sur des modèles (OMG, 2005). QVT, comme ATL, est un langage à la fois déclaratif et impératif composé de trois sous-langages appelés Relations, Core et Operationnal Mappings. Jouault et al. (2006a) comparent les deux langages en mettant en exergue leurs similitudes afin de permettre l'interopérabilité entre ces deux langages et par conséquent entre leurs outils. En complément à la transformation de modèles, le tissage de modèle (model weaving) permet la spécification de correspondances entre les éléments des différents métamodèles (Fabro et al., 2005; Fabro et al., 2007); cela, à la manière de la spécification d'une correspondance de schémas pour les approches basées sur les schémas. L'ensemble de ces correspondances forme un modèle de tissage conforme au métamodèle de tissage. Les buts sont multiples et équivalents à ceux de la correspondance de schémas, à savoir : la génération de transformations de modèles, l'application d'opérations sur des sources de données (merging et matching), ou encore la capture et la maintenance de la relation sémantique entre des modèles. Bien que le tissage de modèles permet des opérations essentielles sur les données, en particulier sur les bases de données; l'approche IDM aspire à répondre à un problème beaucoup plus large que celui des données du web. En conséquence, il est nécessaire de spécifier le lien entre l'espace technique IDM et l'autre utilisé (XML ou relationnel). La manipulation des données est un enjeu majeur pour les composants du web 2.0 tels que les blogs, les flux de syndication ou les RIA (Rich Internet Application). Les approches associées ont pour buts de permettre l'interopérabilité entre des sources de données (documents XML et bases de données), l'intégration de données, ainsi que la création de vues. Dans cet article, nous proposons une classification des différentes approches existantes pouvant être appliquées au problème de la manipulation des données du web. Nous avons notamment divisé les approches en trois groupes : les approches basées sur les instances, celles basées sur les schémas, et celles dirigées par les modèles. Concernant la translation de données, les approches basées sur la correspondance de schéma semblent les mieux adaptées à ce problème; l'analyse des correspondances établies entre des schémas homogènes permet à Clio de faciliter le développement d'une translation de données. Le tissage de modèle devrait être également approprié à ce problème puisqu'il se base sur le même concept que la correspondance de schémas. Une approche cohérente de la transformation de données doit permettre la validité des données manipulées, être indépendante du processus de transformation et avoir un fort pouvoir d'expression. C'est le cas de Malan et des langages de transformation d'IDM; cependant IDM tend à répondre à un problème plus général que celui de la manipulation des données du web et apporte donc des contraintes. La principale caractéristique de l'intégration de données est d'utiliser plusieurs sources de données. Ce problème n'a pas été abordé dans cet article puisqu'il peut être considéré comme de la transformation ou de la translation de données si l'on considère les sources comme un unique ensemble. Dans un web 2.0 de plus en plus interactif, les approches présentées devrons s'adapter à de nouvelles contraintes telles que la bidirectionnalité des transformations entre une source de données et ses présentations. Malan vise à répondre à ce problème en ayant pour but de générer des transformations actives qui permettent de transformer des documents dans des systèmes interactifs (Beaudoux, 2005) .
Le passage au web 2.0 a renforcé le principe selon lequel les données doivent être séparées de leurs présentations. En même temps, le nombre des formats de documents XML a largement évolué sur le web. Les bases de données sont également utilisées pour le fonctionnement des sites. Ces constats impliquent la mise en oeuvre d'approches et d'outils associés dédiés à la manipulation des données du web. Certaines de ces approches travaillent directement sur les données, tandis que d'autres se basent sur les schémas de ces mêmes données. L'ingénierie dirigée par les modèles (IDM) forme également une approche candidate à la manipulation des données du web. Dans cet article, nous présentons et comparons les différentes techniques majeures de manipulation de données afin de mettre en exergue leurs avantages et leurs inconvénients pour le problème des données du web.
sciencesInfo_09-0148889_tei_DN_111_0063.tei.xml
termith-473-communication
« Théoriser, dit-il » Christian Metz « Théoriser, dit-elle » Teresa de Lauretis « Les outils du maître ne serviront jamais à détruire la maison dumaître » Audre Lorde Si le mot « question » peut être entendu comme synonyme d' « objet de réflexion » ,l'emploi du terme au pluriel fait glisser vers un autre sens : celuid' « interrogation », dont la « réponse » est le pendant (positif ?). On a consciencedu caractère paradoxal de ce titre et de cette ouverture puisque, dans le dispositifd'interaction mis en place par Questions de communication, leprésent article faisant suite aux deux livraisons de la revue sur le genre (2009 ,15; 2009, 16), il est supposé répondre (« contestar » ,disent nos voisins espagnols) aux observations formulées et peut-être clore ladiscussion, en tout cas provisoirement. Mais avant d'entrer plus avant dans le vif du sujet, je souhaiterais – rendant àCésar (en l'occurrence à Césarine) ce qui lui appartient – souligner ce que le titrede cette contribution doit à celui d'un ouvrage de référence intitulé Masculin/Féminin. Questions pour les Sciences de l'homme( Laufer, Marry, Maruani, 2001). Nous reviendrons sur le choix, fondamental dansla réflexion sur le genre, des termes « Masculin/Féminin », de même que sur lemaintien obstiné de la référence aux sciences de l'information et de lacommunication. D'ores et déjà, notons que toujours le pouvoir des mots et le sens dela syntaxe prescrivent et qu'on ne peut évoquer ces termes « sans adopter un ordrequi nous rende porteur, soit de l'acceptation d'une tradition et d'une prééminence ,soit d'une révolte et d'une dénégation » (Luzzati, 2008 : 15). Que le masculinl'emporte de moins en moins sur le féminin, tel est l'objectif progressiste que noussouhaitions marquer, un peu par boutade, en inversant l'ordre de succession destermes par rapport au titre cité en référence. Je voudrais remercier l'ensemble des collègues de m'avoir lue aussi attentivement etd'avoir prolongé ma réflexion liminaire de façon aussi riche et passionnante; etsaluer l'initiative des coordonnateurs de ce dossier qui ont permis ces échanges àla fois au sein de notre interdiscipline mais également – ce qui est indispensable –avec un double décentrement, géographique et disciplinaire. Les travaux sur le genre menés par les un-e-s et les autres portent la marque de noshistoires locales. Le contexte de dictature politique qui, en Argentine, a identifiéles Cultural et les Gender Studies àdes contre-pouvoirs dotés d'une forte dimension éthique (Delfino, Forastelli, 2009 )et le colonialisme qui a marqué leSénégal (Thiéblemont-Dollet, Fall-Sokhna, 2009), ont façonné les problématiquesgenrées qui s'y sont développées. L'histoire – pionnière dans les travaux qui nousintéressent ici (Thébaud 2009) – et la littérature (Gravet 2009, Thérenty 2009), disciplinesanciennes et – donc ? – fortement légitimées dans le champ des savoirs, ont joué leurpartition de façon spécifique. Ce qui me frappe toutefois, au-delà des différences – chronologie de l'implantationdes problématiques du genre différenciée selon les disciplines et les lieux, thèmesprivilégiés… –, ce sont les parentés de parcours et de questionnements que révèlel'ensemble de ces contributions. Ainsi de l'approche constructiviste et de la priseen compte de la complexité des processus impliqués par le genre, qu'elles soientimplicites dans la démarche mise en œuvre sur des objets spécifiques, enl'occurrence le journalisme et la presse (Damian-Gaillard etal., 2009; Thérenty, 2009), ou qu'elles fassent l'objet d'une réflexion ensoi, et plus largement la centralité de la réflexion épistémologique, au cœur dudéveloppement mené par Marie-Joseph Bertini (2009) ou Virginie Julliard (2009) ;Françoise Thébaud (2009 : 223) rappelle à ce propos que « l'histoire des femmes etdu genre a toujours été un laboratoire méthodologique et épistémologique ». Si laposition de surplomb adoptée par Isabelle Gavillet (2009), parfois péremptoire dansles jugements émis, se fonde sur une lecture souvent restrictive des textes de cedossier, certaines des questions posées méritent débat. Défaut de théorie, trop études produites sous le label « genre » étant descriptives; oubli du masculin, et plus largement d'une réflexionintégrant les lgtbi, les études de genreétant souvent identifiées à des travaux sur les femmes; interrogation sur le cadrede réflexion adéquat, la pensée du genre dépassant nécessairement les limites d'unediscipline; usages problématiques du concept de domination, etc. Mais plutôt que répondre ponctuellement à telle ou telle observation, j'ai préféréconsidérer les contributions de ces deux livraisons de Questionsde communication comme autant d'invitations à prolonger la réflexion et àexplorer plus avant certaines pistes que je n'avais fait qu'ébaucher ou que leslimites de ce premier article ne m'avaient pas permis d'aborder. Ce travail declarification et d'approfondissement permettra aussi, chemin faisant, de répondre àces questions. Nous reviendrons sur la notion même de genre : partant des débats sur les fondementsbiologiques de la différence sexuée que le binôme sexe/genre a contribué ànaturaliser, nous verrons comment la notion de performance et le constructivismeradical de la théorie queer conduisent à « défaire legenre », pour reprendre la formule de Judith Butler; le binôme genre/sexualitésparaissant dès lors préférable à celui de sexe/genre. Le second temps de notreréflexion sera consacré aux apports de la pensée du genre à la théorie des savoirs ,l'exemplarité de la démarche intellectuelle mobilisée par ces recherchesconstituant, selon nous, un apport décisif à toute réflexion épistémologique. Leretour au cadre disciplinaire s'avère néanmoins utile lorsqu'il s'agit de s'attacherau décryptage d'objets spécifiques. Si la représentation du genre est saconstruction, les médias sont directement interpellés : dans une troisième partie ,nous nous efforcerons donc de poser quelques jalons méthodologiques pour qui veuts'engager dans une telle recherche. Ce sera l'occasion de revenir sur la tropfréquente identification des études de genre aux études sur les femmes, et sur lesconditions de leur dépassement : nous réfléchirons ainsi sur le binômemasculin/féminin(ou « féminin/masculin ») et les usages qui peuvent en être faitssans pour autant contribuer à un discours de la reproduction. J'ai précédemment évoqué le succès en France du concept de « genre » hérité duterme anglais « gender ». Définissant « provisoirementet succinctement le terme de " genre " comme désignant tout ce qui relève des rapports sociaux de sexe, le genre étant au sexe ce quela culture est à la nature », je concluais « en appelant de nos vœux un travailqui s'appuie sur la dimension radicalement contestataire de la notion »( Coulomb-Gully, 2009 : 130, 147). On connaît la formule célèbre de Simone de Beauvoir (1949) : « On ne naît pasfemme, on le devient », dont la concision et l'efficacité n'ont d'égale quela justesse. L'accent mis sur le processus (« on le devient ») qui permet dedistinguer le sexe (on naît « femelle » selon l'auteure) du travail desocialisation par le genre, a constitué une avancée notoire dans laconceptualisation des différences entre hommes et femmes. Si le sexeapparaît ici comme naturel, donc invariant, le genre en revanche est unproduit social et peut donc être sujet à variations et à évolutions. C'esttout le sens de la démonstration de l'anthropologue américaine Margaret Mead( 1939) dans ses recherches menées dans les années 30 sur les sociétésd'Océanie et centrées sur la variabilité des traits masculins et féminins .Elle y montre que si, chez les Arapesh, hommes et femmes sont également douxet sensibles, chez les Mundugumor, ils sont également violents et agressifstandis que chez les Chambulis, on observerait une inversion des caractèresmasculin et féminin tels que définis dans les sociétés occidentales, leshommes y étant émotifs, artistes, etc., tandis que les femmes y seraientdominantes, « la tête froide » et dotées du pouvoir économique. L'intérêt suscitépar ces travaux est d'autant plus grand que le travail de construction desdifférences de sexe dans les sociétés étudiées s'y révèle au rebours del'ordre dominant, toutes les sociétés ou presque ayant construit ladifférence femmes/hommes au profit de ces derniers, unanimité qui acontribué à l'invisibilisation du travail de construction sociale. Rappelonsque les différences entre individus mâles et femelles se sont trouvées leplus souvent résumées sous forme d'oppositions physiques entre un « plus »et un « moins », l'homme étant décrit comme plus grand, plus fort, pluslourd, etc., – même si de nombreuses exceptions viennent infirmer cetterègle –, qui ont elles -mêmes nourri l'idée d'une asymétrie psychologique etfonctionnelle, à la base du système inégalitaire que l'on connaît. À cepropos, Alain Corbin (1998) observe que si l'extérieur et tout ce qui s'yrapporte est dévolu à l'homme, c'est sans doute en raison de l'extérioritéde ses organes génitaux, tandis que la femme se voit attribuer ce qui relèvede l'intériorité conformément à la localisation de ses propres organesgénitaux; ainsi le couple intérieur/extérieur se retrouve dans toute unesérie d'oppositions qui fondent la masculinité au regard de la féminité( Revenin, 2007 : 8). Ce type d'interprétation rejoint la lecture que faitPierre Bourdieu (1998) de la société kabyle. La « valence différentielle dessexes » (Héritier, 1996) se résume ainsi le plus souvent à « la dominationmasculine », le caractère quasi unanime de cette situation ayant longtempscontribué à faire percevoir le social comme naturel. Dans ce contexte, onconçoit que l'usage du concept de genre tel qu'il se développe dans lesannées 60-70 et qui met l'accent sur le caractère non naturel et socialementconstruit de la différence des sexes ait été perçu comme une avancéeconceptuelle majeure. Christine Delphy (2001 : 25) ne dit rien d'autre quandelle écrit : « C'était déjà une avancée considérable que de penser qu'il yavait, dans la différence des sexes, quelque chose qui n'était pasattribuable à la nature ». En effet, le concept de genre permettait deréévaluer le rôle de la société dans la différence des sexes. Mais mettrel'accent sur le caractère historiquement, culturellement et socialementconstruit du genre ne revient-il pas à naturaliser le sexe qui apparaît, dèslors, comme un « donné » biologique pur, donc invariant, produit d'unenature qui serait indépendante de toute construction humaine ? Judith Butler( 2005 : 275) débusque et dénonce l'idéologie biologique qui sous-tend cettedistinction, en même temps que la domination de la nature sur la culturequ'elle implique : « On a vu que la distinction sexe/genre maintenait enplace les stratégies d'exclusion et de hiérarchisation en tenant le sexepour prédiscursif, en posant la sexualité avant la culture, et surtout en laconstruisant dans la culture comme prédiscursive ». Revenant elle -même surce qui est posé comme une opposition, Christine Delphy (2001 : 253 )s'interroge alors pour savoir si, « quand on met en correspondance le genreet le sexe […] on compare du social à du naturel; ou est -ce qu'on comparedu social avec encore du social ? ». Cette interrogation sur le caractère construit du sexe rejoint l'analyse deLa fabrique du sexe faite par l'historienaméricain Thomas Laqueur (1992). Cette étude de référence montre quelongtemps a prévalu un modèle unisexe du corps humain, où le corps fémininétait conçu comme « moindre mâle », c'est-à-dire comme une versionimparfaite du corps de l'homme. Dans cette perspective, hommes et femmessont rangés suivant leur degré de perfection métaphysique, le long d'un axedont le sommet est occupé par l'homme. Le sexe est donc ici un « effet dugenre », pour emprunter à une formulation contemporaine. Selon l'historien ,ce n'est qu'au XVIII e siècle que s'impose la perceptiondes deux sexes comme relevant d'un « dimorphisme radical ». La naturalitésupposée de la perception des organes génitaux se trouve ainsi mise à mal :« Tout discours sérieux sur la sexualité porte ainsi inévitablement surl'ordre social qu'il représente et légitime tout à la fois », note ThomasLaqueur (ibid. : 25). Et de poursuivre : « Le sexeest de l'ordre de la situation : il ne s'explique que dans le contexte debatailles autour du genre et du pouvoir » (ibid. :26), d'où cette conclusion en forme de paradoxe dont la radicalité ne manqued'interroger : « Au fond, la substance du discours de la différence sexuelleignore l'entrave des faits et demeure aussi libre qu'un jeu d'esprit » (ibid. : 282). De fait, nombre de travaux menés dansle cadre des neurosciences, de la génétique ou de la paléoanthropologieviennent confirmer le caractère construit du sexe et ce que la « nature »doit à la « culture » dans ce domaine précis. Revenant sur quelquescontroverses – dont celle sur le cerveau des femmes est sans doute la pluspopulaire –, Catherine Vidal (2006 : 10) démonte les clichés sur lesdifférences cérébrales et hormonales entre les sexes qui, note -t-elle « sontaujourd'hui complètement dépassées ». Le succès de ces thèses dans l'opinionpublique et l'avidité des médias à relayer les soi-disant découvertes surces questions sont révélatrices de la volonté de distinguer hommes et femmesà tout prix, et d'asseoir de façon incontestable – puisque biologique – lasupériorité des uns sur les autres. Tordant le cou à ces croyances ,l'auteure rappelle l'extraordinaire plasticité du cerveau et montre que« seulement 10 % des connexions sont présentes à la naissance. Les 90 %restants se construisent progressivement en fonction des influences de lafamille, de la culture, de la société. Il en résulte qu'aucun cerveau neressemble à un autre » (ibid. : 10) Si desdifférences existent entre cerveaux des hommes et cerveaux des femmes, ellessont donc le produit de socialisations différenciées, plus que d'unedifférence « de nature ». La nuance est de taille. Le même raisonnement vautpour les os du squelette : la paléoanthropologue Evelyne Peyre (2006 )insiste sur la variabilité individuelle au sein d'une même population, oùbien des femmes dépassent par leur stature bien des hommes et, revenant surl'interprétation morphologique du bassin, elle montre qu'elle doit plus auxcontraintes évolutives liées à la bipédie qu' à l'adaptation à laprocréation. Notre propos n'est pas de nier toute différenceanatomo-physiologique entre les individus, ce qui serait absurde, mais depointer le caractère construit et genré des hypothèses biologiques, àl'instar de n'importe quelle autre discipline scientifique. Touteconstruction de savoir – y compris dans le cadre des disciplines dites« dures » – est tributaire d'une prise de position. Les chercheurs quitravaillent dans le domaine de la biologie sont, comme les autres, ancrésdans une culture et n'échappent pas aux cadres de pensée dominants de lasociété dans laquelle ils vivent. Ainsi existe -t-il des questions qui nesont pas posées, en biologie comme ailleurs, tandis que certainesapparaissent comme étant « plus prioritaires » que d'autres, certaineshypothèses n'étant pas envisagées parce qu'impensables dans le cadre depensée dominant, tandis que d'autres s'imposent « naturellement » (Wiels ,2006). Le privilège épistémologique dont jouit la biologie dans laconstruction du sexe doit donc être repensé et réévalué à l'aune de ceconstat : celle -ci ne doit pas échapper à la critique épistémologique quis'applique à tout savoir, y compris – et surtout – ceux qui apparaissentcomme étant les plus « objectifs ». Les distinctions biologiques entre mâleset femelles existent : l'anatomie – pénis et vagin –, les gonades –testicules et ovaires –, les hormones – testostérones et œstrogènes –, l 'adn – les chromosomes xxet xy – le disent assez. Mais leur rôle dans ladétermination sexuelle d'un individu n'est pas si incontestable qu'ilsemble, et l'interrogation à propos des personnes « intersexe » en révèle lecaractère fluctuant : lequel de ces éléments doit-il alors être considérécomme déterminant dans l'attribution sexuée ? Sans aller plus avant dans ledébat sur le fondement biologique des différences sexuées, nous nouscontenterons de rappeler combien ces éléments, aussi scientifiques etobjectifs puissent-ils paraître, restent tributaires d'un discours social ,culturel et idéologique : « Il n'y a pas de retour possible à l'innocence dela biologie » observe Teresa de Lauretis (2007 : 80). Pas d'amertume dans ceconstat, contrairement à ce qu'on pourrait croire, puisque « l'innocence »de la biologie est avant tout contrainte. La mise au jour de son caractèreconstruit et par conséquent historique, culturel et relatif, permet sadéconstruction. Les avancées de la critique épistémologique ont permis de montrer que lebiologique, comme tout autre production de savoir, est tributaire d'uneconstruction. Procéder à sa déconstruction devient dès lors possible etouvre un espace de liberté par le jeu introduit dans les assignationssupposées naturelles. C'est le sens des travaux fondateurs engagés par lespremières critiques féministes, qui ont révélé la part de construction dansce qui était trop souvent perçu comme un « donné », et le poids de lasociété patriarcale dans ces constructions (Delphy, 1998; Guillaumin ,1992; Mathieu, 1991). Mais cette critique a elle -même été critiquée, et letravail de déconstruction initié par celles -ci a été poursuivi par celles etceux qui, de même que les féministes s'étaient élevées contre le joug de lasociété patriarcale et la domination masculine, contestent la normehétérosexuelle blanche et bourgeoise (le « féminisme straight ») qu'ils perçoivent comme sous-jacente à cette pensée .La norme hétérosexuelle est ainsi dénoncée par les mouvements lesbiens etgays – la norme bourgeoise blanche par les lesbiennes noires –, et la penséequeer achève de questionner la normativité quisous-tend l'ensemble de ces théories et mouvements – de ces « systèmes » – ,contestant à leur tour les structures binaires comme renvoyant toujours à del'hétérosexuel : « queeriser » implique de sortir de la binarité hétéro/homoet de s'interroger sur les sexualités en dehors de toute imposition normée .Si l'ontologie de genre est une injonction normative, la pensée queer dénie toute vérité du genre. Le( dé)constructivisme radical des mouvements queer dépasse la binarité des cadres de réflexion classiques (homme/femme ,hétéro/homo, etc.) et pense les sexualités en-dehors de toute référence àune norme, dans une prolifération qui rend vaine toute tentatived'assignation stable. Selon Judith Butler (2005 : 259), il faut assumer ladéroute des certitudes et renoncer à une assignation qui serait originaire :le genre n'existe plus que par ses performances : « Dire que le corps genréest performatif veut dire qu'il n'y a pas de statut ontologiqueindépendamment des différents actes qui constituent sa réalité ». L'identitésexuelle serait ainsi le résultat de pratiques, de « performances degenre ». Deux précisions s'imposent ici : d'une part, la relation entre ceconstructivisme et la matérialité du corps et, d'autre part, la relationentre performance et liberté individuelle. Dire que le sexe est « toujours déjà construit », qu'il n'est jamais donnéindépendamment de sa construction, ne revient pas à nier la réalité descorps, n'en déplaise aux contempteurs de Judith Butler qui ont parfoisassimilé un peu rapidement le questionnement sur la performativité dudiscours avec l'idée d'un linguistic turn dont ladéréalisation serait le corollaire nécessaire. Comme le rappelle à ce proposÉric Fassin dans son introduction à Trouble dans le genre( Butler, 2005 : 10) : « Le constructivisme qu'elle [Judith Butler ]revendique n'est pas une ontologie négative, déniant la réalité matérielledu corps [… ]. La philosophe choisit de s'intéresser au corps non commeréalité préalable, mais comme effet bien réel des régulations sociales etdes assignations normatives. Dans cette perspective, le sexe n'est donc pasmoins que le genre produit par des relations de pouvoir, mais n'a pas moinsde réalité non plus ». Le titre de l'ouvrage écrit par la philosophe en 1993et traduit en 2009, Bodies that matter – Ces corps qui comptent – est sans ambiguïté. La notion de performance qui est au cœur de cette conception, ne doit pas nonplus être comprise comme synonyme d'une liberté totale des individus dansleurs choix sexués; on n'est pas libre de s'inventer au gré de jeux derôles, comme le rappelle avec ironie Judith Butler (2009 : 12) : « Ons'éveillerait le matin, on puiserait dans son placard ou dans quelque espaceplus ouvert, le genre de son choix, on l'enfilerait pour la journée, et lesoir, on le remettrait en place ». Nous sommes assujettis, rappelle laphilosophe, c'est-à-dire constitués en tant que sujets par le pouvoir, parles pratiques du corps dont la répétition institue le genre. C'est donc ausein d'un système de contrainte(s) que s'élabore le genre. Partie del'interrogation sur le binôme sexe-genre, nous nous sommes interrogés surles fondements biologiques de la différence sexuée que le constructivismequi sous-tend la théorie queer achève derepositionner. Au terme de ce parcours, le binôme genre/sexualités paraîtdonc offrir une alternative scientifique et politique intéressante au couplesexe/genre dont il permet de dépasser un certain nombre d'apories, enmettant l'accent sur la diversité des sexualités plutôt que sur lesassignations sexuées. Arrivée à ce point de notre raisonnement, deuxconstats s'imposent : le premier, qui nous interpelle en tant que chercheur ,porte sur la valeur heuristique d'une interrogation par le genre; lesecond, auquel aucun citoyen ne peut être indifférent, concerne la portéepolitique de ce questionnement, ces deux éléments s'articulant de façonétroite. Le poids de l'expérience personnelle dans le processus d'élaboration théorique ,avec toutes les conséquences liées à la subjectivité incorporée, dontl'élaboration du principe d'intersectionnalité qui rappelle que tout savoir estpolitique, tels sont les trois points que nous souhaitons développer ici et quenous considérons comme une contribution fondamentale des études de genre à laréflexion scientifique. « Les livres ont encore un haut et un bas. La note estl'indice de la hiérarchisation dans la page et dans le savoir : elle subitla subordination dans la page [… ]. Dans Queer Zones ,les notes ne fonctionnent pas comme des intimidations faussement modestes[ … ]. Les notes et leur présence envahissante rappellent qu'il n'y a pas decorps principal du texte mais deux niveaux de lecture. Et l'un n'est pasplus important que l'autre. Les pages fonctionnent transversalement et nonverticalement » (Bourcier, 2001 : 19-20). Cet avant-propos, ou plus exactement cette « Avant note » pour reprendre lestermes de l'auteure, rappelle de façon emblématique et non sans humour leprincipe de hiérarchie qui structure la mise en page. Comme la note révèlela page, la marge révèle la norme qui n'apparaît comme telle que lorsqu'onen est exclu. La valeur heuristique de l'expérience de la marginalité quiseule peut révéler le centre comme centre et la norme comme norme, est unedes grandes leçons de la pensée du genre. Il n'aura échappé à personne quel'histoire des femmes a été initiée par les femmes, conscientes desaveuglements liés à la société patriarcale, que l'histoire des hommes (Men Studies) l'a été par les hommes, ou plusexactement par des hommes qui, pour beaucoup, ne se retrouvent pas dans lesinjonctions à la virilité portées par la norme masculine, et que lesrecherches aujourd'hui menées sur les lgtbi dans lecadre des Queer Studies, le sont le plus souvent parcelles et ceux dont les sexualités dérogent à la norme. Parallèlement, lesfemmes lesbiennes de couleur ont à leur tour contesté le féminismemajoritaire (le féminisme straight) dont elles ontrévélé le modèle blanc, bourgeois et hétérosexué sous-jacent et le mouvementqueer poursuit ce travail de déconstruction encontestant toute structure binaire comme renvoyant à de l'hétérosexuel. Ceconstat rappelle que la réflexion critique et théorique s'ancre dansl'expérience personnelle et que s'agissant du genre, c'est le plus souventl'impossibilité ou le refus de s'identifier aux injonctions normatives de lasociété qui conduisent à (s' )interroger (sur) les normes et les théoriesdominantes. Le regard de la marge sur le centre, d'une critiquenécessairement aiguë parce qu'existentielle, peut seul révéler le centre etla normalité comme tels, évidences « invues » ou « insues » par celles etceux qui s'en accommodent « naturellement ». « Nul ne participe à ce débatinnocemment, rappelle Élisabeth Badinter. Le point de vue de Sirius estimpossible. Chacun est lourd de son passé et juge à la lumière de sonexpérience personnelle ». Et, s'arrêtant sur le cas particulier de JudithButler, dont l'apport théorique aux études de genre est considérable, laphilosophe poursuit : « Judith Butler ne s'en cache pas lorsqu'elledit partir du sentiment d'échec de celles qui n'ont pas eu d'enfant pourcontester que la maternité est la norme du féminin. Ou encore lorsqu'ellerefuse la bipartition des genres pour rendre plus vivable l'existence despersonnes dont le genre est non conforme et qui rencontrent desdiscriminations » (Badinter, 2008 : 207). Ce rôle de l'implicationpersonnelle est remarquablement décrit dans les textes de Teresa deLauretis. Celle -ci rappelle ce que son projet d'une théorie lesbiennedistincte de la théorie féministe doit à sa rencontre avec Monique Wittig :« À cette époque, dire " les lesbiennes ne sont pas des femmes " avait lepouvoir de vous ouvrir l'esprit et de rendre visible et pensable un espaceconceptuel qui jusque -là avait été rendu impensable à cause précisémentd'une pensée straight hégémonique – un peu comme cetespace qu'on appelle angle mort que ne reflète pas le rétroviseur » (deLauretis, 2007 : 22). Rendre l'angle mort vivant, tel est – peut-être –l'apanage des minorités et des marges qui par la force irréductible de leurexpérience personnelle, parviennent à interroger l'ordre établi. « La penséethéorique prend son origine dans une subjectivité incorporée », résumePascale Molinier dans l'introduction qu'elle consacre au texte de Teresa deLauretis (ibid. : 20). Ce constat interpelle lepositionnement du chercheur dans sa recherche, et conduit à réévaluer sasupposée objectivité dans le choix de « ses » thèmes de recherche comme desa façon de les traiter. C'est ce que s'emploie à démontrer la théorie dite« de la connaissance située » (standpoint theory )développée dans certaines approches post modernes des discours en sciencessociales et dont le principe consiste à intégrer les catégories del'expérience individuelle dans la constitution des savoirs. La réalité desgroupes dominés y est particulièrement valorisée dans la mesure où ellepermet l'émergence de savoirs différents qui procèdent de leurpositionnement spécifique (Harding, 2003). Marie-Joseph Bertini (2009 : 82 )rappelle l'apport de ce courant aux théories du savoir, en ce qu'ilquestionne avec force le lien entre sujet connaissant et objet deconnaissance, mettant à mal « la mythologie scientiste de la connaissanceobjective et universalisante ». « On comprend mieux ici comment et pourquoil'épistémologie de Genre interpelle les Sciences et leurs modes defonctionnement, comment elle questionne en profondeur la théorie del'objectivité du chercheur et son apesanteur décrétée mais sans cesse miseen défaut » (ibid. : 123). Le point de vueminoritaire est conçu comme un moyen de connaissance pertinent parce queformulé à partir des marges du système. Prendre appui sur les exceptionspour penser la règle, telle est aussi la proposition de Judith Butler( 2005); suivant Sigmund Freud, elle considère que c'est l'exception ,l'étrange qui donne la clé pour comprendre comment est constitué le mondeordinaire, que nous prenons comme allant de soi, des significationssexuelles, elle qui conçoit son apport critique au féminisme comme voulantpenser la sexualité dans son ensemble, donc à partir de ses marges ,pourrait-on dire en une formulation apparemment paradoxale. Cetteépistémologie de la domination qui transforme l'expérience minoritaire enprivilège de connaissance est au principe du conceptd'intersectionnalité. « Symbole de ce qui se passe dans l'ensemble de la société, à la Cour deFrance, une femme passe derrière un homme de même rang mais devant un hommede rang inférieur [… ]. Les cercles scientifiques du XVII e siècle accueillent les hommes de condition modeste, maisseulement les femmes de l'aristocratie […]; l'émergence d'écrivains issusdu peuple au XVIII e siècle ne concerne que leshommes », notent Luc Capdevila et Dominique Godineau (2003 : 402). Leshiérarchies sexuelles et sociales (raciales aussi, dans d'autres contextes )se combinent pour organiser le monde, aujourd'hui comme hier. Comment cetteconstruction hiérarchique est-elle à l' œuvre et peut-elle se réduire à desrapports de domination cumulés ? C'est ce que tente d'apprécier l'approchepar le biais de l'intersectionnalité (Dorlin, 2009). En définissant legenre comme un rapport social et non comme un fait de nature, la théorie dugenre ouvre la voie à une forme de « déspécification » qui le rapproche desautres types de domination dont il devient en quelque sorte générique. Sil'intersectionnalité peut comprendre dans son principe tous les rapports dedomination, comme l' âge, la sexualité, etc., classe et race sontprivilégiées parce qu'emblématiques. Comme telles, elles constituent lesrapports sociaux les plus problématisés, les premiers dans le cadre desmouvements de libération nés aux États-Unis avec la lutte pour les droitsciviques des Noirs, les seconds en raison des théories marxistes. L'analogiedu fonctionnement entre race et sexe est décrite de façon magistrale parColette Guillaumin (1992) qui montre comment « l'idée de nature » et labiologisation qu'elle suppose, sous-tendent à la fois les mécanismes deconstruction de la race et du sexe. Le rapport entre sexe et classe est à lafois identique et différent. Identique parce que la classe a longtemps été ,comme la race et le sexe, construite sur des bases quasi biologiques (leprolétaire étant présenté comme étant « de nature » différente du bourgeoisou de l'aristocrate); mais les travaux effectués dans le cadre du marxismeprincipalement, ont fait du rapport de classe le rapport social parexcellence : identifier le sexe à la classe revient donc à ledésessentialiser. La nécessité de penser ces éléments non pas sous forme dejuxtaposition mais d'articulation est ce qui fonde l'approche par le biaisde l'intersectionnalité. En effet, on ne peut isoler artificiellement dansun même individu les dimensions de race, classe, genre, âge, etc. qui secombinent dans des rapports sociaux transversaux et simultanés. Pourparaphraser Nancy Fraser, on pourrait dire qu'il n'existe aucun moyen d' êtreun homme ou une femme sans être déjà inscrit-e dans une race, une classed' âge ou une classe sociale. Mais si on ne peut concrètement isoler dans unmême individu ces diverses dimensions, il ne faut néanmoins pas lesconcevoir de façon nécessairement cumulative. Les jeux qui existent entreces composantes peuvent en effet fonctionner de façon différenciée, voireopposée, selon les contextes et les stratégies individuelles oucollectives : facteurs de domination dans certains cas, ils peuvent êtreréappropriés et instrumentalisés de façon inverse dans d'autres cas. Unexemple permettra de mieux saisir l'intérêt de cette notion. En France, lacampagne présidentielle de 1974 est la première qui a vu se présenter unefemme à ce niveau de compétition, Arlette Laguiller, « travailleuse durang » comme elle aime à se qualifier elle -même, est alors âgée de 34 ans ,et les médias se sont fait assez largement l'écho de cette candidature .Ainsi du Figaro qui, sous la plume de Jean Fayard ,lui consacre un article le 20 avril 1974 : « Je n'ai rien contre Mademoiselle Laguiller, plutôt jolie ,plutôt bien vêtue de vert et de noir. Je crois qu'elle remplit forthonorablement son emploi de secrétaire dactylo au Crédit Lyonnais. Maisquand elle brigue la Présidence de la République française, quand, ânonnantun texte de certificat d'études qu'elle déchiffre à grand peine, elleprétend représenter les femmes, je ne puis m'empêcher de penser qu'unmillion de femmes au moins sont plus aptes, plus douées, plus déliées, mieuxfaites pour exposer des idées ». Sans entrer dans l'analyse de détail que mériterait cet extrait d'un mépriset d'une condescendance qui ne pourraient sans doute plus s'exprimer ainsiaujourd'hui, notons que l'assignation de genre se double d'une assignationde classe non moins violente, auquel l' âge de la candidate n'est pas nonplus étranger, les trois se combinant pour l'exclure de la légitimitépolitique en même temps qu'ils confirment Jean Fayard, journaliste etécrivain de renom, dans son statut de mâle dominant. Mais si ces rapportsd' âge, de genre et de classe semblent se cumuler négativement dans ce cadre ,peut-être sont-ils aussi ceux -là mêmes qui ont permis à Arlette Laguillerd' être désignée comme candidate de Lutte ouvrière, plutôt qu'un homme, unintellectuel, ou un individu plus âgé. Selon le contexte, ce qui eststigmate d'un côté peut être converti en ressource de l'autre. Dans lasituation politique actuelle, la nomination au sein du gouvernement Fillonde femmes « issues des minorités » peut être analysée de la même façon : sidans leur parcours, race, classe et genre ont joué comme autant de facteursde domination, les Rama Yade, Rachida Dati ou autres Fadela Amara ont vu reconverties en ressources ces caractéristiques initialementnégatives; autant d'éléments qui, selon certains médias, les rendent« indéboulonnables » ou presque, ce qui susciterait la révolte des« ministres petits blancs » (Coulomb-Gully, 2010). Revenant à lacontribution de cette approche aux théories du savoir, rappelons que la« désessentialisation » au principe de l'intersectionnalité paraît être unélément fondamental de toute théorie critique. Or, c'est bien ce principequi permet d'analyser race, classe et genre, voire âge et sexualités commerelevant d'un même paradigme. La portée heuristique des études de genre doitdonc une fois de plus être soulignée, qui fait du genre une matrice deréflexion théorique pour penser les rapports de pouvoir dans leur ensemble .Le genre est avant tout, rappelle Joan Scott (1988 : 141), « une manièrepremière de signifier les rapports de pouvoir ». Le foisonnement théorique qui caractérise les études de genre et laradicalité de leur questionnement épistémologique ne doivent pas faireoublier leur dimension politique : toute interrogation sur le genre estvitale, tout savoir sur le genre est pouvoir. Loin d' être de purs jeuxintellectuels, les interrogations sur la définition du genre, par leurportée pratique, conditionnent la vie des individus et la réponse qui estdonnée sur sa définition est d'ordre politique. Il ne s'agit pas moins ,comme le rappelle Judith Butler (2005 : 26, 43), que d'éviter qu'unepersonne qui échoue à s'approcher de la norme ou le refuse, soit condamnéeau statut de « morte-vivante », rejetée vers l'irréalité ou l'inhumanité du« ni-ni » : « ces personnes qui ont fait l'expérience de vivre comme desêtres socialement « impossibles », illisibles, irréalisables, irréels etillégitimes ». S'il ne s'agit pas – on l'a vu – de nier la différencesexuée, la question demeure de la place qu'il convient de lui faire. Lesdémocraties occidentales font de l'égalité des sexes un objectif et disentvouloir tourner le dos à un monde organisé autour des différencesbiologiques qui se sont toujours traduites par la hiérarchisation et lasubordination d'un sexe à l'autre. Les « zonesd'indistinction », pour reprendre une formulation chère à Sylviane Agacinskiprogressent, où seules doivent être prises en compte les qualités et lescompétences individuelles des personnes, indépendamment de toutecaractéristique de genre. Par ailleurs, la sexualité des individus peuts'affranchir de leur sexuation. Le développement des biotechnologies laisseaujourd'hui entrevoir une fabrication des êtres humains indépendamment de lasexualité, etc. Les bouleversements liés à l'évolution de la définitionsexuée sont considérables. Progrès pour les uns, ces mutations sontnégatives pour les autres et portent en germe une indifférenciationgénéralisée des sexes, source de la plus grande confusion. « Quelle estcette différence qui serait acceptable par tous ? », demande ÉlisabethBadinter (2008 : 207). Si l'exigence de liberté individuelle et d'égalitéentre les individus explique la volonté de neutraliser toute différencesexuée, d'autres redoutent quel'indétermination des genres ne rende le réel impensable. Où placer lecurseur ? La question est évidemment politique et rappelle que toujours lapensée du genre rétablit « la nature politique des termes mêmes danslesquels la question de l'identité est posée » (Butler, 2005 : 275). La question a été posée dans les précédentes livraisons de Questions de communication de savoir si les sic ou les shs constituaient le meilleurcadre de réflexion pour le genre. Compte tenu de ce qui vient d' être dit, il estbien évident que la portée d'une telle réflexion dépasse très largement ces deuxréférences, puisque c'est l'ensemble non seulement du champ du savoir mais aussidu pouvoir qui est traversé et ébranlé par la prise en compte de cetteproblématique. Mais reconnaître que la portée épistémique d'une interrogationpar le genre balaie tous les cadres disciplinaires n'est pas incompatible avecla nécessité de poser la question des implications de cette interrogation pourles sic en particulier, bien au contraire. Le genre est, on l'a vu, un construit. Or les médias, à l'instar de toutesles « technologies de pouvoir » comme la famille ou l'école, participentdirectement à l'imposition des normes qui structurent le genre tout enprétendant n'en être que le reflet. Le discours de ces prétendus miroirs quesont les médias est en réalité prescriptif autant que descriptif. Les médiasproduisent des significations communes, ils élaborent « les énoncés servantde références à l'ensemble des individus et des groupes qui composent letissu social. Ils forment ce que nous appellerons un sens commun médiatiquepartagé par de plus en plus d'individus appartenant à de plus en plus decultures et de sociétés en raison même des effets de la mondialisationmédiatique. Malgré les critiques qui les visent, ils bénéficient d'un statutd'objectivité plus ou moins assumé qui les place peu ou prou en situationd'arbitres », observe Marie-Joseph Bertini (2009 : 65). Analyser la façondont ces discours fabriquent de la norme, est un des objectifs prioritairesdes travaux sur genre et médias. La notion de « technologie de genre »avancée par Teresa de Lauretis, associée à la performativité qui, on l'a vuplus haut, caractérise le fonctionnement du genre, permet d'enrichir cetteapproche. Pour Teresa de Lauretis (2007 : 41), la représentation n'étant pasplacée « à côté » du genre, mais constitutive de celui -ci : « Le genre, commela sexualité, n'est pas la propriété des corps ou quelque chose qui existeoriginellement chez les humains, mais […] il est " un ensemble d'effetsproduits dans les corps, les comportements et les relations sociales ", pourreprendre Foucault, et ce grâce au déploiement d' " une technologie politiquecomplexe " » ,écrit-elle. Pour l'auteure, si le genre est (une) représentation, lareprésentation du genre est sa construction. Pour illustrer sa thèse, ellepropose l'exemple suivant : quand on coche un « F » sur un formulaireadministratif (et j'ajouterais, en dehors du cadre de réflexion qui estcelui de Teresa de Lauretis : de la même façon, quand on coche un « M ») ,« alors que nous pensions que nous étions en train de cocher le F sur leformulaire, n'était -ce pas en fait ce F qui imposait sa marque sur nous ? » (ibid. : 62). « Nous collant à la peau comme unerobe en soie mouillée », écrit-elle par ailleurs. Comprendre comment lareprésentation du genre est construite par une technologie donnée est alorsconsidéré comme une étape prioritaire du programme de recherche établi parla chercheuse, les médias étant au cœur de ce dispositif : « La constructiondu genre […] perdure là où l'on peut s'y attendre – dans les médias, lesécoles publiques ou privées, les tribunaux, la famille » (De Lauretis ,2007 : 43-44). Dans la perspective foucaldienne ici adoptée, on comprendbien, qu'intégrées au sein de l'appareil d'état, ces technologies de pouvoirque sont les médias soient appréhendées comme un tout, une globalitéinsécable. Mais comment analyser « les » médias dans leur ensemble sansconsidérer qu'il existe « des » médias en particulier ? Par ailleurs ,l'intégration de normes de genre globales exclut-elle toute possibilité decontestation, au sein même de ces médias ? Ne peut-on imaginer l'existence delignes éditoriales différentes, y compris dans leurs représentations dugenre ? Même s'ils ne la remettent pas en cause pour ce qui est des médiasdominants, nos propres travaux nous conduisent à nuancer cette vision demédias qui seraient à appréhender globalement parce qu'unanimes dans leurvision du genre. En effet, nos analyses de la représentation des femmes à latélévision montrent des différences sensibles selon les chaînes( Coulomb-Gully, 2006), et il paraît importantde mentionner ces différences parfois minorées voire occultées, tant lecadrage dans ce domaine est tributaire d'un pessimisme interprétatifexcessif. De même que nous l'affirmerons plus loin de la langue, cestechnologies de pouvoir sont traversées de logiques contradictoires etsusceptibles d'évolutions. Mais revenons à ces tendances lourdes pointéespar la plupart des travaux : le plus souvent centrés sur la seulereprésentation des femmes – nous reviendrons sur ce prisme spécifique –, ilsmontrent leur faible visibilité au regard de leur place effective dans lasociété et la permanence de fonctions stéréotypées pour parler d'elles .La recherche menée par Éric Macé (2006) sur une journée de télévisionfrançaise vient compléter ces approches. Tout en confirmant lasous-représentation systématique des femmes dans les émissions analysées, etleur stéréotypisation puisqu'elles sont principalement affectées aux tâchesdomestiques et ont la quasi-exclusivité des nus érotiques, traits qu'ilanalyse comme « l'expression d'un insu structurellement sexiste mis en œuvre" spontanément " par les professionnels de la télévision » (Macé, 2006 : 25) ,il va plus loin dans son analyse. Les femmes qui, on l'a vu, constituent unobjet d'interrogation désormais classique dans les recherches d'inspirationféministes, y sont ici analysées en relation avec les hommes, tandis qu'uneattention particulière est portée à la représentation des sexualités, gayset lesbiennes étant intégrés à la recherche. Or, ce type d'approche estencore minoritaire, les études sur le genre étant encore trop souventcomprises comme des études sur les femmes. Les raisons historiques de cette focalisation sur les seules femmes sont bienconnues : leur invisibilité comme objets d'étude (corollaire de leur quasiabsence du monde de la recherche comme chercheurs) a justifié et imposécette exclusivité, comprise comme un rattrapage nécessaire. Mais ce faisant ,le masculin est resté largement impensé, en grande partie parce que conçucomme étant la norme, donc universel et neutralisé. Il n'en est évidemmentrien, et ce que révèlent les travaux sur les hommes qui se développentaujourd'hui dans le sillage des recherches sur les femmes, c'est que laconstruction de la masculinité n'a rien à envier à celle de la féminité. La fabrication des mâles (Falconnet-Lefaucheur, 1975), de même que celledes femmes, comporte ses figures obligées et défendues. En témoignel'injonction « Sois un homme ! » et ce qu'elle recouvre d'interdits (pleurer ,montrer ses émotions, sa fragilité, ses doutes, etc.) et de contraintes( l'alcool, le tabac, la vitesse, la force voire la violence, la possessiondes femmes, le verbe haut et le rire, la compétition physique et rhétorique ,le défi, etc.), de lieux réservés (l'internat, l'armée, le bordel, le café ,etc.), etc. Ceux -ci ont varié à travers l'histoire (Rauch, 2000; Mosse ,1996) et la virilité ostentatoire qui a longtemps caractérisé le masculinfait aujourd'hui figure de repoussoir dans les couches sociales aisées, etne perdure plus que dans certains milieux populaires, dont les cités restentla meilleure expression. Car les régimes de masculinité – de même que lesmarqueurs de la féminité – varient non seulement selon les époques et leslieux, mais aussi selon les milieux sociaux, l'analyse conjointe de cesdéterminations devant être prise en compte dans l'appréciation de ce qu'est« être un homme » ou « être une femme ». Quant à l'histoire deshomosexualités, notamment masculines, en même temps qu'elle révèle laconstruction de l'hétérosexualité (Tin, 2008; Katz, 1996), elle rappellequ'il y a plusieurs pièces dans la « maison des hommes » (Godelier, 1982) ,et « éclaire les rapports entre une masculinité normative, implicitementhétérosexuelle, et ses " déviations " » (Surkis, 2007 : 15). La dominationmasculine s'exerce aussi à l'encontre de certains hommes. S'il faut saluerle développement des études sur les hommes comme venant pallier un manqued'informations patent, il ne s'agit pourtant pas de tomber dans le mêmepiège que celui qui s'est refermé sur les études de genre déclinées au seulféminin, et de reproduire l'erreur de l'enfermement catégoriel. Le « délicatréajustement entre féminin et masculin » (Sohn, 2009 : 7; Weltzer-Lang ,2008) auquel on assiste aujourd'hui, rappelle que féminin et masculin nepeuvent s'appréhender séparément. « Il ne faut jamais séparer l'étude desdestins de chacun des deux sexes, tant ceux -ci s'éclairent l'un parl'autre; ce qui, soit dit incidemment, disqualifie toute histoirespécifiquement masculine [… ]. Il convient aujourd'hui de mettre l'accent surla solidarité, la complémentarité, la subtile distribution des rôles »( Corbin, 1998 : 97). La nécessité de coupler les analyses du masculin et duféminin apparaît désormais comme une évidence, la dimension dialectique quiorganise leur rapport étant essentielle : féminin et masculin sont deuxcatégories en interaction étroite et en évolution, hommes et femmes fontsystème. Travailler le genre, c'est donc articuler les deux et analyser lafaçon dont ces identités se sont construites dans le temps et sereconstruisent jour après jour à travers les processus de socialisation etles interrelations quotidiennes entre hommes et femmes : le masculin et leféminin ne se définissent que l'un par rapport à l'autre. Pour autant, lesimplications méthodologiques que cela implique sont rien moins qu'évidentes .Dans l'introduction de la monumentale Histoire des femmesen Occident, Georges Duby et Michèle Perrot (1991 :« Avant-propos ») déjà soulignaient que cette histoire « résolumentrelationnelle », était « tout autant une histoire des hommes ». Travaillantquant à elle sur la construction de la masculinité au XIX e siècle, Anne-Marie Sohn (2009 : 4 e decouverture) relève que « cette histoire de la masculinité juvénile dessineégalement en creux le modèle qui régit la socialisation des filles » .Souhaitable, voire évidente en théorie, l'étude conjointe des deux réalitéssemble plus problématique dans la pratique : comment embrasser simultanémentles deux termes de la relation, sans que l'un des deux soit réduit à n' êtrejamais que « le creux » révélé par l'autre ? On est insensiblement passé de l'emploi du binôme hommes/femmes – ougarçons/filles –, à celui de masculin/féminin, ou de masculinité, voire devirilité/féminité. Le changement de paradigme – dont l'analyseest trop souvent éludée –, peut constituer un début de réponse à lanécessité théorique de conjoindre l'étude des deux termes du rapport. « Lescatégories du féminin et du masculin », écrit la sociologue Michèle Ferrand( 2004 : 72), « se réfèrent à un ensemble de valeurs et de normes quid'une part sont associées respectivement aux femmes et aux hommes et d'autrepart s'articulent étroitement les unes aux autres ». Par ailleurs, elleprécise que la domination des hommes – " du moins certains hommes " ,ajoute -t-elle – sur les femmes « se traduit par une hiérarchie homologue dumasculin sur le féminin ». Et de conclure : « De cette dichotomie première /la bi-catégorisationhomme-femme/ semble découler logiquement un autre binôme distinctif : estmasculin ce qui relève de l'homme, féminin ce qui relève de la femme. Or ,les deux systèmes ne se recouvrent pas exactement »; et ce, malgré letravail de socialisation qui tend, justement à faire coïncider les deuxbinômes sans y parvenir toujours tout à fait. La logique de l'approcheconstructiviste est, sans surprise, plus radicale puisque « détachée del'ancrage biologique ou naturalisant qui aligne sexe féminin et féminité etsexe masculin et masculinité » (Bourcier, 2001 : 23, note 1); l'homme et lamasculinité peuvent donc aussi bien signifier un corps masculin que féminin ,tandis que la femme et la féminité peuvent aussi bien signifier un corpsféminin que masculin. C'est précisément le désarrimage des deux couples denotions et les jeux éventuels que cela implique, avec leurs variations dansl'espace, dans le temps et selon les contextes, qui rend possible etintéressante leur analyse conjointe. Un exemple permettra de mieux saisir laportée pratique et méthodologique de ce propos. Il porte sur la couverturemédiatique de la campagne présidentielle de 1974, déjà évoquée précédemment .Arrêtons -nous sur deux autres portraits consacrés par LeMonde comme par Le Figaro à la premièrefemme candidate à l'élection présidentielle. « Camarade Arlette », titre Le Monde du 5 avril, « S t Justau féminin » titre Le Figaro du 23 avril. Onobservera avec intérêt que le terme « camarade » est épicène, sa forme nevariant pas au féminin et au masculin, tandis que le personnage de S t Just, auquel la candidate est comparée, est un homme ;Olympe de Gouges ou Rosa Luxembourg auraient pu être convoquées de la mêmemanière, mais c'est bien un homme qui sert ici d'étalon. Ajoutons à celal'ouverture par le Président du Conseil constitutionnel, Roger Frey, de lacampagne officielle en ces termes : « La liste des candidats à l'élection du Président de la République est établiecomme suit : Messieurs Jacques Chaban-Delmas, René Dumont, Valéry Giscardd'Estaing, Alain Krivine, Arlette Laguiller » (24h à laUne, deuxième chaîne, 18/04/74). Ces exemples montrent bien que laprésence d'une femme dans un monde politique jusqu'alors exclusivementmasculin ne pouvait se concevoir qu' à condition que celle -ci soitmasculinisée, à défaut d' être un homme, ce à quoi s'emploient activementinstitutions et médias dans le déni de genre auquel ils procèdent. On voitdonc ici comment le jeu homme/femme, masculin/féminin permet de tenirensemble les termes du rapport. Mais l'opération de « désarrimage » des caractèresmasculin/féminin par rapport aux individus hommes/femmes est d'autant plussignificative qu'un autre portrait, de la plume de Jean-Marie Rouart, estconsacré au candidat de la Ligue communiste révolutionnaire (lcr). Charge ironique contre les intellectuelsd'extrême-gauche, celui -ci titrait « La vestale Krivine » (Le Figaro, 20-21/04/74). On assiste donc à undouble-mouvement : féminisation de l'intellectuel d'extrême-gauche, Juif desurcroît, et l'on sait l'identification classique des Juifs aux femmes dansdes formes stéréotypiques dévalorisantes; masculinisation de la« travailleuse du rang » comme aime à se désigner elle -même la candidate deLutte ouvrière. Le chassé-croisé des valeurs et des normes attachées à lamasculinité et à la féminité, et des individus homme et femme auxquels ellessont censées renvoyer est révélateur des associations plus ou moinsconscientes suscitées par l'incarnation des candidats. Le processus deféminisation/masculinisation (de « gendrification ») des candidats par lediscours journalistique inverse donc le traditionnel rapport de dominationhomme/femme et délégitime le candidat de la lcr enle féminisant tandis qu'il valorise la candidate de lo. Par ailleurs, il n'est pas sans intérêt d'observer que c'estdans Le Figaro, que s'exprime ce « trouble », unquotidien de droite fortement attaché aux valeurs de virilité, voire devirilisme qui s'expriment entre autres dans son soutien à la sociétépatriarcale. Le défi méthodologique consiste à faire du genre, appréhendé à travers laco-construction du double binôme homme-femme/masculin-féminin, une véritablegrille d'analyse. Il ne s'agit donc pas de postuler une identité féminine etmasculine, faite de défauts et de qualités, d'attributs et de manques, decontraintes et de possibilités, que l'analyse s'efforcera – s'empressera –de confirmer. Présupposer une définition du masculin et du fémininreviendrait à tomber dans le piège de la tautologie. Refuser cette facilitéet rappeler cette nécessité qui est aussi une exigence, suppose de partir dutexte et de l'agencement des mots qui s'y inscrivent ou s'y sous-entendent ,de leur présence ou de leur absence, et de se laisser guider par sa seulelecture. Il s'agit de repérer le travail du genre à travers les récurrenceset les cohérences qu'inscrit le texte, mais aussi les sens qui s'yaffrontent, leur dissonance et leur polyphonie. Le travail sur le genre estun travail sur les mots, l'analyse du dispositif des médias permettant demettre au jour les représentations discursives qui fondent le réel. Mais si ,comme on l'a vu, les médias sont une technologie de genre, avec ce que celasuppose de répressif mais aussi de marge de manoeuvre, le desserrement del'étau des assignations n'est pas à exclure. Il s'agit d'approcher lelangage des médias sans préjuger de cette construction, comme une pratiquesociale dont la dynamique est à la fois déterminée et ouverte. C'est pourquoi nous ne partageons quepartiellement la position de Marie-Joseph Bertini (2009 : 63) : « La langue ,écrit-elle, […] fonctionne comme la forme la plus moderne et la plussophistiquée de la contention. Parfaitement transparente, rendue invisiblepar son instrumentalité même, la langue est le gardien farouche del'immuabilité des oppositions fondatrices et des représentations qui endécoulent ». Ne considérer la langue que comme un instrument de contention ,c'est faire l'impasse sur l'inventivité créatrice et libératrice du langage ,qui peut aussi autoriser la subversion des identités, y compris dans lelangage des médias. Et c'est bien dans cette tension entre contention etlibération, conservatisme et évolution que doit selon nous s'effectuer cetteapproche. « Comment définir l'objet de connaissance " femmes " sans reproduire lesdéfinitions normatives qui organisent et interprètent la différenciationhiérarchique des sexes ? » s'interroge Eleni Varikas (2006 : 117) On pourraitélargir les propos de la philosophe en demandant « comment définir l'objet deconnaissance genre sans reproduire les définitions normatives qui organisent etinterprètent la différenciation hiérarchique des sexes ? ». Reconnaissons quenous n'avons pas aujourd'hui de bonne réponse. Et si l'on peut adhérer à lacritique radicale de toute binarité comme étant issue de l'hétérosexualiténormative et obligatoire au sein d'une économie sexuelle masculiniste, force estde constater que l'on a du mal à imaginer les formes de son dépassement, quirestent à inventer. « En guise de stratégies pour dénaturaliser et resignifierles catégories relatives au corps, je décrirai et proposerai un ensemble depratiques parodiques fondées sur une théorie performative des actes de genre ,des pratiques qui sèment le trouble dans les catégories de corps, de sexe, degenre et de sexualité, et qui amorcent un processus subversif de resignificationet de prolifération du sens débordant du cadre strictement binaire », proposeJudith Butler (2005 : 56). Teresa de Lauretis (2007 : 74), quant à elle, parled' « imaginer le genre (les hommes et les femmes) autrement et pour le( re)construire dans des termes autres que ceux dictés par le contratpatriarcal ». « Imagination pas morte, imaginez », disait Samuel Beckett. Maisconvenons que cette dissolution des identités visant à dépasser la dualitémasculin-féminin reste encore largement à inventer. Cette question sur lesimplications pratiques et les retombées concrètes qui découlent de la façon dontnous formulons la pensée sur le genre nous (r)amène à l'articulation entresavoir et pouvoir, entre savoir et être, dont on a vu qu'elle est au cœur desrecherches sur le genre. C'est aussi une manière de poser la question del'engagement du chercheur et de l'utilité sociale de nos travaux. Cetteimplication peut s'envisager de deux façons : par un activisme direct donttémoigne le militantisme de nombre d'intellectuels engagés dans une réflexionsur le genre; ou en considérant l'écriture comme pratique àpart entière, par les visées transformatives qu'elle poursuit. La recherchecomme sport de combat, en quelque sorte. Mais comment ne pas penser qu'en même temps qu'ils sont nécessaires, ces travauxsur le genre peuvent aussi être un obstacle : parce qu'ils répètent etreproduisent en partie l'existant, ils alourdissent la représentation sexuée desindividus où l'on voudrait justement apparaître libre de toute assignationsexuée. La disparition des femmes est le but du féminisme, disait MoniqueWittig. N'en va -t-il pas de même avec le genre, la promesse de l'égalité dessexes s'accomplissant dans leur disparition dans l'ordre du discours ? Si ladéconstruction est un préalable à leur disparition, on se prend à rêver du jouroù le silence entourera ces questions sur le genre. Pas le silence d' « avant » ,celui des réalités occultées où la fausse neutralité des individus masquait lavérité des discriminations sexuées, mais le silence comme signe des choses sansimportance parce que résolues, en tout cas dans le cadre de l'espace public. Lesilence par épuisement des discours face à une réalité où avant d' être homme ,femme, ou autre, nous ne seront réellement que des individus, la seule parolealors pertinente pour parler de nos différences étant celle de la littérature etde la poésie, nous interpellant, dans l'espace du rapport à l'autre, « jamaislas de voir mis en scène ce qui tout à la fois /nous/ lie et /nous/ sépare »( Maingueneau, 1999 : 21) .
Venant provisoirement clore le débat engagé par la revue Questions de communication sur le développement actuel des études de genre, cette contribution revient sur quelques points fondamentaux de cette réflexion: ainsi du binôme « sexe et genre » qu'il confronte à celui de « genre et sexualités », et de l'apport de la pensée du genre à la théorie des savoirs, l'exemplarité de la démarche intellectuelle mobilisée par cette approche constituant une contribution décisive à toute réflexion épistémologique. Il s'efforce enfin de poser quelques jalons méthodologiques pour l'étude des médias définis comme une « technologie de genre ».
sciencesInfo_12-0000963_tei_1043.xml
termith-474-communication
L'édition savante, l'édition critique d' œuvres anciennes, a commencé bien avant l'imprimerie et a acquis ses lettres de noblesse et ses canons avec celle -ci. Les ordinateurs puis l'internet ont apporté des outils que nos collègues des sciences humaines utilisent en général très vite et très bien. Ainsi, le concept de codage leur permet d'utiliser le même texte à des fins différentes : un texte codé en TEI 1 peut être imprimé ou affiché avec tous les attributs typographiques de l'édition professionnelle tandis que ses balises de nature sémantique permettent d'y faire des recherches de noms propres, de dates, etc. Nous nous intéressons ici à une classe particulière de documents : les livres (souvent anciens) qui ont été numérisés et qui sont accessibles aux chercheurs sur le web ou sur cédérom. De plus, nous nous intéressons à une classe spéciale de chercheurs, ceux en bibliologie, plus précisément en orthotypographie 2, disons les paléographes de la chose imprimée ! Or s'il existe des outils et des normes pour l'étude des manuscrits anciens, il n'en est pas de même pour les livres. En particulier, les sorties des OCR (Optical Character Recognizers) ne sont pas normalisées et ne permettent pas en général de conserver trace de ce qui a été effectivement imprimé, le texte ainsi saisi étant en quelque sorte appauvri. L'objet de cet article est donc d'en montrer l'utilité et de proposer un codage, donc un inventaire de ces caractères « perdus ». De nombreux livres ont été numérisés et mis à disposition du public. Mais il en existe plusieurs classes. Les pages du livre ont été scannées et les images de ces pages sont accessibles, sur le web, par tout le monde ou de façon restreinte (abonnement ou achat dans le cas de cédéroms notamment). On retrouve ici les principes des microfilms, mais la qualité varie d'un site à l'autre : il y a des images qui sentent le travail de masse 3, d'autres qui sont très mal présentées 4 et certaines frisant la perfection 5. Ces bases de données sont des outils très précieux pour consulter de nombreuses œuvres : Gallica permet ainsi à un étudiant, faisant par exemple son diplôme sur les influences de La Pléiade sur la langue française, de lire dans le texte les versions originales de Meigret ou de du Bellay et d'en disposer d'une copie de travail pour l'annoter ou pour surligner des passages (et ce de façon moins chère – et plus légale – qu'en « photocopillant » les rééditions fac-similé des éditions Honoré Champion par exemple). Mais il ne pourra faire aucune recherche « électronique », ne serait -ce qu'une recherche en « plein texte » sur ces images, sauf bien sûr en disposant d'un système de reconnaissance de caractères adapté, ce que l'on ne trouve pas dans le commerce actuellement 6. C'est sans doute encore le cas le plus fréquent des bibliothèques numériques. Citons par exemple, pour le français, certains textes proposés par l'InaLF 7 ou par l'ABU 8. Mais ce mode texte peut prendre plusieurs allures selon sa finalité. Le texte est saisi et affichable « au kilomètre », sans le moindre enrichissement typographique ou autre (sauf en général les fins de paragraphes ou de sectionnements tels que les titres, etc.), sans la moindre image. On parle parfois de texte source, de texte brut, de plein-texte, etc. Ce texte source ne contient que du texte ayant un sens langagier (et donc aucune « balise » ni aucun caractère de mise en page). Ce texte est écrit en respectant un codage qui peut être soit les codes d'une norme 9 (comme ASCII 10, Latin-1 ou Unicode), voir figure 1, ligne 2, soit les codes d'un standard propriétaire (comme le « code page » de Windows), figure 1, ligne 3. Nous appelons ainsi les documents qui comportent, en plus du texte, des informations complémentaires permettant la restitution (papier ou écran) du texte (italique 11, gras, etc.), voire de la mise en page (paragraphes, listes, en-têtes, etc.). Le texte comprend une structuration logique souvent à l'aide de balises 12 (la TEI par exemple permet de spécifier que ce que Word considère comme une « liste » est en fait un « dialogue », voir figure 1 ligne 4), voire un marquage plus sémantique (attribut « boutique », par exemple). Il est en général facile d'en déduire un mode de restitution (c'est-à-dire de produire un texte balisé typographiquement). Ces trois modes permettent de faire de la recherche de mots. Pour le mode non formaté, ceci se fait de façon très simple et efficace, avec évidemment les limites liées au codage lui -même : rechercher dans un texte codé en ASCII le mot « côté » ne donnera aucun résultat ou alors (selon la façon dont le programme de recherche traite la clé) aussi les occurrences de « cotés » et de « cote » 13. Les autres formats permettent également de faire de la recherche de texte (à condition d'avoir un outil adapté au format considéré pour sauter les balises, marques spéciales, etc.), mais aussi des éléments de structure (dialogue par exemple), voire « toutes les boutiques » (et dans ce cas il faut des outils spécifiques ou bien paramétrés du type interrogation de base de données). Ces deux derniers modes permettent bien sûr de faire figurer des images dans le texte 14. Nous nous intéressons donc ici à la classe particulière de documents que sont les livres anciens numérisés pour les chercheurs – ce qui veut dire en général accessibles au moins en mode texte – et en particulier pour ceux qui ont aussi besoin du texte en mode image (pour étudier la mise en page, la typographie, etc.). Il existe de nombreux sites où cette dualité est bien présente, notamment pour les textes manuscrits 15, ce qui s'explique par la difficulté de lecture des originaux par des non spécialistes. Elle est bien sûr à la base des vrais hypertextes 16 où l'on trouve des liens à la fois sur des manuscrits d'auteurs, des images d' œuvres éditées et diverses analyses. Cette dualité apparaît sans doute bien moins utile pour les livres imprimés (surtout ceux non illustrés !) du fait de la lisibilité des images de texte imprimé. Il existe toutefois des sites où l'on trouve(ra) ainsi des livres disponibles tant pour la forme que pour le fond, avec des liens hypertextuels de l'un à l'autre. Ces sites sont consacrés par exemple : à une période, comme les livres de la Renaissance du projet Debora 17, à un auteur, comme Cervantes 18, à un type d'ouvrages comme les dictionnaires 19 ou des textes scientifiques 20. En ce qui concerne notre propos, étudier les textes d'un point de vue « typographique » autant que textuel, ce mode permet donc de mettre en relation un texte et sa représentation avec diverses granularités : page, paragraphe (comme ci-dessous en figure 2), signe (voir par exemple (Le Bourgeois, 2003; figure 2)), etc. Toutefois, à de rares exceptions, ceci n'est en général pas satisfaisant. Regardons cet extrait du Gargantua (figure 2) non comme une œuvre de Rabelais, mais de Dolet 21 : rien ne permet l'étude des caractères (abréviations latines, usage des diacritiques, s long, ligatures, etc.), ni l'emploi des capitales, de l'italique (ici absent, mais dans l'édition de F. Juste on trouve « Le Banquet »), des espaces (avant ou après les ponctuations et parenthèses), la division des mots en fin de ligne (plus bas dans ce texte on verrait des divisions comme « perfe-ction »), sans parler de la lettrine à 5 points. Or il se trouve qu'aujourd'hui le codage de toutes ces informations peut aussi être fait, souvent automatiquement, mais qu'il en manque une certaine normalisation. Depuis quelques années, les caractères ont fait l'objet de recherches ou de développements industriels les rendant plus manipulables même si souvent il demeure une certaine ambiguïté à leur sujet… La reconnaissance des caractères (OCR Optical Character Recognition) a fait des progrès spectaculaires depuis quelques années, mais il reste encore à faire ! Caractères imprimés. A priori, on sait reconnaître les caractères imprimés (voir (Lefèvre, 1999) pour une synthèse) et on trouve donc sur le marché de nombreux produits commerciaux de qualité. Toutefois, ces derniers ne sont pas toujours capables de reconnaître des caractères « exotiques » ou anciens (du fait par exemple de leur encrage ou, ce qui revient au cas précédent, de leur forme non connue des reconnaisseurs; voir par exemple figure 3). Signalons cependant que les recherches en cours utilisent des techniques nouvelles (voir par exemple (Allier, 2003) et (Le Bourgeois, 2003)) augurant d'une reconnaissance poussée. Caractères manuscrits. La variabilité du tracé des scripteurs et la connectivité des lettres rendent difficile la reconnaissance de l'écriture manuscrite (voir (Crettez et Lorette, 1998) pour une synthèse). Toutefois de grands progrès sont ici en cours du fait du développement des téléphones portables et… de l'engouement des mises de documents d'archives sur le web (voir par exemple (Coüasnon, 2003)). Caractères dactylographiés. A priori, ils sont assimilables aux caractères imprimés. Mais plus leur qualité baisse (à cause des rubans encreurs, pelures, etc., les caractères sont alors soit empattés et liés aux voisins ou, au contraire, formés de composants non connexes) moins ils sont reconnaissables. Paradoxalement, c'est sans doute là qu'il y a le plus d'études à faire, surtout si l'on sait la masse de documents archivés sous cette forme ! On est donc en droit de considérer que d'ici très peu on pourra reconnaître tout caractère imprimé. Reste à savoir ce qu'est un caractère, problème enfin abordé par Unicode récemment. Les codages à 8 bits comme Latin-1 offrent un grand nombre de lettres accentuées mais pas toutes ni toutes en même temps. Par ailleurs, de nombreux organismes ont proposé des codages permettant de traiter divers autres alphabets (arabes, japonais, etc.). Depuis plus de dix ans déjà, deux organismes ont étudié un codage universel : l'ISO, organisme international de normalisation, et le consortium Unicode, un regroupement privé de constructeurs d'ordinateurs. Ces deux groupes ont fini par s'entendre et converger en produisant une norme internationale à 32 bits dite ISO/CEI-10646 et un standard propriétaire, Unicode 22, qui est presqu'un sous-ensemble à 20 bits de la norme. Il permet (ou permettra dans ses mises à jour) le codage de tous les caractères du monde, présents ou passés. Les principes de base d'Unicode comprennent les points suivants. Chaque caractère est défini par un numéro (code en base 16) et un nom auquel s'ajoute de façon non normative un exemple de représentation (glyphe privilégié). La combinaison de caractères et de signes diacritiques est possible et permet d'utiliser des caractères accentués qui ne seraient pas définis 23. Un principe d'unification 24 permet de ne pas faire de doublons pour les caractères chinois, japonais, coréens et vietnamiens. Pour les langues européennes, ça signifie que « Y » (code 0057) représente aussi bien le caractères français « i grec », que le caractère anglais « wye » ou que l'allemand « Ypsilon ». En revanche, « A » faisant partie des langues latines et de l'écriture grecque, Unicode distingue les deux (codes 0041 lettre majuscule latine a et 0391 lettre majuscule grecque alpha). Mais le principe le plus important, du moins en ce qui nous concerne, est la distinction caractère-glyphe. Pour Unicode, un caractère est la plus petite unité distinctive d'une langue écrite, tandis qu'un glyphe en est une représentation possible (sur écran, papier, etc.). Par exemple, au caractère lettre majuscule latine r peuvent correspondre des glyphes variant selon le style du caractère « R, R, R, R, R, R », ses attributs typographiques (graisse, italique, etc.) « R, R, R, R », sa taille « R, R, R, R », etc. Ce principe conduit Unicode à considérer que les ligatures ne sont que des problèmes de « rendu » et donc à les ignorer. Toutefois, pour des raisons de compatibilité, on en trouve quelques-unes («  », « fl », etc.). La distinction glyphe-caractère n'est pas aussi simple qu'il y paraît et Ken Whistler, directeur technique d'Unicode, en rappelle les principaux points : « Unicode code les caractères d'une écriture et non d'un alphabet… On ne peut coder toutes les combinaisons de digrammes… Il faut garder à l'esprit les différents niveaux en présence : les phonèmes d'une langue, les graphèmes d'un système d'écriture, les lettres d'un alphabet et les caractères d'une écriture commune à plusieurs langues 25. » Unicode ne serait pas utilisable sans le concept de fonte qui, lui, va traiter des glyphes. Aux divers formats déjà existants (Type1, TrueType, etc.) est donc venu s'ajouter un nouveau format allant dans l'esprit d'Unicode : OpenType. Celui -ci permet par exemple de traiter le æ brève cité en note 23 ou de remplacer automatiquement 26 la séquence des lettres « f » et « i » par la ligature «  ». Partant de la translittération de la figure 2 (qui, écrite en latin-1, est donc écrite dans un sous-ensemble d'Unicode), on imagine qu'un « programme » OpenType pourrait produire un texte similaire à celui de l'image 27. Restent toutefois certains problèmes comme celui de savoir si cette différence caractère-glyphe s'applique bien, au XVIe siècle, aux caractères « u » et « v », « i » et « j », etc. Pour pouvoir faire plus « avec l'électronique » que de façon traditionnelle, il faut donc que l'on puisse numériser (au sens de scanner) un document et conserver le détail des caractères effectivement imprimés, qu'il s'agisse de « caractères » ou de « glyphes » au sens d'Unicode. Si, dans le cas de la figure 2, il n'y a a priori pas de problèmes (« si », « st », « õ », etc., sont bien des glyphes 28), il n'en est pas de même en figure 4 : à côté des caractères usuels (appartenant au sous-ensemble « latin-1 » d'Unicode), Antoine de Baïf 29 utilise des « caractères » également dans Unicode mais inventoriés ailleurs, comme le « e », dit e-ogonek 30 mais aussi des caractères comme le « A avec trompe » (entre O et P, se prononçant « au ») qui sont des caractères que l'on espère voir ajoutés prochainement à Unicode. Enfin, si l'on désire que les textes sortis des OCR soient utilisables par toute la communauté scientifique, il convient d'utiliser le même codage pour les « caractères imprimés reconnus », qu'il s'agisse donc de purs « caractères Unicode » ou de « glyphes ». Il faut alors un consensus sur ce codage et donc sur l'inventaire des caractères à reconnaître. Tel est l'objet du projet Cassetin. Le projet Cassetin 31 a pour objet de faire un inventaire des principaux « caractères » (d'imprimerie), de leur associer un codage et de proposer au consortium Unicode une liste de « caractères » (au sens d'Unicode) qui n'en font pas encore partie. Précisons d'abord le statut de ce projet : il n'a pas encore officiellement démarré. L'objet de ce papier est notamment de faire un appel à participation en vue d'un projet européen. La première application étant son utilisation comme codage des sorties d'OCR de livres, il nous paraît intéressant de rappeler d'abord ce qu'ont fait les historiens des textes manuscrits. Malgré certaines divisions dans le monde des spécialistes d'histoire des textes (approches diplomatiques, codicologiques, etc.), divers projets internationaux s'intéressent au codage des manuscrits anciens. Voici deux approches différentes. Codage d'entités. Lancelot ou Le Chevalier de la Charrette est un texte célèbre de Chrétien de Troyes (XIIe siècle); il est en cours de numérisation par le département des Langues romanes de l'université de Princeton et le Centre d'études supérieures de civilisation médiévale de Poitiers 32. Pour coder la transcription TEI des manuscrits, le projet a défini toute une série de tags (entités SGML) sous la forme « &xxx; » (voir figure 5). Complément à Unicode. Le projet MUFI (Medieval Unicode Font Initiative) a pour but le codage et l'affichage de caractères spéciaux de manuscrits médiévaux de langue latine 33. Contrairement au projet Charrette, MUFI propose que ces entités (qu'il définit également) soient aussi de nouveaux caractères Unicode. MUFI étudie donc l'inventaire des caractères à ajouter à Unicode pour pouvoir manipuler les textes médiévaux (nordiques, portugais, etc., mais à vocation européenne). Cet inventaire comprend un glyphe privilégié, un code Unicode (et, si ce caractère n'y existe pas, une proposition de codage dans la zone privée), un nom mais aussi une entité SGML (figure 6). A cet inventaire, encore en cours, sont liés deux autres projets; l'un, Junicode 34, propose des fontes pour l'édition de ces textes médiévaux; l'autre indique comment saisir divers caractères 35. Le projet Cassetin a donc pour but de faire pour les livres un peu l'équivalent du projet MUFI et reprendra dans celui -ci tout ce qui peut être compatible avec l'imprimé. On considère donc comme candidats à cet inventaire les caractères devenus aujourd'hui des choix typographiques mais qui ont été la règle autrefois (rentrent bien sûr ici les caractères de La Pléiade, figure 4, les « s longs », les ligatures comme « ct » et « si », mais aussi des ligatures du début du XXe siècle comme le « k barré » breton), les caractères tels que les petites capitales, les lettres supérieures, etc., qu'Unicode considère comme glyphes alors qu'ils ont un rôle orthotypographique certain 36, les guillemets, tirets et… espaces, les très nombreux signes divers (tels que les pieds de mouche « ¶ », les croix mortuaires françaises « † », etc., dont les manuels de typographie 37 et spécimens donnent des listes plus longues). On pourra aussi citer les ornements et vignettes pour lesquels il existe des sites spécialisés 38. Cet inventaire se fait 39 : en inventoriant les caractères déjà existants dans Unicode, ce qui n'est pas toujours facile 40 compte tenu de leur ventilation « un peu partout »; en étudiant les polices et casses disponibles – on étudie notamment les inventaires publiés par (Barber, 1969; Baudin, 1998; Bigmore, 1978; Méron, 2002) – et bien sûr les spécimens (catalogue de caractères des fonderies) dont (Dreyfus, 1963); en étudiant divers ouvrages, notamment ceux déjà numérisés pour voir l'utilité de notre inventaire; enfin, s'il n'a guère été question ici que du français, il est bien évident que toutes les langues latines sont concernées. Assez paradoxalement, si on exclut les vignettes et ornements, il ne nous semble pas que cet inventaire doive contenir un très grand nombre de nouveaux caractères (on ne tient évidemment pas compte ici des variétés d' œil dues aux différences de style, de corps, de graisse, etc. : «  » est pour nous un seul caractère, identique à «  » ou «  ») ! La figure 7 montre, d'une part, quelques lettres qui pourraient faire l'objet de cet inventaire et, d'autre part, des informations sur elles : nom d'entité proposé (ceux donnés ici sont provisoires), le code Unicode lorsqu'il est connu (un « – » précise que ce caractère n'est pas dans Unicode mais devrait y être). Les croix des dernières colonnes indiquent des occurrences attestées dans le siècle correspondant et pointeront sur des références aux sources. Nous espérons avoir ainsi montré la nécessité de ne pas perde les informations que peuvent donner la numérisation de documents imprimés et le besoin d'une normalisation du codage des caractères ainsi lus .
La numérisation des livres anciens n'a pas été abordée aussi bien que celle des ouvrages manuscrits anciens, du moins en ce qui concerne les caractères. Or, avant de faire de la reconnaissance de caractères, encore faut-il avoir un certaine connaissance de ceux-ci. Par ailleurs, restituer un ouvrage avec ses caractéristiques typographiques peut induire des recherches qui sinon seraient impossibles. Nous présentons alors le projet Cassetin dont le but est de faire un inventaire des caractères d'imprimerie utilisés depuis le XVe siècle et de proposer une normalisation de leur codage (sous forme d'entités ou de caractères au sens d'Unicode) de façon à rendre portables les sorties d'OCR.
sciencesInfo_04-0290029_tei_DN_073_0127.tei.xml
termith-475-communication
La société de l'information se développe rapidement en Europe, articulant de nouveauxdébats autour de l'existence, de la nature et de l'étendue des fractures numériques .La situation de la Grèce constitue un cas particulier car, malgré la progressionenregistrée au début de cette décennie, la société de l'information y connaît depuisquelques années une stagnation (grnet, 2005). Aujourd'hui, ce pays se classe enqueue de peloton des pays membres de l'Union européenne (ue) en matière depénétration des technologies de l'information et de la communication (tic) tell'internet. En 2005, l'indicateur d'utilisation des technologies élaboré à partir decinq variables n'a gagné que 0,3 % (atteignant la valeur de 13,6 %) et la proportionde la population n'utilisant pas de technologies a diminué de 2,7 % (ibid. : 125). Au cours de la même période, l'utilisation del'internet n'a progressé que de 0,1 % (à 24,6 % de la population) en 2005 parrapport à 2004 (24,5 %), tout en restant sous le niveau de 2003 (25,2 %). Au regardde statistiques plus récentes (2004-2007), l'Union internationale destélécommunications (uit) confirme que, bien que la pénétration de l'internet etcelle de l'accès à haut-débit aient augmenté en Grèce ces dernières années, aucuneprogression substantielle n'a été remarquée en raison de l'instabilité et de lavariation de son évolution d'une année à l'autre. Ces données révèlent latrajectoire précaire de la société de l'information grecque au sein du cadreeuropéen. Ainsi l'uit montre -t-elle qu'en 2007 la Grèce était le pays dont le tauxde pénétration de l'internet était le plus bas (22,8 %) parmi les vingt-sept pays del'ue (le pourcentage moyen y étant de 55,7 %) et avait une pénétration du haut-débitde 7,4 %, classée juste au-dessus de la Lettonie (5,2 %). Cette contribution ne fait état que d'une partie des résultats de notre recherche quiportait sur l'adoption de l'internet en Grèce à travers une approche socioculturelleet décisionnelle et des indicateurs clés du développement de cette technologie, liésà l'héritage historique et aux particularités du contexte national. Sur un planempirique, ce texte interroge les principaux facteurs susceptibles de pousser lapopulation à adopter ou non des tic. Il analyse certains paramètres d'adoption del'internet en Grèce et rapporte les discours etpoints de vue émanant de focus groups d'usagers et denon-usagers. L'objectif de cette approche qualitative est d'identifier des figuresde comportement et des attitudes. Aussi, sur un plan méthodologique ,entendons -nous appliquer les résultats de recherche obtenus par complémentarité ettriangulation des focus groups ultérieurs à l'enquêtequantitative menée sur 1 000 usagers et non-usagers, afin de mettre à l'épreuve etde compléter qualitativement ce que les statistiques avaient révélé au sujet del'adoption de l'internet en Grèce. Dans un premier temps, le cas grec et sesparticularités passées et actuelles seront exposés en lien avec le développement etl'évolution de la société de l'information dans le pays. Ensuite, nous présenteronsle principe de fonctionnement et la conduite des focus groups ainsi que les résultats qualitatifs obtenus, nous intéressant enfin aux conséquencespossibles sur l'évolution de la société de l'information européenne. Quel est le positionnement de la société de l'information en Grèce par rapport àl'Europe et les formes prises par la fracture numérique dans ce pays, notammentau travers de l'adoption de l'internet, sujet d'importance ? Parallèlement ,comment peut-on contextualiser cet objet d'étude par le biais d'une mise endébat historique du contexte sociopolitique en Grèce ? Membre de longue date de l'ue, la Grèce possède toutefois l'un des plusfaibles taux de pénétration de l'internet et des nouvelles technologies ,mettant à mal l'idée d'harmonisation et de développement équilibré de lasociété de l'information en Europe. Ces faibles taux concernent la diffusionde l'internet depuis les premières années du développement du réseau enEurope (European Commission dginfso, 2000; European Commission, 2001). Plusrécemment, l'enquête sur les communications électroniques auprès des ménagesen 2007 (European Commission, 2008  : 49) a montré que seuls 41 % desménages grecs disposaient d'un ordinateur, classant la Grèce sous la moyennedes vingt-sept États membres de l'Union européenne (57 %) et devant lePortugal (39 %), la Roumanie (35 %) et la Bulgarie (27 %). Cette mêmeenquête a conclu que la proportion de ménages possédant au moins unordinateur est supérieure dans les anciens États membres (60 %) par rapportaux 12 nouveaux États européens (45 %), à l'exception de la Grèce (41 %), duPortugal (39 %), de l'Espagne (46 %) et de l'Italie (49 %), anciens paysmembres dont le niveau d'équipement en ordinateur est inférieur à la moyennedes vingt-sept. En matière de pénétration de l'internet (ibid. : 54), 49 % des ménages de l'uedisposaient d'un accès à l'internet en 2007, la Grèce (22 %) étant l'ancienÉtat membre de l'ue disposant du plus bas taux d'accès à l'internet et sesituant en queue de classement avec la Bulgarie (22 %), un nouvel État membre .Enfin, l'enquête a indiqué que 36 % des ménages en Europe disposaient d'unaccès à haut-débit en 2007 (ibid .  : 56), contreseulement 14 % des ménages grecs. La Grèce se situe encore à la traîne del'Union, tout comme la Bulgarie (14 %). Ces statistiques confirment la lentemodification de la pénétration de l'internet en Grèce ces dernièresannées. Cette brève présentation conduit à montrer comment des données historiquespeuvent expliquer les forces en jeu dans le cadre du développementtechnologique. La Grèce est considérée comme un pays de la semi-périphérie ,doté d'un parlementarisme précoce et d'une industrialisation « trèstardive  » (Mouzelis, 1986). Ces conditions ont favorisé une culture duclientélisme, des réseaux de patronage et d'individualisme faussant lemarché et décourageant le développement technologique. Plus précisément ,ayant obtenu son indépendance au XIX e siècle, ce paysdes Balkans a tenté de mettre en place un processus parlementaire de typeoccidental s'appuyant sur une participation restreinte de la population, unétat autoritaire et clientéliste contrôlé par quelques grandes familles( nommées les « tzakia ») qui manipulaientl'électorat de façon aussi bien légale qu'illégale. À la fin du XIX e siècle et au tournant du XX e, laGrèce réussit sa transition vers une participation politique plus largegrâce à l'extension /transformation des réseaux de patronage politique (ibid. : 18). C'est ainsi que les famillespropriétaires terriennes autrefois puissantes (les « tzakia ») s'affaiblirent sur un plan politique, mettant un termeau régime oligarchique et marquant ainsi la transition vers lepost-oligarchisme. Parallèlement, l'urbanisation massive a permis à uneimposante classe moyenne urbaine de faire pression et de libéraliser lerégime politique, lequel conservait néanmoins le clientélisme passé, fautede mettre en place une industrialisation solide (ibid. : 50). Le clientélisme est resté le principecaractéristique du système politique grec au XX e siècle, tandis que la transformation et le développement des réseauxclientélistes offraient les moyens de substituer au système oligarchique uneforme plus libérale de participation politique et de démocratisation aprèsle coup d'état militaire de 1909. Ainsi la démocratisation n'est-elle pasportée par un nombre significatif de syndicats autonomes ni par des factionsissues de la classe ouvrière mais par le système clientéliste hérité del'ancienne oligarchie des « tzakia », désormaiscentralisé par l'extension de l' État et par la centralisation des principauxpartis politiques de l'époque (ibid. : 39-45). D'un point de vue économique, du fait que l'industrialisation n'ait pasémergé en Grèce à ce moment -là, les effets de l'industrialisation sur latransition politique vers un système plus représentatif ont été moindres parrapport à l'Europe occidentale (Mouzelis, 1986  : 3-7; Stavrianos, 1959  :607). La Grèce n'a développé que tardivement une économie industrielle ,c'est-à-dire dans l'entre-deux-guerres et les années d'après-guerre du XXe siècle (Mouzelis, 1986  : 13-14). Enfin, le rôlenaissant et dominant de l' État dans le processus d'industrialisation lui apermis de contrôler l'activité des syndicats et des organisations detravailleurs de façon verticale (ibid. : 50) .Soumises au contrôle de l'appareil d' État, les classes laborieuses ont doncperdu leur autonomie dans l'arène politique et sont devenues dépendantes dela post-oligarchie naissante de l' État (ibid .  :70). Le développement économique tardif et contrôlé par l' État, lesrelations clientélistes entre l' État et la société civile et la gigantesqueadministration publique ont pesé négativement sur le développementtechnologique et sur les investissements du marché dans ce domaine. Commel'explique Nikos Mouzelis (1986  :175), « l'émergence des difficultés liées àl'importation-substitution dans les années 50 et le ralentissement desinvestissements dans l'industrie manufacturière, d'une part, et une demandepopulaire plus forte et agressive de redistribution, d'autre part, ontconduit les investisseurs privés à être de plus en plus réticents às'impliquer dans des entreprises plus complexes sur un plan technologique etcomportant plus de risques sur un plan économique  ». Ce système clientéliste naissant, responsable par ailleurs de la dimensionpersonnaliste des réseaux patrons-clients de la société civile (Mouzelis ,1995), était également guidé par des desseins individualistes ne prenant encompte aucun objectif ou intérêt social collectif (Sotiropoulos, 1996). Lemanque d'esprit civique et de conscience citoyenne et sociale auxquelss'ajoutent une industrialisation incomplète et une dépendance envers lesliens familiaux ont conduit à l'existence d'une hétérogénéité sociale toutcomme l'absence de culture du collectif en Grèce (Petmesidou, 1996). Ainsile pays a -t-il manqué de culture de l'universalisme et de citoyennetésociale alors qu'une forte résistance sociale au changement et une faibleparticipation sociale ont gêné les tentatives politiques de ces dernièresannées (Venieris, 2003, 1996; Petmesidou, 1996). Du fait de l'influence deces conditions historiques, la société civile grecque a développé des traitsculturels qui ont influencé par la négative les développementstechnologiques nouveaux ainsi que d'autres changements dans le pays. La plusemblématique de ces caractéristiques est la difficulté majeurequ'éprouveraient les Grecs à adopter et intégrer de nouvelles façons devivre ou de faire (Voulgaris, Sotiropoulos, 2002). La société civile grecque ayant accordé trop de confiance à l' État, elle estdevenue dépendante d'une sécurité contrôlée par ce dernier et a développéune forte tendance à l'individualisme. Il lui a donc manqué l'action etl'autonomie requises pour le changement. La passivité, la dépendance enversl' État et l'insécurité l'ont mené à lutter pour protéger des objectifsindividualistes, tout en maintenant l'ordre établi des choses et endéveloppant une tendance au nationalisme et au romantisme. L'individualismes'est dissimulé sous le parapluie de l'identité et de la fierté nationaleset a instauré une conception rigide de celles -ci. Domine alors un besoin dela protéger, en résistant constamment à tous les nouveaux éléments de la vieou des coutumes qui pourraient la mettre en danger. D'une certaine manière ,la société grecque se sent impuissante et ressent le besoin de protéger sesprivilèges établis et son mode de vie. Pour ces raisons, il lui seraitdifficile de s'approprier les tic et de les intégrer dans la viequotidienne. Par sa nature révolutionnaire et fortement évolutive ,l'internet a été accueilli avec scepticisme et crainte, en raison del'impact possible sur le mode de vie et des compétences requises pourl'utiliser efficacement. Ainsi la société grecque a -t-elle acquis laréputation d' être singulièrement non réceptive, en particulier à l'égard dela technologie. Les discours sur l'importance de la technophobie et de larésistance aux nouveaux artéfacts technologiques sont relativement répandusdans les débats publics au sujet du contexte grec et de ses particularités ,bien qu'elle n'ait, jusqu'ici, jamais été étudiée ni évaluée empiriquement .Ce que nous proposons de faire ici. Mais le contexte grec est plus compliqué qu'il n'y paraît. Les attributsculturels mentionnés supra sont associés à un mode devie plutôt extraverti. Pour des raisons climatiques et géographiques, lapopulation grecque s'est familiarisée à un large spectre d'activitéssociales et de divertissement qui la conduit à utiliser uniquement lestechnologies qui la mettent en valeur socialement. Par exemple, latéléphonie mobile a été adoptée par une large majorité des Grecs( Observatory for the Greek Information Society, 2008). Les caractéristiquesà la fois technique et esthétique de la technologie mobile – le combiné ,l'objectif intégré, les sonneries et les couleurs, et la capacité despersonnes à emporter le téléphone mobile dans des lieux publics et durantcertains évènements sociaux – ont rendu cette technologie populaire. Cettepopularité est fortement liée aux phénomènes de socialisation qui sontassociés à celle -ci. Parallèlement, d'autres technologies et usages pluscréatifs sont bien moins populaires en Grèce, ceux -ci ne permettant ni des'exposer ni d'obtenir une reconnaissance sociale, et sont considérés commerisqués et difficiles à utiliser. Ainsi la téléphonie mobile et les échangesoraux ont-ils quelque peu « remplacé  » l'internet en Grèce alors que, dansdes pays comme le Royaume-Uni, le courriel et les échanges écrits peuvent seremplacer l'un l'autre. En outre, la Grèce se démarque de façonsignificative d'un modèle comme la Finlande dans la mesure où ce pays a tiréparti d'une identité nationale forte et bien établie et d'un esprit civiquecollectif issus d'une attitude générale positive envers la technologie( Castells, Himanen, 2002). En Grèce donc, le caractère « hermaphrodite  »d'une société à la « semi-périphérie  » (Mouzelis, 1986) a généré undéséquilibre historique dans le développement des tic. Katharine Sarikakiset George Terzis (2000) soulignent la présence d'un fossé en matière deconnaissances, une grande majorité de citoyens grecs n'étant pas usagers desnouveaux médias. L'objectif principal de cet article est de proposer uneanalyse empirique des liens de la société de l'information grecque actuelleavec les héritages culturels du passé et d'en examiner les conséquences àl'égard de l'adoption de l'internet. Pour mener à bien cette étude, nousavons opérationnalisé ces héritages sous forme d'éléments résistants de laculture et du cadre général de la vie quotidienne en Grèce. En utilisant lesnotions de « résistance  » et de « vie quotidienne  », nous souhaitonsdonner du sens aux conditions culturelles historiquement établies en Grècedepuis deux siècles et à la manière dont elles pourraient être associées àla décision d'adopter l'internet ou pas. Dans la discussion qui suit, lanon-réceptivité et la résistance de la société à de nouveaux éléments de lavie et aux technologies en particulier, deviennent tout à fait claires etexplicites. En effet, la notion de « vie quotidienne  » permet d'identifiercertaines dynamiques dans la façon de vivre en Grèce et le rôle du besoin ,inscrit de longue date, de sécurité et de non-changement. La méthode du focus group permet de compléter et de mettreà l'épreuve les résultats provenant de notre enquête quantitative (phase 2). Cette dernièrese fonde sur un large panel (1000 répondants) d'usagers et de non-usagersappartenant à diverses catégories sociodémographiques et permet de constater quel'accès n'est pas un paramètre suffisant pour expliquer la non-adoption del'internet en Grèce, 15,1  % des non-usagers résidant dans des habitationsconnectées. En outre, elle montre qu'une culture « dédaigneuse  » (dismissive culture) est dominante en Grèce, avec desnon-usagers n'ayant aucun besoin ni intérêt à utiliser l'internet, et dont laplupart n'envisagent pas d'y recourir à l'avenir. Elle fait également le constatque les Grecs ont des inquiétudes sur le rôle de l'internet dans des domainesspécifiques de la vie et de l'activité sociale comme la sécurité, la vie privée ,le travail, les relations ainsi que les valeurs et traditions sociales. Prenanten compte ce contexte spécifique, nous avons abordé un ensemble de thèmes ciblésà travers des focus groups. Ceux -ci ont pour objectif demettre en œuvre certains paramètres et indicateurs socioculturels identifiésdans l'analyse historique, en particulier la « résistance  » et la « viequotidienne  », tout en essayant d'approfondir les résultats de l'enquête sur lerejet et le manque d'intérêt pour l'internet dans le cadre de vie des personnes .Ainsi les entretiens menés dans les focus groups sefocalisent-ils en priorité sur le discours tenu sur les « circonstances devie  », les « choix  », les « priorités  » et « l'identité  », dans le but decontextualiser l'ensemble complexe des facteurs déterminant les attitudes et lespratiques des usagers et des non-usagers de l'internet. De cette manière, lesfocus groups permettent d'aller au-delà desregroupements et des classifications quantitatives des points de vue despopulations ordinaires, fournissant une représentation moins quantifiable maisplus diversifiée sur l'adoption de l'internet en Grèce. Ils permettent aussi deretracer la pensée des usagers et des non-usagers et de relever les thèmes etles questions émergents. Les caractères complexes et incertitudes qu'appréhendel'étude de la technologie et de son ancrage socioculturel ont-ils aussi étéélucidés par un éclairage qualitatif. Généralement, les focus groups sont considérés comme uneforme d'entretien où les échanges et interactions au sein du groupe renseignentle chercheur tandis que les arguments et propos individuels peuvent façonner laforme et le contenu des débats collectifs. Lors d'un focusgroup, une attention particulière est portée à la conversation ainsiqu'aux structures de pouvoir et aux relations hiérarchiques qui façonnent lesstructures conversationnelles, permettant au chercheur d'obtenir davantaged'informations sur les points de vue du groupe. Comme le souligne George Gaskell( 2000  : 46-47), le focus group constitue « une véritableinteraction sociale  » dont les significations et les représentations émisessont davantage façonnées par le caractère social des interactions du groupe quepar les points de vue individuels. Il s'agit de ce que James Holstein et JaberGubrium (1997  : 120) qualifient d' « entretien actif  » dans lequel lesenquêtés, l'enquêteur et les conditions structurelles sont engagés dans unprocessus discursif complexe révélant la « culture du groupe  » (Alasuutari ,1995  : 94). Les discussions au sein des focus groups sont faiblement structurées. La relation entre la situation d'entretien et toutsujet émergeant au cours des débats peut modifier le cadre thématiqueinitialement prévu, ce qui suppose d'adapter la conduite des échanges  : « Si unsujet prometteur est soulevé, vous pouvez le poursuivre  » (Berger, 1998  : 57) .En outre, une attention particulière est portée sur la façon dont lesparticipants expriment leurs attitudes et pratiques à travers les interactionset la convergence (ou divergence) des arguments échangés au sein de chaquegroupe. Dans cette recherche, les focus groups ontcherché à saisir « les discours publics et les communautés interprétatives  »( Lunt, Livingstone, 1996  : 4), explorant la culture de résistance et le cadrede la vie quotidienne au sein de certains groupes sociaux, et permettant unecontextualisation des résultats de l'enquête quantitative. Les interactions ausein des groupes ont permis d'identifier des tendances et attitudes collectives ,ainsi que des différences éventuelles entre membres ou contradictions dans lesdiscours tenus dans un contexte de groupe. Ainsi les résultats qualitatifsrapportés supra donnent-ils un bon aperçu de la manièredont ces interactions sont importantes pour mieux comprendre la décision despersonnes d'adopter l'internet ou non, dans un contexte socioculturel complexeet plus étendu. Même si la portée des entretiens n'autorise pas lagénéralisation, nous nous attendions à ce qu'ils présentent les nuancesculturelles de la société grecque renseignées lors des entretiens desacteurs-clé (phase 1 de notre recherche) et contrôlées lors de l'enquête (phase2). Quatre focus groups ont été réalisés. Chacun comprenaitsix participants, à l'exception du deuxième groupe de non-usagers où seules cinqpersonnes ont répondu présent. Les quatre groupes étaient répartis de façonégale entre usagers et non-usagers de l'internet, sans restriction particulièredans leur composition sociodémographique. Nous avons décidé d'y inclure desusagers et des non-usagers afin de surmonter la dichotomie entre eux etd'examiner les nuances et conditions déterminant la mobilité de chacun. Lenombre de groupes a été fixé en considérant le fait que l'étude devrait être aumoins documentée par plus d'un groupe d'usagers et de non-usagers de l'internet .Ici, la règle d'or qui stipule que « l'on devrait continuer de mobiliser denouveaux groupes jusqu' à ce qu'aucune information nouvelle ne soit apportée parle dernier groupe en date  » (Lunt, Livingstone, 1996  : 7) est difficilementapplicable, dans la mesure où chaque groupe possède sa propre identité et qu'uncertain nombre de nouveaux discours peuvent y être développés, en particulierlorsque l'échantillon des participants constitue un ensemble hétérogène etcontradictoire. Le choix d'un groupe comprenant six participants est conforme austandard des recherches exploitant ce type de méthodologie. Le recrutement desparticipants s'est appuyé sur l'enquête quantitative puisque nous avons demandéà tous les enquêtés s'ils consentaient à être interrogés en tête à tête plustard. Au total, plus de 300 enquêtés étaient d'accord pour participer aux focus groups, 24 ont été interrogés après avoir étésélectionnés suivant des critères de représentativité de la diversitésociodémographique. Plus précisément, les caractéristiques sociodémographiquesdes participants recrutés sont reportées dans le tableau ci-dessous  : Les entretiens ont été conduits en septembre 2007 et l'enregistrement audio a étéréalisé après accord de tous les participants. Afin de mieux organiser lesentretiens, un observateur a collaboré à la recherche, prenant des notes etrelevant toutes les interactions significatives. D'après nos résultats (voir les tableaux de synthèse en fin d'article), la qualitéde l'usage et les attitudes des usagers semblent étroitement liées auxmotifs d'utilisation des usagers et aux modalités particulières de leur viequotidienne. Les focus groups montrent que lesusagers grecs utilisent essentiellement l'ordinateur et l'internet à desfins professionnelles. Un sentiment de contrainte est plus particulièrementprésent parmi ceux qui utilisent l'internet seulement pour des raisonsprofessionnelles ou familiales. Il va de pair avec l' âge des enquêtés. Lespersonnes d' âge moyen ou avancé, telles Apostolos (homme de 44 ans ,fonctionnaire) et Ionna (retraitée de 72 ans) du groupe 1, ou Konstantina( administratrice de 55 ans) du groupe 2, utilisent l'internet pour faireface à des évènements de la vie quotidienne (par exemple, des changements denature familiale ou professionnelle), et limitent leur usage en ligne auxactivités qui leur semblent obligatoires ou utiles. Ces personnes seplaignent aussi bien de difficultés d'utilisation, avouant leur embarrasdans la compréhension de l'internet, que d'une absence d'intérêt. L' âgedevient un facteur particulièrement important lorsque ces usagers qualifientles médias de masse comme « les médias de [leur] génération  »  : « Apostolos. — J'ai dû apprendre à utiliser l'ordinateurpour mon travail, j'ai été force de le faire… ce n'est pas quelque chose quej'aime et c'est pour cela que je ne travaille jamais sur l'ordinateur à mondomicile. Ioanna. — Cela m'a pris beaucoup de temps à apprendre lesbases, les courriels, la recherche d'information et l'utilisation de commentcela s'appelle…ah, oui, Skype, où on peut entendre sa voix [son fils] etvoir son visage. J'avoue que ce sont les seuls usages que je fais, dans lamesure où il est difficile pour moi d'utiliser de telles machines. Je mesuis mise d'accord avec mon fils pour communiquer à certaines heures et cesont les seules fois où j'utilise mon ordinateur. Konstantina. —Écoutez, j'ai commencé à utiliser l'ordinateur et internet très récemmentcar mon entreprise a changé son système administratif mais j'ai desdifficultés et je n'imagine pas faire cela pour d'autres raisons queprofessionnelles ! Enquêteur. — Alors que vous utilisez destechnologies telles que la radio, la télévision, le téléphone… tous lesjours ? Konstantina. — Oui, j'y suis habituée, ce sont les médias dema génération  ». Les aléas de la vie sont étroitement liés à la décision d'utiliserl'internet, ils expliquent également les limitations d'un tel usage comme entémoignent les propos d'Agapi (décoratrice de 35 ans) du groupe 1 ,expliquant que les notions de « choix  » et d' « inclusion  » numériquessont souvent très floues  : « Je suis parfois frustrée par le fait que je ne peux pasl'éviter [internet ]. Mon cas est à la fois proche et éloigné du celui deIoanna dans la mesure où j'ai été contrainte d'utiliser internet pour desraisons professionnelles et non familiales. Lorsque j'ai démarré ma carrièrede décoratrice, j'ai reçu une formation et de l'information et j'ai acquisdes connaissances à partir de conférences, d'ateliers et de publicationsdans mon domaine… Toutefois, je me suis vite retrouvée à la traîne desdéveloppements… Je me suis rendue compte que, pour survivre, je devrais mefamiliariser avec l'état d'esprit dominé par l'internet  ». Petros (homme âgé de 19 ans au service militaire), du groupe 1, expliquecomment le service militaire lui impose des restrictions par rapport auxactivités et au temps passé en ligne. D'une certaine façon, les aléas de lavie et les activités quotidiennes semblent influencer l'éventail etl'ampleur des expériences en ligne des usagers. C'est ainsi que Pantelis( homme âgé de 25 ans, étudiant de maîtrise), informaticien ayant reçu unebonne formation, et Konstantina (administratrice âgée de 55 ans), femmeayant dû apprendre à utiliser l'ordinateur après ses 50 ans, appartenanttous les deux au groupe 2, se livrent à différentes activités en ligne ,utilisent l'internet dans différents cadres quotidiens et émettent despoints de vue contrastés sur le média et ses services  : « Pantelis. — J'utilise internet en tant que professionnel ,m'occupant du contenu d'internet et de la production de logiciels. Commeusager, je pense être impliqué dans la plupart des activités qu'un usagerpeut faire. Konstantina. — Oh, mon Dieu ! Cela semble beaucoup trop…désolée, vous êtes un professionnel, d'accord, mais comment pouvez -vousfaire toutes ces activités pendant votre temps libre ? Imaginez quej'utilise internet seulement dans mon lieu de travail pour envoyer descourriels et chercher de l'information et cela prend déjà tellement detemps…  ». Sur la question des craintes à l'égard de l'internet, l'inquiétude face auxrisques en ligne et les moyens de s'en protéger vont varier fortement entreles usagers et vont strictement dépendre de leurs compétences, de leursconnaissances, de leur sensibilité et de leur sens des responsabilités dansle contexte d'usage de la vie quotidienne. Le cas d'Eirini (femme âgée de 35ans, comptable) du groupe 2 est révélateur. Elle utilise l'internet autravail, seulement à des fins professionnelles, n'a pas de connaissance nid'intérêt particuliers en matière de sécurité informatique et n'a « même paspensé aux risques et dangers possibles  ». D'un autre côté, ceux quis'engagent dans un grand nombre d'activités en ligne au quotidien sont moinsconcernés par les risques encourus et sont plus confiants envers laprotection offerte par les outils de sécurité qu'ils emploient, comme lemontrent les propos d'Antonios (homme âgé de 44 ans, indépendant )  : « J'utilise tous les outils de sécurité nécessaires et jeles mets à jour très souvent. J'ajoute des nouveaux outils aussi souvent quenécessaire et j'essaye d' être toujours informé sur les risques de sécuritéet les types d'attaques. Jusqu' à présent, tout au moins, je n'ai pas étéattaqué par des virus et ni mon travail ni mon équipement n'ont étéendommagés  ». Dans les deux groupes d'usagers, on retrouve à la fois des internautescompétents avec un niveau de connaissances techniques avancé et d'autres quile sont moins et dont l'usage est restreint. Les premiers sont méfiants etinvoquent des arguments liés aux risques d'internet et à la sécurité enligne, les seconds en appellent à des discours paniqués à l'égard des médiaset mobilisent des références abstraites par rapport au « réel  », laissantcroire que ce qui est « en ligne  » est « irréel  »  : « Eirini (femme âgée de 32 ans, comptable, groupe 2). — Sije parle de mon cas particulier, pourquoi perdrais -je mon temps devant unécran pour faire des choses que je peux faire d'une façon plus “réelle” ?Pantelis (homme de 25 ans, étudiant de maîtrise, groupe 2) (il interrompt). — Vous avez tort….il y a certaineschoses que l'on fait en ligne et qui ne peuvent pas se faire autrement, ousi vous les faites hors ligne, alors cela vous coûtera plus cher ou prendraplus de temps ou les deux à la fois  ». Dans le même esprit, les usagers soutiennent que le rôle de l'internet dansleur vie est déterminé par les finalités de son utilisation. Plusieursusagers du groupe 1 soulignent que l'internet est surtout important à desfins professionnelles tandis que Stefanos (homme âgé de 32 ans, analystefinancier) affirme qu'il joue un rôle important dans la plupart de sesactivités quotidiennes. Stefanos est critique à l'encontre de ceux qui fontvaloir que l'internet n'est pas important dans la vie quotidienne, alorsqu'Ionna (retraitée âgée de 72 ans), la moins expérimentée de tous, sepositionne en dehors du groupe  : « Stefanos. — C'est incroyable comment les gens ont réussi àgarder internet en dehors de leur vie, l'utilisant seulement pour letravail. Dès que j'ai commencé à utiliser internet, j'ai commencé àapprendre, faire des choses et à passer de plus en plus de temps en ligne .C'est devenu une composante essentielle de mon travail, de ma communication ,de mon information et oui, de mon divertissement. Ioanna. — Je suisimpressionnée ! Je vous remercie de m'avoir invitée à cette réunion, sinonje pourrais penser que mon fils est le seul à considérer internet commeimportant (rires )  ». Les usagers déclarant ne pas avoir choisi d'utiliser volontairementl'internet mais le considérant toutefois comme étant utile dans leursactivités quotidiennes (le travail, par exemple), font valoir qu'il pèse ,essentiellement négativement, sur l'utilisation d'autres médias, de même quesur les horaires et les rythmes de vie  : « Agapi (décoratrice de 35 ans, groupe 1). — J'ai moins detemps maintenant que j'utilise internet, moins de temps pour aller aucinéma, pour regarder un documentaire ou un film à la télé, moins de tempsou pas de temps pour lire des revues, moins de temps pour bavarder avec lesamis au téléphone. Je suppose que c'est le prix à payer pour la réussiteprofessionnelle, n'est-ce-pas ? (rires )  ». Sur un plan démographique, les jeunes usagers apprécient l'internet pour sesfinalités d'usage non professionnelles, mettant l'accent sur lespossibilités offertes de communication et de distraction. Au contraire, lesplus âgés, n'utilisant pas l'internet dans de nombreuses situations et quine sont pas des adeptes fanatiques, s'en défendent et expliquent qu'ils sesentent « forcés  » à l'utiliser  : « Myriam (femme de 27 ans, étudiante de maîtrise, groupe 1) .— J'apprécie beaucoup personnellement, surtout quand je télécharge des trucssuper, comme tout est gratuit (rires). Il y a aussila possibilité d' être en contact avec des amis qui sont partis pour lesétudes ou le travail. Petros (homme de 19 ans, au service militaire ,groupe 1). — Oui, je suis d'accord avec Myriam. Lorsque j'ai la possibilitéde faire une pause et de quitter le camp pendant un petit moment, internetest une bonne façon de dire  : “Salut tout le monde, je suis de retour à lavie !” Agapi (décoratrice de 35 ans, groupe 1). — Je pense que jesuis la seule qui se sent forcée. C'est amusant, les gens disent que moinstu veux quelque chose, plus cela arrive (rires) .Ioanna (retraitée de 72 ans, groupe 1). — Je te comprends (rires). Au moins, tu l'utilises pour ton travail ,c'est utile. En plus, tu es instruite et tu as le temps [par rapport àl' âge] de tout apprendre. Je m'efforce et je l'utilise en raison de monfils  ». Comme l'indique le tableau 3 (voir en fin d'article), les traces derésistance à l'usage de l'internet méritent d' être observées et rapportéesaux contextes, valeurs et priorités de vie quotidienne de chacun. La notionde besoin, ou plutôt du manque de besoin, comme raison de l'absence d'usage ,prédomine dans le discours des non-usagers. Elle doit être appréhendée à lalumière d'un contexte quotidien riche et diversifié, les enquêtés seréférant à leurs activités personnelles quotidiennes ouprofessionnelles  : « Antonia (femme de 33 ans, indépendante, groupe 3). — Jetravaille beaucoup, je suis indépendante et je n'ai pas besoin d'internetpour mon travail. Je préfère passer mon temps libre avec ma famille ousortir. Mara (femme au foyer de 45 ans, groupe 3). — En raison dumanque de temps. Je ne travaille pas en dehors de la maison mais c'estdifficile d' être femme au foyer. D'ailleurs, je ne vois pas pourquoij'utiliserais internet. Je veux dire que je n'ai aucune raison de m'enservir. C'est pour les jeunes ou ceux qui en ont besoin au travail, ce n'estpas pour les femmes au foyer  ». Autre justification rencontrée  : l'absence de formation à l'usage del'internet. Bien qu'ils notent le rôle croissant de l'internet dans la viedes individus, les non-usagers en parlent comme si cela était complètementdissocié de leur propre vie et de leurs activités courantes. D'ailleurs ,certains non-usagers vont plus loin, soulignant l'importance de préserverl'ordre habituel de la vie par la résistance aux technologies telles quel'internet. Ce dernier est alors qualifié de « fardeau  » mais aussi de« souci  », les parents se disant inquiets de son impact sur leursenfants  : « Anna (enseignante de 38 ans, groupe 4). — Je n'ai pas laconnaissance ni les compétences pour utiliser internet mais je pourraifacilement avoir une formation pour commencer à l'utiliser. Je n'en ai pasbesoin et je ne veux pas être dépendante de toutes ces nouvelles merveillestechnologiques qui trompent les gens. C'est quelque chose que je voudraisenseigner à mes enfants mais je ne pense pas qu'ils seront dans une positionpour résister  ». L'impact perçu du non-usage sur la vie quotidienne varie selon lesnon-usagers. Il y a tout d'abord ceux qui disent ne pas avoir besoin et nepas vouloir utiliser l'internet, soutenant que le non-usage n'aurait pas deconséquences importantes sur leur vie  : « Euh… pas vraiment, je ne pensepas que ma vie changerait si j'utilisais internet  » (Maria, femme au foyerâgée de 45 ans, groupe 3). Ensuite, des personnes intéressées par l'internetet qui souhaiteraient devenir de futurs usagers, mettent l'accent surl'impact négatif du non-usage sur la vie des gens  : « Même pour vous[ Maria ], je pense qu'internet pourrait changer votre vie d'une certainefaçon  » (Andreas, homme âgé de 50 ans, médecin, groupe 3). On trouve enfinceux qui adoptent une position relativement neutre et considèrent quel'internet pourrait les aider tout en s'inquiétant des compétences requiseset des risques liés à son usage, comme Evangelia (femme de 29 ans ,propriétaire de magasin, groupe 4 )  : « Même si je ne connais pas grand-chose en matièred'internet, je me rends compte des avantages qu'Ioannis a mentionnés. Jepourrais trouver sur internet davantage de fournitures et à des meilleursprix pour mon magasin, n'est -ce pas ? Je pourrais trouver des nouvellestendances et des idées sur comment renouveler mon magasin. Toutefois, vousavez besoin de connaître comment internet fonctionne, n'est -ce pas ? Je nerisquerais pas d'aller sur internet et d'acheter des choses en ligne sansque quelqu'un me conseille. Je dis cela car on entend souvent des gens quiachètent des choses et perdent de l'argent en achetant en ligne avec leurcarte de crédit  ». Il est intéressant de noter que les non-usagers ayant des enfants considèrentque l'impact du non-usage sur leur vie est lié à leurs enfants et à l'usagefutur de l'internet par ces derniers. L'impact sur les enfants est doncperçu comme faisant partie intégrante de la vie des parents, dans la mesureoù ces derniers pensent qu'ils devraient contrôler les activités de leursenfants en se familiarisant avec l'internet. La manière selon laquelle le paramètre « besoin  » est façonné dans lescontextes individuels de vie est importante non seulement par rapport àl'usage ou non-usage, mais aussi pour l'évaluation des potentialitésd'usages futurs des non-usagers, comme le font apparaître les argumentsdéveloppés par les non-usagers du groupe 3  : « Enquêteur. — Dans quelle mesure êtes -vous susceptibled'utiliser internet, si c'est le cas ? Antonia (femme âgée de 33 ans ,indépendante). — Si quelque chose changeait radicalement dans ma vie… euh…Je ne vois rien d'autre… Maria (femme au foyer âgée de 45 ans) (interrompt). — Si je n'avais pas toutes cesresponsabilités familiales… peut-être… J'ai pensé à un moment donné assisterà des séminaires de formation d'internet, des séminaires financés par l'UEqui pourraient m' être utiles, m'apporter de l'argent grâce à ce nouvelapprentissage (rires )… mais je ne pouvais pas yarriver…trois enfants…de grosses responsabilités  ». La probabilité d'un usage futur va de pair avec le désir d'utilisation desnon-usagers et leur attitude globale à l'égard de l'internet. Lesnon-usagers qui le perçoivent comme un moyen d'information et decommunication positif sont susceptibles de devenir des futurs usagers; lesnon-usagers qui ont une opinion défavorable au sujet de l'internet ou qui nele connaissent mal affirment qu'il y a peu de chance qu'ils deviennentinternautes. En outre, le souhait de devenir de futurs internautes traduitdes attentes et des appréciations contrastées de l'internet et de sa valeurdans le contexte de la vie quotidienne. Le dialogue ci-après entre lesmembres du groupe 3 illustre comment les différentes priorités de vie desnon-usagers déterminent leur compréhension et leur jugement surl'internet  : « Enquêteur. — Vous voulez dire que vous n'utilisez internetqu' à des fins professionnelles ? Andreas (homme âgé de 50 ans ,médecin). — Oui, je n'ai pas le temps et ce n'est pas pour moi, comme dechatter par exemple. Enquêteur. — Que voulez -vous dire par « ce n'estpas pour moi  » ? Andreas. — Je suis une personne occupée avec unefamille et j'ai mieux à faire que de surfer ou de chatter. Dimitrios( étudiant de 18 ans) (interrompt). — Pour moi ,chatter, jouer des jeux en ligne … vous savez, toutes ces choses “stupides ”pourraient être “sympas ”, cela pourrait me relaxer et… vous savez, celaserait chouette, très chouette. Konstantinos (plombier de 62 ans) (interrompt). — Chatter, jouer en ligne… C'estpour les jeunes, pas pour nous  ». Ce dialogue montre que l' âge constituerait un frein dans l'usage futur del'internet parce qu'il influence à la fois l'intérêt qu'on lui porte et laprobabilité de devenir internaute. Ainsi l'ensemble de ces discoursconfirme -t-il des formes culturelles de résistance et de non-réceptivité ,telles que présentées dans notre introduction du contexte grec, et leur rôlecomplexe dans l'adoption de l'internet, confirmant les résultats del'enquête précédente. Plus particulièrement, les focusgroups ont montré que ces facteurs se traduisent chez les personnesinterrogées par des paramètres comme le « besoin  », l' « apprentissage  » etles « motivations  », éléments moteurs étroitement associés aux priorités ,attitudes et perceptions envers la vie quotidienne des non-usagers. À cetégard, il convient de souligner le rôle joué par la profession, les étudeset l'environnement familial, avec des parents qui cherchent par exemple à sefamiliariser avec l'internet dans le but de protéger leurs enfants desrisques liés à son usage. Par ailleurs, les usagers ont choisi l'internet defaçon soit volontaire, soit forcée. Dans ce dernier cas, ils restreignentdrastiquement leurs usages tout en justifiant l'esprit « résistant  » deleurs attitudes par l'existence de circonstances, de priorités et de valeursde la vie. Ainsi seuls les usagers qui apprécient le rôle de l'internet etl'utilisent volontairement sont-ils impliqués dans des activités créativeset de divertissement sur ce support. L'éloignement des membres de sa familleconstituerait également une forme d'incitation à l'usage, surtout chez lespersonnes âgées (Ionna par exemple), mais l'intégration de l'internet dansla vie des gens ne peut se construire qu'avec le temps et un usage plusavancé. Ces résultats éclairent de manière empirique la littérature scientifique quis'appuie sur une approche socioculturelle de la technologie et de sesusages. Traditionnellement, nombre de publications mettent l'accent surl'enracinement de la technologie dans son contexte socioculturel, etnotamment la construction sociale de la technologie et les théoriescritiques de la technique d'Andrew Feenberg (1991, 1995, 1999), les étudesculturelles et linguistiques (Woolgar, Grint, 1997), la sociologiephénoménologique et « le monde de la vie  » d'Alfred Schütz (2003; Schütz ,Luckmann, 1974), et la Théorie critique de la viequotidienne d'Henri Lefebvre (1991). Ces approches se concentrentsur différents éléments d'intégration sociale de la technologie, tels quel'influence des usagers sur la conception des outils, l'insertion dans lavie quotidienne, la capacité interprétative des usagers et lessignifications multiples qu'ils peuvent lui assigner, parmi d'autres aspectsde la vie. Elles constituent un vaste ensemble d'arguments qui soutiennentle rôle de l'action humaine et sociale sur la manière dont la vie en généralet la technologie en particulier évoluent et nous préoccupent, fournissantainsi des sujets de discussion qui peuvent tirer bénéfice d'approchesempiriques telles que la notre. Les idées apportées par les focus groups confirment le rôle des facteurssocioculturels dans la manière dont la technologie est adoptée et exploitée .Cette dernière ne peut pas être vue en dehors de son contexte socioculturel ,ce qui signifie qu'il faut principalement soutenir une approchesocioconstructiviste. Dans notre étude, les focusgroups identifient la vie quotidienne et la culture de résistancecomme principaux facteurs socioculturels en Grèce. À cet égard, la notion de« vie quotidienne  » est très proche du « monde de la vie  » d'Alfred Schütz( voir supra). Malgré les critiques acerbes expriméesà l'encontre du techno-déterminisme de la société de l'information et lesrecherches considérant les tic et l'adoption de l'internet dans uneperspective socioculturelle (Robinson, 2010; Selwyn, 2003, 2006; Selwynet al., 2005), des travaux manquent pour analyserla culture sociale dans une perspective historique et nationale. De nouveauxéclairages empiriques permettent de saisir comment l'emprise sociale etculturelle de la technologie peut être transférée dans des contextesparticuliers et peu étudiés, comme celui de la Grèce. Sur un plan pluspragmatique, les résultats de notre étude – auxquels s'ajoute la situationgénérale de la Grèce située presque au bas du classement des pays membres del'ue – ne se contentent pas seulement de faire état d'un développement àplusieurs vitesses de la société de l'information en Europe. Ils plaidentégalement pour la nécessité d'aller au-delà des actions politiques et desréglementations qui ne s'intéressent qu' à des questions relatives à l'accèset à l'exclusion numérique. S'ils veulent réussir à harmoniser la société del'information en Europe, les pouvoirs publics devraient adapter leurspolitiques pour ne pas uniquement traiter des questions liées à l'absenced'usage comme conséquence d'un manque intrinsèque d'accès. Ils devraient aucontraire chercher à comprendre pourquoi et comment les tic peuvent êtreutilisées dans des contextes quotidiens et culturels différents, en tenantcompte de la forte diversité existant au sein de l'ue. Le recours à une méthodologie mixte (approches quantitative et qualitative) apermis d'analyser le caractère complexe des fractures numériques selon plusieursperspectives, et de structurer une recherche dans laquelle les attitudes et lesfigures comportementales des populations sont rapportées à des paramètrescontextuels et analysées à travers les processus de construction de sens quimodèlent ces fractures. Écartant l'idée que le qualitatif devrait précéder lequantitatif (Bryman, 1984  : 84), les focus groups permettent d'analyser la cohérence et la qualité de certains résultats del'enquête quantitative. C'est ainsi que, selon les résultats de l'enquête, lamajorité des usagers sont-ils impliqués dans un nombre restreint d'activités enligne, utilisent-ils des lignes téléphoniques commutées et constituent-ils unepart infime des nouveaux usagers. Il en ressort également que la qualité del'usage est en partie influencée par l'appréciation du rôle de l'internet dansla vie quotidienne. Les focus groups ont montré plusspécifiquement que le choix personnel et l'intégration de l'internet dans un ouplusieurs domaines de la vie quotidienne avaient un impact significatif surl'ampleur de l'usage, le temps passé, les activités effectuées, de même que surles attitudes à l'égard de l'internet. En revanche, l'enquête a révélé que lesfacteurs déterminant l'usage, comme les caractéristiques démographiques, lesmodes d'utilisation et la sécurité informatique sur l'internet, jouent un rôleimportant sur la manière dont les usagers évaluent la place de l'internet dansla vie courante. Sur ce dernier point, les focus groups semblent montrer que son rôle dans la vie des usagers est d'abord déterminé pardes objectifs d'usage. Alors que la plupart des internautes utilisent l'internetà des fins professionnelles, les focus groups ont permisde montrer que si certains l'utilisent de leur plein gré, d'autres s'y sentent« forcés  ». Les premiers s'engagent dans une grande variété d'activités enligne et intègrent l'internet dans leur vie; les seconds contestentl'impossibilité de choisir de ne pas l'utiliser et conditionnent son usage à unedemande préalable. Ainsi la « résistance  » comme le « rejet  » font-ils figuresde paramètres significatifs non seulement pour l'usage en soi, mais aussi pourla qualité et le niveau d'adoption de ce dernier, deux paramètres fondamentauxici. Enfin, les circonstances, les priorités et les valeurs de la vieconstituent autant de paramètres décisifs dans la formation spécifique de tellesattitudes « résistantes  » et fonctionnent selon deux directions  : commefacteurs favorisant ou contraignant l'usage de l'internet et comme facteursfacilitant ou entravant son usage avancé et son intégration dans les activitésquotidiennes. Concernant les non-usagers, l'enquête quantitative a révélé l'existence d'une« culture de rejet  » en Grèce, dans la mesure où la plupart des non-internautesaffirment une absence d'intérêt et de perception de besoin. De surcroît, elle amontré que la décision d'usage dépend directement de la disponibilité del'internet, de l'usage de l'ordinateur et de caractéristiques démographiques ,mais pas, du moins directement, de l'appréciation du rôle de l'internet dans lavie quotidienne. Le recours aux focus groups a permis dedémêler la complexité de ces résultats. D'une part, ces groupes de discussionont confirmé les conclusions de l'enquête quantitative, montrant que l'absencede besoin mène à une absence d'usage. D'autre part, lorsqu'ils signalent cetteabsence de besoin, les non-usagers font surtout référence au travail et auxdomaines d'étude de tous les jours qu'ils considèrent prioritaires. En mêmetemps, certains ont fait valoir d'autres facteurs comme le manque de formation ,de motivation et de stimulation. Ainsi les paramètres liés au « besoin  », à« l'apprentissage  » et à « la motivation  » ont-ils été évoqués, mais ilsdoivent être entendus dans le contexte du quotidien, dans la mesure où lesnon-usagers les associent étroitement à leur vie et leurs priorités. Cesrésultats ne contredisent pas forcément ceux de l'enquête qui ne révèle aucunlien direct entre la vie quotidienne et l'usage de l'internet. Toutefois, nousne sommes pas en mesure d'évaluer les relations entre de tels paramètres et lesfacteurs d'usage identifiés comme étant significatifs par l'analyse quantitative( disponibilité de l'internet, usage de l'ordinateur et caractéristiquesdémographiques). En dernier lieu, concernant l'attitude des non-usagers parrapport à l'internet, les focus groups confirment lesrésultats de l'enquête quantitative selon lesquels, sans se soucier de l'opiniongénéralement positive qu'ils peuvent avoir du support, la plupart desnon-usagers expriment pourtant des inquiétudes par rapport à son impact sur leurpropre vie quotidienne  : ils le qualifient parfois de « fardeau  » ou de médiapotentiellement dangereux, surtout pour leurs enfants. D'un point de vue méthodologique, il s'est agi de justifier l'importance de larecherche qualitative pour compléter, enrichir et croiser les résultatsquantitatifs obtenus précédemment. Bien qu'une méthodologie mixte coure lerisque d'obtenir de multiples données menant à des conclusions incompatibles etcontradictoires, le but de notre projet était d'identifier des facteurssignificatifs sur l'adoption de l'internet en Grèce, en complétant et entriangulant chaque catégorie de données. Dans ce type de recherche qualitative ,liée aux technologies de l'internet et à des caractéristiques socioculturellescomplexes, les méthodes quantitatives sont en grande partie insuffisantes etparfois inadéquates. Ainsi les arguments ici développés peuvent-ils servird'exemple pour d'autres recherches sur le non-usage des tic qui souhaitentdépasser les données quantitatives et explorer des facteurs profondémentenracinés, non aisément observables ni explicables. Ravivant les héritages etanalysant les tendances du contexte grec, il y dessine les évolutions récentesde la société de l'information. Les statistiques montrent que les chiffres-cléde la diffusion de l'internet en Grèce sont au plus bas, amenant la recherche às'intéresser aux paramètres et aux dynamiques d'adoption de l'internet. Lesévocations historiques ont rappelé les relations de clientélisme et les réseauxde patronage dans le pays qui ont probablement contribué à rendre passive lasociété civile et à développer des attitudes de résistance au développementtechnologique (Mouzelis, 1986; Petmesidou, 1996; Voulgaris, Sotiropoulos ,2002; Venieris, 1996, 2003). Les sujets interrogés lors des focus groups ont chacun souligné le rôle primordial des circonstancesde la vie quotidienne, du manque de motivations et de formation, et ont expliquél'absence d'adoption de l'internet en rapportant leurs attitudes à l'égard de latechnologie dans un contexte quotidien de résistance où importent l'identité ,les habitudes, les besoins et les intérêts. Ces résultats font de la Grèce uncas particulièrement intéressant car si, généralement, la littératurescientifique souligne l'enracinement de la technologie dans l'environnementsocioculturel, elle s'intéresse avant tout aux questions d'utilité et deconception des outils, délaissant les héritages historiques et les facteursidentitaires, lesquels perpétuent des caractéristiques culturelles et destraditions au niveau de la société telles que la résistance au changement. Lapromotion d'une harmonisation de la société de l'information au sein de l'Europegagnerait à ce que les autorités politiques ne traitent pas seulement desquestions de développement technologique et d'accès aux tic mais essayent decomprendre comment et pourquoi elles doivent être utilisées dans desenvironnements quotidiens et culturels divers, cette diversité culturelles'exprimant fortement dans l'ensemble de l'ue. Aujourd'hui, il est significatifque la Grèce soit toujours placée dans le bas du classement de la société del'information au sein de l'Europe des vingt-sept et possède encore l'un des plusbas taux européen d'adoption de l'internet, bien qu'il progresse lentement( European Commission, 2010; Observatory for the Greek Information Society ,2008). Des recherches qualitatives étendues peuvent et doivent encore êtreengagées sur ces questions, en envisageant d'autres caractéristiques et facteursd'adoption tels que le rôle de l' État et de ses politiques en lien avec laculture et la vie quotidienne .
Il sera fait état des principales raisons invoquées chez les usagers et les non-usagers de l'internet en Grèce pour expliquer le choix d'utiliser ou non ce support. Mobilisant la méthodologie du focus group, la recherche constitue la phase finale d'une méthode d'analyse mixte, articulée selon un tryptique empirique et prolongeant plus particulièrement une enquête quantitative de grande envergure. Elle démontre que les paramètres liés au « besoin », à l'« apprentissage » et à la « motivation » sont les éléments moteurs du non-usage. Ces paramètres doivent être appréhendés à travers le prisme du quotidien car ils sont étroitement associés au déroulement et aux priorités de la vie des non-usagers. Ils structurent l'attitude résistante des non-usagers et leur décision de ne pas adopter consciemment l'internet, tandis qu'ils contestent des arguments fondés sur l'exclusion et le manque d'accès. À l'inverse, les usagers choisissent de recourir à l'internet soit de leur plein gré, soit parce qu'ils y sont contraints. Dans ce dernier cas, ils restreignent drastiquement leur usage, rapportant ainsi leurs attitudes « résistantes » à un usage avancé de l'internet, à leur environnement de vie et à leurs priorités et valeurs. Nous présentons également des réflexions méthodologiques sur la façon dont la technique du focus group enrichit, renforce ou tempère les résultats fournis par l'enquête quantitative.
sciencesInfo_11-0395856_tei_1057.xml
termith-476-communication
Le document numérique se met au service du domaine éducatif. En effet, dans le contexte de l'e-learning, la multiplication des solutions logicielles et l'augmentation exponentielle des documents numériques diffusés sur le web sont devenues des préoccupations importantes. Plus que jamais le problème de l'interopérabilité se pose, et la nécessité de recourir à des systèmes de caractérisation et de description communs dans le domaine de l'information pédagogique devient évidente. Le rejet des formats propriétaires et la stabilité dans le temps (pérennité des développements) sont possibles grâce à l'utilisation et la conformité à des spécifications ouvertes n'excluant pas la possibilité de développements spécifiques (indépendance). Celle qui est actuellement en cours d'élaboration dans ce domaine est le LOM (Learning Object Metadata). Il facilite, par une caractérisation assez complète, l'indexation, l'accès et la réutilisation des documents pédagogiques. Certaines interactions pour la personnalisation sont possibles en utilisant les techniques de fragmentation et de recomposition de document comme les documents virtuels personnalisables (Michel et al., 2002). D'autres, beaucoup moins développés, utilisent une meilleure prise en compte de l'apprenant par le biais de l'évaluation de ses connaissances. Nous ne présenterons pas ici une argumentation didactique ou pédagogique de l'évaluation comme soutien au processus d'apprentissage. Nous nous attacherons, au travers des expériences développées dans les systèmes tutoriels intelligents, à expliquer comment ce processus a été utilisé pour rendre ces systèmes interactifs; puis comment, par l'usage de la spécification IMS-QTI (Question & Test Interoperability) il peut être utilisé assez directement et en complément du LOM pour caractériser et décrire des ressources numériques pédagogiques. Comme le souligne Erik Duval, « En ce qui concerne le partage et la réutilisation des documents éducatifs numériques, il paraît clair que les métadonnées faciliteront l'identification et le téléchargement de documents pertinents. » (Duval, 2001). Les contraintes de production de document numérique dans le système éducatif sont généralement liées à la complexité des fonctionnalités des systèmes dans lesquels ils sont utilisés. Comme nous l'avons vu ci-dessus, pour les plates-formes d'enseignement à distance, le développement à grande échelle dans des environnements techniques différents nécessite d'avoir des ressources caractérisées de manière universelle. Dans les systèmes tutoriels intelligents (STI) le besoin est différent. La variété des tâches proposées et la grande adaptabilité des systèmes nécessite de disposer de ressources pédagogiques définies de manière extrêmement fine. A l'heure actuelle, les fonctionnalités proposées par ces deux types de systèmes sont complètement différentes. Si comme nous le supposons, le développement technique des plates-formes suit celui des STI deux besoins fondamentaux vont émerger pour la caractérisation des documents numériques en contexte éducatif, à savoir : définir formellement très précisément les ressources pédagogiques utilisées, et le faire selon une norme de manière à en faciliter l'échange et l'accessibilité. Pour comprendre pourquoi nous supposons cette évolution et quelles seront les nouvelles fonctionnalités qui pourront être développées dans le cadre des plates-formes, nous commencerons donc par présenter une description fonctionnelle de l'évolution des STI. L'enseignement assisté par ordinateur (EAO) est apparu dans les années 50. A cette époque il se présentait sous la forme d'un système préprogrammé de succession d'écrans (frame). Certains de ces écrans contenaient des tests d'évaluation (questions-réponses de type vrai/faux ou à choix multiples) permettant au système de tester que les leçons présentées avaient été assimilées. Ainsi a été créé le premier processus très limité d'interaction entre l'apprenant et le système. Plus généralement, l'évaluation se présente sous différents aspects : l'évaluation diagnostique qui est mise en œuvre en début de formation permet de définir des parcours individualisés; l'évaluation formative a lieu avant et pendant le cours de manière à effectuer des ajustements si nécessaire. Le formateur et l'apprenant sont tous deux informés des étapes ou paliers franchis (modification sur l'action pédagogique). A ce titre, l'évaluation formative joue un rôle de régulation et d'aide à l'apprentissage; l'évaluation sommative est une pratique d'évaluation qui mesure des acquis d'un apprenant en fin de formation. « On fait la somme de ces acquis » (Hadji, 2000). C'est cette évaluation qui souvent permet l'obtention d'un diplôme ou certificat. Ces systèmes ont évolué vers les systèmes dits adaptatifs capables de générer du matériel didactique selon le comportement global de l'apprenant. Il s'agit des systèmes dits intelligents (EIAO 1 ou STI) qui ont réellement permis, grâce à des techniques d'intelligence artificielle, de créer un processus complètement interactif adapté à l'apprentissage de l'apprenant. Plusieurs types de systèmes ont été recensés (Nkambou, 1996) : les STI socratiques fonctionnent à l'aide d'un dialogue avec l'apprenant (dialogue socratique, question/réponse). Ils sont très appropriés pour présenter des informations factuelles, l'apprentissage de règles et de principe ou l'apprentissage de stratégies de résolution; les STI procéduraux sont utilisés – au travers d'exemples, exercices et problèmes – pour enseigner les procédures nécessaires pour accomplir une tâche; les STI démonstrateurs imitent ou simulent un phénomène dans le but de l'enseigner à l'étudiant. L'interaction intervient dans la mesure où l'apprenant a la possibilité de pratiquer dans un environnement « réel »; les environnements interactifs d'apprentissage et les systèmes hypermédias permettent à un étudiant d'apprendre tout en explorant de manière guidée ou libre, l'objet d'apprentissage qui est simulé. On parle d'apprentissage par la découverte; les systèmes critiques ont pour but de guider l'apprenant dans la résolution de problèmes, en particulier pour les problèmes de conception, dans le but de l'amener vers une solution correcte; les systèmes sociaux font intervenir des agents externes : par exemple un autre étudiant (ou plusieurs) ou encore un autre enseignant (ou plusieurs) pour communiquer avec l'apprenant pendant la résolution du problème. Dans tous les cas, ces systèmes s'appuient sur la réelle nécessité de formaliser ou représenter : la matière à enseigner, l'apprenant et les stratégies pédagogiques. Roger Nkambou préconise de définir formellement toutes les ressources (au sens large) nécessaires à une activité pédagogique dans un curriculum qui est « une représentation structurée de la matière à enseigner en terme de capacité 2 (capabilities) au sens de Gagné, d'objectifs dont la réalisation contribue à l'acquisition de capacités et de ressources didactiques (exercices, problèmes, démonstrations, vidéos, simulations, etc.). Tous ces éléments sont organisés dans des structures de connaissances destinées à soutenir l'enseignement d'une matière. » (Nkambou, 1996). Le cours, à proprement parler, est l'ensemble des ressources choisies pour présenter une matière ou un savoir. Il est défini soit par des objectifs d'enseignement (ou d'apprentissage) ayant une finalité précise et/ou par un ensemble de connaissances que l'étudiant doit acquérir. Une interface adéquate permet de personnaliser la présentation du cours à l'étudiant selon son profil. C'est un document structuré (Nkambou, 1996) selon trois parties : une partie descriptive, un graphe de cours et une partie structurelle. Le graphe et la partie structurelle sont des ressources de type opérationnel (programme, ontologie…) que nous ne traiterons pas ici. La partie descriptive comprend : le titre du cours; sa description, on utilisera des critères comme appariement, conclusion, description (liste non exhaustive) pour renseigner la description; une finalité (correspondant au but ultime d'un cours); un ensemble d'objectifs dans lesquels l'enseignant exprime son intention pédagogique : acquisition, compréhension, application, analyse, synthèse et évaluation 3. A chaque catégorie est associée une liste de verbes d'action décrivant le comportement rendu possible par l'atteinte de l'objectif; un ensemble de thèmes ou sous-thèmes correspondant à un élément du contenu de la matière à enseigner. Un ou plusieurs objectifs spécifiques et opérationnels peuvent être définis en fonction des capacités que l'on veut faire acquérir à l'étudiant. Il n'existe pas à l'heure actuelle de norme pour la construction, l'utilisation ou les critères de caractérisation des fragments de document pédagogique. Il existe cependant un standard pour les métadonnées de caractérisation; le LOM (Learning Object Metadata) et un modèle d'organisation des ressources : le Content Packaging. Les systèmes de type plate-forme pédagogique s'appuient sur des techniques de travail collaboratif, où des processus communicationnels et de travail à plusieurs viennent soutenir un enseignement plus traditionnel proposé par la fourniture de supports de cours et de ressources informationnelles externes : forums, chats, tableaux blancs partagés, usage du courrier électronique, gestion des annotations personnelles, agenda des activités… L'objectif est de pallier la perte de cohésion et de stimulation de la salle de classe que peut ressentir l'étudiant seul devant sa machine. L'usage est relativement standard, ainsi les plus-values qui vont permettre de discriminer les systèmes tiennent, outre l'ergonomie et le design de l'interface, non seulement à la qualité et la diversité des supports de cours proposés, mais aussi à la dynamique et à l'aide du tuteur et de l'environnement de collaboration. De plus en plus, les systèmes permettent de gérer des modules interactifs, souvent externes, permettant de faire l'évaluation en ligne des connaissances acquises. Généralement, le recours à l'évaluation peut être envisagé sous la forme d'autotests avec feedback accompagnant le cours, et d'indications sur les points de cours à revoir éventuellement. Ces évaluations peuvent être diffusées avant le cours (évaluation diagnostique) comme c'est le cas dans l'enseignement des langues vivantes ou pour la bureautique (organisation de groupes de niveau ou détermination du cours à suivre), ou après le cours (évaluation sommative) pour l'obtention d'un diplôme ou certificat comme c'est le cas pour le PCIE (passeport de compétences informatique européen). L'apprenant suit chacun des modules de manière indépendante et à son rythme. Tout au long de ce parcours individualisé l'apprenant a la possibilité de tester ses connaissances pour voir si les compétences de base dans l'utilisation quotidienne du poste de travail informatique ont été acquises. Il passe librement et autant de fois que nécessaire les évaluations jusqu' à aboutir à la certification 4. Le développement des technologies, la banalisation de l'équipement informatique et des contraintes économiques ont facilité le recours massif des établissements à ce type d'enseignement. Cette activité est en pleine expansion. Face à ce développement accéléré, la question du contenu est très vite apparue car il faut alimenter ces « machines à jouer du contenu pédagogique » qui souvent sont fournies vides. De manière à gérer des ressources économiquement rentables, une double contrainte forte apparaît : caractériser de manière fine ces ressources de manière à les exploiter dans le plus grand nombre de contextes; que ces systèmes soient simples comme les plates-formes actuelles, ou plus évolués comme les STI. L'utilisation la plus triviale concerne la personnalisation de l'affichage selon la langue de l'apprenant. Moins trivialement et en utilisant des techniques de fragmentation, les cours peuvent être considérés comme des documents virtuels personnalisables s'adaptant au profil de l'apprenant grâce à des hypermédias adaptatifs dynamiques utilisant des bases d'objets pédagogiques. On trouvera des exemple de systèmes de ce type dans (Chabert-Ranwez, 2000) et (Delestre, 2000); respecter des normes de caractérisation communes. La solution technique communément admise consiste à regrouper l'ensemble des données dans des packages, normalisés dans leur architecture. Pour illustrer ces techniques, nous présentons dans la suite de cet article un exemple très simple de personnalisation non dynamique (Rouissi et al., 2003). Avant de présenter ces techniques en détail, observons leur genèse. Créé en 1988, l'AICC (Aviation Industry CBT – Computer Based Training-Committee) (AICC, 2003) est l'organisme chargé de la formation assistée par ordinateur pour l'industrie aéronautique. Cette dernière, internationale, a depuis longtemps comme souci l'interopérabilité et les volumes très importants de la documentation ont rendu nécessaire une réflexion approfondie. Dans un contexte éditorial plus général la même réflexion a été menée et a permis de produire la norme de métadonnées du Dublin Core (Hillmann, 2001). Cet ensemble présenté en 1995 comprend quinze éléments optionnels et pouvant être répétés mais sans hiérarchie : titre, auteur, description, éditeur, autres collaborateurs, date, type de ressource, format, code d'identification de la ressource, source, langage, relation, portée, gestion des droits 5. L'organisme chargé du développement de ce standard est le Dublin Core Metadata Initiative (DCMI) 6. Le ministère de la Défense américaine et l'Office of Science and Technology de la Maison Blanche, pour leur part, avaient comme objectif principal de pouvoir réutiliser leurs ressources pédagogiques. Ils ont lancé le programme ADL 7 (Advanced Distributed Learning) en 1997 qui a produit en 1999 8 le modèle SCORM (Sharable Content Object Reference Model 9), modèle dans lequel la description des cours pouvait se faire à l'aide de « grains » ou de « fragments ». Parallèlement, en Europe avec le projet ARIADNE 10 (Alliance of Remote Instructional Authoring and Distribution Networks for Europe) la préoccupation, plus pédagogique, était de proposer une base commune de dépôt de documents pédagogiques à travers le Knowledge Pool System. L'Instructional Management Systems (IMS) Global Learning Consortium est un des groupes les plus actifs. Il a pour rôle essentiel de coordonner les travaux cités précédemment et d'informer la communauté des acteurs en diffusant des éléments d'information sur les spécifications, de manière à encourager le développement d'applications conformes. L'IMS, groupe de travail né en 1997, est composé de membres issus de l'éducation, d'entreprises et d'organisations gouvernementales. L'IMS a pour objectifs principaux de définir des spécifications techniques pour l'interopérabilité des applications et services de l'éducation distribuée et de supporter l'incorporation des spécifications dans les technologies du web. Ces spécifications doivent répondre à des principes de base : l'interopérabilité, l'accessibilité, la réutilisation, la pérennité, l'indépendance, la portabilité. Parmi les spécifications qui restent au niveau du contenu pédagogique sans nous préoccuper de la description de l'apprenant 11 nous pouvons citer : IMS-Meta Data Specification qui définit une structure d'éléments ou métadonnées utiles pour décrire les ressources pédagogiques. Cette dernière reprend le LOM (Learning Object Metadata); IMS-Content Packaging Specification qui décrit la structure et l'organisation d'un ensemble de fichiers regroupés en package facilitant son échange; IMS-Question & Test Interoperability Specification qui décrit des méthodes et des contenus d'évaluation. Ces initiatives ont porté et stimulé la recherche et le développement de normes dans le domaine pédagogique. Les principaux organismes actuellement accrédités pour le faire sont : l'Institute of Electrical and Electronics Engineers (IEEE 12) : il a mis en place le Learning Technologies Standardization Committee (LTSC 13) qui est constitué de plusieurs groupes dont le groupe P1484.12 auteur du LOM (Learning Object Metadata) en collaboration avec l'IMS 14, ARIADNE et DCMI; l'International Standard Organization (ISO) : par le biais de son comité technique JTC1 (Joint Technical Committee), l'ISO a créé le groupe SC36 (Sub Committee 36 « IT for learning, education and training » 15) chargé d' œuvrer dans l'effort de normalisation pour favoriser l'interopérabilité et la réutilisation des ressources à caractère pédagogique sans avoir pour objectif de créer une norme sur les aspects pédagogiques eux -mêmes; le Comité européen de normalisation (CEN 16) : ce comité a mis en place le Workshop Learning Technologies (WS-LT 17). Dans son activité de normalisation dans la société de l'information au niveau européen le CEN travaille par exemple pour le développement de taxonomies et de vocabulaires ou encore sur les droits d'utilisation des ressources pédagogiques. Ces trois organismes travaillent ensemble : le CEN traduit les spécifications du LOM dans les langues européennes et les soumet à l'IEEE, qui lui, se charge de faire des propositions à l'ISO afin de les faire passer du statut de standard à celui de norme. L'IMS préconise d'organiser les ressources nécessaires aux systèmes tutoriels selon un modèle, le Content Framework qui les divise selon deux grandes parties : l'une regroupant les ressources physiques ainsi que toutes les données nécessaires à leur description, c'est le Content Packaging; et l'autre organisant les données de gestion du système, c'est le Content Management. Ces deux parties sont clairement organisées selon le public qui va être amené à les utiliser à savoir les auteurs, les administrateurs et les apprenants comme c'est indiqué dans le schéma ci-dessous. Pour plus d'information sur le Content Framework on se reportera à (Anderson, 2001a) (Anderson, 2001b) (Anderson, 2001c). Nous n'explorerons dans cet article que le Content Packaging et une partie du Data Store, celle liée à la métadescription des questions et des tests. Nous préférons traiter ultérieurement les autres problématiques liées aux apprenants car elles sont trop vastes et non suffisamment abouties au niveau des spécifications à l'heure actuelle. Le package est autonome et constitue une ressource réutilisable. Il est par exemple incorporable dans une plate-forme d'enseignement ou peut servir dans d'autres « conteneurs ». Il regroupe l'ensemble des ressources d'apprentissage proposées par les auteurs et s'organise en deux parties : le manifest est un document XML qui décrit l'organisation du contenu ainsi que les objets pédagogiques; les objets pédagogiques sont « toute entité, sur un support numérique ou non, pouvant être utilisée pour l'apprentissage, l'enseignement ou la formation » 18 (IEEE, 2002). Pour Yolaine Bourda et Marc Hélier, « Les objets pédagogiques peuvent être, par exemple, des transparents, des notes de cours, des pages web, des logiciels de simulation, des programmes d'enseignement, des objectifs pédagogiques, etc. » (Bourda et al., 2000). Ces objets peuvent être utilisés tels quels ou comme des briques pour construire des cours de type documents virtuels personnalisables grâce aux informations du Content Management. Dans tous les contextes, ils peuvent être caractérisables par le LOM (Michel et al., 2002). Dans une perspective multimodale, on peut ajouter au Content Packaging des feuilles de styles XSL (XSL-T et XSL-FO 19), construites dynamiquement ou non, décrivant les modes de présentation des données comme nous le verrons dans l'exemple qui suit. Le Learning Object Metadata (LOM) décrit l'objet pédagogique selon neuf catégories (IEEE, 2002) (McKell, 2001a). Dans chacune d'entre elles plusieurs éléments peuvent être répétés (parfois de façon récursive). Pour donner leurs valeurs aux éléments descriptifs, le LOM utilise plusieurs ensembles de balises « outils » : langstring (balise <langstring>) permet de préciser des valeurs selon plusieurs langues (avec l'attribut xml:lang), vocabulary (balises <source>, <value>) qui permet de les choisir en accord avec un vocabulaire défini, date (balises <datetime>, <description>) et vcard (balise <vcard>) pour la « carte de visite virtuelle » (McKell, 2001b). Dans ce qui suit nous présentons une description synthétique des éléments des catégories du LOM v 1.0 (version conseillée par les spécifications). Dans la catégorie « general » l'objet pédagogique est décrit dans son ensemble. On y trouve des données sur l'identifiant de l'objet, son titre, sa description, la liste des langues utilisées, une liste de mots-clés, l'étendue de la ressource (temps, géographie, culture…), le type de structure (collection, linéaire, hiérarchique…), son niveau de granularité (de 1 à 4, 1 désignant un cours entier). Cette catégorie permet de décrire les caractéristiques relatives à l'historique et à l'état courant de l'objet pédagogique (draft, final…), les personnes qui l'ont modifié, à quelle date ainsi que leur rôle (author, publisher, instructional designer…). Cette partie décrit la liste complète des modifications ou cycle de révision. C'est un ensemble de métadonnées sur les métadonnées décrivant l'objet pédagogique. Cet ensemble décrit le schéma ou la spécification utilisée (metadatascheme). Il est possible de satisfaire à plusieurs schémas et de définir des liens dans un système de catalogage connu. Cette partie définit les exigences techniques en termes de navigateur (type, version), de système d'exploitation ou les caractéristiques comme le type des données ou format (permettant d'identifier les logiciels nécessaires pour les lire), la taille de l'objet numérique (en octets), sa localisation physique (URL Uniform Resource Locator ou URI UR Identifier), des informations pour installer l'objet pédagogique et sa durée (en particulier pour les fichiers de type son, animation ou vidéo). Cette partie permet de définir les conditions d'utilisation de la ressource : comment celle -ci doit être utilisée, savoir quel est son type (exercice, figure, index…), son niveau d'interactivité (de très faible à très élevée), à qui s'adresse la ressource (apprenant, enseignant, auteur…), le contexte (université, formation professionnelle, école primaire…) ou la tranche d' âge à laquelle s'adresse la ressource. C'est souvent par ces caractéristiques que l'on améliore l'exploitation du contenu pédagogique. Cette partie concerne les droits (copyright) liés à la ressource pédagogique, éventuellement son coût. Cette catégorie couvre les relations ou liens avec d'autres objets pédagogiques en précisant le type de relation (« … est requis par … », « … est une partie de … », etc.). Cette partie regroupe les annotations ou commentaires. Cet ensemble indique l'appartenance de la ressource à une ou plusieurs instances de classifications, permettant entre autre de définir le type de la ressource « discipline, idée, prérequis, objectifs pédagogiques, restriction, accessibilité, niveau pédagogique, niveau de compétence, niveau de sécurité » (McKell, 2001c). Pour illustrer notre propos nous avons formaté un ensemble de ressources pédagogiques selon les spécifications du Content Packaging et du LOM : il s'agit d'un cours décomposé en six leçons permettant de comprendre de manière très générale ce que sont les langages de marquage (Rouissi et al., 2003). Le cours est présenté sous forme de fichiers en html. Nous l'avons méta-décrit selon les spécifications du LOM dans le fichier cours.xml présenté dans la figure 2. Nous avons indiqué, dans la balise < general >, son titre (title), la langue de publication, une description de son contenu (description) et quelques mots-clés en français. Puis nous avons renseigné, dans la balise < lifecycle > et sous forme de vcard, l'organisme de publication (publisher) et l'auteur de la ressource (author). Ensuite, dans < metametadata >, nous avons mentionné la personne ayant caractérisé la ressource (creator) et sa date de caractérisation. Dans < technical >, nous avons indiqué le format de la ressource; dans < educational > que ce cours s'adresse à des étudiants universitaires du second cycle, dans < difficulty > que le niveau est facile et dans < rights > que la ressource est gratuite. Enfin, dans < classification >, nous avons mentionné la discipline selon la classification décimale de Dewey ainsi que les objectifs pédagogiques selon la taxonomie de Bloom 20. Les ressources ont été organisées conformément au Content Packaging décrit précédemment c'est-à-dire que dans un répertoire sont regroupés : l'ensemble des fichiers physiques (fichiers html) nécessaires au cours, un manifeste en XML décrivant la structure hiérarchique de présentation des ressources (imsmanifest.xml), la métadescription présentée précédemment (cours.xml), les DTD de lecture des fichiers XML (imscp_rootv1p1.dtd et imsmd_rootv1p2.dtd) et trois feuilles de style en XSL (etudiant.xsl, enseignant.xsl, administrateur.xsl). On pourra consulter l'ensemble des fichiers en cliquant sur Voir les fichiers sources dans (Rouissi et al., 2003). L'interface de présentation (visible dans la figure 3 suivante) permet de consulter le cours et de voir les informations de métadescription du cours. Cette dernière partie est personnalisée pour trois publics : l'interface étudiant permet de visualiser le titre, l'auteur, la classification thématique et le contexte pédagogique; l'interface enseignant permet de voir le titre, l'auteur, l'organisme de publication, le niveau de difficulté, la classification et les objectifs pédagogiques et enfin, l'interface administrateur permet de voir le titre, les informations sur la métadescription, la classification thématique et le format technique. Ces trois personnalisations sont extrêmement simples et n'ont qu'une valeur illustrative de l'utilisation globale du modèle. Ce package est autonome. Il est présenté ici grâce au LRN Toolkit de Microsoft (disponible sur http:// www. microsoft. com/ elearn) mais peut très bien est transféré dans une autre plate-forme, il sera lu sans aucun problème. Ce site web expérimental n'a qu'une valeur d'exemple pour cette publication et n'est absolument pas exploité en contexte pédagogique. Le LOM est-il suffisamment robuste pour décrire des ressources interactives comme celles nécessaires à l'évaluation des connaissances, le traitement des résultats de collaboration ou communication entre apprenants et tuteurs ou encore les ressources nécessaires à l'adaptabilité « intelligente » des systèmes ? Dans une faible mesure, oui. En effet, on peut traiter l'évaluation des connaissances avec le LOM en faisant apparaître dans la catégorie educational des valeurs indiquant que le type de la ressource (< learningresourcetype >) est Questionnaire, Exam, Exercise, ProblemStatement ou SelfAssesment par exemple (valeurs prises dans le vocabulaire LOMv1.0). Nous pouvons envisager également de traiter les résultats des processus collaboratifs (conversation de type chat, contributions dans un forum…) comme étant de type Experiment ou Simulation toujours selon le vocabulaire recommandé. En agissant sur le type ou format (au niveau de la catégorie technical) de la ressource il est possible de décrire des modules adaptatifs considérés alors comme des logiciels autonomes. En complétant les données sur le type de ressource il est possible d'indiquer le niveau d'interactivité avec < interactivitytype > et < interactivitylevel >. On peut voir que le LOM se révèle en fait insuffisant. Pour pallier ces insuffisances l'IMS réfléchit actuellement à de nouvelles spécifications : la spécification « Learner to learner interaction scheme » 21 devrait permettre de gérer toutes les ressources générées par des collaborations communicationnelles. Pas encore assez aboutie, nous ne l'expliciterons pas en détail dans cet article; la spécification IMS-QTI devrait permettre de gérer les ressources nécessaires à l'évaluation des connaissances, nous allons l'expliciter plus en détail dans la suite. Concernant les ressources adaptatives, il n'y a actuellement aucune réflexion suffisamment aboutie. La question de l'évaluation est un des enjeux majeurs dans le domaine de la formation et de l'enseignement. Selon Hadji, « L'évaluation dans un contexte d'enseignement a pour fin légitime de contribuer à la réussite de l'enseignement, c'est-à-dire à la construction de ces savoirs et compétences par les élèves. » Selon lui, l'évaluation est au service de l'apprentissage et « l'évaluation formative est l'horizon logique d'une pratique évaluative » (Hadji, 1997). De plus, l'évaluation, comme cela a été le cas au début du développement des STI, permet aux systèmes d'apprentissage d'avoir une interactivité avec l'apprenant. La spécification Question & Test Interoperability (QTI) de l'IMS permet de représenter la structure de données d'une question (item) et d'un test (assessment) ainsi que de leurs résultats correspondants. Ces éléments doivent permettre l'échange de ces contenus entre plates-formes d'enseignement à distance et leur intégration avec d'autres contenus. Tout comme pour le LOM, le choix de XML pour présenter la spécification QTI dénote l'intention d'ouverture et de facilitation sans prédire des choix techniques d'implémentation à mettre en œuvre. A l'instar de XML, la spécification IMS-QTI est extensible et adaptable pour des applications spécifiques. Comme c'est le cas pour les autres spécifications, celle -ci n'influe pas sur les concepts pédagogiques ni sur les choix techniques de programmation et/ou d'interface graphique laissés à la libre appréciation des concepteurs d'outils logiciels et des producteurs de contenus. La spécification QTI est encore jeune, la première version publique v 1.0 a été présentée au mois de mai 2000 et nous nous appuyons ici sur la version v 1.2 datée de janvier 2002. QTI concerne les fournisseurs de contenus (éditeurs d'évaluations, de tests…), les éditeurs de plates-formes d'enseignement à distance (VLE Virtual Learning Environment ou LMS Learning Management System), les éditeurs d'outils logiciels d'évaluation et les utilisateurs (apprenants et enseignants/concepteurs d'évaluation). L'étude de la spécification peut se faire selon différentes approches et la documentation fournie est assez riche. Une vue d'ensemble (Smythe et al., 2002a) est un bon point d'entrée avant d'aborder les concepts principaux regroupés sous l'acronyme ASI pour Assessment-Section-Item (Smythe et al., 2002b). Il est nécessaire de voir comment décrire le modèle à l'aide de XML (Smythe et al., 2002c), deux guides (Smythe et al., 2002d) et (Smythe et al., 2002e) complétant la présentation des concepts et aidant à la mise en œuvre. Tous les documents cités ici sont mis à disposition sur le serveur web de l'IMS 22. Item est l'objet servant à l'évaluation; c'est-à-dire généralement une question. Il est souvent accompagné de sa présentation (rendering) et des informations pour sa notation (scoring). Selon la spécification IMS QTI Lite 1.2 (Smythe et al., 2002j) qui est une version simplifiée de l'IMS QTI 23 un item se décrit selon plusieurs éléments dont : objectives qui permet d'indiquer les buts éducatifs (objectif pédagogique) de la question; rubric qui permet de définir des éléments d'information liés au contexte; presentation qui comprend aussi bien l'énoncé de la question que les choix de réponses possibles; resprocessing gère le processus de notation et les solutions de la question; itemfeedback gère les retours écran des utilisateurs en fonction de leur réponse. La spécification prévoit plusieurs types de questions « True/false », « Multiple-choice », « Multiple-response », « FIB-string », « FIB-numeric », « Image hot-spot », « Drag-and-drop », « Essay » qui correspondent respectivement à « question vrai/faux », « QCM à réponse unique », « QCM à plusieurs réponses », « Texte à trous pour du texte ou un nombre », « image cliquable », « déplacer les objets », « question ouverte ». Les réponses aux questions peuvent être simples, multiples ou ordonnées et s'expriment par « single », « multiple », « ordered », « proprietary » dans <qmd_responsetype>. La déclaration des types de question et des types de réponses attendues se font par les balises de type render_… et response_….. Ces balises permettent de gérer le format de données et le mode de présentation proposé au participant à l'évaluation. La notion de niveau de difficulté est indiquée par < qmd_levelofdifficulty > qui peut être : « Pre-school », « School », « Higher/further education », « Vocational », « Professional Development » (c'est-à-dire respectivement différents niveaux de scolarité ou formation professionnelle). La spécification permet de contrôler les objets en les ordonnant et en les sélectionnant (Smythe et al., 2002e) et intègre des algorithmes de calcul des scores (Smythe et al., 2002f) de manière à éviter le développement de calculs sur XML. Les résultats obtenus par les participants peuvent eux aussi être caractérisés (Smythe et al., 2002g). La mise en œuvre en XML est facilitée par le Results Reporting XML Binding (Smythe et al., 2002h) et Results Reporting Best Practices & Implementation Guide (Smythe et al., 2002i) qui s'inspirent d'expériences des utilisateurs de la spécification. L'utilisateur en interaction avec un exercice (assessment) est appelé participant. Le modèle de données se décrit de la manière suivante. Un assessment est l'unité de base pour un test (évaluation). Une section est une enveloppe pouvant contenir des groupes de sections et des items qui vérifient un même objectif. L'item est un bloc contenant la question (mais également la réponse, les aides… comme nous l'avons dit précédemment). Un object bank est un ensemble de sections et/ou d'items qui peut être échangé en tant que base de données d'objets d'évaluations. Comme nous l'avons vu dans la figure 1 précédente, on peut l'intégrer au niveau du Content Packaging de manière à permettre l'échange entre applications. Ce principe est le même que pour les objets pédagogiques présenté ci-avant. Supposons que nous voulions décrire la question suivante : La question est de type True/False, les propositions sont de type texte (< mattext >Vrai</ mattext > et < mattext >Faux</ mattext >), une partie feedback pour la vue du « candidat » est prévue et affichera en cas de bonne réponse le texte « Oui, c'est exact ». Ce texte figure dans la partie < itemfeedback >. L'apparition conditionnelle du message est gérée par l'objet < resprocessing >. L'item est enveloppé par < questestinterop > élément racine du document XML comportant l'évaluation. Avec la spécification IMS-QTI le document descriptif au format XML serait le suivant : Cette question n'a pas été mise en ligne dans le prototype décrit précédemment (Rouissi et al., 2003) car nous comptons présenter prochainement un prototype plus global lié aux ressources d'évaluation. En effet, la mise en ligne de la question n'est pas aussi immédiate que pour les ressources « banales » et suppose que l'interactivité avec la ressource soit gérée. Comme nous pouvons le voir, le code nécessaire pour décrire une question est complètement démesuré par rapport à la brièveté et simplicité de la question. Cette observation nous permet de formuler une critique fondamentale : la démarche de caractérisation de ressources d'évaluation ne sera effectivement réalisée que si l'on développe des outils logiciels de génération automatique de balises plus évolués que les éditeurs XML actuellement proposés. Ces outils doivent dépasser le stade de la gestion de simples objets comme les formulaires à compléter et fournir une aide réelle comme les systèmes auteurs le font. En effet, la richesse et la complexité des spécifications nécessitent une intelligence logicielle capable à la fois de générer les balises suffisantes et d'accompagner l'auteur dans sa tâche de conception de ressources pédagogiques. IMS-QTI permet-il de prendre en compte la personnalisation ? Dans une faible mesure oui, car il est possible de personnaliser l'affichage selon la fonction de l'intervenant utilisant la ressource. IMS a en effet prévu 9 types d'intervenants différents : administering, administrator, assessor, author, candidate, invigilator/proctor, psychometrician, scorer et tutor authorisés ou non à voir objectives, rubric et itemfeedback grâce à l'attribut view. Ces attributs pouvant aider à la personnalisation du document d'évaluation sont pour l'instant librement renseignés dans la balise < itemmetadata > qui décrit < item >. A terme, il est fort possible que les valeurs attribuées à ces balises ne le soient plus librement mais suivant des vocabulaires normalisés. Moins directement, il est possible de personnaliser le choix automatique des questions selon le profil pédagogique, éducationnel, réactionnel du participant en renseignant les attributs < qmditemtype >, < qmdtopic >, < qmdmaterial > et < qmdlevelofdifficulty > de l'élément < itemetadata >. Par exemple < qmdlevelofdifficulty >, indiquant le niveau de difficulté de la question, combiné avec < qmdtopic >, indiquant le domaine, peut permettre de filtrer certaines questions selon les niveaux éducationnels. IMS-QTI permet-il de prendre en compte l'interactivité ? Là aussi, dans une certaine mesure, oui. En effet, < itemfeedback > permet de renseigner les possibles réactions du système et en particulier les < hint > qui sont des aides données au participant en fonction des réponses faites ou selon les temps de réaction du participant (géré par < duration >). Nous avons pu voir que l'avancée de la réflexion sur les spécifications concernant les objets pédagogiques est relativement aboutie avec le LOM et le Content Packaging. Grâce au LOM, les documents numériques d'apprentissage intervenant dans des systèmes d'enseignement en ligne ou dans des STI peuvent en effet être assez complètement caractérisés, même s'ils interviennent de manière fragmentée. L'inter-échange et la réutilisabilité entre les systèmes, grâce au Content Packaging, est donc complètement possible. Il est à gager que très prochainement, ces spécifications deviendront des normes. Nous avons cependant pu voir que le LOM avait des limites car son rôle de descripteur n'est pas assez poussé pour prendre en compte des ressources plus interactives comme celles mises en œuvre dans l'évaluation des connaissances. L'ajout de nouvelles caractéristiques, comme celles présentées dans IMS-QTI, est donc complètement nécessaire. Elle se révèle d'autant plus nécessaire si on considère que, comme pour les STI à leurs débuts, la mise en place d'évaluations diagnostiques et formatives améliorera considérablement la personnalisation des systèmes de type plate-forme pédagogique en leur donnant une dimension interactive et dynamique supplémentaire. Plus pragmatiquement, en considérant le fait que l'obtention d'un diplôme ou certificat reconnu est, pour un apprenant, un des critères fondamentaux de sélection d'une formation en ligne, on peut supposer que des ressources d'évaluation vont être massivement développées dans ces contextes. Cette spécification, bien qu' à son début, est très prometteuse. Nous nous questionnons cependant sur la finesse du degré de personnalisation et d'interactivité qu'elle permet de prendre en compte. Il y a en effet peu de critères permettant d'indiquer au système un processus de filtrage personnalisé ou un comportement adaptatif à réaliser. Peut être qu' à terme, avec l'intégration de IMS-QTI et du LOM, ces limites seront repoussées .
Autour des standards ouverts de l'internet, il est devenu nécessaire de recourir à des systèmes de description, de codification et de mise en jeu de contenus à caractère pédagogique basés sur des spécifications ouvertes et partagées. Notre propos ici est de présenter une analyse critique des normes en devenir permettant de décrire de manière fine des ressources pédagogiques et des contenus d'évaluation dans un contexte web. Plus spécifiquement, nous étudierons le LOM et IMS-QTI en observant en particulier comment ils permettent ou non de favoriser la personnalisation du document numérique pédagogique et les possibilités d'interaction entre le système et l'apprenant.
sciencesInfo_04-0162815_tei_DN_071_0157.tei.xml
termith-477-communication
La complexité cachée derrière la notion de recherche d'information va en s'amplifiant au fur et à mesure que les outils de gestion de l'information se multiplient, en même temps que les environnements informationnels et documentaires se diversifient. Cette complexité est confirmée par les travaux de recherche en ergonomie qui analysent les pratiques et les difficultés des usagers des systèmes d'information. Ainsi, dans une proposition de modélisation de l'activité de recherche, accompagnée d'une tentative d'inventaire des concepts info-documentaires mobilisés dans la recherche d'information en ligne, Pascal Duplessis (2005) considère que « pas moins de 80 concepts sont (…) mobilisés pour éclairer les compétences par des savoirs info-documentaires ». En ce qui concerne les stratégies de recherches d'information, leur diversité et la complexité des concepts qui les accompagnent sont mises en exergue par J.-M. Budd, (1996). Dans cet article, en partant d'un cas hypothétique de recherche d'information, il n'identifie pas moins de neuf stratégies typiques de recherche, sans toutefois arriver à l'exhaustivité. De nombreux auteurs se sont intéressés à la recherche d'information, par exemple C. Kuhltau (2005), qui insiste sur la construction et la formulation d'un point de vue sur un sujet pour la définition du besoin informationnel, dans le processus de RI. Elle approche aussi la RI sous l'angle des tâches, dans l'environnement de travail. Dans le même sens, Vakkari (2003) étudie les modélisations de l'activité de RI, basées sur les tâches et sur les buts de la RI. A ce sujet, Järvelin et Wilson, dans leur article de 2003, mentionnent des modélisations proposées par divers auteurs et basées sur des éléments variés de l'environnement socio-organisationnel et cognitif de l'usager comme chez Ingwersen (1996), ou de l'environnement informationnel, comme chez Byström et Järvelin (1995). D'autres auteurs comme Belkin, (Yuan et Belkin, 2010) Saracevic (Saracevic et al, 1988) ou Bates (Bates, 1979) s'investissent dans des études et des recherches sur les stratégies de RI. A travers la présentation d'un nouveau type d'outil, les thésaurus ad hoc, dont nous exposons les fondements théoriques, nous proposons une typologie des activités de recherche ouverte d'information qui met en évidence la nécessité d'une coopération entre différents SOC (systèmes d'organisation des connaissances). Les thésaurus ad hoc sont construits dans le contexte d'applications informatiques et sont basés sur une théorie de l'indexation-extraction (Amar, 2000), qui implique une sémantique rhétorico-herméneutique (au sens de Rastier), liée à la notion de discours, qui permet une recherche heuristique privilégiant l'association d'idées. Nous présentons ensuite les deux projets de conception ayant donné lieu à un maquettage informatique qui nous ont incité à développer les thésaurus ad hoc en tenant compte de contraintes temporelles significatives. Nous montrons comment ces thésaurus peuvent améliorer la sérendipité structurelle dans une activité de searching, au sein du premier projet et la sérendipité associative dans une activité de browsing, au sein du deuxième. Sur la base de ces expériences, nous faisons des suggestions de généralisation de cette approche en esquissant une méthodologie de conception qui devrait nous permettre de conduire d'autres expériences débouchant sur des applications pérennes. Dans notre approche, toute recherche d'information est initiée par un besoin informationnel, que celui -ci soit orienté par la réalisation d'une tâche, consécutif à une question ou une consigne, lié à l'utilité espérée de l'information recherchée (modèle de Fu et Gray). Elle est assujettie à une « explicitation des objectifs de la recherche » et à une représentation mentale par le sujet de cet objectif (Dinet et al., 2008). Cet aspect fondamental de la recherche d'information, le besoin d'information, fait l'objet d'une littérature abondante, notamment de la part de Wilson (1981), de Hjorland qui discute l'approche behavioriste de Wilson, (Hjorland, 2007), de Devadason et Pratap Lingam qui proposent une méthodologie pour l'identification des besoins d'information des usagers (Devadason et Pratap Lingam, 1996), Rouet qui passe en revue les différentes définitions possibles du besoin d'information et élabore une catégorisation des situations d'apparition du besoin informationnel, (Rouet, 2004), Le Coadic qui présente une approche du besoin d'information basée sur la notion d'incertitude et de développement de l'incertitude au cours de l'acquisition de connaissances (Le Coadic, 1998), et enfin de Simonnot qui propose une revue de la littérature sur le sujet en 2006 (Simonnot, 2006). Ce dernier cite également Belkin et son modèle ASK (Anomalous State of Knowledge), (Belkin, 1986), mais aussi par exemple Ingwersen et Taylor qui dégagent des typologies de besoins d'information (Ingwersen, 1996; Taylor, 1991). Marchionini propose « une typologie des comportements et stratégies de recherche d'information en fonction de la nature et du degré de précision de l'objectif » (Dinet et al., 2008) qui nous intéresse particulièrement. En effet, celui -ci distingue la recherche « dirigée par un but » dans laquelle l'objectif est de répondre à une question précise, factuelle, de la recherche « semi-dirigée » dans laquelle l'objectif est plus imprécis, concerne une recherche sur un sujet global, comme la conquête de l'espace, pour reprendre l'exemple de (Dinet et al., 2008). Il identifie enfin la recherche sans réel but précis, pour le loisirs, illustrée par l'expression « surfer sur internet ». Nous ajoutons une dimension supplémentaire, qui peut être transversale. Elle peut se concrétiser dans les trois types de recherche évoqués au paragraphe précédent, mais nous l'en distinguons, en raison des formes variées qu'elle peut prendre : l'apprentissage. Nous le définirions ici comme l'acquisition de connaissances déclaratives, propres à un domaine, ou « connaissances explicites », selon les termes de Mario Désilets (1997) et de connaissances procédurales, ou « implicites », liées à l'expertise progressive que l'usager acquiert, ici, en recherche d'information. O. Ertzschied (2003) considère d'ailleurs que « le champ d'étude que constitue la recherche d'information doit être défini comme un processus d'apprentissage dynamique ». Nous considérons par ailleurs, à la manière de Pascal Duplessis, que les données informationnelles sont préexistantes dans les documents et acquièrent le statut d'information par l'intérêt que lui porte un individu, puis celui de connaissance, quand celui -ci les mémorise. L'information relève alors d'une transaction. Dans cet article, nous nous appuierons sur une théorie de l'activité moins « cognitiviste » que celle dont relève les précédents travaux et qui a pour nous l'avantage d'accorder une place centrale aux artefacts médiateurs, la sémiotique des transactions coopératives qui « vise à la fois à rendre compte des processus de création de valeur associés aux activités communicationnelles et à prendre en compte l'importance des supports matériels dans la médiation de toute forme d'action. » (Zacklad, 2007a). La perspective de la sémiotique des transactions coopératives nous permet de caractériser une approche originale de la recherche d'information : la recherche ouverte d'information, qui repose sur une vision du document comme artefact médiateur, un support pérenne, pour la transcription ou l'enregistrement de productions sémiotiques, et lui -même équipé d'attributs permettant sa ré-exploitation. « Les productions sémiotiques sont le produit des transactions communicationnelles symboliques caractérisées par leur caractère créatif et leur dominante expressive » (Zacklad, 2007a). Les transactions qui relèvent de la recherche d'information peuvent être entendues comme la rencontre entre un offreur d'information et un bénéficiaire, l'usager, rencontre médiatisée par un système de recherche et de consultation de document. A l'issue de la transaction l'usager est transformé, par les connaissances déclaratives et procédurales qu'il a acquises, et l'évolution itérative de son besoin informationnel. Le système utilisé et consulté est lui aussi modifié par les traces informatiques laissées par l'usager suite à sa consultation correspondant aux actions de redocumentarisation des artefacts médiateurs utilisés ou consultés. Ces transactions médiatisées peuvent être plus ou moins dialogiques, comme dans le cas des forums et des messageries instantanées. Dans la recherche ouverte d'information, la recherche relève moins de « la question de l'accès à des documents dont la localisation n'est pas connue mais dont l'existence ou la pertinence est acquise » (qui correspondrait dans la littérature anglo-saxonne pour nous aux termes « information retrieval ») mais bien plutôt de « la découverte et la définition originale d'une entité complexe à partir d'un ensemble de ressources numérisées dont le contour n'est pas défini a priori et dont la définition s'appuie à la fois sur une variété de types de contenus (documents textuels ou images, bases de données…) et sur une variété de systèmes d'accès à ces types de contenus (moteurs de recherche, système de requête, ontologies formelle ou sémiotiques…) » (Zaher et al., 2006). En effet, selon nous, « La Recherche Ouverte d'Information (ROI), correspond ainsi à la phase d'une enquête permettant aux personnes de construire une représentation de la situation problématique en rassemblant les ressources informationnelles permettant d'instruire les questions posées. La ROI ne consiste pas à accéder à des documents ou à des fragments documentaires pertinents mais à délimiter les contours du problème en identifiant les informations existantes et celles qui ne le sont pas : c'est un processus de découverte et d'apprentissage permettant de poser un problème dans le cadre d'une démarche d'enquête. » (Zacklad, 2007a). La ROI se rapproche ainsi d'une tentative de traduction du terme générique anglo-saxon « information seeking ». Les trois types d'objectifs de la recherche d'information proposés par Marchionini (cité par Dinet 2008) se traduisent par des stratégies de recherche différentes, respectivement, le querying, le searching, et le browsing. Celles -ci ont elles -mêmes des affinités plus ou moins marquées avec les outils disponibles et les modes d'interrogation associés : systèmes de requête exploitant des données fortement structurées, termes linguistiques, cartes de thèmes organisées de manière plus ou moins flexible. En effet, à la recherche d'une information factuelle, correspondant au querying, l'usager aura plutôt tendance à interroger un moteur de recherche, sur le web ou dans une BDD, via une requête formulée avec des termes formant une chaîne de caractères, issus du langage naturel ou d'un système d'organisation des connaissances, de type thésaurus ou taxonomie, « correspondant au modèle computationnel classique autorisé par les systèmes documentaires (booléens, langages documentaires, etc.) », dans une « logique de consultation (…) mettant en place des raisonnements hypothético-déductifs ». (Ertzscheid et al., 2007). Ces éléments caractérisent le Querying. Dans une recherche « semi-dirigée », correspondant au searching, l'usager sera dans une démarche exploratoire, et consultera plusieurs sources (web, BDD, blog, forums, annuaires…), en utilisant plusieurs systèmes d'organisation des connaissances, (moteurs de recherche, classifications, langages documentaires…), et en mobilisant ses connaissances préalables du domaine, pour « raisonner par inférences et abduction » dans une stratégie analytique (Ertzscheid et al., 2007). Dans une activité de « browsing », l'usager va consulter de nombreuses sources, plus ou moins superficiellement, dans une « stratégie par butinage » (Dinet et al., 2008) laissant les informations émerger, surgir, s'investissant en exploitant la structure hypertextuelle du web, dans « une exploration associative » des liens, son objectif n'étant pas clairement défini. A travers ce cadrage de la recherche d'information, nous allons tenter de démontrer que les thésaurus ad hoc sont des outils particulièrement pertinents, à mobiliser dans une approche de ROI, pour faciliter l'exploitation des capacités d'association des utilisateurs des systèmes d'information engagés dans des démarches de searching ou de browsing. Dans les deux expérimentations qui sont décrites plus loin (cf. infra section 3), nous mettons en relation l'utilisation du thésaurus ad hoc avec un phénomène largement discuté dans le champ de la recherche d'information : la sérendipité. La sérendipité est une caractéristique majeure de la ROI. Celle -ci a été récemment étudiée dans la recherche sur le web via les moteurs de recherche par G. Gallezot et O. Ertzscheid. Dans certains des modes de recherche identifiés précédemment, en particulier dans l'environnement du web, un phénomène de « découverte par chance ou sagacité de résultats que l'on ne cherchait pas » se révèle, (Gallezot et al., 2008) qui est qualifié de « sérendipité ». Cette définition se rapproche de celle donnée par Walpole dès 1754. D'après un article de Foster et Ford (2003), beaucoup d'auteurs travaillant sur la recherche d'information comme Ingwersen, Wilson, Kuhltau, Saracevic, Spink, n'intègrent pas cette notion dans leurs modélisations de la recherche d'information ou du comportement informationnel. Cependant, d'après le même article, d'autres auteurs l'ont incluse dans leurs réflexions (Callery, Bawden, Rice, Hill, Batley) et se sont précisément intéressés aux liens entre browsing et sérendipité. Erdelez suggère même le concept de « information encountering » (Foster et Ford, 2003). Enfin, Jones et Rosenfeld « talk of serendipity as a retrieval strategy » (Foster et Ford, 2003). D'après O. Ertzscheid, dans une recherche par moteur de recherche, « l'usager non acculturé ne dispose (…) d'aucune clé de lecture hors celle d'une ‘ pertinence ' entièrement subjectivée. Ce manque d'acculturation, combiné à des pratiques de recherche empiriques (de type ‘ essai et erreur '), ne mobilisant que très peu de mots-clés, n'allant que très rarement au-delà de la première page-écran, et n'utilisant quasiment jamais les – maigres – possibilités de recherche par champ (date, extension, etc.) offertes, font que l'usager ‘ découvre ' plus qu'il ne ‘ recherche ' de l'information. (…) La sérendipité systématique apparaît ainsi comme une composante majeure de cette médiation qu'est le processus de recherche d'information. » (Ertzscheid et Gallezot, 2007). Selon les mêmes auteurs, l'entretien de cette « illusion du surgissement de résultats pertinents » pour les usagers des moteurs de recherche permet au modèle économique des firmes détenant les moteurs de fonctionner. En effet, la proposition de liens commerciaux ou sponsorisés et la diffusion de publicités, que les usagers n'identifient pas comme tels, entraînent la sélection de ce type de liens au même titre que les autres liens non commerciaux des pages de résultats des moteurs, et génèrent ainsi du trafic sur des sites commerciaux, source de revenus pour ces firmes. C'est pourquoi ces auteurs affirment que la sérendipité à l' œuvre dans les moteurs de recherche sur le web est entretenue et devient une sérendipité systématique, inhérente au fonctionnement des moteurs. Par ailleurs, Ertzscheid et Gallezot citant (Perriault, 2000) définissent la sérendipité comme suit : on « parlera d'un ‘ effet sérendip ' (qui) consiste à trouver par hasard et avec agilité une chose qu'on ne cherche pas. On est alors conduit à pratiquer l'inférence abductive, à construire un cadre théorique qui englobe grâce à un ‘ bricolage ' approprié des informations jusqu'alors disparates. » Dans le même article ces auteurs distinguent plusieurs degrés et types fonctionnels de sérendipité. Pour le querying, outre la sérendipité systématique, inhérente au fonctionnement des moteurs, les autres types de sérendipité se manifestent peu, l'objet de la recherche étant assez précisément défini, par exemple dans le cas d'une question comme la suivante : « quelle est l'année de sortie du film « Les affranchis » ? ». Pour le searching, la sérendipité est dite « structurelle », elle s'effectue à la manière d'une exploration des rayonnages d'une bibliothèque sur un sujet, ou de la consultation d'un annuaire de recherche sur le web, par exemple, un utilisateur qui chercherait des informations sur le diabète sans savoir s'il cherche des informations sur les effets secondaires, sur les traitements, les symptômes, l'évolution de la maladie, ou les facteurs aggravants. Cette sérendipité « est liée à une identification, un parallélisme formel, structurel ». Le browsing est le mode de recherche qui se prête le plus à la sérendipité, l'utilisateur intégrant initialement une part d'aléatoire dans sa démarche, il « se met alors consciemment en situation d'adopter le comportement le plus simple, le plus intuitif et associatif possible », exploitant alors le potentiel de la « sérendipité associative » qui favorisera « l'apprentissage périphérique » (Ertzcheid, 2003a). La ROI implique la consultation de ressources numériques de formats variés, distribuées et fragmentées dans des endroits différents de l'espace documentaire, qui peuvent se matérialiser sous forme de documents textuels, (pages web, documents téléchargeables, consultables en ligne, références provenant de bases de données (notices du SUDOC par exemple), de documents multimédias (images, vidéos, photos, sons), de ressources collaboratives (forums, wikis), ou individuelles (blogs, messageries instantanées…), et correspondant à différentes étapes de l'enquête parallèlement à la progression du chercheur dans son acquisition de connaissances. Les différents types, formats, localisations des documents issus de sources variées et consultés par l'enquêteur, entraînent la consultation de SOC hétérogènes. Nous proposons donc de décrire dans la suite de cet article deux expérimentations de MultiSOC (coopération de plusieurs systèmes d'organisation des connaissances), conçus pour favoriser la ROI. La première expérimentation se situe dans un contexte de searching, faisant collaborer un moteur de recherche et un thésaurus « ad hoc » et la deuxième prend effet dans un contexte de browsing, intégrant un thésaurus « ad hoc » dans une ontologie sémiotique. Auparavant, nous allons définir les thésaurus ad hoc, en exposant les fondements théoriques qui procèdent à la création de ces nouveaux outils. Nous tenons toutefois à préciser ici que les expérimentations présentées dans la suite de l'article sont en cours d'expérimentation et n'ont donc pas encore fait l'objet de retours d'usages. Nous proposons ci-après une définition temporaire des thésaurus ad hoc : il s'agit d'un système d'organisation des connaissances, à la structure hiérarchique, exploitant des relations d'association plus variées, par rapport à celles présentes dans les thésaurus classiques, et basé sur une théorie de l'indexation-extraction (appliquée provisoirement de façon manuelle), qui implique une sémantique rhétorico-herméneutique, (au sens de Rastier) liée à la notion de discours, qui permet une recherche heuristique par associations d'idées, favorisant la ROI, et s'adaptant aux structures cognitives des utilisateurs par sa combinaison avec d'autres systèmes d'organisation des connaissances. L'indexation telle que définie dans notre approche par le biais de thésaurus ad hoc, permet un accès au contenu des documents. Elle permet de créer des points d'accès, des prises, par l'entremise des descripteurs, en tant qu'indices, traces, du sens et du contexte de production de ce sens, sans prétendre y réduire le sens des textes, en donnant une opportunité d'en savoir plus sur le sens de ces descripteurs par la lecture des textes, tout en interpellant la curiosité des usagers, et en suscitant chez eux un besoin d'information. La conception classique des thésaurus oppose le langage naturel au langage contrôlé. Le langage naturel est constitué « des mots figurant dans les titres, les résumés ou les documents primaires » (Aitchinson et al., 1992) et sert aussi aux utilisateurs des moteurs de recherche pour composer leurs requêtes. Les langages contrôlés (classifications, vedettes-matières, thésaurus…) permettent de contraindre l'indexation pour éviter les problèmes d'homonymies, polysémies, synonymies, la variabilité des formes et structures lexicales. Leurs caractéristiques exposées dans (Aitchinson et al., 1992) démontrent qu'ils peuvent améliorer la précision et le rappel par des procédés différents. Le rappel vise à assurer la recherche de documents pertinents, donc à éviter le silence documentaire, la précision vise à éviter de retrouver des documents non pertinents, autrement dit, le bruit documentaire. Ces notions sont mesurées par le taux de rappel et de précision. Le taux de rappel s'évalue en rapportant le nombre de documents pertinents trouvés au nombre de documents pertinents présents dans le système, le taux de précision mesure le nombre de documents pertinents trouvés par rapport au nombre de documents trouvés par le système. Une des définitions multiples du thésaurus est la suivante, proposée par l'association française de normalisation (1981) citée par Michèle Hudon (1994) : « Un thésaurus est une liste d'autorité organisée de descripteurs et non-descripteurs obéissant à des règles terminologiques propres et reliés entre eux par des relations sémantiques (hiérarchiques, associatives ou d'équivalence). Cette liste sert à traduire en langage artificiel dépourvu d'ambiguïté des notions exprimées en langage naturel ». Un descripteur est un terme retenu dans un thésaurus pour représenter sans ambiguïté une notion contenue dans un document ou dans une recherche documentaire. Notre approche du thésaurus « ad hoc » fait du thésaurus un outil qui tend à s'éloigner de cette conception classique. Dans la lignée des recherches menées par Muriel Amar sur les fondements théoriques de l'indexation, et malgré l'utilité éprouvée des langages contrôlés, nous postulons que dans certaines situations une autre appréhension de l'indexation, des langages documentaires, des thésaurus, des descripteurs et du sens des termes intégrés dans ces outils peut contribuer à faciliter la recherche d'information d'un utilisateur engagé dans une démarche de ROI. Muriel Amar repositionne le lexique documentaire dans un cadre discursif « où les documents peuvent se constituer comme des discours qui s'interpellent via des mots ». Ainsi, « ce qui fait le poids « informatif » d'un terme tient précisément au discours auquel il renvoie » (Amar, 2000). Sur la notion de langage artificiel elle écrit ainsi : « De la même façon que les termes sont créés par et dans les discours spécialisés, on peut dire que les descripteurs sont créés par et dans des discours que l'on qualifiera de documentaires (…) un langage documentaire est toujours constitué de mots extraits d'un corpus de textes, de « mots de discours ». » Or, « le rôle des discours dans la constitution d'un langage documentaire, tout comme le statut originel des descripteurs comme des mots de discours, sont complètement opacifiés par la notion de langage documentaire compris comme « langage artificiel ». (Amar, 2000) En effet, si celui -ci est artificiel pour les usagers du système documentaire, qui ne sont traditionnellement pas intégrés dans le processus de documentarisation des documents, il l'est aussi pour les auteurs qui produisent le discours contenu dans ces documents. Enfin ces langages documentaires peuvent aussi apparaître artificiels pour les documentalistes qui ont pour mission d'indexer par le biais de cet outil normalisant, lui -même porteur d'un discours provenant des créateurs du langage documentaire, à travers le choix des termes, et plus largement de l'institution qui met à disposition les documents. Sans rentrer dans le détail de toutes les implications de cette conception de l'activité d'indexation, nous en soulignons quelques aspects qui nous intéressent dans le cadre de cet article. Le fait que l'approche classique de l'indexation des documents qui se pratique dans les bibliothèques et les centres documentaires, pour donner accès au savoir, se définit par une reformulation, donc une interprétation et intervient « a posteriori sur la base d'une théorie, préexistante et externe aux sources, de la répartition des connaissances » (Amar, 2000) implique une prédétermination des catégories, un compartimentage, une fragmentation, et une interprétation unique du savoir qui peut nuire à son développement, en excluant la diversité des points de vue possibles sur un document. Muriel Amar illustre cette idée par une citation d'Auroux, épistémologue des sciences : « l'univers, soit réel soit intelligible a une infinité de points de vue sous lesquels il peut être représenté et le nombre des systèmes possibles de la connaissance humaine est aussi grand que celui des points de vue. » (Amar, 2000). Dans cette optique, l'indexation « est vue comme une extraction, supposant une mise à disposition des textes intégraux des documents au sein même des systèmes d'information documentaires, ne présupposant ni sélection ni traduction de « concepts » et appelant, dans sa version optimale, un traitement automatisé » (Amar, 2000). Cette approche de l'indexation transfère « le lieu de la thématisation de l'indexeur à l'utilisateur ». L'indexation-extraction se situe donc « en deçà de l'interprétation », et « laisse ouverts à l'utilisateur tous les parcours interprétatifs », par opposition à une « indexation assignation » ou « interprétative » qui prescrit un sens stabilisé des termes à l'utilisateur (Amar, 2000). Une dimension que l'indexation classique semble avoir des difficultés à intégrer est liée à l'évolution de la terminologie des objets de connaissance, et de discours, qui se traduit souvent dans les pratiques, par le remplacement d'un terme par un autre dans un langage documentaire, en conservant parfois l'ancien terme comme équivalent, dans le cas des thésaurus. Or, comme l'écrit Muriel Amar citant Bertrand-Gastaldi : « l'interprétation des nouveaux textes subit (…) en partie l'influence des textes antérieurs » (Amar, 2000). L'évolution de la terminologie employée pour représenter des idées révèle une évolution des idées elles -mêmes, et ne devrait pas impliquer un remplacement ou une suppression des « anciens » descripteurs valables pour décrire des concepts développés dans le passé, l'emploi d'un terme renvoyant vers un univers de concepts co-occurrents, vers des concepts ayant une histoire qui les transforme, par le biais de la pratique discursive, et vers des réseaux sémantiques complexes. Cette opération de mise à jour d'un langage documentaire, sans nier l'évolution constante du langage naturel, peut aboutir à effacer une partie de la connaissance, en modifiant la terminologie y permettant l'accès. En effet, Muriel Amar écrit à ce sujet : « un langage documentaire ne peut impunément remplacer un terme par un autre, sans que tout le pan de son inscription dans un discours ne disparaisse » (Amar 2000). La pratique discursive fait partie des éléments qui peuvent contribuer à « l'émergence du savoir, [qui] se réalise en effet à la marge des domaines constitués, par empiètement sur des textes dont l'appréhension première ne laisse pas forcément penser des formes de rapprochement, qu'en revanche une pratique discursive peut être amenée à établir » (Amar, 2000). Le thésaurus « ad hoc » se construit donc selon les principes d'indexation abordés par Muriel Amar. Nous décrivons ci-après les apports attendus des thésaurus ad hoc puis nous présentons deux expérimentations de ce nouveau type d'outil et nous proposons enfin une méthode d'élaboration des thésaurus ad hoc. Les apports potentiels des thésaurus ad hoc, en tant qu'outil d'indexation et de recherche, sont énoncés ci-après. L'exhaustivité de la collecte des termes, que nous évoquerons plus loin comme des « syntagmes nominaux complexes » et de leur présentation permet de comprendre les subtilités de l'emploi des termes dans les textes en les recensant et de bénéficier de leur proximité dans l'outil. L'usager pourra donc constater qu'un terme a plusieurs acceptions dans des expressions distinctes et que des expressions distinctes désignent des objets de connaissance et de réflexion proches. Il sera donc incité à consulter les sources pour expliciter ces subtilités. La classification a posteriori des objets du domaine, (cf. méthode infra section 4) élaborée à partir du matériau présent dans les documents source, a pour corollaire l'approche discursive du sens des mots d'un texte, et donc de l'indexation. L'absence de sens stabilisé des termes d'un langage d'indexation et de recherche, ainsi que l'opposition à une classification a priori des connaissances qui exclurait la diversité des points de vue, aboutissent à l'intégration de concepts complexes, sous la forme de « syntagmes nominaux complexes » (Amar, 2000). Cette approche discursive et non prescriptive, non normative, peut contribuer à l'émergence du savoir, qui se nourrit des autres conceptions, théories, et points de vue sur les objets de connaissance. L'interprétation des termes du thésaurus ad hoc étant laissée aux utilisateurs, de même que l'interprétation des associations entre les termes, (qui ne sont ni nommées, ni explicitées), au sein de l'outil, suscitent la curiosité de l'usager. Tout en nécessitant la mise en place de raisonnements qui impliquent celui -ci dans la compréhension, l'usager est guidé dans sa navigation grâce aux autres termes intégrés autour de ceux qui produisent des incertitudes. En ne le laissant pas passif, ce raisonnement requis lui permet d'entrer dans les problématiques plus intensément, car il participe à l'élaboration de sa représentation mentale de l'objet étudié, qui n'est pas prescrite ou donnée d'emblée, comme une connaissance figée. Les limites potentielles du thésaurus ad hoc sont liées au manque de ressources disponibles pour la création de l'outil et à la difficulté d'atteindre l'exhaustivité via une collecte manuelle des syntagmes nominaux complexes. Dans la section suivante, nous allons nous intéresser à deux expérimentations de MultiSOC, dans un contexte de ROI, intégrant chacune un thésaurus ad hoc, combiné pour l'une d'elles, à un moteur de recherche plein texte, et pour l'autre, intégré dans une application collaborative, proposant aux utilisateurs des ontologies sémiotiques, reflétant des points de vue. Ces expérimentations trouvent leur raison d'exister dans l'évolution récente et rapide de l'environnement numérique qui entraîne de nouveaux usages s'accompagnant d'une diversité de méthodes et de contextes d'utilisation du numérique. Nous présentons successivement les deux expérimentations en passant en revue le contexte organisationnel, le type de document, les objectifs de l'outil, l'adaptation pour la combinaison des SOC, le fonctionnement de l'outil, et sa contribution à la ROI. La première expérience s'inscrit dans une démarche d'efficacité de l'accès à l'information et de facilitation de la recherche d'information des clients d'une grande entreprise sur son site d'assistance en ligne. Dans ce contexte commercial et concurrentiel, l'entreprise, fournisseur de services techniques pour le grand public, disposait déjà de plusieurs outils de recherche d'informations, sans arriver à améliorer les performances des recherches des clients, ni à faciliter leur autonomie dans la gestion des problèmes techniques courants des services vendus, ceci entraînant un impact négatif sur la perception de l'entreprise par les clients. Le site comportait, outre un moteur de recherche, des classifications, un nuage de mots-clés, une assistance automatique intelligente, un forum, des vidéos, un plan du site et un lexique. Les usagers disposaient donc de plusieurs outils de recherche pour explorer la profusion d'informations proposées. Des statistiques sur les usages des différents modes de recherches disponibles ont démontré que plus de 25 % des recherches des usagers étaient effectuées par le biais du moteur de recherche, et que 70 % de ces recherches étaient constituées de requêtes à un ou deux mots. Une étude précise des requêtes en échec du moteur, nous a permis de déduire que les usagers rencontraient des difficultés pour formuler et reformuler leurs requêtes, ce qui est courant dans la recherche d'information en langage naturel avec un moteur de recherche, et qui est amplifié dans un domaine mal maîtrisé par les utilisateurs. Nous avons donc procédé à la création d'un thésaurus ad hoc associé au moteur de recherche plein texte, permettant de relancer des requêtes à partir du thésaurus ad hoc. Le corpus des documents source utilisés pour l'élaboration du thésaurus ad hoc, est constitué d'environ un millier de FAQs 1, matérialisées dans des pages web, d'assistance à l'utilisateur du service. Ces documents sont considérés comme des documents procéduraux dans le champ de l'ergonomie. Ces documents procéduraux « ont pour fonction de fournir une aide à l'utilisateur en le guidant dans l'installation, la manipulation et la maintenance d'équipements à usage domestique ou professionnel » (Ganier, 2008). F. Ganier citant Sticht (1985) distingue dans l'usage des documents procéduraux différents objectifs, à savoir l'apprentissage ou la résolution de problèmes, qui impliquent des modes de lecture eux aussi différents, respectivement « lire pour apprendre » et « lire pour faire », qui engendrent des processus cognitifs sollicitant soit la mémoire à long terme, soit la mémoire de travail. L'aide en ligne de notre expérimentation se situe plus dans la perspective d'une résolution de problème. La lecture des documents procéduraux serait rarement linéaire et exhaustive mais bien plutôt sélective, prenant effet, pour ce qui nous concerne, dans des situations « d'urgence ». Outre le fait que l'usager doit définir correctement son problème, pour pouvoir formuler une question au système d'information, il doit s'acculturer à la structure des documents, extraire l'information, et intégrer parfois des éléments d'information dispersés. Les processus cognitifs à l' œuvre dans ce type de traitement font appel à des « habiletés métacognitives » dont le coût peut être diminué par les affordances de l'équipement ou du dispositif de recherche d'information. Grâce aux affordances, qui sont des caractéristiques physiques guidant l'usage du dispositif ou de l'équipement, « les actions possibles sur celui -ci devraient pouvoir être inférées par les utilisateurs sans recours à des instructions » (Ganier, 2008). Pour la première expérimentation, les objectifs de l'outil étaient donc la résolution de problèmes, la familiarisation de l'usager avec le vocabulaire approprié pour rechercher l'information, tout en lui suggérant des intitulés de requête associés à sa requête initiale, afin d'améliorer les performances de ses recherches. Le thésaurus ad hoc est donc associé au moteur de recherche du site, auquel on a apporté quelques modifications, afin d'améliorer la pertinence et la précision des réponses apportées par le moteur. En effet, les index ont été augmentés de tous les termes du thésaurus ad hoc, et ceux du premier niveau hiérarchique ont été intégrés à un fichier de complétion automatique des requêtes pour un meilleur ciblage des requêtes. La complétion automatique consiste à proposer, à la saisie des premières lettres de la requête, des termes ou expressions susceptibles de correspondre à la demande de l'usager. Le système est dynamique et interactif : la génération des termes associés à la première entrée d'une requête est automatique, puis l'utilisateur peut cliquer sur un des termes associés à sa requête, s'il le souhaite, ce qui relance automatiquement une requête dans le moteur de recherche. Dans l'illustration suivante, la première requête formulée dans le moteur est « Redémarrage », qui aboutit à une liste de réponses, (présentées par le titre des documents correspondants), mais aussi à la génération d'une liste de termes associés à la requête « Redémarrage ». Dans ce scénario, l'utilisateur choisit de préciser sa requête par la sélection du Terme Associé « Connectivité limitée », ce qui relance une deuxième requête dans le moteur de recherche et aboutit à une nouvelle liste de réponses. La nature de l'association des termes dans le thésaurus ad hoc peut être de type cause, conséquence, solution, manipulation technique, résolution du problème, problèmes potentiels dans le même périmètre… L'orientation des associations de termes amène l'utilisateur à examiner des problèmes plus précis, dérivés, ou plus globaux, dans une logique de précision d'extension ou d'élargissement. Nous aurions pu choisir une autre option : le remplacement des requêtes mal formulées des utilisateurs par une requête employant les termes appropriés sans laisser le choix à l'utilisateur de sélectionner une autre formulation de sa requête, mais deux études valident nos choix de conception sur des plans différents. 1) Une étude menée par Jane Greenberg (2004), sur les préférences des utilisateurs entre un traitement automatique ou interactif pour travailler avec des thésaurus, révèle que pour la sélection de termes supplémentaires provenant d'un thésaurus, comme aide à la recherche, donc pour l'expansion de requêtes, « the majority of participants favor automatic processing as long as they have the option to manually interact and select terms ». 2) Une autre étude d'Ogla Vechtomova (2006) démontre que l'utilisation de syntagmes nominaux complexes dans un système d'expansion interactive de requêtes permet d'aider les utilisateurs à choisir de meilleures expansions de requêtes qu'avec des unitermes, ce qui tend à valider le modèle de formulation des termes adopté dans le thésaurus ad hoc pour l'expansion de requêtes : « The results suggest that showing phrases to the users helps them to select somewhat better query expansion terms, than showing single terms ». L'usager est dans le cas d'une recherche ouverte d'information, sur le mode du searching, il a une connaissance partielle de ce qu'il cherche et a défini un objectif de recherche, il s'agit donc d'une recherche semi-dirigée. Il a à sa disposition comme nous l'avons vu précédemment, plusieurs outils de recherche, et des types de contenus variés. Le thésaurus ad hoc va donc permettre d'alléger la charge cognitive de l'opération de recherche d'information, via le moteur de recherche, charge cognitive liée à la difficulté à formuler une requête donnant des résultats pertinents. Le thésaurus ad hoc donne accès à une représentation supplémentaire des contenus documentaires, fonctionnant sur le mode de la sérendipité structurelle, et plus précisément, ici, l'association de contenus liés à son besoin informationnel dans le domaine technique des services fournis par l'entreprise. L'usager utilise les affordances de l'outil pour la découverte, comme s'il se trouvait dans une bibliothèque et cherchait des ouvrages sur ce type de service technique, il trouverait alors des ouvrages de maintenance, de mise en état de fonctionnement, de rénovation, des guides d'utilisation… Le thésaurus ad hoc lui permet, par ailleurs, d'appréhender les contenus sous une autre forme que celles proposées par la classification, le nuage de mots-clés, l'assistance automatique intelligente, le forum, les vidéos, le plan du site ou le lexique. La dimension discursive entraîne une formulation des termes insérés dans le thésaurus ad hoc, directement dérivée de celle présente dans les FAQs, pour permettre au moteur de recherche plein texte de retrouver les contenus associés à un terme du thésaurus ad hoc. Cette dimension discursive permet aussi à l'utilisateur de se familiariser avec le vocabulaire employé dans les documents pour décrire les problèmes potentiels du service technique dont il bénéficie. Le thésaurus ad hoc va donc permettre à l'utilisateur de mieux cerner son objet de recherche, grâce à ses suggestions dynamiques de reformulation, tout en contribuant à la diversité des modes d'accès possibles aux documents. Le contexte de la deuxième expérience est marqué par des enjeux plus politiques, environnementaux et liés à la qualité de vie des générations futures, puisqu'il s'agit d'un travail toujours en cours, sur la documentation du débat sur le sujet de la réversibilité de l'enfouissement de déchets toxiques. La réversibilité consiste à permettre la récupérabilité (le retrait des déchets), en fonction de l'évolution des conditions de stockage, des nouvelles découvertes scientifiques en matière de recyclage et des politiques adoptées. Elle concerne donc aussi la gouvernance du processus de gestion des déchets, ce qui implique de garder des traces des débats, discussions et décisions prises durant le processus. L'élaboration d'une loi concernant la réversibilité de certains déchets, précédée de la tenue d'un débat public nécessite d'informer la population sur tous les aspects de cette problématique, qu'ils soient économiques, juridiques, environnementaux, politiques… Nous avons commencé un travail sur un dispositif expérimental, Explore (exploration pluridisciplinaire ouverte de la réversibilité) utilisant l'outil Agorae, développé par le laboratoire TechCICO. Cette approche (Cahier, 2005) permet un accès multipoint de vue sur des items, correspondant à des documents, des fragments, ou des ensembles de documents, dans le cadre des approches du web socio-sémantique. Cette deuxième expérimentation diffère de la première pour plusieurs raisons : d'une part, le public concerné est certes du même type, le « grand public », mais les enjeux sont moins personnels. D'une part, l'essor récent des mouvements écologiques, bien que ces centres d'influence existent depuis longtemps, en témoigne l'intérêt pour ce type de sujet, n'est pas anodin et implique des prises de conscience, de la curiosité et du temps pour se familiariser avec le sujet. D'autre part, le sujet prête à controverses, et doit faire l'objet d'un débat public, durant lequel les acteurs du débat doivent pouvoir communiquer sur des objets identifiés, et être informés sur les enjeux de cet événement. De plus, la diversité des acteurs participant à la rédaction des documents mis à disposition du public engage des points de vue sociologiques, économiques, politiques, techniques… Nous avons donc pris le parti de réaliser une application de l'outil Agorae, pour refléter les points de vue s'affrontant dans le cadre de ce débat. Le principe de cette application est de permettre un accès multipoint de vue sur des documents, ou plus précisément ici, des fragments de documents. Les types de documents utilisés pour l'élaboration de ce thésaurus ad hoc sont constitués d'actes de colloques, d'articles de recherche scientifique, de documents techniques, de posters… L'objectif correspondait à la réalisation d'un thésaurus ad hoc sur un sujet de débat, dans lequel le consensus n'était pas apparu, et dans lequel le sens des termes utilisés est en permanence fortement discuté par les auteurs. Ces paramètres rendent l'approche discursive de l'indexation de Muriel Amar adaptée à des sujets ou domaines où la controverse est intense. Ces documents sont complexes pour le public cible et doivent faire l'objet d'une lecture approfondie et attentive, pour une bonne compréhension des problématiques du domaine. Pour favoriser la précision de l'indexation et ne pas trahir les idées développées par les chercheurs, nous avons fait le choix de fragmenter en tiers les pages du document principal utilisé pour l'élaboration du thésaurus ad hoc, (des actes de colloque) et d'indexer chacun de ces items, à la manière d'un document à part entière. Par ailleurs, la technologie utilisée permet d'accéder à l'ensemble des actes de ce premier colloque, via un lien, depuis chaque item, et à l'endroit où se trouve l'item dans le document global, comme le préconise Muriel Amar. Dans cette deuxième expérience, les objectifs sont d'abord l'information du public, la découverte du domaine, la vulgarisation, la familiarisation avec le sujet, l'acquisition de connaissances, la stimulation de la curiosité, l'incitation à la lecture des documents par une représentation non standardisée du contenu, et via la navigation à travers les points de vue proposés sur les items. Ici, le thésaurus ad hoc constitue un point de vue, parmi d'autres, celui d'un documentaliste. Ce dernier est censé, dans l'approche classique, porter un regard objectif (dans la mesure du possible), synthétique, et analytique sur un sujet. Dans cette expérimentation, c'est un point de vue plus subjectif visant à organiser les connaissances de façon à faciliter la vulgarisation pour la tenue ultérieure du débat public. D'autres points de vue sont disponibles dans le prototype, comme le point de vue « socio-dramaturgique ». Le point de vue thématique (documentaliste) adopté ici, relève de l'indexation-extraction, le rôle du documentaliste ici, outre l'extraction des termes, consiste à organiser les termes extraits en une hiérarchisation dans une logique d'association d'idées au sein d'un point de vue. Un autre objectif secondaire et résultant de l'utilisation de l'outil Agorae, sera de favoriser l'émergence relative d'un consensus sur le sujet au sein des chercheurs du domaine : en effet, « le fait de disposer d'une ontologie sémiotique partagée par le groupe permet de se mettre d'accord au sein du groupe sur le périmètre du concept sémiotique et sur un jeu de points de vue conventionnel et perfectible facilitant l'enquête dans ce périmètre » (Cahier, 2005). Dans l'application Agorae, les thèmes correspondent à des attributs heuristiques, par oppositon aux « attributs standard » qui expriment des propriétés mesurables, tangibles, des caractéristiques « objectives » des objets décrits. Les attributs heuristiques sont liés « à un certain interprétant de l'activité, par exemple à un certain type de condition de rôle, d'action ou de convention sociale » (Cahier, 2005). Ce sont « des expressions langagières exprimant des propriétés de ce dont on parle », « qui prennent la forme de thèmes contextualisés au sein de point de vue que globalement le groupe entretient sur les entités » (Cahier, 2005). Les thèmes sont représentés sous forme d'arborescence hiérarchique, qui n'implique pas de relation d'héritage mais plutôt des associations d'idées. La consultation de ces points de vue implique une interprétation, de la part de l'usager, et une lecture, intégrant les dimensions historiques et argumentatives des thèmes présents dans les points de vue et des points de vue eux -mêmes. Cette approche intégrant les dimensions historiques et argumentatives des thèmes rejoint celle de Muriel Amar sur la dimension discursive de l'indexation. Le point de vue est défini ainsi par J.-P. Cahier : « est un descripteur de mise en situation d'une Entité correspondant à une vue de certains Acteurs. Il correspond à une famille de caractéristiques ou de ‘ facettes ' de l'Entité, regroupées et hiérarchisées en plusieurs niveaux, en fonction d'un angle de vision ‘ faisant sens ' pour un acteur ou un ensemble d'acteurs donnés dans certaines situations (par exemple un point de vue correspondant à ‘ un métier ') » (Cahier, 2005). Dans l'état actuel du prototype Explore, quatre points de vue ont été élaborés : un point de vue « découverte » : de vulgarisation; un point de vue thématique : le thésaurus ad hoc; un point de vue « socio-dramaturgique » : une ontologie sémiotique sur les aspects sociaux et dramaturgiques du sujet; un point de vue historique : qui retrace les différents événements passés ou futurs (lois, colloques, journée d'études…) sur le sujet. Le thésaurus ad hoc est donc intégré dans l'application Explore à la manière d'un point de vue, parmi d'autres. Il ne prétend pas être la seule représentation possible du contenu, et valide la théorie évoquée par Muriel Amar pour une indexation discursive, non consensuelle, et favorisant la pluralité des points de vue sur les documents du corpus tout en autorisant une indexation fine et précise des items. Ces points de vue n'ont pas été construits de façon collaborative, dans le sens où ils n'ont, pour cette première phase pas été élaborés en interaction avec le public ni avec les chercheurs, bien que l'application soit conçue pour cette utilisation. Dans un premier temps, le public le plus concerné est constitué par les riverains des sites d'enfouissement, mais pour le débat public, l'ensemble de la société reste à consulter. Nous souhaitions proposer des exemples de points de vue en même temps que des cartes de repérage pour les futurs utilisateurs. Ceux -ci devraient faciliter aussi la prise de connaissance du sujet pour le public des novices via la navigation à travers les thèmes. En effet, la navigation dans les points de vue est le mode d'accès à l'information et le mode de consultation privilégié dans cette expérimentation. A ce stade, nous n'envisageons pas d'intégrer un moteur de recherche à l'application car nous pensons que les utilisateurs novices ne maîtrisent pas suffisamment le domaine pour être en mesure de formuler des requêtes dans un moteur. Même si l'application Agorae est conçue pour permettre l'émergence d'un consensus relatif, elle n'est pas considérée ici comme un lieu de débat public, aussi la participation est limitée aux chercheurs du domaine dans un premier temps. Il s'agit plutôt d'un outil d'information du public qui possède peu de connaissances sur le sujet. L'usager est dans une démarche de recherche ouverte d'information, sur le mode du browsing, il n'a pas défini l'objet de sa recherche précisément, il va donc « butiner » des informations en naviguant dans les points de vue proposés et en exploitant la structure hypertextuelle des liens présents dans Explore. L'expérimentation Explore permet d'exploiter cet état cognitif intuitif et associatif de découverte de l'information, tout en proposant un système d'organisation de la connaissance semi-formel, qui tendrait à situer la recherche d'information dans cette application, dans une sérendipité structurelle (telle qu'elle se manifeste dans les rayonnages des bibliothèques, où les documents sont classés par sujets en fonction d'une classification), liée à la structure première d'Explore en points de vue et à la structure en grands domaines des descripteurs du thésaurus ad hoc. Puis à l'intérieur même du thésaurus ad hoc, la sérendipité tendra plus vers la sérendipité associative, due à la structuration des descripteurs via des relations d'association. La dimension discursive entraîne une formulation des termes insérés dans le thésaurus ad hoc d'Explore, directement prélevée dans les documents ayant servi à l'élaboration du point de vue thématique (le thésaurus ad hoc). Cette dimension discursive respecte la diversité des points de vue et des idées développées par les auteurs sur ce nouvel objet de recherches qu'est la réversibilité. Le thésaurus ad hoc va donc contribuer à la définition du besoin informationnel de l'utilisateur qui va naviguer en son sein, et à l'intérieur des autres points de vue, en lui proposant des contenus variés et des modes d'accès divers à ces contenus (ontologies sémiotiques, thésaurus ad hoc). L'utilisateur va découvrir le domaine et acquérir des connaissances et pourra identifier plus précisément les aspects qui l'intéressent davantage qu'il pourra ensuite approfondir. Le thésaurus ad hoc par son approche discursive de l'indexation favorise l'acculturation de l'usager avec le vocabulaire du domaine. Il positionne l'usager dans une démarche d'enquête. Il ne comprend pas nécessairement tous les liens d'association mais il dispose d'indices pour mener son enquête par l'environnement des termes positionnés autour de ceux générant de l'incertitude : il s'agit d'une exploitation de l'implicite des relations associatives non formelles, ni normalisées, pour stimuler la découverte de l'usager sur le mode de la sérendipité. Grâce aux affordances des interfaces homme-machine, la manipulation informatique est facile pour un contenu difficile et pour un accès unifié malgré l'hétérogénéité des sources et des documents. La stratégie d'itinérance dans l'outil est encouragée (notamment dans la deuxième expérimentation) : il n'y a en effet, pas un seul bon chemin pour trouver de l'information mais une infinité : l'usager ne sera pas confronté à l'erreur, puisque durant son parcours interprétatif, il trouvera toujours des informations. On lui propose donc des balises (les termes du thesaurus ad hoc) et il peut s'orienter dans l'univers du domaine grâce à ceux -ci, et se construire progressivement sa propre représentation mentale du domaine, non figée, qui peut être révisée lors d'une prochaine visite. Le risque est la désorientation mais elle fait partie de la stratégie de navigation proposée à l'utilisateur, l'incertitude dans laquelle il se trouve par rapport à la structure du thésaurus ad hoc est relative, et doit pouvoir l'inciter à réduire l'incertitude qui anime sa recherche. Ce principe qui allie la sérendipité et l'itinérance repose sur la tolérance à l'incertitude de l'utilisateur (qui peut constituer une limite) et sur la motivation de l'usager. Le transfert du lieu de la thématisation et de l'interprétation de l'indexeur vers l'usager, remet l'usager au centre du système, en lui donnant l'occasion d'utiliser ses capacités intellectuelles pour comprendre et déterminer le sens d'un mot dans un contexte donné, sans lui dicter un sens prescrit. Cette problématique de la sélection du corpus est abordée par M. Amar de la façon suivante : « ce n'est qu'en ayant conscience que la sélection des sources aboutit à la création d'un univers documentaire particulier, que l'on peut véritablement poser la problématique de l'usage des mots en indexation : les mots en indexation ont alors pour fonction d'établir un passage entre l'espace documentaire des indexeurs et l'espace d'usages de l'utilisateur » (Amar, 2000). Pour ce qui concerne la création de ressources terminologiques, comme les thésaurus ad hoc, nous préconisons d'agir en fonction des contraintes de temps, des ressources disponibles des objectifs de l'outil, en termes de diffusion des contenus, de public visé, d'environnement technique, de degré de spécificité souhaité de l'outil et du domaine. Il est nécessaire de borner également au niveau temporel et spatial l'étendue historique et géographique des documents utilisés pour l'élaboration du langage documentaire et par conséquent l'espace documentaire traité par ce langage. Il est évident que ces éléments, en particulier les contraintes temporelles et budgétaires, ont un impact sur le degré de spécificité de l'outil créé. Pour circonscrire l'étendue spatio-temporelle de l'outil, il est possible de consulter des experts du domaine, mais il peut être utile de posséder un minimum de maîtrise du domaine à aborder, et des problématiques inhérentes à ce domaine. Notre méthode pour l'élaboration d'un thésaurus ad hoc vient en contrepied de la méthode traditionnelle de collecte de candidats-descripteurs de la méthode traditionnelle (méthode analytico-synthétique). Elle consiste à extraire des textes sources, des « syntagmes nominaux complexes », qui entretiennent une « relation référentielle autonome » (Amar, 2000), avec ce à quoi ils se rapportent, soit au cours de la lecture, de façon manuelle, soit automatiquement grâce à des technologies de traitement automatique du langage adaptées, dans une visée d'exhaustivité, quelle que soit la méthode de collecte employée, contrairement aux méthodes d'élaboration de thésaurus classique dans lesquelles la possibilité d'une exhaustivité de la collecte n'est pas envisagée. Pour des corpus limités, il est possible, si les ressources le permettent de collecter les termes manuellement, dans le cas de corpus plus étendus, l'apport de l'informatique apparaît essentiel. L'exhaustivité est entendue ici comme un objectif, difficile à atteindre via une collecte manuelle, mais le concepteur doit tenter de s'en approcher, tandis qu'avec un outil d'extraction automatique pertinent, il est possible de s'approcher de cet objectif plus aisément. La raison d' être de cet objectif est la dimension discursive des textes eux -mêmes. En effet, dans une approche qui privilégie la diversité des points de vue développés par les auteurs, il ne faut omettre aucun élément de leurs genèses, développements et implications pour permettre aux utilisateurs d'en comprendre les subtilités. Cette recommandation provient du constat de proximité des idées de certains auteurs, qui impliquent des distinctions parfois ténues, mais sensibles, et qui peuvent entre autres, se manifester dans l'usage de termes similaires, mais définis différemment. Ainsi, dans la méthode classique, tous les termes collectés (candidats-descripteur) ne sont pas conservés dans la version aboutie d'un thésaurus. Le critère de sélection principal pour le choix d'un terme étant généralement la fréquence de ses occurrences, ou « caution bibliographique » (Hudon, 1994). Or, le même terme employé dans des documents distincts ne sera pas inséré dans le même discours, et ne renverra donc pas nécessairement à la même notion, ou à la même acception de la notion qu'il désigne. C'est pourquoi, dans notre méthode, pour une pluralité de points de vue, tous les syntagmes nominaux complexes identifiés et extraits du matériau des textes ont vocation à être conservés dans le thésaurus ad hoc. Nous faisons donc l'hypothèse qu'il peut être nécessaire de refléter ces divergences au sein d'un langage d'indexation et de recherche, par exemple pour un sujet donnant lieu à de fortes controverses, comme dans la deuxième expérimentation que nous avons présentée précédemment dans cet article. Dans la méthode classique, cette opération facilite la manipulation et les décisions pour les premiers tris et classements des termes collectés. Cette structuration en grandes rubriques peut prendre la forme de classification en disciplines et sous-disciplines, en domaines et sous-domaines, ou thèmes, ou encore par facettes. Nous proposons la création d'une classification de premier niveau hiérarchique pendant la collecte, pour l'organisation en grandes catégories thématiques des termes extraits, qui peut se rapprocher de la création de champs sémantiques, ou de la catégorisation en domaines ou en disciplines dans les thésaurus classiques, selon les contextes. Cette classification globale au fil de l'eau permet d'élaborer et d'organiser les grandes catégories thématiques en fonction du matériau des textes et a posteriori, toujours pour favoriser la pluralité des points de vue dans la distribution en catégories malléables et évolutives, des connaissances du domaine. Nous proposons ci-après un aperçu de la classification effectuée pour la deuxième expérimentation. Cette phase, dans notre méthodologie, consiste à classer les termes extraits dans la classification thématique et à organiser la hiérarchisation des termes extraits, sur plusieurs niveaux de spécificité, en fonction de relations d'association plus variées que dans les thésaurus classiques, en priorité, et génériques/spécifiques si besoin. Les différentes relations sémantiques (Terme Générique/Terme Spécifique ou Terme Associé ou encore Employé pour) intégrées dans le thésaurus ad hoc ne pourront être discriminées car nous n'intégrons pas de signalisation par les abréviations (TG/TS/TA/EM) comme dans les thésaurus classiques. L'interprétation de la hiérarchisation des termes extraits est donc laissée au soin des utilisateurs qui devront fournir un effort de compréhension lors de la consultation du thésaurus ad hoc. Cet effort leur permettra de prendre connaissance du sujet à même les termes du texte (à travers la matière non transformée des textes), et leurs dimensions discursives, et donc éventuellement contradictoires. Nous faisons l'hypothèse que cette présentation synthétique des textes suscite un besoin d'apprentissage et incite l'usager à consulter les textes pour résoudre les contradictions et les questions liées à des formulations éventuellement obscures au premier abord pour l'utilisateur novice. Nous ajoutons dans notre méthodologie une phase facultative d'harmonisation du classement, et de la forme des termes extraits qui s'avéreraient trop proches, difficilement discriminables. Cette phase effectuée avec l'aide d'experts du domaine traité par le thésaurus ad hoc peut s'avérer utile et éventuellement s'accomplir à l'aide d'outils d'analyse qualitative de textes, ou de TAL. La « relation référentielle autonome » du descripteur à l'objet auquel il se rapporte, provient du fait que le descripteur, dans l'approche de M. Amar que nous avons adoptée, est « créé par/issu du discours lui -même » (Amar, 2000) et révèle donc une acception particulière de cette occurrence du terme descripteur, en tant que mot du discours. Ceci implique aussi que la forme du descripteur est caractérisée comme un « syntagme nominal complexe » construit par la syntaxe. Il s'agit d'une approche logico-sémantique du syntagme nominal développée par M. Le Guern, dans laquelle les unitermes sont l'exception. Nous avons évoqué une méthode d'élaboration manuelle des thésaurus ad hoc, qui reste valide pour des corpus limités mais peut s'avérer coûteuse pour des corpus plus étendus. Cependant nous pensons, à l'instar de Muriel Amar que l'apport de l'informatique dans le domaine du traitement automatique du langage pourrait faciliter et accélérer la tâche d'extraction des syntagmes nominaux complexes. Par ailleurs, pour améliorer la formulation des termes du thésaurus ad hoc d'Explore notamment pour l'harmonisation des formes syntaxiques, nous projetons également de tester des outils d'analyse qualitative de textes. Par ailleurs, « trouver la cohérence d'un texte est la clé essentielle de la compréhension », celle -ci consistant d'après Baccino et al. « à établir des liens entre d'une part des parties distantes de l'énoncé et d'autre part entre le texte et les connaissances du lecteur ». Elle est facilitée si « le but initial est maintenu actif tout au long de la lecture ». Dans une stratégie de searching, le but étant relativement défini, la compréhension fonctionne à travers un calcul « de cohérence locale par rapport à la cohérence globale du document » ou du système (Baccino et al., 2008). Dans une stratégie de browsing, l'objectif de la recherche étant peu identifié, il semblerait que la désorientation soit plus probable, et la recherche d'une cohérence, plus coûteuse. En effet, (Baccino et al., 2008) citant A. Tricot affirment que « lire un hypertexte pour accomplir une tâche (…) occasionne moins de désorientation cognitive qu'une lecture dont le but est simplement d'informer ». Forts de ce constat, nous pourrions aider les utilisateurs novices (en termes de connaissance du domaine et de l'interface) d'Explore, à passer d'une stratégie de browsing à une stratégie de searching, pour les inciter à approfondir le sujet de la réversibilité sur des aspects particuliers, en leur proposant des quiz, ou des QCM, sur un mode ludique. Nous pourrions aussi leur proposer un jeu de questions sous forme de FAQs. Ceci pour initier des besoins informationnels et soutenir la définition des objectifs de recherche d'information des utilisateurs de l'application. Par ailleurs, (Dinet et al., 2008) démontrent que les hypertextes « imposent généralement un effort cognitif et un contrôle métacognitif très importants ». En effet, ils favorisent la « gestion de buts flous, la lecture de l'hypertexte permettant au fur et à mesure à l'utilisateur d'élaborer une représentation plus structurée du contenu traité et de son but. Mais, permettant facilement au but informationnel d'évoluer, ils permettent aussi de le perdre » Aussi, pourrions -nous proposer des cartes conceptuelles des liens dans Explore, qui agiraient comme des plans en rendant plus visible la structure de l'application et des points de vue et facilitant en retour la lecture, la recherche de la cohérence, et la compréhension des textes. La carte conceptuelle serait alors utilisée « comme un moyen pour activer un schéma de connaissance qui structure et organise les informations rencontrées lors de la lecture », (Baccino et al., 2008) le taux de compréhension augmentant avec le temps passé à lire la carte conceptuelle, selon certaines expériences menées par Thierry Baccino, Ladislao Salmeron et José Canas. Enfin, il nous apparaît que les apports des thésaurus ad hoc et l'approche discursive de l'indexation, ne se comprennent que dans un environnement numérique et informatique. En effet, l'usage d'un thésaurus ad hoc sous forme papier s'avérerait très difficile, et ses bénéfices ne proviennent que d'une complémentarité avec d'autres SOC et avec des applications adaptées pour les mettre en œuvre et en valeur .
Après la présentation d'un nouveau type d'outil d'indexation et de recherche d'information, les thésaurus ad hoc, dont nous exposons les fondements théoriques et la typologie des activités de recherche qui en résulte, qui implique la nécessité d'une coopération entre différents SOC (systèmes d'organisation des connaissances), nous proposons une description de deux expérimentations de systèmes MultiSOC intégrant des thésaurus ad hoc. Nous développons ensuite une méthodologie de conception de thésaurus ad hoc dans le cadre de la complémentarité avec des outils informatiques. Cette complémentarité, rendue possible par l'utilisation d'outils de traitement automatique du langage, au niveau de la conception des thésaurus ad hoc, s'exerce aussi dans la présentation et les usages de ces ressources terminologiques.
sciencesInfo_11-0484928_tei_DN_132_0013.tei.xml
termith-478-communication
Qu'elle prenne la forme d'un appel de personnalités ou d'une pétition de masse, lapétition politique a été fort peu analysée par les sciences humaines et sociales (shs) et ce constat vaut autant pour les traditionnellespétitions « papier » (Contamin, 2001) que pour les pétitions « en ligne » qui semultiplient depuis la fin des années 2000 (Boure, Bousquet, 2010). En outre, quandelle fait l'objet d'une attention plus marquée, c'est souvent parce qu'elleconstitue une entrée parmi d'autres pour traiter d'objets plus vastes et plusnobles : les mouvements sociaux, les mobilisations, les débats publics, l'engagementpolitique, les pratiques des intellectuels. .. Pourtant, en dehors même de saprétendue renaissance – en fait, elle n'a jamais cessé d'exister depuis lareconnaissance en 1791 du droit de pétition – et des questionnements récurrents surson (in)efficacité ou sur le « coût de l'engagement » pour ceux qui la signent, lapétition doit surtout être interrogée quant à ses transformations récentes dans sesformes et ses usages. Ces changements sont à mettre en perspective autant avec lesnouvelles formes d'action collective (Fillieule, Péchu, 1993; Neveu, 1999, 2002 ;Cadiou, Déchezelles, Roger, 2007) et les nouvelles manières d' être citoyen ou demiliter (Ion, 1997; Ion, Franguiadakis, Viot, 2005), qu'avec la montée en puissancede l'internet dans les mobilisations et au-delà dans le débat public et lespratiques démocratiques (Granjon, 2001, 2002; Jauréguiberry, Proulx, 2002; Cardon ,2010). Et aussi avec les formes contemporaines de production de l'information dite« alternative » (Cardon, Granjon, 2010) car la pétition politique est à la fois uneressource spécifique qui fait l'objet d'appropriations et d'usages multiplesméritant d' être étudiées et un analyseur pertinent des pratiques et des discourspluriels d'acteurs sociaux collectifs et individuels impliqués dans des formesd'action collectives situées et complexes. À partir de trois pétitions électroniques( « Nous ne débattrons pas », « Arrêtez ce débat Monsieur le Président » et « Appelpour la suppression du ministère de l'identité nationale et de l'immigration »), lancées lors du débat sur l'identiténationale organisé par l'exécutif, cet article interroge l'énonciation au-delà desstéréotypes et des clichés. Dès lors, plusieurs questions vives émergent : par qui ,comment et dans quel contexte ces pétitions ont-elles été fabriquées, pour ne pasdire bricolées ? Comment leurs initiateurs se représentent-ils et représentent-ilsla cause qu'ils défendent ? Les « outils » (l'appel, le dispositifsociotechnique. ..) qu'ils mettent en œuvre portent-ils les traces de cesreprésentations ? In fine, c'est bien la construction de leurespace politique et communicationnel qui doit être questionnée. Or, cet espace n'estpas uniquement constitué de prises de position, de discours et d'actes de sespromoteurs. Il est aussi construit par les soutiens immédiats des personnalitéssignataires, par les médiateurs de toute nature qui la font connaître et circuleret, enfin, par les signataires « anonymes ». Parce qu'elle est nécessairement multiple, l'énonciation est aussi polyphonique. Etc'est d'une polyphonie gigogne qu'il est ici question car si chaque pétition entendexprimer une voix spécifique, cette dernière est co-construite par plusieurs voixqui tantôt s'accordent, tantôt s'écartent. La pétition électronique est un exemplesignificatif des formes « nouvelles » d'interventions dans l'espace public dontl'analyse demande que l'on prête une égale attention au contexte, aux énonciateursmultiples, aux dispositifs, aux relais et à la réception. Pour une raison de« format » et parce que cet angle est relativement inédit, on se bornera à analyserla construction des trois pétitions jusqu' à leur mise en ligne, laissant à une autrerecherche le soin d'étudier comment elles ont été reçues et relayées, puis commentelles ont été signées par des anonymes ou présumés tels. Chacune sera saisie, tantôtséparément, tantôt simultanément, comme dispositif sociotechnique de médiation ,répertoire pour l'action et cadre normatif suffisamment malléable pour tolérer ,jusqu' à un certain point, une pluralité de voix, voire d'engagements. Largement exhaustif pour la période considérée, le corpus doit être brièvement replacé dans son contextehistorique : celui d'un combat autour d'un objet fortement polémique (l'identiténationale), mais à partir duquel plusieurs voix sont susceptibles de s'exprimer ,au nom des « valeurs républicaines », de « l'antiracisme » ou du « vivreensemble ». Il s'inscrit lui -même dans une longue tradition pétitionnaire surdes thématiques voisines tout aussi polémiques (immigration, racisme. ..) qui asouvent mêlé intellectuels, artistes, responsables politiques, médias, maisaussi, sous des formes et à des degrés divers, citoyens « sans qualité », pourne pas dire « sans voix ». Néanmoins, pour cet article, la contextualisationcommencera avec les prises de position sur l'immigration du candidat NicolasSarkozy lors de la campagne présidentielle de 2007, et surtout sur l'associationrégulière entre immigration et identité nationale qu'il poursuivra après lesélections, notamment avec la création du Ministère de l'immigration et del'identité nationale. Car ce sont bien ces déclarations etcette décision qui cristallisent l'opposition de plusieurs acteurs bien avantque ne s'engage le « grand débat sur l'identité nationale ». Ce derniersuscitera à son tour d'autres réactions, incluant souvent ceux qui s'étaientdéjà manifestés. Au cours de ces deux périodes, marquéesdavantage par une multitude de prises de position et de micro-mobilisationslocales et nationales, parfois fortement médiatisées, que par des mouvements degrande ampleur à l'échelle du pays, la pétition va apparaître comme uneressource pertinente, plus particulièrement pour des acteurs de l'enseignementsupérieur et de la recherche. En même temps, la diversité des pétitions – tantau niveau du « statut » des initiateurs qu' à celui des objectifs assignés parces derniers – est un premier signe de cette polyphonie évoquée supra. C'est plus précisément lors de l'émission de télévision de France 2 « À vous de juger » (08/03/07) que le candidat NicolasSarkozy avance une nouvelle proposition, l'instauration d'un ministère del'Immigration et de l'Identité nationale, proposition réitérée et explicitéeles jours suivants (Jourdain, 2008). Peu conforme au programme de l ' ump qui évoquait jusqu'ici la création d'unministère de l'Immigration, voire à d'autres propositions du candidat( ministère de l'Immigration et de l'Intégration nationale, par exemple) ,cette annonce est interprétée par plusieurs commentateurs comme une manœuvrepolitique d'abord destinée à séduire l'électorat du Front national. En toutétat de cause, elle suscite des réactions, non seulement des partis degauche et d'extrême-gauche, mais aussi de la part d'associations de défensedes droits de l'homme et/ou des immigrés ainsi que d'intellectuels ,notamment des universitaires et des chercheurs relevant pour la plupart dessciences humaines et sociales. Plusieurs tribunes et entretiensd'universitaires sont publiés par la presse écrite nationale, tandis qu'unepremière pétition intitulée « La société française s'est construite par lesimmigrations » est annoncée le 13 mars 2007 dans les pages « Rebonds » deLibération. Elle est signée par une centained'universitaires et de chercheurs dont certains jouissent d'un notable échomédiatique (Olivier Duhamel, Evelyne Pisier, Michelle Perrot, etc.). Ellerefuse « qu'une campagne présidentielle se joue sur de prétenduesoppositions entre immigration et identité nationale ». Si elle se terminepar un appel à signatures, elle adopte un mode opératoire – envoi d'uncourriel à l'adresse « [email protected] » – qui lui interdit unediffusion de masse. Elle semble donc davantage destinée à affirmer uneposition dans l'espace public durant la campagne électorale qu' à « fairenombre ». La deuxième vague de réactions suit de près l'annonce du gouvernement Fillon ,le 18 mai 2007. Son premier moment fort vient du monde de l'enseignementsupérieur et de la recherche avec les démissions de huit chercheurs ducomité de pilotage de la Cité nationale de l'histoire de l'immigration, le jour de la créationdu ministère. Dans le même temps, de nombreuses associations de défense desdroits de l'homme et de protection des immigrés, des partis politiques etdes syndicats réagissent par des communiqués. Une pétition, intitulée« Identité nationale et immigration : inversons la problématique », estinitiée par terra (Travaux, études, recherches surles réfugiés et l'asile), réseau de sciences humaines et sociales dontl'objectif est de « stimuler la production des connaissances sur un domainesaturé dans l'espace public par les idéologies et les croyances ». Elle estd'abord signée par son comité éditorial, puis par son comitéscientifique et enfin par ses membres, tous (enseignants-)chercheurs. Elleest diffusée par plusieurs sites d'organisations concernées par cesquestions, mais semble avoir échappé aux médias et plus généralement àl'opinion publique. D'abord, parce que la plupart des signataires ne sontconnus que de leurs champs, ensuite parce que le contexte n'est guèrefavorable à sa réception sociale : Nicolas Sarkozy vient d' être élu et sonimage, mesurée par les sondages, est très positive. Une autre pétition, étroitement liée à la démission des chercheurs évoquéesupra, voit le jour en juin 2007. Après uneréunion publique convoquée à l ' ehess par lesdémissionnaires (01/06/07), un collectif se constitue pour lutter contrel'existence du ministère et organiser sa surveillance, notamment en créantun observatoire de ses pratiques. Un site (Upolin.org, Usages politiques del'identité nationale) est mis en ligne le lendemain. Il accueille peu aprèsl'appel « Non au ministère de l'Immigration et de l'Identité nationale » ,également publié par Libération le 22 juin 2007. Ilest signé par près de 200 personnalités, issues principalement del'enseignement supérieur et de la recherche, auxquelles s'ajoutent deuxresponsables syndicaux (François Chèrèque et Bernard Thibault) et quelquesartistes (dont Ariane Ascaride et Ariane Mnouchkine). Il reste en ligne unan et recueille 16 599 signatures. La troisième vague de réactions débute en septembre, lorsque le député ump Thierry Mariani propose un amendement à lapremière loi initiée par le ministère afin d'utiliser les tests adn dans le cadre des procédures de regroupementfamilial. La première réponse vient de « Sauvons la recherche » .L'association met en ligne le 16 septembre 2007 un appel demandant auxparlementaires de rejeter l'amendement qui reçoit 50 076 signatures, ce quiest loin d' être négligeable. Un autre appel, cette fois -ci interne au mondede la recherche sur l'immigration, est lancé le 2 octobre 2007 par 20universitaires, bientôt suivis par 42 autres, tous affirmant leur hostilitéà la création d'un Institut d'études sur l'immigration et l'intégration ,annoncée par Brice Hortefeux, le titulaire du portefeuille ministériel. Ilsdénoncent « un nouvel instrument de pilotage politique des recherches quidéterminera les champs et sujets pertinents sur lesquels engager des travauxscientifiques ». C'est donc encore du côté du monde de la recherchequ'émergent des initiatives pétitionnaires. Si elles sont peu médiatisées ,elles bénéficient d'une réceptivité sociale certaine dans le champscientifique où elles sont fortement relayées par des listes de diffusion ,des sites et des blogs. Ces pétitions fonctionnent donc sur des logiques deregroupement d'individus relevant d'un même champ en vue d'une affirmationet d'une mise en visibilité de positions politiques, avec une viséeopératoire à plus ou moins long terme. D'autres acteurs, disposant d'autresmoyens, s'engagent à leur tour dans la lutte contre les tests adn. Ainsi sos Racisme etCharlie Hebdo lancent-ils le 3 octobre 2007 unepétition qui recueille 316 486 signatures, dont 221 600 les 12 premiersjours. Elle est suivie d'une autre, elle aussi fortement signée, dontl'initiative revient à sos Racisme (30/10/07) et quis'oppose aux statistiques ethniques. Médecins du Monde initie le 25 octobre une pétition intitulée « Médecine etimmigration : non aux liaisons dangereuses » qui obtient 26 000 signatureset est remise à la Ministre de la santé le 17 janvier 2008. Ce texte demandele retrait de l'amendement Mariani et de toutes les mesures permettantd'utiliser des moyens médicaux pour identifier les étrangers en situationirrégulière. Six autres pétitions liées au traitement réservé auxpopulations immigrées voient le jour entre octobre 2007 et octobre 2009. Lesplus signées sont celles du Réseau d'éducation sans frontières (resf), association acculturée aux mobilisations etrecourant indifféremment à plusieurs répertoires d'action : « Protection desétrangers » (10/10/07) et « Laissez les grandir ici » (13/05/08) rassemblentrespectivement 134 024 et 117 056 signataires au 29 décembre 2010, les deuxtiers ayant signé les trois premiers mois. Ces dernières pétitions, initiéespar des acteurs différents expriment chacune un souci d'efficacité à traversun objectif très précis qu'ils espèrent atteindre rapidement. Après la nomination d' Éric Besson au ministère de l'Identité nationale et del'Immigration, Nicolas Sarkozy rend publique le 7 avril 2009 sa feuille demission dans laquelle figurent cinq priorités, dont « la promotion de notreidentité nationale ». C'est sur elle que s'appuie le nouveau ministrelorsqu'il évoque, le 25 octobre 2009, le lancement d'un « grand débat » avecles « forces vives » du pays, afin de « réaffirmer les valeurs de l'identiténationale et la fierté d' être Français ». Il vient juste d'affronter unepolémique nationale et quelques mobilisations locales à propos dudémantèlement de la « jungle » de Calais et du renvoi en Afghanistan d'ungroupe d'immigrés clandestins. En outre, depuis quelquessemaines, Jean-François Copé, président du groupe ump à l'Assemblée nationale, multiplie les déclarations sur lesujet (par exemple « la question de l'identité nationale va structurer ledébat politique dans les années qui viennent », Libération, 06/10/09). Le 26 octobre 2009, un communiqué ministériel fixe les modalités du débat :il débutera le 2 novembre et durera deux mois et demi; des réunions serontorganisées dans les préfectures et sous-préfectures et seront animées par lecorps préfectoral ainsi que les parlementaires nationaux et européens; ledébat se conclura par « un grand colloque de synthèse » fin janvier-débutfévrier 2010, soit en pleine campagne des élections régionales. Un siteinternet participatif est prévu pour accompagner le débat et permettre àtous les Français de s'exprimer. Les participants devront répondre à deuxquestions générales (« Pour vous, qu'est -ce qu' être français aujourd'hui ? »et « Quel est l'apport de l'immigration à l'identité nationale ? ») et à desinterrogations sur des thèmes particuliers : définition de « notre Nation » ,solidarité nationale, laïcité, etc. Dès l'annonce du débat, la séquenceouverte au printemps 2007 semble se répéter : tribunes d'intellectuelshostiles, réactions indignées d'associations, communiqués de partis et desyndicats (mais aussi affiches et tracts), et nouvelle vague de pétitions ,au premier rang desquelles figurent les trois que nous avons retenues. Selon une approche inspirée de Michel Foucault (1994), une pétition en ligne peutêtre, en partie du moins, considérée comme un dispositif sociotechnique demédiation dans le sens où elle rend compte d'un ensemble d'interactions socialesse traduisant par des discours organisés autour d'une interface technique et quirenvoient à des intentions, des postures, des pratiques et des interprétations .Les agencements hétérogènes de chaque dispositif pétitionnaire en disentbeaucoup sur les énonciateurs : sur leur diversité d'abord, sur leurs intentionset leurs stratégies ensuite et, enfin, sur leur manière de concevoir l'actionpétitionnaire et la façon dont ils anticipent et « informent », sans pour autantla maîtriser, sa réception sociale. Ce faisant, ils en disent aussi beaucoup surles destinataires, car la médiation se noue toujours autour de liens, tantôtsouhaités, tantôt imprévus et d'interprétations multiples. La pétition de masseen ligne est ainsi un dispositif dont l'objectif affiché (recueillir dessignatures pour soutenir un texte donnant du sens à un combat politique et fairepolitiquement usage des signatures) peut être amendé, contourné, déplacé ,« braconné » (De Certeau, 1990) par les personnalités qui le légitiment par leurnom, par ceux qui le relaient et par les signataires finaux. Une pétitionélectronique se donne immédiatement à voir à travers un premier « observable » ,son site et, plus précisément, sa conception, son organisation, sonfonctionnement et son évolution. Le site renvoie aussi auxénonciateurs-promoteurs, aux personnalités appelantes qui co-construisentl'énonciation et à ce qui est souvent présenté comme la composante centraled'une pétition, l'appel. La description de chaque dispositif est donc une« étape » nécessaire qui doit aller au-delà du simple relevé cartographique pours'attacher à des éléments significatifs de cet « entre-deux » (Peeters, Charlier, 1999) qu'est tout dispositif de médiation et ,par conséquent, mettre à jour des relations et des tensions. Ils ont tous un intérêt symbolique et/ou matériel pour agir, mais pour desraisons qui ne se recouvrent pas complètement. Par ailleurs, tous ont, à desdegrés divers et à des époques différentes, déjà puisé dans les« répertoires d'action collective » (Tilly, 1978 )les formes qui leur semblaient appropriées pour atteindre leurs objectifs ,la pétition étant l'une d'elles. En même temps, ce ne sont pas desorganisations de même nature, et de ce fait elles n'ont ni les mêmes buts ,ni les mêmes intérêts matériels et symboliques, ni les mêmes moyens, ni lesmêmes « publics » ce qui n'empêche pas certaines de coopérer ou de serelayer mutuellement : « Arrêtez ce débat » a pour géniteurs sos Racisme et Libération ,c'est-à-dire une association créée en 1984 pour lutter contre lesdiscriminations et plus particulièrement le racisme et un quotidienqui, depuis sa naissance, a toujours été très sensible autant à laquestion de l'immigration sous ses multiples dimensions qu'auxenjeux culturels au sens anthropologique du terme. Desorte que leurs « univers de référence » sur les discriminationsraciales et la xénophobie se recoupent partiellement, tout commeleur positionnement politique. De la même façon, chacun a unecertaine habitude des pétitions : sos Racisme en a initié plusieurs ,soit seul, soit en relation avec d'autres; ainsi il s'est associéeà l'hebdomadaire satirique Charlie Hebdo, avec le soutien deLibération, pour unepétition contre les tests adn pour lesétrangers (voir supra). Libération s'est acculturé depuis longtempsaux pétitions soit en les commentant et/ou les relayant dans sescolonnes, éventuellement en donnant la parole à leurs initiateurs, soit – plus rarement – ens'érigeant en (co)-initiateur comme dans le cas présent, oupostérieurement avec « Touche pas à ma Nation », appel contre lesprojets de déchéance de la nationalité française lancé le 10septembre 2010 (avec sos Racisme et La Règle du Jeu, revue dirigéepar Bernard Henri Lévy) dans le prolongement du débat surl'identité, mais aussi d'autres actes de l'Exécutif fortementcontroversés (discours de Grenoble de Nicolas Sarkozy, expulsion desRoms, etc.); « Nous ne débattrons pas » est initié par Médiapart, journald'information généraliste numérique et participatif, lancé le 16mars 2008, dont les articles sont accessibles par abonnement. Dansson « Projet » mis en ligne le 2 décembre 2007 lors du lancement dupré-site, dont l'esprit n'a jamais été remis en cause, Médiapart sepositionne très clairement comme un média de référence indépendant ,différent de la presse papier et des autres journaux en ligne. Celase traduit par la place accordée au journalisme d'investigation ,mais également par la construction, au départ performative, du siteen lieu de « débat de référence, organisé et modéré » mêlantcontributeurs et lecteurs. In fine, il s'agit de « construire unpublic de lecteurs contributeurs, dessinant les contours d'unecommunauté intellectuelle ». Dans la pratique, les abonnés sontmembres d'un Club et peuvent, à travers des contributions respectantla Charte de participation, susciter et animer des débats. Des« invités », extérieurs au Club peuvent également s'exprimer sur dessujets d'actualité dans un espace réservé, voire proposer despétitions. La mise en œuvre rapide dece projet ambitieux et relativement inédit l'a conduit à jouer unrôle important, et socialement reconnu comme tel, dans l'inscriptionet la persistance de certaines questions dans les agendas médiatiqueet politique, « l'Affaire Woerth-Bettencourt » étant sans doute lecas le plus emblématique. Au moment du lancement de cette pétition ,Médiapart avait déjà eu l'initiative de deux pétitions : « L'appelde la colline » (24/11/08, plus de 5000 signatures revendiquées )avec Reporters Sans Frontières, pour défendre la presse libre etindépendante; « Affaire Pérol-Caisses d'épargne : soutenezMédiapart » (24/05/09, 7835 signataires), appel de 77 personnalitéspour soutenir le journal contre les poursuites dont il faisaitl'objet, 11 plaintes ayant été déposées par les Caisses d' Épargne ouleurs dirigeants. L ' « Appel pour la suppression du ministère de l'Identité nationale et del'Immigration » est dû à une structure ad hoc intitulée « Nous exigeons la suppression du ministère de l'Identiténationale et de l'Immigration » qui apparaît sur le site de la pétitionprincipalement à travers les noms des 20 premiers signataires et le texte del'appel qu'ils ont mis en ligne le 07 janvier 2010. Ce texte est publié pourla première fois le 4 décembre 2009 dans Libération ,le jour de l'ouverture du colloque sur l'identité nationale organisé parl'Institut Montaigne et ouvert par le Premier ministre; il est signé parles 20 personnalités précitées qui annoncent, par la voix de Michel Agier ,réfléchir à la création d'un collectif. Le terme « collectif » mérite d' être explicité tant son usage s'est banalisé ,au point de désigner des réalités multiples. Il ne s'agit pas ici d'un lieude mobilisation militante destiné à réunir au-delà (voire à côté ou contre )des organisations traditionnelles, voire plusieurs organisations, et quiserait voué à disparaître dès la fin de la lutte ou de sa poursuite sousd'autres formes. Ce n'est pas non plus un rassemblement ponctueld'intellectuels réunis par interconnaissance et qui seraient en accord avecle contenu et la nécessité d'un appel destiné à être signé « massivement » .En fait, il s'agit d'un objet hybride constitué d'un rassemblement depersonnalités : 1) appartenant pour 19 d'entre elles au champ del'enseignement supérieur et la recherche et se connaissant, certains ayantdes relations professionnelles, voire extra-professionnelles; 2 )travaillant sur des thématiques convoquée(s) par le débat sur l'identiténationale (nation, nationalismes, immigration, racisme, etc.), plusieursayant été et/ou étant impliquées dans d'autres actions collectives liées à ces thématiques, voire dansdes mobilisations récentes ou anciennes sur d'autres questions politiques ;3) demandant le soutien actif de partis, associations, syndicats etcandidats aux élections et leur engagement à œuvrer pour la suppression duministère; 4) développant, y compris sur le site, une logique de réseau ,notamment avec La Bandepassante, communauté d'échange internationaleculturelle « de pensées critiques, pratiques alternatives et créationcontemporaine », selon les termes mêmes de son sous-titre. Du point de vue de l'analyse de discours, un appel peut être considéré commeune forme particulière de discours instituant – au sens de « sorted'idéal-type du discours officiel de l'institution » (Oger, Ollivier-Yaniv ,2006 : 63) destiné à des publics larges et relativement hétérogènes. Dèslors, il porte en lui non seulement une parole « officielle » fortementaffirmée, mais encore les traces de polémiques avec les adversaires et lesalliés, et parfois de façon très euphémisée, de débats et de tensionsinternes. Les trois appels sont très proches au niveau de la forme, ce quin'a rien d'étonnant, puisque le genre « pétition politique » est connu etmaîtrisé sur le plan littéraire par les énonciateurs : les textes sont brefs( Médiapart : 1292 caractères, espaces compris ;Collectif : 2532; sos Racisme / Libération : 2908) car ils doivent pouvoir être lus rapidement ,voire de façon panoramique. Ils le sont d'autant plus que leurs auteurssavent que de nombreux signataires les survoleront ou ne les liront pas dutout. Les phrases et les paragraphes sont courts (Médiapart surtout), manifestant la volonté d'aller à l'essentiel ,autrement dit à ce qui fonde la légitimité et la nécessité de la pétition ,et de convaincre les signataires potentiels qui auraient besoin soitd'arguments simples pour en persuader d'autres, soit d'un accompagnementpour passer eux -mêmes à l'acte. Sur le plan linguistique, on retrouve nombrede marques banales dans les textes argumentatifs politiques à viséepolémique et mobilisatrice. On mentionnera sans les commenter les plussignificatives : connecteurs causaux renforçant la justification de la prise deposition (car, parce que, aussi) et conclusifs tirant lesconséquences des arguments développés (donc, c'est pourquoi, enconséquence, sans quoi). Il s'agit ici de répondre davantage à unimpératif de cohérence que d'explication; modalisation épistémique à travers des expressions ou des phrasesexprimant plus qu'une simple opinion, une connaissance « vraie » quia en outre l'avantage d'ignorer les débats internes entreinitiateurs, mais aussi entre initiateurs etpersonnalités-appelantes : « la preuve n'est plus à faire », « undébat qui, posé en ces termes, ne pouvait finalement rien produired'autre »; figures de styles et notamment des métaphores suggestives empruntéesà divers langages codés : géologique (fissure de la République) ,policier (rapt nationaliste de l'idée de nation), pénitentiaire ouasilaire (enfermement identitaire), chasse (piège), mécanique( machine de division et de stigmatisation), médical (malaise) ,militaire (manœuvre de diversion); structures récurrentes marquant l'insistance sur ce que l'ondénonce : « il (le débat) n'est ni libre, ni pluraliste, ni utile » ,ou encore, « il n'est pas libre », « il n'est pas pluraliste », « iln'est pas utile ». Parce qu'elles cherchent à rassembler plus endénonçant qu'en proposant, elles sont à rapprocher des structuresdichotomiques qui montrent une séparation irrévocable entre « eux »et « nous », ou si l'on préfère entre deux manières de concevoir laRépublique et/ou le vivre ensemble. Par ailleurs, le « nous » peutêtre utilisé soit pour identifier davantage l'émetteur auxrécepteurs, soit pour faire agir ces derniers en insistant sur lecaractère commun du combat contre l'Autre. In fine, il s'agit doncde mettre en visibilité la cohésion collective. Sur le fond, on peut aussi relever des ressemblances par-delà les inévitablescousinages liés à la proximité des objets principaux de la dénonciation (leracisme, l'exclusion, etc.) et sur lesquels il n'est pas indispensable des'attarder. Tous font plus appel au logos (recherchede la conviction par le raisonnement, fût-il à base de raccourcis) et à l 'ethos (autorité des signataires et autorité desprincipes dont ils se réclament) qu'au pathos. Tousse réclament d'opinions fortes comme l'antiracisme, le refus de l'exclusion ,la défense du vivre ensemble et de valeurs républicaines ou sociales( liberté, égalité, fraternité, solidarité), c'est-à-dire d'éléments à partirdesquels on peut argumenter avec vigueur et dont on peut attendre qu'ilsentrent en résonance avec la vision du monde des signataires potentiels ,ceux qui, par-delà la diversité des choix politiques, sont attachés aux« valeurs républicaines », aux « idéaux universalistes ». Ces élémentsconstituent en outre des référents communs aux initiateurs, auxpersonnalités et aux signataires anonymes. De façon assez classique, les appels sont structurés autour de trois momentsforts : la dénonciation (de situations, de propos, de pratiques). Elle setraduit aussi bien par la disqualification du discours adverse et larecherche d'un effet d'amplification (par exemple en recourant à destermes connotés : arbitraire, stigmatisation, autoritarisme, rapt ,manœuvres, honte) que par l'anticipation de questions que pourraientse poser les signataires potentiels; l'affirmation d'autres valeurs, d'autres comportements individuels etcollectifs et d'autres possibles, tantôt très proches (mettre fin àcertaines pratiques, sos Racisme/Libération), tantôt plus lointains (promouvoir une France dela liberté, de l'égalité et de la fraternité, Médiapart), ce quisuppose un regard différent sinon sur le monde, du moins sur lepolitique; une revendication centrale certes différente (voir infra), maischaque fois énoncée dans le titre par une formule, voire un slogan ,et à la fin du texte par le bref rappel de la dénonciation et dunoyau dur de la revendication : « C'est parce que nous entendons les( principes politiques, ndla) défendre quenous refusons un débat qui les discrédite. Nous ne tomberons pasdans ce piège tant nous avons mieux à faire : promouvoir une Francede la liberté des opinions, de l'égalité des droits et de lafraternité des peuples » (Médiapart); « C'est pourquoi nous vousdemandons, Monsieur le Président de la République, de mettre unterme à ces réunions, sans quoi la République française que vousreprésentez aura fait le choix de laisser se tenir en son sein etavec son assentiment un débat de nature à briser durablement lesfondements de notre vivre ensemble » (sos Racisme/Libération) ;« Nous appelons donc les habitants, les associations, les partis etles candidats aux futures élections à exiger avec nous lasuppression de ce ministère de l'Identité nationale et del'Immigration, car il met en danger la démocratie » (Collectif). Cela étant, on peut noter au moins deux différences. L'une se situe au niveaude l'objectif officiel de la pétition : le refus de débattre au nom del'idée que l'on se fait du débat démocratique (pluralité, liberté etutilité) et d'une autre conception de l'identité nationale pour (Médiapart); l'arrêt du débat en raison de soninstrumentalisation par le Gouvernement et de ses effets (libération deparoles « au mieux stigmatisantes, au pire racistes », accent mis sur ladésunion nationale) pour sos Racisme/Libération ;suppression d'un ministère honteux « qui introduit un risque d'enfermementidentitaire et d'exclusion » et « met en danger la démocratie » pour leCollectif, ce qui revient à ériger l'existence de ce ministère en problèmepolitique à la fois central et idéologiquement significatif. L'autre est davantage politique : alors que sos Racismeet Libération s'inscrivent quasi exclusivementen opposition au débat, les autres initiateurs vont au-delà. En effet, leCollectif « exige » la suppression d'un ministère et appelle « leshabitants, les associations, les partis et les candidats aux futuresélections » à formuler la même exigence, ce qui estune prise de position politique forte ayant valeur d'engagement pourl'avenir, tandis que Médiapart affirme dévoiler « lanature profonde du régime » qui renoue, à propos del'identité, avec l'idéologie de la droite extrême. Cela transparaît dansl'appel, mais est plus explicite dans son Cahier spécial : « Lesconservatismes de tous horizons voudraient une France immobile et éternelle ,figée. La vérité, c'est qu'ils ne l'aiment pas telle qu'elle est ». Il fautdonc leur opposer une autre idée de la France : « Critiquer la France, c'estl'aimer […] telle qu'elle bouge, évolue, change, se transforme et se modifiedans une fidélité frondeuse à son histoire et à ses promesses ». Ces différences conduisent à rechercher derrière ce qui est affiché desobjectifs plus masqués, liés à la nature des promoteurs de chaque pétitionévoquée supra, débouchant sur des usages moins ou peuen rapport avec ceux définis officiellement. sos Racismen'organise pas seulement une riposte attendue par ceux qui sereconnaissent dans son action sur une thématique en rapport avec les raisonsqui ont suscité sa création. Parce qu'elle est, dès l'origine, liée au Partisocialiste, l'association peut être tentée de mettre en cohérence certainesde ses actions avec la stratégie politique, voire électorale, de cetteformation. Libération peut, de son côté, se montrersoucieux de conforter une image, peaufinée depuis les années 80, dequotidien suffisamment sensible aux questions de société pour s'engagerquand les circonstances l'exigent, tout en étant très attaché à unerespectabilité difficilement construite pour ne pas la remettre en cause pardes prises de position rappelant son passé « contestataire ». Médiapart, journal électronique qui, comme sesconfrères, peine à trouver un modèle économique viable et à construire unelégitimité journalistique participative, peut aussi chercher à améliorersa visibilité auprès de certaines organisations, de l'opinion publique etd'un lectorat potentiel en montrantsa faculté à s'engager intellectuellement et « pétitionnairement » sur desthématiques fortes à propos desquelles il a mis en pratique le journalismed'investigation. D'ailleurs, il récidivera ultérieurement sur une thématiquevoisine, en hébergeant sur son site la pétition « Nous sommes tousfrançais », puis dans le cadre de l'Affaire Woerth/Bettencourt, en lançantl' « Appel pour une justice indépendante et impartiale ». En même temps, Médiapart n'oublie pas ses conditions matériellesd'existence : les signataires anonymes de la pétition qui ont accepté d' êtrecontactés par le journal, ont reçu plusieurs courriels signés d'Edwy Plenelles invitant à souscrire un abonnement, avec une offre promotionnelle. Pour sa part, le Collectif est dans une dynamique plus militante. Celle -ciest d'abord perceptible dans la forme organisationnelle choisie qui rappelled'autres instances utilisées pour d'autres luttes sociales récentes, puisdans l'hébergement du site par un réseau international réunissant des« créateurs » eux -mêmes engagés dans leur domaine respectif (La Bande Passante). Elle est également présente dansle fait que les signataires appelants sont en même temps les fondateurs ducollectif. Elle est enfin visible sur le site, moins par le texte del'Appel, que par les références auxquelles le site renvoie, lesmobilisations nationales et locales qu'il annonce et les divers outils qu'ilmet à disposition. Dans les perspectives approfondies par Gilbert Simondon (1969), onconsidérera qu'en tant qu'objet immatériel ayant une dimension techniqueavérée, un site n'est pas seulement décryptable à travers sa configurationtechnique, ses contenus, ses « fonctions utiles » ou son ergonomie. Il estaussi chargé de signes et donc de sens, et il s'inscrit au sein des discourset des pratiques de ceux qui le conçoivent (promoteurs), de ceux qui lelégitiment (personnalités) et de ceux avec lesquels il est mis en relation( médias, organisations, blogueurs et enfin signataires anonymes). SelonSébastien Rouquette (2009 : 10), un site est « l'exemple même de l'objet decommunication soumis à une multiplicité de facteurs sociaux, politiques ,économiques, esthétiques, médiatiques ». Son analyse doit donc, tout en nenégligeant pas les logiques propres à Internet, prendre en compte l'ensemblede ces facteurs et de leurs interactions. Elle doit aussi, sans pour autants'y limiter, s'appuyer, à partir d'un travail d'observation directe du site, sur une description problématisée. Le site de la pétition de Médiapart « parle » et sedonne donc à voir comme Médiapart, ce qui en dit longsur les objectifs non apparents des initiateurs. Il s'inscrit totalementdans le site du média en ligne dont il reprend la forme et la mise en scène .La page d'accueil comprend le texte de l'appel, les noms des personnalitéset le formulaire de signature. L'encadrement de l'appel et des signatairespar un léger filet noir est celui de tous les textes publiés. La partiesupérieure rappelle les principales rubriques du journal (« Monde » ,« France », « Économie », « Culture ») ainsi que le sommaire du jour etcontient des renvois vers les derniers articles et vers des articlestraitant des thématiques évoquées par la pétition. La partie inférieure estconsacrée à une offre d'abonnement ainsi qu'aux mots clés servant à« tagger » la pétition par rapport à l'ensemble du site, mais aussi pour lesmoteurs de recherche. Mis en ligne le 2 décembre (date symbolique en France), l'appel n'estactualisé qu' à deux reprises : le 8 décembre 2009 sous la forme d'unéditorial d'Edwy Plenel reproduisant l'ouverture du « Cahier spécial » sefélicitant du succès de la pétition et le 23 décembre 2009 par un articleanalysant le débat sur l'identité nationale dans la perspective d'une luttede pouvoir au sein de la droite. Il est à noter que ces deux textes sont desrenvois vers la zone payante du site et que seuls leurs résumés sontaccessibles si l'on clique sur les liens. En revanche, il existe un signetouvrant sur une rubrique « commentaires ». Sa lecture révèle que beaucoupd'abonnés y ont laissé le leur, certains d'entre eux étant d'ailleurs descontributeurs bénévoles « habituels ». La pétition est alors une occasionsupplémentaire de s'inscrire dans l'entre soi. Ce phénomène d'une communautése retrouvant régulièrement sur un site pour poursuivre une discussion plusou moins routinisée est bien connu car très proche de ce que l'on observesur de nombreux forums ou sur des blogs de personnalités (Bousquet, 2008) .On notera enfin que la page d'accueil ne mentionne pas le nombre designataires. Pour le connaître, il faut cliquer sur un lien situé sous leformulaire de signature. Cette mise en page confirme que les noms despersonnalités sont plus importants que le nombre, ce qui renforce là encorel'impression que la mise en visibilité du média, y compris vis-à-vis de sesabonnés, est au moins aussi importante que celle de la cause défendue. Tel n'est pas le cas du site du Collectif sur lequel les initiateurss'effacent largement derrière la cause, les mobilisations auxquelles elledonne lieu et les réseaux militants ou médiatiques susceptibles de ladéfendre. Réalisée pour l'occasion, l'interface adopte une mise en pagesobre et met en évidence, par son architecture graphique, l'objectifaffiché : la suppression d'un ministère en tant qu ' « acte d'une violenceinouïe ». Un bandeau latéral est occupé par douze rubriques (dont unesignificativement intitulée « Rendez -vous ») qui correspondent aux pages dusite. Le bandeau supérieur est divisé latéralement en deux parties, celle degauche où le nom du ministère est barré d'une croix rouge, et celle dedroite reproduisant le titre du site qui est aussi celui de l'appel. Justeen dessous se trouvent le nombre de signatures, la date, le texte de l'appelet enfin les premiers signataires. Sans être majeures, les évolutionstémoignent d'une volonté non seulement de faire vivre la pétition au fil dessignatures, d'animer le site ou de faciliter son référencement par lesmoteurs de recherche, mais aussi de rappeler la dimension militante del'initiative et son insertion dans le mouvement social. Trois d'entre ellessont significatives : ajout aux noms des signataires-appelants des noms des partis ,syndicats et associations au fur et à mesure qu'ils soutiennentl'appel; création d'un espace pour le film Ulysse clandestin réalisé par uncinéaste militant et produit par le réseau international La BandePassante (voir supra) : sur la page d'accueil, avant le texte del'appel, une fenêtre permet de visionner le film et renvoie à unepage écran le présentant et encourageant sa diffusion. La rubrique« Rendez -vous » est consacrée aux projections organisées en France .Enfin, un lien est proposé avec La Bande Passante qui édite d'autresdvd militants, la plupart issusd'entretiens avec des fondateurs du Collectif, et qui annonce leprojet de création d' « un réseau international ouvert, critique ettransdisciplinaire (sciences sociales, humaines, naturelles ,formelles et l'ensemble des disciplines artistiques) » dontl'objectif est la diffusion d'une pensée critique et d'une« contre-expertise politique »; renvoi à la partie participative du site de Médiapart où l'onretrouve des textes de cinq appelants (Mathieu Potte-Bonneville, ÉricFassin, SophieWahnich, MichelFeher, Michel Agier) dans une rubrique intitulée « En finir avecle ministère de l'Immigration et de l'Identité nationale », créée le11 décembre 2009 et qu'ils alimentent jusqu'au 16 novembre 2010 ,lendemain du changement d'intitulé du ministère après le remaniementgouvernemental. Ce dernier texte explique que désormais la politiquequ'il portait est confiée au ministère de l'Intérieur, ce quiimplique une poursuite du combat engagé par la pétition. On peutpenser que l'écriture dans un média ami a été préférée, pour desquestions de visibilité, à l'alimentation en articles du site de lapétition. Le troisième site est le plus simple et le plus pauvre en informations et enliens, comme si la simplicité et le dénuement devaient inciter lesinternautes à s'intéresser aux promoteurs au détriment d'autres médiateurs .Comme pour les autres pétitions de l'association, il adopte le code couleurjaune et noir de sos Racisme qui n'est plus celui dusite de l'association depuis 2008, lorsque le gris métallisé a été adopté .En outre, il affiche la célèbre main jaune popularisée dès les années 80. Lapétition n'est pas hébergée sur le site de l'association – ni sur celui deLibération – mais possède une url propre. Des renvois aux sites des initiateurs sont possiblesen cliquant sur les logotypes « SOS Racisme » et « Libération ». Ce sontd'ailleurs les seuls liens, en dehors du kit de diffusion qui ouvre sur lesréseaux sociaux les plus développés (Facebook, Twitter, Myspace). Le site ne comporte que deux rubriques, la page d'accueil et celle dessignataires. La page d'accueil est elle -même divisée en troissous-rubriques : le texte de l'appel, le formulaire de signature et les nomsdes personnalités appelantes, certains étant surlignés, probablement enraison de l'importance que les promoteurs leur accordent. Rien n'est prévupour actualiser le site et pour l'intégrer dans des mobilisations pluslarges. Ce site et donc la pétition qu'il héberge sont livrés à eux -mêmesdepuis leur mise en ligne. Sans animation, sans liens, ils semblent destinésà mettre davantage en visibilité leurs promoteurs dans un combat où leurabsence pourrait paraître incongrue. D'ailleurs, la position de Libération est ambiguë : le quotidien appelle parcette pétition à « Arrêter le débat », alors qu'un mois auparavant( 19/11/10) il avait contribué à l'animer en publiant un dossiersignificativement intitulé : « Cogiter l'identité nationale : 60 philosophess'emparent du débat suscité par Éric Besson et de l'actualité du jour ». Onnotera que certains contributeurs de cette livraison figureront plus tardparmi les personnalités appelant à l'arrêt du débat. Il semble doncimportant pour Libération et sosRacisme d'afficher une position sur ce débat au moment où il est deplus en plus remis en question et de la médiatiser largement, la vie et lamise en réseau du site devenant par contrecoup moins prioritaires. La distinction traditionnelle pétition de masse vs pétition de personnalités est largement fondée sur l'idée que la premièrerechercherait la quantité des signataires, alors que la seconde s'attacheraitd'abord à leur qualité, sachant que derrière chaque nom il y a « l'autorité etla notoriété conquises par les œuvres et les actions antérieures » (Duval et al., 1998 : 59) et donc que tous les noms ne se valentpas. En fait, l'histoire et la sociologie des pétitions montrent que cetteséparation est souvent formelle car nombre de pétitions sont proposées à desanonymes par des premiers signataires qui sont soit les initiateurs, soit despersonnalités contactées par eux. Mais aussi, et de façon plus subtile, parceque la pétition de masse « apparemment redevable d'un espace public nationalunifié dans lequel elle ne pèserait que par le nombre, résulte souvent d'unensemble de micro-mobilisations situées dans des espaces publics sectoriels »( Contamin, 2001 : 29). Tout au plus, on soutiendra ici que le recours à despersonnalités répond essentiellement à un souci de légitimation et devisibilité, y compris médiatique. Et que ce recours accentue le caractèrepolyphonique des pétitions car chaque personnalité, choisie pour son nom et lavoix qu'elle fait habituellement entendre, peut se trouver en décalage partielavec celles des promoteurs ou d'autres premiers signataires. On questionnera lestatut et la voix des appelants, ainsi que les usages que promoteurs etsignataires-appelants font des « premières signatures », d'une part à traversles trois pétitions d'abord envisagées séparément puis prises ensemble, d'autrepart en référence à d'autres pétitions en ligne initiées par les mêmesorganisations. La structure de la répartition des signataires varie d'une pétition à l'autre. Sil'on traite à part celle du Collectif, car les signataires ne sont pas despersonnalités contactées mais les promoteurs, on peut tirer les enseignementssuivants. Trois catégories de signataires dominent largement : les politiques ,les (enseignants -) chercheurs et les personnalités du monde des Lettres, desArts et du Spectacle : 85 % du total pour la pétition de Médiapart, 79,6 % pour celle de sosRacisme/Libération. Malgré le rôle joué par deux organes de presse, lesjournalistes sont peu représentés, mais certaines personnalités, notamment dumonde des Lettres et du champ scientifique sont régulièrement présents dans lesmédias, quelques uns épousant la posture de ces intellectuels médiatiquesrégulièrement dénoncée par Pierre Bourdieu. On notera leur nombre plus élevédans la pétition de sos Racisme/Libération, tout comme ,dans la même pétition, la proportion relativement importante de responsablesassociatifs qui s'explique en partie par les relations que sosRacisme entretient avec le monde associatif et par la proximité avec leterrain qu'elle entend mettre en exergue. Ensuite, la part respective des troiscatégories dominantes n'est pas la même dans chaque pétition : avec 34,6 % dutotal, les politiques (en fait surtout des responsables ou des élus du ps) sont davantage présents dans celle de sos Racisme/Libération que dans celle de Médiapart (mais leur part relative passe de 14,8 % à 24 %dans la liste publiée dans le Cahier spécial), tandis que les( enseignants-)chercheurs sont cinq fois plus nombreux dans l'appel de Médiapart : leur présence a été manifestement recherchée ,notamment en raison de la dimension symbolique que le journal lui accorde dansun combat où la dimension intellectuelle-experte est incontournable. On feraaussi l'hypothèse que ce dernier estime que leur présence est un gage de sérieuxpour un site qui cherche à séduire des internautes susceptibles de payer pour del'information en ligne. Enfin, la part relative des signataires appartenant aumonde des Lettres, des Arts et du Spectacle est légèrement supérieure pour lapétition de sos Racisme/Libération (37,7 % contre32,8 %). Mais la différence s'accentue quand on étudie la structure dessignataires : le monde des Lettres est peu représenté (3,8 % du total) àl'avantage du Spectacle, alors qu'il rassemble 13,9 % des signataires dans lapétition du journal en ligne. Ce phénomène renvoie aux pratiques de sos Racisme qui place, depuis son origine, des artistesen première ligne dans ses actions collectives (manifestations, pétitions ,concerts de soutien, etc.). In fine, cette répartition ,improbable il y a quelques décennies, est à mettre en perspective avec lesmutations de l'agora contemporaine des personnalités pétitionnaires, voirnotamment la place occupée par les « intellectuels de troisième type » ,c'est-à-dire ceux qui n'ont pas construit leur légitimité sur la reconnaissancesociale d'une pensée philosophique ou scientifique exprimée à travers des écritsimprimés ou par la place reconnue dans un art dit « majeur » (Ory, Sirinelli ,2002). Enfin, si l'on se risque à construire une typologie des « noms », et enparticulier de ceux qui « comptent », en fonction des motifs explicites ouimplicites qui ont conduit les initiateurs à les appeler ou à accepter leursignature, on retiendra que dans chaque liste, se côtoient, mais pas dans lesmêmes proportions, des personnalités : agissant plutôt comme passeurs, notamment parce qu'elles sont et sevivent à l'interface de plusieurs mondes; bénéficiant un fort accès aux médias (presse écrite, radio, télévision ,revues du type Esprit, Le Débat), souvent parce qu'elles y commententrégulièrement l'actualité politique, économique, culturelle oujudiciaire; ayant ou ayant eu des fonctions électives importantes (député, sénateur ,maire d'une grande ville, etc.) ou des responsabilités nationales dansdes organisations politiques ou syndicales, voire au sommet de l' État( ministre, ambassadeur); pourvues d'une réelle légitimité dans leur champ et sensibles aux questions desociété soulevées et/ou à des thématiques à fort enjeux politiques( universitaires, chercheurs, avocats, écrivains, dessinateurs, éditeurs ,réalisateurs, comédiens, chanteurs, musiciens, etc.). Il conviendraitsans doute de distinguer ceux qui ont une visibilité médiatique forte ,de ceux qui ne sont visibles que dans leur champ et/ou pour des publicsspécifiques; responsables d'associations nationales difficilement contournables dansle cas de la cause défendue (Ligue des droits de l'homme, Réseauéducation sans frontières, mrap, etc.); ayant une trajectoire engagée, pour ne pas dire militante, et dont onretrouve les noms non seulement dans d'autres pétitions, mais aussi dansd'autres formes d'action collective (universitaires, chercheurs ,écrivains ou artistes principalement). Et si l'on s'intéresse à la propension à signer de chacun, on relèvera que seulÉric Fassin (ens) a signé les trois Appels. MichelFeher (Président de « Cette France là ») a signé ceux de sosRacisme/Libération et du Collectif, tandis que 3 ont donné leursignature à Médiapart et au Collectif (Pap NDiaye, ehess, Mathieu Potte-Bonneville, Collège internationalde philosophie et Tzvetan Todorov, cnrs). Par contre ,20 ont signé les appels de Médiapart et de sos Racisme/Libération, dont 14 politiques, la plupart depremier plan (Martine Aubry, Marie-Georges Buffet, Daniel Cohn-Bendit, BertrandDelanoë, Cécile Duflot, François Hollande, Corinne Lepage, Arnaud Montebourg ,Vincent Peillon, Michel Rocard), pour seulement 3 écrivains ou cinéastes (NoëlleChatelet, Dan Franck, Romain Goupil) et 2 chercheurs (Pierre Rosanvallon ,Collège de France et Benjamin Stora, université Paris 11). S'agissant d'autres pétitions en ligne récentes lancées par les mêmes promoteurs ,on notera d'abord que 56 appelants de la pétition de sosRacisme/Libération (soit 1/3 du total) figuraient déjà dans les 236premiers signataires de « Touche pas à mon adn » et que81 figureront parmi les 230 premiers signataires de « Touche pas à ma Nation » ,autrement dit de deux pétitions aux thématiques voisines, nombre d'entre euxrelevant du monde du spectacle ou du champ politique (la plupart sont des élusou des dirigeants du ps). 34 signataires de l'appel de Médiapart avaient déjà signéla pétition « Affaire Pérol-Caisses d'épargne : soutenez Médiapart », dont 12 politiques et 14 (enseignants-)chercheurs. Maisla thématique était différente et le média, attaqué en justice, cherchait alorsdes soutiens sur une base très large, notamment au niveau politique etjournalistique. Ce qui l'avait conduit à solliciter l'appui de dirigeants oud'élus du centre (François Bayrou, Marielle de Sarnez, Corinne Lepage) àl'extrême-gauche (Olivier Besancenot, Daniel Bensaïd) et de journalistestravaillant pour quinze médias différents (dont LeFigaro, Europ. 1, FranceInter, La Vie, BFM et Marianne). Seuls 6 signataires soutiendront une pétitionpostérieure du journal, « L'appel pour une justice indépendante et impartiale » ,également sur une autre thématique. Pas de quoi conclure, en tout cas pour l'instant, à l'existence de viviers danslesquels chaque promoteur puiserait en fonction des spécificités de chaquepétition qu'il initie. Tout au plus des fidèles que l'on sait, surtout chez sos Racisme, plus particulièrement réceptifs à telle outelle cause ou dont on connaît la propension à signer des pétitions et que l'onest capable de mobiliser directement ou par l'intermédiaire de ses propresréseaux. En l'absence d'un travail empirique spécifique qui a pu être entrepris pourd'autres pétitions (Duval et al, 1998; Contamin, 2001) ,il est délicat d'analyser les motifs des signataires-appelants et a fortiori les usages qu'ils ont pu faire de leurssignatures, voire de la pétition. Tout au plus peut-on estimer que si l'adhésionà la cause défendue, voire à une cause plus générale, est indispensable, sonintensité est probablement variable (du soutien donné du bout de la plume à lavolonté de s'inscrire pleinement, et sous des formes diverses, dans un mouvementsocial que l'on fait sien). On peut aussi postuler d'autres motivations ,certaines dicibles, d'autres moins : croyance dans sa qualité de porte-voix oude passeur, connivence avec ses pairs, volonté de se mettre en évidence pour desraisons égotiques ou pour éviter que l'on interprète son absence comme le signed'un désaccord ou d'un désintérêt, désir de mettre en visibilité une prise deposition décalée par rapport à sa posture intellectuelle et/ou politiquehabituelle (Dominique de Villepin, Médiapart), decontinuer, pour les intellectuels, le débat entre clercs et pour les politiques ,celui entre les différentes composantes de la gauche latosensu. En ce sens, la pétition confirme une de ses fonctions cachées :être un révélateur de comportements individuels et collectifs multiples. Elle est aussi révélatrice de l'hétérogénéité des mobilisations. Ce qui conduit àprêter attention non seulement à la posture politique et aux idées que cespersonnalités défendent, mais aussi au capital symbolique qu'elles (ap)portent àtravers leur nom et aux ressources plus pratiques qu'elles sont prêtes àmobiliser pour soutenir « concrètement » la cause (activation de leurs réseauxpour chercher des signataires, réponses à des demandes d'interviews dejournalistes, participation à des réunions de travail ou à des meetings). In fine, c'est la question del'engagement et de ses formes d'expression qui est posée. Dispositifsd'expression, de médiation, de mise en visibilité (d'une cause, d'entrepreneurs ,de personnalités, d'engagements, de rapports de pouvoirs, etc.), les pétitionsde masse ne sont pas seulement tournées vers le faire savoir et le faire voir .Elles sont aussi orientées vers le faire faire, et plus précisément le faireparler en relayant et le faire signer; ce qui nécessite de s'intéresser à unmoment donné à leur réception sociale. Polyphoniques dans leurs messages et leurs constructions, les trois pétitionsconnaîtront une diffusion contrastée. L'appel de Médiapart trouvera peu d'écho en dehors des réseaux du journal, audemeurant très actifs, tandis que ceux de sosRacisme/Libération et du Collectif seront bien relayés par d'autresvoix, elles -mêmes multiples : agences de presse, médias papier et en ligne ,sites et blogs d'organisations et de personnalités. Le nombre de signataires sesituera néanmoins dans le même ordre de grandeur : 46 378 (Médiapart) ,41 626 (sos Racisme/Libération) et 40 795 (Collectif) le07 février 2010, après l'annonce officieuse par le Gouvernement de la fin dudébat sur l'identité nationale, et 47 015, 41 881 et 45 535 signataires le 29décembre 2010 au moment où nous avons arrêté le décompte en raison du faiblenombre de nouvelles signatures. Derrière ces scores, se profile l'inévitable querelle des nombres qui diviseadversaires et partisans. Sans doute parce que le nombre est à la fois unélément de preuve, de visibilité, de légitimité, mais aussi de comparaison avecd'autres (contre-)pétitions et d'autres formes d'action. Et last but non least, parce qu'il est un élément incontournable de laconstruction d'une pétition par la « masse », les « anonymes » existant à lafois comme leur somme arithmétique qui n'est pas aussi aléatoire que d'aucuns leprétendent et comme signataires individuels à propos desquels on peut fairel'hypothèse qu'ils ne correspondent pas tous aux signataires imaginés par ceuxqui ont co-construit la pétition en amont. Polyphonie ? Vous avez ditpolyphonie .
À travers l'exemple de trois pétitions électroniques demandant l'arrêt du débat sur l'identité nationale ou la suppression du ministère éponyme à son origine, l'article interroge certaines façons contemporaines d'intervenir dans l'espace public et de mettre en visibilité une cause, une organisation ou des personnalités. L'étude du contexte, des dispositifs sociotechniques et de la construction sociale de ces pétitions en ligne, héritières d'une forme traditionnelle de mobilisation (la pétition « papier »), révèle des objets marqués par une énonciation polyphonique, co-construite par des voix multiples, et bâtis autour d'objectifs parfois très différents.
sciencesInfo_13-0090563_tei_1029.xml
termith-479-communication
L'exploitation des réseaux sociaux et des systèmes collaboratifs dans le cadre d'un processus de recherche d'information est un phénomène qui peu à peu est intégré pratiques de la recherche sur Internet. Ces systèmes, émergeants de l'ère du Web 2.0, permettent aux participants de collaborer via l'indexation libre du contenu à l'aide de mots-clés, les tags; créant ainsi des structures triparties représentées comme des hypergraphes d'utilisateurs, de tags et de ressources, appelées folksonomies. Favorisant ainsi l'échange et le partage de ressources, l'exploitation des folksonomies s'avère d'un grand intérêt pour la recherche d'information (RI). Cependant, la démarche de recherche dans les folksonomies diffère des stratégies de recherche de la traditionnelle médiation des moteurs de recherches. En effet, un système de recherche d'information (SRI) typique retourne la même liste de résultats pour une même requête soumise par des utilisateurs ayant pourtant des besoins différents d'information. Par exemple, en soumettant la requête " Java ", certains utilisateurs s'intéressent à retrouver des résultats traitant du langage de programmation " Java ", tandis que d'autres s'intéressent à retrouver des résultats traitant de " l' île de java ". En effet, la pertinence des résultats retournés par de tels systèmes dépend étroitement de la précision des requêtes formulées par les usagers. Bien que la plupart des SRI modernes exploitent des mécanismes d'autocomplétion de requêtes permettant d'enrichir la requête initiale de l'utilisateur avec de l'information supplémentaire, ces derniers s'avèrent inappropriés au contexte du web collaboratif. En effet, ces mécanismes d'autocomplétion se basent généralement sur la cooccurrence relevée, à partir des recherches précédentes, du concept à rajouter à la requête initiale, i.e., si le concept language cooccurre fréquemment avec le concept java lors des précédentes recherches effectuées par le SRI, alors language sera suggéré pour l'autocomplétion de la requête java, sans aucune considération des relations sémantiques ou encore de l'aspect social et comportemental des utilisateurs. Afin de pallier ces limites nous proposons dans cet article d'introduire un nouveau processus d'autocomplétion de requêtes basé sur l'exploitation des règles d'association triadiques, i.e., intégrant à la fois les trois dimensions de la folksonomie (utilisateurs, ressources et tags), extraites à partir de conceptualisations partagées et consensuelles, formellement représentées, par les concepts triadiques. De manière générale, nous proposons dans ce papier une approche d'autocomplétion de requêtes qui s'articule en trois étapes : Extraction des règles d'association triadiques à partir des concepts triadiques de la folksonomie. En effet, les concepts triadiques, issus de l'analyse formelle des concepts (AFC), permettent de découvrir les sous-ensembles d'utilisateurs de la folksonomie partageant la même conceptualisation sur les mêmes ressources. Définition et extraction de la base générique des règles d'association triadiques. Cette base repose sur l'extraction d'un sous-ensemble générique de toutes les règles d'association triadiques par le biais d'un système axiomatique valide et complet. Exploitation de la base générique des règles d'association triadiques pour l'autocomplétion de requêtes. En effet, l'objectif de l'autocomplétion est d'ajouter des informations complémentaires et utiles à la requête d'un utilisateur. Le reste de l'article est organisé comme suit. La section 2 dresse un survol des principales approches de suggestion et de recommandation de requêtes dans les folksonomies. Nous consacrons la section 3 pour introduire les notions de l'extraction des règles d'association triadiques et leur connexion avec l'analyse formelle des concepts. La section 4 est dédiée à la définition ainsi qu' à l'extraction d'une nouvelle base informative de règles d'association triadiques, appelée. Nous proposons également un mécanisme d'inférence par le biais d'un système axiomatique valide et complet, permettant de dériver toutes les règles valides pouvant être extraites à partir d'une folksonomie. Suit la section 5 qui décrit le processus d'autocomplétion de requêtes par argumenté par un exemple illustratif. Les résultats des expérimentations menées sur un jeu de données réel sont présentés dans la section 6. La conclusion et les travaux futurs font l'objet de la section 7. L'exploitation des folksonomies dans le cadre d'un processus de recherche d'information est un phénomène qui peu à peu s'intègre aux pratiques de la recherche sur le web. Cependant les systèmes de recherche traditionnels, bien que souvent guidés par des algorithmes du domaine de l'extraction de connaissances des bases de données, ne semblent exploiter que partiellement les apports potentiels d'une telle source d'information. En effet, les systèmes de recherche traditionnels négligent l'aspect social et comportemental des utilisateurs. Plusieurs approches ont alors été proposées. Certaines tentent d'étendre les approches de recherche traditionnelles par l'intégration de modules complémentaires capables de garder la trace sociale et comportementale des usagers à travers la proposition de solutions prometteuses reflétées par les systèmes de recommandations (Garg, Weber, 2008; Karen et al., 2008; Amer-Yahia et al., 2008). L'objectif de ces systèmes est de filtrer un flux entrant d'informations (ressources) de façon personnalisée pour chaque usager, tout en s'adaptant en permanence au besoin d'information de chacun. Pour cela, les moteurs de ces systèmes gèrent des profils d'utilisateurs permettant de choisir quelles ressources à transmettre à chacun, et adaptent ces profils au cours du temps en exploitant au mieux le retour de pertinence que les utilisateurs fournissent sur les ressources reçues. D'autres travaux proposent d'adapter les techniques de suggestion ou de complétion de requêtes sur le web à la complétion des requêtes sur les folksonomies. Généralement basées sur les techniques de fouille des fichiers logs, ces techniques exploitent l'hypothèse de dualité entre l'activité d'annotation des ressources par des tags et celle de la recherche des ressources via les tags. En effet, (Krause et al., 2008; Hotho, 2010; Bischoff et al., 2008) ont mis en exergue que le comportement de tagging d'un usager d'une folksonomie reflète étroitement son comportement de recherche. Ainsi, si un utilisateur annote une ressource r avec un tag t, ce dernier choisira d'accéder à la ressource r si elle apparaît dans le résultat de la recherche obtenue par la soumission de t comme requête. Par ailleurs, Schmitz et al., (2006) ont proposé d'appliquer les techniques usuelles d'extraction des règles d'association (Agrawal et al., 1993) par projection de la folksonomie sur deux dimensions diadiques, i.e., utilisateurs-tags d'un côté et tags-ressources de l'autre. Ils ont ainsi mis en exergue la pertinence de l'utilisation des règles d'association pour la suggestion de tags et la recommandation de ressources (Schmitz et al., 2006). Cependant, mis à part leur nombre considérable, les règles ainsi obtenues ne permettent pas d'exploiter la structure tripartie des folksonomies, i.e., utilisateurs, ressources et tags. Le changement de dimension causera inéluctablement une perte d'information induisant un manque de sémantique des règles extraites. Considérons par exemple la dimension utilisateurs-tags, les règles extraites, i.e., utilisateur 1 → tag 1, ne portent aucune information sur les ressources annotées avec ces tags. Par conséquent, les requêtes ou tags suggérés amènent l'utilisateur à relancer son processus de recherche afin d'accéder aux ressources correspondantes. Néanmoins, les aurteurs dans, (Nguyen et al., 2010; 2011), ont introduit un nouvel algorithme d'extraction de règles inter-dimensionnelles, appelé Gear, afin de généraliser le problème d'extraction des règles d'association sur une dimension n - aire. Ils proposent ainsi des implications entre des sous-ensembles appartenant à différentes dimensions. Toutefois, mis à part le grand nombre de règles redondantes, le problème de la perte d'information demeure puisque ces règles ne concernent que deux dimensions à la fois. Bien que ces approches pourraient fournir une opportunité intéressante pour l'amélioration du processus d'autocomplétion de requêtes par l'intégration de la dimension sociale à travers l'exploitation des profils utilisateurs ou l'extraction des règles d'association, aucune d'entre elles ne considère les implications ternaires entre tags qui tiennent compte de la structure triadique de la folksonomie. Loin des promesses affichées, les règles d'association pouvant être extraites à partir de folksonomies réelles présentent un handicap de taille en vue de leur exploitation pour l'autocomplétion de requêtes. En effet, il semble évident qu'un nombre impressionnant et inexploitable de règles d'association dont un large nombre de règles redondantes sera généré (BenYahia, Nguifo, 2004; Pasquier, 2000). Noyé dans cette masse de connaissances, le processus d'autocomplétion ne peut tirer profit de cette connaissance qui ne présente aucune valeur ajoutée. Dans le cadre des contextes dyadiques, (Bastide et al., 2000; Kryszkiewicz, 2002; BenYahia et al., 2009a) ont puisé dans les résultats issus de l'analyse formelle des concepts (AFC) pour réduire " efficacement " le nombre de règles extraites. Les auteurs ont ainsi proposé l'extraction d'un ensemble minimal de règles d'association (ou base générique) présenté à l'utilisateur tout en maximisant la quantité d'information utile véhiculée. Fortement inspiré par ces travaux, nous introduisons dans cet article une nouvelle approche de sélection sans perte d'information des règles d'association triadiques. L'approche proposée repose sur l'extraction d' " un noyau irréductible " de règles d'association triadiques qui véhiculent le maximum de connaissances utiles, appelé base générique de règles d'association triadiques. Nous exploiterons cette base générique afin de proposer un processus d'autocomplétion efficace couvrant au mieux les requêtes des usagers. Le fil directeur de notre base générique de règles d'association triadiques repose sur les points suivants : La détermination de l'ensemble minimal de règles d'association triadiques (ou base générique triadique) qui véhiculent le maximum d'information utile (Bastide et al., 2000). La possibilité de retrouver le reste de règles d'association triadiques tout en déterminant avec exactitude leurs supports et leurs confiances (Kryszkiewicz, 2002). L'interprétation sémantique des règles d'association triadiques extraites (BenYahia et al., 2009b). Avant de définir les RAT et de décrire le processus d'extraction, nous allons tout d'abord commencer par donner les définitions afférentes, à savoir celles d'une folksonomie et d'un concept triadique. Définition 1. — (folksonomie) (Hotho et al., 2006) Une folksonomie est un ensemble de tuples, avec représentent respectivement, l'ensemble des utilisateurs, l'ensemble de tags et l'ensemble de ressources; représente une relation triadique dont chaque peut être représenté par un triplet :. Ce qui signifie que l'utilisateur u ∈ a annoté la ressource par le tag. Le tableau 1 illustre un exemple d'une folksonomie avec, et. Une folksonomie U/R-T r1 r2 r3 t1 t2 t3 t4 t5 t1 t2 t3 t4 t5 t1 t2 t3 t4 t5 u1 × × × × × × × × × u2 × × × × × × × × × × × u3 × × × × × × × × × × × u4 × × × × u5 × × × × × × × × × × × u6 × × × × u7 × × × × × × × × × × × × × × × Notons que chaque " × " représente une relation triadique entre un utilisateur appartenant à, un tag appartenant à et une ressource annotée appartenant à. Définition 3. — (Concept triadique (fréquent)) (Jäschke et al., 2008) Un concept triadique (ou un tri-concept) d'une folksonomie est un triplet (U, T, R) où, et avec tel que le triplet (U, T, R) est maximal, i.e., pour U 1 ⊆ U, T 1 ⊆ T et R 1 ⊆ R où U 1 × T 1 × R 1 ⊆, les ensembles U ⊆ U 1, T ⊆ T 1, et R ⊆ R 1 impliquent toujours (U, T, R) = (U 1, T 1, R 1). L'ensemble des tri-concepts de est représenté par est un tri-concept, i = 1… n }. Notons que quel que soit le tri-concept, les cardinalités des sous-ensembles U, T et R vérifient : |U| ≥ u − minsupp, |T| ≥ t − minsupp × et |R| ≥ r − minsupp avec u − minsupp, t − minsupp et r − minsupp définissent les supports minimaux spécifiés par l'utilisateur. Pour l'extraction des tri-concepts à partir d'une folksonomie, nous avons utilisé l'algorithme TriCons proposé par (Trabelsi et al., 2012). En effet, TriCons prend en entrée la folksonomie ainsi que les valeurs de supports minimaux à savoir, u − minsupp, t − minsupp et r − minsupp et retourne l'ensemble des triconcepts. En considérant à titre d'exemple les valeurs de supports minimaux suivant : u−minsupp = 2, t−minsupp = 2 et r −minsupp = 2, alors l'exécution de TriCons sur la folksonomie illustrée par le tableau 1 permet d'obtenir les trois tri-concepts suivants :, et. Par exemple, le tri-concept signifie que les utilisateurs u 5 et u 7 ont tous les deux annoté les ressources r 1, r 2 et r 3 par les tags t 2, t 3 et t 4. Afin d'éviter la redondance sémantique des tri-concepts qui entraînent la génération de règles triadiques non informatives, nous définissons dans ce qui suit, deux notions de similarité. Nous admettons que deux tri-concepts sont similaires s'il partagent des groupes similaires d'utilisateurs et qu'ils présentent des ensembles de ressources similaires. Un ensemble de tri-concepts similaires sera noté par l'ensemble. Pour calculer la similarité entre deux groupes d'utilisateurs, nous avons associé à chaque groupe d'utilisateurs une distribution de tags. Ainsi, à chaque groupe d'utilisateurs, correspond un vecteur d'occurrence de tags. On définit alors pour le groupe Uk, le vecteur avec représente le nombre de fois que le groupe d'utilisateurs Uk a annoté avec le tag ti. En considérant que deux groupes d'utilisateurs avec la même distribution de tags, partagent un intérêt commun, on peut alors estimer la similarité entre deux groupes d'utilisateurs comme suit (D.Yin et al., 2010) : On définit ainsi, la similarité normalisée 1 par : Notons qu'un degré de similarité égal à 1, indique que les deux groupes d'utilisateurs sont parfaitement similaires. Considérons la folksonomie illustrée par le tableau 1 et soient U 1 = {u 2, u 3} et U 2 = {u 5, u 7} deux groupes d'utilisateurs. Nous avons : D'après (1) Ainsi d'après (2) : Considérons deux ensembles de ressources R 1 et R 2 avec R 1 = {r 1, …, ri} et R 2 = {r 1, …, rj }. Les deux ensembles R 1 et R 2 sont dits similaires s'ils partagent des ressources similaires. Pour calculer la similarité entre ri et rj 2, nous avons utilisé la mesure de similarité normalisée PLSCC 3, énoncée dans (Bach, 2006), permettant de faire une approximation de la longueur de la plus longue sous-chaîne commune entre ri et rj. Nous admettons qu'un bon degré de similarité est atteint lorsque Sim 2( ri, rj) ≥ 0. 75. La formalisation du problème d'extraction des règles d'association a été introduite par (Agrawal et al., 1993). Il est défini comme suit : soit un ensemble de m littéraux appelés items et un ensemble de n objets dans une base contenant n transactions. Soit I un sous-ensemble d'items ou itemset, contenant k items, alors I est appelé k-itemset. Le support d'un itemset I noté Supp(I) est donné par Supp. Lorsque le support de I est supérieur ou égal à un seuil minimal minsupp 4 fixé par l'utilisateur, I est dit fréquent. Une règle d'association est définie comme une implication entre deux itemsets. Elle est de la forme suivante : R : X ⇒ Y tels que et X ∩ Y = ∅. La règle R est dite basée sur l'itemset X ∪ Y et les deux itemsets X et Y sont appelés respectivement prémisse et conclusion de R. Afin de vérifier la validité d'une règle d'association R, deux mesures sont communément utilisées (Agrawal et al., 1993), à savoir le Support et la Confiance. Le support de la règle R, noté Supp(R), correspond au nombre de transactions qui contiennent simultanément les itemsets X et Y. Il est donné par Supp (X ∪ Y). La confiance de la règle R, notée confiance(R), exprime la probabilité conditionnelle qu'une transaction contienne Y sachant qu'elle contient X. Elle est mesurée par le ratio. L'extraction des règles d'association consiste à déterminer l'ensemble de règles valides i.e., dont le support et la confiance sont au moins égaux à un seuil minimal de support minsupp et à un seuil minimal de confiance minconf prédéfinis par l'utilisateur. À la lumière de la formalisation du problème d'extraction de règles d'association ainsi introduite, nous présentons dans ce qui suit la définition d'une règle d'association triadique qui met en exergue les corrélations entre les tags d'un tri-concept. Définition 5. — (Règle d'association triadique) Soit une folksonomie et l'ensemble des concepts triadiques. Une règle d'association triadique (ou règle triadique) est une implication T 1 → U,R (T 2 \ T 1) où T 1 et T 2 sont des ensembles non vides de tags inclus ou égaux à l'ensemble de tags T, U un ensemble d'utilisateurs, R un ensemble de ressources et (U, T, R) un tri-concept fréquent de. La règle triadique T 1 → U,R (T 2 \ T 1) dénote que l'ensemble de tags de T 1 implique l'ensemble de tags de (T 2 \ T 1) relativement à l'ensemble d'utilisateurs U et l'ensemble de ressources R. Notons que dans la suite du papier dénote l'ensemble de toutes les règles triadiques extraites à partir d'un ensemble de tri-concepts fréquents. Par ailleurs, lors de la génération des règles d'association des mesures de qualité sont nécessaires pour juger la pertinence de ces dernières (Feno, 2007). Cependant, les deux mesures usuelles utilisées dans le cas de règles d'association " diadiques ", i.e., support et confiance, s'avèrent inexploitables dans le cas du contexte triadique dans la mesure où elles sont inadaptées aux RAT. Nous introduisons dans ce qui suit deux nouvelles mesures de qualité des RAT, à savoir le support triadique conditionné et la confiance triadique conditionnée que nous définissons comme suit : Définition 6. — (Support triadique conditionné) Soit T un ensemble de tags, TC = (U, T, R) un tri-concept et l'ensemble des tri-concepts similaires à. Le support triadique conditionné (noté suppc) de T est défini comme suit : où désigne l'ensemble de tags de et Supp(ti) désigne le support de ti dans. Propriété 7. — La mesure suppc est une mesure qui vérifie la propriété d'antimonotonie. Preuve 8. — Soient T 1 et T 2 deux sous-ensembles de tags tels que T 1 ⊆ T 2 ⊆ T. Montrons que suppc (T 1) ≥ suppc (T 2). Nous avons : et. Ainsi puisque suppc (T 2 \ T 1) ∈ ]0, 1 ]. Par conséquent, suppc (T 1) ≥ suppc (T 2). Définition 9. — (Support triadique conditionné d'une règle triadique) Soient R une règle triadique de la forme T 1 → U,R (T 2 \ T 1), TC = (U, T, R) un tri-concept et T 1, T 2 ⊆ T. Le support triadique conditionné (noté suppc) de la règle R est défini comme suit : Définition 10. — (Confiance triadique conditionnée) Soient R une règle triadique de la forme T 1 → U,R (T 2 \ T 1), TC = (U, T, R) un tri-concept et T 1, T 2 ⊆ T. La confiance triadique conditionnée (notée confc) de la règle R est définie comme suit : L'exploitation des règles d'association triadiques (RAT), notamment pour l'autocomplétion de requêtes, s'avère contraignante étant donné le nombre considérable de RAT pouvant être extraites à partir de folksonomies réelles. Afin de palier ce problème, nous proposons dans cette section une nouvelle approche de sélection sans perte d'information des RAT qui véhiculent le maximum de connaissances utiles. Cette approche repose sur l'extraction d'un sous-ensemble générique de toutes les RAT, appelé. Nous présentons dans ce qui suit les propriétés structurelles de notre base générique pour énoncer par la suite l'algorithme ARTMiner dédié à l'extraction de. La base générique satisfait les conditions suivantes (Kryszkiewicz, 2002) : Dérivabilité : le mécanisme d'inférence (e. g., un système axiomatique), permettant la dérivation des règles redondantes, doit être valide (i.e., le système ne permet de dériver que les règles d'association valides) et complet (i.e., l'ensemble de toutes les règles valides peut être retrouvé). Informativité : la base générique des règles d'association doit permettre de retrouver avec exactitude le support et la confiance des règles dérivées. Par ailleurs, étant donné qu'un certain nombre de RAT de l'ensemble sont redondantes, nous commençons dans ce qui suit par présenter la notion de redondance d'une RAT pour définir par la suite la base générique de RAT. Définition 11. — (Redondance de règles triadiques) Soit l'ensemble des règles triadiques pouvant être extraites d'une folksonomie. Une règle est redondante (ou dérivable) par rapport à si R 1 satisfait les conditions suivantes : supp c (R 1) ≥ supp c (R 2) ∧ Conf c (R 1) ≥ Conf c (R 2). Ainsi, étant donné que nous ne nous intéressons qu'aux requêtes d'un seul tag, nous définissons la base générique de RAT comme suit : Définition 12. — (Base générique de règles triadiques) Soit l'ensemble des concepts triadiques. Une base générique de règles triadiques 5 est l'ensemble des règles triadiques t →U,R (T \ t) où (U, T, R) ∈. Les règles génériques de représentent des implications entre des prémisses minimales et des conclusions maximales (en termes de nombre de tags). En effet, (Pasquier, 2000) a mis en exergue que ce type de règles est le plus général (i.e., convoyant le maximum d'information). Dans ce qui suit, nous procédons à la vérification des conditions de non-perte d'information de, à savoir la dérivabilité et l'informativité. 1. dérivabilité : afin de dériver l'ensemble de toutes les règles valides, nous utilisons le système axiomatique d'Armstrong presenté dans (Beeri et al., 1984) et nous prouvons qu'il est valide et complet. Par ailleurs, étant donnée la particularité des RAT considérées, i.e., constituées d'un seul tag en prémisse, nous allons nous intéresser plus particulièrement aux axiomes d'augmentation et de décomposition. Augmentation : si confc (R 1 : T 1 ⇒ U,R T \ T 1) ≥ minconfc, alors confc (R 2 : (T 1 ∪ T 2) ⇒ U,R (T \ T 2)) ≥ minconfc; T 2 ⊂ T. Décomposition : si confc (R 1 : T 1 ⇒ U,R T 2 ∪ T 3) ≥ minconfc, alors confc (R 2 : (T 1) ⇒ U,R (T 2)) ≥ minconfc et confc (R 3 : (T 1) ⇒ U,R (T 3)) ≥ minconfc; T 2, T 3 ⊂ T. a. Validité du système axiomatique : ceci revient à vérifier qu'il ne permet de dériver que les règles triadiques ayant des mesures de supports et de confiances (conditionnés) au moins égales aux seuils fixés par l'utilisateur. Proposition 13. — Soient la base générique et l'ensemble de toutes les règles valides pouvant être extraites de l'ensemble des tri-concepts fréquents. Le système axiomatique proposé est valide. Preuve 14. — Le support conditionné de la règle R 1 et de la règle R 2 sont égaux étant donné qu'ils concernent le même ensemble de tags T, c'est-à-dire qu'ils appartiennent au même concept triadique. Ainsi suppc (R 1) = suppc (R 2). Par ailleurs, nous avons. Puisque T 1 ⊆ T 1 ∪ T 2 alors suppc (T 1 ∪ T 2) suppc (T 1), nous déduisons que. Par conséquent, confc (R 2) ≥ confc (R 1) et suppc (R 2) = suppc (R 1). b. Complétude du système axiomatique : ceci revient à montrer qu'il permet de dériver toutes les règles valides pouvant être extraites d'un ensemble de tri-concepts fréquents. Proposition 15. — Le système axiomatique proposé est complet : toutes les règles pouvant être extraites de l'ensemble sont dérivables de moyennant le système axiomatique proposé. Preuve 16. — Soit la base générique de règles obtenue à partir de l'ensemble pour minsuppc et minconfc donnés. Soit l'ensemble de toutes les règles valides extraites à partir de. Soit. Nous montrons dans ce qui suit, que R 1 peut être dérivée à partir d'une règle générique de par l'application du système axiomatique proposé. Trois cas peuvent se présenter : si | T 1 | = 1 et T 2 = T, alors la règle triadique R 1 appartient également à étant donné qu'elle contient un seul tag en prémisse et (T \ T 1) en conclusion. si | T 1 | = 1 et T 2 ⊂ T, alors la règle triadique R 1 peut être retrouvée par décomposition de la règle contenant le tag t de T 1 en prémisse et l'ensemble (T \ T 1) en conclusion. sinon, il existe une règle contenant en prémisse un tag t ∈ T 1. En conséquence, la règle R 1 peut être retrouvée par l'application de l'axiome d'augmentation des tags t′ ∈ (T 1 \ t) qui appartiennent à la conclusion de la règle R 2. 2. Informativité : nous avons montré que les règles dérivées à partir de moyennant le système axiomatique proposé possèdent des mesures de support et de confiance conditionnés supérieures respectivement à minsuppc et minconfc. Dans ce qui suit, nous proposons d'étudier l'informativité de pour prouver l'exactitude de ces mesures. Proposition 17. — La base est informative, i.e., les mesures de support et de confiance conditionnés des règles redondantes peuvent être déterminées avec exactitude. Preuve 18. — Soit la règle et R 2 : T 1 ⇒ U,R (T 2 \ T 1) une règle redondante appartenant à. Peut-on déterminer les supports et confiances conditionnés de R 2 avec exactitude ? D'une part, le support conditionné de R 2 peut être retrouvé par la somme des supports conditionnés des tags de (T 2 ∪ T 1) qui appartiennent tous à T; ceci découle de la définition même d'une règle triadique. D'autre part, la confiance conditionnée de R′ est égale à son support conditionné divisé par celui de sa prémisse. Or, le support conditionné de n'importe quelle prémisse d'une règle redondante peut être retrouvé par la somme des supports conditionnés des prémisses des règles génériques de contenant tous un seul tag. Par conséquent, le support conditionné et la confiance conditionnée de toutes les règles triadiques peuvent être déterminés avec exactitude. Soit le tri-concept TC 4 = ({ u 5, u 7 }, {t 2, t 3, t 4 }, {r 1, r 2, r 3 }) extrait à partir du tableau 1. L'ensemble total des RAT extraites à partir de ce tri-concept est égal à : Cependant, la base générique de règles, associée à ce tri-concept est égale à : Nous remarquons à titre d'exemple que la règle est redondante par rapport à la règle, étant donné que la première peut être obtenue par augmentation à gauche du tag t 2. De plus, nous avons :. Notations utilisées dans l'algorithme ARTMinerTC : l'ensemble des tri-concepts fréquents. Group : l'ensemble des utilisateurs dans un tri-concept. T ags_of RA : l'ensemble des tags d'une règle d'association triadique. Ress : l'ensemble des ressources dans un tri-concept. BGRT : la base générique de règles. RAT : une règle d'association triadique. TC : l'ensemble des tri-concepts fréquents. Group : l'ensemble des utilisateurs dans un tri-concept. T ags_of RA : l'ensemble des tags d'une règle d'association triadique. Ress : l'ensemble des ressources dans un tri-concept. BGRT : la base générique de règles. RAT : une règle d'association triadique. Nous introduisons dans cette section l'algorithme ARTMiner 6 pour l'extraction de. ARTMiner prend en entrée un ensemble de tri-concepts ainsi que deux seuils définis par l'utilisateur : minsupp et minconf. ARTMiner retourne la base générique. Le pseudo-code de l'algorithme ARTMiner est donné par l'algorithme 1. ARTMiner procède comme suit : il commence par initialiser les trois variables Group, Tags_of_RA et Ress à l'ensemble vide. Ensuite, dans sa boucle la plus externe (lignes 3 - 13), ARTMiner parcourt l'ensemble des concepts triadiques. et pour chaque tri-concept TC, ARTMiner récupère et affecte chaque élément, i.e., les utilisateurs, les tags et les ressources, aux variables Group, Tags_of_RA et Ress (Ligne 4). Algorithme 1. ARTMiner Par la suite, pour chacun des autres tri-concepts TC′ de, ARTMiner teste la similarité avec le tri-concept courant en invoquant les deux fonctions de similarité Sim 1 (cf. formule (2) page 6) et Sim 2 (cf. formule (3) page 7) afin de vérifier si : L'ensemble Group est similaire au groupe d'utilisateurs du tri-concept TC′, L'ensemble Ress est similaire aux ressources du tri-concept TC′. Si ces deux conditions (Ligne 6) sont vérifiées, l'ensemble des tags du tri-concept TC′ est ajouté à l'ensemble Tags_of_RA (Ligne 7). Après avoir terminé la première boucle interne (lignes 5 - 8), ARTMiner procède à la génération des RAT à partir de l'ensemble Tags_of_RA. Dans sa deuxième boucle interne (Lignes 9-13), ARTMiner parcourt l'ensemble des tags de Tags_of_RA et génère un ensemble de RAT ayant un seul tag t en prémisse et vérifiant les seuils minimaux de support et de confiance (minsupp et minconf). Cet ensemble de règles sera ajouté à (Lignes 11 - 13). Une RAT générée est ainsi de la forme t → (Tags_of_RA \ t). ARTMiner prend fin lorsque tous les tri-concepts ont été énumérés et retourne. Nous avons appliqué notre algorithme ARTMiner sur l'ensemble des tri-concepts extraits par TriCons à partir de la folksonomie décrite par le tableau 1. Nous avons considéré les valeurs de seuils minimaux suivantes : minsupp = 0. 66 et minconf = 0. 8. En outre, nous avons assumé que deux groupes d'utilisateurs et sont similaires si. Nous présentons dans ce qui suit, les vecteurs associés aux différents groupes d'utilisateurs (U 1, …, U 5) des cinq tri-concepts, décrits par la figure 1, qui correspondent aux différents tags assignés aux différentes ressources d'un tri-concept dans la folksonomie. ARTMiner procède tout d'abord à la comparaison entre le premier tri-concept de l'ensemble avec les autres éléments. D'un côté, les vecteurs associés aux groupes d'utilisateurs de TC 1, TC 3 et TC 5 vérifient les conditions de similarité (cf. formule (2) page 6) étant donné que : D'un autre côté, ces trois tri-concepts partagent deux ressources en commun (r 2 et r 3). La condition de la ligne 6 de l'algorithme ARTMiner étant vérifiée. Les ensembles de tags associés aux trois tri-concepts TC 1, TC 3 et TC 5 sont alors fusionnés. En conséquence, le premier tri-concept devient : De la même manière, les tri-concepts TC 2 et TC 4 fusionnent leurs ensembles de tags étant donné qu'ils partagent deux ressources en commun. De plus, les deux groupes d'utilisateurs vérifient les conditions de similarité sur leurs vecteurs respectifs, i.e. ,. Ce résultat est évident vu que le groupe d'utilisateurs de TC 4 est un sous-ensemble (ou sous-communauté) de celui de TC 1. Ainsi, le deuxième tri-concept devient : ARTMiner procède ensuite à la comparaison entre TC 3 et TC 4. Vu que, nous avons : Ces trois premiers tri-concepts de l'ensemble, dont le nombre de tags va considérablement augmenter, vont incontestablement induire le fait que les tri-concepts TC 4 et TC 5 sont désormais inclus dans l'un des trois tri-concepts modifiés. Il en résulte que ces deux derniers sont supprimés de l'ensemble. Parallèlement à ce " rafraîchissement " de l'ensemble des tags, ARTMiner procède pour chaque tri-concept, à l'extraction des RAT qui lui sont relatifs. Pour chaque règle extraite, ARTMiner commence par calculer le support conditionné. Si ce dernier vérifie le seuil minimal minsupp, ARTMiner procède alors au calcul de la confiance de cette règle qui doit également vérifier son propre seuil minimal minconf. Ainsi, chaque règle vérifiant ces deux seuils minimaux est ajoutée à la base générique de règles. Le tableau 3 présente les différentes règles extraites à partir des tri-concepts de munies de leurs supports et confiances conditionnés respectifs. La base générique des règles d'association triadiques U, R Règle triadique Suppc Confc ∈ BGRT t1 –> t2 t3 t4 t5 0. 67 0. 22 non {u1 , u2, u3, u5, u7} , t2 –> t1 t3 t4 t5 0. 67 1. 00 oui (t1, t2, t3, t4 ) t3 –> t1 t2 t4 t5 0. 67 1. 00 oui t4 –> t1 t2 t3 t5 0. 67 1. 00 oui t5 –> t1 t2 t3 t4 0. 67 0. 67 non t2 –> t3 t4 t5 1. 00 1. 00 oui {u5, u6, u7} , t3 –> t2 t4 t5 1. 00 1. 00 oui (t2, t3, t4, t5 ) t4 –> t2 t3 t5 1. 00 1. 00 oui t5 –> t2 t3 t4 1. 00 1. 00 oui t1 –> t2 t3 t4 1. 00 0. 67 non {u2, u3, u4, u7} , t2 –> t1 t3 t4 1. 00 1. 00 oui (t1, t2, t3, t4 ) t3 –> t1 t2 t4 1. 00 1. 00 oui t4 –> t1 t2 t3 1. 00 1. 00 oui Dans la prochaine section, nous mettons en exergue l'apport de pour l'autocomplétion de requêtes soumises pour la recherche d'information dans les folksonomies. En effet, les règles triadiques de ont la particularité d'avoir un seul tag en prémisse et un nombre maximal de tags en conclusion. Cela garantit que la complétion de requêtes se fera sans perte d'information et ce, par la suggestion à l'utilisateur de l'ensemble de tags le plus complet avec la confiance la plus élevée. L'objectif de la complétion de requêtes, domaine initialement abordé par (Motro, 1987; Cuppens, Demolombe, 1989; Frantz, Shapiro, 1991), est de suggérer des informations complémentaires et utiles à un utilisateur suite à sa soumission d'une requête dans une folksonomie; lui évitant ainsi de reformuler la même requête jusqu' à obtention d'une réponse satisfaisante. La complétion de requêtes est alors définie comme suit : Définition 21. — (Autocomplétion de requêtes) Une autocomplétion de requête (ou auto-complétion de requête) est une paire, où est un ensemble tags (les tags complétant la requête) et un ensemble d'utilisateurs (les utilisateurs partageant les mêmes intérêts). La complétion de requête revient à calculer le sous-ensemble d'utilisateurs qui ont partagé les tags de, ainsi que le sous-ensemble de tags ayant été annotés par au moins un utilisateur. Notons que sont appelés respectivement Préfixe et le Suffixe de la requête complétée. Étant donnée une requête soumise par un utilisateur us, la complétion de requêtes se base sur deux ensembles, i.e., l'ensemble maximal de tags et l'ensemble maximal d'utilisateurs. Le processus d'autocomplétion de requêtes revient par conséquent à : Trouver l'ensemble maximal de tags partagés par un même groupe d'utilisateurs sur un même ensemble de ressources. Ce qui revient à considérer les règles triadiques ayant en prémisse la requête. Trouver l'ensemble maximal d'utilisateurs associés à cet ensemble maximal de tags. Cela revient à étudier les groupes d'utilisateurs contenant us et relatifs aux règles triadiques ayant en prémisse la requête. Le processus d'autocomplétion de requêtes à partir de est décrit par l'algorithme Comp_User_Query donné par l'algorithme 2. Comp_User_Query prend en entrée ainsi que la requête soumise par l'utilisateur us et retourne la requête complétée. Comp_User_Query procède par un parcours de l'ensemble des RAT de afin de déterminer la règle Rc la plus confidente (i.e., ayant la confiance conditonnée la plus élevée) vérifiant les deux conditions suivantes : L'utilisateur us doit appartenir au groupe d'utilisateurs U de la règle Rc. Le tag de la requête est contenu dans la prémisse de la règle Rc. Ainsi, après avoir déterminé la règle la plus confidente Rc, Comp_User_Query ajoute d'une part, le groupe d'utilisateurs Rc.U à celui de la requête complétée et d'autre part, l'ensemble des tags qui constitue la conclusion de la règle Rc à l'ensemble de. Algorithme 2. Comp_User_Query Le processus d'autocomplétion de requêtes se base ainsi sur afin de compléter efficacement la requête de l'utilisateur. Deux alternatives seront donc proposées à ce dernier, à savoir décider; (i) d'explorer l'ensemble de tags définis dans le Préfixe de la requête complétée lui évitant de resoumettre d'autres requêtes moyennant ces tags ou; (ii) de découvrir les utilisateurs définis par le Suffixe de la requête complétée avec lesquels il partage le même intérêt pour les ressources recherchées. Afin d'illustrer le processus d'autocomplétion de requêtes par, nous prenons comme exemple un ensemble de règles extraites, décrites par le tableau 4 (les URL correspondant aux ressources du tableau 4 sont présentées dans le tableau 5), à partir d'un jeu de données collecté à partir du site de partage collaboratif del.icio.us. Considérons, par exemple, que l'utilisateur u 1 = Jacob ait soumis la requête. Afin de compléter, Comp_User_Query explore pour identifier les RAT dont le groupe d'utilisateurs contient Jacob et dont le tag en prémisse est égale à nasa. Une fois que ces dernières ont été identifiées, Comp_User_Query choisit la règle triadique la plus confidente pour compléter. Les règles, candidates, générées sont : Exemple de base générique extraite à partir d'un petit jeu de données de del.icio.usU BGRT R suppc confc Jacob, Brson space–>photos,nasa,images,free,stock,science photos–>space,nasa,images,free,stock,science nasa–>photos,space,images,free,stock,science images–>photos, nasa, space, free, stock, science science–>photos,nasa,images,free,stock,space r1 r2 r3 0. 571 0. 571 0. 571 0. 571 0. 571 0. 653 0. 592 0, 371 0. 653 0. 592 Jacob, Lynavo Sandy satellite->nasa,mars,images,science mars–>satellite,nasa,images,science nasa–>satellite,mars,images,science images–>satellite,mars,nasa,science science–>satellite,mars,nasa,images r1 r4 0. 819 0. 819 0. 819 0. 819 0. 819 0. 452 0. 726 0, 887 0. 717 0. 213 Les URL correspondant aux ressources du tableau 4 Ressource URL du Site Web r1 r2 r3 r4 Puisque la deuxième règle est la plus confidente, ce sont les utilisateurs u 6 et u 7 ainsi que les tags satellite, mars, images et science qui s'ajouteront à la requête. Par conséquent, la requête complétée CQ, retournée à u 1 = Jacob, est égale à : CQ = {(nasa, satellite, mars, images, science), (u 1, u 6, u 7) }. Dans cette section, nous montrons en premier lieu la compacité de notre base générique. Nous prouvons ainsi qu'elle permet de réduire de manière considérable l'ensemble total des règles triadiques. Nous procédons par la suite à l'évaluation de l'autocomplétion des requêtes par. Nos différentes expérimentations ont été menées sur deux bases extraites d'un jeu de données 7 collecté à partir du système de marque-pages social del.icio.us et dont la taille réelle s'élève à 10 MB 8. Décrivant des annotations ajoutées par des utilisateurs durant le mois de janvier 2010, les deux bases utilisées sont de deux type, à savoir : Base dense : contient un nombre élevé de tri-concepts fréquents longs et ce, pour des différentes valeurs de minsuppp (en moyenne, jusqu' à 10 tags par triconcept). Elle est caractérisée par un nombre réduit d'utilisateurs (6 822) et un nombre limité de tags (671), partagées par ces utilisateurs. Les utilisateurs dans une base dense tendent en effet à utiliser le même vocabulaire lors de l'annotation des ressources par des tags. Base éparse : contient un nombre considérable de tags 18 066 mais seulement une infime partie d'entre eux cooccurrent fréquemment dans les tri-concepts (en moyenne, pas plus de 2 tags par tri-concept). Ainsi, dans une base éparse, les utilisateurs ont tendance à utiliser différents tags pour annoter un ensemble de ressources. Les caractéristiques des deux bases sont résumées dans le tableau 6. Caractéristiques des bases extraites de del.icio.usBase 1 Base 2 Type Dense Eparse # Triplets 67 290 99 989 # Utilisateurs 6 822 43 419 # Tags 671 18 066 # Ressources 13 102 53 397 Afin d'évaluer la compacité de par rapport à l'ensemble total des RAT, nous avons préalablement exécuté l'algorithme TriCons séparément sur les deux bases, i.e., dense et éparse. Le tableau 7 résume les différents résultats obtenus. Nous avons ensuite procédé à l'extraction de. Pour déterminer l'ensemble des RAT valides, nous avons considéré les valeurs de seuils suivantes : minsuppc = 0. 10 et minconfc = 0. 10. Nombre de tri-concepts extraits à partir des bases de del.icio.usBase 1 (Type) # Triplets # T C Base 2 (Type) # Triplets # T C Base 1 (Dense) 67 290 3 877 Base 2 (Éparse) 99 989 1 432 En examinant la compacité de sur les deux bases, nous avons relevé que pour toutes les valeurs de, la taille de est largement inférieure à l'ensemble total des règles extraites. La figure 2 met en évidence que lorsque le nombre de règles triadiques de grimpe jusqu' à 2 742 644, en considérant la base dense, et jusqu' à 4 602 pour la base éparse, le nombre de règles triadiques de notre base générique demeure, respectivement, en dessous de 11 328 et de 2 903, i.e., ce qui représente, respectivement, 0. 42 % et 63. 08 % de l'ensemble total de règles triadiques. En effet, la compacité de notre base générique est principalement due à ces deux facteurs : La taille de l'ensemble des tags T des tri-concepts qui peut être assez élevée (de 2 jusqu' à 10 tags) : d'un côté, la taille de ne s'en trouve pas affectée (le nombre des règles génériques étant égal à la taille de T). D'un autre côté, la cardinalité de augmente sensiblement de quelques centaines de règles. Ceci est principalement dû aux multiples combinaisons possibles de tags pour les RATs de. La forme particulière des RATs de : constituées d'un seul tag en prémisse et d'un nombre maximal de tags en conclusion, est un avantage pour notre base générique puisque ce type de règles permet non seulement de véhiculer le maximum d'information mais également d'éviter la redondance d'un très grand nombre de règles. Par ailleurs, nous observons que la base générique réduit en moyenne le nombre des règles triadiques extraites à partir des tri-concepts de 36. 92 % sur la base éparse et de 99. 58 % sur la base dense. Pour la base dense, le grand nombre de règles extraites revient à la taille des tri-concepts, i.e., contenant jusqu' à 10 tags qui induit un nombre élevé de règle. En revanche, dans la base éparse, l'écart observé entre la taille de et celle de est largement moins évident. Ceci est dû au faible nombre de tags contenus dans les différents tri-concepts, i.e., une moyenne 2 tags par tri-concept. Afin d'évaluer le processus d'autocomplétion de requêtes par, nous avons mené pour chaque base une série d'expérimentations visant à mettre en évidence le taux de couverture moyen des requêtes par la base générique. Nos expérimentations ont porté sur l'étude des deux éléments suivants : Le nombre de requêtes soumises par les différents utilisateurs et ce, pour chaque base : ces requêtes sont fournies en entrée à l'algorithme Comp_User_Query. Le nombre de requêtes couvertes : le nombre de requêtes qui ont été réellement complétées par l'algorithme Comp_User_Query, i.e., les requêtes ayant un tag appartenant à l'une des règles de. En examinant le nombre de requêtes couvertes par sur les deux bases, nous avons relevé que pour toutes les valeurs de triplets l'écart entre le nombre de requêtes couvertes et le nombre total de requêtes soumises est relativement réduit. La figure 3 met en exergue que lorsque le nombre de requêtes soumises grimpe jusqu' à 15 223, en considérant la base dense, et jusqu' à 14 700 pour la base éparse, le nombre de requêtes couvertes par notre base générique demeure élevé respectivement, de 13 224 et de 12 989, i.e., ce qui représente 99. 86 % et 99. 88 % de l'ensemble total des requêtes. Par ailleurs, suite à une estimation menée sur les deux bases, du taux de couverture moyen des requêtes soumises par au moyen de la formule énoncée ci-dessus, nous avons constaté que le taux de couverture moyen des requêtes sur la base dense est égale à 83. 48 %, soit 22. 43 % plus élevé que celui de la base éparse. En effet, puisque le nombre de tags partagés par les différents utilisateurs est considérablement plus important sur la base dense, la probabilité qu'une requête soit couverte par est forcément plus grande. D'un autre côté, un même tri-concept peut couvrir jusqu' à T × U requêtes ce qui explique le très grand nombre de requêtes couvertes et ce, sur les deux bases considérées. Considérons, par exemple, la règle générique satellite, mars, images, science (Confc = 0. 88), et la requête q = nasa. La requête complétée CQ = {(nasa, satellite, mars, images, science), (u 1, u 6, u 7)} permet de couvrir à la fois les quatre requêtes suivantes : q 1 = satellite, q 2 = mars, q 3 = images et q 4 = science. Afin de permettre aux usagers l'accès le plus pertinent à l'information à travers un processus d'autocomplétion de la requête soumise, nous avons proposé dans ce papier d'exploiter la structure des folksonomies, i.e., les triplets (ressources, utilisateurs, tags), pour introduire une nouvelle définition d'une base générique de règles d'association triadiques, appelée. Nous avons ainsi montré que remplit les conditions de non perte d'information et de non redondance des règles triadiques. L'étude expérimentale menée sur deux bases de différents types, i.e., dense et éparse, extraites à partir de la folksonomie del.icio.us a mis en exergue que apporte d'importants gains en termes de compacité. Les perspectives de prolongement du présent travail sont résumées dans les points suivants : la définition d'une nouvelle base générique adéquate aux " représentations concises " : en effet, un courant émergent de l'algorithmique d'extraction des règles d'association préconise l'extraction efficace de ce type de représentations, e. g., les motifs essentiels ou les motifs non dérivables (Hamrouni et al., 2009). À cet effet il serait intéressant de préconiser la définition d'un système axiomatique générique, qui pourrait être instancié pour chaque base générique extraite à partir d'une représentation concise; l'exploitation des relations non taxonomiques entre tags : en effet, la prise en considération des relations non taxonomiques entre tags peut s'avérer d'un grand intérêt pour l'autocomplétion de requêtes et ce notamment par l'exploitation des ontologies en ligne et des ressources lexicales externes, i.e., Wordnet et Wikipédia (Trabelsi et al., 2010). Par exemple, la relation non taxonomique suivante " java provides library ", extraite à partir de Wikipédia entre les tags " java " et " library " pourrait fort bien être exploitée pour améliorer le taux de couverture moyen des requêtes soumises. En effet, dans le cas de la requête q = java, Comp_User_Query aura non seulement à explorer les règles de contenant en prémisse le tag " java " mais également celles qui contiennent le tag " library " .
Le tagging social s'est récemment imposé dans le paysage du web collaboratif (Web 2.0) comme un support à l'organisation des ressources partagées, permettant aux utilisateurs de catégoriser leurs ressources en leurs associant des mots clefs, appelés tags. La structure ainsi créée, baptisée sous le nom de folksonomie, est assimilée à un hypergraphe triparti d'utilisateurs, de tags et de ressources. Dans ce papier, nous exploitons ces triplets pour introduire une nouvelle définition d'une base générique de règles d'association triadiques, appelée BGRT. Nous montrons que l'utilisation de ces règles génériques pour l'autocomplétion de requêtes permet de mettre en exergue la pertinence des folksonomies et leur intérêt réel pour la recherche d'information. Les premiers résultats obtenus sur une folksonomie réelle s'avèrent prometteurs et ouvrent de nombreuses perspectives.
sciencesInfo_12-0420385_tei_DN_id9782746239609_pu2012-01s_sa06_art06.tei.xml
termith-480-communication
Cette réponse à la contribution de Marlène Coulomb-Gully (2009) appuiera nombre deses hypothèses, notamment sur les réticences des sciences de l'information et de lacommunication comme de l'ensemble des études médiatiques, qu'elles soienthistoriques, littéraires ou culturelles à se tourner vers les études de genre. Ellevoudra également,à partir de réflexions faites à partir d'un programme de recherches« Masculin/féminin et presse au XIX e siècle » mené parChristine Planté et Marie-Ève Thérenty à Lyon et à Montpellier, insister surl'utilité d'un regard historique et rétrospectif sur les médias, regard quipermettra non seulement de faire émerger des continents journalistiques oubliés parles histoires de la presse traditionnelle mais également de recadrer le rôle desmédias dans la sexuation de notre société. Je commencerai par replacer mon intérêt relativement récent pour les gender studies dans mon parcours de chercheuse. Ceparcours professionnel confirmera les hypothèses globales formulées sur lescarrières par Marlène Coulomb-Gully. Il s'est fait tout entier à l'intérieur dela 9 e section (littérature française) mais avec un objet derecherche un peu incongru, semblant relever, à l'origine, plus de la disciplinehistorique que des lettres : la presse au XIX e siècle. Cetobjet inattendu pour une spécialiste de littérature a engendré une démarchetransdisciplinaire, et sans doute un peu marginale par rapport aux étudesauctoriales traditionnellement de mise dans les disciplines littéraires, et apeut - être prédéterminé une certaine sensibilité aux questions de genre. Eneffet, une pratique d'emblée interdisciplinaire de la recherche habitue àintervenir dans des champs disciplinaires qui ne sont pas les siens. De plus ,l'étude de textes considérés par définition comme mineurs aux yeux du panthéonlittéraire, puisque journalistiques, conduit à ne pas préjuger de la valeur desécrits en fonction du support, ni éventuellement en fonction du sexe de leursauteurs. La légitimité d'un chercheur sur la presse ne provient pas de lahiérarchie attribuée par l'institution aux auteurs qu'il étudie mais de sacapacité à éclairer d'un jour nouveau les grandes scansions historiographiquesdes écritures journalistiques. D'emblée, mon expérience de chercheuse s'est doncjouée à la frontière des disciplines, et ces pratiques transgressives parrapport à la norme de l'institution m'ont sans doute préparée à êtreparticulièrement sensible à la problématique gender quihésite à se situer dans le champ universitaire. Au moment de mon habilitation àdiriger des recherches, et avec l'amicale complicité de Christine Planté (1989) ,spécialiste des études de genre, j'ai peu à peu réorienté une partie de marecherche de spécialité vers ces questions et chausser les nouvelles « lunettesdu genre » m'a amenée à considérer d'un tout autre œil l'histoire de la presseau XIX e siècle, domaine que J'avais déjà pourtant bien arpenté. je codirige actuellement avec ChristinePlanté un programme intitulé « Masculin/féminin et presse au XIX e siècle » qui fait partie du projet « Genre et culture » dirigé parChristine Planté et lui -même intégré dans le Cluster 13 (Culture, patrimoine etcréation) administré par Philippe Régnier de la région Rhône-Alpes. Ce programmeest conduit conjointement entre deux universités à Lyon 2 et à Montpellier 3 etdeux centres de recherches : le laboratoire umr - Lire duCNRS à Lyon et l'équipe d'accueil ea 4209 Rirra21( Représenter, inventer la réalité du romantisme à l'aube du XIX e siècle) à Montpellier. Après ce prélude biographique et personnel ,c'est à la lumière de cette expérience et de cette réorientation que je souhaiterais répondre à Marlène Coulomb-Gullyet montrer les effets du recul historique. Les relations entre presse et catégories de genre restent aussi largement àexplorer pour le XIX e siècle. Que sait-on de la place desfemmes, des rapports entre hommes et femmes, entre masculin et féminin dansl'univers du journal à cette époque ? Par sa périodicité, par les rythmesnouveaux qu'il impose au quotidien, par les représentations qu'il diffuse, lejournal modifie l'ensemble des activités sociales, économiques, politiques etculturelles, des appréciations et des visions du monde, projetées toutesensemble dans une culture de la périodicité et du flux médiatique. L'étude desmultiples appropriations par les hommes et les femmes de la culture médiatiqueémergente au XIX e siècle, leur utilisation de ces supportsdans leur appréhension d'un monde structuré par la différence des sexes sedéroulent selon des procédés multiples et complexes. Dès le XIX e siècle, la presse fait circuler desreprésentations de la différence des sexes, elle constitue également sans nuldoute un lieu très important de la construction de cette différence. Ellefavorise les constructions identitaires, les identifications sociales etpolitiques, elle propose des codes de déchiffrement du monde informés par legenre, fournit des modèles de vie au quotidien, introduit de nouvelles valeurset de nouvelles formes culturelles et artistiques, favorise l'intégration desnouvelles connaissances scientifiques et médicales (en particulier sur ladifférence des sexes) — mais elle diffuse aussi les préjugés, les résistancesaux transformations, les rumeurs et les mythes. Pour contribuer à cette cartographie des études médiatiques de genre sur leterritoire français que Marlène Coulomb-Gully appelle de ses vœux, jesouhaiterais revenir sur les conclusions pleines de paradoxes que j'aipersonnellement tirées de cette participation au programme « Masculin ! fémininet presse au XIX e siècle » .Trois règles essentielles ontpetit à petit structuré une pratique qui pense finalement parler autantd'aujourd'hui que d'hier, ou plutôt qui prétend que parler d'hier permettra dejustifier certaines pratiques universitaires et journalistiques d'aujourd'hui :inscrire l'histoire des rapports du gender aux médiasdans le temps long pour bien comprendre le poids de l'histoire dans la relationcontemporaine des femmes à l'information; mettre l'accent autant sur lesconduites transgressives que sur le dispositif global car les transgressions ,même émanant de minorités voire de personnes singulières, doivent s'interpréterdans le dispositif global; montrer qu'un regard, certes de femme mais surtoutd'emblée tourné vers les problématiques de genre fait émerger notamment enmatière d'histoire du journalisme de nouvelles lignes de force, de nouvellespratiques et de nouvelles figures. Devant ce qui apparaissait globalement comme le territoire de diffusion desstéréotypes, les premiers chercheurs (ou les premières chercheuses) ont eutendance à avoir une approche militante des périodiques, étudiant une presseféministe et activiste comme Le Conseiller des femmesd'Eugénie Niboyet, Le Droit des femmes (1869) auquelcollabore Maria Deraismes ou de La Citoyenne d'HubertineAuclerc (1881) qui ont fait l'objet d'une approche poussée et spécialisée. Danscet esprit, les périodes les plus militantes, les plus engagées et les plusproductives en termes de journaux féministes, c'est-à-dire 1830, 1848 et la finde siècle ont été bien étudiées (Adler, 1979, Riot-Sarcey, 1994, Klejman ,Rochefort, 1989), tandis que les périodes qui paraissaient moins militantessouvent d'ailleurs du fait de répressions politiques ont été délaissées. Onsignalera cependant la récente thèse d'Alice Primi (2006) qui a le mérite decompléter chronologiquement le paysage de la presse engagée. Mais cette étude nécessaire de la presse féministe a rapidement sembléinsuffisante pour repenser les rapports entre masculin/féminin et presse. L'undes enjeux de notre recherche est de considérer la presse dans sa globalité ,presse féministe certes, mais aussi journaux généralistes et même « presse pourdames ». Pour participer aussi à la « déconstruction critique des impensés », ilfaut notamment revenir sur la distinction courante proposée —féminin !féministe — qui ne semble pas entièrement recouvrir l'espace des modespossibles de journalisme notamment à la fin du XIX e siècle .Cette distinction souvent proposée entre féminin et féministe invitegénéralement à faire la distinction entre une presse féminine consacrée auxmodes, aux mondanités et à la famille, validant une séparation et une hiérarchiedes territoires et une presse engagée et militante rejetant la théorie desterritoires, projetant d'accorder aux femmes les mêmes droits qu'aux hommes( civils et parfois civiques) et consacrée exclusivement à la question militante ,les femmes n'étant supposées capables de proposer que ces deux modes dejournalisme. Ces distinctions n'apparaissent plus vraiment valides notamment àla fin du siècle où l'on voit apparaître des objets journalistiques ambigus ethétéroclites comme La Fronde (1897), d'un côté, maisaussi Femina créé par l'éditeur Pierre Lafitte enfévrier 1901 et La Vie heureuse lancé par la librairieHachette le 15 octobre 1902 de l'autre. La création de Feminamontre l'émergence d'un type de périodique où l'on revendique laconstruction possible d'un nouveau modèle du féminin, qui ne serait plusabdication de la différence mais mise en compatibilité de données qui semblaientjusque là contradictoires, non pas une masculinisation de la femme mais savirilisation, dira même La Vie heureuse dans une jolieimage en septembre 1910 (Ducas, 2003 : 49).Alors que le quotidien généralistegarde jusqu' à la Belle Époque une vision largement fantasmatique de la divisiondu sexe, l'image anxiogène d'une femme masculine, contre - nature, signe de ladécadence des temps modernes hantant ses colonnes, le magazine Femina permet un renversement et le passage à une féminité assumée ,« celui d'une féminité sur la défensive à une féminité plus affirmative, necraignant plus de lier activités mondaines et représentation d'une femme pourainsi dire « virilisée » (Pinson, 2009). Cette observation appelle plusieursremarques. On constate une forme de conjonction qui n'est peut-être pas qu'unecoïncidence entre la création du magazine moderne et l'invention d'unereprésentation d'un modèle féminin appelé à durer. Cette représentation de lafemme moderne, qui paraîtra sans doute mièvre aux féministes les plus radicales ,n'en remet pas moins en cause par son militantisme et son engagement ladichotomie féminin/féministe et fait bouger les catégories. N'oublions pas quele consortium Femina/Vie Heureuse sera à l'origine de lacréation du Prix Femina (Ducas, 2003). Globalement, cette remarque sur l'ambiguïté de certains journaux féminins audébut du XX e siècle invite dans cette recherche sur legenre et la presse à ne pas succomber trop tôt aux préjugés. Les militantesféministes, pionnières des études gender, ont rapidementfait de la presse dite féminine et de la presse généraliste des instrumentsessentiels, et peut-être les plus totalisateurs de tous, de la dominationmasculine. Sans invalider totalement ces conclusions, notre lecture de la presseinvite à les moduler. Sans même envisager les combats féministes qui sont touspassés par l'instrument périodique, la presse a été aussi, de manière marginalemais globalement significative, un instrument d'émancipation des femmes pour peuqu'elles sachent s'approprier l'objet et pratiquer une certaine forme detransgression des interdits. Dans le domaine des représentations, de la lectureou des écritures journalistiques, il faut à la fois montrer l'existence d'uneforme de carcan extrêmement répressif dont les femmes aujourd'hui encoresupportent l'héritage mais aussi l'existence de « franches-tireuses » qui ontutilisé la presse généraliste comme un instrument d'émancipation dans despratiques qui pouvaient être intimes (la lecture) ou publiques (l'écriture) .Cette mise en évidence des pratiques transgressives dans le domaine desreprésentations, de la lecture ou des écritures journalistiques permet à termede proposer une autre histoire de la presse et d'éviter l'occultation decertaines inventions significatives. Car l'occultation sexiste en l'occurrencevient au moins autant du milieu des historiens que des pratiques de la presse auXIX e siècle. La presse est notamment un lieu de véhicule des stéréotypes et des constructionsidentitaires sociaux aussi bien que sexués. Il est difficile de prouver quec'est également l'espace d'élaboration et de construction de ces modèles. Aumoins peut-on dire qu'elle permet de rendre reconnaissables ces catégories et àles imposer comme des évidences, des catégories de saisie. Ce rôle se renforce àla fin du XIX e siècle au moment où la presse quotidiennedevient une presse de masse, où quatre journaux quotidiens, LeJournal, Le Petit Parisien, LePetit Journal et Le Matin dépassent ensemble lesquatre millions de lecteurs. La résistance à un discours aussi diffus et diffusédevient évidemment beaucoup plus difficile, elle se cantonne à des groupes oudes foyers de résistance irrigués eux - mêmes par une presse militante etbeaucoup moins influente : presse féministe notamment car pour la pressesocialiste, Marc Angenot (1989) a démontré qu'elle n'échappait pas au discoursstéréotypé. Depuis 1836 jusqu' à la Première Guerre mondiale — même si c'est avecdes nuances, des infléchissements et des résistances — la grande pressenationale a globalement contribué à rigidifier des modèles plaçant le fémininidéal du côté du domestique, de la famille, de la corporéité, de la faiblesse ,de la beauté, de l'instinct, du cœur et des sentiments, et le masculin du côtéde la vie publique, de la politique, de la vie militaire, de l'autorité, de lanation, de la force, des idées, de la raison, et de l'intellect. Ainsi TimothéeTrimm, le chroniqueur du Petit Journal qui a inventé lachronique de lieux communs accessibles à tous a sur la femme son chapelet :« Dieu […] a donné à la Femme la grâce, l'élégance native, la gentillesse del'enfant unie à la force d' âme de l'homme, le charme sans cesse varié de laphysionomie, la beauté du teint, l'éclat des yeux…. les mille inflexions de lavoix, l'art de séduire et de consoler (« Une toilette par jour », Le Petit Journal, 07/01/1868) ou encore « Avec l'amourpur, désintéressé, dévoué qu'elle dispense… souvent au plus pauvre, au plussouffrant, la femme est un ange sur terre qui remplit une sorte d'évangéliquemission » (« Les impressions d'une femme », Le PetitJournal, 03/02/1868). Aurélien Scholl propose une interprétationbeaucoup plus agressive de la théorie des deux sphères lorsqu'il écrit : « C'estque la puissance créatrice manque aux femmes et que leur constance est uneperpétuelle oscillation de sentiments sur le même sujet. La constitutionphysique de la femme est plus délicate que celle de l'homme; les anatomistesvous diront que son cerveau contient trois à quatre onces de cervelle de moinsque le crâne du mâle, qu'elle éprouve aussi de plus profondes altérations del'influence des climats et de la nourriture; que c'est toujours par les femmesque commencent les dégénérations de notre espèce; que ses os sont plus petits ,plus minces que ceux de l'adulte du sexe male; que son pouls est plus faible ;qu'elle n'a de puissant que le bassin qui doit précéder le berceau et le seinqui doit nourrir l'enfant » (Le Matin, 30/11/1889). Onl'entend : Aurélien Scholl mobilise une vulgate scientifique pour appuyer sesarguments qui vont tous dans le sens d'un manque ou d'une infériorité duféminin. De cette bipartition du monde découle tout un jeu de rôles, de terrainsattribués, de domaines réservés et de spécificités. Notamment, jusqu' à la fin dusiècle, la grande presse nationale tout comme la presse féminine continuent àcélébrer l'amour, le mariage et la famille comme des espaces idéaux dedéveloppement de la femme. « La tâche de la femme dit Le PetitÉcho des dames en 1889 est d'exercer son influence au foyer et d'yprouver son abnégation entière » (Angenot, 1989 : 209) ou encore Le Conseiller des dames laïc et mondain : « Notre rôle aufoyer est de plaire aux yeux et au cœur. Soignez donc les avantages dont lanature vous a douées pour charmer les regards du père, du frère, du mari »( 1889 : 29). Il est par exemple quasiment impossible à un journal de parlerd'une femme sans la resituer par rapport à un homme dont elle serait la femme ,la fille, la maîtresse ou la mère. Une chronique intitulée « Les femmesd'Ibsen », parue dans Le Gaulois le 23 avril 1894 ,s'indigne au nom de la race gallo-latine d'un théâtre où les femmes ne sont nides amantes, ni des épouses, ni des mères. On pourrait multiplier les exemples en étudiant comme l'a fait Anne-ClaudeAmbroise-Rendu le territoire du fait divers (2004) ou celui de l'enquête, maisil semble tout à fait intéressant aussi, dans le projet d'une histoire complètedu masculin et du féminin dans la presse, de montrer l'émergence d'uneconscience féministe dans la presse généraliste et la manière finalement dontcertaines femmes se sont appropriées l'objet et ses potentialités. Par exemple ,à la Belle Époque, de la même manière que le journal généraliste crée des grandsévénements sportifs, il peut aussi monter des événements publicitaires en faveurde l'émancipation des femmes. Ainsi, le 26 avril 1914, LeJournal annonce -t-il l'organisation d'un référendum pour savoir si lesfemmes désirent voter. Séverine lance la campagne dans Le Journal. La commission exécutive du scrutin comprend MargueriteDurand, Maria Verone, Valentine Thomson directrice de La Vieféminine et Avril de Sainte-Croix (Le Garrec, 1982 : 235). Le 5 mai ,jour de clôture du scrutin, 505 972 femmes ont répondu oui au droit de votecontre 514 non. Le 5 juillet, à l'occasion d'un hommage public à Condorcet ,6 000 femmes sont dans la rue arborant la broche argentée en forme de primevèreofferte par Le Journal aux manifestantes « Une pourtoutes; toutes pour une ». La presse généraliste, si elle a plutôt contribuéglobalement à renforcer les barrières, a donc pu aussi à des momentsstratégiques offrir une tribune au mouvement féministe. Une vision tropmanichéenne d'un univers aussi complexe que celui de la presse peut conduire àdes erreurs historiques sur le rôle de la presse dans l'émancipationféminine. On constate la même ambiguïté du côté de la lecture des journaux et de leurappropriation par les femmes. Dans le journal quotidien au XIX e siècle, les rubriques et leurs frontières renvoient d'une manièrenormée et prescriptive à une sexuation du journal qui reproduit les mêmesdivisions que la société en définissant un espace public plutôt masculin et enmarge un espace privé plutôt féminin. Les rubriques politiques et diplomatiquess'adressent plutôt aux hommes tandis que la part du journal qui concerne lamaison, l'intimité et la mondanité, est plutôt destinée aux femmes. Ce clivagepeut aussi se révéler décisif dans le partage des différents régimes temporels :aux hommes l'exceptionnel, l'événement; aux femmes l'itératif, le banal, leprosaïque. Les rubriques sont souvent marquées grâce à des indicateurs de genreextrêmement précis, des descriptions de destinataires assez prescriptivescensées éviter tout défaut d'aiguillage. Ces contrats de lecture peuvent êtreparfois doublés de prescriptions internes au foyer familial comme le prouve cetextrait de Pot-Bouille de Zola où Angèle, âgée de quinzeans, lit la Gazette de France par dessus son Histoire sainte : « Angèle, dit-il, que fais -tu là ? Cematin, j'ai barré l'article au crayon rouge. Tu sais bien que tu ne dois paslire ce qui est barré. — Papa, je lisais à côté, répondit la jeune fille »( Zola, 1882 : 506). Cette résistance du journal à l'intégration de la femmerévèle beaucoup des archaïsmes d'une société. Il est frappant de voir que lequotidien, qui avait sous la Troisième République une vocation à l'universalité ,s'ouvre aux femmes avec une lenteur qui traduit sa perplexité et son anxiétédevant l'autre sexe. Anne-Marie Thiesse (2000 : 16) rapporte ainsi qu' à la BelleÉpoque, il semblait inconvenant qu'un homme lise la partie feuilletons dujournal et quasiment impossible à une femme de lire la politique. Mais peut-êtrene faut-il pas en rester à cette description normée des comportements ets'intéresser à l'appropriation quotidienne du journal. Or à la différence desespaces publics qui sont effectivement interdits aux femmes, le journal se litdans l'intimité et aucun gardien du temple ne peut vraiment garantir le respectstrict des contrats de lecture. « C'est pour les mamans parisiennes que j'écris cette chronique. Mais j'espèrebien cependant que les papas la liront par dessus une épaule ronde, embusquésderrière un cou blanc » (Edmond Dechaumes, La Presse ,11/07/1884). Les conservateurs ont donc raison de s'affoler et de craindre latransgression possible : elle est d'emblée induite par l'espace totalisant dujournal qui offre sur la même page toutes les matières et qui croit peut-êtretrop aux divisions symboliques. Les femmes peuvent lire le journal au-dessus dela barre du feuilleton qui sépare les modes et la fiction des matières sérieuseset les hommes se délecter du roman-feuilleton. Il est cependant compliqué detrouver trace de ces lectures sinon dans les journaux ou mémoires (qui, publiés ,sont souvent le fait de femmes s'éloignant peu ou prou de la norme), dans lesromans, (qui par leur nature fictive sont sujets à caution), et dans lespamphlets (qui stipendient généralement les bas-bleus de toute nature). Ainsi lejournal intime de la marquise de Breteuil, rédigé en 1885-1886, montre -t-il quela marquise souvent tenue à l'écart des mondanités parce que de santé fragileest non seulement très au fait des grandes manifestations mondaines etparisiennes mais qu'elle lit aussi les nouvelles politiques et diplomatiques. Sapratique de lecture et les usages qu'elle fait de ces lectures ne respectent pasles frontières genrées et prescriptives tracées à l'intérieur même du quotidien( Pinson, 2009). Une nouvelle histoire de la lecture du journal devrait tenter detracer, malgré l'absence de sources statistiques et de témoignage, une histoiretrès fine des lectures genrées de la presse, les études faites aujourd'hui de lalecture des périodiques ayant tendance à prouver une lecture différenciée. Onpeut faire l'histoire de la construction de cette lecture et étudier égalementles tendances sur un cycle long. Les conclusions du travail de Sylvie Debras( 2003 : 9) permettent de revenir sur un certain nombre d'idées reçues : certesles femmes d'aujourd'hui lisent moins le journal mais elles le lisent « mieux » ,c'est-à-dire « qu'elles sont davantage portées que les hommes à lire desarticles de fond et à les lire en entier alors que la lecture masculine est plussuperficielle. Du côté des écritures de presse, il semble acquis au XIX e siècle que les rubriques politiques, diplomatiques, rationnelles( premier-Paris, critique…) sont réservées aux hommes tandis qu'une interventionféminine peut être supportée dans la part du journal très limitée qui concernela maison, la mode, l'intimité et la mondanité. Les femmes cantonnées dans desrubriques spécifiques et fortement minoritaires dans le journal n'auraient rieninventé. Or, un examen attentif des pratiques d'écriture des femmes conduit àdes conclusions sensiblement différentes. D'abord Delphine de Girardin, la femmedu directeur de La Presse ,a signé de 1836 à 1848 sous lepseudonyme de Vicomte de Launay des chroniques parisiennes étincelantes d'espritet de malice qui constituent la matrice de toute la chronique parisienne duSecond Empire. Delphine de Girardin invente une manière parisienne de prendre àcontre-pied l'actualité politique, de saisir au vol le détail caractéristiqued'un comportement social, de narrer sur le mode de la conversation ou de lacauserie les derniers faits mondains de la semaine. Mondanité, intimité ,conversation : ce paradigme renvoie certes à des caractéristiques connotéescomme féminines, mais la chronique deviendra sous le Second Empire le genre-roidu journal et ce même paradigme sera développé par une batterie de chroniqueursjournalistes comme Auguste Villemot, Aurélien Scholl, ou Pierre Véron. Une desinventions fondamentales du journalisme au XIX e siècle estbien due à la plume d'une femme. Ce fait est bien connu, mais le nom de Delphinede Girardin est à peine cité dans les histoires traditionnelles de la pressealors que celui de son mari, Émile de Girardin, inventeur de la presse àquarante francs est omniprésent. Il existe une forme d'invention féminine dujournalisme qui ne se réduit pas à une invention du journalisme au féminin. Eneffet, l'histoire « genrée » du journalisme montre l'émergence de pratiques, depoétiques ou de postures journalistiques qui gagneraient à être isolées et àêtre replacées dans une histoire qui va jusqu' à nos jours, mouvementparticulièrement nécessaire si l'on pense qu'en 2010 les femmes serontmajoritaires dans cette profession. En se penchant sur l'histoire du reportage au XIX e siècleavec un regard attentif aux productions des femmes, on risque d' être encore plussurpris par le résultat : lorsque le reportage, l'enquête sur le terrain ,apparaît dans les années 1870-1880, ce nouveau genre journalistique sembleinterdit aux femmes aussi bien pour des raisons pratiques (le reportage conduità se déplacer dans des espaces publics : café, cabaret) que pour des raisonsidéologiques (ce genre tourné vers l'extérieur et l'international paraît connoté« masculinement »). Or, deux faits très souvent également « absentés » deshistoires de la presse mettent à mal cette représentation des genresjournalistiques : la visibilité soudaine dans les années 1880 d'une femmereporter, Séverine pour ne pas la nommer, qui n'hésite pas, par exemple, àdescendre dans les mines soufflées par le grisou en 1890. Le geste de Séverineest complexe : d'un côté, en devenant un maître du reportage et en affrontant lapeur, elle transgresse la sexuation des genres journalistiques; mais, del'autre, elle pratique le journalisme de reportage en n'omettant jamais saféminité et en ne laissant jamais oublier son corps de femme. Ainsi le 1 er août 1890, arrivée à Saint-Étienne pour les obsèques desmineurs tués dans le coup de grisou, a -t-elle juste le temps de « sedébarbouiller un brin et passer une robe noire » (« Au pays noir. Les90 cercueils », Le Gaulois, 01/08/1890). Subversive etconventionnelle à la fois, elle ne remet pas en cause la distinction des genresmais, plus subtilement, elle énonce, en acte, une sorte de qualificationspécifique de la femme pour le journalisme et pour le reportage. Elle pose unequestion essentielle : est -ce que la manière dont le féminin est conçu ,construit, créé ne prédispose pas les femmes au reportage ? Un deuxième événement, collectif celui -là, semble corroborer cette hypothèse .En 1897, Marguerite Durand lance, avec l'aide de Séverine d'ailleurs, le premierjournal quotidien entièrement rédigé par des femmes, La Fronde. C'est surtout la pratique sans retenue du reportage quiétonne les observateurs. Dans les colonnes de La Fronde ,Séverine défend la pratique du journalisme debout contre le journalisme assis ,c'est-à-dire un journalisme du témoignage contre un journalisme de la parole :« je n'en parle pas comme un rhéteur, j'en parle comme un témoin » (« Chosejugée », La Fronde, 16/02/1899). Cette pratique devientvisible pour tous au moment du procès de Rennes lors de l'affaire Dreyfus( Cosnier, 1997). Dans la tribune de la presse au procès de Rennes, elles sontsix dont trois frondeuses : Séverine, jeanne Brémontier et Marguerite Durand .Cependant, est-on vraiment — comme semblent le dire et le craindre ces hommes —dans un journalisme de simulacre, dans une tentative de maîtriser le discoursdominant, de le domestiquer pour s'en approprier la position ? En fait, cereportage de frondeuses n'est qu'au premier abord une imitation de celui deshommes, il développe plutôt certaines potentialités du genre, au nom même decette différence des sexes et de cette théorie des deux sphères constammentaffirmées au fil du siècle. Le reportage des frondeuses se caractérise cependantpar une nouveauté : sa capacité à l'empathie et au sensualisme radical( Mulhmann, 2004 : 33) peut conduire à la fusion volontaire du reporter avec lesujet observé. Ce reportage fait par des femmes est extrêmement sensible auxmisères sociales, au peuple et pose souvent une forme d'équivalence entre femmeet peuple. Naît également du côté du reportage féminin une nouvelle pratiquejournalistique appelée à avoir une longue postérité, celle du journalismed'identification, où le journaliste prend la place de la victime pour mieuxtémoigner. Cette pratique, variante du journalisme d'investigation, est initiéeaux États-Unis par une femme : Nellie Bly. Il existe peut-être une coïncidence àinterroger entre ce moment du reportage féminin au tournant du siècle, et puisaujourd'hui la sociologie de la profession qui se caractérise par uneaugmentation nette du nombre des femmes et également l'émergence de différentesformes de journalismes qui témoignent d'un nouvel engagement du reporter. Cesformes, souvent pratiquées par des femmes manifestent justement un certainaffaiblissement de l'impératif du « tout objectif ». Par exemple, on constate ducôté du reportage de guerre depuis une dizaine d'années le développement d'unjournalism of attachment (le terme est né en 1998 aumoment de la guerre en ex-Yougoslavie) qui renonce à la neutralité, quand ils'agit par exemple de couvrir la souffrance des populations civiles touchées parles conflits. Au lieu d' être une simple courroie de transmission pour lessources gouvernementales et militaires, ce reportage se propose de se mettre ducôté des victimes et de faire prendre conscience des coûts humains etémotionnels de la guerre. Autre forme de journalisme qui émerge en France ouréémerge : un journalisme de la tranche de vie ou un journalisme ethnographiquede l'intime. Ces articles, qui ne sont pas sans lien avec la miniaturisation destechniques du reportage pratiqués dans la Fronde, mettenten scène des personnages dépourvus de tout statut social pour des portraits. Ilsreposent sur un usage intensif de la citation, de la parole rapportée et sipossible colorée. Ce journalisme de l'intime s'emploie à faire surgir desaffects et à jouer sur le passage brutal de l'émotion. Appartient à ce registre ,par exemple, la page portrait de Libération qui a étécréée par une femme en 1995 (Neveu, 2000). Or, dans ces deux formes d'articles ,journalism of attachment, journalisme de l'intime ,selon les spécialistes de l'information (ibid.), onconstate une nette surreprésentation des femmes. La progression des femmes dans la presse accompagne aujourd'hui un retour à unjournalisme empathique dont on peut trouver l'origine au tournant du siècle dansLa Fronde. Cette forme de journalisme vientconcurrencer le journalisme du tout objectif très développé au XX e siècle et s'accompagne aussi d'une « relittérarisation » manifestede la presse avec des articles qui jouent sur les mises en scénarios, les misesen portraits, qui convoquent des procédés littéraires… Cette pratique invitel'historien à un retour en arrière sur ces quelques femmes, journalistes du XIXe siècle dont l'invention de postures, de procédés et depoétiques a sans doute été considérablement occultée, soit qu'elle ait étérécupérée (on pense à la chronique), soit qu'elle ait été niée (on pense aureportage). On touche alors à un paradoxe manifeste : une partie de l'inventiondu journalisme serait à mettre à l'actif de quelques femmes alors même qu'ellesont été — dans la mesure du possible — tenues à l'écart du champ médiatique. Ce changement de perspectives permet en fait une réécriture manifeste del'histoire de la presse et de l'histoire des femmes. En termes d'écritures depresse, une réflexion du XXI e siècle sur la production desfemmes journalistes au XIX e siècle permet de comprendre àpartir de quels présupposés hérités du XX e siècle et del'histoire de la presse qui s'est élaborée à cette époque, nous pensonsl'histoire de la presse. La grande historiographie de la presse est quasimentuniquement masculine. Or, les femmes, bien que peu nombreuses, ont été à lasource d'inventions importantes, occultées par les historiographes aussi bien enmatière de chronique que de reportage, soit les deux genres fondamentaux dujournalisme au XIX e siècle. Cette proposition de relecture de l'histoire de la presse du XIX e siècle est faite par une femme et, pour le dire avec les mots deMarlène Coulomb-Gully, il existe une « suspicion de l'engagement partisan pesantaujourd'hui encore sur les travaux sur le genre, qui pourraient ne passatisfaire aux critères d'objectivité qui caractériseraient la recherchescientifique ». Cet argument, s'il est reçu, peut aussi induire à suspecter uneproduction historiographique quasiment uniquement masculine. Peut-on vraimentécrire avec sérieux qu' à côté d'un regard féminin partisan, le regard masculinserait neutre et non orienté ? C'est avec de pareils présupposés que les étudesgender sont, depuis plusieurs années, marginaliséeset décrédibilisées. À leur retournement, on constate l'inanité de cespropositions. Nous proposons donc effectivement un éveil des études de presseaux problématiques gender, mais nous souhaitons égalementque ce regard soit rétrospectif, historique et nous assumons parfaitement qu'ilsoit celui de femmes .
Cet article voudrait montrer l'importance de la prise en compte de l'Histoire dans l'étude des rapports entre le gender et les médias. Ce retour en arrière est plein d'enseignements. D'abord, il confirme et valide historiquement que la presse constitue généralement un instrument qui conforte et fait circuler les discriminations et les préjugés sexués ; en même temps, ces recherches permettent de mettre au jour un rôle certain de la presse, et pas seulement de la presse féministe, dans la transgression progressive de certaines barrières. Ceci est particulièrement vrai dans le domaine des écritures de presse où les quelques femmes au XIXe siècle qui ont réussi à s'introduire dans les milieux journalistiques ont parfois innové. Ultimement, cela invite à remettre en cause les histoires traditionnelles de la presse qui ont notamment occulté les inventions médiatiques et poétiques des femmes journalistes.
sciencesInfo_10-0300848_tei_1077.xml
termith-481-communication
Le standard Unicode ou ISO/CEI 10646 (ci-après, " Unicode ") permet de faciliter la représentation informatique d'alphabets variés, et en particulier la rédaction et le partage de documents utilisant plusieurs alphabets. La transition vers une utilisation permanente d'Unicode, souvent à l'aide du codage UTF-8, est un processus d'envergure qui aboutira à terme à une gestion transparente des alphabets utilisés dans les divers documents échangés à l'intérieur de la société de l'information. Ce processus est également à l' œuvre dans des contextes fortement multilingues mais relativement peu informatisés : dans cet article, nous nous intéresserons au cas des langues africaines, à partir des observations recueillies lors de deux missions de formation au Niger, en 2000 et 2001. Le Réseau international francophone d'aménagement linguistique (Rifal) visait dans son programme de formation 2000-2001 le soutien au traitement informatique de la langue française et des langues partenaires, à savoir les langues utilisées dans les pays du Sud, surtout africains, membres du Rifal : R.D. du Congo, Centrafrique, Madagascar, Niger, Sénégal. L'un des objectifs des sessions 2000 et 2001 était la mise en œuvre de techniques permettant la diffusion et le partage des ressources linguistiques grâce à l'utilisation d'Unicode et du réseau internet, en vue de la constitution de banques de données textuelles et terminologiques. Les deux missions de formation à Niamey (Niger) que nous avons contribué à assurer présentent un intérêt particulier dans la mesure où le Niger reconnaît huit langues nationales, à côté du français comme langue officielle. Toutefois, malgré les besoins que cette diversité engendre, les efforts d'informatisation des ressources linguistiques sont encore très limités dans cette partie de l'Afrique subsaharienne. Nous allons décrire, dans ce qui suit, les défis posés par le multilinguisme à l'édition électronique, en les situant d'abord dans la perspective de l'alphabétisation des langues et des outils informatiques typiquement utilisés (section 2). Nous donnerons alors un aperçu du processus d'édition numérique observé dans un institut nigérien et de ses difficultés (section 3). Puis nous montrerons en quoi le standard Unicode permet de répondre à celles -ci (section 4), avant de fournir plusieurs perspectives sur un processus d'édition plus efficace, fondé sur Unicode (section 5). L'accès d'une langue à l'imprimerie, tout autant que l'accès au support numérique - deux révolutions souvent comparées - dépendent de l'existence d'une écriture offrant un support à cette langue. Plusieurs systèmes d'écriture sont apparus au cours de l'histoire, fondés sur un ensemble plus ou moins grand de caractères, organisés en phrases sous une forme généralement linéaire. On classifie souvent les systèmes d'écriture en : (1) systèmes alphabétiques, fondés sur un petit nombre de signes à valeur souvent phonétique, tel l'alphabet latin; (2) systèmes syllabiques, tels le syllabaire inuit ou le syllabaire japonais kana; (3) systèmes idéographiques, exemplifiés de nos jours par les idéogrammes chinois, pour lesquels le nombre de signes avoisine le nombre de mots plutôt que celui de phonèmes ou de syllabes (plusieurs dizaines de milliers). Dans ce qui suit, nous nous intéresserons principalement aux systèmes alphabétiques, pour une raison facile à comprendre, liée à l'historique des langues africaines et de leur écriture. En effet, la plupart des systèmes idéographiques sont le fruit d'une évolution commencée il y a plusieurs siècles (ou dizaines de siècles), alors que les langues qui ont acquis plus récemment une écriture l'ont fait à partir d'un alphabet existant. En Afrique, où certaines théories situent l'émergence évolutive du langage lui -même, le foisonnement des langues n'a pas entraîné le développement archaïque de systèmes d'écriture. Pour ce qui est des familles de langues (cf. Perrot, 1981, 1989), la diversité au sud du Sahara est telle que les linguistes ne sont pas encore parvenus à un accord sur le classement des quelques centaines de langues recensées (mais souvent peu étudiées). On distingue souvent les langues ouest-atlantiques (telles le peul et le wolof), les langues mandé plus au centre du continent, les langues voltaïques, celles du golfe de Guinée, enfin plus au sud la famille très étendue des langues bantoues, et la famille Khoisan. Revenant à l'équateur, on peut mentionner l'inclassable haoussa, ainsi qu'une importante zone de contact, riche en langues, entre le Nigeria et le Kenya. Ce panorama extrêmement sommaire laisse pour la fin les zones du nord et de l'est du continent, où un certain nombre de langues, plus facilement classables, ont développé des cultures écrites : les langues berbères, le domaine arabe (introduit à partir du VIIe siècle), l'ancien égyptien et le copte, le domaine éthiopien. Si l'on excepte les hiéroglyphes de l'Egypte pharaonique, on rencontre toujours au nord et à l'est de l'Afrique des écritures alphabétiques, dont l'histoire peut remonter à l'Antiquité, tel l'alphabet tifinagh des langues berbères, dérivé du punique, ou l'écriture de l'amharique en Ethiopie (Christin, 2001). Toutefois, l'alphabétisation des langues africaines subsahariennes ne s'est produite qu' à une époque récente (XIXe-XXe siècles). Elle fait alors le plus souvent appel à l'alphabet latin, enrichi de nombreux caractères phonétiques modernes empruntés à l'Association internationale de phonétique, dans la mesure où des experts occidentaux sont le plus souvent à l'origine du processus. Un exemple de telles additions figure en annexe (section 7) pour une langue berbère du Niger. Mais historiquement d'autres alphabets ont pu servir de base pour l'alphabétisation, notamment l'alphabet arabe, actuellement utilisé au Niger pour un dialecte du songhaï nommé tagdal. L'informatisation d'une langue peut se définir comme la possibilité de manipuler des documents stockés sous forme alphabétique, syllabique ou idéographique sur un support informatique, c'est-à-dire sous la forme d'une suite de caractères qui permet la manipulation du contenu linguistique. Une fois ce premier stade atteint, on peut évoquer l'existence d'outils informatiques adaptés à une langue, par exemple les outils d'édition qui facilitent la manipulation des documents, et aussi l'existence des ressources linguistiques : correcteurs d'orthographe, de grammaire, dictionnaires électroniques. On peut ensuite penser à la diffusion d'une langue sur internet, manifestée par le nombre de documents consultables dans des archives numériques ou indexés par des moteurs de recherche. Les problèmes posés par le codage informatique des systèmes alphabétiques, syllabiques ou idéographiques diffèrent par leur ordre de grandeur entre les deux premiers types de systèmes et le dernier. La représentation informatique de l'alphabet latin dans sa version anglaise, contemporaine des premiers ordinateurs de série, a précédé de plusieurs décennies la représentation des trois principales écritures idéographiques, celle de la Chine, du Japon et de la Corée (système CJC). La dominance de l'alphabet latin en informatique est visible jusque dans la nature du codage informatique, qui donne toujours par défaut la priorité aux lettres latines utilisées en anglais. Les six plus importantes langues nationales du Niger ont été abordées lors des formations Rifal 2000 et 2001 à Niamey. Il peut être utile de situer brièvement ces langues, toutes issues de familles linguistiques différentes (cf. Grimes et Grimes, 2000). Le haoussa est l'une des langues les plus parlées d'Afrique noire, avec environ 35 millions de locuteurs, dont 5 millions au Niger (plus de la moitié de la population). Le zarma est la langue de l'ethnie homonyme parlée par environ 1,5 millions de personnes au Niger, surtout dans la capitale. Le peul (ou fulfulde) totalise environ 15 millions de locuteurs en Afrique de l'Ouest, dont 800 000 au Niger. Le nombre de locuteurs du tamachek au Niger est aussi d'environ 800 000. Le kanouri est parlé par environ 4 % de la population du Niger, dans le dialecte manga. Enfin, le gourmantché est la moins représentée des langues abordées, avec environ 30 000 locuteurs au Niger (mais plus de 500 000 au Burkina Faso voisin). Les trois ou quatre groupes ethniques nigériens restants, chacun avec sa langue, ne dépassent pas 1 % de la population chacun. Parmi les six langues abordées, le peul a été la moins étudiée : il semble que le jeu de caractères latins standard (ISO-latin-1, cf. ci-dessous), enrichi parfois de deux ou trois caractères supplémentaires, soit suffisant pour représenter son alphabet, du moins dans une version simplifiée. En revanche, les cinq autres langues utilisent à des degrés divers des caractères spéciaux (entre quatre et seize), en général dérivés de l'alphabet latin. En effet, la définition d'une écriture pour ces langues s'est faite sur une base essentiellement phonétique, en utilisant les caractères de l'Association internationale de phonétique, basés sur l'alphabet latin. Toutefois, la normalisation des écritures ne semble pas totalement achevée. Nos informations proviennent essentiellement des participants aux formations Rifal, tous de niveau universitaire. Il existe ainsi une norme pour l'écriture du haoussa, définissant les lettres et les groupes de lettres utilisés, ainsi qu'un ordre lexicographique (a, b,, c, d,, e, f, fy, g, gw, gy, h. ..). Pour le zarma et le tamachek, il existe des conventions officielles élaborées lors de colloques scientifiques, mais elles ne semblent pas universellement connues. Nous reviendrons plus bas sur le tamachek, mais signalons par exemple pour le zarma un usage encore incertain des caractères i, e, o, u, munis d'un tilde (tous rares en réalité). La possibilité d'utiliser ces caractères spéciaux dans des programmes de traitement de texte n'est apparue que graduellement, en fonction des systèmes utilisés. Le logiciel TEX (puis LATEX), un des premiers et des plus robustes logiciels de publication par ordinateur, a fourni dès le début des années 1990 des polices munies des caractères spéciaux nécessaires aux langues européennes, puis à certaines langues africaines. Les propositions, par exemple celle de (Knappen, 1991) n'ont pu toutefois aboutir à la standardisation; la police élaborée par ce dernier couvre presque tous les caractères utilisés au Niger, sauf ceux du tamachek (cf. notre Annexe), qui provient d'une famille linguistique non couverte par l'article. Signalons toutefois que le kanouri semble incomplètement couvert (bien que la langue soit citée explicitement), alors que le gourmantché et le zarma sont couverts sans être cités (c'est le songhaï, parent du zarma, qui est cité). Un autre logiciel, Sil Encore Font, permet de créer des polices de caractères personnalisées utilisables sur des ordinateurs personnels (PC et Apple). Muni d'une base de caractères essentiellement phonétiques, ce logiciel a été très utilisé par les linguistes de terrain, sans que des polices standardisées n'émergent toutefois. Dans l'ensemble, la présence des langues nigériennes sur internet semble tout à fait occasionnelle, bien que nous ne disposions pas d'une étude approfondie. Par exemple, il existe une version de la Déclaration universelle des droits de l'homme en kanouri (dialecte yerwa) sur le site des Nations unies, qui utilise Unicode/UTF-8 (mais avec une police imposée par le site). Autre exemple, on trouve une version du Pater en haoussa, donnée simplement par le cliché de la page imprimée correspondante. Ces deux exemples montrent bien que la présence des langues sur internet est conditionnée par la possibilité d'encoder leurs alphabets. Le développement de documents numériques dans les langues nationales du Niger en est seulement à ses débuts. La faible diffusion des technologies permettant la création et l'utilisation de tels documents n'est que l'une des raisons de cette situation - l'autre étant la présence du français comme langue officielle, de communication, et de culture. De ce fait, même les publications imprimées disponibles dans les langues nationales sont peu diversifiées, et leur qualité éditoriale laisse souvent à désirer. On constate en particulier que les polices de caractères utilisées ne permettent pas toujours d'écrire correctement la langue du document, mais sont choisies en fonction des capacités des éditeurs. La qualité des documents imprimés disponibles en français et en arabe est presque toujours supérieure à celle des documents dans les langues nationales. Pourtant, le Niger déploie nombre d'efforts en direction des langues nationales, souvent de concert avec des organisations non gouvernementales. Un des domaines où les besoins sont les plus marquants est l'éducation, puisqu'il est établi que l'éducation de base en langue maternelle est bien plus efficace qu'une éducation en français. Or, les supports pédagogiques rédigés dans les langues nationales sont rares, et leur qualité va nécessairement de pair avec la capacité à représenter correctement les alphabets correspondants. Comme nous allons le voir, l'édition de ces documents étant en grande partie assistée par ordinateur, l'informatisation des langues nationales apparaît ainsi clairement comme prioritaire. Les formations Rifal 2000 et 2001 ont été accueillies à Niamey par l'Indrap (Institut national de documentation, de recherche et d'animation pédagogiques). La mission première de l'institut est l'établissement des programmes d'enseignement pour les écoles nigériennes, accompagnés d'outils pédagogiques : manuels scolaires, guides pour enseignants, méthodes d'évaluation, émissions de radio pour enseignants. Les différentes " cellules " de l'institut regroupent des locuteurs des différentes langues nationales, mais la langue de communication et celle des documents de synthèse est le français. Du point de vue multilingue, l'une des principales difficultés est la traduction dans les langues nationales des termes français propres à chaque discipline d'enseignement. Cette tâche, indispensable pour la rédaction des programmes et manuels, échoit en général à la cellule de l'Indrap dédiée spécifiquement aux langues nationales. Enfin, la cellule de publication assistée par ordinateur permet à l'Indrap d'éditer de façon autonome l'ensemble des documents élaborés. Les nouvelles technologies ont changé bien des aspects de l'édition des documents, en particulier à l'Indrap. On assiste toutefois à un emploi particulier de ces technologies, conduisant à un processus d'édition original, qui diffère à la fois de l'imprimerie traditionnelle et de la publication assistée par ordinateur pratiquée en Occident. La cellule de saisie et publication assistée par ordinateur (PAO) de l'Indrap est en effet chargée de toutes les opérations de rédaction, à partir de la saisie des documents et jusqu' à la livraison à l'imprimeur des pages définitives. Les publications font de nombreux allers et retours entre les auteurs - qui fournissent initialement un manuscrit puisqu'ils ne disposent souvent pas d'ordinateurs - et la cellule, qui utilise des traitements de texte courants pour la mise en page des documents, et imprime à chaque stade une version sur papier. Ce procédé est donc relativement laborieux, même s'il faut reconnaître qu'il aboutit à une concentration des documents informatiques pouvant servir d'archives numériques pour l'Indrap. Il paraît donc prématuré de parler d'une véritable utilisation des documents numériques en tant que tels. Pourtant, la mission pédagogique de l'Indrap, et la concentration d'utilisateurs potentiels, bénéficierait grandement d'un partage informatique de ces documents. Parmi ceux -ci, l'on a déjà cité les manuels, programmes, et outils d'enseignement; ajoutons des documents ayant trait au multilinguisme, tels des lexiques bilingues des mathématiques ou des élections, traductions de documents officiels vers les langues nationales, textes littéraires. Le principal problème posé à l'Indrap par le processus actuel, qui risque de s'aggraver avec l'augmentation du parc informatique, est la difficulté à représenter de manière uniforme les caractères spéciaux présents dans les différentes langues nationales. Les auteurs et les éditeurs de documents utilisent environ dix polices de caractères (certaines assez semblables), qui ont été définies sur place, souvent sans souci de standardisation. Dans la mesure où ces polices sont en général incompatibles, et qu'elles ne permettent pas la gestion de documents multilingues, souvent même excluant le français, le partage des documents est particulièrement difficile, seule la cellule PAO étant capable de trouver les polices adaptées. Afin de faire comprendre au non spécialiste l'apport essentiel du standard Unicode aux problèmes décrits, il est utile de rappeler la situation en matière de codage de caractères avant l'apparition des outils permettant l'utilisation de ce standard. Cette situation caractérise encore bien le processus d'édition dans une institution comme l'Indrap au Niger. De façon générale, les caractères d'un fichier informatique (un document) sont codifiés par une suite d'octets, un octet pouvant prendre une valeur entre 0 et 255. Jusqu' à l'avènement des outils mettant en œuvre le standard Unicode, les fichiers étaient lus octet par octet, et une interface graphique associait à chaque octet le caractère à afficher ou glyphe qui était prévu par la police de caractères utilisée. Il faut distinguer ici la police, qui définit les formes exactes des caractères (par exemple, avec ou sans empattement), et le jeu de caractères, qui est une table de correspondances entre des nombres et des définitions abstraites de caractères (par exemple, " e latin avec accent aigu "). Ainsi, il existe plusieurs jeux de caractères standard à base latine, et pour chacun il existe de nombreuses polices, variant considérablement les formes des lettres. La dominance de l'alphabet latin en informatique se voit dans l'historique de ces jeux de caractères : un des premiers standards, ASCII, codait l'alphabet latin sur sept bits (le huitième servait de contrôle pour repérer les erreurs de transmission). Puis, libérant ce huitième bit, on a créé un jeu de 256 caractères, dont les emplacements nouveaux ont été attribués par différents standards à différentes combinaisons de caractères européens, le standard ISO-latin-1 (Europe occidentale) étant le plus utilisé. Toutefois, la création de plusieurs jeux de caractères à base latine, regroupés dans les standards ISO-latin de 1 à 10, procède de l'impossibilité d'ajouter à la base ASCII commune plus de 96 caractères différents en même temps (codes de 160 à 255). Les documents rédigés selon l'un de ces jeux sont ainsi très peu lisibles avec un autre jeu. Afin d'unifier les très nombreux jeux de caractères existant au début des années 1990 (plusieurs jeux pour chaque écriture), il était devenu nécessaire d'utiliser une table de caractères sur plus d'un octet - et deux octets offrent déjà 65 536 places différentes. L'effort conjoint du consortium Unicode et de l'Organisation internationale de normalisation (ISO/CEI 10646) a abouti ainsi à un standard sur deux octets, qui fixe un code unique pour la plupart des caractères alphabétiques existants (dans tous les alphabets), pour de nombreux caractères symboliques (par exemple mathématiques), et pour des dizaines de milliers d'idéogrammes asiatiques. La version 3.2 du standard Unicode, la plus récente, définit plus de 95 000 caractères, qui sont groupés par blocs pour en faciliter la description. Ainsi, la plupart des alphabets jouissent d'un bloc à part, par exemple le grec, le cyrillique, l'arménien, etc. Le tout premier bloc (U+0000 à U+0099 ou 0-255 en décimal), et le bloc Latin Etendu-A (U+0100 à U+017F), permettent d'écrire correctement la plupart des langues européennes. Il n'existe toutefois pas de bloc spécifiquement destiné aux langues africaines : on doit alors emprunter des lettres à différents blocs, notamment Latin Etendu-B (U+0180 à U+023F, prévu pour la transcription latine des alphabets non latins), et API (U+0250 à U+02AF, Alphabet phonétique international). Tout au plus le standard Unicode marque -t-il certaines lettres comme " africaines " ou " pan-nigérianes ", mais cette sélection semble incomplète au vu de notre Annexe pour le tamachek (par exemple U+01CE ou U+1E6D devraient être marqués aussi). Il est vrai toutefois que la notion d'alphabet " africain " est encore vague au niveau linguistique, ce qui explique son absence du standard Unicode. Revenant à un plan plus technique, à la correspondance abstraite définie par Unicode, se sont ajoutés des codages en machine pour les caractères sur deux octets, qui sont des formes de sérialisation des bits d'information en vue du stockage. Le codage le plus répandu est UTF-8, avec un code de longueur variable (parfois plus de deux octets réels, souvent moins). En UTF-8, les 127 premiers caractères (le code ASCII) sont codés tels quels sur un octet, la plupart des caractères non idéographiques sont encodés sur deux octets, et le reste d'Unicode sur trois, puis quatre octets. UTF-8 assure ainsi que les documents ASCII existant déjà seront lus tels quels par un programme utilisant entièrement ce codage. Unicode/UTF-8 permet donc d'éditer des documents lisibles sur tout autre ordinateur, sans ambiguïté de police, car il n'est plus nécessaire d'utiliser des polices associées à tel ou tel jeu de caractères. Il faut seulement disposer d'une police compatible avec le standard Unicode, c'est-à-dire indexée selon les numéros de caractères Unicode. Ces polices ne diffèrent entre elles que par leur style et par le spectre de caractères Unicode disponibles. Parmi les polices avec plus de mille caractères contenant les caractères spéciaux qui nous intéressent ici, on peut citer Arial Unicode MS, Cyberbit Bitstream, Lucida Sans Unicode (la plus compacte). Dans la perspective des polices/jeux de caractères, on peut décrire la situation initiale de l'Indrap dans les termes suivants. Grâce à différents outils de création de polices, l'institut dispose d'une dizaine de polices créées à partir de polices ISO-latin-1, mais dans lesquels bon nombre de codes, parfois inférieurs à 127 (donc ASCII), ont été remplacés par des glyphes correspondant aux besoins des langues nationales du Niger. En conséquence de ces redéfinitions, dont on comprend certes l'utilité, les caractères sont définis dans un document seulement à travers une police réalisant la correspondance entre le code (sur un octet) et le glyphe. Pour qu'un tel document rédigé sur un ordinateur soit lisible sur un autre, il faudra que ces polices créées localement y soient également installées. Ces polices locales sont donc un obstacle au partage des documents multilingues. Dans la mesure où les alphabets des langues nationales nigériennes sont à base latine, mais utilisent entre cinq et seize caractères spéciaux (différents en général d'une langue à l'autre), on peut imaginer une solution en vue du partage des documents en ces langues, qui ne passe que par une police sur un octet (256 caractères) - comme nous l'esquisserons dans la section 5.2. Il est toutefois peu probable que le jeu de caractères implicite puisse devenir un standard. Il faudra donc toujours la fournir pour la visualisation des documents. En revanche, en utilisant le standard Unicode dès la rédaction des documents, leur partage sera immédiat et transparent (section 5.3). Pour l'heure, en vue de la conversion des documents existants à Unicode (section 5.1), nous avons recensé à l'Indrap, pour chaque langue abordée, les caractères spéciaux, leurs codes dans chaque police, et les codes Unicode correspondants - cf. (Chanard et Popescu-Belis, 2000) et aussi les documents disponibles sur le site internet http:// www. issco. unige. ch/ osil/ gtf-rifal mis en place par l'auteur. Pour fournir une vision plus concrète, nous avons choisi de nous pencher sur l'une des langues abordées au Niger, le tamachek. Il s'agit d'une langue appartenant à la famille des langues berbères, parlée par les Touaregs du Sahara nigérien, et apparentée au kabyle d'Algérie. Outre l'alphabet tifinagh, le tamachek du Niger s'écrit aussi dans un alphabet à base latine, enrichi de plusieurs signes diacritiques et de deux caractères non latins - en tout, seize caractères spéciaux. Ce nombre n'est pas surprenant, puisque le tamachek est une langue sémitique, avec un système de consonnes bien plus riche que celui des langues latines. Afin de produire des documents électroniques en tamachek, les chercheurs de l'Indrap ont conçu plusieurs polices de caractères dont le jeu de caractères implicite est fondé sur ISO-latin-1, dans lesquelles un certain nombre de caractères latins sont remplacés par des caractères propres au tamachek. Les polices ont été créées grâce au paquetage SIL Encore Font, diffusé lors de précédentes formations Rifal. L'analyse minutieuse que nous avons entreprise montre que les polices locales sont souvent incompatibles entre elles, et souvent incomplètes. Le tableau donné en Annexe (section 7) répertorie les caractères spéciaux du tamachek, et leur code dans les polices étudiées (les polices sont désignées seulement par une lettre majuscule). On voit que seules les polices I et T contiennent tous les caractères nécessaires. Les codes (octets) utilisés pour le tamachek sont en général convenables, surtout pour la police T, mais parfois des caractères importants du jeu ISO-latin-1 sont malencontreusement redéfinis. Par exemple, T redéfinit le " p majuscule " en " schwa majuscule " (code 80), et I redéfinit le " @ " en " s minuscule avec point souscrit " (code 64) - cela parmi d'autres redéfinitions problématiques signalées par le caractère " ! " dans notre tableau. Enfin, dans la police I, deux caractères sont définis deux fois. L'existence de deux polices particulières au tamachek à l'intérieur même de l'Indrap fait obstacle à la communication des documents électroniques. Une première solution d'interopérabilité a été proposée dans le cadre des formations Rifal 2000-2001. Elle consiste à convertir les documents que l'on souhaite partager vers le format HTML, c'est-à-dire vers des fichiers hypertexte pourvus de balises, du type rencontré sur internet. Naturellement, il faut prendre soin d'encoder les caractères spéciaux propres à chaque langue par les entités HTML de type " &#XYZ; " ayant un code hexadécimal Unicode " XYZ " correspondant bien au caractère spécial à afficher. Il faut aussi préciser en tête du document que son codage est bien Unicode. On peut également, et cela est plus compact, introduire directement dans le fichier le code UTF-8 correspondant au code Unicode " XYZ " (de un à quatre octets), et préciser ensuite la forme de sérialisation, à savoir UTF-8. De cette façon, les documents sont lisibles par n'importe quel programme sachant afficher des documents HTML (navigateurs internet, éditeur MS Word, etc.), et les caractères spéciaux sont affichés correctement du moment que ce programme comprend les entités HTML/Unicode et qu'il possède une police possédant le sous-ensemble approprié de caractères Unicode (à base latine). De nombreuses polices peuvent convenir, du moment où elles sont compatibles avec les numéros Unicode - par exemple Lucida Sans Unicode. Afin d'implémenter la solution proposée, deux étapes sont distinguées dans la conversion des documents existants. La première consiste à convertir les documents depuis leurs formats respectifs vers HTML, grâce aux logiciels d'édition les ayant créés (le plus souvent MS Word). Ces logiciels ne connaissent pas la correspondance entre la police locale utilisée et Unicode, c'est pourquoi ils utilisent des balises HTML de type >FONT< pour signaler l'utilisation de la police respective, et maintiennent le code sur un octet utilisé à l'origine. La seconde étape consiste à supprimer les balises >FONT< et à remplacer les codes sur un octet soit par les entités Unicode, soit (plus compact) par les codes UTF-8 correspondants. Pour ce faire, un logiciel intitulé Conv2utf8 a été utilisé dans les formations Rifal. Ce logiciel a été conçu et réalisé par C. Chanard au LLACAN-CNRS (Villejuif, France) et est décrit plus en détail dans (Chanard et Popescu-Belis, 2002). Le logiciel parcourt le fichier et effectue les remplacements appropriés grâce à des tables de correspondances entre les polices locales et Unicode. Ce processus possède quelques inconvénients, mais surtout offre de nombreux avantages. Il y a d'abord la difficulté de définir les tables de correspondances, mais ce travail ne doit être fait qu'une seule fois, et nous l'avons déjà réalisé pour la dizaine de polices de l'Indrap. On peut aussi avancer que HTML n'est pas un format d'édition très pratique, mais en réalité le procédé est surtout orienté vers le partage des documents en vue de leur visualisation. Enfin, il est important de noter que HTML est un format non propriétaire, transparent, universellement compris, donc bien adapté au partage des documents numériques multilingues. L'utilisation du standard XML pour le stockage des documents, et des feuilles de style XSL (XSLT ou XSL-FO) pour le formatage en vue de l'affichage est une solution d'inspiration analogue, plus puissante mais plus complexe; elle est à l'étude pour les prochaines formations du Rifal (2002-2004). L'avantage principal du procédé proposé est de permettre la conservation et l'archivage durable des documents existants, ainsi que leur partage sans perte d'information à travers un réseau local ou à travers internet. Fruit des formations Rifal 2000-2001, une archive électronique contenant de tels documents est en cours de constitution (voir le site http:// www. issco. unige. ch/ osil/ gtf-rifal/). Une solution permettant l'édition multilingue et en même temps le partage des documents en format d'édition (par exemple MS Word) est la constitution d'une police sur un octet (0-255) qui soit adoptée par tous les éditeurs de documents de l'Indrap, ou mieux encore, du Niger. Une telle police ne permettrait certes pas de visualiser correctement les documents existants, puisqu'ils ont été créés avec des polices qui ne pourront pas être toutes compatibles avec le nouveau standard. En ce sens, la solution précédente garde toute sa valeur. Afin de créer une telle police " nigérienne ", il faut tout d'abord déterminer les codes, dans une police de 256 caractères, qui peuvent être redéfinis sans trop affecter les codes du standard ISO-latin-1, en particulier les caractères accentués du français. Cette analyse a été fournie aux partenaires du Rifal et figure aussi dans (Chanard et Popescu-Belis 2002). Il en ressort qu'environ 60 codes (tous supérieurs à 128) sont redéfinissables, ce qui permet de définir convenablement des codes pour les caractères des langues nigériennes (majuscules et minuscules). Par opposition, il faut savoir qu'aucune des polices utilisées actuellement n'observe entièrement ces recommandations. Parallèlement, un système de raccourcis clavier devra être mis en place, et des efforts conjoints seraient nécessaires pour parvenir à remplacer toutes les polices précédemment utilisées. L'enrichissement du parc informatique de l'Indrap et le développement d'un réseau local aideraient certainement à améliorer le processus d'édition multilingue, en diminuant en particulier le nombre d'allers et retours des documents entre les auteurs et les éditeurs. Outre le fait que la tâche d'édition serait alors distribuée, on pourra aussi munir les postes de travail individuels d'outils logiciels permettant d'utiliser d'emblée le standard Unicode, dès le processus de rédaction. Il devient en effet visible que les principaux outils d'édition deviennent capables de manipuler l'ensemble du jeu de caractères Unicode, ce qui diminue l'intérêt des polices locales décrites ci-dessus (leur intérêt demeure si l'on souhaite varier la forme des glyphes). Toutefois, il serait dangereux de s'enfermer complètement dans un format de données propriétaire, et à ce titre la première solution proposée permet mieux le partage transparent des documents. Dans la situation décrite ici, le logiciel Conv2utf8 deviendrait superflu, puisque les outils d'édition Unicode génèrent des fichiers HTML directement en UTF-8. Le problème de la saisie des caractères spéciaux est quant à lui reporté sur le logiciel utilisant Unicode - un système de raccourcis clavier est probablement la solution. L'ensemble de ces améliorations, qui vont de l'utilisation de HTML/UTF-8 comme format pivot jusqu'aux outils d'édition intégrant directement Unicode, sont en mesure d'aider à la constitution d'une base de textes et d'une banque de données terminologique, multilingues, au Niger. Il s'agit d'une perspective prometteuse pour de nouvelles actions du Rifal en direction des langues africaines, en priorité dans le domaine de la pédagogie des différentes disciplines d'enseignement. En effet, de telles ressources permettraient de répondre à des besoins réels en matière d'instruction scolaire au Niger, mais seraient aussi un instrument de recherche précieux pour les linguistes africanistes. Elles permettraient également de consolider le rôle du français dans l'aménagement linguistique en Afrique subsaharienne, ce qui correspond à la mission du Rifal dans le cadre de la Francophonie .
Cet article met en évidence l'apport d'Unicode au traitement des documents multilingues en Afrique, à partir d'une expérience concrète au Niger. Nous analysons d'abord les liens entre l'informatisation des langues et leur écriture, puis nous donnons un aperçu des difficultés que pose le multilinguisme à l'édition assistée par ordinateur, en étudiant le processus éditorial dans un institut de documentation nigérien. Nous montrons alors en quoi le standard Unicode peut rendre ce processus plus efficace, avant de décrire plusieurs solutions aux difficultés rencontrées, en fonction des outils informatiques disponibles actuellement et à l'avenir.
sciencesInfo_06-0253617_tei_DN_063_0139.tei.xml
termith-482-communication
Social bookmarking : pour cette pratique des réseaux, pratique d'abord américaine, décrite comme l'une des composantes exemplaires du « web 2.0 » 1, il n'existe pas d'équivalent français adéquat : les termes de « marque-page social », « navigation sociale », « partage de signets » 2 ne reflètent que partiellement, et souvent de manière confuse, les spécificités de cette expression. En particulier, la dénomination anglo-saxonne réfère à une action, ou plus précisément à une activité 3. De ce fait, on rencontre souvent, plutôt que des efforts de traduction très approximatifs, des cas de conservation de ces termes dans un anglicisme : l'expression est francisée à la marge, l'adjectif se retrouvant postposé dans un « bookmarking social » peu gracieux, mais qui offre l'avantage de conserver la valeur aspectuelle du terme. Tous ces efforts de dénomination et de désignation de la notion achoppent sur le problème de la conception de la pratique elle -même : il est perceptible qu'une pratique documentaire individuelle – portée par la référence au « signet », au « favori » –, la pratique du bookmarking, reçoit, dans le cadre des innovations du « web 2.0 », une dimension collective. Ce que laisse entendre l'ajout de l'adjectif « social », c'est que la pratique se donnerait désormais l'horizon de la collectivité, la visée d'un public de pairs 4. Sous l'effet de l'imaginaire du collectif porté par les représentations du « web 2.0 » 5, le signet deviendrait « social », c'est-à-dire que sa production et sa fonction seraient désormais pensées sous les catégories et les dynamiques du collectif, du groupe et de la communauté. Se déploie ainsi toute sémantique de la transformation, de l'évolution, de l'nnovation : faire du signet « social », ce serait en fait « socialiser » la pratique du signet, lui ajouter une composante collective, et supposer que cette pratique était d'abord purement individuelle, privée, subjective, avant d'affirmer qu'elle sera désormais collective, publique, objective. Dans le transfert des pratiques de la sphère individuelle aux horizons du collectif, c'est la pensée d'une rupture qui tend à s'installer. A la mise en mots de cette pensée d'une rupture dans la pratique culturelle s'ajoute l'affirmation d'une évolution dans les dispositifs techniques. En regroupant blogs, réseaux sociaux, flux RSS, XML, ou encore mondes « virtuels » en trois dimensions dans un « web 2.0 » qui s'opposerait aux premiers pas des réseaux, c'est à une rupture technologique que l'on prétendrait, opposant un Internet dynamique à un média « statique » qui n'en aurait été que l'ébauche ou le timide et maladroit balbutiement 6. Le social bookmarking pourra ainsi nous apparaître – c'est l'hypothèse du présent article – comme la sémiotisation d'une pratique culturelle spécifique, à la fois située historiquement comme une continuité et pensée dans une rupture. Il pourra aussi se comprendre comme un cas de mise en œuvre et de mise en texte d'un idéal du web, auquel il donnerait une consistance. Comment les formes éditoriales se dotent de sens, comment une création idéologique comme le « web 2.0 » en vient à s'entourer de pratiques qui la font exister, telles sont les questions que notre étude cherchera à éclaircir. La pratique du social bookmarking est relativement récente sur le web francophone, elle est donc dans une phase d'appropriation et d'acculturation pour ses publics. En cela, il est utile de travailler sur un corpus francophone, qui conserve explicite une plus grande part des promesses du social bookmarking, et qui travaille, de la sorte, à la promotion de ce que ces formes éditoriales sont censées réaliser 7 : élaborer un dispositif médiatique, c'est en effet promettre un changement social, une métamorphose de la communication, une nouvelle manière de faire société, une nouvelle manière de penser le pouvoir. Quatre sites ont ainsi été choisis pour constituer notre corpus d'étude, cet échantillon ne prétendant pas à l'exhaustivité, mais à la significativité pour l'observation d'une pratique éditoriale 8 dans un contexte culturel francophone :,, et. On mènera leur étude sémiotique en les soumettant aux trois grandes perspectives dégagées jusqu'ici, et qui fondent tout à la fois le projet de rupture d'un social bookmarking et d'un « web 2.0 » : en considérant d'abord ces pratiques dans le temps long des habitudes du travail intellectuel, on observera les fondements culturels de la dynamique de rupture qu'elles semblent initier; en interrogeant le statut qu'elles accordent aux images du collectif, on en resituera l'effectivité dans l'émergence et la pratique des identités, et dans la constitution d'une idéologie des réseaux 9. Une première approche du social bookmarking permet de réinscrire cette pratique dans un rapport double de continuité et de rupture avec les pratiques culturelles héritées du « signet » livresque, mais aussi de ses avatars supposés dans les médias informatisés. « Sauvegarder l'ensemble de vos sites favoris » : cette promesse, figurant en première page de, semble composer le premier engagement de la proposition éditoriale. Identiquement, assure : « Fini, les adresses de sites oubliées. Terminé, les recherches fastidieuses. ». Enfin, dans un paratexte qui copie celui de (ou qui en est copié), explique que le site a pour vocation de permettre à l'utilisateur de « sauvegarder l'ensemble de [ses] sites favoris ». Ces diverses formulations, fort proches les unes des autres, signalent une même tendance, une même aspiration, un même désir : conjurer la perte des repères, la perte des savoirs, par le biais d'une structure éditoriale qui garantit une amélioration technique de l'accès aux connaissances et de leur préservation. Ces promesses reposent sur deux grandes représentations des risques liés à l'accès aux documents sur internet : d'une part, un site de social bookmarking propose à l'internaute d'accéder à ses signets où qu'il se trouve, sans être dépendant – voire victime – de son propre dispositif de consultation. D'autre part, ces sites semblent promettre la fin de la surinformation et du manque de repères. A l'opposé d'une pratique subie de l'informatique, contre la perte et contre la perdition, le social bookmarking s'engagerait à baliser le réseau, à orienter l'utilisateur, et à lui fournir en tous lieux la garantie de repères familiers. Cette double dynamique, qui mêle la promesse d'une accessibilité accrue à l'espoir d'un réseau mieux maîtrisé, est de nature encyclopédique. Mieux, les idéaux du savoir ainsi mobilisés sont ceux -là mêmes qui ont présidé à l'élaboration du projet encyclopédique au XVIIIe siècle. Et les fantasmes effrayants de la perte de repères relient historiquement l'Encyclopédie des Lumières aux pratiques des réseaux (Juanals, 2002). Jean-Marie Goulemot a décrit les grands fantasmes – les grands idéaux et les grandes craintes – qui marquèrent le projet encyclopédique des Lumières : le XVIIIe siècle doit être pensé « comme une succession de tensions entre une vision négative du temps historique, celle des catastrophes et de la lente et inexorable destruction des constructions humaines, et une vision historique linéaire et cumulative, positive donc, qui conduit les peuples à un mieux-être » (Goulemot, 1996, p. 286). La pensée d'une « avancée cumulative des savoirs » ne va pas sans le « sentiment aigu d'un danger », celui de la destruction (Goulemot, 1996, p. 290). Ainsi, à l'idéal positif d'une totalisation des savoirs correspond la représentation négative d'une disparition toujours possible. L'édifice encyclopédique se comprend comme une tentative pour rassembler et protéger, en un unique livre, tous les savoirs du monde. Si les « signets » sont aujourd'hui le moyen le plus courant de conserver les références d'un accès à une page, en la « marquant », c'est-à-dire techniquement en indexant son adresse dans son navigateur ou sur l'espace du « bureau », les sites de social bookmarking s'établissent comme un moyen de sauvegarder ces accès aux ressources par le biais d'un changement dans leur fonctionnement technique : la ressource délocalisée apparaît comme une ressource sauvegardée, l'accès aux serveurs d'un site de social bookmarking apparaissant, tendanciellement, comme plus sûr et plus fiable que l'accès à ses propres documents 10. Mais si ces fantasmes sont anciens, l'essentiel de la promesse tient à la nouveauté technique de ces appareillages de l'accès aux documents : le social bookmarking prétend aller plus loin que le signet traditionnel, plus loin que son avatar informatique dans les navigateurs, et plus loin que les formes éditoriales en ligne qui ont pu lui préexister. Une triple rupture, ou une triple filiation, qui fonde une pratique culturelle. L'effort pour ancrer la pratique d'internet dans une culture du papier a donné lieu à de multiples métaphores, aujourd'hui lexicalisées en autant de catachrèses. Le signet, cette marque insérée dans le livre ou formée à même le volume par l'altération du coin d'une page, reste une forme centrale de l'appropriation d'un document, et plus généralement, de l'acquisition d'un savoir. Une page marquée est à la fois une page connue et une page appropriée; signe d'un passage, le marque-page est aussi le repère d'un parcours ou d'un itinéraire dans les connaissances. Comme une couche ajoutée aux sédiments de cette pratique traditionnelle, le « signet » dans un navigateur s'est établi à la fois en continuité et en rupture avec elle. Le support de lecture n'est plus lui -même le lieu marqué, le signet s'apparentant désormais à une entrée d'index, à un archivage des références qui met à contribution le cadre technique de consultation. Le « signet » sous Opera, le « favori » dans Internet Explorer, le « marque-pages » de Firefox, est désormais un choix dans un menu déroulant, un bouton dans une barre de tâches, c'est-à-dire un signe ajouté par l'utilisateur dans le dispositif logiciel. Il peut aussi s'inscrire dans divers lieux du dispositif système 11 (Menu Démarrer ou bureau dans un PC fonctionnant sous Windows, par exemple). On perçoit ici une rupture avec la tradition du « marquage » de la page : le document est indexé, et il ne reçoit plus l'empreinte de la main de l'utilisateur – signe indexical fixé entre les pages ou déformation du support. Comparable à un carnet d'adresses, la liste de signets est au réseau internet ce qu'un bon guide touristique est au visiteur d'une grande ville : un choix, un florilège d'entrées, un ensemble de « lieux à voir », un best of. Le texte cesse d' être « marquable » pour devenir remarquable. Le signet s'altère en se chargeant des contraintes particulières de la lecture sur internet, et le média est saisi comme un lieu exigeant des repères pour que s'y établissent des routines et des habitudes de lecture. Les sites de social bookmarking tiennent autant de la forme et de la fonction des « annuaires de liens » que d'une création intermédiatique dont le marque-page ou l'acte d'altération d'une page de livre seraient le modèle. A la différence des « moteurs de recherche », les « annuaires » sur internet mobilisent une médiation sociale des savoirs – ils résultent de la participation d'individus indexant des adresses de pages dans des sites prévus à cet effet – tandis que les moteurs, faisant travailler des algorithmes de calcul, relèvent de médiations techniques. Dans le cas des annuaires comme dans celui du social bookmarking, la perspective est la même : produire des bases de ressources indexées offrant un repérage efficace sur internet, par la sélection, la qualification et la hiérarchisation des données. Ces références au signet, au favori et aux annuaires ne sont pas exclusives les unes des autres; elles ne sont pas non plus complémentaires; elles paraissent le résultat d'une hybridation, qui compose en propre la promesse communicationnelle de ces sites. La dénomination des signets, bookmarks et favoris est d'ailleurs restée remarquablement stable et continue. En regroupant ces modèles, de manière figurée ou de manière effective, le social bookmarking s'établit comme une sorte de pratique syncrétique entre les diverses pratiques de documentation, et paraît de la sorte les dépasser (Bolter et al., 2000). Cette dynamique de dépassement et de regroupement, de rupture par la composition et l'hybridation de traditions anciennes et d'habitudes récentes paraît tout à fait caractéristique de la constitution sémiotique de la plupart des structures éditoriales que composent les sites généralement reconnus comme emblématiques du « web 2.0 ». Sous la logique sans fin de la rupture, une pratique continue de la réappropriation et une idéologie du progrès travaillent les héritages dans des structures composites, nouvelles parce qu'hybrides. Un deuxième niveau d'analyse permet de concevoir que les filiations opérées dans les pratiques documentaires héritées s'accompagnent d'une reconfiguration des rôles et des modes d'écriture : le lecteur est convié à resituer sa pratique d'indexation dans une activité de lecture enrichie de rôles éditoriaux et auctoriaux. La pratique du signet dans la culture du livre donne une image presque pure de l'indexicalité : un signet indique un passage, incite à sa lecture; mais en lui -même il ne dit rien d'autre, se contentant d'attirer l'attention. En raison de sa détermination fonctionnelle, sa teneur sémiotique est limitée et relève presque exclusivement d'un contexte de lecture et de manipulation des textes. Il n'a pas de sens : il indique une direction. Son équivalent grammatical est le déictique, qui n'a de sens qu'en ce qu'il renvoie à la situation spatiale (« ici ») ou temporelle (« maintenant ») d'énonciation. Transposé comme comparant métaphorique dans les écrits d'écran, le « signet » s'enrichit d'une forme d'écriture. Dans un navigateur comme Internet Explorer 13 par exemple, l'ajout d'un favori se fait par l'intermédiaire d'un architexte 14 des plus sommaires, proposant à l'utilisateur d'intituler et de classer le lien dans une arborescence (voir figure 1). Les actions de sélection et d'archivage s'accompagnent ici de gestes qui qualifient les pages retenues : ce sont des gestes d'écriture relativement restreints, mais effectifs. L'indexicalité du « signet » se voit donc accompagner d'une gestion de la référence, où la page est l'objet d'une description, d'un titre. La posture du lecteur est affectée par ce type de procédé : elle se charge, de fait, d'une dimension auctoriale et éditoriale. L'internaute dans un site de social bookmarking ne se limite pas à « marquer » une page, il l'archive en mettant en œuvre des procédés d'écriture complexes, qui la qualifient, la classent et l'évaluent tout à la fois. l'acte de sélection fait de lui un médiateur, dont l'écriture paratextuelle est de nature éditoriale. Comme dans le cas des « signets » du navigateur, la page est qualifiée par le geste de son inscription, mais l'acte de qualification est rendu plus complexe car il se veut plus complet. L'architexte de saisie d'un nouveau signet se compose de plusieurs champs (figure 2) : le formulaire invite à l'inscription d'une adresse URL, d'un titre pour le signet, d'une description ou d'un commentaire, et de l'assignation de descripteurs. Dans certains des architextes considérés, il est en outre possible de préciser un dossier dans lequel ranger le lien, et de rendre privées certaines données. Certaines des saisies ainsi proposées peuvent être automatisées, comme dans le cas de (figure 3), qui offre la possibilité d'utiliser comme titre de la ressource le titre effectif de la page à laquelle renvoie le lien, et d'activer certaines des catégories recommandées. Le fonctionnement des favoris tel qu'il est mis en œuvre en général dans les navigateurs connaît ici un degré supplémentaire de sophistication. Ces champs typiques des formulaires des sites de social bookmarking manifestent une posture particulière du lecteur, qui est invité à réaliser un travail critique de dénomination et de qualification. L'acte de déposer un lien s'accompagne, systématiquement, de celui de déposer un ou plusieurs « tags », des « étiquettes » qui permettent l'archivage de la ressource, son classement, sa référenciation. La métaphore intermédiatique de l' « étiquette » est d'ailleurs ellemême prise au sérieux par, qui figure les tags sous la forme d'icônes représentant effectivement des morceaux de papier perforés et attachés par une ficelle à la page consultée (figure 4). Le travail éditorial du lecteur est un travail de sélection, de qualification, de dénomination et de classement. Et la pratique documentaire s'apparente à une production métatextuelle. Ce déplacement des activités du lecteur manifeste une métamorphose de l'accès à la culture (Chartier, 2003). D'une part en effet, le lecteur se voit proposer l'adoption de rôles éditoriaux, la navigation devenant en partie une tâche où se simulent différentes formes de manipulation des objets culturels. D'autre part, cette acquisition de rôles, se traduisant en des tâches d'écriture sur les objets, traduit une modification de la politique des textes. En effet, le texte produit dans la page d'un site de social bookmarking devient un accès à l'information, il en conditionne la saisie. Dans cette pratique de l'archivage et de l'indexation, le lecteur de pages devient un médiateur éditorial des textes qu'elles comportent. L'assignation de tags est ainsi une forme d'écriture mêlée à la lecture, et présidant, de manière éditoriale, à la production des pages dans les sites de social bookmarking. Cette logique relève des efforts pour établir un web dit « sémantique », dans lequel les utilisateurs indexeraient leurs documents tout en les produisant, l'essentiel étant de pouvoir plus facilement retrouver les ressources par leur catégorisation et leur étiquetage. En se dotant de plus en plus systématiquement d'une norme d'archivage et d'indexation, la lecture devient plus complexe, et surtout elle transforme un rapport d'acquisition des connaissances en un projet lié à leur publication et à leur redistribution. Le lecteur du « nouveau » web est souvent réputé plus « actif », moins « passif »; contre cette opposition binaire, il faudrait surtout souligner qu'il est mis plus largement à contribution pour la production de contenus, dans l'élaboration de textes qui sont des métatextes. La lecture n'y est pas plus « active » mais plus chargée. L'économie traditionnelle des tâches d'écriture, de lecture et d'édition est ainsi altérée par l'intervention des marqueurs de sens et de classification. Le « devenir-éditeur » du lecteur reflète l'inscription, au cœur des pratiques de lecture et de repérage, d'une image des publics auxquels les ressources pourraient être présentées : le projet communicationnel global d'un site de social bookmarking ne peut être saisi que si l'on prend acte de l'imaginaire du collectif qu'il mobilise. L'activité de consultation est placée dans le cadre programmatique d'une activité de publication, tout archivage devant se faire non seulement pour soi, mais aussi pour les autres, figurés dans un « public » de destinataires de l'écriture partielle, seconde, du signet. Loin de la pratique individuelle de la lecture, le signet écrit et publié intègre à l'idée du texte lu la perspective d'un public et d'une communauté. A l'articulation entre la représentation d'une pratique individuelle de documentation et celle d'une activité d'archivage orientée vers un public, les sites de social bookmarking s'établissent comme des lieux de construction communautaire, et établissent des usages du web. D'une manière qui pourra paraître tout à fait caractéristique des tendances actuelles du web, les sites de social bookmarking reposent sur la coprésence et la distinction de deux espaces, un espace « personnel » de gestion des signets et d'accès aux ressources privées, et un espace public de consultation des tags et des signets des autres utilisateurs. Cette dualité se marque éditorialement par la possibilité de « s'enregistrer », c'est-à-dire d'utiliser des identifiants personnels pour accéder à un espace privé; à l'intérieur de l'espace privé, la dualité est conservée, elle est même sursémiotisée par un traitement contrasté des données : sur par exemple, les signets privés sont encadrés de rouge, les tags privés apparaissent dans cette même couleur, la couleur noire ou grise étant réservée aux tags et signets publics (figure 5). L'utilisateur peut ainsi accéder à des ressources publiques ou privées selon le statut qu'il leur a donné lors de leur inscription. Mais la gestion de ces deux espaces est affectée par une pratique communautaire de la référence. Ainsi, une adresse enregistrée comme signet est spontanément l'objet d'une computation, et les tags affectés à un signet sont enregistrés et comparés aux informations fournies par d'autres utilisateurs. L'ensemble permet un traitement statistique des données, qui donne une image paradoxalement quantitative de la qualité : les tags les plus fréquemment utilisés sont ainsi rassemblés dans des « nuages », le nombre de ces utilisations fournissant une approximation de l'intérêt qu'y portent les internautes. On sait que ce type de procédure repose sur un imaginaire démocratique qui inspire de nombreuses formes et structures éditoriales sur internet (Candel, 2007). Cette approche quantitative de la qualité s'explique par le fait que le traitement technique des actions des internautes impose la manipulation, pour le comput, de chiffres. Un rapport univoque relie, dans l'imaginaire des concepteurs de logiciels, l'activation d'un lien, le travail d'indexation dont il fait l'objet, et le choix même des index, avec le degré probable d'investissement intellectuel ou émotionnel que les internautes sont censés leur attribuer. D'une certaine manière, on peut effectivement penser qu' « on n'indexe pas tout », et que le travail d'indexation et d'étiquetage, demandant du temps, suppose que la ressource travaillée le mérite… Dans une économie caractérisée par la rareté du temps, l'effort fait pour orienter et définir un cadrage sur une source ou un site particuliers est un témoin à peu près fiable de l'intérêt qu'il paraît mériter. Les sites de social bookmarking œuvrent ainsi à l'élaboration d'une ingénierie de la pertinence et d'un probabilisme dans l'approche des pratiques de lecture sur les réseaux. Cette insertion d'un raisonnement sociotechnique au sein du geste d'inscription a pour conséquence que l'espace « privé » ou « personnel » ne correspond pas exactement à la zone « identitaire » du « je » – pour reprendre la terminologie de François Rastier (Rastier, 2007, p. 130) : il est plutôt tiré du côté du collectif, dans la zone « proximale » du « tu », composant un « nous » imparfait. Les discours dominants sur le « web 2.0 » manipulent très fréquemment des figures manifestant ce déplacement logique et cognitif d'une pratique « individuelle » vers une pratique qui deviendrait « collective ». En fait, on peut penser de ces discours qu'ils désignent incomplètement un travail qui mêle à l'identitaire des fragments hétérogènes du proximal, et que, si les figures du « je » y sont impures, c'est parce qu'elles tendent à s'ancrer, par la contrainte de dispositifs normatifs, dans un « nous » communautaire. Dans le travail du social bookmarking, l'identitaire est concrètement mis en pratique dans sa relation au communautaire : ainsi, ces sites proposent de contribuer à la construction de l'identité individuelle par la mise à disposition d'un espace personnel; mais cette construction dessine dans le même geste un « profil » public, avatar éditorial de l'identité personnelle. Le profil d'un membre retrace en quelque sorte son histoire et ses activités sur le site : c'est un composite de dates (date d'inscription sur le site, date d'indexation de signets), de sites visités et de tags. Les contours d'une identité se dessinent à travers cette pratique, manifestant une relation entre le choix de certains documents ou certaines thématiques, et la personnalité propre. l'internaute se voit ainsi défini par ce qu'il lit, par les sites qu'il utilise couramment. L'approximation de l'individu par les écritures qu'il consigne repose sur l'idée qu'un « favori » – le mot est significatif – traduit non seulement l'affermissement de ses routines du réseau, ses habitudes, mais aussi ses prédilections personnelles, ses préférences. Le geste par lequel un internaute sélectionne des contenus est traduit, dans le « profil », par la textualisation de l'ensemble de ses choix, comme le signe d'une personnalité, d'une manière publique d'affirmer ses goûts et de mettre en visibilité ce qui, dans ses pratiques et ses programmes d'action, est à retenir sur internet. Cette articulation entre la sélection et la prédilection montre que le geste par lequel un lien est indexé sur un site de social bookmarking est un acte de publication et de mise en visibilité de soi. Les sites considérés tendent ainsi à donner des représentations synthétiques, calculées, de la personnalité, par des nuages de tags ou des listes de « catégories » intéressant les utilisateurs. Ainsi dans, l'activation de l'affichage d'un profil par un clic sur le pseudonyme correspondant donne à voir une page dédiée à l'utilisateur, ou plus précisément aux traces qu'il a déposées sur le site et aux computs synthétiques dont elles ont été l'objet. La colonne centrale liste, de manière antichronologique, les « marks » déposés par cet utilisateur; la colonne de droite présente une icône choisie par l'internaute pour le personnifier, et les tags qui lui sont attribués. Il s'agit d'un « nuage », donnant par la typographie une image de ses préférences (figure 6). Le procédé est à peu près le même dans, à ceci près que le site ne propose pas de figuration par l'avatar, et que le « nuage » de tags est intitulé « Tags les plus populaires » : fait ainsi appel, à l'intérieur même de la présentation individuelle des choix et des prédilections, à une sémantique quasi-politique du suffrage et du choix (figure 7). Cette curieuse pratique, qui sémiotise l'intérêt individuel pour des thématiques à la manière dont sont figurées les pratiques collectives, manifeste la portée « sociale » du geste individuel : l'utilisation récurrente d'un tag par un individu est à la fois le signe de sa personnalité, et un geste de positionnement communautaire. Dans un geste de représentativité moins ambitieux et plus descriptif,, qui préfère la notion de « catégorie » à celle de « tag », se limite à présenter pour chaque internaute la liste alphabétique de ses catégories (figure 8). A la différence du nuage de tags, l'ordre de classement ne donne plus une vision quantitative de la personne et des prédilections : il se présente comme un ordre arbitraire mais raisonné, ancré dans une tradition de documentation 15. La prédilection ne s'y comprend que comme une thématisation des parcours sur internet, comme une familiarité sectorielle, échappant au calcul pour entrer dans la description. Dans une approche encore plus lâche des identités individuelles, ne propose pas de mise en visibilité des profils personnels d'utilisateurs; leurs pseudonymes n'apparaissent qu' à l'occasion de l'inscription d'une ressource sur la base de données du site (figure 9). Dans ce site, le pseudonyme a principalement pour rôle de permettre l'inscription de l'utilisateur et l'accès à son espace personnel. Il n'est donc pas le pivot de la construction d'un échange interpersonnel, mais le moyen spéculaire de retrouver un ensemble de ressources indexées et l'identité personnelle qui leur correspond. Il n'a de réel usage que privé. En revanche, cet effacement relatif d'une identité individuelle s'effectue au profit d'une sémiotisation forte de l'aspect collectif de l'identité « communautaire » : à défaut de singulariser des individus, le site, dès son titre, évoque un projet communautaire. Dans la dynamique qui fait du signet une publication, le social bookmarking repose en effet non seulement sur l'image d'un public, mais encore sur celle d'un collectif et d'une communauté. Comme nombre de projets « participatifs » du « web 2.0 », les structures de social bookmarking paraissent en outre se doter d'identités collectives, qui s'appréhendent à partir de la réappropriation de grandes catégories culturelles de la sociabilité, de la production plurielle de contenus, et de définitions idéales de la communication. utilise, pour désigner les regroupements thématiques et la mise en partage de ressources, le néologisme de coomunautés : ce terme hybridé compose une réalité sui generis, à partir de l'identité du site et du phénomène communautaire sur internet. Une coomunauté est, d'après la page d'informations proposée par le site, un regroupement d'utilisateurs fédérés autour d'une thématique. Mais la définition de la communauté ainsi proposée est paradoxale : le créateur d'une telle communauté, l'internaute qui a décidé de sa création, peut – et peut seul – décider de sa fin 16. Le collectif ne survit pas à l'individuel, et ces « communautés » n'ont que l'apparence de la structuration effective que le communautaire peut instaurer dans le monde social. Le terme de « communauté » apparaît, dans le cas précis de ce site, comme un nom placé sur une tout autre pratique, éditoriale et non sociale, celle de la création d'un dossier thématique. On le perçoit par exemple dans les choix de figuration, à l'écran, des communautés existantes (figure 10) : les différentes communautés apparaissent à travers une icône représentant schématiquement un individu – un cercle pour la tête, un torse esquissé, l'ensemble étant très comparable aux figurations de l'échange interactif utilisées dans un logiciel comme MSN. Mais l'activation de ce signe ne conduit pas à l'affichage d'une liste d'individus ou de profils : elle suscite la présentation, dans la zone tabulaire centrale, d'une série de dossiers correspondant à des sous-thématiques. Ainsi, la pratique communautaire est repliée sur la pratique documentaire, et le référent communautaire ne sert qu' à la convoquer de manière connotative 17. semble affirmer avec insistance l'existence d'un grand absent, la « communauté » d'internautes. Le travail incomplet et déceptif de la communauté par ce site nous paraît particulièrement révélateur d'un devoir-être pour les sites de social bookmarking : placés sous l'exigence du collectif, ils semblent devoir assumer la mission de renforcer et redéfinir le lien social et les relations collectives au sein du média. Si fait défaut à ce projet, la dynamique des dénominations qu'il met en œuvre est instructive pour l'approche critique des pratiques impliquées par ces sites. On pourra notamment relever que sur, l'énonciateur éditorial du site mobilise une sémantique de l' « amitié », qui n'a pas grand-chose à voir avec ce que l'on entend le plus couramment par ce terme. Chaque profil d'internaute peut se voir attribuer le statut d' « ami », cette procédure n'engageant pas de réelle relation interpersonnelle, mais la possibilité de récupérer simplement, à partir de son espace privé, les « marks » déposés par les individus ainsi qualifiés. Cette fonctionnalité correspond bien à une procédure de « partage » qui serait éditorialisée. Le passage des sociabilités réelles aux sociabilités médiatiques se ferait ici avec une déperdition certaine de valeur et d'investissement affectif, les simulacres du rapport interpersonnel engageant non un cadre d'interaction au sens propre, mais une modalisation de ce cadre, pour reprendre la terminologie d'Erving Goffman telle que proposent de l'adapter Jean-Marc Leveratto et Mary Leontsini pour l'étude d'internet (Leveratto et al., 2008, p. 120). Cette communauté sans interaction, cette sociabilité sans investissement affectif témoignent de l'absence de projet réellement communautaire pour les sites étudiés. La mise en commun de ressources et la mutualisation du travail de documentation sur internet paraissent ainsi composer l'essentiel de la strate collective du social bookmarking. L'énonciation éditoriale dans ces sites organise la saisie, comme œuvre collective, des efforts individuels de documentation. La forme du nuage de tags donne non seulement une image de la popularité des différents tags ou catégories, mais elle délivre aussi une représentation du public de chacun des sites observés : les utilisateurs de paraissent plutôt regroupés autour de questions liées à l'informatique de réseaux; donne une certaine importance aux tags « blogs » et « web 2.0 »; dans, de manière comparable, les tags « blog », « design », « internet », « music » paraissent avoir une certaine importance; et sur, parmi de très nombreuses catégories représentées – leur nombre est lié à l'assignation largement automatisée des catégories aux sites ajoutés – les grandes catégories du web pratique (« recherche d'emploi ») et du web de loisirs (téléchargement et sites pour adultes) paraissent prendre le pas sur les autres. On a affaire ici à une spécialisation relative de ces sites; et l'indexation des documents paraît relever d'une prédilection. Mais cet « effet de communauté », comparable à celui du « suffrage » caractérisant la plupart des approches quantitatives du qualitatif, ne manifeste que très imparfaitement une orientation thématique, et ne contribue guère à en faire le signe d'une spécificité éditoriale. Seul paraît entretenir de cette manière une orientation et une identité particulières, mais le nombre relativement faible de signets et leurs dates laissent penser que sa relative homogénéité est due à ses premiers utilisateurs, qui n'auraient pas été suivis par de nouveaux publics. et semblent refléter l'importance des blogs dans les sources des internautes, et le cadrage médiatique actuel sur le « web 2.0 ». reflète de manière large l'ensemble des préoccupations classiques des internautes (Rouquette, 2008). Ainsi, l'identité des sites observés n'est pas thématique : elle est plutôt ancrée dans un effort ou dans un geste, similaire chez tous les utilisateurs, d'indexation et d'inscription. La dynamique de la publication, que nous avons décrite dans la première partie comme une forme d'implication personnelle dans le geste d'édition, connaît une conséquence au niveau des représentations du social : en définissant à peu de choses près le même projet, les sites ne dessinent pas tant une identité énonciative qui représenterait leurs publics respectifs, qu'une posture identique dans l'accès à la culture et dans la manipulation des ressources. Le « collectif » n'est pas dans les « communautés » dont le « web 2.0 » serait composé, site par site : il réside plutôt dans la perspective d'un travail, et dans la mise en valeur d'une appropriation. On a pu percevoir jusqu'ici combien l'institution de gestes d'écriture et d'édition au sein des activités de lecture transformait les rôles du lecteur et inscrivait dans son action la perspective du collectif. Les sites de social bookmarking se donnent comme des accessoires de la lecture et de la recherche d'informations sur internet. Le travail collectif paraît de la sorte garantir une certaine validité des ressources conseillées, et une certaine autorité dans les recommandations. C'est dans ce sens précis – le sens étymologique que recouvre la notion d'autorité 18 – que les utilisateurs de ces sites sont des auteurs : garants d'une ressource, ils la valident; publiant un signet lui correspondant, ils encouragent son utilisation. Le travail d'écriture par les contributeurs du social bookmarking produit ainsi un texte qui ambitionne d'accompagner la lecture. En effet, l'internaute-contributeur lit dans la perspective continue d'une écriture; l'activité de lecture se charge d'une activité de veille. Les postures et les rôles communicationnels mobilisés lors de l'activité de consultation marquent un enrichissement et une complexification des tâches. L'utilisateur adopte successivement une pluralité de postes actantiels, de rôles culturels – récepteur, scripteur, auteur, critique, prescripteur, etc. – qui manifestent l'insertion, dans ses programmes d'action, de perspectives communautaires et collectives inspirées par le processus d'édition. La lecture ainsi transformée est une lecture équipée : elle s'accompagne en effet non seulement d'une modification communicationnelle des postures, mais aussi d'un appareillage formel d'instruments aidant à la mise en œuvre des procédés du social bookmarking. L'onglet « Outils » de (figure 11) propose ainsi d'ajouter à son navigateur une barre d'outils (« la toolbar »). Ce programme permet d'inscrire dans le navigateur de l'internaute un ensemble de « boutons » prenant en charge la plupart des grandes fonctionnalités courantes de recherche et d'indexation : recherche documentaire, consultation des emails, lecture de radios en ligne, accès à un module d'informations météo viennent s'ajouter comme des « options » aux fonctions présentes dans la barre d'outils. Le champ de recherche permet ainsi de faire une recherche sur, d'accéder à un « dictionnaire » ou à une « encyclopédie » … Ces options et fonctionnalités, fort nombreuses, donnent l'impression que doit pouvoir tout permettre, qu'il doit satisfaire toute velléité du lecteur informé, et qu'il met à son service toutes les réalisations techniques possibles : la manipulation de cette barre d'outils est à la fois un élément technosémiotique du travail de lecture et le signe d'une compétence du lecteur – illustrant une sorte de virtuosité et de familiarité dans ses gestes de navigation et d'indexation. De manière comparable, propose l'ajout, à un site géré sous les plateformes Dotclear ou Wordpress, de boutons permettant aux lecteurs d'inscrire dans tout billet posté par le biais d'un de ces CMS. propose plusieurs outils, qui ont en commun d' être en fait des adresses URL, s'inscrivant dans la barre d'outils du navigateur : leur activation propose de manière immédiate l'ajout d'un mark. La lecture sur les réseaux est accompagnée, entourée, par la présence continue de ces formes éditoriales et de leurs propositions 19. Par cet entourage technique de la lecture, ou Blogmarks tendent en effet à insérer leurs logiques documentaires et collectives dans les routines de navigation : le social bookmarking devient un ordinaire de la navigation et de la lecture, il s'institue pratique normale des réseaux. Pour autant, cet équipement de la lecture par les fonctions et les lieux du social bookmarking ne signifie pas une prétention à occuper une position de centralité univoque, dans le réseau et ses pratiques. Certes, à l'instar des portails, les sites de social bookmarking sont comparables à des points d'entrée sur le réseau, à des zones d'accès qui entendent en orienter l'appropriation et la lecture (Candel, 2005). Leurs fonctions de sélection et de mise en évidence sont des fonctions critiques, qui édifient le champ du lisible et déterminent l'approche des contenus disponibles. A ce titre, on pourrait être tenté de dire qu'un site de social bookmarking, en se faisant site de ressources, conditionne un accès, c'est-à-dire une mise à disposition de contenus dont la conséquence serait une réduction de la combinatoire des parcours possibles. Moteurs de recherche, annuaires et portails témoignent de cette dynamique dans l'exercice qu'ils font de la fonction éditoriale : points d'entrée sur le réseau, ils exercent un pouvoir sur le texte et disposent d'une autorité de fait sur le cadrage et l'agenda des lecteurs. Mais une telle interprétation du phénomène du social bookmarking serait réductrice et nierait la spécificité de ces dispositifs : en effet, le discours d'accompagnement de ces structures « participatives » reflète un imaginaire de la participation et de l'implication croissante des individus dans la détermination des contenus. Ces sites seraient plutôt des centres de liens que des portes d'entrée sur le réseau; ils favoriseraient une appropriation raisonnée du web, les lecteurs leur donnant progressivement, par leurs navigations et leurs indexations, un contenu. L'hétéronomie apparaîtrait ainsi comme un mode de fonctionnement essentiel, expliquant la faiblesse des réalisations communautaires. De même, si l'on peut bien parler de « centres » pour ces sites, on doit souligner que ces centres incitent à un usage centrifuge 20. Ainsi, et proposent toujours, pour les liens qu'ils offrent à l'utilisateur, une image en réduction de la page qu'ils vont visiter : le lien est figuré de manière redondante, chaque site pouvant être approché par son image ou par sa description textuelle. ajoute à ce fonctionnement une pluralité d'accès et de modes de sélection, proposant d'accéder aux contenus par une large variété de présentations et d'activations : sont ainsi offerts, dans le menu du bandeau supérieur, un accès aux derniers sites indexés, un accès par les signets les plus « cliqués », un « best of », un accès par catégories, ou encore un accès par la « mosaïque », présentation tabulaire des sites où seule l'image du texte pourra convaincre le lecteur de décider d'une consultation. Sur, la liste de liens, sans commentaires détaillés et sans images, occupe une position toujours centrale dans le site, la recommandation de lecture transparaissant à travers la richesse de la sélection et les éventuelles évaluations. Le social bookmarking fonctionne ainsi, foncièrement, sur la proposition permanente, insistante, de nouvelles lectures. En cela, l'utilisateur est figuré en homme curieux, qui non seulement entretient une pratique de lecture et de documentation, mais est susceptible de l'appropriation d'un très grand nombre de contenus – potentiellement, d'un nombre illimité de sources choisies. Cette logique de l'intérêt pour tout vient compléter la logique d'appariement et de prédilection entre les membres de ces sites. On perçoit combien les pratiques du social bookmarking reposent sur une valorisation de l'utilisateur : ce dernier est à la fois institué autorité dans un ou plusieurs domaines thématiques, expert dans le maniement des outils de référenciation et dans les voies d'accès à la culture, membre libre d'une communauté peu contraignante, individu curieux et auteur soucieux d'une éthique du partage avec un public indéfini de pairs. Possédant à la fois un savoir culturel et un savoir-faire sociotechnique, il est ainsi censé occuper la place d'un centre sur le réseau, d'une source de référence. Cette position communicationnelle construite se perçoit notamment dans le fait que les sites adoptent, pour la présentation des signets – et notamment pour les espaces « personnels » – la forme et les moyens du blog : c'est évidemment le cas de, dont le nom même manifeste un héritage, la comparaison avec les blogs étant d'ailleurs filée à travers l'ensemble de la structure éditoriale; c'est aussi le cas pour. L'organisation antichronologique manifeste l'importance, dans la forme éditoriale, des derniers centres d'intérêt et des dernières navigations des utilisateurs. Les sites rendent compte d'une actualité de l'individu et de ses rapports aux réseaux 21. Ils témoignent donc d'une valeur des procédés d'appropriation d'internet, c'est-à-dire concrètement des navigations et explorations qui en sont faites. Au sein du social bookmarking, c'est l'action même de l'appropriation qui est dessinée et reprise, dans une dynamique qui fait des espaces visités des espaces soumis à l'évaluation des internautes puis – éventuellement – validés par l'acte de recommandation. L'inscription d'un lien est un acte dans les deux sens du terme : une action d'inscription, d'une part, manifestant l'implication personnelle d'un internaute dans le recensement, l'archivage et la recommandation d'un site; une écriture, d'autre part, le site devenant « acté », consigné, repérable. Si l'action porte la valeur, l'acte écrit en est la trace. De cette manière, on pourrait dire des sites de social bookmarking qu'ils opèrent la sémiotisation d'une appropriation en acte, ce procédé de valorisation et de mise en signe témoignant avant tout de l'existence d'usages du réseau. En quelque sorte, l'usage de la forme éditoriale serait ici accompagné d'une nécessité de son sens : la forme du social bookmarking supposerait une manière particulière d'approcher et de comprendre les réseaux. On pourrait alors dire que la pratique des sites de social bookmarking recouvre la mise en œuvre d'un projet métacommunicationnel plus global, celui de définir et de donner corps, par des actes, à l'idéal d'un usage renouvelé des réseaux. C'est bien d'usage qu'il est question, au sens que Michel de Certeau donne à ce mot, quand il s'agit pour les utilisateurs, face à des dispositifs imposés, d'élaborer des « tactiques » (Certeau, 1990, p. XLVI), de parvenir à un « faire avec » qui exprime à la fois une inventivité et une individualité. Ici, le dispositif ne représenterait pas l'injonction du fort au faible, comme dans le texte de Certeau; le dispositif serait le web lui -même, ou l'idée que l'on s'en fait : un ensemble immense de documents, à la fois prometteur et immensément complexe. Face à ce dispositif, la construction idéologique d'un « web 2.0 » apparaîtrait comme le moment de la véritable appropriation d'internet, le moment de sa mise en usage par les « hommes ordinaires », valorisés pour cela et par cela même 22. Pour penser une pratique éditoriale comme le social bookmarking, il faut prendre en compte l'histoire des pratiques culturelles, qui éclairent les procédés de réappropriation, d'hybridation et d'invention. La forme éditoriale œuvre à une pensée de la nouveauté quand elle retravaille des dénominations et des habitudes acquises, elle engage des déplacements symboliques et des reconfigurations sociales quand elle lit cette histoire comme un progrès définitif ou un changement radical. Cette dynamique des ruptures institue avant tout de nouvelles manières de penser la lecture, et d'agir sur les réseaux : elle produit des postures communicationnelles, des rôles à acquérir, dont l'exercice implique des transformations dans les pratiques en affectant les représentations. C'est ainsi précisément que le sens vient aux formes : en projetant l'action individuelle du lecteur dans un collectif figuré, imagé, un site de social bookmarking engage à la fois un champ de pratiques – les manipulations concrètes des signes à l'écran – et une manière de concevoir les réseaux – les motifs et les représentations triviales d'internet. En inventant une pratique de la documentation, le travail éditorial détermine ainsi une forme de l'appropriation. Dans ces déplacements et ces transformations, la mise en pratique des sites devient une forme de l'appropriation des réseaux – où se lisent, aujourd'hui, les mythes du « web 2.0 » .
Cet article propose d'analyser les formes éditoriales d'un ensemble de sites francophones du social bookmarking. Cette étude prend en considération les dénominations de cette pratique, pour la réinscrire dans la symbolique culturelle de la manipulation des textes. Elle propose en outre d'établir, à partir de l'implication individuelle dans le collectif, les représentations par lesquelles les internautes, en composant une pratique des sites, donnent une teneur et une consistance aux idéaux du « Web 2.0 ».
sciencesInfo_09-0148890_tei_DN_111_0145.tei.xml
termith-483-communication
La confluence des technologies de l'informatique et des télécommunications ont permis à Internet de grandir dans les dimensions que nous lui connaissons. Outil de communication, de partage du savoir ou médium facilitant le commerce, le Web possède un volume d'information très important que l'on a estimé à 167 TB en 2002 (Lyman et al., 2003). Cette valeur ne tient compte que du Web visible, celui que les moteurs de recherche commerciaux peuvent indexer. La partie invisible comprend elle un volume nettement plus impressionnant avec une valeur estimée 91 850 TB pour l'année 2002. Le terme invisible indique bien que toute l'information n'est pas toujours facilement ou gratuitement accessible comme, par exemple, les pages générées dynamiquement (consultation d'un horaire). Dans cette partie, on retrouve également les multiples pages dont l'accès n'est pas autorisé à un moteur de recherche à l'exemple des collections d'articles des grandes maisons d'édition, les fonds documentaires des bibliothèques numériques comme celles de l'ACM ou de l'IEEE ou les multiples dépôts d'information des entreprises et administrations. Dans un monde numérique, la gestion et l'accès aisé à ces grandes banques documentaires revêt une importance grandissante. Dans cet article, nous nous sommes intéressés au cas de Medline 1 constituant la banque documentaire la plus importante dans le domaine assez large de la médecine et des sciences de la vie. Elle propose l'accès à plus de 16 millions de notices bibliographiques et permet de mieux cerner les difficultés de la recherche d'information dans un domaine spécifique (Hersh, 1996). Ces entités d'information correspondent pour l'essentiel au titre et résumé d'un article scientifique auxquels des spécialistes du domaine ont assigné manuellement des descripteurs sélectionnés d'un thésaurus de terminologie médicale nommé MeSH. Une partie substantielle de ce fonds documentaire (soit environ 4,5 million de notices) a été mise à la disposition des chercheurs lors des campagnes d'évaluation Genomics de TREC-2004 et 2005. L'intérêt de ce corpus tient au nombre de documents disponibles mais également au fait que les notices ont subi un contrôle éditorial pour en valider les assertions d'une part et, d'autre part, pour en éliminer les fautes d'orthographe et de style qui peuvent en altérer la recherche (Ruch, 2002). Disposant de vrais besoins d'information et des jugements de pertinence correspondants, cette collection s'avère fort utile pour vérifier empiriquement l'efficacité du dépistage de divers modèles de recherche d'information récents ainsi que l'impact de divers traitements. La suite de cet article se subdivise de la manière suivante. La deuxième section présente les caractéristiques essentielles de notre collection-test tandis que la troisième présente les grandes lignes des modèles de recherche d'information retenus. La quatrième section décrit trois approches pour l'expansion automatique des requêtes et la cinquième évalue l'efficacité des divers modèles proposés. Medline (MEDical Literature Analysis and Retrieval System on LINE) est une banque documentaire produite par la National Library of Medecine (NLM) située à Bethesda (MD) qui couvre les domaines biomédicaux tels que la biologie, la biochimie, la médecine clinique, la santé publique, l'éthique, la pharmacologie, l'économie liée à la santé, la toxicologie, l'odontologie, la psychiatrie et la médecine vétérinaire. Son accès via Internet s'effectue grâce à son interface nommé PubMed. Ce fonds documentaire comprenant environ 16 millions de références provenant d'environ 5 000 revues scientifiques paraissant dans 37 langues différentes. On estime que la banque s'enrichit de 2 000 à 4 000 nouvelles références par jour ouvrable (soit environ 623 000 pour l'année 2006). La langue anglaise reste dominante avec environ 90 % des publications des années 2000 à 2004 et cette proportion augmente au fil des années. La collection-test utilisée pour nos expériences couvre grosso modo, les dix dernières années des principaux journaux scientifiques. On y retrouve 4 591 008 notices ou enregistrements (pour un volume d'environ 9,3 GB), représentant un tiers de la banque documentaire Medline. Chaque document est structuré suivant un certain nombre d'attributs comme PMID (identificateur unique dans PubMed), DP (date de publication), AU (auteur), PT (type de publication), SO (source), etc. La figure 1 présente un exemple d'une notice complète tandis que la figure 2 illustre le cas d'une référence bibliographique sans résumé. On remarquera que parfois l'information est redondante; ainsi les champs VI (numéro du volume), IP (numéro), PG (pages), TA (titre abrégé du journal) sont extraites du champ SO tandis que JID (numéro d'identification du journal) dépend de la valeur attribuée au champ TA 2. Ces informations peuvent être utiles pour chercher les documents écrits par un auteur particulier ou la liste des articles publiés durant une période donnée et par un institut ou un pays spécifique. Un aspect important de la collection Medline est la présence de descripteurs attribués manuellement part des experts du domaine dans lequel est écrit l'article. Ces termes sont extraits d'un thésaurus hiérarchisé (ou vocabulaire contrôlé), le MeSH, qui couvre l'ensemble du domaine biomédicale. Ce travail manuel s'effectue sur la base de l'article complet (et non pas seulement du titre et du résumé). Le MeSH 3 (Medical Subject Headings) possédait 22 997 entrées en 2006 auxquelles on doit ajouter environ 151 000 termes supplémentaires, contenant à la fois des synonymes pour les catégories canoniques et de nombreuses entités pour décrire la chimie et la biologie moléculaire (enzymes, gènes…). Ce thésaurus est mis à jour annuellement par l'adjonction de nouveaux descripteurs, l'affinement d'une classe voire la suppression de termes obsolètes. Environ 500 nouveaux concepts sont ajoutés chaque année. Selon les articles, le nombre de descripteurs qui lui sont associés peut varier. Par exemple dans la figure 1, cet ensemble reste restreint tandis que dans notre second exemple (voir figure 2), ce nombre est plus élevé bien que cette notice ne dispose pas de résumé. Les mots-clefs sélectionnés peuvent être complétés par un qualificateur (adverse effects dans la figure 2). Les catégories les plus importantes, pour décrire le contenu de la notice sont marquées par un astérisque, ce sont les termes majeurs. Afin de rechercher de l'information, nos systèmes de dépistage se sont appuyés exclusivement sur les attributs « tire de l'article » TI), le résumé (AB) et l'ensemble des descripteurs (MH ou MeSH) manuellement sélectionnés. Nous avons également pris en compte le champ RN (numéro enzymatique ou nom de substance chimique, voir exemple dans la figure 1) lors de l'indexation des documents. Signalons que le résumé n'est pas disponible pour tous les articles et on peut estimer qu'environ 79 % des articles des années 2000 à 2004 disposent de cette information. Dans notre corpus d'évaluation, toutes les notices disposaient d'un titre et 75,8 % comprenait également un résumé. Durant la campagne d'évaluation Genomics TREC-2004, 50 requêtes (numérotées de 1 à 50) ont été créées sur la base de besoins d'information exprimés par des biologistes (des exemples sont repris dans la partie gauche de la figure 3). Chaque requête est subdivisée en quatre champs soit le numéro de la requête (<id>), un titre bref (<title>), une description plus précise de la demande (<need>), et quelques informations permettant de mieux juger de la pertinence des articles dépistés (<context>). Pour la campagne de 2005, un nouveau jeu de 50 requêtes a été construit (numérotées de 100 à 149). Cet ensemble comprend cinq scénarii de recherche d'information assez typique en biologie. Ainsi on retrouve a) la recherche de méthodes ou de protocoles standards (requêtes n° 100 à 109); b) l'implication d'un gène dans une maladie (n° 110 à 119); c) le rôle d'un gène dans un processus biologique (n° 120 à 129); d) l'interaction de deux gènes (n° 130 à 139); e) la/les mutation(s) d'un gène et ses impacts (n° 140 à 149). Contrairement à celles de 2004, les requêtes de 2005 n'ont pas une subdivision standard en diverses parties logiques pouvant se compléter. Leur contenu est très bref et les étiquettes varient d'un scénario de recherche à l'autre. Comme pour l'évaluation officielle, tous les champs disponibles (sauf la partie identificateur <id>) seront utilisés pour dépister les notices bibliographiques pertinentes. Le jeu de requêtes de l'année 2004 (partie gauche dans la figure 3) semble être plus général que celles de 2005 (partie droite). Si l'on analyse les jugements de pertinence de ces deux ensembles, on constate que le nombre moyen de notices pertinentes par requête s'élève à 165,4 pour 2004 contre 93,5 pour 2005 (médiane de 115,5 pour 2004 contre 35 pour 2005). Signalons également que les requêtes n° 18 et 19 ne disposent que d'une seule bonne réponse et que la requête n° 144 en possède deux. Finalement, une requête (n° 135), n'ayant aucun article pertinent dans la collection, sera éliminée de notre jeu d'évaluation pour l'année 2005. Pour indiquer si une notice bibliographique répondait à la requête, les assesseurs disposaient des trois choix suivants : « tout à fait pertinent », « partiellement pertinent » et « pas pertinent ». Comme dans les évaluations officielles, nous avons considéré les valeurs « tout a fait pertinent » et « partiellement pertinent » comme des bonnes réponses. En appliquant cette définition et en utilisant toutes les parties logiques du jeu de requêtes de 2004 (TNC) (Hersh et al., 2005), le meilleur système de recherche obtenait une précision moyenne de 0,4075 en 2004 (et une performance de 0,3867 pour le deuxième). Dans nos expériences, ces mêmes conditions seront adoptées. Lors de la campagne d'évaluation Genomics en 2005 (Hersh et al., 2006), le meilleur système présentait une précision moyenne de 0,2888 tandis que la performance du deuxième s'élevait à 0,2883. En comparant les deux années, on constate que l'interrogation du corpus avec les requêtes de 2005 s'avère plus ardue. Afin de pouvoir fonder nos conclusions sur de solides bases, nous avons décidé de tenir compte de plusieurs modèles de recherche d'une part et, d'autre part, de sélectionner les approches connues pour proposer les meilleures performances. Pour tous les modèles retenus, l'indexation des documents (et des requêtes) s'appuiera sur un ensemble de termes pondérés. L'importance attachée à chacun d'eux tiendra compte de la fréquence d'occurrence (ou fréquence lexicale notée tfij pour le je terme dans le ie document) et de la fréquence documentaire d'un terme (notée dfj, ou plus précisément de idfj=log( n /dfj), avec n le nombre de documents dans le corpus). Normalisé par le cosinus, cette pondération forme le modèle classique tf idf (ou « document=ntc, requête=ntc » ou « ntc-ntc ») qui représente l'état des connaissances à la fin des années 80 (Salton et al., 1988). Pour mesurer la similarité entre les documents et la requête, on a utilisé le produit interne. D'autres pondérations ont été proposées dont la spécification exacte est reprise en annexe. Par exemple, on peut imposer que la première occurrence d'un terme possède plus d'influence (modèle « ltc » ou « ltn ») ou que la longueur du document doit jouer un rôle non négligeable (modèle « Lnu » (Buckley et al., 1996) présentant une très bonne performance lors de la campagne d'évaluation TREC-4 (1995) ou « dtu » (Singhal et al., 1999), stratégie efficace lors de TREC-7 (1998)). En plus de ces solutions basées sur l'intuition géométrique sous-jacente au modèle vectoriel, nous avons considéré deux modèles probabilistes, à savoir l'approche Okapi (Robertson et al., 2000) et le modèle I( n )B2, un des membres de la famille Divergence from Randomness (Amati et al., 2002). Dans ce dernier cas, la pondération wij du je terme d'indexation dans le ie document combine deux mesures d'information, à savoir : dans laquelle li indique la longueur du ie document (soit le nombre de termes d'indexation) et tcj représente le nombre d'occurrences du je terme dans la collection. Dans nos expériences, la constante c a été fixée à 1,5 et mean dl = 146, longueur moyenne d'une notice de Medline. Enfin, les modèles de langue (MdeL) (Hiemstra, 2000) composent la dernière famille de modèle de dépistage de l'information que nous avons évalué. Contrairement aux approches Okapi ou I( n )B2 basées sur une distribution probabiliste précise, les modèles de langue peuvent être vus comme des modèles probabilistes non-paramétriques. Les estimations sous-jacentes sont faites selon les fréquences d'occurrence des mots dans le document D ou le corpus C et non selon une distribution spécifique imposée a priori. Comme modèle de langue, nous avons repris l'approche indiquée dans l'équation 2 et suggérée par (Hiemstra, 2000; 2002). Cette dernière est basée sur une interpolation entre le modèle du document (P [tj | Di ]) et celui du corpus (P [tj | C]). dans laquelle λj un facteur de lissage (fixée à 0,35 quelque soit le terme tj) et lc une estimation de la taille du corpus C considéré. Tous ces modèles ont été implémentés dans le moteur de recherche Lucene (Gospodnetić et al., 2005), disponible gratuitement (). Afin de permettre un meilleur appariement entre termes de la requête et ceux apparaissant dans les notices bibliographiques, on peut appliquer un pré-traitement supprimant automatiquement certaines séquences terminales. Dans ce but, on peut se limiter à éliminer les suffixes liés au pluriel, soit le ‘ - s ' pour la langue anglaise. Une telle procédure proposée par (Harman, 1991) et nommée S-stemmer est reprise dans la figure 4. Comme alternative, on peut considérer que les suffixes dérivationnels (par exemple, ‘ - ment', ‘ - ably ', ‘ - ship ') devraient aussi être supprimés, sous l'hypothèse que ces changements ne modifient pas ou que peu la sémantique des termes. Pour vérifier cette hypothèse, nous avons sélectionné l'algorithme de Porter (1980). Afin d'améliorer la qualité du dépistage de l'information, plusieurs auteurs ont suggéré d'appliquer une pseudo-rétroaction en admettant, sans les présenter à l'usager que les k premiers documents étaient pertinents (Efthimiadis, 1996). En se basant sur l'approche proposée par Rocchio (Buckley et al., 1996), nous avons sélectionné les m meilleurs termes extraits automatiquement des k premiers articles et de l'ancienne requête selon l'équation 3. dans laquelle w'j indique la nouvelle pondération du je terme obtenue à partir du poids de ce terme dans l'ancienne requête wj, et de ses pondérations wij dans les k premiers documents. Dans nos évaluations, nous avons fixé les constantes α = 2,0, β = 0,75 et seulement les m termes ayant la plus forte pondération formeront la requête finale. Nous avons également conçu une nouvelle stratégie d'expansion automatique, nommée idfqe, en considérant que les valeurs idf permettent une meilleure discrimination entre les termes utiles ou non pour former une requête efficiente. Dans ce cas et comme dans l'approche précédente, on pondère par une constante α tous les termes inclus dans la requête initiale. Ensuite, on ajoute tous les termes apparaissant au moins une fois parmi les k premiers articles dépistés. Pour chaque terme, on calcule le poids w'j associé selon la formule 4. dans laquelle Iq(tj) (ou IDi(tj)) est une fonction indicatrice prenant la valeur 1 si le terme tj appartient à la requête Q (ou au document Di), 0 autrement. Dans un tel schéma, si un terme apparaît uniquement dans la requête, son poids sera de α · tfj, tandis qu'un terme appartenant à un seul article et jamais dans l'ancienne requête aura une pondération de (β/k) · idfj. Pour former la nouvelle requête, on retient les m termes ayant les valeurs w'j les plus fortes. En plus de ces deux stratégies élargissant la requête en fonction des termes apparaissant souvent conjointement avec ceux donnés par l'usager, on peut envisager d'ajouter des synonymes ou des variantes orthographiques (par exemple colour ou color). Cette approche peut s'avérer particulièrement intéressante dans le domaine biomédical où de nombreux noms différents sont utilisés pour désigner le même gène ou la même protéine. Cohen (2005) indiquent que l'on rencontre fréquemment les transformations possibles suivantes : présence d'un espace ou d'un tiret (“ IL 10” et “IL-10”);– l'espace ou le tiret peut être absent (“ ddvit1” et “ddvit 1 ”); le mot alpha ou beta peut être remplacé par une lettre (“ epm2-beta” ou “epm2b ”); le chiffre final ‘ - 1, ' ‘ - 2, ' ‘ - 3, ' ou ‘ - 4 ' peut être remplacé par son équivalent en chiffre romain (“ UEV-2” et “UEV-II ”); une partie du nom peut être en majuscules, une autre en minuscules (“ DDVit-1” et “ddvit1”). Ce type d'enrichissement de la requête s'effectue généralement de manière automatique car il n'y a pas de véritable interprétation sémantique avant de vérifier l'application d'une transformation. De plus, nous conseillons de la limiter à l'interrogation. Avec ce choix, nous pouvons, en tout temps, ajouter, modifier ou limiter une règle de transformation afin de mieux satisfaire les usagers. En plus de ces règles simples, des synonymes peuvent apparaître sans que les noms possèdent une relation évidente entre eux. Par exemple, la protéine “lymphocyte associated receptor of death” peut aussi être nommée “LARD,” “Apo3,” “DR3,” “TRAMP,” “wsl,” et “TnfRSF12” (Yu et al., 2003). Cette variabilité provient du nombre important de domaines bio-médicaux d'une part et, d'autre part, de la rapidité de leur développement. En vue d'aider les chercheurs à retourner les divers noms des gènes ou protéines, plusieurs banques de données 4 ont été créées. Mises à jour essentiellement manuellement, elles fournissent également d'autres informations comme la description fonctionnelle d'une protéine donnée ou sa localisation cellulaire. D'importants efforts de normalisation du langage ont d'ailleurs été initiés pour maîtriser l'explosion conceptuelle du domaine (Grabar et al., 2007). Pour mesurer et comparer la performance des divers modèles de recherche retenus, nous avons utilisé la précision moyenne (calculée par le logiciel trec_eval sur la base des 1 000 premières réponses). Cette mesure a été adoptée par les campagnes d'évaluation TREC Genomics pour évaluer la qualité de la réponse à des interrogations en ligne. Pourtant, on ne peut pas conclure qu'un système est meilleur qu'un autre sur la simple comparaison de deux précisions moyennes. En effet, comme toute mesure de tendance centrale, la précision moyenne cache les irrégularités de performance entre les diverses requêtes soumises. Pour déterminer si un système s'avère meilleur qu'un autre, nous devons recourir à un test statistique (Savoy, 2006). Dans nos analyses, l'hypothèse H0 sera toujours la même à savoir que « les deux modèles de dépistage offrent la même performance moyenne » et que toute variation (différence) n'est que le simple fruit du hasard. Avec chaque test, on peut calculer une valeur p, la probabilité d'obtenir dans l'échantillon les valeurs observées, ou plus extrêmes, sachant que H0 est vraie. Si cette probabilité est inférieure à 0,05 (seuil de signification de notre test bilatéral), nous rejetterons H0 au profit de l'hypothèse alternative (« il existe une différence de performance entre les deux systèmes »). Dans cette communication, nous appliquerons un test statistique basé sur le ré-échantillonnage aléatoire non paramétrique (Savoy, 1997) (avec un seuil de signification de 5 %, test bilatéral). Dans les tables de cet article, nous avons souligné les performances dont la différence peut être analysée comme statistiquement significative par rapport à la performance d'un modèle de base. En recherche d'information, plusieurs modèles ont été proposés ces dernières années et notre première série d'expériences vise à connaître leur efficacité relative. Dans ce but, le tableau 1 indique la précision moyenne obtenue par les dix modèles retenus. On remarque que quelque soit l'enracineur utilisé, le modèle probabiliste I( n )B2 propose la meilleure performance (performance indiquée en gras). Cependant les différences entre ce modèle et les autres approches probabilistes (modèle de langue et Okapi) ne sont pas toujours statistiquement significatives. Ainsi, pour l'année 2004 et avec l'algorithme de Porter, la différence de performance entre I( n )B2 (0,3810) et Okapi (0,3573) n'est pas statistiquement significative. Avec le jeu de requêtes de 2005 (requêtes plus courtes et ayant en moyenne moins de bonnes réponses), la performance moyenne s'avère moins élevée d'une part et, d'autre part, les différences sont plus fréquemment significatives. Si l'on considère le modèle tf idf (noté « ntc-ntc » dans le tableau 1) comme l'état de nos connaissances à la fin des années 80, l'approche I( n )B2 permet presque, 15 ans plus tard, de tripler la qualité des réponses obtenues (par exemple, S-stemmer, jeu de requêtes 2004, 0,3867 vs. 0.1341, soit une augmentation de 188 %). Précision moyenne de nos divers modèles de dépistage selon trois enracineurs différents Précision moyenne 2004 2005 Modèle Sans Porter S-stemmer Sans Porter S-stemmer I(n)B2-nnn MdeL-nnn Okapi-npn 0,3758 0,3420 0,3257 0,3810 0,3630 0,3573* 0,3867 0,3619 0,3566* 0,2713 0,2484 0,2564 0,2725 0,2588 0,2551 0,2736 0,2576* 0,2572 Lnu-ltc dtu-dtn atn-ntc ltn-ntc lnc-ltc ltc-ltc ntc-ntc 0,2716 0,3280 0,3200 0,2982 0,1803 0,2034 0,1505 0,2962* 0,3402 0,3192 0,3098 0,1906 0,1948 0,1393* 0,2979* 0,3432 0,3248 0,3126 0,1927 0,2111 0,1341 0,2232 0,2365 0,2058 0,1852 0,1333 0,1341 0,1069 0,2235 0,2292 0,2019 0,1834 0,1357 0,1229* 0,0948* 0,2211 0,2328 0,2018 0,1879 0,1402 0,1344 0,1007* % variation +2,8 % +3,9 % - 1,9 % +0,2 % En conclusion, les récents développements des modèles probabilistes paramétriques (I( n )B2) (Amati et al., 2002) ou les modèles de langue (MdeL) (Hiemstra, 2000) proposent une qualité de réponse, mesurée par la précision moyenne, qui s'avère significativement meilleure que les autres. Comme l'indique les valeurs reprises dans le tableau 1, les variations sont plutôt faibles entre les trois enracineurs proposés. Par rapport à une indexation sans aucune modification des mots (colonne « sans »), l'algorithme de Porter permet, en moyenne, d'accroître la performance de 3 % pour le jeu de requêtes de 2004 tandis que le S-stemmer apporte une augmentation moyenne de 4 %. Pour l'année 2005, l'approche de Porter dégrade la précision moyenne de 2 % tandis que le S-stemmer offre une augmentation moyenne de 0,2 %. Comme les exemples de la figure 3 le laissent entrevoir, les requêtes de 2005 sont très brèves d'une part et, d'autre part, comprennent des termes spécifiques sur lesquelles l'enracineur n'a que peu d'impact. Si l'on utilise les performances obtenues sans aucune suppression de suffixes comme valeur de référence (colonnes « sans » dans le tableau 1), le test statistique détecte cinq différences significatives (indiquées par un astérisque « * » dans le tableau 1) dans le jeu de requêtes de 2004, et quatre pour le jeu de 2005. Si on compare le S-stemmer avec celui de Porter, nos tests statistiques indiquent qu'il n'y a pas de différence significative pour les huit premiers modèles (les variations sont significatives uniquement pour les approches « ltc-ltc » et « ntc-ntc » et en faveur du S-stemmer). Une analyse plus fine permet de mieux connaître l'effet de ces trois enracineurs. En nous limitant au modèle I( n )B2 et pour le jeu de 2004, l'algorithme de Porter permet, par rapport à une indexation sans enracineur, d'améliorer la précision moyenne (PM) de 23 requêtes mais la détériore pour 28 autres. L'enracineur S-stemmer offre une augmentation de la précision moyenne à 28 requêtes, mais diminue cette valeur pour 20 autres interrogations, toujours par rapport à une indexation sans enracineur. En observant requête par requête l'effet produit par nos stratégies de suppression automatique des suffixes, nous observons que pour la requête n° 17 (avec trois articles pertinents), la différence de performances s'avère la plus importante et ceci en faveur d'une indexation sans enracineur. Dans ce dernier cas, la meilleure précision moyenne s'élève à 0,4093. Le premier document dépisté est aussi pertinent tandis que le second article pertinent apparaît en 65e position. Avec l'algorithme de Porter, cette performance tombe à 0,2026 et le premier document pertinent apparaît en deuxième place, puis un second au 108e rang. La plus grande différence favorisant cette fois l'algorithme de Porter par rapport à l'absence d'enracineur est obtenue par la requête n° 19 (un seul article pertinent). Ce document est classé en première position avec l'algorithme de Porter (PM = 1,0) et en quatrième lorsqu'on ne supprime pas les suffixes (PM = 0,25). Notre analyse de quelques requêtes indique que les variations observables entre les trois stratégies de suppression des suffixes s'avèrent faibles et aléatoires. Le test statistique ne permet souvent pas de détecter une différence significative. Les classements obtenus par quelques requêtes confirment cette analyse. Ainsi si le classement se modifie dans les rangs 60 à 100, on peut se demander si ce phénomène s'avère perceptible pour l'usager final. Lorsque les usagers désirent seulement un nombre restreint de bonnes réponses et ne consultent donc que la première page des résultats (par exemple les dix premières références dépistées par un moteur de recherche sur Internet), la précision moyenne ne fournit plus la meilleure indication de la performance. Afin de tenir compte de cet autre point de vue, le tableau 2 indique la précision obtenue après l'extraction des dix premières notices selon les deux jeux de requêtes et six modèles de recherche. Les conclusions demeurent inchangées. On notera qu'avec le jeu de requêtes de 2004, le meilleur système permet d'offrir, en moyenne, 6 bonnes réponses parmi les dix premiers documents tandis que cette valeur n'est que de 4,3 pour le jeu de 2005. Précision moyenne après dix documents retournés Précision après dix documents 2004 2005 Modèle sans Porter S-stemmer sans Porter S-stemmer I(n)B2-nnn 0,590 0,618 0,618 0,424 0,453* 0,443* MdeL-nnn 0,574 0,590 0,586 0,400 0,418 0,416 Okapi-npn 0,550 0,604* 0,578* 0,416 0,431 0,424 Lnu-ltc 0,538 0,562 0,564 0,402 0,404 0,406 dtu-dtn 0,526 0,526 0,520 0,378 0,380 0,384 atn-ntc 0,526 0,502 0,500 0,357 0,349 0,324* ntc-ntc 0,302 0,286 0,288 0,227 0,192* 0,212 Nous avons également procédé à deux séries de tests statistiques sur la base des moyennes indiquées dans le tableau 2. En premier, nous avons retenu comme référence la meilleure performance (le modèle I( n )B2) et nous l'avons comparé aux autres modèles (soit sous la même colonne). Les différences significatives sont indiquées par un soulignement. Sur la base de ce test, on peut affirmer que les précisions moyennes après 10 documents sont statistiquement similaires que l'on utilise l'approche probabiliste I( n )B2 ou le modèle de langue (MdeL). Les modèles vectoriels proposent, généralement, une valeur moyenne inférieure. Comme second test, nous avons retenu les valeurs obtenues sans enracineur comme valeur de référence (sous la colonne « sans »). Si notre test statistique détecte une différence significative, nous avons ajouté un astérisque (*). Comme le tableau 2 l'indique, ces variations ne sont pas souvent statistiquement différentes (deux cas sur le jeu de requête de 2004, quatre en 2005). L'absence d'effet positif notable et systématique par la suppression des suffixes peut paraître quelque peu surprenant. A priori, notre attitude aurait été de favoriser l'élimination de certaines séquences terminales. A ce propos, on peut noter que la pratique utilisée par les moteurs de recherche sur le Web tend à être restrictif d'une part et, d'autre part, le S-stemmer décrit dans la figure 3 ne supprime qu'une seule lettre (soit le ‘ - s'). Si l'on analyse l'impact des descripteurs manuellement ajoutés à chaque notice bibliographique (table 3), leur influence, quelque soit l'année ou le modèle de recherche, s'avère bénéfique. En posant comme référence la performance obtenue avec les descripteurs (colonnes « avec MeSH »), notre test statistique indique presque toujours une différence de performance statistiquement significative avec une approche ignorant ces descripteurs (colonnes « sans MeSH »), en particulier pour les modèles les plus performants. Sur un corpus de notices bibliographiques rédigées en français, nous avions constaté que la suppression des descripteurs sélectionnés manuellement entraînait une diminution de la précision moyenne de l'ordre de 14 % (requêtes courtes) ou de 19 % (requêtes de longueur moyenne) (Savoy, 2005). Les valeurs données dans le tableau 3 indiquent qu'en moyenne la diminution est de l'ordre de 8 % pour le jeu de requêtes de 2004 ou de 4 % pour 2005, soit des pourcentages clairement plus faibles. En analysant requête par requête, on constate que pour l'année 2004 et le moteur I( n )B2, la présence de descripteurs MeSH améliore la précision moyenne pour 32 interrogations et la détériore pour 16 autres cas. La variation la plus forte est obtenue avec la requête n° 10 (voir figure 3) qui possède quatre articles pertinents. La précision moyenne (PM) s'élève à 1,0 avec l'inclusion des termes MeSH (les quatre articles pertinents occupent les quatre premières places du classement), mais elle est seulement de 0,75 sans leur prise en compte. Dans ce dernier cas, le système de dépistage place dans les trois premiers rangs un document pertinent mais le quatrième article pertinent n'est pas dépisté. Ce dernier possède bien le terme « NEIL1 » en commun avec la requête mais ce terme apparaît uniquement dans les descripteurs MeSH. Mais l'indexation manuelle ne garantit pas toujours une précision moyenne plus élevée. Ainsi avec la requête n° 23 (158 documents pertinents), la présence des termes MeSH fait décroitre la PM de 0,5544 à 0,39. Si l'on consulte le classement des dix premiers documents dépistés, on constate que sans les termes du MeSH, les articles pertinents occupent les rangs 1 à 8 puis le dixième. Avec les descripteurs MeSH, les documents pertinents apparaissent dans les positions 1, 3, 4, 7 et 9. Le système retourne seulement cinq références pertinentes parmi les dix premiers et ces dernières n'occupent pas les cinq premiers rangs. Une analyse plus fine révèle que le nom de la protéine (Saccharomyces cerevisiae) apparaît dans les descripteurs MeSH mais la requête spécifie également que cette protéine doit intervenir dans un système particulier (involved in ubiquitin system). Les descripteurs MeSH introduisent plus de bruit en permettant l'extraction soit de document lié à la protéine soit à l'ubiquitine. Précision moyenne avec et sans les descripteurs MeSH attribués lors de l'indexation manuelle Précision moyenne 2004 2005 Modèle avec MeSH sans MeSH avec MeSH sans MeSH I(n)B2-nnn 0,3810 0,3516 0,2725 0,2557 MdeL-nnn 0,3630 0,3311 0,2588 0,2325 Okapi-npn 0,3573 0,3217 0,2551 0,2398 Lnu-ltc 0,2962 0,2693 0,2235 0,2139 dtu-dtn 0,3402 0,3245 0,2292 0,2138 atn-ntc 0,3192 0,3117 0,2019 0,2059 ntc-ntc 0,1393 0,1227 0,0948 0,0966 % variation - 7,8 % - 4,2 % Pour le jeu de requêtes de 2004, il existe clairement une subdivision logique avec une partie minimale (<title>) à laquelle on ajoute peu à peu des termes reliés (<need> et <context>, voir les exemples indiqués dans la figure 3). Afin d'augmenter la performance, nous avons inclus trois fois les termes appartenant au titre de la requête et deux fois ceux apparaissant dans la partie <need>. Cette première modification de la requête (dénotée “tttnnc ”) permet d'améliorer significativement la précision moyenne (voir tableau 4). En face d'une requête longue, il s'avère important de pouvoir pondérer l'importance relative des termes présents. En attribuant une pondération triple aux termes apparaissant dans le titre des requêtes (jeu de 2004), l'approche “tttnnc” permet d'accroître la précision moyenne pour 28 requêtes, mais la détériore pour 20 autres. La plus grande variation est obtenue par la requête n° 19 (un seul article pertinent). La précision moyenne (PM) s'élève à 1,0 (le seul document pertinent occupe la première place) avec l'approche “tttnnc ”, mais elle est seulement de 0,33 avec l'approche “tnc” (l'article pertinent apparaît alors en troisième place). Basé sur les requêtes “tttnnc” (pour l'année 2004) ou “tnc” (année 2005), nous avons alors procédé à l'expansion automatique de la requête selon notre modèle (colonne notée idfqe dans le tableau 4) et l'approche suggérée par Rocchio. Dans les deux cas, nous considérons, sans les voir, que les k premiers documents sont pertinents. Pour les deux jeux de requêtes, nous constatons que notre modèle propose une meilleure performance que celle obtenue par Rocchio. Par contre, pour les requêtes de 2005, aucun des deux modèles d'expansion n'apportent d'amélioration. De plus, les différences sont toujours statistiquement significatives et moins bonnes pour le modèle Rocchio. L'amélioration des performances n'est possible que sous trois conditions. Il faut considérer uniquement le jeu de requêtes de l'année 2004, avec l'approche idfqe et avec certaines valeurs des paramètres (nombre de documents, nombre de termes). Ainsi en tenant compte des dix premiers documents dépistés et en ajoutant 20 termes à la requête, la précision moyenne s'améliore pour atteindre la valeur 0,4293, une variation qui n'est pas statistiquement significative par rapport à 0,4130. Précision moyenne avec expansion automatique de la requête (modèle I(n)B2, année 2004 et 2005) Précision moyenne Modèle I(n)B2 2004 2005 avec tnc 0,3810 0,2725 avec tttnnc 0,4130 n/a Expansion automatique idfqe Rocchio idfqe Rocchio 3 docs/10 termes 0,4075 0,3155 0,2392 0,1696 3 docs/20 termes 0,3887 0,3079 0,2378 0,1785 5 docs/10 termes 0,4151 0,3341 0,2517 0,2020 5 docs/20 termes 0,4055 0,3271 0,2542 0,2079 10 docs/10 termes 0,4204 0,3563 0,2302 0,2013 10 docs/20 termes 0,4293 0,3545 0,2385 0,2007 10 docs/30 termes 0,4160 0,3512 0,2481 0,1992 Une comparaison plus fine avec le modèle I( n )B2 (requête tttnnc) indique que l'expansion automatique (idfqe, 10 docs/20 termes) permet l'amélioration de la précision moyenne pour 26 requêtes mais la décroît pour 21 autres. L'accroissement le plus important est obtenu avec l'interrogation n° 46 possédant 197 bonnes réponses. La précision moyenne (PM) s'élève à 0,291 avant l'expansion et à 0,6252 après. Dans ce cas précis, avant l'expansion de la requête, des articles non pertinents apparaissent aux rangs 4, 14, 15, 19 et 27. Après l'expansion, le premier article non pertinent apparaît en position 35. Ce nouveau classement s'avère meilleur car le vocabulaire caractéristique des articles pertinents était présent dans les dix premiers articles utilisés pour construire la requête étendue. Avec la stratégie d'expansion de Rocchio (10 documents/20 termes), la précision moyenne s'est améliorée pour 13 requêtes mais elle s'est détériorée pour 35 autres. Comme l'indique les performances de le tableau 4, cette stratégie d'expansion produit une dégradation significative de la performance (de 0,4130 à 0,3545). Un cas typique de cette détérioration est la requête n° 19 ayant une seule bonne réponse. La précision moyenne (PM) s'élève à 1,0 avant l'expansion (le seul document pertinent occupe la première place). Après expansion, la précision moyenne chute à 0,0625 et l'article pertinent apparaît seulement en 16e position. Contrairement au cas étudié précédemment, le vocabulaire caractérisant le document pertinent a été dilué et la nouvelle requête a produit un classement nettement moins bon. Nous avons également testé notre expansion de requêtes spécifique au domaine de la biomédecine (voir les trois derniers paragraphes de la section 4). L'inclusion des variantes orthographiques et des synonymes dégrade significativement la précision moyenne qui passe de 0,2725 à 0,2128 (soit une baisse relative de 19 %). Une amélioration marginale a été reportée en utilisant un modèle de catégorisation (Ruch, 2006) et d'expansion automatique se basant sur les classes sémantiques de certaines entités, telles que les maladies et les organes, mais pour un gain significatif. (Ruch et al., 2006). Cet échec relatif tend à confirmer que l'expansion de requêtes par des synonymes n'apporte pas les améliorations escomptées, que les synonymes soient extraits d'un thésaurus général (Voorhees, 1994) ou, comme dans notre cas, spécifiques à un domaine particulier. Malgré nos divers efforts, nous devons reconnaître que, pour certaines interrogations, tous les modèles de recherche, avec ou sans expansion automatique de la requête, rencontrent des difficultés à dépister les bons documents. Notons que ce problème n'est pas lié au nombre de documents pertinents, sous l'hypothèse qu'une requête possédant très peu d'articles pertinents sera plus complexe à traiter. Ainsi, les requêtes n° 18 (Gis4) ou n° 19 (Comparison of Promoters of GAL1 and SUC1) possèdent un seul document pertinent. Pourtant, pour ces deux exemples, plusieurs moteurs atteignent une précision moyenne parfaite de 1,0 (le seul document pertinent occupe la première position dans la liste des résultats). Les difficultés peuvent se cacher dans d'autres aspects. Comme première explication, on peut avancer que l'ensemble des spécifications de la requête ne sont pas incluses dans les documents dépistés. Ainsi, la requête n° 14 (Expression or Regulation of TGFB in HNSCC cancers, voir sa description complète dans la figure 3) avec ses 21 bonnes réponses possède une précision moyenne très faible pour l'ensemble des stratégies de dépistage proposées. Pour le modèle I( n )B2 (requête tttnnc), le premier article pertinent se situe en 104e position. Les documents mieux classés possèdent les termes « HNSCC », « cancer » ou « regulation » en commun avec la requête. Ils abordent bien une thématique proche de la requête mais celle -ci ne répond pas précisément aux souhaits de l'usager. L'enracineur peut également jouer un rôle comme l'illustre la requête n° 102 (<method> Different quantities of different components to use when pouring a gel to make it more or less porous) possédant dix articles pertinents. Cependant, sur l'ensemble des systèmes de recherche, la précision moyenne maximale s'élève à 0,013. La forme exprimée dans la requête (soit « pouring » ou « porous ») ne s'apparie pas avec la forme présente dans les articles pertinents (soit « pore »), même avec l'emploi de l'algorithme de Porter. Parfois l'appariement entre les formes de la requête et des documents s'avère plus difficile à cause des fautes d'orthographe ou, comme dans le cas présent, en présence d'une ou de plusieurs variantes orthographiques. La requête n° 125 (<gene> Nurr-77 <process> preventing auto-immunity…) possède onze articles pertinents mais aucun n'a pu être extrait par les divers moteurs de recherche. De même, la requête n° 115 (<gene> Nurr-77 <disease> Parkinson's Disease) obtient une précision moyenne maximale de 0,0002 pour l'ensemble des moteurs de recherche. En analysant les documents pertinents de ces deux cas, nous avons constaté que le nom du gène était « Nur-77 » ou « Nur 77 » dans les documents jugés pertinents. La forme dans l'interrogation possède deux « r » tandis qu'un seul est présent dans la dénomination du gène des notices pertinentes. Dans cet article nous avons présenté une collection-test extraite du fonds documentaire Medline, la référence internationale en matière de biomédecine. Ce corpus disponible couvre environ les dix dernières années de Medline et comprend environ 4,5 millions de documents. Ces derniers, écrit essentiellement en langue anglaise, correspondent à des notices bibliographiques possédant un titre, très souvent un résumé ainsi que des descripteurs MeSH attribués par des experts humains. Afin de comparer objectivement la qualité de réponse pouvant être obtenue par les meilleurs modèles de recherche d'information, nous avons implémenté plusieurs versions du modèle vectoriel, deux modèles probabilistes et un modèle de langue. Nous avons démontré que la meilleure performance (la précision moyenne ou la précision après dix documents extraits) s'obtenait avec le modèle probabiliste I( n )B2 (Amati et al., 2002). Par contre, la différence de performance ne s'avère pas toujours statistiquement significative par rapport à un modèle de langue (MdeL) (Hiemstra, 2000) ou le modèle Okapi (Robertson et al., 2000). Par contre, les approches vectorielles proposaient des qualités de réponse significativement plus faibles. Face à des requêtes relativement courtes (Genomics TREC-2005) ou de longueur moyenne (Genomics TREC-2004), la différence de performance entre un enracineur léger (S-stemmer (Harman, 1991)) ou plus agressif (Porter 1980) est faible sans que l'on puisse affirmer que l'une des deux approches s'avère meilleure. Comparé à la performance d'une approche sans enracineur, les algorithmes de Porter ou le S-stemmer semblent accroître très légèrement la précision moyenne sans que les différences soient significatives. Ces résultats suggérant qu'une approche sans suppression des suffixes ou avec un enracineur très léger peut être bénéfique corroborent notre expérience avec les moteurs de recherche sur le Web. En effet, ces derniers tendent aussi à adopter une politique très restrictive dans la suppression automatique des suffixes. L'inclusion des descripteurs MeSH permet d'augmenter la précision moyenne de l'ordre de 3 % (requêtes de 2005) à 7 % (requêtes de 2004). Notre analyse des diverses stratégies d'expansion automatique des requêtes révèle qu'une amélioration significative de la précision moyenne est possible avec le jeu de requêtes de 2004. Mais cet accroissement ne provenait pas d'une expansion via l'inclusion de termes extraits des documents les mieux classés mais de la répétition de certaines parties logiques des requêtes. Cette stratégie n'étant pas disponible pour le jeu de requêtes 2005 (requêtes trop courtes), nous avons conçu une expansion automatique liée aux noms des gènes et protéines (inclusion de variantes orthographiques et de synonymes). Cette démarche n'a pas permis une augmentation de la performance. Par contre, bien que notre modèle d'expansion (idfqe) semble être mieux adapté que l'approche de Rocchio, nous n'avons pas de preuve tangible que l'expansion automatique de requêtes améliore les performances moyennes dans le cadre d'un corpus comme Medline. Notre étude indique que l'expansion automatique n'est pas une stratégie entraînant à coup sûr une amélioration significative de la performance .
Cet article décrit la banque documentaire MEDLINE depuis laquelle une collection test comprenant environ 4,5 million de documents structurés a été construite à partir des campagnes d'évaluation TREC. Dans une deuxième partie, nous évaluons et comparons l'efficacité du dépistage de l'information de dix modèles (probabiliste, modèle de langue, approches vectorielles). Cette évaluation est complétée par l'analyse de l'efficacité de trois enracineurs (stemmers) pour la recherche d'information oeuvrant dans un contexte spécifique. L'impact des descripteurs MeSH, manuellement sélectionnés pour chaque article, complète cette analyse. Enfin nous avons conçu deux nouvelles approches d'expansion automatique des requêtes, l'une générale l'autre spécifique et nous les avons évaluées en les comparant au modèle proposé par Rocchio.
sciencesInfo_08-0133296_tei_DN_101_0131.tei.xml
termith-484-communication
Connaître et comprendre le passé permet de penser et d'agir dans le présent, surtoutpar rapport à des questions encore vives. Or, dans les sciences del'information et de la communication (sic), de tellesquestions ne manquent pas et quelques-unes ont déjà donné lieu à des réponses .Certaines sont générales : pourquoi, comment et dans quels contextes cognitif etsocial les sic se sont-elles constituées en disciplineacadémique ? Qu'y avait-il sur le marché scientifique ou, plus largement ,intellectuel de l'information et de la communication avant leur reconnaissanceofficielle ? En quoi l'interdisciplinarité revendiquée est-elle fondatrice et, àcertains égards, « performative » ? Comment expliquer le lien, rarement tissé horsde France, entre l'information au sens de l ' information scienceanglo-saxonne et la communication, ou, si l'on préfère, une version pluspolémique, peut-on se contenter des réponses sociales et/ou scientifiques apportéesjusqu'ici par ceux qui se sont déjà intéressés à cette question, par exemple JeanMeyriat (1978, 1981, 1985) et Robert Escarpit (1973, 1976) pour s'en tenir à deuxcontributeurs « historiques » ? D'autres interrogations sont plus limitées, et il faut le dire, plus rarementénoncées : pourquoi des rendez -vous manqués avec certaines disciplines, alors quequelques-uns de leurs « lieux » ou de leurs ressortissants ont joué, à un momentdonné, un rôle dans la construction des SIC ou qu'elles ont, dans d'autres cadresnationaux, une place reconnue, bien que discutée, dans les études de communication ,telle la psychologie ? Mais aussi, pourquoi des rendez -vous pas totalement réussisavec des domaines pratiques comme la publicité et, à un degré moindre, lejournalisme, et ce, tant au niveau de l'enseignement qu' à celui de la recherche ? Cephénomène est étonnant quand on connaît l'importance sociale de ces champsprofessionnels, la place des recherches consacrées à ces champs dans des disciplinesvoisines – les sciences de gestion pour la publicité, la science politique et lasociologie pour le journalisme –, leur place dans les premiers travaux français encommunication (voir la « nécrologie » de Georges Péninou rédigée par Jacques Duranden 2002), mais aussi le rôle des études de communication dans les pratiques desprofessionnels de ces domaines (sur la publicité, voir Berthelot-Guiet, 2004). Ici, nous avons choisi de répondre à une autre question en apparence limitée : lessic, et plus particulièrement les sciences de lacommunication, ont-elles une origine principalement littéraire ? En fait, cettequestion est aussi peu innocente que les précédentes. Tout d'abord en raison desreprésentations qu'elle véhicule souvent chez ceux qui se la posent : d'aucuns s'enréjouissent, entre autres éléments parce que cette filiation ancrerait la disciplinedans les humanités (voir infra), quand d'autres, aucontraire, voient dans leurs origines littéraires une source de la difficulté dessic à prendre totalement en compte les corpusthéoriques et méthodologiques des shs et à mettre en œuvredes pratiques scientifiques que l'on rencontre dans nombre de shs contemporaines. Ensuite, en raison des conséquences cognitives etpratiques pouvant découler des réponses : Pierre Bourdieu (1984) a très bien définiles enjeux liés à l'inscription d'un champ académique dans une traditionuniversitaire fortement marquée matériellement et symboliquement. Par exemple, onpeut penser que les premiers entrants ont été tentés de reproduire et d'enseigner cequ'ils ont connu ailleurs : modes de questionnements, grilles de lecture, référencesthéoriques, comportements sociaux. .. Toutefois, entre ceux qui, préférant unefiliation du côté des shs, pourraient trop vite se désolerd'une réponse affirmative et ceux qui, se reconnaissant dans les humanités ,pourraient trop tôt s'en réjouir, il existe un espace pour une analyse s'appuyantlargement sur des observables. Au fait, doit-on parler de « lettres », de « littérature » ou d' « humanités » ?Sans répondre totalement à cette question, nous formulerons quelques remarquesmontrant à la fois le caractère non anodin en termes d'enjeux de cetteinterrogation et les difficultés rencontrées pour construire une réponse .D'abord, si ces notions se recoupent, elles ne renvoient pas pour autant auxmêmes réalités intellectuelles, pas plus qu'aux mêmes modes d'organisationsociale dans et hors l'Université. Mais, par rapport à notre questionnement surles origines, elles ont un point commun : faire relever les sic, sinon d'une seule tradition d'enseignement et de recherche, dumoins de traditions compatibles entre elles. Ensuite, ces termes n'ont pas le même sens à diverses périodes. Ainsi, entre lexv e et le xvii e siècle, entend -on par « lettres » l'ensembledes connaissances écrites acquises par l'étude, sans que l'on distingue entresavoirs philosophiques, littéraires ou scientifiques. À partir du xvii e, les Belles-lettres désignentplus précisément la grammaire, la rhétorique, la poésie et l'histoire. Puis leterme « littérature » remplace progressivement cette expression. La littératuredoit dès lors être entendue au double sens d'ensemble des œuvres écritesauxquelles les milieux au sein desquels elles circulent (Université, critique ,édition. ..) reconnaissent une valeur « littéraire » en fonction des critèresdominant hic et nunc et d'ensemble des connaissances etdes études qui se rapportent aux œuvres, à leurs auteurs et à leurréception. Dans une acception plus extensive, le vocable « lettres » désigne aussi lesdisciplines qui ont constitué le noyau dur des facultés des Lettres puis, àpartir du décret du 23 juillet 1958, des facultés des Lettres et Scienceshumaines et qui occupent toujours une place importante dans les universités desLettres et sciences humaines qui les ont remplacées en 1968 : la littérature, laphilologie, la philosophie et l'histoire, auxquelles certains ajoutent leslangues étrangères (y compris littératures et civilisations) et lalinguistique. Le terme « humanités » est pendant longtemps employé dans le sens qu'il avaitentre les xv e et xvii e siècles (« studia humanitatis ») : études littéraires classiques érudites danslesquelles le grec et le latin tiennent une place centrale, étant entendu qu'ils'agit avant tout de former l' « Homme » par référence à un modèleanthropologique légué par l'Antiquité grecque et latine. Depuis le début du xx e siècle, quand il n'est pasutilisé dans cette acception « vieillie », il désigne un ensemble plus vasteincluant les « humanités modernes », c'est-à-dire les littératures et leslangues vivantes. Récemment, le ministère délégué à l'Enseignement supérieur età la Recherche est venu quelque peu brouiller les cartes par une décisionrelative à la réorganisation de son administration : désormais, au sein duDépartement Sciences de l'homme et des humanités (dpst 6) de la Mission scientifique, technique et pédagogique (mstp), quatre disciplines (sic, psychologie ,sciences de l'éducation et staps) sont rassemblées dansl'axe « Humanités nouvelles » alors que l'on ne trouve trace dans le ditDépartement ni des « anciennes », ni des « modernes ». Mais que l'on ne s'y trompe pas : il s'agitdavantage d'une catégorie administrative destinée à regrouper des disciplinesque l'on a des difficultés à agréger à d'autres afin d'évaluer certaines deleurs institutions sociales, qu'une concession à ceux qui souhaitent quecertaines « sciences de l'esprit » deviennent plus « humaines » ou plus« anthropologiques ». Dans une vulgate inspirée de l'institutionnalisation des sciences dures (surtoutde la physique), certains savoirs sur l'homme et la société seraient devenus dessciences humaines et sociales en se séparant des lettres, philosophie comprise .De tels discours se rencontrent encore fréquemment dans l'histoire officielle( rétrospective et hagiographique) de l'économie, de la sociologie, de lalinguistique ou de la psychologie, même s'ils sont vigoureusement combattus parnombre de ceux qui militent en faveur d'une histoire « historienne » dessciences (voir par exemple, les travaux de la Société française pour l'histoiredes sciences de l'homme). Schématiquement, sur le plan cognitif, la rupture avecles lettres aurait été consommée avec l'introduction des mathématiques (soitcomme outil de quantification, soit comme langage permettant la formalisation )et/ou sinon de la méthode expérimentale, du moins de manières de faire inspiréesde cette dernière (voir l'expérimentation indirecte d' Émile Durkheim). Sur leplan social, elle serait largement liée, d'une part, à l'autonomisation desnouvelles disciplines par rapport aux disciplines-mères et à leur implantation( difficile. ..) à l'Université, puis au cnrs, d'autrepart, à l'importation de modes d'organisation (laboratoires, systèmes et normesde publication. ..) à l' œuvre depuis longtemps dans les sciences dites« exactes » ou « naturelles » (sur tous ces points, voir Boure, 2007). Dans cette perspective, les vocables « lettres », « littérature » et« humanités » ont une connotation « évidemment » péjorative : sur le planintellectuel, ils renvoient à des corpus théoriques, des méthodes jugés peuheuristiques, ainsi qu' à des préoccupations érudites, formalistes et/ouesthétiques. Sur le plan social, ils fleurent bon des pratiques (travailindividuel, bibliothèque de préférence au terrain. ..) et des modes destructuration que les « bâtisseurs » des shs ontlonguement combattus. Bref, les lettres, la littérature et les humanitéss'opposeraient à la science. On voit bien le « bénéfice » que peuvent tirer decette conclusion ceux qui défendent une conception « hard » de la scientisation des sic. Or cette« manière de voir » très tranchée est loin de faire l'unanimité dans notrechamp, y compris chez ceux qui, à l'instar de l'auteur de ces lignes, pensentque la place des sic est parmi les shs. En effet, on peut à la fois vouloir faire des sic une science humaine et sociale et accepter plusieurs manières defaire science. .. ce qui peut, par exemple, aboutir d'une part à revendiquer desliens avec la littérature (Escarpit, 1976), d'autre part, à considérer que lalittérature contient aussi des savoirs sur l'homme et la société, sans douteconstruits autrement, mais savoirs tout de même. Jean-François Tétu (2002) a abordé la question des origines littéraires des sic en s'appuyant sur des archives peu accessibles etsur une littérature grise peu connue. Sa réponse est nuancée, mais elle vaplutôt dans le sens d'une émancipation rapide des sic vis-à-vis des lettres, d'autant plus rapide, affirme t-il, que « les lettresn'ont jamais cherché à retenir les sic » (Tétu, 2002 :89). Notre réponse sera plus tranchée : en effet, quel que soit le critère (nousen avons retenu quatre, dont trois de type plutôt social, ou si l'on préfère« institutionnel »), il apparaît que les sic ont uneorigine plurielle. En même temps, il n'est guère contestable que la littérature( et plus généralement les lettres, au sens supra) ontjoué, ici ou là, un rôle. .. souvent difficile à cerner. Les premiers enseignements et, un peu plus tard, les premières filières SIC( presse, cinéma et études audiovisuelles, relations publiques ,documentation. ..) apparaissent plutôt dans les facultés, puis dans lesuniversités des Lettres et sciences humaines lorsque la loi d'Orientation del'enseignement supérieur du 12 novembre 1968 met officiellement fin au« régime des facultés » (Musselin, 2001). C'est vrai pour la plupart des lieux pionniers ,c'est-à-dire antérieurs aux années 1970 : Centre d'études littérairessupérieures appliquées – celsa – (Paris 4) etInstitut de littérature et de techniques artistiques de masse – iltam – (Bordeaux 3), ou plus modestementcertificat de techniques documentaires délivré par les facultés, puisuniversités des Lettres et sciences humaines de Toulouse, Lyon et Nancy .C'est également exact pour nombre de maîtrises de sciences et techniques (mst) créées à partir de 1972, ainsi que delicences et maîtrises généralistes mises en place dès 1977, voire de DESS( sur tous ces points, voir Meyriat, Miège, 2002). À quelques exceptionsnotables près cependant. D'abord, certains lieux d'enseignement pionniersnaissent ailleurs : l'Institut français de presse (ifp) apparaît au sein de l'Institut d'études politiques de Paris( 1946), avant d' être intégré en 1957 dans une faculté dédiée au droit et, àl'initiative de Jean Meyriat, le Cycle supérieur de spécialisation eninformation et documentation se crée à l ' iep deParis (1969). De la même façon, l'Institut national des techniquesdocumentaires (intd) naît en 1950 au sein duConservatoire national des arts et métiers (cnam) .Pour sa part, avant de devenir en 1990 l'établissement universitaire « Écolenationale supérieure des sciences de l'information et des bibliothèques » (enssib), l' École nationale supérieure desbibliothèques est d'abord (1963) un lieu de formation des cadres de l' Étatlargement placé sous le contrôle des conservateurs de bibliothèques, via la Direction des bibliothèques. D'autre part, les départements Carrières de l'information( Information-communication depuis 1991) des iut sont dès l'origine (1967) rattachés indifféremment à des établissementsuniversitaires littéraires, juridiques ou scientifiques, puisque les iut sont créés sous les auspices del'interdisciplinarité et placés dans une université en fonction d'un mélangede considérations nationales et locales n'ayant pas toujours un rapport avecle noyau dur des disciplines enseignées dans cette université. Ces exceptions permettent de nuancer l'assertion selon laquelle l'origine desenseignements en sic est à rechercher dans lesétablissements dédiés plus particulièrement aux lettres. Si l'on s'intéressemaintenant à la recherche, qu'observe -t-on (Meyriat, Miège, 2002; Tétu ,2002) ? Les cinq premiers dea (Bordeaux 3, Grenoble3, Nice, Paris 4 et École des hautes études en sciences sociales – ehess) apparaissent dans des universités delettres, voire dans des composantes littéraires, à l'exception de l'und'entre eux, créé à l ' ehess au sein de laquelle lalittérature est peu représentée, mais qui héberge un laboratoire« historique » en communication – le Centre d'études des communications demasse (cecmas), fondé en 1960 – ainsi que sarevue, Communication, dont le rôle est connu dans laconstruction cognitive d'une partie du champ de la communication. Mais laprésence de cette structure n'a que peu d'incidence sur l'organisation et lefonctionnement du dea. Au seuil des années 80, lepaysage des équipes de recherche en communication est relativement« pauvre » (voir encadré). Centres de recherche eninformation-communication (1980) Équipes universitaires, cnrs, ehess Centred'études et de recherches sur le changement social (cercsor), Montpellier 3, 1980 Centre d'étudestransdisciplinaires, sociologie, anthropologie, politique (cetsap), ehess, 1979 ,précédemment Centre d'études transdisciplinaires sociologie, anthropologie ,sémiologie (cetsas), lui -même issu en 1974 duCentre d'études des communications de masse (cecmas) créé en 1960 Centre de documentation et de recherchede l'Institut français de presse, Paris 2, 1969 Centre de recherche ducelsa, Paris 4, 1979 Centre de recherchesrétrospectives de Marseille (ccrm), Aix-Marseille3, 1978 Centre de recherches sur la théorie, l'histoire et lapédagogie du cinéma et de l'audiovisuel, Paris 3, 1980 Cinéma etHistoire, ehess, 1980 Équipe de recherches etd'études en sciences sociales (edress) ,Aix-Marseille 1, 1973 Groupe communication et travail, Paris 13, 1975Groupe d'études et de recherches sur la science (gersulp), Strasbourg 3, 1972 Groupe de recherche sur lesenjeux de la communication (gresec), Grenoble 3 ,1977 Institut de recherche en pédagogie de l'économie et enaudiovisuel pour la communication dans les sciences sociales (irpeacs), cnrs, 1975 Intervention du cinéma dans la recherche en sciences humaines, Paris 8, 1979Laboratoire associé des sciences de l'information et de lacommunication (lasic), Bordeaux 3, Unité associéeau cnrs, 1969 Laboratoire de psychologiesociale des communications, Strasbourg 3, 1966 Organismespublics Bibliothèque publique internationale (bpi) Georges Pompidou, Service des études et de larecherche, 1980 Direction générale des télécommunications (dgt), Service de la prospective et des étudeséconomiques (spes), 1980 Institut nationald'éducation populaire (inep), Département desétudes et de la recherche, 1974 Institut national de l'audiovisuel (ina), Direction de la recherche prospective ,1975 Institut national de recherche pédagogique (inrp), Groupe de recherche sur les applications éducatives de latélématique, 1979 Associations Association pour le développement des nouvelles technologies (adnt), Paris, 1978 Centre de l'image et de larecherche audiovisuelle (cira), Paris, 1976 Centre de recherche sur la culture technique (crct), Paris, 1977 Institut de l'audiovisuel et destélécommunications en Europe (idate), Montpellier ,1977 Cet inventaire concerne davantage le champ des études et recherches eninformation-communication quecelui des sic stricto sensu ,même si l'on voit ce dernier se dessiner à partir de lieux « historiques »( Bordeaux 3, Paris 2 et Paris 4, Strasbourg, ehess. ..) ou plus récents et dynamiques (Grenoble 3). Beaucoupd'équipes ont une très petite taille et une activité réduite. Leurs« manières de faire » se calquent assez fortement sur l'ordinaire de larecherche en shs de l'époque (voir infra), ce qui revient à dire que leurs modesd'organisation et de fonctionnement et leurs façons de « faire science »sont éloignés de ceux des actuels laboratoires de shs. Vingt-trois équipes (dont quinze dans l'enseignement supérieur et sapériphérie immédiate) sont recensées en 1980, la plupart étant apparuesentre 1978 et 1980. Les lettres, au sens défini supra et a fortiori lalittérature sont très peu ou pas concernées par les associations et lesorganismes publics (à l'exception de la bpi). Surles quinze équipes « enseignement supérieur et cnrs », sept relèvent d'un établissement où les lettres sont fortementprésentes : équipes de Paris 3, Paris 4, Paris 8, Bordeaux 3, Grenoble 3 ,Aix-Marseille 1 et Montpellier 3. .. ce qui ne signifie pas que toutes sonthébergées par des uer littéraires ou venant des'émanciper récemment d'elles (edress –Aix-Marseille 1 – et cercsor – Montpellier 3 – sonten sociologie). Il s'agit ici d'examiner la situation statutaire des enseignants au regard dedeux critères susceptibles d' être croisés. Le premier de ces critères est lerattachement à la section par excellence « littéraire » du Comitéconsultatif des universités (ccu), la 12 e (« Langue et littérature françaises »), elle -mêmedivisée en quatre sous-sections : 1 « Grammaire et philologie française ,techniques d'expression », 2 « Langue et littérature française du Moyen-âgeà la Renaissance », 3 « Langue et littérature françaises moderne etcontemporaine », 4 « Littérature comparée ». Le second critère est laformation littéraire attestée par l'obtention d'une thèse en littératureet/ou la réussite au concours de l'agrégation de lettres modernes ouclassiques. Nous analyserons tour à tour les cas des « fondateurs », despremiers universitaires ayant opté pour les sic en1975, et enfin des inscrits sur la liste d'aptitude aux fonctions demaître-assistant (lafma) entre 1976 et 1979. En apparence, les deux fondateurs « officiels » des sic – ceux qui ont joué un rôle avéré de « cheville ouvrière »au sein du Comité éponyme – ont un rapport étroit avec la littérature .Robert Escarpit est Professeur de littérature comparée à l'UniversitéBordeaux 3 et Jean-Meyriat, ancien élève de l' École normale supérieure ,agrégé de Lettres classiques, est d'abord professeur de français auLycée français de Madrid (Couzinet, 2001 : 21-23). Seulement, latrajectoire de chacun est franchement sinusoïdale et d'ailleursouvertement revendiquée comme telle. Après une licence d'anglais, Robert Escarpit entre à l ' ens en grec, puis il passe l'agrégationd'anglais et devient professeur, spécialiste de Byron, à la faculté desLettres de Bordeaux, avant de bifurquer sur une chaire de littératurecomparée dans le même établissement. Mais c'est un littéraire qui, dèsl'après-guerre, se pose beaucoup de questions : « Cette idée m'ahantée : où est la littérature [. .. ]. La littérarité se situe dans lalecture, dans la manière de lire, dans la manière de recevoir le messageécrit » (sfsic, 1994 : 2). Et c'est cetintérêt pour le lecteur, la lecture et la communication par l'écrit ,auquel s'ajoutera plus tard celui tant théorique que pratique pour lesmédias (il sera pendant de longues années billettiste au quotidien Le Monde) qui le fera dériver, puis basculer dansle champ de l'information-communication dont il découvre quelquesauteurs importants fin des années 50, début des années 60. Pour sa part, Jean Meyriat se passionne très vite pour l'histoire( Couzinet, 2001) : il soutient en 1945, à la 4 e section de l' École pratique des hautes études (ephe), un mémoire de recherche intitulé Lerôle des impératrices romaines des deux premiers siècles dans la vie publique. Puis il s'intéresseà la science politique qu'il enseigne dès 1946 à iep. .. avant de développer une double activité difficilementenvisageable aujourd'hui : la direction du Centre de documentation de laFondation nationale des sciences politiques (1948-1990) et laco-direction, puis la direction, du Centre d'études des relationsinternationales (ceri), premier laboratoire dela Fondation (1952-1956). C'est en fait essentiellement dans cesactivités qu'il rencontre l'information et la documentation, à l'étudeet à l'organisation académique etprofessionnelle desquelles il va peu à peu se consacrer pleinement, tantsur le plan national qu'international. En 1962, il est nommé directeurd'études en « Méthodologie de l'information scientifique » à la 6 e section de l ' ephe (ilrestera à l ' ehess, qui la remplace en 1975 ,jusqu'en 1990). Les deux principaux fondateurs sont donc bien issus des Lettres, voirede la littérature, à l'intérieur desquelles ils ont effectué un parcoursplus ou moins significatif. .. mais ils en sont rapidement sortis enraison de leurs préoccupations dominantes, et, pour Robert Escarpit, dupeu d'écho que rencontraient ses nouveaux centres d'intérêt auprès deses collègues de la 12 e section. Deux arrêtés en date du 20 janvier 1975, publiés au Journal officiel du 23 janvier, occupent une place importantedans l'histoire des sic. Le premier, véritableacte de naissance des sic, modifie ladéfinition et la composition des sections non médicales du ccu. La nouvelle 52 e section, « Sciences de l'information et de la communication », comprenddeux professeurs et deux maîtres de conférences élus, deux professeursou maîtres de conférences nommés et deux maîtres-assistants élus. Lesecond établit les conditions de l'élection des membres des sections nonmédicales du ccu. Son article 5 précise : « Lesélecteurs peuvent demander leur inscription dans l'une des sections ousous-sections dont la liste figure en annexe 2 du présent arrêté » .Cette annexe dresse la liste des sections et sous-sections nouvellesdans lesquelles les électeurs peuvent demander leur rattachement, parmilesquelles figure la 52 e. L'article 6 indique quetout enseignant qui désire utiliser l'opportunité offerte doit renvoyerau secrétariat d' État aux Universités une fiche dont le modèle est enannexe 3. Entre autres informations, cette fiche demande de préciserl'actuelle discipline d'enseignement et la spécialité dans laquelle lesrecherches sont réalisées, puis la section dans laquelle l'inscriptionest sollicitée, ainsi que les motifs. Il est par ailleurs clairementindiqué que, sauf exception, la demande ne pourra être suivie d'effetsque si elle a un rapport avec les activités d'enseignement ou derecherche (le Président de l'université doit en outre donner sonavis). Un arrêté du 26 février 1975 radie de leurs anciennes sections etsous-sections dix-neuf universitaires qui se retrouvent donc inscrits, àleur demande, en 52 e section, dans le 1 er ou le 2 e collège (voir encadré). Parmi les 19 premiers enseignants en sic, huitsont à Bordeaux 3, fief de Robert Escarpit, cinq à Paris 7, trois à Lyon2, les trois autres se répartissant entre Paris 3, Paris 5 et l ' ephe. On relèvera que seuls quatre viennent dela 12 e section du ccu :Robert Escarpit et Michel Sanouillet– seul « vrai » littéraire du 1 er collège – pourles professeurs et assimilés, Pierre-François Christin (qui commence àse faire connaître comme scénariste de bande dessinée) etMarie-Jeanne Lemainque pour lesmaîtres-assistants. Cinq sont issus de la physique ou de la chimie (ilssont tous à Paris 7). Christian Metz, venu de la linguistique, estcependant inscrit en 1971 sur la Liste d'aptitude à l'enseignementsupérieur (laes) de langue et littératurefrançaise. La plupart des littéraires qui auraient pu rejoindre lasection en raison de leurs enseignements, de leurs travaux ou de leursactivités de direction de thèses dans le champ del'information-communication sont restés dans leur section d'origine. Onremarquera enfin que certains qui ont rejoint la 52 e ne tarderont pas à la quitter pour revenir dans leur sectiond'origine : Anne-Marie Laulan (sociologie), Bernard Quemada( linguistique), Jean Hassenforder (sciences de l'éducation). Il aurait été préférable d'analyser les nominations des premiersmaîtres-assistants en 52 e section. Malheureusement ,nous n'avons pas pu nous procurer ces informations auprès du ministère ,et ce malgré des demandes réitérées. Nous avons donc été contraint denous « rabattre » sur les inscriptions sur la liste d'aptitude auxfonctions de maître-assistant (lafma) en 52e section entre 1976 (premières inscriptions en52 e section) et 1979 (dernière année d'existencedes lafma. .. et du ccu). Il nous semble que ce critère est pertinent, puisqu'il estévident que les inscrits ont au préalable déposé un dossier, ce qui peutêtre interprété comme une démarche « positive » vers les sic (et ce quelles que soient leurs raisons). Bienentendu, comme dans la procédure contemporaine, l'inscription n'est pasune nomination, mais elle donne la possibilité de concourir sur lespostes vacants publiés au Bulletin officiel del'éducation nationale, et qui seront ensuite pourvus par descommissions locales. Ce qui signifie que certains ne seront jamaiscandidats en 52 e (ou dans une autre section) et quedes inscrits, candidats au recrutement, ne seront jamais nommés en 52e, voire dans une autre section. Cela signifieaussi que les commissions locales ont pu recruter en 52 e section des candidats inscrits sur les listes d'autressections. La liste des inscrits (annexe 1) a été construite à partir du Journal officiel de la République française - Lois et Décrets (numéros complémentaires). Sauf erreur ouomission, elle est exhaustive. Afin de déterminer l'origine desinscrits, nous avons réalisé une enquête auprès de dix collègues qui ,soit figurent sur la liste, soit ont joué un rôle institutionnelimportant dans les sic. Nous leur avons adressécette liste, accompagnée des numéros et des intitulés des sections duccu, et leur avons demandé de mentionner lasection de soutenance de la thèse, ainsi que la réussite éventuelle auconcours d'agrégation de lettres classiques ou modernes. Puis, pourcompléter et vérifier les réponses, nous avons recoupé ces dernièresavec les informations fournies par : les notices du Système universitaire dedocumentation (sudoc) et de l'Agencebibliographique de l'enseignement supérieur; les informations fourniespar des documents biographiques (Who's who in France ,Annuaire des Sciences de l'information et de la communication (cscu, 1981), Annuaire deschercheurs en information-communication de la sfsic (1992, 1994, 1998), les listes desdirecteurs de thèse établies par Jean-François Tétu (1992, 2002), et parle Tableau de classement du personnel enseignanttitulaire, Lettres et sciences humaines ,71 e section du ministère de l' Éducation nationale (1996); lesentretiens (mel ou téléphone) avec des inscrits et des collègues qui ontconnu certains d'entre eux. Restait une question, et non des moindres, à résoudre : les docteursinscrits en « littérature française », « littérature comparée » ,« études françaises » [. ..] ont-ils soutenu une thèse véritablement« littéraire » ? Incongrue dans l'Université contemporaine en raison deses modes de fonctionnement (sections mieux délimitées, rattachement desdoctorants à des écoles doctorales, existence d'équipes labelliséessouvent disciplinaires. ..), cette interrogation est pertinente pour lesannées 70 (voire 80) dans la mesure où le doctorant s'inscrivait souventen thèse dans la section de son directeur. Or, jusqu'en 1975, aucundirecteur n'est par définition en sic, mais uncertain nombre d'enseignants de la 12 e section derang A acceptent de diriger des thèses sur des thématiques « info-com » ,et cette pratique perdure pour partie après 1975. Il nous a semblé utile( annexe 1) de classer les thèses par disciplines en fonction de laspécialité officielle du directeur au moment de la soutenance et de sereporter aux notices toutes les fois où le directeur n'a pu êtreidentifié. Letableau est complété par la liste indicative des thèses soutenues parles inscrits (annexe 2) mentionnant le titre de la thèse, l'année et lelieu de la soutenance, le nom du (des) directeur(s) ainsi que sa (leur )spécialité. On peut ainsi repérer et classer les thématiques des thèses .Alors quels résultats par rapport à la question de départ ? Compte tenude la relative imprécision de la technique utilisée (voir note 15), lesstatistiques ci-après doivent être lues non comme des résultats précis ,mais comme exprimant des tendances générales. Sur les 83 inscrits sur la lafma de la 52 e section entre 1976 et 1979, 82 (soit 98,8 %) ontété identifiés de façon certaine. 42 (noms et prénoms en italiques dansl'annexe 1) seront recrutés en sic (soit 51,2 %des identifiés), 4 (inscrits au titre des grandsétablissements) n'ont rien à voir ni avec les sic ni avec le champ plus large des études eninformation-communication, 4 n'ont sans doute pas soutenu de thèse( donc 77 % sont docteurs) et 8 n'ont pas fait carrière dansl'enseignement supérieur. 27 (33,3 %) tantôt ont bifurqué définitivementvers d'autres sections ou champs de recherche, tantôt ont croisérégulièrement ou épisodiquement ceux des sic (Jacques Aumont, Jean-Marie Floch, Geneviève Jacquinot, MichelMarie. ..). 13 ont soutenu leur thèse à Bordeaux, pôle alors très actif .Les « Bordelais » sont en fait quatorze si l'on ajoute Hubert Fondin quia soutenu une thèse sous la direction de Jean Meyriat (alors chargé decours à Bordeaux 3), tout en étant assistant à Bordeaux. On peut y voirun « effet Robert Escarpit », bien que ce dernier n'ait pas dirigé lamajorité des thèses, contrairement à une « légende » tenace (André-JeanTudesq en a fait soutenir davantage). Les 77 docteurs de l'annexe 1 serépartissent de la façon suivante : littérature : 16( 20,7 %) sciences dulangage et du discours (sld) : 11 (14,2 % )sic : 6 sic seules + 4 histoire (sic) + 4 littérature (sic) + 1 sciences de l'éducation – sic (Moeglin) soit : 15 (19,4 %) esthétique-cinéma : 9 (11,6 %) sociologie : 8 (10,3 %) psychologie : 6 (7,8 %), mais seulement 3 (3,9 %) si l'on classe lesthèses de Jean Hassenforder, Geneviève Jacquinot et Michèle Gabay ensciences de l'éducation sciences économiques : 2 (2,6 %) philosophie : 2 (2,6 %) anthropologie : 2 (2,6 %) autres : 6( 7,8 %) dont droit (1), linguistique-psychologie (1) ,géographie-cartographie (1), sciences politiques (1), sciences dulangage-ethnologie (1) et anglais (1). On relève immédiatement que la littérature ne domine pas véritablement( 20,7 % contre 14,2 % pour les sciences du langage et du discours et11,6 % pour esthétique-cinéma), même si l'on ajoute aux 16 docteursrecensés les 4 inscrits à l'origine en littérature mais qui ont soutenuen SIC (25,6 %). Si l'on prend en compte les sujets des thèses (annexe2), on constate que le poids de la littérature est encore plus faible .Si l'on s'en tient aux données de l'annexe 1, on observe surtout unedispersion entre un nombre important de disciplines (15), bien que 4d'entre elles (littérature, sciences du langage et du discours ,esthétique-cinéma et sociologie) concentrent 56,8 % des docteurs. Onnotera enfin que les docteurs en sic stricto sensu sont encore peu nombreux, ce quiest logique compte tenu de la jeunesse de la discipline. Les thèmes (en fonction des titres) des 71thèses recensées en annexe 2 se ventilent ainsi : audiovisuel (y compris radio), écriture audiovisuelle : 22 livre ,BD, manuels, bibliothèques, lecture, auteurs : 8 presse écrite : 6publicité : 3 photographie : 2 spectacle vivant : 3peinture et musique : 1 économie de la culture : 2 communication en entreprise : 3 bilinguisme : 2 argumentation : 1 corps et communication : 1 documentation :5 thème littéraire : 3 autres : 9 (dont 4 très marginalespar rapport aux sic) Une fois encore, la dispersion est grande, même si les trois premiersthèmes rassemblent 51,4 % des thèses (dont 31,4 % pour le seulaudiovisuel, il est vrai défini lato sensu). Avec3 thèses, la littérature n'occupe qu'une place résiduelle : ce constatrejoint celui de Jean-François Tétu (1992) à propos des thèse soutenuesentre 1982 et 1991. Bien entendu, il faudrait compléter cette étude en s'intéressant à ceuxqui, via les recrutements locaux, rejoignent lessic dans la même période, voire jusqu'aumilieu des années 80, alors qu'ils sont inscrits dans une autre section .En s'en tenant aux seuls inscrits sur les listes, on y trouverait : des littéraires, souventtitulaires d'une agrégation de lettres – Gérard Losfeld (laes grec, 1974), Nicole Boulestreau (lafma 12 e, 1974), RogerViry-Babel, Yves Lavoinne et Jean-François Tétu (lafma 12 e, 1975), Daniel Bougnoux (lafma 12 e, 1977), Noël Nel( lafma 12 e, 1979). .. ;mais aussi des non-littéraires, sans doute plus nombreux – MichelleCluzeau-Ciry (lafma histoire, 1973), LouisPorcher et Alex Mucchielli (lafma sociologie ,1974), Alain Labruffe (lafma psychologie ,1974), Nadine Toussaint (lafma économie ,1974), Jean-Pierre Courtial (laes psychologie ,1977), Roger Odin (laes linguistique, 1977) ,Bernard Lamizet et Jean Mouchon (lafma linguistique, 1977), Anne-Marie Guimier-Sorbets (lafma archéologie, 1977), Elizabeth Fichez (lafma linguistique), 1979, Geneviève Cornu (lafma linguistique et sciences de l'art ,1979), Jean Caune (lafma sciences de l'art ,1979). .. Il faut donc convenir que la littérature n'est pas le cœur de cible despréoccupations de la majorité des inscrits sur la lafma 52 e section, mais aussi de lamajorité des docteurs en littérature inscrits sur cette liste. Lescauses sont multiples et leur explicitation mériterait une recherchecomplémentaire : insuffisance des créations de poste en littérature auregard de la taille du vivier (bien que la période 1969-1974 soitpropice à l'ouverture de tels postes, notamment en techniquesd'expression), espoir de créations plus importantes de postes demaîtres-assistants dans une discipline nouvelle, intérêt pour des objetsinformationnels et communicationnels. .. Finalement, au regard descritères statutaires examinés dans ce paragraphe, il apparaît nettementque l'origine littéraire des sic fait partie deces idées reçues et transmises (en tout cas par une partie du champ) quiont la vie d'autant plus dure que leur cristallisation sociale n'estjamais démontrée. Si l'on prend pour critère les études littéraires, l'influence de lalittérature semble a priori plus évidente, en toutcas sur une partie du champ des sic, celle quitravaille de façon privilégiée sur les rapports auteur/texte/ récepteur. Ausens étroit, l'expression « études littéraires » désigne les travauxuniversitaires qui ont pour objet la construction d'un savoir savant sur lalittérature. Entre la fin du xix e siècle et le début des années 60, elles sont dominées en Francepar l'histoire littéraire, définie par Gustave Lanson comme la nécessité des'appuyer d'une part, sur une méthode historique afin de réinsérer lesœuvres dans leur contexte de production, d'autre part, sur des approchescroisées (lexicographie, critique des textes, étude des manuscrits. .. )visant à faire émerger la singularité des textes, ce qui revient à accorderau texte la place centrale. L'histoire littéraire s'inscrit donc dans la« Critique littéraire » léguée entre autres par la philologie. Or, dans lesannées 60-70 émerge un courant relativement hétéroclite, la « Nouvellecritique », qui rassemble des propositions de renouvellement de l'analyselittéraire à partir de ressources tirées d'autres disciplines :linguistique, sémiologie, sociologie du livre, sociologie de la littérature ,esthétique, psychanalyse. .. S'ouvre alors une querelle marquée par quelquesmoments forts dont on a sans doute exagéré, sur le moment, l'importance etla radicalité de l'opposition : polémique suscitée par l'essai de RolandBarthes Sur Racine (1963), Colloque de Cerisy, Les tendances actuellesde la critique, dirigé par Georges Poulet (1967). .. Outre deschangements significatifs dans les institutions sociales universitaires etscolaires (ce qui n'est pas rien..), les enjeux se situent autour de lapertinence de nouveaux systèmes d'interprétation donnant à la réception unrôle important. Ce débat a incontestablement joué un rôle dans les productions et les débatsthéoriques et méthodologiques des sic, tant dansl'énoncé de questions vives qu'au niveau des réponses apportées. Mais c'estun rôle difficile à cerner, et de toutes façons, un rôle à resituer dans uncontexte où il n'est guère question, pour les intéressés, de s'inscrire dansle champ de la littérature. Trois thématiques seront ici évoquées, quise recoupent rarement, en tout cas jusqu'aux années 90. La première est lelien entre la littérature et le document en passant par le livre : quelquesfondateurs ou premiers compagnons de route des sic ont été directement ou indirectement parties prenantes au débat rappelé supra. Roland Barthes bien sûr, mais aussi RobertEscarpit et sa « sociologie du fait littéraire », conçue commel'étude de la « communication » complexe entre deux démarches productives ,l'écriture et la lecture, puis ses travaux sur l'écrit et le document. Mais ,il faut aussitôt ajouter qu'il est fortement influencé par la cybernétique :l'entropie affecte autant l'écriture que la lecture, ce qui donne à ces deuxactivités une dimension informationnelle incontestable. À certains égards ,le texte écrit est de l'information codée et, en ce sens, il a aussi unefonction documentaire. Jacques Breton (bibliologie), Nicole Robine (livre ,bibliothèques), François Richaudeau (lisibilité, acte decréation littéraire, lecture), Robert Estivals (bibliographie etbibliologie), mais aussi Henri Marquier (sa thèse – au titre peu littéraire ,voir annexe 2 – est citée deux fois par Robert Escarpit dans L'écrit et la communication, 1973) sont plus ou moinsfortement marqués par ces analyses. Ce sont en fait des chercheurstravaillant sur le document qui, dès les années 80, prolongeront certains deces travaux, mais à travers des orientations particulières issues ducroisement avec d'autres approches et d'autres auteurs (voir par exemple lestravaux de la Société de bibliologie et schématisation, les recherches deFrançois Richaudeau – ou les articles de Jean Meyriat – 1978, 1981, 1985 –cités dans la bibliographie de cette contribution). La seconde thématique concerne les rapports entre culture (au double sensd'ensemble de manières de penser et de vivre d'un groupe social ou d'unesociété, et d'institutions) et société, tels qu'ils sont développés enAngleterre par l'école de Birmingham et les Cultural studies. Ces travaux revendiquentune filiation critique avec les études littéraires anglaises (English studies), mais aussifrançaises (Jean-Paul Sartre, Lucien Goldman, Roland Barthes, JuliaKristeva) ou avec des « littéraires » étrangers fréquemment cités par deschercheurs français (Mikhaïl Bakhtine, Umberto Eco. ..). Ils soulignent àleur tour l'importance du récepteur et des contextes de réception etd'émission dans la construction de la signification des messages (Mattelart ,Neveu, 2003). D'une certaine façon, c'est donc le modèle littérairetexte/lecteur qui est convoqué, mais un modèle dans lequel le texte n'estplus seulement littéraire et où les contextes de production et de réceptionoccupent une place centrale. Dans la mesure où elles n'atteignent quetardivement la France (en dehors de l'ouvrage de Richard Hoggart, La culture du pauvre – 1957 – traduit par Jean-ClaudePasseron en 1970), ces recherches sont rarement citées et encore moinsutilisées par les chercheurs de notre corpus. Dernière thématique, le rôle de la langue et des signes dans les texteslittéraires et au-delà dans tous les textes ou discours, spécialisés ouordinaires, puis de tous les signes (sonores, iconiques, gestuels. ..) et desobjets, eux aussi susceptibles d' être signifiants et donc analyseurspertinents pour comprendre le social. Ces orientations sont plutôt cellesd'une partie de la deuxième génération de chercheurs, celle qui rejoint lessic fin des années 70-début des années 80 :voir par exemple, lors du 1 er Congrès de la sfsic (Compiègne, 1978), les communications deHenry-Paul Doray et François Poulle, Yves Lavoinne, Jacques Bertin ,Geneviève Dollé, Michel Mouillot, Pierre Delcambre et Élisabeth Fichez ,Eliseo Veron, Marie-Claude Vettraino-Soulard. Les thèses de Roger Bautier ,Michel Collin, Pierre Delcambre, Geneviève Dollé, Jean-Marie Floch, HuguesHotier, André Labarrère, Michel Marié, François Poulle et Jean Roy (annexe2) sont également représentatives de cette orientation. Cependant, c'est quand elles sortent franchement du champ littéraire stricto sensu pour aller vers le fait « médiatique » ,ou plus simplement de « communication », que ces études intéressent le plusles chercheurs en sic. D'autant qu'elles setransforment rapidement à partir des années 80 et 90, avec l'arrivée enforce des théories de l'énonciation, de la pragmatique et de l'analyse dudiscours (Amossy, Maingueneau, 2004) et sont mises parfois en perspective avecdes travaux extérieurs aux sciences du langage entrepris sur les genres( télévisés, par exemple), la médiation, les dispositifs, les rapportspublics/discours. .. On trouvera dans la livraison d ' Hermès, « Les sciences de l'information et de la communication .Savoirs et pouvoirs » (Jeanneret, Ollivier, 2004), plusieurs articles desynthèse (notamment ceux de Guy Lochard, Guillaume Soulez et Jean-JacquesBoutaud) ainsi qu'une abondante bibliographie relatifs au rapport sic /sciences du langage et du discours. Mais alors ,on est loin des œuvres littéraires, de leurs auteurs et de leurs lecteurs.. .même si l'on est bien obligé d'admettre qu'ils valaient bien le détour. Enfin, on peut qualifier de « littéraires » des pratiques de recherche quel'on rencontre souvent dans les années 60-70 chez les universitairesenseignant la littérature et qui semblent, dans certains cas, se prolongerjusqu' à l'époque contemporaine : préférence pour le travail de rechercheindividuel, quand ce n'est pas négation du travail collectif, méfiancevis-à-vis des laboratoires de recherche, tendance à l'essayisme et/ou àl'érudition au détriment d'approches empirico-théoriques s'ancrant dans lesshs et réticence pour débattre des pratiquesscientifiques. Autant de caractéristiques sans doute très présentes dans lessic jusqu' à la fin des années 80. .. mais qui secombinent à des habitus scientifiques issus d'autresdisciplines (Boure, 1997), ce qui contribue à accentuer l'image « mosaïque »des sic. Cette remarque en appelle deux autres, sans doute plus fondamentales. Lapremière relève d'une démarche historienne, la seconde découle d'une prisede position épistémologique et pratique. Dans les années 60-70, cespratiques que l'on attribue volontiers à la littérature sont aussi celles dela philosophie, des langues étrangères et du droit. Mieux encore, elles sontlargement répandues dans les shs, y compris chezcelles qui revendiquent aujourd'hui haut et fort les attributs cognitifs etsociaux de la scientificité, parfois par référence à des standardsinternationaux. Il faut en effet attendre les années 80 pour que les shs françaises, à quelques exceptions près ,prennent les dimensions cognitives (et en particulier théorico-empiriques )et sociales (laboratoires, programmes de recherche, réseaux d'équipes et dechercheurs. ..) que nous leur connaissons aujourd'hui (Kazancigil, Makinson ,2001; Boure, 2007). Il faut oser s'ériger en arbitre desélégances scientifiques, ou, plus prosaïquement, considérer que le modèledominant à un moment donné est le modèle quasi-unique, pour nier l'existenceet l'intérêt, dans chaque shs, de pratiquesscientifiques plurielles, et, au-delà, du pluralisme théorique etméthodologique. Profitant sans vergogne de la tribune qui lui est offerte et contre destentations hégémoniques toujours présentes, l'auteur de ces lignes appelle à lareconnaissance d'un exercice pluriel des sic. Il yappelle d'autant plus volontiers qu'il apparaît des développements précédentsque l'origine des sic est incontestablement plurielleet que c'est en partie cette diversité qui rend possibles des mises enperspective que d'autres disciplines répugnent à faire( émission/texte/réception, pratiques/discours/dispositifs, signes/objets/médiations. ..). Mais la pluralité que nous revendiquons ne se nourrit pasdes juxtapositions, superpositions et autres compromis pratiques etscientifiques mal négociés, souvent liés à des cohabitations vécues commeforcées. Elle n'est pas davantage syncrétisme ou mise en équivalence desmanières de penser et de faire. Nous souhaitons seulement que se développe uneculture du débat, seule à même de prémunir contre l'excès de normalisation parle haut et contre son double inversé, la permissivité sans autre borne que celleque l'on se donne à soi -même. .. quitte à la refuser aux autres. Car c'esttoujours à travers le débat que s'affirment et s'affinent les positionscognitives et sociales de chacun et que se construit cette connivencescientifique évoquée par Judith Schlanger (1992) à partir de laquelle onparvient à s'entendre sur des critères provisoires et « discutables » car dignesd' être débattus. C'est aussi grâce à lui que l'on regarde davantage du côté desfrontières, là où commencent les territoires des « autres » et où maraudentquelques braconniers du savoir davantage consternés que concernés par le« disciplinairement correct ». Ceplaidoyer, que d'aucuns trouveront fort peu « historien », servira de conclusionà une chronique qui aurait pu s'intituler « défense et illustration d'unehistoire des sciences humaines et sociales appliquée aux SIC ». Et c'est sansdoute très bien ainsi.. .
À quoi peut donc bien servir l'histoire des sciences de l'information et de la communication (sic) ? C'est à cette question que cette chronique tente de répondre à travers deux chapitres publiés dans deux livraisons de Questions de communication. Le premier était consacré aux histoires disciplinaires, spontanées ou officielles. Ici, il s'agira, à partir de critères sociaux et intellectuels, de se pencher sur une interrogation toujours présente: les sic ont-elles une origine littéraire ?
sciencesInfo_10-0227887_tei_1103.xml
termith-485-communication
Le document numérique soulève de nombreuses questions tant sur sa préservation à long terme que sur les nouvelles conditions d'utilisation qu'il rend possibles. La documentation technique offre un panorama particulièrement riche, tant par la variété des contenus qu'elle met en œuvre que par ses contraintes de cohérence et de mise à jour. C'est donc un domaine d'application intéressant à étudier pour identifier les difficultés et développer les modèles qui permettront de les résoudre. Nous développerons dans la première partie la problématique de la documentation technique numérique de produits industriels dits complexes en utilisant notamment les résultats d'enquêtes-terrain que nous avons menées. Nous nous pencherons plus particulièrement sur les processus de mise à jour particulièrement importants dans la documentation de systèmes techniques. Nous présenterons dans la deuxième partie les principaux fondements d'un cadre théorique qui s'appuie sur des travaux d'autres chercheurs et que nous avons complétés à partir d'une approche du document lui -même comme un objet technique. Nous proposons dans la troisième partie un modèle UML d'un référentiel numérique de données et de documents techniques qui intègre en les distinguant les réponses à apporter pour, d'une part, la préservation à long terme des contenus et, d'autre part, leur capture, leur traitement et leur valorisation dans les conditions opérationnelles. Nous discutons enfin quelques perspectives ouvertes par ce cadre théorique et ce modèle pour mieux tirer parti des technologies numériques. Un système technique est ici vu comme un assemblage d'objets techniques et la documentation technique est définie comme l'ensemble des données et documents qui spécifient le produit et décrivent les processus associés depuis la conception jusqu'au démantèlement en passant par les étapes de fabrication et d'exploitation/maintenance, c'est-à-dire tout au long du cycle de vie du produit. Nous considérerons, comme l'illustre la figure 1, le système industriel comme composé du système technique, du système documentaire et du système humain, c'est-à-dire de l'ensemble des communautés impliquées dans le système industriel. Notre interrogation porte sur l'impact du numérique sur les relations entre le système documentaire et respectivement le système technique et le système humain. La documentation technique est caractérisée par une grande variété de contenus (textuels, graphiques) et de formats (<A4 jusqu' à >A0, monofolio ou jusqu' à plusieurs centaines de folios dans le cas de schémas électriques par exemple). Cette variété est encore plus étendue avec les nouvelles possibilités numériques de CAO 3D et les applications multimédia. La documentation technique est aussi caractérisée par son volume important; il est, dans le cas d'une centrale nucléaire, de l'ordre de plusieurs dizaines de milliers de références, représentant l'équivalent de plusieurs centaines de milliers de pages au format A4. Aujourd'hui la documentation technique résulte donc de l'assemblage aussi automatisé que possible de données et de documents édités à l'aide de différents outils logiciels. La formalisation et la normalisation des contenus accélèrent les processus d'assemblage et d'édition au point qu'il est concevable de réaliser un assemblage de tout ou partie de la documentation à chaque création ou modification d'une unité élémentaire qui entre dans sa composition. La publication des documents et des dossiers suit néanmoins des étapes qui scandent un projet et marquent des échéances contractuelles : dossier de fabrication, dossier d'exploitation/maintenance, dossier de modification, … L'utilisation généralisée des outils informatiques dans l'industrie pour éditer des documents ne conduit pas toujours à l'échange de documents entre organisations qui soient aussi riches de potentialités d'utilisation que l'on pourrait naïvement penser. Les livraisons de documentation d'une ingénierie à un exploitant d'usines, même quand elles mettent en œuvre des technologies de pointe, par exemple dans le secteur nucléaire (Mun et al., 2006), se font encore très souvent sous forme papier, parfois à la demande même de l'exploitant. Une étude du NIST 1 (Gallagher et al., 2004) estime pour l'année 2002, de façon conservative, à 15,8 milliards de dollars, les surcoûts liés à des défauts d'interopérabilité dont les deux tiers sont supportés par les propriétaires-exploitants des installations industrielles aux États-unis. L'interopérabilité est un concept qui peut recouvrir des éléments de niveaux très différents. Nous la définirons comme la propriété qui fait que deux systèmes peuvent communiquer et opérer ensemble. Dans le domaine des données et des documents, c'est le fait que, bien qu'édités dans des systèmes différents, ils constituent un ensemble cohérent et qu'ils peuvent être réutilisés en minimisant les interventions manuelles. L'étude du NIST déjà citée (Gallagher et al., 2004) propose une définition de l'interopérabilité : « Interoperability is defined as the ability to manage and communicate electronic product and project data between collaborating firms ' and within individual companies ' design, construction, maintenance, and business process systems. » Il s'agit d'un enjeu de première importance sur le plan industriel. Le format PDF 2 est considéré par des auteurs pourtant avertis, tels que (Schilli et al., 2006), comme un standard de livraison de documents électroniques. Cette façon de voir maintient une frontière entre les données dites structurées et les documents réputés non structurés. Elle est aussi justifiée si l'on considère que la forme PDF marque la différence entre des fragments de données qui peuvent avoir un statut de maturité variable et l'assemblage publié après vérification et validation par l'organisme responsable de son contenu. Mais cette différence pourrait être marquée de façon différente et cette pratique reste attachée aux conditions d'utilisation du support papier avec ses avantages, comme le respect de la présentation, et ses inconvénients comme les difficultés de mise à jour et l'interopérabilité limitée. Certains secteurs industriels, comme ceux de la défense et de l'aéronautique, ont développé la standardisation et les outils de documentation dite structurée pour des enjeux de pérennité, de réutilisabilité et de facilité de mise à jour. Par exemple, la spécification internationale S1000D (2005) définit le processus de livraison de publications techniques. Elle fait appel au concept de modules qui sont structurés selon des types exprimés dans des DTD 3. Les DTD décrivent la structure logique de chaque type de document métier et identifient notamment des données que les schémas XML 4 permettent maintenant de typer. Des couplages sont donc possibles entre graphiques, textes structurés et bases de données techniques. La référence (Estève et al., 2000) expose ainsi un exemple de manuel technique interactif sous la forme de plusieurs fenêtres intégrées dans un navigateur et permettant une navigation graphique synchronisée dans les documents et données d'un système mécanique. De nombreux autres exemples s'appuyant sur les mêmes principes et mettant en œuvre des technologies 3D ont été réalisés depuis. Le secteur de l'informatique fait la promotion de la norme DITA (OASIS, 2005) inspirée par l'expérience d'IBM en qualité de documentation technique (Hargis et al., 2004), essentiellement pour les systèmes informatiques. Le secteur de la conception d'usines dans les domaines du pétrole, du gaz, de la chimie ou du nucléaire développe la norme ISO 15926 (Leal, 2005) pour faciliter l'échange et l'utilisation des informations pendant tout le cycle de vie de l'usine. Chacune de ces normes sectorielles (S1000D, DITA, ISO 15926 ou SAE J 2008 pour l'automobile) s'appuie de plus en plus sur les standards technologiques recommandés par le W3C, c'est-à-dire les standards de la famille XML (XML, RDF 5, Schémas XML, OWL 6). Elles sont conçues de façon à permettre de faire face à de nouveaux besoins par spécialisation de schémas plus généraux et extension de ces schémas. Par exemple l'industrie nucléaire au Japon, puis en Corée, s'est appuyée sur la norme ISO 15926 développée initialement pour les besoins de l'industrie pétrolière et étendue ensuite selon des principes figurant dans la norme pour prendre en compte des objets spécifiques des réacteurs nucléaires japonais à eau bouillante, puis des réacteurs nucléaires coréens à eau pressurisée (Mun et al., 2006). Ces standards permettent de constituer des bases de données qui peuvent être livrées à l'exploitant et qui peuvent être modifiées au cours de la vie du produit. Les modules à jour sont extraits de la base de données pour la réalisation automatique de publications électroniques à échéances périodiques. Entre deux publications, le mécanisme le plus employé est de diffuser un document spécifique tel que le mécanisme des bulletins services employé dans le secteur aéronautique. En synthèse de nos propres expériences et recherches en milieu technique et industriel nous retiendrons les principales caractéristiques suivantes : l'exigence de préservation à long terme des informations techniques quel que soit leur support, des besoins d'utilisation nouveaux dans le contexte de la documentation numérique. Le cycle de vie d'une usine nucléaire a par exemple une durée d'environ cinquante années depuis sa conception jusqu' à sa mise à l'arrêt, durée à laquelle il faut ajouter la durée du démantèlement. Des informations créées pendant la conception ou la construction et inutilisées pendant toute l'exploitation de l'ouvrage peuvent redevenir précieuses au moment du démantèlement quand il s'agit par exemple d'organiser les opérations en toute sécurité ou de justifier de la destination finale des déchets générés (Keraron et al., 1998). Les supports traditionnels papier ou microformes sont des solutions éprouvées qui peuvent rester économiquement intéressantes mais ils ne permettent pas de conserver les données numériques sous une forme aisément exploitable et l'on peut penser qu'ils seront jugés insuffisants au regard des nouveaux enjeux de gestion à long terme des activités industrielles. La mutation numérique offre au premier abord l'opportunité d'une plus grande autonomie par rapport aux exigences de conservation du fait des nouvelles possibilités de duplication et de transport à très faible coût. Elle pose cependant de nouveaux problèmes relatifs à la préservation des outils pour exploiter les données numériques. Le développement, relativement récent, de standards sur l'archivage numérique témoigne d'une prise de conscience sur ce thème. Certains de ces travaux naturellement orientés vers la pérennisation des données s'appuient aussi sur les standards technologiques développés dans l'industrie, tels que SGML, puis XML. Le modèle OAIS 7 (CCSDS, 2002) propose un modèle conceptuel du système d'archivage en faisant appel à des notions de paquets d'information regroupant les données et les informations d'interprétation de ces données. On trouvera une bonne introduction à ce modèle dans (Lupovici, 2006), notamment à la stratégie de pérennisation qui repose sur un modèle en couches de services. Le modèle OAIS, devenu la norme ISO14721 attire aussi l'attention sur la question de la communauté d'utilisateurs cible et de la base de connaissance de ces utilisateurs cible pour l'interprétation des archives, question essentielle et difficile pour la conception de tout système d'archivage. La Direction des Archives de France (Direction des Archives de France, 2006) a établi un standard d'échanges de données pour l'archivage qui s'appuie et complète le modèle OAIS en utilisant de façon plus détaillée le formalisme UML 8. Le standard utilise de plus XML, notamment dans les exemples qu'il donne de transfert de données. Au niveau international, le modèle OAIS semble faire l'objet d'un large consensus tant dans les administrations que dans l'industrie. Le rapport (Lubell et al., 2006) fait notamment le compte-rendu des initiatives des archives nationales américaines (ERA : Electronic Records Archives 9, et de la Library of Congress (NDIIPP : National Digital Information and Preservation Program 10). Le NIST est aussi à l'initiative d'ateliers aux États-unis et en Europe sur le thème de la rétention de connaissance à long terme (LTKR : Long Term Knowledge Retention). Dans ce fil, il convient de citer également le projet LOTAR, Long Term Archiving and Retrieval of Digital Technical Product Data in the aerospace industry pour l'archivage des données et des représentations 2D et 3D. LOTAR s'appuie d'une part sur OAIS et d'autre part sur le standard ouvert STEP 11. Nous avons mené des enquêtes de terrain sur l'utilisation, lors d'activités de maintenance, de la documentation électronique de l'avion de chasse polyvalent Rafale (Keraron et al., 2005) et (Keraron et al., 2006). Nous retiendrons ici quatre types de leçons : la consultation à l'écran n'est pas toujours très aisée et, pour des tâches complexes, les utilisateurs préfèrent se servir du support papier comme outil de consultation, d'appropriation et d'interaction. Par exemple, la détection de pannes sur des schémas électriques qui sont traditionnellement des documents foliotés, est difficile à l'écran même si certains dispositifs d'aide à la navigation d'un folio à l'autre sont présents. La difficulté tient en fait à la petite surface de l'écran et à la discontinuité d'affichage des folios qui ne supportent pas aussi bien que le support papier déployé dans l'espace d'un bureau, les processus d'analyse et de synthèse à l' œuvre lors d'une tâche complexe. Ces processus nécessitent de plus des possibilités d'interaction, par exemple les annotations, qui ne sont pas encore supportées efficacement par les outils logiciels disponibles dans le domaine de la maintenance industrielle. Le fait de « consommer », en bout de ligne, l'information sur un support papier n'enlève cependant rien à l'intérêt d'un référentiel numérique centralisé à partir duquel a lieu l'impression d'un document supposé le plus à jour possible. si la tâche est formalisable et réductible à un calcul, la technologie numérique permet de remplacer intégralement des processus papier très lourds. Ainsi les pilotes du Rafale qui avaient l'habitude de calculer leurs paramètres de vol à partir de données et leur traitement manuel sur des courbes papier, apprécient le confort des modules de calcul de performances intégrés à la documentation électronique et qui éliminent les calculs manuels traditionnels fastidieux. le choix d'éditer les contenus selon des standards présente de nombreux avantages, mais, sur le terrain, les utilisateurs ont en pratique à utiliser, en plus du système de documentation électronique, des documents de différentes sources qui ne sont pas compatibles et dont la pérennité n'est pas assurée même à moyen terme quand les documents sont par exemple édités sur des outils bureautiques de grande diffusion. un dernier point mérite d' être souligné : les systèmes électroniques modifient profondément le contenu des « métiers » des utilisateurs. Par exemple, les défaillances de certains composants sont enregistrées pendant le vol de l'avion et le traitement automatique des ces données se traduit par des « codes pannes » qui indiquent à l'opérateur l'unité à remplacer sans que l'opérateur n'ait à faire un raisonnement sur la cause de la panne. Il nous paraît important de retenir que le système technique lui -même crée et traite des données numériques qui peuvent être introduites dans le système d'exploitation de la documentation numérique et orienter automatiquement l'opérateur vers la tâche à réaliser. Par le numérique il y a possibilité d'intégration du système technique physique et du système documentaire, d' être en quelque sorte plus à l'écoute du système technique et de propager les données issues du système technique pour leur partage et leur valorisation. La mise à jour des données pendant la construction et l'exploitation d'une installation industrielle ont toujours été un problème. Un observateur extérieur serait surpris par les délais de mise à jour d'une documentation d'un équipement industriel et par les incohérences importantes qui existent dans les représentations de cet équipement. Ces délais se comptent au minimum en semaines, voire en mois et peuvent atteindre plusieurs années. À partir de la construction, il y a non seulement une cohérence entre les représentations à assurer mais aussi entre les représentations et les objets physiques qu'elles représentent. C'est ce que les industriels appellent la gestion de configuration. Les représentations telles que construit (as built) sont difficiles à obtenir et supposent en toute rigueur des moyens de contrôle et de vérification sur le terrain qui sont rarement mis en œuvre de façon complète. Que signifierait par ailleurs un contrôle exhaustif ? Est -ce un objectif raisonnable ? La complexité des systèmes rend de toutes les façons une telle vérification très longue et elle est faite au fur et à mesure de l'utilisation de la documentation décrivant l'équipement et les procédures de maintenance à appliquer. En supposant que ces représentations soient satisfaisantes à l'instant t0, elles doivent être mises à jour à chaque modification suite à un acte d'exploitation, de maintenance ou suite à une rénovation. Les modifications suite à des actes de maintenance courante sont probablement les plus difficiles à tracer. Elles présentent pourtant des enjeux économiques et de sécurité très importants. Aussi les industriels exploitants prennent-ils des mesures pour compenser les défauts de leur système de représentation, mesures qui peuvent être très coûteuses. Les opérateurs de terrain exploitent les données au travers d'interfaces qui restent souvent des documents papier qu'ils soient d'origine ou imprimés à partir de contenus issus d'un référentiel numérique. Ils reportent les modifications ou leurs remarques sur ces mêmes documents papier. Ces informations doivent réintégrer d'une manière ou d'une autre le référentiel numérique si l'on veut le mettre à jour et éviter la dégradation progressive de sa qualité. Nous avons enquêté sur les processus de mise à jour lors de l'utilisation de systèmes de documentation technique numérique : d'une part, lors des enquêtes déjà citées auprès des équipes de maintenance de l'avion de chasse polyvalent Rafale dont la documentation a été publiée selon les règles de la norme internationale S1000D, d'autre part, auprès des équipes de maintenance d'une usine de procédé, en l'occurrence un terminal méthanier dont toute la documentation descriptive constitue un référentiel numérique accessible depuis des postes banalisés. On trouvera certains résultats de ces enquêtes dans (Keraron et al, 2005) et (Keraron et al, 2006). Dans les deux cas, la problématique de mise à jour a fait appel aux annotations électroniques et à des dispositions sur le plan organisation. Les interfaces actuelles permettent de consulter des publications composées avec des données extraites de différentes bases, mais elles ne sont pas suffisamment instrumentées pour s'affranchir d'une utilisation du papier pour des tâches complexes ou pour saisir des informations de mise à jour. Il n'y a pas symétrie entre le processus d'édition des données et des documents publiés et celui d'édition de l'information capturée sur le terrain. Pour cela il faudrait que les interfaces ne soient pas seulement des interfaces de consultation mais également des interfaces de saisie avec un niveau de structuration permettant de mettre en rapport la nouvelle information avec sa base d'édition, ce qui ne doit pas non plus conduire à un outillage aussi élaboré que celui qui est disponible lors de la conception du produit industriel. D'autre part il faudrait que parmi les attributs de la donnée, il y ait une information sur son statut en fonction de l'avancement de son processus de traitement, de façon analogue à la prise en compte de la maturation de la donnée dans les processus de conception collaborative (Grebici, 2007). Cependant il est possible de concevoir des interfaces de saisie structurée qui facilitent la prise directe d'informations du terrain et son traitement automatique, par exemple le numéro physique d'un équipement au moment de son changement dans le déroulement d'un processus de maintenance. Certaines informations complexes demanderont néanmoins un traitement plus élaboré et, de plus, collaboratif. Dans ce domaine, les annotations et les commentaires électroniques peuvent être d'un apport pratique significatif. De nombreux travaux ont été publiés ces dix dernières années sur l'enjeu des annotations. Marshall (1998) a étudié les pratiques annotatrices lors de la lecture de documents électroniques hypertextuels. Denoué (2000) s'est penché sur l'intégration d'outils d'annotations à des navigateurs Web et sur les possibilités de partager des annotations dans le but d'indexer des documents. Robert (2001) a travaillé à la fois sur les enjeux d'annotations interactives et la visualisation de documents hypermédia. D'autres équipes ont travaillé sur les pratiques d'annotations dans le milieu médical (Bringay et al., 2005) pour la conception collaborative (Zacklad et al., 2003). Franck (2003) propose l'outil ANITA (ANotation for Industrial TeAms) pour une meilleure gestion et un meilleur partage de l'information au sein d'équipes de recherche. D'une manière générale, plusieurs chercheurs, après avoir cherché à modéliser les structures multiples des documents (Abascal et al., 2003; Lux-Pogodolla et al., 2004), se sont orientés vers la modélisation de l'utilisation (Champin et al., 2002) et l'enregistrement des traces de lecture de l'utilisateur de documents électroniques (Mille et al., 2006). Ces travaux sont dans le fil de l'évolution du Web, notamment du Web dit Web 2.0 et des initiatives d'indexation par les utilisateurs en fonction de leurs utilisations de fonds documentaires. Les recherches orientées sur les usages pourraient à terme être utiles pour lever certains verrous industriels. Les travaux sur l'annotation de documents techniques et en particulier de documents graphiques sont plus rares. Nous pensons qu'il faut distinguer l'annotation du commentaire : le commentaire peut être détaché du contenu commenté; il peut être aussi d'une autre modalité (commentaire auditif sur un contenu textuel ou graphique); il nécessite des actes (ouvrir le commentaire) et une synthèse (entre deux fenêtres de l'écran) du lecteur/auditeur; les outils de commentaires sont souvent des outils d'édition de textes alors que le langage d'expression le plus adapté du technicien est un langage graphique. l'annotation est attachée au support du contenu annoté et elle s'exprime dans les mêmes modalités; néanmoins elle doit être perçue comme une annotation et se distinguer du contenu original; la figure suivante donne un exemple d'annotation sur support papier au sens où nous l'entendons. On conçoit aisément que la transmission du contenu représenté sur la figure 2 à l'aide d'un commentaire textuel n'est pas envisageable. Nous avons donc ajouté dans le cas du référentiel numérique descriptif d'un terminal méthanier des fonctionnalités d'annotations graphiques électroniques. Toute modification de l'installation donne lieu à l'édition d'une fiche électronique; le technicien recherche les documents susceptibles d' être impactés par la modification qu'il a réalisée au moyen d'une recherche par code équipement ou « tag », constitue une première liste de documents à mettre à jour et joint les informations nouvelles en pièces jointes électroniques à cette fiche. Un administrateur du référentiel étudie de façon plus complète l'impact et la propagation de la modification sur le référentiel numérique et intègre les éléments sous forme d'annotations normalisées et/ou de commentaires de façon à les faire partager rapidement par tout utilisateur consultant le référentiel. Le report des informations dans les outils natifs avec révision du document peut être différé dans la mesure où l'information est disponible pour tous les utilisateurs. Dans le cas du système de consultation électronique du Rafale, dans l'attente de leur validation par les industriels concernés, les remarques des utilisateurs sont accrochées sous forme de commentaires au module impacté. L'information est partagée même si elle n'a pas encore été validée. Après validation, la base de données de modules est mise à jour et les nouvelles publications intégreront la modification. La pose des commentaires publics est faite par un atelier spécialisé qui fait un travail de mise en forme de la remarque pour faciliter sa compréhension par tous les utilisateurs. Les exemples cités et les solutions mises en œuvre témoignent des difficultés posées par la mise à jour depuis des postes dits « client léger » et des besoins de mieux instrumenter ces postes. Buckland (1997, 1998) s'est demandé ce qu'est un document et ce qu'est un document numérique dans deux articles souvent cités dans la littérature. Il s'appuie sur les travaux des documentalistes Paul Otlet et Suzanne Briet pour donner une définition fonctionnelle du document (le document aurait pour fonction de donner accès à une preuve) qui selon lui permettrait de mieux appréhender le document numérique puisque cette définition s'affranchirait du support du document. L'aspect matériel du document n'est pas contesté. Cette définition fait la part belle à l'aspect institutionnel du document (Un document est un document parce qu'une institution le décide) et finalement elle traduit plus un souci de conservateur, certes essentiel dans le concept de document, que celui de l'utilisateur opérationnel du document tel que nous le ressentons au travers de nos expériences du document technique. En outre les définitions de cette école reflètent de grandes difficultés à limiter le concept de document. Une pièce de musée, la fameuse antilope, exemple pris par Suzanne Briet, à condition qu'elle soit dans un zoo, seraient, selon cette école, des documents. Tout objet de l'univers serait donc potentiellement un document et le deviendrait une fois passé sous la coupe d'une institution conservatrice. Ridi (2001) relate ces difficultés. Une définition plus précise du document nous paraît nécessaire. De nombreux chercheurs, notamment au travers du RTP-33, Réseau Thématique Pluridisciplinaire du département STIC du CNRS, ont tenté de fonder une véritable théorie du document. Bachimont et Crozat (2004) identifient trois niveaux de structure inhérents à tout document : la structure d'organisation, la structure de contrôle et la structure d'interaction. Ces trois niveaux sont à rapprocher des trois entrées de Pédauque (2006) : le document comme forme, le document comme signe et enfin le document comme médium. La figure 3 reprend ces trois structures et donne, pour chacune, des exemples concrets. Nous proposons notre propre interprétation de ces trois niveaux de structure en fonction de notre perception de la réalité de notre domaine d'application. La structure de contrôle est au cœur du système documentaire. C'est celle qui permet de retrouver un document, une information et de contrôler son interprétation. La structure de contrôle permet des assemblages, des regroupements d'éléments. Elle procède par calcul sur les formes de la structure d'organisation. La structure d'interaction est l'instrument qui permet à l'utilisateur de renforcer son appartenance à une communauté en s'appropriant un contenu et en soumettant des informations à la critique des autres utilisateurs. Si nous considérons le document comme un objet technique avec son mode d'existence (Simondon, 1989) singulier, nous pouvons nous intéresser à sa genèse et à l'origine de sa lignée. Or, il est historiquement attesté (Herrenschmidt, 2005, 2007) que les premiers documents ont été des documents comptables. Plus précisément, les fouilles réalisées sur le site de la ville de Suse (Page 97 de (Bottéro, 1998)) ont montré que les premiers documents étaient des bulles d'argile sur lesquelles se trouvait l'empreinte de sceaux et qui contenaient des éléments d'argile (disques, cônes, bâtonnets), encore appelés calculi, symboles de nombres. Ces bulles accompagnaient des lots de marchandises et permettaient de vérifier la conformité de l'échange. Plus tard, les bulles furent marquées avec des poinçons et plus tard encore, les documents, toujours à vocation comptable, devinrent des tablettes où figuraient notamment les résultats d'opérations d'addition. Plusieurs sources confirment la finalité comptable des premiers documents connus. Clarisse Herrenschmidt, dans l'interview transcrit pp. 68 et 69 de (Pour la science, 2006) confirme que l'écriture est liée à l'origine à des pratiques comptables et contractuelles. Elle ajoute que l'écriture des langues est elle -même une analyse de plus en plus fine des segments d'un discours. Dès l'origine relative de l'écriture comme technologie de communication, le document serait donc calcul et système technique comme externalisation de cette capacité de calcul et de manipulation automatique de symboles. Par rapport aux autres objets techniques, vus comme externalisation, prothétisation de facultés du corps humain (Leroi-Gourhan, 1964), le document tient une place singulière puisqu'il s'agit de l'externalisation de facultés intellectuelles, les plus complexes pour un certain stade de développement de l'espèce humaine, et que cette externalisation a joué un rôle essentiel dans le développement général des techniques, des sciences et de leur diffusion. Le document depuis son origine est une technique de calcul, une technique numérique et au-delà des représentations sur lesquelles portent cette discrétisation et ce calcul, au-delà des changements sociaux introduits par l'extension de ses usages, le numérique est une propriété intrinsèque du document. Il faudrait approfondir cette singularité et étudier de plus près la lignée des objets techniques que constituent les documents et ainsi mieux saisir la force d'intégration qui les rend plus concrets et plus pratiques. L'histoire du document est depuis son origine une histoire de la discrétisation, une histoire de la numérisation et du calculable. C'est aussi l'histoire d'une lutte, d'un conflit entre calculable et non-calculable, universel et singulier, comparable et incomparable. Jean Lassègue montre avec beaucoup de justesse l'extraordinaire lucidité de cette réflexion chez Alan Turing (Pour la science, 2006). Le document est donc en quelque sorte de façon fondamentale un objet qui permet de retenir une pensée et qui vaut par son caractère opératoire grâce à des propriétés de maniabilité, de facilité de transport dans l'espace et de préservation dans le temps. Le document numérique que nous voyons se développer aujourd'hui est le résultat d'un long processus de grammatisation (Auroux, 1994), c'est-à-dire, dans notre perspective, de formalisation de contenus singuliers, de leur transformation en nombres calculables. Un document est un objet qui apparaît lors d'un processus d'inscription intentionnel sur un support matériel, de représentations codées, signes, symboles, adaptés à la manipulation, au transport et à la préservation dans le temps, et destinés à êtres interprétés par des utilisateurs. Nous soutenons que le document a une finalité numérique et qu'il progresse à la mesure de la calculabilité des activités humaines anciennes ou nouvelles. Cette calculabilité passe par des processus de grammatisation, c'est-à-dire de normalisation et de formalisation d'activités idiomatiques, singulières. Cette normalisation permet aussi de comparer ces différentes activités singulières et ainsi de favoriser les échanges. La spécialisation, et donc les nouvelles possibilités d'individuation, sont une des conséquences de cette technologisation de l'environnement humain. Certes, remède à la remémoration, comme dans le Phèdre de Platon (Platon, 1989), le document écrit ouvre, de par son caractère discret, la voie au découpage en unités d'un continu, le champ à la manipulation des signes selon des règles extensibles pour un partage dans le temps et dans l'espace. Il offre à la mémoire une plus grande capacité d'oubli, la libère de procédures fastidieuses, du risque extrême d'une mémoire humaine trop précise comme celle du Funès de la fiction de Borgès (Borgès, 1991) : « Il avait appris sans effort l'Anglais, le Français, le Portugais, le Latin. Je soupçonne cependant qu'il n'était pas très capable de penser. Penser c'est oublier les différences, c'est généraliser, abstraire. Dans le monde surchargé de Funès il n'y avait que des détails, presque immédiats. » En nous intéressant au document, nous nous intéressons aux technologies, aux outils qui supportent les activités intellectuelles individuelles et collectives. Les inscriptions symboliques font partie d'un système technique qui tend lui -même à s'étendre et à intégrer de proche en proche les systèmes connexes. Nous avons retenu l'hypothèse d'une origine numérique des inscriptions symboliques et de la manipulation possible de ces symboles. Dans ce sens, nous comprenons mieux pourquoi Alan Turing considérait écriture et mécanique comme quasi-synonymes (Hodges, 1988; Lassègue, 1998). Nous avons mis en évidence dans ce chapitre le document comme objet technique. De par sa structure d'organisation, sa structure formelle, le système documentaire est susceptible d'une forte adhésion avec le système physique et c'est au travers de la structure d'interaction que se fait le couplage avec les utilisateurs. La structure de contrôle, avec le numérique, est enfouie dans le système et les utilisateurs doivent pouvoir lui faire confiance, tout en conservant une capacité critique vis-à-vis des programmes de calcul intégrés dans le système documentaire. La figure 4 illustre ces relations entre structures du système documentaire et les systèmes technique et humain. Bachimont (2004) identifie les structures conceptuelles de la raison computationnelle, à savoir la couche, le programme et le réseau, qu'il met en correspondance avec les structures de la raison graphique proposées par Goody (1979), à savoir respectivement la formule, la liste et le réseau. Dans la figure 5, nous poursuivons le parallèle avec les entrées de Pédauque (2006) et les structures dont nous précisons notre propre interprétation. Elle représente la synthèse du cadre théorique qui est en arrière-plan du modèle de référentiel numérique que nous proposons dans la prochaine section. Le concept le plus cité dans les recherches sur le web dit sémantique est celui d'ontologie et il est considéré comme le sésame à l'interopérabilité des systèmes informatiques. Nous avons présenté, sur la figure 3, l'ontologie comme un exemple de structure de contrôle, structure que nous avons qualifiée de cœur du système documentaire. Le mécanisme « ontologique » traduit une étape nouvelle du processus de grammatisation, au sens donné par (Auroux, 1994). La définition la plus courante d'une ontologie est celle de Thomas Gruber : « Une ontologie est une spécification explicite d'une conceptualisation partagée d'un domaine ». (Gruber, 1993). Créer une ontologie, c'est faire progresser le processus de grammatisation pour faciliter la manipulation des inscriptions symboliques, c'est-à-dire créer les conditions de leur interopérabilité. L'ontologie, en généralisant le type de relations codifiées entre les objets d'un domaine, va plus loin que le thésaurus (relations de synonymie, termes associés, termes généraux, termes spécifiques, …) ou plus encore que la classification qui se limite à des relations de type général spécifique. L'ontologie est une généralisation des outils qui l'ont précédée pour mieux exploiter les possibilités de manipulation nouvelles offertes par les technologies numériques. Elle rend possible l'extension des types de relations normalisées entre objets. Elle permet d'exprimer des connaissances dans un domaine selon une référence partagée, mais ne vise pas, de notre point de vue, une production automatique de connaissances. Nous avons vu que le document technique numérique était le résultat de l'assemblage de données et autres contenus plus ou moins structurés, dont la cohérence interne doit être assurée et qui doivent être mis à jour pour correspondre à l'existant physique qu'il représente. Le document souvent recherché, constitué et consulté sous forme électronique est encore consommé sous une forme papier qui reste la mieux adaptée à la variété des tâches à réaliser et des situations de travail (Keraron et al., 2005). En revanche les informations nouvelles, à partager avec l'ensemble des utilisateurs, doivent être saisies sous une forme électronique. C'est à partir d'une analyse de l'usage des données lors du déroulement des processus métier sur l'ensemble du cycle de vie que l'on peut déterminer la structure et le format des données, leurs règles de préservation et les exigences de traçabilité des documents comme compositions de données. Notre définition du document a mis l'accent sur son utilisabilité, c'est-à-dire sa capacité à satisfaire efficacement l'usage qui en sera fait, y compris dans les processus de mise à jour quelle que soit leur origine. Nous répétons que la préservation d'un document qui ne serait pas utilisable pour des raisons techniques ou de défaut de capacité à interpréter le document n'a guère de sens. Il s'agit donc de décrire les cas d'utilisation des documents que ce soit pour des raisons opérationnelles ou réglementaires, en décrivant le public concerné et le niveau de manipulabilité de la donnée qui doit être prévu pour ce public. La préservation à long terme, c'est-à-dire l'archivage, est un cas d'utilisation particulier pour lequel il y a une difficulté majeure à identifier le public utilisateur, mais qui ne connaît pas le même niveau de contraintes que les cas d'utilisation opérationnelle. La figure 6 représente un diagramme de classes UML (Rumbaugh et al., 2004) de notre proposition de modèle qui demande à être approfondie notamment par l'établissement des diagrammes de cas d'utilisation et de séquences décrivant minutieusement les interactions de l'utilisateur avec le système documentaire lors de l'exécution des tâches de ses processus métier. Ce modèle s'appuie : d'une part sur le modèle OAIS (CCSDS, 2002), déjà cité, modèle conceptuel proposé pour l'archivage des données numériques, afin d'assurer la préservation dans le temps de l'accessibilité et de l'interprétabilité des données archivées, d'autre part sur les concepts de couche, de programme et de réseau interprêtés en fonction des besoins d'usage de la documentation technique. Ce modèle générique peut être spécialisé par intégration de normes sectorielles comme S1000d, DITA ou encore ISO 15926. Le formalisme objet et le langage UML apparaissent aujourd'hui comme les moyens les mieux adaptés pour modéliser les cas d'utilisation métier et compléter l'instrumentation des systèmes existants. UML est en effet envisagé comme outil de modélisation par de nombreux chercheurs du Product Life Cycle Management (Han et Do, 2006; Dorador et Young, 2000). De plus, l'interaction système technique et système d'information, peut être facilement décrite en UML. Nous insisterons plus ici sur la partie du modèle orientée vers l'utilisation opérationnelle du référentiel numérique. Le concept de couche est fondamental dans l'objet document quel que soit son support. Ne dit-on pas « coucher sur le papier » pour exprimer l'idée de clarifier sa réflexion pour mieux la partager avec une communauté. Volle (2006) nous propose une définition du modèle en couches : « Un modèle en couches consiste en l'articulation de plusieurs sous-modèles caractérisés chacun par un protocole spécifique et reliés par des interfaces. Il permet de représenter des situations où plusieurs logiques jouent simultanément. Le nombre des logiques ainsi articulées restant fini, le modèle n'atteint pas la complexité du monde de la nature mais tout en restant pensable, il possède un des traits de la complexité : la pluralité des logiques. » Le système documentaire est composé de couches qui peuvent être de plusieurs natures; par exemple pour les besoins de mise à jour, nous nous intéresserons aux couches de type publication et aux couches de type annotations qui ne sont pas indépendantes. L'annotation a un certain nombre d'attributs et notamment un statut qui évolue en fonction d'un travail critique de la communauté concernée selon un processus qui peut le cas échéant être automatisé (Workflow). Zacklad (2007) s'intéresse aux processus de production sémiotique selon des stratégies de coordination parmi lesquelles la documentarisation 12 et introduit le concept de DopA, Document pour l'Action. Cette approche vise à rendre compte du processus collectif de sémiotisation à partir d'inscriptions dans le système d'information qui sont partagées. Nous rapprochons ces travaux du processus de mise à jour déclenché par un utilisateur qui inscrit une annotation dans son langage métier (ici le plus souvent graphique), annotation qui fait ensuite l'objet d'une critique collective tant sur le contenu que sur la forme avant intégration à part entière dans une publication officielle. Il convient de distinguer d'une part les états intermédiaires intégrant les fragments que sont les annotations et d'autre part le document publié qui résulte de l'aboutissement du processus de sémiotisation jusqu' à la formalisation du contenu validé et intégré dans la publication. Il serait intéressant de pousser plus avant le concept de DopA en le conjuguant avec celui de couche. Les publications sont elles -mêmes un ensemble de composants qui, selon leur type, respectent une structure formelle, ce qui rend l'automatisation de leur traitement possible. Les normes sectorielles comme S1000D ou DITA identifient des types de composants intégrables dans notre modèle. Enfin nous avons fait figurer un certain nombre d'attributs génériques de plusieurs types d'information caractéristiques du domaine de la documentation technique. Nous attirons l'attention sur le fait que les objets techniques peuvent aussi intégrer des données dans un format qui peut être échangé avec le système documentaire (identifiant, position géographique, autres données, …) et que cette connexion des systèmes est facilitée par le développement des technologies comme les technologies de type RFID 13 (Finkenzeller, 2003; Glover et Bhatt, 2006). Ce dernier aspect nous paraît être une source d'évolution majeure du système de la documentation technique. Nous avons présenté la problématique de la documentation technique numérique en particulier eu égard à sa préservation à long terme, à son usage et plus particulièrement à sa mise à jour. Le cadre théorique et le modèle que nous proposons partent du point de vue du document comme objet technique. Sa structure d'interaction est une interface qui doit faciliter, pour les utilisateurs, l'appréhension du contenu et son évolution grâce à une organisation en couches. Sa structure de contrôle prend en charge les opérations qui sont réductibles à un calcul. Les ontologies sont un exemple de structure de contrôle pour la réalisation de modèle de données interopérables. Enfin la structure d'organisation détermine les formes que peut traiter le système documentaire qui, comme objet technique, est intégrable à un réseau d'objets techniques avec lesquels des échanges de formes sont possibles .
La documentation technique de systèmes complexes est aujourd'hui issue d'un ensemble de bases de données et de documents édités numériquement et cet ensemble est mis à jour et enrichi pendant le cycle de vie du produit. Après une description du contexte de la documentation technique et un rappel des résultats d'enquêtes sur l'utilisation de la documentation numérique, nous présentons un cadre théorique pour mieux appréhender le système documentaire en relation avec ses utilisateurs et avec le système technique. Nous proposons un modèle UML de référentiel numérique pour satisfaire les exigences de préservation à long terme et mieux supporter les besoins d'utilisation de ce référentiel.
sciencesInfo_08-0277606_tei_DN_102_0105.tei.xml
termith-486-communication
Les « Échanges » que Questions de communication consacre à« Pour une critique des médias en temps de conflit ? » évoque des points importantsdu travail de l'actualité sur les mentalités. Je voudrais en reprendre quelques-uns ,moins pour les critiquer que pour les prolonger par une réflexion qui, si elle estsouvent en phase avec les propos de Daniel Dayan (2005), se pose parfois encontre-distinction. Pour faire écho à la surprise et à l'indignation de Daniel Dayan (2005), je diraique j'ai éprouvé des sentiments similaires en analysant la façon dont les médiasaméricains traitaient la Palestine. Aux États-Unis, la couverture de la criseisraélo-palestinienne penche très nettement en faveur d'Israël, tous médiasconfondus. Et ce, depuis les années 70, contrairement à la France où desévolutions sont notables et notées par Daniel Dayan. De fait, l'analyse decelui -ci pourrait être reprise terme à terme et inversée, à l'avantage d'Israël .Rémi Brulin, l'un de mes doctorants qui travaille sur la couverture duterrorisme dans le New York Times comme média deréférence, fait apparaître plusieurs points intéressants qui viennent nourrirles idées d' « obfuscation » et de détournement que Daniel Dayan( 2005 : 204) associe aux « pathologies de la lisibilité ». Sans déflorer sesconclusions, il démontre deux dysfonctionnements : l' « obfuscation » quasi complète du point de vue palestinien au publicaméricain; la présence de deux discours contradictoires des États-Unis sur leterrorisme international, tous deux demeurant parfaitement cloisonnés grâce àl'aide des médias. Sur le plan de la politique extérieure, depuis 1972, à l'ONU, où elle futdéfendue par George Bush senior, alors ambassadeur, la position officielle desÉtats-Unis (et d'Israël) est de ne pas reconnaître le terrorisme d' État (state-sponsored). Ce à quoi s'opposent les États arabeset, notamment, les Palestiniens qui dénoncent un terrorisme « originel » lié aucolonialisme, et justifient leurs actes de violence comme une lutte pourl'autodétermination des peuples. Causes et méthodes trouvent ainsi leur logique ,aussi discutable soit-elle. Or les médias ont très rarement relayé la teneur desarguments des Palestiniens et les diverses luttes au sein de l'ONU sur laquestion des définitions. Du coup, les Américains ne sont pas exposés auxmotivations et légitimations de la partie adverse, dans un contexteprofessionnel où les journalistes sont par ailleurs encouragés à utiliser unscript qui décrit le « comment » de la violence et rarement son « pourquoi ». Enpolitique intérieure, les gouvernements américains successifs ont tenu àl'intention du peuple américain un discours dénonciateur de la violenceinternationale et du terrorisme d' État, avec la production, chaque année, d'uneliste d' États « voyous » (rogue states). L'étanchéitédes deux discours est telle qu'elle ne fait pas apparaître les contradictionsaméricaines aux Américains et qu'elle ne leur présente pas la situation dans sacomplexité, mais dans son manichéisme (us vs them). L'incompréhension du public américain lors desattaques du 11-Septembre peut s'expliquer en partie par cette double illusion :que tout le monde pensait comme lui et que tout le monde l' « aimait » (parolesreprises à satiété sur les ondes : « Why don't they likeus ? » – Pourquoi ne nous aiment-ils pas ?). Cette vision des relations internationales héritée de la guerre froide n'a pasbeaucoup bougé : elle est relayée par les médias, y compris ceux qui fontréférence. Elle est à géographie variable et, en vérité, donne au gouvernementaméricain beaucoup de latitude pour expliquer ses propres interventions dans lesaffaires d'autres États, avec la croyance fondamentale que leur ingérence sejustifie pour le bien de la démocratie et que leurs actes ne peuvent êtreassimilés à du terrorisme. Toute realpolitik mise à part ,ce qui frappe c'est le suivisme des médias américains. La résistance présentéepar les Palestiniens est montrée comme irrationnelle, sans fondement et sansrelation à une cause nationaliste ou indépendantiste. Les méthodes utiliséessont interprétées comme étant immorales, voire lâches et inhumaines, ce qui peutjustifier le recours à des méthodes punitives. De là à associer immoralité àinfériorité, il n'y a qu'un pas. .. « Tous les langages ne sont pas des novlangues » dit Daniel Dayan (2005 : 198) .J'ajouterais : « ...Mais ils peuvent tous potentiellement le devenir ». Laquestion de la langue autoritaire peut alors se confondre avec l'autorité desmédias. Ici, les mots sont peut-être à interroger autant que les images. Jeprendrai deux cas concernant le conflit israélo-palestinien tel qu'il est traitéaux États-Unis, cas de dénonciation par des journalistes américains assez rarespour mériter d' être mentionnés. Norman Solomon (2001) fait état d'une recherchequantitative sur Nexis, menée sur les 100 premiers joursde l'année 2001, sur toutes sortes de médias. Il répertorie plusieurs douzainesd'utilisations de la formule « Israeli retaliation » ou« Israel retaliated » (représailles israéliennes) et uneseule occurrence du terme « Palestinian retaliation » (représailles palestiniennes). Les deux partiesdécrivent leur violence comme de l'ordre de la riposte en état de légitimedéfense, mais seuls les Israéliens voient leurs actes qualifiés de la sorte. EtNorma Solomon (2001) d'expliquer ce parti pris rédactionnel par la menacecrédible des lobbies pro-Israël, qui dénoncent systématiquement toute couverturefavorable à la Palestine comme étant un acte d'anti-sémitisme, créant ainsi uneautocensure très efficace, par préemption. L'observatoire progressiste des médias, Fairness and AccuracyIn Reporting (FAIR), conforte cette action des groupes de pression pouréliminer certains mots au profit d'autres, créant defacto une novglangue qui peut se suivre à la trace par sa répétitionquasi à l'identique sur divers supports. FAIR analyse avec finesse l'emploi dumot « voisinage » ou « quartier » (neighborhood) destinéà remplacer le mot « colonie » (settlement), dans lecontexte du conflit israélo-palestinien, lui -même à recadrer dans le contexteaméricain où « voisinage » se prête à la double interprétation communautaire etcommunautariste, toutes deux positivement connotées. Il suit la mutation dulangage sur CNN, la chaîne de référence pour l'actualité audiovisuelle, qui, enseptembre 2001, a annoncé qu'elle changeait sa terminologie, autour du cas deGilo, une colonie israélienne sur les terres occupées par Israël depuis 1967 :« We refer to Gilo as “a Jewish neighborhood on the outskirts of Jerusalem, built on land occupied by Israel in1967 ”. We don't refer to it as a settlement ». CNN cédait en cela à la pression de « CNN Watch, honestreporting.com and otherpro-Israeli pressure groups », selon le reporter spécialiste duMoyen-Orient, Robert Fisk (London Independent ,03/09/01). Et de montrer que, même sur la très publique radio nationale, NPR ,Gilo est présenté comme faisant partie de Jérusalem, alors que c'est unterritoire annexé. Le New YorkTimes n'est pas en reste, qui, décrivant les efforts israéliens pourconstruire des fortifications entre Bethléem et Gilo, présente ce dernier commeun « nearby East Jerusalemneighborhood, where a sprawling Jewish area has been built on land seized after the war of 1967 ». De cette couverture partiale, il résulte une adhésion du peuple américain àIsraël et à sa cause, sans réelle compréhension de la réalité telle qu'elle estvue par la partie adverse. C'est d'autant plus à souligner que les médiascommerciaux américains se réclament de la norme d'objectivité et del'impartialité, ce qui n'est pas le credo des médias français. .. Une séried'enquêtes menées par le Pew Research Center, entre 2005 et 2006, est assezrévélatrice de ces positionnements de l'opinion publique américaine, encomparaison avec l'opinion publique internationale. Dans leur grande majorité( 48 %), les Américains soutiennent Israël et la politique américaine auMoyen-Orient. Par contraste, les Européens apparaissent comme très divisés : unemajorité de Britanniques (29 %) et d'Espagnols (32 %) soutiennent la Palestineplutôt qu'Israël, tandis que les Allemands (37 %) soutiennent plutôt Israël etque les Français sont, pour leur part, à égalité (38 %-38 %). Difficile ensuite de ne pas parler des effets de l'autorité des médias, un pointsur lequel je ne suis pas aussi catégorique que nombre de collègues français ,dont Daniel Dayan. N'y a -t-il pas une contradiction étrange dans ce déni deseffets et cette volonté de critique des médias ? Pourquoi se donner tant de malà déconstruire leur discours s'il est inefficace et, somme toute, bénin ?Reconnaître les effets ne signifie pas qu'il faille aller à la censure : celapermet au contraire d'aller à la critique, dans toutes ses formes, négatives etpositives, constructives et alternatives. .. Dire qu'il y a des effets nesignifie pas nécessairement que tous se produisent à l'identique, ou qu'ils sontlà où on les attend. Stuart Hall (1980) a bien montré que cela pouvait aller del'adhésion totale entre la source et la cible à la dénégation. Selon lui, lalecture des messages peut être dominante-hégémonique (le public reçoit lemessage voulu par la production), oppositionnelle (le public n'adhère pas dutout au message), ou négociée (le public fait des ajustements au message). Dans les cas de violence extrême, le problème des effets tient à ce que ceux -cise radicalisent avec l'exigence de passage à l'acte politique, c'est-à-dire auvote ou à la prise de décision d'entrer en guerre ou pas. Comme la limaille defer sur l'aimant, ils polarisent l'opinion publique, qui doit se manifester enagrégat. Le flou de la boîte noire se résout à la sortie des urnes par unedécision sans ambiguïté. La situation de réception est alors essentielle àprendre en compte. Dans le cas du conflit israélo-palestinien aux États-Unis ,les médias ont joué sur les mots qui, eux -mêmes, travaillent sur la proximitéculturelle et la mise en compatibilité cognitive : les Américains, notamment lesévangéliques, se sentent eux -mêmes aussi élus que le peuple élu, partageant aveclui la quête de la Terre promise, ce « voisinage » idéal en projet deconstruction perpétuelle. Cherchant à dépasser cette polémique parfois paralysante et pour rendre compte dela complexité des effets associés à des usages, je préfère dire qu'il y asocialisation par les médias, y compris socialisation à des croyances enadéquation avec les attentes générées par une culture donnée. À ce titre, lesmédias fournissent un environnement culturel englobant, créant un univers designes cohérents. Et c'est bien cet univers de signes qu'il faut interroger enprofondeur, constamment, dans une perspective de cognition située. Celle -citient compte de l'interaction entre acteurs et objets et introduit l'histoire etle contexte de l'action. Elle permet, selon Louis Quéré (1987), de pensercomment l'action est modélisée, en termes de résolution de problèmes, au-delàd'une description mécanique de cause à effet. Elle relativise la place de laseule pensée rationnelle et conceptuelle chez les acteurs sociaux et leurs modesde représentation; elle redonne de la valeur à l'émotion ainsi qu' à laperformance et à la compétence des individus. Ces comparaisons internationales n'ont de valeur que si elles servent à faireémerger des phénomènes récurrents ou des tendances profondes des médias et de lanature humaine. Sans faire de relativisme culturel, et sans chercher à amoindrirla douloureuse spécificité du conflit israélo-palestinien, force est deconstater que les médias procèdent par obfuscation et détournement dans leurcouverture des conflits. Ce schéma me semble généralisable à la couverture de laviolence extrême, en temps de guerre, de terreur ou de génocide. Il pose laquestion du rapport à la violence, et partant, de la vision de l'Autre. J'ai travaillé sur la représentation des violences extrêmes, tels le génocide etla représentation de l'autre étranger, en examinant les cas du Rwanda, de laBosnie et du Kosovo. Je n'ai pas eu le temps de publier cette recherche, maistoutes les recherches n'ont pas vocation à l' être : elles peuvent rester àl'état d'un journal du chercheur et cette littérature grise sert de matrice àbien des développements ultérieurs, comme un gisement d'idées en attented'exploitation. Sans adhérer à l'idée que les médias français ont procédé à lacréation de l'Israélien en « figure radicale de l'inhumanité » (Dayan, 2005 :202), car le pluralisme des médias français vient quelque peu complexifier cettefigure, par contraste avec les médias américains qui angélisent le Palestinien ,tout en le « démonisant », force est de constater que la déshumanisation del'autre étranger est un phénomène récurrent dans les médias. Il est à mettre enrelation à des processus cognitifs, qui nécessitent la « bestialisation » del'autre pour pouvoir le tuer sans mauvaise conscience. La situation au Rwanda ou au Kosovo n'a pas démontré autre chose. En cela, ledéni d'humanité ne peut pas se réduire « au retour de la grande tradition del'antisémitisme théologique » (ibid. : 203). Il relèvedavantage de la barbarie, une action inhumaine qui traite l'autre comme undéchet. Dans Auschwitz et Jérusalem, Hannah Arendt (1948 )met en évidence « la logique » qui prévalait dans les camps d'exterminationnazis : la mise à mort était décidée ou levée d'une façon tout à faitarbitraire, au hasard de l'humeur des bourreaux. De même, lors de la couverturede guerres et de génocides, un certain nombre d'images télévisées reposent surla mise en scène d'actes de torture et de gestes de violence gratuite quirendent banal ce qui devrait rester de l'ordre du tabou et de l'inhumain. Labarbarie est donc un recours manichéen à des oppositions basiques, qui détruittous les efforts de la civilisation pour penser le monde dans sa complexité etle réguler par l' État de droit. C'est en cela que l'autorité des médias peutfaire peur. Elle réfute toute réflexion sur l'information en temps de guerre .Toute réflexion distanciée sur le caractère lacunaire ou biaisé de l'informationdont dispose le public relèverait de la sécheresse de cœur ou d'uneinsensibilité lâche ou criminelle. Cette autorité se manifeste par le fait queles modes de représentation télévisée de la barbarie et leur usage dansl'information télévisée interpellent l'émotion pour rallier l'opinion. Leterrain des images est pour le moins aussi miné que le territoire des mots .L'utilisation médiatique de cette violence extrême qu'est la barbarie tend àcréer des espaces de solidarité « en trompe-l'œil » : elle ravive un sentimentde lien social fondé sur des chocs émotionnels. Les téléspectateurs communientensemble dans un même territoire, délimité et protégé par la télévision, ce qui« dé-réalise » leurs responsabilités politiques et sociales. Une de mes recherches, menée avec Sophie Jehel dans le cadre du séminaire deJacques Sémelin sur la “barbarie” – qui s'est tenu au CNRS en 2000 –, montre quela violence extrême convoque le lien social par la perception qu'elle nie troisconquêtes politiques et sociales – ce qui n'est pas démocratique, ce qui n'estpas de l'ordre de l'humain, ce qui met en place une relation dissymétrique àl'autre –, avec des enjeux de pouvoir, possibles grâce au jeu entre proximité etétrangeté. La violence extrême est perçue comme régressive par rapport auxacquis de l' État de droit, et elle est ressentie comme une violation de diversaccords internationaux. La dimension de l'inhumain ou de l'infra-humain, plussubjective, n'en est pas moins liée à la précédente. Elle aussi pose la questionde l' État de droit, mais dans sa relation au sentiment de la justice immanente .Sise dans le non-droit, l' « in-juste », la violence extrême donne le sentimentd'une violation de l'ordre civilisé. La dimension de l'autre et du pouvoir, elleaussi subjective, pose l'existence d'une norme sociale, démocratique, parrapport à laquelle la violence extrême devient « a-sociale » et « a-normale » ,monstrueuse. Elle frôle le tabou, voire la transgression de l'interdit. Lesjournaux télévisés la représentent en se focalisant surtout sur le corps (sesmutilations, ses humiliations. ..); elle concerne souvent des groupes ethniquesou des minorités tribales, dans des pays lointains. Ces négations sont associéesà des discours dont la télévision se fait soit le relais, soit l'expression : laviolation des droits provoque un discours de la dénonciation (à distance), laviolation de l'ordre civilisé fait s'élever un discours de l'indignation( impuissante) et la violation de l'interdit conduit à un discours utilisant levoyeurisme (inhibant car dégradant le voyeur passif qu'est le téléspectateur) .Ces discours tendent à se télescoper et à se contrecarrer l'un l'autre, avecpour résultat une absence d'action et de réaction de la part de l'opinionpublique qui a pour conséquence moins sa mobilisation que sa désaffection, avecparfois le sentiment d'une participation forcée au franchissement du tabou dansle type d'images choisies et diffusées. Pour un spectateur (plus encore que pour un lecteur), il est difficile d' êtredissident dans ses réactions face à un spectacle partagé en live, qui vise à l'alignement des positions et à la mise encompatibilité des réactions. Ici, le court-circuitage du raisonnement est opérépar le besoin d'appartenir au groupe face à un événement paniquant. Cela peutexpliquer des modifications massives de l'opinion du jour au lendemain (unepreuve de la radicalisation des effets ?), comme dans le cas du soutien à uneintervention militaire en Afghanistan et en Irak, dans un pays par ailleurslargement isolationniste comme les États-Unis, à la suite du 11-Septembre. Jesuis moins surprise par la xénophobie en temps de guerre que par la suppressionde toute pensée dissidente, qui est souvent son corollaire et permet debâillonner la liberté d'expression. La fragilité des efforts de civilisationsemble n'attendre que l'étincelle de la conjoncture historique pour le passage àl'acte violent, qui évite la médiation de la civilisation. Les contradictions dela violence relèvent des injonctions paradoxales. La violence est souventattribuée à une socialisation interrompue chez l'individu, mais la violence degroupe, elle, semble provenir des forces mêmes de la socialisation. Ces groupesqui s'entretuent au Rwanda, ou ailleurs, entre guerre civile et génocide ,frappent par leur capacité d'organisation et de coopération entre eux, et parleur propension à transformer des individus ordinaires en tueurs. Le système dela violence engendre une pression conformiste, et ôte toute peur de punition oude violation d'un tabou, tel que la mise à mort d'autrui. Sans aller jusqu' à adopter toutes les conclusions de certains tenants de labiologie culturelle, dont la cognition située est proche, force est de constaterque se produit une régression cognitive. Selon Steven R. Quartz et Terrence J .Sejnowski (2002 : 206-207), elle se caractérise par « l'idéation obsédante, larépétition compulsive, la désensibilisation rapide à la violence, l'émoussementde la réponse émotionnelle et l'hyperexcitation, qui agissent ensemble comme unecontagion qui s'étend au groupe entier ». Cette régression peut permettre lamise en place d'une reprogrammation du cerveau : la déconnexion entre l'actionet la réponse émotionnelle culturellement adéquate est le but recherché. Lacontagion de groupe élimine la capacité normale de l'individu à considérerl'autre comme un humain aussi. La connexion entre violence collective etidéologie s'en trouverait confirmée, car il faut une « idéation obsédante » pourconduire une population vers le génocide. Et cette idéation obsédante viendraitde notre capacité culturelle contemporaine à réorienter le comportement, nond'une réaction primitive. Des idées culturellement acquises pourraient venirinhiber notre capacité naturelle à l'empathie et nous reprogrammerémotionnellement. Malaise dans la civilisation, disait déjà Sigmund Freud( 1915), frappé par le retour à la normale des soldats après la Première Guerremondiale. .. Part de l'ombre de notre nature humaine, dirais -je, frappée par lasophistication croissante de notre barbarie et l'apathie de nos réactions. Mes recherches sur les violences extrêmes ne montrent pas autre chose, si cen'est le rôle des médias comme catalyseurs de ce processus de déshumanisationpar idéation, répétition, désensibilisation, émoussement et hyper-excitation, la« schismogenèse » de Gregory Bateson (1972). N'est -ce pas le jeu dangereuxauquel joue une chaîne comme Fox, avec l'idéation obsédante de la « war on terror », qui confond sciemment terreur etterrorisme, et qui a maintenu ostensiblement pendant des années en permanence àl'écran les niveaux d'alerte (jaune, orange, rouge), en les activant de temps entemps pour créer de l'hyperexcitation ? Certains récusent l'argument avant même de lire l'analyse : accuser les médias defaire le jeu de la violence sociale, voire de la violence de groupe, ce seraitouvrir la porte à un retour de la censure. Ne sommes -nous pas devant un refusd'assumer notre propre violence et d'ouvrir un débat qui nous obligeraitpeut-être à interroger le dysfonctionnement de notre sphère publique, ledéséquilibre des forces engagées et les termes réels de tout conflit ? Un débatqui contraindrait aussi à assumer que la violence du sujet est un des fondementsde la conscience morale et sociale. Celle -ci est l'expérience première qui donnenaissance au sentiment de culpabilité. C'est son refoulement qui permet laconstitution du lien avec l'autre, ou les autres au sein d'une communauté. Lareconnaître pleinement permettrait de démontrer qu'elle ne peut en aucun casconstituer un ferment social, ou une valeur à célébrer, puisqu'il s'agitprécisément de la part « a-sociale » de l' être humain. Ne pas le faire conduit àla résignation ou à l'exacerbation de l'agressivité qui propose un horizon dedestruction et de mort. C'est dans la dialectisation de nos tendancesconflictuelles que le sujet peut se construire, pas dans sa dénégation. La monstration médiatique d'actions individuelles et collectives de générosité dupublic et les démonstrations d'altruisme semblent venir en « sur-compensation » .Les associations humanitaires se retrouvent avec des dons qui dépassent quatre àcinq fois leurs espérances. Ne sont-ils pas la réaction naturelle à cesinsupportables images de souffrance à distance ? L'image exerce son pouvoirimmédiat de compassion, qui suscite instantanément le sentiment de la proximité ,si nécessaire au fonctionnement télévisuel. À l'émotion personnalisée correspondla charité individualisée, l'émotif entraîne le caritatif. Faut-il y voir unparallèle avec les rituels des peuples dits primitifs qui, après le carnage ,devaient accomplir des rites expiatoires ? Donner une obole symbolique serait-ilde l'ordre du sacrifice ? Pour conclure avec Steven R. Quartz et Terrence J .Sejnowski (2002), ce qui est troublant dans notre comportement récent, si crualors que nous sommes si civilisés, ce n'est pas tant le recours à des formesanciennes de la barbarie qui relèveraient d'un cerveau reptilien archaïque, maisles formes nouvelles de la barbarie qui peuvent manipuler ou auto-censurer .Notre propre capacité à intérioriser des croyances et des relations humaines –ce qui nous rend fondamentalement humains – peut nous mener à déshumaniser lesautres. Et nous convoquons les médias d'information aux mêmes fins, afin qu'ilsnous aident à lever collectivement les tabous que nos sociétés avancées ontutilisés pour se fonder, dont l'interdit de tuer, au nom d'un espace vital oud'une zone d'influence à préserver. .. Là où on attendrait un débat contradictoire, on trouve des contradictions nonsurmontées, liées par l'émotion, un parti pris émotionnel qui court-circuite leraisonnement et voudrait finalement faire croire que tout se vaut, s'équivaut .Daniel Dayan (2005 : 203) s'interroge avec raison sur la réversibilité desimages. Déconstruire la réversibilité est un premier pas pour comprendre ladéréalisation de l'information télévisée et pour s'interroger sur la médiationjournalistique. Selon moi, il s'agit cependant moins d'une pathologie de lalisibilité que d'un syndrome de régression cognitive. À la lueur de l' « idéationobsédante », la réversibilité peut contribuer au phénomène de régressioncognitive en ce qu'elle opère ce retournement des valeurs et ce court-circuitagedes tabous qui permet à un groupe de reconfigurer ses croyances pour modifierson comportement, comme dans le cas d'Israël construisant des murs alors que lesJuifs en ont été victimes dans les ghettos et dans les camps de concentration .Peu après que le monde se soit réjoui de la chute du mur de Berlin, le mur estredevenu protecteur alors que la division était jusque là synonyme de drame etde régression. Dans le flot audiovisuel et dans la navigation à vue du spectateur de chaîne enchaîne, cette propriété de l'image qu'est la réversibilité prête encore plus àconfusion. En effet, une image ne se conjugue ni au conditionnel, ni ausubjonctif, ni à l'interrogatif, elle ne se modalise pas. Sa charge émotionnelletient à son présentisme. C'est encore plus le cas quand elle n'est pasaccompagnée d'un commentaire (le fameux « No comment »sur EuroNews). Elle peut alors présenter deux points devue comme s'ils s'équivalaient, comme s'ils étaient interchangeables. C'est parexemple le cas en Irak, à propos de la torture au temps de Saddam Hussein et decelle au temps des Américains. Elle établit une sorte de pseudo-neutralité, quiescamote le caractère irréversible de certaines actions. La réversibilité créée des équivalences trompeuses entre images dont les sourceset les motivations sont diverses. Elles deviennent des armes de manipulation etde surenchère, surtout lorsque l'on ne prend pas en compte leur origine deproduction et les intentions de ceux qui les diffusent. Ces équivalencesaplatissent les réelles différences entre régimes qui créent les violences etles tortures. Or, il ne faut pas franchir le pas des équivalences et allerjusqu' à penser que tous sont interchangeables. Les régimes non démocratiques nesont pas équivalents à ceux qui sont démocratiques, il n'y a pas de réciprocitépossible entre eux. Il convient bien de distinguer la réversibilité de laréciprocité, ce qui est la confusion opérée par les médias audiovisuels. Laréciprocité relève d'un point de vue plus démocratique qui reconnaîtrait, sanschercher à l'écraser, la différence de l'autre. Quant à la réversibilité, elleest problématique car elle crée une élision de la démocratie. Élision non pas ausens de ce qui est supprimé ou absent, mais au sens de ce qui est supposé êtreprésent comme condition légitime de la représentation et comme raison profondede rejeter la barbarie et la torture en démocratie. Ainsi, en démocratie ,l'objet de la représentation journalistique – l'information comme un droitpermettant la constitution d'une opinion publique éclairée – est-il impossible àcertifier, ce qui mine la démocratie. Celle -ci échappe à notre connaissance ,même si c'est par rapport à elle que tout ce que nous voyons se justifie. Laréversibilité permet à la représentation télévisée de se donner comme purereprésentation, et nous coupe du « je pense » qui, dans un contextedémocratique, doit pouvoir accompagner toute représentation et touteinformation. Les risques de ce genre de couverture sont réels car ils peuvent faire basculerl'autorité des médias vers des médias autoritaires. Ce sont les risques qui fontpasser d'un certain nationalisme à un réel fascisme. L'uniformisation dessoldats-héros, leur renoncement à tout intérêt personnel qui n'irait pas dans lesens de leur mission, l'accomplissement de celle -ci par la force, le simplismede la grille de lecture politique du monde en conflit entre bien et mal, lestraits ouvertement bestialisés ou racistes donnés aux « méchants » : autantd'éléments qui suffiraient à déceler la marque d'une tendance fascisante, diraitUmberto Eco, ou alternativement d'une idéation obsédante. Loin de moi l'idée de suggérer l'idée que les journalistes sont des fascistes ouque le média audiovisuel le soit. Là n'est pas le moindre des paradoxes :au-delà des convictions personnelles des uns et des autres – qui se viventsouvent comme des défenseurs de la démocratie –, il faut s'interroger sur laforce du dispositif et la fatalité des fausses croyances que ce média véhicule( vitesse, scoop, image, concurrence), tout autant que surles récits qui sont produits et la nature des articulations qui sont proposéesaux spectateurs, surtout quand elles convergent en un seul sens. Le discours quicircule à travers ces images de barbarie sert un idéal politique fascisant parceque la glorification systématique de la violence des bons, tout comme celle desméchants, renverse l'idéal démocratique. La logique de production et le recoursà des routines journalistiques ou des scripts bien connus font alors violence .Et, comme Daniel Dayan (2005 : 214), je suis fascinée par un autre paradoxe, quifait qu' à chaque situation spécifique, les médias réagissent par un discoursgénérique. La mécanique qui fait fonctionner le type de récit fondé surl'affrontement et la mise en scène de la violence est aussi celle qui ledéstructure. La logique de l'affrontement de deux camps peut permettre de fairefonctionner des scénarios qui n'ont dans leur détail quasiment pas de sensintelligible. Le non-sens est alors subsumé sous une logique globale (celle del'affrontement) qui le rend acceptable. Pris dans une logique de série, le sensde l'épisode n'a finalement pas beaucoup d'importance. .. La couverture au jourle jour de la guerre en Irak par les médias américains, calquée sur un format detélé-réalité, n'a pas eu d'autre effet que la sérialisation, propice àl'émoussement de la réaction émotionnelle. Ce à quoi cette réversibilité nous alerte, c'est au besoin de toujours travaillerà une meilleure démocratie et à une culture de paix, certes, mais aussi àmontrer de l'exigence à l'égard de la médiation journalistique. C'est unemédiation « contrainte » par la situation d'information : le journaliste doitdès le départ de l'événement procéder à un travail de fictionnalisation, car ilarrive après la bataille, littéralement, et se voit dans l'obligation deprocéder à une sorte de reconstitution des faits. Raison de plus pour se méfierdes images qui lui sont fournies en « ready-made » parles manipulateurs de l'opinion, comme dans le cas des photos et des vidéos detorture et de mise à mort récemment diffusées sur les antennes. Raison de pluspour s'interroger sur l'illusion entretenue d'une information « en temps réel » ,d'une couverture des événements sur le terrain qui privilégie l'immédiateté pourobtenir l'adhésion de l'opinion à des événements et des faits dont la gravitéimplique une temporalité ralentie et une compréhension de l'épaisseur de laréalité et de l'histoire. Certes, il faut mettre des garde-fous à la profession, en invoquant les termestalismaniques d'indépendance, de vérification et de contre-vérification dessources, de suivi des conséquences. .. en un mot de déontologie. Je n'ai pasrencontré un seul journaliste qui professe autre chose. Mais mettre la seuleresponsabilité de l'information « journalisée », pour reprendre la terminologiede Daniel Dayan (2005 : 217) sur les journalistes ne suffit pas. Le dispositifqui les encadre est tout aussi responsable et le poids de la responsabilité doitêtre partagé entre tous les acteurs de l'information dans les conditionsactuelles où l'individu isolé n'a aucun contrôle sur les infrastructures quil'emploient. Ce dispositif n'est pas aveugle mais mû par des pressionsprivatisantes, et il faudrait interroger les motivations des patrons de chaîne ,dans un contexte où la propriété des médias n'est pas le fait des professionnelsde l'information mais de la défense et du béton, selon le rapport Lancelot. .. À qui profitel'idéation obsédante ? Dans ce contexte où les notions de « public » et de « privé » sont brouillées ,difficile de maintenir le sens des valeurs éthiques. C'est peut-être possible enayant recours à cette partie du public qui veut rester libre de sa pensée et deses médias, qui veut du pluralisme, de la tolérance et du lien social. Ce publicn'est pas dupe. Mais, même s'il est attentif à ces questions et même s'il esttrès éduqué, il ne peut faire cette analyse de réversibilité à chaque fois qu'ilregarde la télévision. Ce dont il a besoin, outre le recours indispensable àd'autres médias de complément, c'est du recours à d'autres formats que lejournal télévisé, comme le magazine ou la revue. À cet égard, il peut militerpour que ces formats ne soient pas éliminés de l'offre audiovisuelle, militerpour qu'il y en ait plus, militer pour que certaines chaînes restentindépendantes et produisent une information de référence. Aux États-Unis, lestortures d'Abu Graïb ont été dénoncées par l'émission magazine 60 minutes sur CBS et par le magazine de presse écrite, The New Yorker (deux longs articles de Seymour Hersh, mai2004). Le relais a ensuite été pris par le politique et une série d'enquêtespubliques. Ce n'est pas un hasard (et, ajouterai -je, la réciprocité n'a toujourspas eu lieu en Irak). Il s'agit bien de préserver avec vigilance un espacepublic et médiatique où peuvent s'exprimer les contradictions, en œuvrant à uneco-responsabilité de tous les acteurs, y compris en faisant appel à laresponsabilité sociale des entreprises et des pouvoirs publics. Sans cela, lerisque est que la réalité se rebiffe, que la confiance se perde et fasse perdreles avantages acquis pour le bénéfice de tous. Ces dommages collatéraux sontirréversibles. En partie, c'est cette analyse qui me fait dire, un peu par provocation il estvrai, que l'événement n'existe pas, seule la situation lui donne sens. DanielDayan (2005 : 197) souligne lui -même que le traitement de la seconde Intifadaavait déjà donné lieu à « une répétition générale du traitement », dans lesannées 70-80. De même pour le World Trade Center ,l'attentat de 1993 préfigurait celui de2001, avec les mêmes acteurs, les mêmes émotions et déjà un nombre significatifde morts (un seul ne suffit-il pas dans ces cas -là ?). Ce qui « créel'événement » peut tenir à l'ampleur et la radicalité d'un fait historique, maisce ne sont pas des facteurs explicatifs satisfaisants et suffisants. Il fauttoute une série de pré-événements, d'événements précurseurs de moyenne intensitéqui mettent le public en état de veille, et qui viennent confirmer tous lessoupçons quand l'événement « expressif » de forte intensité, comme le dit DayanDayan, se produit. Je parlerai plutôt d'événement « mutatif » en y rajoutant unedimension de cognition située : un événement mutatif est de l'ordre de larégression cognitive et permet un changement paradigmatique, à savoir latransformation de l'agenda social et, en conséquence, de l'agenda médiatique. Lerecours à l'identique de la situation antérieure est impossible, irréversible .En cela la régression n'est pas nécessairement négative : elle permet de fairele point sur un nouvel arbitraire du monde et de réorienter le traitement del'information et la nature de l'action attenante. C'est ce que j'essaie de démontrer dans Qui a détourné le 11septembre ? (2006). L'événement mutatif s'inscrit dans un faisceau defaits contradictoires qui lui sont antérieurs et parfois même en sontindépendants : il leur sert de résolution. À la sortie de ce type d'événements'opère comme une sortie de crise : les paradigmes dominants ne sont plus lesmêmes. Ainsi les États-Unis ont-il changé de paradigme avant et après le11-Septembre : d'une stase paralysante entre politiques d'identité et politiquesde moralité, ils sont passés à deux nouveaux paradigmes centraux dans lediscours politique, sécurité contre environnement, qui rétablissent des lignesde partition claire entre Républicains et Démocrates. La relation entre identitéet moralité avait peu à voir avec le terrorisme international mais beaucoup avecles pré-événements expressifs, comme l'élection présidentielle controversée de2000, l'explosion de la bulle des dot.com, les scandales financiers et boursiersà répétition autour de l'affaire Enron, etc. De même ,les politiques de sécurité comme celles de l'environnement ont peu à voir avecle terrorisme international : il s'agit de sécurité au sens de confiance dansles réseaux numériques, dans le marché, dans la politique et d'environnement ausens de climat, énergie, protocole de Kyoto, etc. Certes les questionsd'identité et de moralité existent encore, mais elles sont résiduelles, etanalysées à travers les nouveaux paradigmes. C'est là aussi que le discours générique face à une situation spécifique prendune autre dimension. La régression cognitive en situation consiste à placer unfait dans une mise en conformité à d'autres grands récits fondateurs etmnémotechniques. Un événement mutatif ne fait sens et ne reste dans les mémoirescomme tel, un trauma transformé en fable, que s'il fait intertexte. C'est alorsqu'il acquiert une dimension d'irréversibilité. Tout est fait dans les récitsépiques et les mythes fondateurs pour donner aux actes de violence une dimensionsymbolique, c'est-à-dire à la fois irréversible, fondatrice d'une nouvelleorganisation et unique. Ce processus n'échappe pas aux médias, et recoupe lestrois fonctions répertoriées par Harold Lasswell (1948 : 32-51) : observation( surveillance de l'environnement et de ses risques), corrélation (création dulien social et du consensus par débat d'opinion et persuasion) et transmission( socialisation aux normes et aux croyances d'une culture). J'y ajoute lafonction d'acculturation pour tenir compte de la mondialisation et de ladiversité des publics actuels qui ne sont plus seulement nationaux maisinternationaux et intra-nationaux, du fait des diasporas multiples. Convaincreces publics diasporiques de la validité des grands récits fondateurs etmnémotechniques n'est pas le moindre des enjeux de l'internationalisation desmédias. Les catégories de l'expressif et du mutatif posent d'emblée l'intéressantequestion du corpus. Daniel Dayan montre lui -même à quel point les catégoriesqu'il a établi avec Elihu Katz (1992) à propos de la télévision cérémonielle (« coronations, conquests and contests ») sont marquées par le choix du corpus et lesbornes temporelles définies. Sur un corpus décalé, James W. Carey peut leuropposer, ou plutôt, y rajouter d'autres notions moins nobles et épiphaniquesautour des rituels d'exclusion, d'humiliation et d'excommunication. Cescatégories sont proches de la représentation des violences extrêmes etpermettent de réintégrer la régression cognitive et les dimensions de l'idéationobsédante dans l'équation médiatique. Aujourd'hui, il faudrait aussi se poser laquestion du statut des catastrophes naturelles qui ont fait irruption dans notrepaysage médiatique pour leur violence extrême. Elles entrent en résonance avecle paradigme de l'environnement dont on n'a pas fini d'évaluer l'importance etd'interpréter les conséquences. .. Ma recherche en cognition située se place aussi dans une perspectived'environnement. En effet, je m'inspire de la biologie culturelle pour modéliserla transmission des idées sur celle de la transmission des réseaux neuronaux. Ils'agit d'appliquer les théories de l'esprit aux notions d'information et derécit, d'acteurs et de situation. Des auteurs comme Joseph LeDoux (1996) ,Michael Tomasello (1999), Lawrence Harrison et Samuel P. Huntington (2000) ontétabli des parallélismes frappants entre la reproduction sociale de la cultureet la reproduction biologique des cellules de notre cerveau. J'essaie d'ajouterla dimension de la communication dans cette équation en me fondant sur l'idéeque les médias imitent ces mécanismes dans la reproduction de données à l'ère del'analogique et du numérique. Les médias sont construits comme desextériorisations des réseaux neuronaux, le cerveau humain étant en co-évolutionavec l'environnement biologique. Réciproquement, les médias permettent desintériorisations de la production d'autres réseaux neuronaux, produits par laculture et mis en circulation par les médias, en situation. Il ne s'agit pasd'entrer dans les détails chimiques de notre biologie qui sont étudiés pard'autres chercheurs, en neurosciences, mais de voir les incidences que cela apour les médias en société. Désormais, les avancées des sciences cognitivespermettent de passer de l'analyse clinique à l'analyse sociale et politique ,avec précaution certes, mais sans atermoiements. Dans cette perspective, les médias sont des prothèses à mémoires. Ce sont desformes mémorielles de traitement de l'information et de résolution de problèmes ,sinon de conflits. Comme la mémoire, ils peuvent procéder à l'oubli, àl'obfuscation, à la sélection, au détournement. .. Ce sont des artefactscognitifs non biologiques qui organisent une mémoire collective, partagée ,distribuée, autour de grands récits mnémotechniques. Ils viennent soutenir etmodifier la mémoire biologique, dont le fonctionnement est limité en stockage .Les représentations qu'ils véhiculent peuvent aussi être internalisées en retouret alimenter la mémoire individuelle, comme par procuration, s'y installantdurablement pour nourrir la base des connaissances. D'où l'importance d' êtrevigilants en ce qui concerne les représentations et particulièrement celles desviolences extrêmes, car notre capital social est en partie renouvelé par elles .Elles procèdent à nos cadrages cognitifs socialisés et scellent les valeurs denotre pacte culturel. D'où aussi la nécessité de recherches qui incorporentproducteurs et récepteurs dans un continuum où les médiaset leurs messages soient évalués comme thèmes privilégiés de l'attentioncollective. Cette approche en cognition située est peu développée en France. À cet égard, laposition de la recherche française reste très timide, sans doute à cause d'uncertain ancrage disciplinaire dans les seules sciences humaines, comme leremarque Dayan (2005 : 218), sans doute aussi par crainte d'un réveil desfantômes de la censure. Il est pourtant essentiel de se confronter à notreexistence biologique et médiatique. Ne pas le faire, c'est laisser la place auxpaniques ou aux abus. Des vues extrêmes de la nature humaine ou del'environnement peuvent alors régner sans être remises en cause. Cela peut nouscacher notre véritable nature tout comme celle des médias, à l'interface de lasphère publique et de la sphère privée. Pour éviter tout déterminisme –technologique, biologique ou médiatique –, il faut se plonger dans la complexitéet la plasticité sans cesse renouvelées de cette relation média-cerveau .Complexité et plasticité permettent de ne pas la prendre comme une fatalité et ,en conséquence, d'essayer d'élaborer des solutions et de proposer desalternatives ou des reconfigurations. Cette approche permet également de résoudre ces tensions paradoxales que toutchercheur en information-communication éprouve à l'égard des médias, à un momentou à un autre de ses recherches : la reconnaissance de leur utilité sociale etcivique, d'une part, la nécessité de les critiquer avec dureté et bienveillance ,d'autre part. Se rappeler qu'ils ne sont somme toute que des prothèses permet dene pas leur laisser une autorité à laquelle ils n'ont pas droit, par un abus de« faire croire » dans lequel ils se posent en homéostasie avec nous. Face auxmédias dont l'utilité sociale n'est pas à remettre en cause, le chercheur a doncpour mission la critique qui est à la fois un interdit de résignation, un droità l'indignation et un devoir de proposition .
Cet article est une réponse à l'entretien de Daniel Dayan (Questions de communication, 8, 2005). Par delà l'analyse des médias américains et leur représentation du conflit israelo-palestinien, il s'articule autour de trois interrogations: la couverture de la guerre et de la terreur, la réversibilité des images et la médiation journalistique, la relation entre événement et situation. Il s'achève par l'examen de ce que la cognition peut apporter comme contribution scientifique au discours de la méthode en sciences de l'information et de la communication. Il pose qu'il est essentiel de se confronter à notre existence biologique et médiatique, pour comprendre la véritable nature des médias, à l'interface de la sphère publique et de la sphère privée. La complexité et la plasticité sans cesse renouvelées de la relation média-cerveau permettent de se départir de positions figées et de reconfigurer l'analyse de situations historiques telles que la guerre et la barbarie.
sciencesInfo_10-0145422_tei_1106.xml
termith-487-communication
L'objet de nos travaux concerne les citations en fin d'articles ou de livres, qu'elles fassent partie de documents modernes ou anciens. Si nous les utilisons dans cette recherche sur des documents récents dans un but de veille technologique, la méthode proposée est suffisamment générique pour pouvoir s'appliquer sur des documents anciens et donc patrimoniaux. A l'origine, cette méthode a été appliquée sur des tables de matières (Belaïd, 2001), elle a été ensuite adaptée à des corps de factures, puis à différents types de références. On pourrait également l'étendre à d'autres documents comme les catalogues de bibliothèques. La veille technologique a pour objectif d'exploiter les informations disponibles permettant de disposer d'indicateurs bibliométriques sur l'environnement de l'entreprise. Parmi les types d'informations qui sont les plus directement accessibles, les références bibliographiques constituent un matériau de choix pour le veilleur. Que les informations soient internes ou externes à l'entreprise, elles fourniront, pour un coût relativement faible, une matière première de qualité, prenant en compte des productions mondiales, souvent spécialisées dans divers domaines. L'apport des références bibliographiques est bien sûr immédiat lorsqu'elles se trouvent sous forme électronique structurée, faisant ressortir rapidement les éléments informatifs directement exploitables par les techniques d'analyse bibliométrique. Mais bien souvent, l'information bibliographique n'est pas disponible sous forme électronique et donc pas structurée, rendant laborieuse la tâche d'analyse bibliométrique. Il se pose alors le problème de la rétroconversion de l'information à partir de supports de documents variés qui constitue un travail de recherche en soi. S'intéressant plutôt à la mesure de facteurs d'impact en bibliométrie, les références bibliographiques étudiées sont celles présentes à la fin des publications scientifiques (articles, conférences, livres…) et qui renvoient aux travaux d'un auteur cité dans le corps du texte. On parle également de citations, la différence entre « citation » et « référence » n'étant qu'une différence de perspective entre l'auteur citant et l'auteur cité : pour l'auteur citant, c'est une « référence » à l'auteur cité; à l'inverse, pour l'auteur cité, c'est une « citation » par l'auteur citant (Lawrence et al., 1999). L'Institut de l'information scientifique et technique (INIST) du Centre national de la recherche scientifique (CNRS) a entrepris une expérience de numérisation de ces références à cause notamment de l'intérêt des citations pour des études de bibliométrie et/ou scientométrie. Le LORIA s'est associé à cette expérience par l'étude de méthodes de rétroconversion adaptées aux fonds bibliographiques. Ce travail constitue pour le LORIA une expérience supplémentaire en rétroconversion de documents microstructurels qui a été d'abord initiée sur la reconnaissance de notices bibliographiques (fiches) cartonnées, en pré-ISBD (Belaïd, 1998), et étendue ensuite à la reconnaissance de tables des matières pour l'alimentation du serveur d'articles, Calliope (Belaïd, 2001). La citation correspond aux références bibliographiques qui sont présentées à la fin d'une publication scientifique. C'est un des éléments structuraux d'un article scientifique standard qui peut être utilisé pour l'analyse. La fondation dans les années 1960 à Philadelphie (Etats-Unis) de l'Institute for Scientific Information (ISI) par Eugène Garfield a permis d'utiliser la citation comme unité de mesure. A l'origine, ces citations étaient utilisées exclusivement pour la recherche d'information. Elles étaient jugées plus objectives que des mots-clés soit extraits du texte soit proposés par un indexeur. De nos jours, dans certaines bases de publications sous format électronique, on établit des liens hypertextes permettant de relier les citations dans un article scientifique aux textes des publications correspondantes. Pour des besoins d'analyse de la production scientifique, on a cherché des indicateurs objectifs qui ont vite conduit à une mesure réductrice de cette production en la limitant aux publications scientifiques (articles, congrès, rapports, etc.) et technologiques (brevets). Le premier indicateur évident a été le nombre de publications auquel on a préféré rapidement la citation qui présente l'avantage d'avoir reçu l'aval de la communauté scientifique. Cet indicateur donne une mesure de l'impact d'un travail, d'un laboratoire, voire d'un pays dans un domaine scientifique donné. De la même façon, en analysant des citations de revues à revues, on peut mesurer l'impact de celles -ci. Il s'agit du facteur d'impact tel qu'il est défini et fourni par le Journal Citation Reports (JCR) de l'ISI. Une autre utilité des citations est l'analyse des relations au sein d'une communauté scientifique par l'analyse des cooccurrences de ces citations. La principale méthode : l'analyse des cocitations développée par Small (Small et al., 1974), mesure la ressemblance de documents cités par le nombre de documents les citant simultanément. Une classification de ces cocitations permet d'identifier des îlots au sein de la littérature cœur définissants des fronts de recherche. Cette mesure de cocitations de documents peut être également utilisée pour les auteurs. Toutes ces citations sont actuellement fournies par une seule base qui est le Science Citation Index (SCI) de l'ISI. De ce fait, des biais existent forcément, notamment : il ne traite que les articles de périodiques (laissant de côté tout ce qui est comptes rendus de congrès, rapports, thèses, etc.); il favorise fortement les revues anglophones; certains domaines, notamment les sciences physiques, sont mieux couverts que d'autres, comme les sciences de l'ingénieur, et d'autres domaines sont complètement négligées, comme les sciences humaines. L'intérêt de notre travail est de proposer une méthode permettant à l'INIST de combler une partie de ces manques. Notamment, deux choses sont recherchées : pour la recherche d'information, il s'agit de rajouter au sein des notices bibliographiques des bases PASCAL et FRANCIS des liens entre des documents citants et des documents cités; pour l'analyse de l'information scientifique et technique, fournir des citations pour des revues et dans des domaines qui ne sont pas traités par l'ISI. La norme internationale ISO 690:1987 1 précise les éléments à mentionner dans les références bibliographiques aux documents publiés, monographies et publications en série, aux chapitres et articles qu'elles contiennent ainsi qu'aux brevets. Elle détermine un ordre obligatoire pour les éléments de la référence et établit des règles pour la transcription et la présentation de l'information provenant de la publication source. Elle précise notamment que l'information indiquée dans la référence bibliographique doit être en général transcrite comme elle se présente dans la source. Les détails de forme tels que l'emploi des majuscules, la ponctuation, etc., ne sont pas nécessairement reproduits dans la transcription. On peut ajouter des éléments à l'intérieur d'une référence pour corriger des erreurs évidentes dans la source, traduire ou translittérer une information, pour apporter une identification plus précise des personnes ou des collectivités par un développement des initiales ou des acronymes, enfin pour distinguer des noms de lieux identiques en ajoutant des termes qui les qualifient, etc. Les références bibliographiques auxquelles on s'intéresse sont des descriptions bibliographiques très particulières : elles ne sont pas écrites par des professionnels de la documentation, mais par des auteurs dont les préoccupations sont souvent éloignées de la standardisation de présentation des références. De ce fait, les problèmes de reconnaissance sont très spécifiques. Aucune règle de présentation universellement reconnue n'existe. C'est pourquoi les « règles » suivies seront plus une transcription des choix éditoriaux qui ont été faits dans le document analysé et qui sera révisée à chaque nouveau document étudié. Les habitudes d'écriture engendrent des difficultés lors de la reconnaissance automatique de la structure. Ces difficultés sont de plusieurs ordres : structurels, typographiques et logiques. Les problèmes structurels peuvent survenir si l'on touche à la disposition des éléments bibliographiques (composants) soit en les omettant soit en les changeant de place. Ces problèmes sont relativement fréquents sur certains champs comme les dates, les éditeurs ou le lieu qui peuvent ne pas paraître très importants aux yeux du rédacteur. Les problèmes typographiques concernent d'une part le non respect des styles réservés à certains champs, comme le style italique pour les titres de monographies par exemple, l'utilisation de séparateurs spécifiques entre les composants, et d'autre part les abréviations. Les abréviations, même dans une référence sans confusion de type ou de champ, restent un problème pour la reconnaissance. En effet, si le contenu des champs est censé aider à l'identification du champ, il y a des cas où l'utilisation des abréviations est courante et empêche de construire un catalogue exhaustif de la représentation, par exemple, du nom d'une conférence. Certes, il existe des normes pour construire les abréviations (l'ISBD donne certaines règles, et [AFN1990] informe que la norme ISO 832 recense des abréviations), mais les auteurs les connaissent-ils ? Par exemple, le nom de la conférence « International Conference on Document Analysis and Recognition » peut être abrégé de différentes manières : ICDAR, qui est le sigle correspondant, Int. Conf. Doc. Anal. and Rec., Inter. Conf. Doc. Anal. & Rec., Internat. Conference on Document Analysis and Recog., etc. De plus, ces possibilités peuvent encore être déclinées selon les auteurs, de manière imprévisible. Les problèmes logiques concernent les confusions de champs ou l'apport d'ambiguïté dans la définition de certains champs. On peut par exemple penser à l'emploi des chaînes numériques aux endroits des dates ou des numéros de pages, ou de noms d'auteurs au début des titres. L'expérience que nous avons menée a porté sur 140 revues de pharmacologie. La numérisation de ces références bibliographiques a été réalisée par une société de service et le résultat final obtenu par reconnaissance optique des caractères (OCR) se présente sous forme de documents XML « bien formés » où chaque référence est individualisée au sein d'un ensemble représentant toutes les références extraites du même article (voir figure 1). Cependant, les différentes parties de cette référence (auteurs, titre, revue, date…) ne sont pas identifiées. Le jeu de caractères utilisé dans les fichiers de données est l'ISO-Latin 1 (norme ISO 8859-1), les autres caractères alphabétiques n'appartenant pas à ce jeu de caractères étant représentés sous forme d'entités caractères comme définis dans la norme SGML (Iso 8879:1986), par exemple &Scedil; pour la lettre Ş. Les problèmes rencontrés pour réaliser la segmentation des références bibliographiques en ces différents champs sont de plusieurs ordres : ceux liés à la numérisation : caractères non reconnus, caractères mal reconnus (comme notamment la lettre D majuscule qui donne parfois la lettre I majuscule suivie d'une parenthèse fermante), voire oubliés (comme le sont parfois les signes de ponctuation); ceux liés à l'hétérogénéité des données : la structure d'une référence dépend du type de document cité et de l'origine de l'article citant puisque le modèle de la citation dépend de la revue où est publié l'article. Encore que sur ce dernier point, il convient de signaler que toutes les revues n'appliquent pas leurs propres règles avec la même rigueur et que, souvent, la forme de la référence varie fortement d'un article à l'autre au sein de la même revue; à cela s'ajoutent aussi les fautes de frappe, les omissions et, parfois, la présence de notes qui n'ont rien à voir avec des références bibliographiques. Au vu de ce qui vient d' être dit, la rétroconversion de références bibliographiques ne peut se faire de manière descendante, en étant guidée par un modèle générique de structure. Les variations sont trop fortes d'un document bibliographique à un autre pour pouvoir réutiliser le même modèle. Aussi, la méthodologie proposée est de type ascendant. Elle repose sur l'étude locale de la structure commune à toutes les références écrites dans un même document bibliographique et l'adaptation en conséquence de règles heuristiques issues des références elles -mêmes. En effet, l'étude d'un document bibliographique nous enseigne deux choses importantes : il existe au sein des références beaucoup de régularités; chaque champ (ou élément bibliographique) comprend certains mots-clés ou parties de discours très spécifiques; Ainsi, la méthodologie de rétroconversion des références sera basée sur l'exploitation de ces deux particularités. Etant écrites par le même rédacteur ou produites par le même éditeur de texte, les références bibliographiques présentent certaines régularités que nous tentons d'utiliser. Ces régularités touchent essentiellement le facteur structurel et se traduisent par les indications suivantes : unicité de la forme pour les mêmes types de référence; respect de la position pour les mêmes champs : lorsque les auteurs sont cités (cas général), ils sont toujours en début de référence; pour les références d'articles de périodiques, un champ comme la date de publication ne peut occuper qu'un nombre très limité de positions : Devant la complexité de la représentation de la structure du texte et l'extraction de l'information de cette structure, plusieurs méthodes d'analyse de documents ont été proposées sur la base d'étiquetage de l'information par extraction de mots-clés. Un modèle linguistique est ensuite cherché à partir de ces mots-clés pour mettre en évidence le contenu informationnel des champs textuels et pour rechercher des unités linguistiques dont la référence à la réalité est stable. Par exemple, l'hypothèse première du modèle SYDO (Lallich-Boidin et al., 1990) est que les « parties du discours » (PdD) construites autour du nom (ou syntagmes nominaux) sont celles qui sont porteuses de sens et donc celles qu'il faut identifier. Le modèle linguistique proposé reflète le mécanisme permettant le passage de mots-clés au syntagme nominal. Il y a deux familles de méthodes d'étiquetage automatique de PdD : les méthodes à base de règles (Brill, 1992; Tapanainen et al., 1994) et les méthodes stochastiques (DeRose, 1988; Marshall, 1983; Merialdo, 1994), fonctionnant toutes deux en mode supervisé et non supervisé. Ces deux types d'étiqueteurs sont adaptés au traitement automatique du langage naturel (TALN). Mais certains documents ou certaines parties du document ne sont pas du langage naturel (tables de matières, citations, documents administratifs, formulaires, etc.). Leur structure et leur contenu étant plus hétérogènes, il faut donc envisager des techniques moins orientées vers un typage syntaxique strict et se contentant de faire un typage plus grossier. Par exemple, il n'est pas nécessaire de faire ressortir des structures de phrases (sujet – verbe – complément) qui sont souvent absentes dans ce type de document, mais plutôt des catégories morphologiques, de type nombre, abréviation, nom commun, nom propre, etc. Elle consiste à séparer les composants textuels de la référence comme le titre ou le nom de la conférence, en se basant sur l'idée que ces composants contiennent des groupements de mots morphologiquement proches. Les règles utilisées consistent à se servir des mots étiquetés par leur morphologie pour les étendre en syntagmes (par exemple nominaux) couvrant si possible les mots inconnus (non reconnus par OCR, noms propres ou techniques), et définir ainsi l'étendue de ces champs. Cette technique de regroupement de mots peut être étendue dans une moindre mesure à d'autres champs comme les auteurs en regroupant les noms propres, les initiales de prénoms et les connecteurs. L'approche proposée pour la rétroconversion des références bibliographiques comporte trois étapes principales : étiquetage morphologique des mots du texte; analyse morphologique en vue de l'extraction des champs. Cette extraction peut se faire de deux manières séparées et parfois complémentaires : analyse structurelle en vue de la correction de certaines références incomplètes. Cette analyse se base sur les références complètement validées pour générer des modèles qui seront utilisés pour la correction des références mal numérisées, mal écrites ou comportant encore des mots non reconnus lors de la première étape. Le jeu de données est formé de 64 articles choisis au hasard et contient 2 575 références. Chaque élément, mot ou autre, d'une référence bibliographique se voit attribuer une étiquette selon une liste préétablie, définie a priori et susceptible d' être modifiée en fonction des résultats obtenus (voir tableau 1). De plus, l'étiquette d'un nombre est suivie du nombre de chiffres (« 2002 » sera ainsi étiqueté « NM4 ») et l'étiquette d'un signe de ponctuation est suivie du signe de ponctuation lui -même (« - » sera ainsi étiqueté « PU - »). Principales étiquettes primaires Etiquette Signification Etiquette Signification AN Chaîne alphanumérique IT Initiale CC Connecteur (et, &… ) JM Abréviation de titre de revue CWC Nom commun en capitale NMn Nombre (n chiffres ) CWL Nom commun en minuscule PG Expression « p. » ou « pp. » CWU Nom commun en majuscule PN Nom propre (d'auteur ) EA Expression « et al. » PR Préposition ED « editors » (Ed., Eds. ) PUs Ponctuation (signe s ) IN Expression « In : » UN Inconnu Nous avons développé un « étiqueteur » simple, mais ad hoc, qui reconnaît les mots en fonction de leur forme (initiales, nombres…) ou de leur appartenance à une liste (noms d'auteur, abréviations de titre de revue, noms communs anglais ou français…) et leur attribue l'étiquette correspondante. Un même mot peut se voir attribuer plusieurs étiquettes. Dans le cas où l'élément ne peut être classé dans aucune catégorie, il reçoit l'étiquette « UN ». Les différentes listes utilisées (voir tableau 2) proviennent de ressources électroniques de l'INIST, à savoir la base de données PASCAL pour les noms d'auteurs, les titres de revue et les pays, et des dictionnaires électroniques pour les mots anglais et français ainsi que les prépositions. Les différentes listes utilisées Liste Taille Noms propres 626.641 Mots français 596.967 Mots anglais 128.679 Revues 7.279 Pays 362 Prépositions 180 Le fichier obtenu après étiquetage se distingue du fichier original par la présence d'un élément « TAG » contenant les mots étiquetés (voir figure 2). Cette analyse se fait par étude de la régularité et de la redondance ou par regroupement des mots du texte en fonction de leur étiquette. Dans le premier cas, pour chaque référence, on définit qualitativement ou quantitativement l'élément recherché, par exemple la date, en fonction de son type, mais aussi de sa position et des caractéristiques des éléments, mots et ponctuation, qui l'entourent. La régularité et la fréquence de ces caractéristiques sur l'ensemble des références d'un même article permet de repérer et de baliser l'élément recherché pour la plupart des références. Dans le deuxième cas, la recherche se fait en agglomérant des mots du texte en fonction d'un certain nombre de règles. A l'issue de ces deux étapes, chaque terme ou regroupement de termes reçoit un nouveau label identifiant de manière plus explicite le champ d'appartenance (voir tableau 3). Principales étiquettes secondaires Etiquette Signification Etiquette Signification AU Auteurs PG Pagination DA Date de publication TIP Titre de l'article JN Titre de la revue VOL Numéro du volume La méthode d'analyse morphologique utilisée est moins directe. Des règles de regroupement adaptées aux différents styles sont employées pour faire ressortir certains types de champs. Parmi les règles de regroupement, nous trouvons des : règles de réduction : conduisant à l'agrégation d'étiquettes consécutives identiques dans la partie de discours, comme par exemple le regroupement des deux initiales (IT) composant un prénom d'auteur, ou des noms propres (PN), en tenant compte du type de ponctuation (PU) qui peut se trouver dans un tel contexte; règles de formation : initialisant la création des champs par association d'étiquettes complémentaires dans leur description, comme par exemple l'association du nom et du prénom dans la formation du nom de l'auteur; règles d'extension : concaténant des sous-champs reconnus séparément, comme par exemple « auteur » et « et al. » permettant de confirmer le champ auteur, ou extension du titre à partir d'un noyau initial composé de trois noms, en ajoutant d'autres connecteurs de noms et prépositions pour étendre ce champ le plus largement possible; règles d'agglutination : permettant d'absorber, dans des contextes favorables, les termes inconnus, comme par exemple un terme inconnu entre deux auteurs; règles mixtes : combinant des règles de formation pour détecter les candidats potentiels et des régularités pour sélectionner le meilleur d'entre eux. C'est notamment le cas de la structure de la pagination qui est très variable (voir tableau 4). En effet, cette structure peut être précédée par un indicateur de pagination comme « p. » et le tiret peut manquer. Formats de pagination numérique – numérique alphanumérique – alphanumérique alphanumérique – numérique numérique alphanumérique Nous montrons ci-après l'application des règles précédentes pour la recherche des champs importants de la référence. Une référence bibliographique peut être précédée d'une clé, comme un numéro ou l'abréviation du nom du premier auteur. La présence de cette clé entraîne que la date ne peut être que sous une forme numérique simple, par exemple 1998, mais jamais suivie d'une lettre, par exemple 1998b. Cette clé, si elle existe, est obligatoirement au début de la référence. Elle peut être entourée par un signe de ponctuation double (crochets, accolades ou parenthèses) ou suivie par un signe de ponctuation simple (point, tiret ou parenthèse fermante). De plus, si le premier élément, ponctuations non comprises, est numérique, il est supposé être incrémenté à chaque référence. L'ensemble de ces paramètres est analysé pour l'ensemble des références d'un même article et un calcul statistique simple permet de déterminer s'il y a une clé et, dans l'affirmative, quelle est sa forme. Ensuite, dans toutes les notices dont le premier élément correspond à la forme obtenue, on ajoute une balise « CLE » autour de cet élément. La figure 3 montre un exemple de balisage du champ « clé » et les résultats d'extraction de ce champ dans les trois premières références d'un article. Le gris clair est utilisé pour identifier un tel champ. Comme indiqué précédemment, la recherche des auteurs se fait par agglomération de mots en fonction d'une série de règles. Pour cela, nous avons défini une approche capable de lire ces règles suivant une syntaxe simple, et de les appliquer aux références à traiter. En même temps, on réunit en un élément séparé les responsables de publication (editors) à l'aide de règles utilisant l'étiquette « ED ». Une référence bibliographique comporte généralement une date qui peut être sous une forme numérique simple, par exemple 1998, ou suivie d'une lettre, par exemple 1998b. Comme pour la clé, on recherche la date en se basant sur la régularité, seulement on n'a pas de position a priori. La seule indication, c'est qu'elle commence par un nombre à 4 chiffres allant de 1850 à l'année en cours. Donc, on analyse l'environnement de toutes les dates potentielles pour déterminer cette position et les types d'élément qui l'entourent. Les titres posent un énorme problème car on peut y trouver de tout, y compris des noms d'auteur, des dates, voire des titres de revue ou de monographie. Le but ici est donc surtout de repérer au moins une partie du titre pour déterminer sa position. Ce repérage permettra déjà de corriger certaines erreurs sur le champ « Auteurs » car ce champ ne peut être que devant le champ « Titre ». La règle de base pour agglomérer les mots est d'avoir 3 noms communs en minuscule d'affilée; ensuite, on ajoute les noms communs, les connecteurs, les prépositions environnantes pour étendre ce champ. Contrairement à ce que l'on pense, le format des numéros de page ne se limite pas à un numéro suivi d'un tiret suivi d'un numéro, même si c'est la forme générale. On peut également avoir une chaîne alphanumérique, c'est-à-dire composée de chiffres et de lettres, au lieu des numéros, ou bien un seul numéro ou une seule chaîne alphanumérique (voir tableau 4). De plus, le tiret peut avoir été mal reconnu ou pas reconnu du tout. Pour ces raisons, on utilise à la fois la méthode par agglomération pour réunir les éléments pouvant former la pagination, avant de faire un choix en fonction de la régularité. Les numéros de volume sont généralement présents sous la forme d'un numéro placé devant les numéros de page. Cependant, il arrive qu'il soit suivi d'un numéro de fascicule entre parenthèses ou d'une mention de numéro spécial ou hors série. Il est donc possible, avec quelques règles simples utilisant le contexte, de retrouver cette volumaison. A cette étape, une grande partie de la référence bibliographique a déjà été balisée, ce qui permet de jouer sur le contexte. De plus, un titre de revue est généralement composée d'abréviations standardisées (étiqueté « JM ») ou de noms communs en capitale. Pour limiter les erreurs, on ne traite pas les références concernant des monographies et que l'on peut repérer à la présence de certaines étiquettes comme « ED » ou « IN ». L'exemple de la figure 4 donne une synthèse des résultats d'extraction de tous les champs où chaque dégradés de gris identifie un champ particulier. L'analyse morphologique a montré quelques limites et cela pour plusieurs raisons : certains termes sont inconnus et ne peuvent pas être intégrés, la structure est trop complexe, confusion entre la pagination et l'année, etc. L'idée de l'analyse structurelle est d'exploiter ce qui a été bien reconnu et de l'utiliser comme modèle pour la correction du restant. Ainsi, la procédure consiste à extraire de tels modèles et à les utiliser ensuite pour la correction. Nous proposons deux types de modèles inter et intrachamp permettant une correction progressive des champs. Les premiers proposent une correction des limites entre champs et les seconds permettent de corriger les structures internes des champs. Nous avons utilisé une modélisation de couples permettant de révéler les associations possibles de champs. La recherche se fait en trois étapes : à partir de chaque partie de champ trouvée, on détermine la partie de champ qui la suit, puis on comptabilise ainsi les fréquences des couples de sous-champs identiques qui se suivent avec leur séparateurs. La méthode sélectionne le couple le plus fréquent si plusieurs se présentent; comme on cherche à délimiter correctement les champs, on relève pour chaque couple les délimiteurs rencontrés et leur fréquence; enfin, on construit le modèle type en enchaînant les couples comme pour un jeu de dominos. La modélisation permet de corriger les attributions de champs, et essentiellement de compléter les portions de champs non identifiées lors de cette première approche. Des cas simples sont définis afin de corriger les références lorsque le contexte nous fournit assez d'informations. Ainsi, dans la figure 5 ci-dessus, le titre de l'article a pu être étendu jusqu' à la parenthèse fermante, séparateur du champ date et du champ titre. De plus, toujours grâce au modèle, on a pu déduire que « Psychopharmacology » est un titre de revue de part son emplacement dans la référence (encadré entre le titre de publication et le numéro de volume), ainsi que par ses séparateurs de champs. Une fois obtenus l'identité du champ et ses limites, on essaie de trouver les types d'éléments utilisés dans le champ et leur structure, en termes de séquences et de séparateurs. Dans le cas du champ « auteurs », les initiales peuvent paraître avant ou après le nom de famille, chaque nom ou initiale peut être suivi par une marque de ponctuation. La forme peut être différente pour le premier auteur, et le dernier auteur peut être précédé par un connecteur. C'est pour cette raison que nous considérons trois cas différents. En utilisant ce modèle, on vérifie chaque référence. Dans l'exemple montré dans la figure 6, le connecteur « and » indique la position du dernier auteur et la chaîne « Wilson, J.M. » correspond au nom d'un auteur. Ceci veut dire que le mot « Gene » ne peut pas appartenir à ce champ et ainsi il est exclu. Après cela, une nouvelle itération est encore nécessaire pour identifier le champ « Titre » à partir du modèle interchamp et le tester avec son modèle intrachamp. Les expérimentations ont été faites sur 140 revues de pharmacologie. La numérisation de ces références bibliographiques a été réalisée par un sous-traitant. La base de données est composée de 64 articles choisis aléatoirement à partir d'un ensemble d'origine. Il contient 2,575 références. L'ensemble de la base de données a été balisé à la main en vue de disposer d'un document de vérité pour les comparaisons. Après l'étape de correction interchamp, 96.6 % des mots ont été placés correctement dans le vrai champ tandis que 0.5 % ont été faussement attribués. Le tableau 5 montre les résultats champ par champ et pour toute la référence exprimée comme le pourcentage de références où un champ spécifique est complet, incomplet, non trouvé ou erroné. Pour la référence entière, ceci veut dire que tous les champs sont complets, au moins un est incomplet, aucun n'a pas été trouvé ou au moins un est faux. Résultats Champs Complet Partiel Non trouvé Faux Auteurs 90.2 % 6.6 % 0.3 % 2.9 % Titre 82.4 % 15.4 % 1.7 % 0.4 % Revue 92.4 % 2.9 % 3.2 % 1.5 % Date 97.7 % 0.0 % 2.3 % 0.0 % Volume 93.6 % 0.4 % 5.8 % 0.2 % Pagination 94.7 % 0.6 % 4.3 % 0.4 % Référence complète 75.9 % 18.8 % 0.0 % 5.3 % La technique de structuration des citations peut s'appliquer sur tout type de document possédant une bibliographie. Une adaptation rapide de cette technique permet également de traiter des éléments textuels proches à structure hétérogène, tels que des tables de matières. L'intérêt des deux applications est évident dans la rétroconversion de documents anciens. En effet, la table de matières et les citations sont des points d'accès importants dans la mesure où on les lie aux documents référencés même si ces documents restent sous forme image. Une étude récente a montré que cette technique peut être généralisée à des documents administratifs à structure hétérogène, comme les formulaires et plus spécifiquement les factures. En effet, les similitudes avec les références bibliographiques sont la régularité (unicité de la forme dans une même facture, respect de la position de certains champs…) et l'absence de règles de présentation. Néanmoins une différence importante concerne la redondance, qui peut être absente ou faible sur les factures ne comportant qu'un seul ou peu d'articles. Dans ces cas, l'étiquetage reste possible grâce à la forte structuration en colonnes des différents champs. Après l'étiquetage primaire, un colonage est réalisé. Lorsque le nombre d'articles est assez élevé, la redondance associée à ce colonage permet également d'éliminer le bruit présent fréquemment sur les factures (tampon parasite, notes manuscrites…). Un autre problème propre aux factures concerne l'hétérogénéité des données du champ « désignation ». Mais sa localisation reste possible grâce à la forte présence de chaînes alphabétiques et à la régularité des champs voisins. Les expérimentations ont été faites sur 276 factures, soit 1704 articles. Le pourcentage des articles reconnus est de 91.02 %, celui des champs reconnus de 92.56 %. On peut imaginer que pour d'autres types de documents à structure hétérogène, cette technique peut être adaptée simplement en tenant compte de la spécificité de chacun qui ne met pas en cause la méthodologie de structuration ascendante basée sur l'étiquetage, le regroupement morphologique et la modélisation adaptative. L'analyse morphologique nous donne de bons résultats pour certains types de champs même s'ils ne sont pas reconnus à 100 %. Mais dans beaucoup de cas, cette étape ne suffit pas à reconnaître correctement toutes les références. C'est pourquoi nous avons utilisé la reconnaissance hors contexte et la synthèse. De cette manière, la méthode de reconnaissance utilisée est plus souple. Après la synthèse, on peut visualiser les mots qui ont été reconnus pour deux champs différents. Il est important de pouvoir les localiser pour qu' à la suite d'une étude, on puisse déterminer à quel champ ils appartiennent vraiment. L'approche de modélisation donne des résultats fiables. Le modèle ainsi généré s'avère un outil fiable pour la correction des citations. La première approche de la correction est très concluante sur la base de données fournie par l'INIST. Les résultats obtenus sont maintenant à confirmer sur d'autres bases de références bibliographiques. Cependant, pour généraliser l'étape de correction, il faudra être plus strict dans la détermination du champ d'un mot. La modélisation intrachamp sera alors très utile pour confirmer l'appartenance d'un mot à un champ. L'objectif futur sera de généraliser tout le procédé de reconnaissance des champs à d'autres types de documents. Il serait intéressant de faire une étude des heuristiques, il s'agit de retrouver et formaliser tout les cas que l'on peut corriger grâce au modèle constitué. Ces heuristiques, soumises à un expert (spécialiste en bibliographies), pourront alors être associées à un type particulier de correction. Des règles de correction pourront ainsi être établies. Pour certains champs, comme les clés, les noms d'auteurs et titres de revue, on peut retrouver une régularité et une forme type du champ (syntaxe). Cette modélisation intrachamp permettrait une vérification pour déterminer si un mot est susceptible d'entrer dans le modèle établi du champ. Il serait aussi intéressant d'établir les modèles des autres formes de références que l'on rencontre dans les fichiers sources (par exemple : les monographies, notices, etc.). Une évaluation de la reconnaissance des champs pourrait se faire à l'aide d'une base de donnée prébalisée. On recherchera ensuite à généraliser cette méthode de reconnaissance à d'autres types de documents .
Cet article décrit une méthodologie de rétroconversion de citations permettant de retrouver les champs composants à partir de leur texte reconnu par OCR. Cette méthodologie se base à la fois sur la régularité et la redondance de certains champs ainsi que sur la localisation de parties de discours spécifiques à certains champs. Le résultat de la rétroconversion sert à des études de bibliométrie et de scientométrie. Si nous utilisons cette méthodologie sur des documents récents dans un but de veille technologique, nous considérons qu'elle est suffisamment générique pour pouvoir s'appliquer sur des documents anciens et donc patrimoniaux.
sciencesInfo_04-0290026_tei_DN_073_0159.tei.xml
termith-488-communication
Tout professionnel de l'information sait désormais que l'environnement des bibliothèques a radicalement changé. C'est le cas en particulier pour les bibliothèques universitaires et de grandes écoles, désignées dans cet article sous le nom générique de « bibliothèques académiques ». La question de fond est aujourd'hui de savoir quelles sont les orientations à prendre pour intégrer un nouveau contexte d'intervention, marqué par des évolutions à la fois intrinsèques et exogènes. • Un premier mouvement est en effet lié au monde documentaire. Il s'agit bien sûr de l'avènement du document numérique qui tend à devenir le modèle structurant de la production et de la diffusion du savoir. Pour les bibliothèques, le numérique a deux impacts directs. D'une part, le cœur technique du système bibliothèque se modifie en profondeur, puisqu'on passe d'une fonction d'acquisition et de gestion de collections à une fonction de gestion d'accès à des ressources documentaires. On passe en quelque sorte d'une logique de stocks à une logique de flux. D'autre part, la montée d'Internet comme source première d'information a transformé les pratiques et les comportements documentaires des usagers. Toutes les études disponibles 1 montrent que l'accès à distance à l'information est désormais la règle, avec Google comme standard de la recherche documentaire. Pour le cas particulier des bibliothèques universitaires, il faut ajouter à ces évolutions générales l'impact du numérique sur le renouvellement des dispositifs de communication scientifique. Une littérature professionnelle déjà abondante existe pour analyser l'ensemble de ces évolutions et leur impact sur les structures documentaires. • Le deuxième facteur de changement provient, lui, de l'environnement institutionnel des bibliothèques académiques. En effet, dans les pays occidentaux, l'enseignement supérieur est en phase de transformation radicale dans ses orientations et son fonctionnement. Cette dimension est nettement moins abordée dans la littérature professionnelle. Or elle est essentielle dans le sens où elle renvoie les bibliothèques universitaires à un questionnement de fond sur leur finalité, leurs missions et leurs logiques d'intervention. La définition d'une bibliothèque se fait bien sûr par rapport à son public, autrement dit à l'ensemble des individus qui peuvent fréquenter ses salles de travail ou son portail documentaire. Mais, par-dessus cela, cette bibliothèque sert d'abord une collectivité, représentée par l'institution universitaire. À côté donc de la prise en compte des nouvelles pratiques documentaires, et en synergie avec cette analyse, il faut prendre en compte aussi les évolutions et les enjeux de l'institution et de son mandat. En effet, depuis environ une dizaine d'années se multiplient, au niveau des organisations internationales compétentes comme des pouvoirs publics nationaux dans les pays occidentaux, des études et des analyses 2 aboutissant au constat de la nécessité d'une réforme de l'enseignement supérieur. Deux facteurs concomitants expliquent cette évolution, tous deux liés à l'évolution de l'économie mondiale. • Le premier élément de contexte est l'entrée des sociétés occidentales dans une économie du savoir, où la création de valeur est sous-tendue par la maîtrise de l'information et de la connaissance, et les entreprises engagées dans un développement fort de leurs actifs immatériels. C'est ainsi une nouvelle ère économique qui s'engage et que les pouvoirs publics entendent stimuler, par exemple en Europe avec la Stratégie de Lisbonne. Cette société de la connaissance exige de hauts niveaux de compétences et de qualifications pour assurer la compétitivité des pays et la performance des entreprises. Il y a ainsi une pression forte des pouvoirs publics sur l'enseignement supérieur pour qu'il contribue effectivement à la formation d'un capital humain compétitif. L'objectif est notamment de transférer des savoirs transversaux et méthodologiques qui puissent mettre les diplômés en situation de savoir apprendre tout au long de leur vie et qui favorisent leur employabilité, autrement dit leur capacité d'intégration et d'évolution dans le monde professionnel. • La mondialisation est le second facteur clé d'évolution. L'enseignement supérieur est ainsi entré dans un mouvement net d'internationalisation. L'Organisation de coopération et de développement économiques (OCDE) prévoit que, en 2025, sept millions d'étudiants effectueront tout ou partie de leurs études à l'étranger, contre moins de deux millions en 2001. La tendance est également au développement de formations off shore (implantation d'institutions occidentales notamment dans les pays asiatiques et africains) ou d'enseignements complets dispensés à distance. Dans ce contexte, et suivant en cela le mouvement également inscrit dans d'autres secteurs, l'enseignement supérieur est amené à intégrer les mécanismes de l'économie de marché : compétition entre établissements, logiques de concentration pour garantir la visibilité internationale, dispositifs de contractualisation et de régulation des financements publics en fonction des résultats atteints, développement des logiques d'accréditation et de certification qualité, professionnalisation du management et de la gouvernance des établissements, communication plus agressive sur les avantages concurrentiels pour attirer les meilleurs étudiants et enseignants, etc. On aboutit ainsi à une vision instrumentale de l'enseignement supérieur comme une activité de service, encadrée par des objectifs affichés et des critères de performance. Le modèle américain de l'université de recherche, régulé par l'autonomie et la concurrence (possibilité de sélection des étudiants, liberté de recrutement des enseignants, gestion autonome des contrats de recherche) tend à devenir la référence. L'enseignement supérieur est même considéré comme un marché mondial, intégré par exemple dans l'Accord général sur le commerce des services géré par l'Organisation mondiale du commerce (OMC). Dans le même temps, l'enseignement supérieur doit affronter la massification des volumes d'étudiants reçus (dans les pays de l'OCDE, le nombre d'étudiants a doublé en une grosse dizaine d'années, passant de 68 millions en 1991 à 132 en 2004) ainsi que leur relative diversification. Il doit prendre en compte également une réalité économique de plus en plus tendue pour les étudiants : une bonne part d'entre eux doit en effet aujourd'hui assurer une activité rémunérée pour pouvoir financer ses études, situation qui joue bien sûr sur leur disponibilité et l'organisation de leur temps de travail universitaire. Dans ce contexte, le développement de solutions de e-learning, voire de formations entières à distance, est une des réponses, bien qu'on semble s'accorder aujourd'hui sur l'efficacité des solutions hybrides (présentielles et distancielles) du blended learning. Dans ces conditions, outre des investissements dont beaucoup considèrent qu'ils sont insuffisants, les maîtres mots sont renforcement des missions et refonte de l'organisation et du fonctionnement des dispositifs d'enseignement supérieur nationaux, dans le sens de la recherche d'une plus grande efficacité. De nombreux pays occidentaux ont ainsi mis en œuvre des réformes dites de « modernisation » de leur système d'enseignement supérieur. C'est, par exemple, le cas de la France avec la loi instaurant l'autonomie des universités 3 ou de la Suisse avec le projet de renouvellement de la loi fédérale sur l'aide aux hautes écoles 4. Certes, sur le terrain, les difficultés, souvent liées aux complexités organisationnelles et administratives, voire les réticences 5 face à la nouvelle vision de l'université, existent. Il n'en reste pas moins que, à tort ou à raison, des tendances lourdes sont très nettement perceptibles et que l'avènement d'un nouvel enseignement supérieur est entériné par les politiques publiques. Ce nouveau modèle crée un certain nombre d'enjeux pour l'enseignement supérieur qui ont chacun des conséquences directes sur les missions que doivent remplir les bibliothèques universitaires et, partant, sur leur positionnement stratégique au sein de leur institution. Cumulée à l'évolution des comportements documentaires des communautés académiques, cette situation nouvelle modifie très sensiblement le champ d'activité des bibliothèques, voire leur mission et leurs modes d'intervention. Le projet Stratbib : indicateurs stratégiques pour les bibliothèques académiques, 2008-2009 Cet article est issu d'une réflexion menée au cours de l'année 2008 dans le cadre d'un projet de recherche * visant à l'identification d'indicateurs stratégiques pour les bibliothèques académiques, complémentaires des outils déjà existants d'évaluation de la performance (norme ISO 11 620 **) et de la qualité (dispositif LIBQUAL ***). Plus généralement, ce projet, qui s'inscrit dans le champ de l'évaluation de l'impact des bibliothèques, s'intéresse à la question de l'alignement stratégique des bibliothèques académiques vis-à-vis de leur environnement (usagers, institution universitaire et partenaires documentaires) et, partant, aux outils d'évaluation qu'il est nécessaire de mettre en place pour piloter leur positionnement. La logique de la démarche d'évaluation suppose d'identifier d'abord les enjeux et les axes de développement stratégique pour les bibliothèques académiques dans le contexte actuel, pour ensuite en déduire les indicateurs pertinents propres à évaluer l'orientation de ces bibliothèques face à ces enjeux. Le projet de recherche comprend donc trois phases sur deux années (2008-2009) : élaboration d'un modèle d'analyse stratégique générique pour les bibliothèques académiques; identification d'une batterie d'indicateurs de performance stratégique pertinents et conception du dispositif de mise en œuvre de ces indicateurs; test sur plusieurs bibliothèques académiques de la batterie d'indicateurs et du dispositif de mise en œuvre. Pour réaliser la première phase du projet, un groupe d'une vingtaine de responsables de bibliothèques académiques (universités et hautes écoles) de Suisse romande **** s'est réuni au cours de deux journées de travail, pour porter une analyse permettant d'aboutir à un modèle stratégique global pour leurs bibliothèques. Leurs réflexions ont concerné en particulier l'impact des transformations de l'enseignement supérieur sur l'évolution de leur structure documentaire et sur les priorités stratégiques à l' œuvre. La suite du projet de recherche fera l'objet de publications ultérieures. Projet de recherche Stratbib : Indicateurs stratégiques pour les bibliothèques académiques, 2008-2009, projet financé par le Réseau de compétences de Suisse occidentale Information Services Netword (RCSO ISNet), piloté par l'auteure, avec le partenariat des bibliothèques de l'Université de Genève, de l' École polytechnique fédérale de Lausanne et de la Haute École de gestion de Genève. ISO. Information et documentation : indicateurs de performance des bibliothèques, norme ISO 11620:2008, Genève, ISO, 2008, 91 p. La nouvelle version de la norme, publiée en août 2008, intègre désormais des indicateurs liés aux ressources numériques et aux services électroniques des bibliothèques. Nous remercions ici les responsables des bibliothèques de l'Université de Genève, de l' École polytechnique fédérale de Lausanne, de la Haute École de gestion de Genève, des Hautes Écoles spécialisées de Zurich, de l'Institut des hautes études internationales et du développement à Genève, de la Haute École de santé de Genève, de la Haute École de travail social de Genève, de la Bibliothèque cantonale et universitaire de Fribourg, du Centre hospitalier universitaire vaudois à Lausanne. Une des transformations importantes de l'enseignement supérieur réside dans la diversification de ses missions. Les fonctions classiques sont confirmées et même dynamisées et de nouvelles s'ajoutent. Globalement, il y a consensus à considérer que le rôle de l'enseignement supérieur se déploie aujourd'hui autour de trois pôles. • La formation tout au long de la vie tend à devenir le modèle de référence. La mission de formation initiale reste fondamentale mais plus exclusive. Les établissements d'enseignement supérieur sont appelés à accueillir d'autres types de publics, notamment les personnes en situation professionnelle voire dans certains cas le grand public. On ajoutera à cela (même si dans nos pays les évolutions sont lentes) le renouvellement des modes de transmission des savoirs vers une pédagogie plus active, qui cherche à faire de l'étudiant le véritable acteur de sa formation et de l'enseignant un tuteur tout autant chargé de guider que de transmettre des savoirs constitués. • La recherche appliquée est réaffirmée comme axe de développement majeur pour les établissements d'enseignement supérieur. Elle est d'ailleurs le critère premier utilisé dans les ranking d'universités, comme le fameux classement de Shanghai. En corollaire, les institutions d'enseignement supérieur sont appelées à valoriser les résultats de cette recherche, ce qui passe par une mission de transfert des savoirs. La pression sur les publications et sur leur nombre, par exemple, est souvent forte comme élément de visibilité des institutions. La valorisation des résultats de la recherche est aussi justifiée par une logique d'ouverture de l'université à la société. • Le développement de l'employabilité des diplômés est enfin énoncé comme une nouvelle mission de l'enseignement supérieur. Il s'agit de forger chez les futurs diplômés la capacité à acquérir et à renforcer leurs compétences ainsi qu' à savoir s'intégrer dans le milieu professionnel puis y évoluer. Dans certains pays européens, la préparation à l'insertion professionnelle des étudiants est ainsi désormais comprise dans le mandat de l'université. Pour la bibliothèque académique, une conséquence immédiate de cet élargissement des missions de l'enseignement supérieur est la diversification de ses publics. La logique est désormais de prendre en compte les particularités de chacun des segments de public auxquels il faut proposer une offre différenciée de ressources et de services spécifiques. Deux cibles de prise en charge spécifique émergent nettement, d'une part celle des étudiants et d'autre part celle de la recherche. Les étudiants restent bien sûr un public premier. La nécessité est là de bien partir de la demande, c'est-à-dire de la situation réelle des besoins documentaires des étudiants et non de raisonner à partir de l'offre documentaire elle -même (son existence ne supposant pas mécaniquement sa pertinence pour un public donné). Il est ainsi stratégique pour chaque bibliothèque universitaire de disposer d'une connaissance et d'une approche fines des niveaux de prescription des enseignants vis-à-vis des différentes catégories d'étudiants, car c'est cette prescription qui module les comportements documentaires des étudiants. L'uniformisation des études supérieures en Europe sur le modèle de Bologne amène à distinguer globalement deux grandes catégories. • Les étudiants de niveau bachelor (licence en France) ont de fait besoin de peu de documentation complémentaire en regard du niveau d'exigence à leur endroit. En clair, un étudiant en bachelor peut presque obtenir son diplôme en n'ayant recours qu' à Google pour des recherches, à l'exception peut-être de son travail de fin d'études ! L'exploitation de ressources documentaires ne va que très peu au-delà des listes de lectures demandées ou recommandées par les enseignants. Il est donc stratégique pour la bibliothèque de garantir l'accès possible à ces ressources prescrites, ce que peut-être encore trop de bibliothèques universitaires ne font pas assez. La tendance est également au développement de plateformes pédagogiques électroniques (les virtual learning environments) sur lesquels les étudiants trouvent l'ensemble des ressources retenues comme indispensables par les enseignants. Certaines bibliothèques ont d'ailleurs déjà investi ces plateformes en proposant par exemple aux enseignants un service de numérisation de chapitres d'ouvrages (incluant la gestion des droits), des dossiers documentaires, etc. Certes, on peut penser que le développement déjà évoqué d'une pédagogie active et heuristique (travail autonome, groupes de projets, etc.) augmentera à terme les besoins documentaires de ces étudiants, mais là encore sur un niveau de besoin que peut satisfaire le recours direct à Internet. Pour ce public, la cible stratégique serait donc presque davantage celle des enseignants-prescripteurs que des étudiants eux -mêmes, pour lesquels il reste cependant essentiel de réfléchir sur les modalités d'accueil et sur les services d'accompagnement. • Les étudiants de master correspondent déjà plus à l'offre documentaire numérique (périodiques électroniques et bases de données) disponible dans les bibliothèques universitaires. Une étude publiée aux États-Unis en 2002 6 relève la même distinction : près de la moitié des undergraduate n'utilisent qu'Internet pour leurs recherches documentaires complémentaires, alors que les usagers « avancés » (graduate et faculté) utilisent une pluralité de ressources, souvent encore beaucoup de papier et perçoivent Internet et leur bibliothèque comme complémentaires. • Dans le champ pédagogique, une troisième catégorie, à laquelle sont encore peu habituées les bibliothèques, concerne le public de formation continue (il représente, par exemple, un tiers des apprenants de la faculté de psychologie de l'Université de Genève), pour lequel une offre de service et des modalités d'accès spécifiques sont à concevoir. Ce public est perçu comme plus difficile à satisfaire, du fait de sa faible disponibilité et peut-être de sa moindre familiarité avec les systèmes documentaires, mais souvent aussi en raison d'un comportement de consommateur, voire de client. Le deuxième grand segment cible pour les bibliothèques académiques est celui de la recherche. Cette activité tend en effet à devenir un élément de positionnement concurrentiel majeur pour les institutions d'enseignement supérieur. Dans le réseau suisse des Hautes Écoles spécialisées, par exemple, avec l'introduction des masters la recherche devient un axe de développement prioritaire. L'étude américaine précédemment citée montre que les enseignants universitaires passent plus de temps à faire de la recherche qu' à enseigner. Le constat général est celui de l'autonomie de ce segment vis-à-vis des ressources documentaires et d'un usage presque totalement à distance. Par contre, au-delà de l'offre de ressources (dont on attend cependant aussi que la bibliothèque valide la qualité et la pertinence), deux logiques semblent stratégiques à mettre en place : d'une part, une logique de services ciblés à forte valeur ajoutée, qu'on évoquera plus loin; d'autre part, une posture de proximité (qui peut aller jusqu' à la délocalisation d'antennes de la bibliothèque au sein des centres de recherche) et de réactivité vis-à-vis des besoins. Par rapport à l'activité de recherche, il se révèle alors essentiel de disposer d'un bon niveau d'information sur les projets et axes de recherche spécifiques développés dans l'institution ainsi que de compétences effectives dans le domaine de la veille et de la production documentaires. La diversification des missions de l'enseignement supérieur déjà évoquée ainsi que la multiplication des profils de publics qu'elle entraîne obligent également les bibliothèques universitaires à élargir et à diversifier leur offre de prestations. Cette nouvelle gamme de services se structure, nous semble -t-il, autour de cinq grands pôles, répondant de façon complémentaire à l'ensemble des besoins de la communauté académique, donc permettant de décliner les différentes missions des institutions d'enseignement supérieur. Le premier pôle de service concerne la mise à disposition d'un espace de travail, d'apprentissage et de convivialité, ciblant principalement les étudiants. On sait que la fréquentation documentaire des espaces physiques des bibliothèques est en décroissance. Par contre, un nouveau concept se développe de centres de travail et de vie au sein du campus, avec des espaces modulables pour accueillir différents types d'activités, dont des services documentaires, et une accessibilité garantie par des horaires d'ouverture élargis. C'est le cas du modèle développé outre-Atlantique des information commons 7 (en Suisse, une structure de ce type est en cours de création à l' École polytechnique fédérale de Lausanne, à partir d'une nouvelle construction intégrant la bibliothèque). Dans ces lieux, outre un continuum de services proposés autour de l'information (au sens large du terme), on note l'importance renouvelée de l'accueil et de la médiation. Dans le sens, d'une part, d'une logique de disponibilité plus forte pour les usagers (d'où l'importance des compétences de communication des personnels en contact avec le public); d'autre part, d'une personnalisation de la relation avec l'usager (certaines bibliothèques universitaires mettent ainsi en place un dispositif de tutorat documentaire individualisé à l'intention des étudiants ou des groupes de travail). Le deuxième pôle de service, pendant électronique de cette offre de proximité redynamisée, est la garantie de l'accès à distance, donc disponible de n'importe où et n'importe quand (étudiants et enseignants sont de moins en moins sur les campus et jonglent de plus en plus dans leur emploi du temps), à un ensemble de ressources. Trois remarques sont à faire concernant ce pôle de service. D'une part, on constate que la diversification touche aussi les ressources mises à disposition par les bibliothèques. Celles -ci ne sont plus seulement documentaires, mais aussi pédagogiques (bibliothèques de documents de cours, supports audiovisuels) ou logicielles (suites bureautiques, traitement de données, gestion de bibliographies, outils de publication multimédia, etc.). Pour ce qui concerne les modalités d'accès aux ressources, les maîtres mots sont désormais simplicité, flexibilité, intégration des ressources, pour s'adapter aux générations Google 8. Enfin, les logiques d'assistance à l'usager, qui doivent impérativement s'associer à ce pôle de service, sont également en évolution. Il semble que le modèle classique du service de référence devienne obsolète avec la prédominance des usages à distance (les statistiques de l'Association of Research Libraries montrent une baisse de moitié du niveau d'activité de ce type de service pendant les quinze dernières années 9). Et les quelques retours d'expérience disponibles montrent que la sollicitation d'un service de référence en ligne concerne essentiellement des questions d'ordre « logistique » (rappel des conditions de prêt, localisation de telle ressource, modalités d'interrogation de telle base de données, etc.), sauf à ce que celui -ci soit véritablement spécialisé sur une thématique particulière. Une approche alternative réside dans le développement d'une assistance à l'usager sur le réseau, par la mise en ligne de dispositifs en ligne d'orientation vers les sources, de parcours documentaires, de guides de recherche, etc. 10 C'est le troisième axe de structuration de la gamme de services. Les bibliothèques universitaires ont depuis longtemps la pratique de la formation des usagers, mais plutôt sur un registre instrumental, visant à faciliter l'appropriation des outils. La nouvelle mission de renforcement de l'employabilité des diplômés pousse à privilégier des formations de nature plus méthodologique, aptes à développer de véritables compétences informationnelles pour les étudiants. Ainsi, à côté de formations « généralistes » qui font de plus en plus l'objet de contrôles et de validation des acquis ou de modules d'auto-apprentissage proposés en ligne (la bibliothèque de sciences économiques et sociales de l'Université de Genève a, par exemple, adapté à son contexte le didacticiel de recherche documentaire Calis 11), la logique actuelle est de développer des formations plus ciblées, correspondant aux besoins de telle ou telle population (par exemple sur la gestion électronique des bibliographies, sur la constitution de bibliographies au format académique, sur la recherche bibliométrique de citations, etc.) 12. La mise en place de services ciblés, en général à forte valeur ajoutée et conçus pour certains publics cibles, constitue le quatrième pilier de l'offre de service des bibliothèques universitaires. Cet axe de développement concerne en particulier le segment de la recherche, avec la mise en place de services spécifiques, voire de cellules d'appui dédiées, gérant des ressources documentaires spécifiques, proposant des prestations plus ciblées de veille documentaire ou encore l'animation de plateformes collaboratives ou de wikis pour des groupes ou des communautés de recherche, des pôles de compétence, etc. Enfin, dernier axe de structuration de l'offre de service, les bibliothèques investissent de plus en plus dans l'assistance à la production, ce pôle de service étant lié à l'enjeu de transfert des connaissances énoncé comme une mission de base de l'enseignement supérieur. Certaines bibliothèques universitaires sont motrices dans le développement et l'animation d'archives ouvertes ou de dépôts institutionnels, se positionnant comme partenaires du management institutionnel de l'information. Une autre forme de développement concerne l'assistance à la publication académique. Cette dimension peut concerner les travaux d'étudiants, qui se développent avec l'essor de la pédagogie active et par projets. Elle concerne aussi la communication scientifique. La bibliothèque du Centre hospitalier universitaire vaudois (CHUV) de Lausanne, par exemple, assiste les chercheurs pour la construction des indicateurs bibliométriques de plus en plus exigés pour l'évaluation de la recherche. Et le réseau des bibliothèques des Hautes Écoles spécialisées de Suisse alémanique est engagé dans des projets de numérisation de fonds de publications de recherche via la responsabilité du contrôle des métadonnées. Une autre évolution majeure de l'enseignement supérieur consiste en la volonté de création ou de développement de pôles de compétences ou d'excellence à renommée internationale, autrement dit de pôles de spécialisation, jouant en général la carte de la transdisciplinarité considérée comme un nouvel axe clé de structuration de l'enseignement supérieur. Plusieurs pays européens ont engagé des politiques de soutien financier spécifiques pour la création de ces pôles de « compétitivité » universitaire. C'est, par exemple, le cas de l'Allemagne, avec un plan pluriannuel concernant neuf « universités d'élite », 37 pôles d'excellence et 39 écoles doctorales. Dans le même temps, il reste bien sûr la nécessité de disposer d'un réseau national de structures d'enseignement supérieur de proximité, couvrant donc un ensemble plus diversifié de domaines de formation. L'impact pour les bibliothèques, selon l'orientation de l'institution dans laquelle elles se trouvent, est celui d'une double logique à mettre en œuvre dans les politiques documentaires, pour accompagner ce double mouvement. Il faut d'une part garantir une offre « généraliste », de base (on peut penser à cet égard que les livres électroniques prendront une place de plus en plus grande), notamment pour les étudiants de premier cycle. Or certaines bibliothèques fonctionnent sur une culture de valorisation des niveaux avancés de savoir et ne sont pas suffisamment sensibles à assurer ce niveau d'offre. Encore une fois, à ce niveau, la codéfinition de l'offre documentaire avec les enseignants est essentielle. Et, en parallèle, il faut développer des pôles documentaires de spécialisation quand l'établissement s'engage dans cette stratégie. Ces pôles peuvent être liés à un domaine d'intervention spécifique de l'établissement (citons l'exemple des relations internationales pour la bibliothèque de l'Institut des hautes études internationales et du développement, à Genève) ou à un pôle de compétence scientifique, associant éventuellement plusieurs établissements ou plusieurs disciplines (la Haute École de gestion de Genève vient par exemple de créer, avec quelques autres institutions suisses, un centre de recherche en ingénierie des services). Les politiques documentaires des bibliothèques universitaires sont certainement ainsi appelées à évoluer pour suivre un mouvement qui pousse l'enseignement supérieur à sortir de son organisation disciplinaire traditionnelle pour privilégier l'interdisciplinarité, en se focalisant sur des domaines d'intervention et en y concentrant l'ensemble des ressources nécessaires. Cette question de l'investissement sur des pôles de compétences pose cependant le problème des financements. Sur les activités de recherche, les financements extérieurs ou privés sont de plus en plus la règle (la tendance est même à l'exigence d'autofinancement des projets de recherche). Au niveau des bibliothèques, il n'y a pas consensus : certaines universités considèrent avant tout leur bibliothèque comme un service commun, fonctionnant sur les budgets internes; d'autres bibliothèques bénéficieront de financements privés issus de projets de recherche, par exemple pour l'acquisition de bases de données très pointues donc très coûteuses; d'autres encore s'engagent dans la recherche de fonds de tiers, par exemple pour financer des projets de numérisation liés à de programmes de recherche ou des axes de spécialisation de l'institution. Derrière ce double mouvement de transversalité/spécialisation, il y a aussi l'idée d'accepter de renoncer à l'exhaustivité dans l'offre documentaire. En jouant sur et avec les réseaux, l'usager a finalement un potentiel d'accès à beaucoup d'information. L'approche stratégique est plus aujourd'hui dans une politique documentaire plus offensive parce que plus ciblée. Reste cependant la limite de la dépendance des bibliothèques aux fournisseurs et éditeurs de contenus numériques. Bien sûr, l'analyse des enjeux institutionnels et de leurs conséquences pour les bibliothèques universitaires ne suffit pas à couvrir l'ensemble des dimensions à prendre en compte pour définir des orientations stratégiques globales. Elle indique cependant nettement des pistes à suivre (et de plus en plus suivies) par ce type de bibliothèque pour tracer les évolutions de leur activité, autour de quelques axes clés complémentaires : diversification, intégration, interactivité et réactivité. Une première dimension globale du positionnement des bibliothèques académiques est nettement celle de la diversification liée directement au renforcement des missions de l'enseignement supérieur. La gamme des profils de publics s'étend et celle de la nature et des niveaux de réponse aussi, par la diversité des ressources offertes et par l'étendue des services proposés. Il s'agit donc d'une approche plus large et plus ouverte de la bibliothèque. L'idée est d'intervenir là où c'est nécessaire et utile pour l'institution et la communauté (développement de la maîtrise de l'information, soutien aux activités de recherche, valorisation des productions scientifiques, etc.). C'est aussi d'investir sur une pluralité de modes d'assistance à l'usager qui permette de prendre en compte la diversité des pratiques de travail, d'apprentissage, de recherche. On voit aussi que des usages non strictement documentaires de la bibliothèque ne sont plus forcément considérés comme iconoclastes et sont parfois même stimulés, pour intégrer véritablement la bibliothèque au sein de sa communauté. En complément, et pour garantir les synergies, une deuxième dimension stratégique est celle de l'intégration. La logique d'orientation de la bibliothèque est de s'articuler aux principaux enjeux de son institution (ce qui suppose qu'elle a mis en place un système d'information et de veille sur ces enjeux) et de proposer à chaque fois une contribution spécifique. Le titre du récent congrès de l'International Association of Technological University Libraries (IATUL) déjà cité, Embedding libraires in learning and research, autour de l'idée d'encastrement, d'enchâssement de la fonction documentaire dans le pédagogique et la recherche, est évocateur à ce propos. La posture est la même vis-à-vis des usagers. La tendance actuelle est de se couler dans les pratiques et les comportements des étudiants (à titre anecdotique, de plus en plus de bibliothèques acceptent les téléphones portables et le bruit dans certaines salles de travail, puisque c'est l'environnement courant des jeunes générations); d' être dans une relation de coproduction avec les enseignants (par exemple, travailler ensemble sur les bibliographies fournies aux étudiants); de soutenir les chercheurs vis-à-vis des enjeux de visibilité et de valorisation de la recherche. Globalement donc, ce n'est pas (ou plus) la logique documentaire qui préside à la définition de la bibliothèque et de son fonctionnement mais bien celle des besoins de la communauté dans son ensemble et des individus qui la composent. Une autre déclinaison de cette logique d'intégration réside dans la tendance également observée d'insérer dans les lieux mêmes de la bibliothèque d'autres services de l'institution (par exemple, le centre d'édition, le service informatique, le service de tutorat pédagogique, etc.) dans une perspective de décloisonnement. Une troisième dimension est certainement celle de l'interactivité. Il s'agit bien sûr de la dimension de communication qui prend (ou reprend ?) une place essentielle tout en se déclinant sur les différents modes de relation avec les usagers, qu'ils soient sur place ou à distance. L'université tend à devenir un dispositif par lequel l'étudiant peut intégrer des savoirs mais surtout apprendre à apprendre. La bibliothèque académique, ses équipes et les outils qu'elle développe, se placent, au même titre que d'autres services de l'institution, comme partenaires dans cette acquisition de connaissances et de compétences. La tendance est de privilégier au maximum une personnalisation de la relation de service proposée par la bibliothèque, de la même façon que l'organisation pédagogique que mettent en place les réformes et les politiques publiques actuelles favorise la modularisation et l'individualisation des parcours de formation. Enfin, un dernier axe de la posture stratégique actuelle des bibliothèques universitaires nous semble être celui de l'intervention et de la réactivité. La bibliothèque émerge ainsi non plus comme service logistique et fonctionnel destiné à la communauté académique, dans le sens d'un fournisseur de ressources et de prestations, donc d'un service support; mais comme véritable acteur au même titre que les autres services de l'établissement, partenaire direct des activités et de la vie de cette communauté, relais des enjeux et des objectifs de l'institution, contributeur effectif à la réalisation des missions. Ce nouveau mode d'intervention a des incidences directes sur le mode de fonctionnement de la bibliothèque. D'une part, au-delà d'une régulation routinière des activités, qui caractérise souvent le back office de ce type de structure, il est essentiel de développer une culture et des compétences de gestion de projet au sein des équipes, pour pouvoir intégrer ce mode de fonctionnement qui se répand de plus en plus dans les institutions (la définition du projet global, sa déclinaison en pôles d'objectifs et l'évaluation des résultats, dans le mouvement du new public management, tend à devenir la règle). D'autre part, il est incontournable pour les instances responsables de la bibliothèque d' être intégrées dans les circuits de réflexion, de coordination voire de décision de l'institution, afin à la fois de signifier ce positionnement de partenaire et plus seulement de prestataire, et de lui donner les moyens de se réaliser (de plus en plus de bibliothèques sont de toute façon engagées dans la signature de conventions d'objectifs). Dernière conséquence pour les bibliothèques : être sur un registre propositionnel et interventionniste pour tout ce qui touche, au sein de l'institution, aux systèmes de management de l'information, afin d'y faire valoir leurs compétences d'ingénierie et d'animation de systèmes documentaires. L'engagement dans ces orientations stratégiques pose bien évidemment la question des moyens. Il n'est pas réaliste de penser que chaque bibliothèque universitaire a la capacité d'investir sur tous les fronts en même temps. Différentes options stratégiques émergent : être dans une logique globale, en définissant un plan d'orientation général qui fixe les priorités stratégiques de la bibliothèque en fonction de celles de l'institution; privilégier une approche ciblée, en garantissant un service de base minimum sur les besoins fondamentaux et en investissant en compétences et en moyens sur un ou deux axes clés pour l'institution, sur lesquels l'expertise de la bibliothèque sera concentrée et reconnue; être dans une logique de niche, en déployant une offre éclatée de micro-services à partir de l'identification de micro-besoins ou de projets particuliers concernant des petits ensembles d'usagers potentiels stratégiques pour l'institution. Au final, l'évolution de l'enseignement supérieur contribue bien, avec d'autres facteurs, à forger une nouvelle vision stratégique de la bibliothèque académique. Celle -ci se conçoit aujourd'hui comme un système intégré de services, dont le lieu et les collections (qui définissaient la bibliothèque à l'origine) ne sont que des éléments parmi d'autres. Il s'agit en fait de mettre en place un dispositif catalyseur de ressources, de services et d'expertise, pour la pédagogie et la recherche. La valeur ajoutée de la bibliothèque provient alors non pas de l'accès à des ressources mais de la combinaison de cet ensemble de prestations complémentaires liées à des sources et ressources d'information multiples et de relations de services spécifiques. Et sa justification est bien assise sur sa capacité à contribuer activement aux orientations, aux objectifs et aux enjeux de l'institution dont elle dépend. • Janvier 2009
Les bibliothèques universitaires et de grandes écoles sont actuellement confrontées à une sensible évolution de leur environnement de travail. Liée en bonne partie aux mutations technologiques à l'œuvre avec le numérique et Internet, cette évolution n'est pas sans forts impacts sur l'offre et l'organisation de ces établissements. Première étape d'une recherche menée en Suisse romande, cette étude se penche sur les nouvelles modalités de la relation des bibliothèques académiques avec leur environnement (usagers, institution universitaire et partenaires documentaires) pour élaborer un modèle d'analyse stratégique générique pour ces bibliothèques. Avant de définir cette nouvelle posture stratégique fondée sur la diversification, l'intégration, l'interactivité et la réactivité, Florence Muet aborde successivement l'évolution du monde documentaire et celle de l'enseignement supérieur, la diversité des publics des bibliothèques, l'élargissement de l'offre de services, la transversalité et la spécialisation de l'offre documentaire.
sciencesInfo_10-0061737_tei_DOCSI_idPAS_D_ISBN_pu2009-04s_sa02_art02.tei.xml
termith-489-communication
QU'ON L'APPELLE CAPITAL IMMATÉRIEL, patrimoine immatériel ou économie de l'immatériel, la notion est d'actualité. Depuis trois ans, tout un faisceau d'annonces martèle l'actualité de cette notion qu'est venue couronner, au printemps 2007, la création par le gouvernement d'une Agence du patrimoine immatériel de l' État (APIE) [1 ]. L'information professionnelle au sens large non seulement participe de l'économie de l'immatériel mais en constitue le cœur et le moteur. Écoutons Maurice Lévy et Jean-Pierre Jouyet, auteurs d'un rapport [9] à l'origine de la création de l'APIE : « Les TIC sont à l'économie de l'immatériel ce que le développement de l'électricité a été pour le modèle industriel. Elles sont à la fois le moteur du changement mais aussi sa conséquence. Les TIC facilitent la transformation des éléments immatériels (recherche et développement, capital humain) en innovation et donc en croissance. » Ce nouveau secteur de l'économie de l'immatériel relève de l' « âge de l'accès » et de la « révolution de la nouvelle économie » (Rifkin [19]). Le capital immatériel peut être défini comme tout ce qui n'est pas matériel ni quantifiable dans les comptes de l'entreprise, mais participe à la richesse matérielle de celle -ci. La reconnaissance de cette notion permet de prendre en considération des éléments non tangibles, sans réalité physique ni même financière immédiate, dans la richesse globale de l'entreprise. Les deux composantes essentielles en sont le capital humain et le capital structurel. De fait, les produits et fonctions de l'information professionnelle sont constitutifs du capital immatériel : propriété intellectuelle, brevets, marques, dessins et modèles, bases d'information, gestion des connaissances, archives, patrimoine historique. Au-delà de l'entreprise, au niveau de l' État, un autre élément relevant également du secteur de l'information participe de cette notion : les informations publiques. Tous ces aspects relèvent du « procès d'informationnalisation » décrit par Bernard Miège [17 ], correspondant, au-delà de l'extension des seuls usages de l'informatique, au développement des usages de l'information, tant publics que privés. L'objet du présent article est d'étudier la place de l'information professionnelle dans la notion de capital immatériel et de mettre en lumière ses enjeux. Après avoir constaté l'actualité de ce thème, cette étude propose des éléments de compréhension des conditions d'émergence du thème de l'immatériel. L'analyse historique de ces dernières décennies dans les secteurs de l'information professionnelle et de l'économie révèle une évolution qui débouche sur la notion de société de la connaissance. En effet, au-delà des envolées lyriques des gourous de l'ère post-industrielle qui depuis bien longtemps annonçaient l'avènement de la société de l'information, ce sont les économistes, considérant désormais la connaissance comme un actif immatériel, qui reconnaissent la valeur ajoutée de l'information professionnelle. Enfin, un panorama des différentes catégories d'actifs immatériels relevant de l'information vient préciser le lien entre activités informationnelles et économie de l'immatériel. L'actualité de cette économie de l'immatériel ne concerne pas que les entreprises privées. Elle s'est également concrétisée dans le secteur public avec la mise en œuvre à partir de 2001 de la loi organique relative aux lois de finances (LOLF). En entrant dans une logique d'évaluation des résultats par rapport aux objectifs fixés, elle va imposer à l' État de devenir un meilleur gestionnaire de son patrimoine et donc de mieux le connaître. Suivirent, en 2006, les créations d'un Observatoire du capital immatériel, puis d'une Commission sur l'économie de l'immatériel mandatée par le ministre de l' Économie, des Finances et de l'Industrie. La présidence de celle -ci fut confiée en mars 2006 à Maurice Lévy, président du groupe Publicis, et à Jean-Pierre Jouyet, chef du service de l'Inspection générale des finances (devenu depuis secrétaire d' État aux Affaires européennes). En décembre 2006, cette commission a remis au ministre un rapport intitulé L'économie de l'immatériel : la croissance de demain [9 ]. Suivant en cela l'une des principales recommandations du rapport Lévy-Jouyet, le ministre de l' Économie, des Finances et de l'Industrie créa, le 23 avril 2007, un service à compétence nationale dénommé Agence du patrimoine immatériel de l' État. L'APIE a été placée sous la double autorité du directeur de la Direction générale du trésor et de la politique économique (DGTPE) et de celui de la Direction générale de la comptabilité publique (DGCP). Sa vocation est d'aider les ministères et administrations à mieux recenser et mieux vendre leur patrimoine, un patrimoine qu'ils négligent souvent et parfois même ignorent. Parmi ces trésors cachés, figurent en première place les produits des activités d'information et les richesses patrimoniales. L'objectif premier est d'abord de les recenser puis de les exploiter car, ainsi que le notait le rapport Lévy-Jouyet : « L' État et les autres administrations sont riches d'un potentiel d'actifs immatériels important […] Faute de gérer correctement ces actifs, l' État prive l'économie d'une source de richesses essentielle ». Des ressources qui pour lui s'étendent jusqu' à « l'exploitation de notre histoire, de notre géographie ou de nos territoires ». Cette valorisation du patrimoine immatériel (image, culture, traditions, etc.) concerne désormais les collectivités territoriales. Leur rôle, qui s'était considérablement élargi avec les lois de décentralisation de 1982, s'est encore étendu en 2003 : communes, départements et régions, avec aussi l'apparition de nouveaux espaces de proximité, les « pays » depuis les lois sur l'aménagement du territoire de 1995 et 1999. Par ailleurs, ces deux dernières années ont vu la publication de nombreuses études sur le capital immatériel. Plusieurs organismes se penchèrent ainsi pour la première fois sur le sujet. Parmi les études les plus remarquées notons les deux rapports [5] [6] sur le capital immatériel et la place des systèmes d'information publiés fin 2006 par le Club informatique des grandes entreprises françaises (CIGREF), et la première étude [12] sur le capital immatériel élaborée par le cabinet international de consultants Ernst et Young en mars 2007. Autres signes de la prégnance du thème, le lancement, fin 2006, de la première lettre professionnelle entièrement consacrée au sujet 1 ainsi que les nombreuses publications d'ouvrages traitant sous divers angles le thème du capital immatériel 2; et, en octobre 2007, le premier salon-congrès sur le capital immatériel s'est tenu à Paris 3. Enfin, depuis peu, plusieurs formations spécialisées sur cette notion ont fait leur apparition dans l'offre d'enseignement de quelques universités (essentiellement à Aix-Marseille, Montpellier, Strasbourg et Nantes). Il revient toutefois à l'Université de Marne-la-Vallée (UMLV) d'avoir été pionnière en France en créant dès 1994 une spécialité de master dédiée à la valorisation des patrimoines immatériels. Ainsi, l'Institut francilien d'ingénierie de service (IFIS) de l'Université Paris-Est (au sein de laquelle s'intègre désormais l'UMLV) propose dans son master Ingénierie de l'information, de la décision et de la connaissance (IIDC) une spécialité intitulée « Capital immatériel » 4. Michel Foucault considérait l'histoire comme « le diagnostic du présent ». Afin de comprendre les raisons et les conditions de l'émergence actuelle du thème du capital immatériel, il s'avère nécessaire d'analyser le passé récent – celui de ces dernières décennies – des secteurs de l'information professionnelle et de l'économie. L'immatériel n'est pas une notion inconnue du monde de l'information 5. Voici quelques décennies que l'information professionnelle se transcrit et se transmet en numérique. La dématérialisation de l'information, c'est-à-dire son inscription électronique, a pris véritablement réalité à partir des premiers usages des outils informatiques dans le monde de la documentation scientifique après la seconde guerre mondiale. L'ordinateur a permis la transmission à distance, le stockage de masse et la recherche intelligente des informations. Très vite, dès les premières informatisations de centres de documentation et les premières banques de données interrogeables à distance, c'est-à-dire dès le début des années soixante-dix, théoriciens de l'information et gourous des médias lancèrent la notion de « société de l'information ». Cette appellation fit florès et les politiques s'emparèrent à bon compte d'un concept aussi flou et forgé sur de nombreuses ambiguïtés. La société de l'information fit ainsi l'objet, dans les années quatre-vingt-dix, de plusieurs rapports officiels [8] [13 ], dont le fameux Préparer l'entrée de la France dans la société de l'information [18 ], en 1997, plus communément appelé PAGSI. Peu à peu, au concept de société de l'information succéda celui encore plus nébuleux de « société de la connaissance » ou « société du savoir », « société de l'intelligence ». Les mots ne manquèrent pas pour signifier que nous entrions dans une ère nouvelle où l'intelligence, le savoir, la connaissance, l'information prenaient le pas sur tout autre facteur de progrès. Ces éléments fondèrent les nouveaux dogmes de la croissance économique et de l'évolution sociale et culturelle, établissant la primauté de l'immatériel sur la production et les matières premières. Ainsi, la révolution informatique a fait le lit du triomphe de l'immatériel. Depuis le temps qu'on le disait, il fallait bien y arriver. Depuis tant d'années déjà que de fameux théoriciens de l'information électronique (Alvin Toffler [20] [21 ], Pierre Lévy [16 ], etc.), relayés par quelques professionnels de l'information 6, annonçaient l'avènement de la société de la connaissance : « Il y a toujours eu trois grandes sources de pouvoir : la force, la richesse, le savoir. La nouveauté, c'est que les deux premières de ces sources sont devenues, à un point qu'il aurait été impossible d'imaginer dans le passé, dépendantes de la troisième. Ceci n'implique pas un monde où la violence et la puissance économique auraient disparu. Mais elles sont liées à un usage de plus en plus sophistiqué du savoir, de l'information, au sens le plus large du terme », déclarait Alvin Toffler [20 ]. Aujourd'hui, cette notion n'appartient plus seulement au secteur de l'information, ce sont les économistes qui annoncent la société de la connaissance. Comme souvent dans sa brève histoire, le secteur de l'information scientifique et technique est allé recevoir la consécration de l'extérieur. La notion de société de l'information s'est dissoute dans celle de société du savoir qui est en fait une économie de la connaissance (cf. Foray [14]), que nous appelons aujourd'hui le capital immatériel. Au concept flou des gourous de la communication a succédé le discours reconnu comme plus rationnel des économistes. L'information professionnelle, sous différentes formes, se trouve au cœur de ce qui s'annonce comme un nouveau paradigme de l'économie mondiale du XXIe siècle. Il semble désormais admis par tous que les savoirs seront au XXIe siècle l'une des sources essentielles de richesses. Et plus l'investissement immatériel progresse dans les sociétés modernes, plus la place de l'information professionnelle se trouve confortée dans l'économie de l'immatériel et de la connaissance. Peu à peu, l'homme à la charrue et l'homme de la machine-outil cèdent la place à celui qui sait maîtriser les sources d'information, gérer et exploiter les connaissances. On parle désormais de « travailleurs du savoir » (knowledge workers), expression qui semble avoir été formulée par Peter F. Drucker dès 1959 (cf. Dortier [11, p. 28]). Demain le savoir sera la ressource économique dominante. L'économie a fini par changer. Ces dernières années, une nouvelle composante, l'immatériel, s'est imposée comme un moteur déterminant de la croissance des économies. Il fallait parvenir à formaliser et modéliser cette nouvelle économie de la connaissance, fondée sur le savoir. Durant les premières décennies qui suivirent la deuxième guerre mondiale, la réussite économique des États reposait essentiellement sur la maîtrise et l'utilisation des matières premières, sur les industries manufacturières et leur capital matériel. Le premier choc pétrolier en 1973 et la crise des matières premières qui suivit ont imposé une première prise de conscience des pays développés. Souvenons -nous du slogan publicitaire : « On n'a pas de pétrole mais on a des idées. » Il portait en germe l'idée que la connaissance, les idées, l'innovation, etc., pourraient parvenir à compenser l'absence de richesses des matières premières. Quelques décennies plus tard, et quelques guerres économiques après, ces éléments comptent toujours, mais de moins en moins. Aujourd'hui déjà, la véritable richesse n'est pas concrète, elle est immatérielle. C'est effectivement la capacité à innover, à produire des idées qui est devenue la véritable richesse. Aux valeurs matérielles tend à succéder le capital immatériel, c'est-à-dire le capital de la connaissance, du savoir. Entreprises et États sont tenus d'innover pour exister et survivre. Les raisons de l'émergence de ce mouvement se lisent dans l'histoire économique des deux dernières décennies du XXe siècle. On peut simplifier cette histoire en considérant que cette période de l'économie mondiale a été marquée par trois tendances fortes. D'abord, la place croissante de l'innovation devenue le moteur principal des économies développées. Ensuite, le développement spectaculaire des technologies d'information et de communication qui a permis aux entreprises de se réorganiser et de se focaliser sur des activités à plus forte valeur ajoutée. Enfin, l'apparition d'une nouvelle organisation mondiale du travail, dénommée mondialisation ou globalisation, qui voit la production se cantonner dans les pays à bas coûts de main-d'œuvre tandis que les pays développés se tertiarisent, en s'efforçant de mieux maîtriser leur patrimoine immatériel devenu progressivement une source importante de valeur ajoutée. Pour ces pays, les économies de services, celles où les savoirs et les idées jouent un rôle essentiel, deviennent la clé de l'avenir. Elles constituent un facteur essentiel de la compétitivité et de la cohésion nationales (cf. les rapports de Bernard Carayon sur l'intelligence économique [3] [4]). De fait, aujourd'hui, la richesse des entreprises repose de plus en plus sur les éléments immatériels. Le rapport Lévy-Jouyet évalue ainsi que « les secteurs spécialisés dans les biens et services à caractère immatériel ont un poids économique en constante augmentation. En France, ils représenteraient, au sens large, environ 20 % de la valeur ajoutée et 15 % de l'emploi. Mais, au-delà de ces secteurs, c'est toute la valeur créée par l'économie française qui se dématérialise chaque jour un peu plus. Dans toutes les entreprises, quels que soient le produit ou le service vendus, la création de valeur se fonde de plus en plus sur des actifs immatériels [9] » Bien sûr ces éléments sont plus ou moins facilement quantifiables. Les nouvelles normes de la comptabilité 7 attachent désormais plus d'importance aux actifs incorporels. Déjà elles ont permis de mettre au point des techniques de valorisation applicables à certains éléments de l'immatériel comme les marques et les brevets. Car la difficulté de ce nouvel ordre économique en train de naître autour de l'immatériel, c'est la mesure. Il est difficile de quantifier l'information et de mesurer sa valeur ajoutée. On distingue plusieurs catégories de biens qu'avec les économistes nous nommerons actifs immatériels. Ces catégories ne dépendent ni de la nature des organisations considérées, publiques ou privées, ni non plus de leur taille ou de leur structure juridique. Ces catégories dépassent même le cadre de l'entreprise puisque les États et les organismes non gouvernementaux, tels l'Unesco, définissent et valorisent certains actifs immatériels. Prenant en compte tant les entreprises que les États, nous distinguerons quatre catégories d'actifs immatériels participant du secteur de l'information professionnelle au sens large. Ce sont les actifs relatifs à la propriété intellectuelle dont ceux qui relèvent du Code du commerce, ceux qui proviennent des activités d'intelligence économique et, plus généralement, des activités informationnelles, les actifs concernant à la fois l'entreprise et l' État et qu'on classera en patrimoine historique, enfin, relatives exclusivement à l' État pour leur production et leur exploitation, les informations publiques. La propriété intellectuelle comporte deux grands sous ensembles : la propriété littéraire et artistique et la propriété industrielle. À leur tour, chacun de ces deux sous ensembles se décompose lui -même en plusieurs catégories distinctes. Ainsi, la propriété littéraire et artistique comporte deux grands domaines : le droit d'auteur et les droits voisins. De son côté, la propriété industrielle concerne les brevets, les marques, les dessins, les modèles ainsi que ce qu'on appelle les obtentions végétales (variétés végétales obtenues par des techniques plus anciennes de sélection et d'hybridation). À ces grandes catégories canoniques, il va falloir prendre l'habitude d'ajouter un nouvel actif : les « noms de domaine » sur Internet (.fr,.com,.net, etc.). Ces privilèges octroyés par la puissance publique en dérogation à la liberté du commerce et de l'industrie en 1791 sont pour les entreprises les fruits d'investissements souvent lourds portant sur des durées importantes. Pour certains secteurs d'activité, ils peuvent représenter une grande partie, voire l'essentiel des actifs des entreprises. Les éléments relevant de cette catégorie sont les brevets, les marques (la valeur de la marque symbolisant aux yeux des clients mais aussi des partenaires de l'entreprise, fournisseurs et sous-traitants, la performance des produits), les modèles, les droits d'auteur. On peut aussi inclure dans cette typologie les actifs relatifs au Code de commerce. Car, lors de leur création, les entreprises doivent, selon leur nature, s'identifier et s'inscrire soit au Registre du commerce et des sociétés (RCS) soit au Répertoire des métiers pour les entreprises artisanales. Cette démarche les autorise à réserver à leur usage exclusif certains mots ou expressions : dénomination commerciale, nom commercial, enseigne. Ces actifs sont attachés à l'image et à la reconnaissance de l'entreprise et de son activité. De fait, ils peuvent représenter un véritable capital et une source importante d'actifs pour l'entreprise. Pendant de nombreuses années, les investissements consacrés à la collecte, au traitement, à l'archivage, à la recherche de l'information ont été consi - dérés comme un « mal nécessaire ». Aujourd'hui, on reconnaît que ces fonctions sont aptes à créer de la valeur. On attribue désormais à ces activités documentaires une influence sur la performance et la stratégie de l'entreprise. Longtemps on n'a su mesurer, a posteriori, que le poids des carences, les dégâts de la désinformation et l'impact des dysfonctionnements de la chaîne de l'information. La valeur ajoutée de l'information est demeurée inquantifiable. La plupart des consultants et des grands cabinets américains (Machlup, Diebolt, King, etc.) se lancèrent ainsi vainement dans cette quête des indices de valeur de l'information. Même s'il est toujours aussi difficile de mesurer l'effet de la bonne information, on sait aujourd'hui que l'intelligence d'une organisation repose sur sa capacité à identifier, collecter, analyser, valider, valoriser, stocker les informations nécessaires à son fonctionnement et à son développement. Dans ce contexte, on peut identifier plusieurs catégories d'actifs immatériels. D'abord, le savoir-faire. Ce type de compétence ne peut pas se protéger par un titre de propriété intellectuelle, la seule façon de le protéger est le secret avec toutes les difficultés inhérentes aux relations avec les fournisseurs, les sous-traitants et les clients ainsi que lors des départs, notamment à la retraite. D'autre part, le centre de documentation et les banques de données représentent un actif considérable pour l'entreprise dans la mesure où elles ont été constituées selon les priorités et les orientations représentant l'image des besoins et des objectifs de cette entreprise sur tout le temps de son existence. Les connaissances diffuses, l'expérience des experts, leur compétence, le savoir-faire, la culture et les valeurs de l'entreprise constituent également sa richesse propre, celle de son capital humain. Le recueil d'expertise, c'est-à-dire la transformation des connaissances diffuses en savoir-faire, voire en brevet, revêt une importance décisive. Cette résultante collective des ressources potentielles portées par chaque collaborateur représente ce qu'on pourrait appeler l'intelligence collective de l'entreprise, matérialisation de son portefeuille de compétences. De plus, un archivage optimisé de l'information doit permettre l'exploitation en continu du fonds. Cette permanence valorise l'aspect patrimonial de l'information. C'est ainsi que, par exemple, la société Vuitton a créé un service patrimonial qui rachète aux particuliers les modèles anciens de la marque, considérant qu'il y a des idées, des informations anciennes qui pourraient être réexploitées aujourd'hui. Il existe, en effet, des cycles de modes même au plan technique et les contraintes environnementales font que des objets jugés inutiles il y a quelques années peuvent redevenir d'actualité, c'est-à-dire redevenir écologiquement et économiquement viables. Le réexamen de ce qui a été fait valorise les bases d'informations dans un esprit finalement semblable à celui du développement durable. En effet, l'information est la seule ressource qui puisse être réutilisée plusieurs fois sans perdre de sa valeur et dont la valeur ajoutée dépende étroitement de son contexte d'utilisation. Dans le cadre d'une exploitation intelligente de l'information, le passé c'est l'avenir. L'utilité du réexamen de ce qui a été fait confère aux gisements d'informations une valeur pérenne et génère ainsi le concept d'information durable. Mémoire et savoir sont consubstantiels. Sans mémoire, il n'y a pas d'avenir. Pouvoir mettre en avant son histoire, sa longévité, son rôle dans le développement technique et économique est pour une entreprise une valeur ajoutée considérable. Celle -ci peut être valorisée à la fois en interne et vis-à-vis des partenaires extérieurs, clients, fournisseurs, sous-traitants. Dans l'entreprise, ce patrimoine historique gît en différents lieux. Les archives et les collections muséographiques de l'entreprise disposent de fonds recelant souvent des informations particulièrement positives et valorisantes. Le patrimoine historique se trouve aussi dans la mémoire collective de l'entreprise. Cela requiert de mettre en œuvre une politique de gestion des connaissances. Ces éléments d'actifs immatériels peuvent être valorisés sous forme de livres ou de plaquettes, de films, voire de musées. Ces supports servent de vitrine à l'entreprise, lui permettant de sceller en interne sa culture et, en externe, de créer un climat de confiance avec ses partenaires et clients. Pour l' État, outre son rôle essentiel dans l'exploitation des informations publiques, le patrimoine historique représente un atout majeur. Le rapport Lévy-Jouyet préconise de « mettre les marques culturelles au service d'une rénovation de notre politique culturelle ». Dans cet objectif, le premier exemple cité par Claude Rubinowicz, nommé à la tête de l'APIE, « la valorisation récente de la marque " Louvre " pour 400 millions d'euros, dans le cadre du projet Louvre-Abu Dhabi, montre bien que la France dispose d'un patrimoine considérable. Sa valorisation permettra ainsi de dégager de nouveaux moyens au profit de tous. 8 » Enfin, quoique se situant sur un plan non plus économique mais culturel, l'Unesco a élaboré en 2003 une Convention pour la sauvegarde du patrimoine culturel immatériel [22 ]. L'organisation avait souhaité étendre la Convention de 1972 « pour la protection du patrimoine mondial, culturel et naturel » au patrimoine immatériel. La nouvelle convention, entrée en vigueur en 2006, prend en compte les pratiques, les représentations, les expressions ainsi que les connaissances et savoir-faire reconnus par les peuples comme participant de leur patrimoine. Les éléments visés par la convention sont les traditions et expressions orales y compris les langues, les arts du spectacle (musique, danse, théâtre traditionnel), les pratiques sociales, les rituels, les événements festifs, enfin les connaissances et savoir-faire liés à l'artisanat traditionnel. L'une des missions fondamentales de l'APIE est la valorisation et l'exploitation des informations publiques. Cet objectif constitue une avancée essentielle. En effet, il ne s'agit pas pour l'agence d'aborder la question des informations publiques exclusivement sous l'angle du droit ou en tant qu'organisme de recours. Pour la première fois, une agence gouvernementale aura une vision globale de la réexploitation des informations produites par des organismes publics. Son objectif est d'augmenter les revenus que l' État perçoit pour la mise à disposition de ces données. La France n'est, bien entendu, pas l'unique État à se préoccuper des informations publiques. Ainsi, en Grande-Bretagne, un récent rapport de l'Office of Fair Trading (OFT), analysant le marché de la réexploitation des données publiques, a évalué le manque à gagner pour le gouvernement à un minimum de un milliard de livres (soit 1,46 milliard d'euros). Si nous acceptons l'idée commune aujourd'hui que le savoir est d'ores et déjà la ressource dominante, nous mesurons l'urgence des enjeux auxquels se trouve confrontée notre société. La dématérialisation de l'information qui devait apporter la sécurité et le confort, l'ubiquité aussi, souffle l'indiscrétion, le contrôle, la fragilité. De fait, les enjeux sont tout autant économiques que politiques ou moraux. Les processus, les modèles, pour ne pas dire les paradigmes anciens se dissolvent dans ce nouvel ordre mondial. L'avènement de l'immatériel pour le monde de l'information professionnelle a produit une véritable explosion de ses principes de base. Aujourd'hui, l'entreprise érige la maîtrise de l'information comme le facteur clé de sa stratégie avec des enjeux multiples : mieux contrôler la circulation de l'information en son sein même, irriguer ses différentes composantes au bon moment avec les informations adéquates et faire en sorte d' être capable de traiter ces informations efficacement; capter les informations externes à l'entreprise indispensables à un fonctionnement efficace : informations sur la concurrence, les marchés, les innovations, les appels d'offres, l'évolution des environnements réglementaires, etc.; ne diffuser à l'extérieur que les informations autorisées de façon à ne pas divulguer d'information confidentielles tout en maintenant la circulation nécessaire à un fonctionnement harmonieux avec les fournisseurs, les clients et les sous-traitants. L'entreprise se trouve ainsi confrontée à des questions nouvelles qui concernent à la fois son organisation interne et son système de gouvernance, sa capacité à s'adapter aux nouvelles technologies de l'information et à gérer les risques informationnels induits, enfin son insertion dans le tissu économique. Cette nouvelle problématique que les Anglo-saxons qualifient de knowledge management implique une attitude différente de l'entreprise, contrainte de mieux gérer l'ensemble des ressources informationnelles à sa disposition, que celles -ci soient internes ou externes. L'information apparaît donc clairement pour l'entreprise comme un bien qui doit être « durable », c'est-à-dire exploité de façon rationnelle et optimisée. Il s'agit bien d'un comportement nouveau : face à la multiplication des sources d'information, face aux torrents d'informations sur tous supports qui submergent l'entreprise, celle -ci doit adopter une attitude plus responsable, plus innovante, plus exigeante. Par ailleurs l'immatériel remet en cause les modèles économiques de l'information professionnelle, c'est-à-dire ceux de la construction et de l'acquisition du savoir. Jusqu' à ces dernières années, les choses étaient plutôt simples. Le modèle en place depuis bien longtemps, qui plaçait entre l'auteur et ses lecteurs un certain nombre d'intermédiaires (éditeur, comité de lecture, imprimeur, indexeur, producteur de banques de données, etc.), se trouve court-circuité par le lien direct auteur-utilisateur. Le paysage de l'information professionnelle est en pleine mutation. Bien malin aujourd'hui qui peut prédire comment demain seront répartis les rôles et, de façon corrélative, les flux financiers. Les nouveaux arrivants, fournisseurs d'accès à Internet, gestionnaires de sites, etc., entrent en concurrence avec les acteurs traditionnels. Ces derniers seront-ils capables de s'adapter pour conserver leurs positions ou seront-ils éliminés au profit des nouveaux arrivants ? Les dépôts open access ou open archive sont ouverts à tous, le plus souvent gratuitement et leur mise à jour est beaucoup plus rapide qu'auparavant. Comment ces outils d'information vont-ils s'articuler avec les sources traditionnelles ? Assistera -t-on à la disparition pure et simple des sources professionnelles payantes ? Qui va payer pour faire vivre le nouveau dispositif : le client ? l'auteur ? la structure d'accueil de l'auteur ? l' État ? Il est aujourd'hui bien trop tôt pour tirer des conclusions, il semble toutefois qu'on se dirige inéluctablement vers une approche du type développement durable dans ce secteur de l'information professionnelle : plus de partage, plus d'équité, plus d'innovation, plus de responsabilité du consommateur. Nous sommes bien entrés dans une approche durable du développement de l'information. Les métiers, les fonctions, les formations sont fortement touchés par ce mouvement. Il était facile, il y a quelques années encore, d'établir la nomenclature des métiers intervenant dans la chaîne de l'information et de définir précisément leurs fonctions. Aujourd'hui, c'est un exercice très difficile. L'Association des professionnels de l'information et de la documentation (ADBS) recense ainsi dans son « référentiel des métiers » plus d'une cinquantaine de fonctions différentes concernées par l'information. La plupart d'entre elles n'ont tout au plus qu'une dizaine d'années d'existence. De même, le catalogue des formations universitaires du domaine de l'information, déjà troublées par l'instauration du LMD, laisse apparaître une multitude de mentions. La restructuration en cours du secteur de l'information professionnelle porte en elle, à l'évidence, la mutation d'une grande partie des métiers traditionnels de ce secteur d'activité. Que seront demain les fonctions de recherche documentaire, de panorama de presse, de synthèse documentaire, de veille stratégique, de DSI… ? Par ailleurs, face à la multiplication des sites d'information gratuits financés par la publicité directe ou déguisée (référencement), au développement de quasi-monopoles mondiaux dont on ne connaît ni les critères de sélection de l'information ni les règles d'indexation, quelles peuvent être les bases d'une politique nationale d'information professionnelle ? Il ne faut pas perdre de vue que la mondialisation des échanges économiques rend la concurrence entre les pays encore plus intense et plus dure, que la nécessité d'innover devient de plus en plus prégnante et que, de facto, l'accès à l'information reste un enjeu majeur. Comment dans ce nouveau contexte se garantir l'accès aux informations stratégiques au niveau d'un pays ? Comment se prémunir contre une privatisation abusive de certaines sources ? Autant de questions qu'il faudra se poser au niveau national et au niveau communautaire 9 10. Enfin, les enjeux de la dématérialisation sont également moraux. En effet, la disparition des principes de base tend à faire voler en éclats le principe de la rétribution proportionnelle et des droits moraux incessibles attachés à l'auteur. Dans le nouveau modèle de la société de l'information, que signifient les droits sinon un obstacle à la libre circulation, une entrave à la connaissance ? Il faudra trouver un nouveau mode de protection des contenus originaux. Comment maintenir le niveau de création sans garantir aux créateurs une rémunération correspondant à leur travail ? Ne risque -t-on pas un assèchement de la créativité si on laisse libre cours au piratage et à la copie sauvage ? Ce nouvel espace de liberté pour les uns ne porte -t-il pas atteinte à la propriété des autres ? Un nouvel ordre moral du droit d'auteur doit être imaginé, qui permette à la fois de ne pas léser les auteurs tout en profitant des nouvelles libertés apportées par les technologies actuelles et futures. On le voit, l'information, la documentation, le patrimoine, les archives, mais aussi l'information élaborée issue de l'activité d'intelligence économique, la veille informative, la gestion des brevets… sont autant de fonctions au cœur même du concept de capital immatériel. La nouvelle économie qui émerge en ce début de siècle valorise les activités de l'information professionnelle. L'économie de l'immatériel recentre celles -ci au cœur des valeurs de l'entreprise, mais elle concerne aussi largement les secteurs institutionnels : État et collectivités territoriales. Désormais, on peut ainsi considérer l'information comme un bien durable : nous entrons dans l'ère de l'information durable dont la valeur ajoutée évolue en fonction du contexte. Ce concept nouveau repose sur une meilleure exploitation des gisements d'information accumulés par les générations qui nous ont précédés, exploitation créatrice de richesse pour les générations futures à condition que soient remplies trois conditions : une prise de conscience de la valeur de l'information accumulée, véritable gisement de richesse à condition de savoir identifier les bonnes informations, les évaluer, les trier et les sélectionner; une organisation capable d'exploiter rationnellement et intelligemment ces gisements, en utilisant toutes les possibilités offertes par la veille stratégique et concurrentielle ainsi que le knowledge management; une gestion consciente de ces gisements qui doivent être alimentés en permanence, actualisés et validés, afin d'éviter qu'ils ne perdent leur pertinence et leur valeur ajoutée. • Mai 2008
[ étude ] L'immatériel est devenu un moteur déterminant de la croissance économique, au coeur de laquelle l'information professionnelle joue un rôle essentiel. Dans cette étude, Christian Bourret, Serge Cacaly et Serge Chambaud montrent en quoi cette information est constitutive du capital immatériel des organisations privées et publiques. Après avoir examiné les conditions d'émergence de la notion d'immatériel et l'évolution qui a conduit à celles d'économie et de société de la connaissance, ils présentent un panorama des différentes catégories d'actifs immatériels relevant de l'information et s'interrogent sur les enjeux de ce nouvel ordre. Ils concluent à la nécessité d'une approche de l'information de type développement durable : plus de partage, d'équité, d'innovation et de responsabilité...
sciencesInfo_09-0071164_tei_DOCSI_idPAS_D_ISBN_pu2008-04s_sa02_art02.tei.xml
termith-490-communication
Le nombre de documents musicaux numériques disponibles en ligne (internet, mobile. ..) ne cesse de croître. Les utilisateurs ne disposent actuellement que d'une navigation basée sur les noms comme par exemple les titres des morceaux ou le nom des interprètes. De nouvelles méthodes de navigation et de classification, plus intuitives et plus pratiques, doivent être proposées aux utilisateurs. Ces méthodes reposent essentiellement sur le problème majeur et encore ouvert de l'estimation automatique de la similarité musicale. Ce problème nécessite une expertise pluridisciplinaire dans des domaines variés tels que la théorie musicale, le traitement du signal audio, l'algorithmique de comparaison de structures de données, etc. Nous nous intéressons à ce difficile problème dans cet article, en nous restreignant à une composante particulière : la mélodie. Les travaux de recherche effectués dans le domaine de la recherche d'informations musicales (Music Information Retrieval) concernent généralement la musique occidentale. Pour ce type de musique, la mélodie est un des paramètres perceptifs les plus importants (Selfridge-Field, 1998). Le problème de l'estimation de la similarité mélodique a notamment été mis en avant lors du développement d'applications musicales telles que la requête par chantonnement ou sifflement (query-by-humming/singing). Il est néanmoins difficile de définir avec précision la notion de similarité entre deux mélodies. D'un point de vue informatique, estimer la similarité entre deuxmorceaux consiste à calculer unemesure relative au degré de ressemblance entre ces deux morceaux. Pour certaines applications telles que la requête par fredonnement, il est impératif que cette estimation puisse prendre en compte certaines transformations musicales. Par exemple, comme un extrait peut être chanté dans une tonalité différente par un utilisateur, le système d'estimation doit être invariant par transposition. De même, un extrait peut être chanté plus ou moins rapidement, le système doit donc aussi être invariant par changement de tempo. Plusieurs techniques d'évaluation de la similarité mélodique ont été introduites pendant les dernières années. Les algorithmes dits géométriques considèrent des représentations géométriques de la mélodie et calculent une distance entre ces objets. Certains de ces systèmes (Ukkonen et al., 2003; Lubiw et al., 2004) utilisent la représentation piano-roll, où les notes sont représentées par des segments de droites horizontales dont la longueur est relative à la durée, et dont les coordonnées correspondent au temps de début et à la hauteur de la note. D'autres approches géométriques représentent les notes par des masses (Typke et al., 2004). Le poids est alors lié à la durée des notes. Certains algorithmes d'estimation de la similarité mélodique sont des adaptations d'algorithmes classiques en traitement du texte (Doraisamy et al., 2003; Uitdenbogerd, 2002). Les techniques N-grams proposent de compter le nombre de termes distincts que les deux morceaux comparés ont en commun. Si cette approche est très simple, elle s'avère être assez efficace (voir section 3). Toutefois, cette mesure de similarité ne prend pas en compte les propriétés perceptives de la musique puisque seulement deux cas sont envisagés : soit deux sous-séquences correspondent, soit elles ont au moins une différence et ne correspondent pas. Néanmoins, le processus de perception de la musique semble bien plus complexe. En effet, deux morceaux peuvent être perçus comme très semblables tout en présentant de fortes différences dans la séquence de notes. Cette simplification induit donc la principale limitation de ce type de méthode. Dans cet article, nous proposons une étude détaillée des algorithmes d'édition développés principalement dans le contexte de la reconnaissance de séquences ARN (Gusfield, 1997), ainsi que leur adaptation à la mesure de la similarité mélodique pour de la musique monophonique (Cambouropoulos et al., 2005). La musique monophonique est définie par le fait qu'une seule note est perçue à chaque instant. Les algorithmes d'édition déterminent le score optimal d'opérations nécessaires à la transformation d'une séquence musicale en une autre séquence musicale. Nous présentons dans la section 2 l'algorithme général, ainsi que les adaptations nécessaires pour une application aux morceaux de musique. Ensuite, dans la section 3, des applications à la recherche de documents musicaux dans des bases de données à partir d'extraits et à la détection automatique de plagiats sont détaillées. Des expériences sont aussi proposées. Enfin, les conclusions et perspectives sont présentées dans la section 4. Les algorithmes développés pour les systèmes de recherche musicale basée sur la similarité mélodique peuvent être décomposés en deux grandes étapes. La première étape représente une pièce de musique monophonique par une séquence de symboles. La deuxième étape permet le calcul d'un score de similarité entre deux représentations. Ces deux étapes sont détaillées dans cette section. Les pièces de musique monophonique peuvent être représentées par des arbres de hauteurs de notes (Rizo et al., 2002). Cette représentation suppose une hiérarchie relative à la mesure induite par le chiffrage de la mesure d'une partition. Différents arbres peuvent alors représenter la mêmemélodie (même suite de notes). Par exemple, deux mêmes mélodies, composées des mêmes notes, avec deux chiffrages différents sont représentées par deux partitions différentes. Même si elles sont alors représentées de manière différente, elles seront perçues comme étant très fortement similaires. En nous basant sur les travaux de (Mongeau et al., 1990), toute partition monophonique peut être représentée par une séquence de paires ordonnées avec la hauteur de la note en première composante, et la durée de la note (ici indiquée en nombre de doubles croches) en deuxième composante. Ainsi, la séquence représente l'exemple illustré par la figure 1. Plusieurs alphabets de caractères et ensembles de nombres ont déjà été proposés pour représenter les hauteurs et durées (Uitdenbogerd, 2002; Lemström, 2000). Nous en présentons seulement quelques-uns que nous pensons être les plus pertinents pour les applications de recherche automatique de musique envisagées. Le contour mélodique indique la variation entre des notes successives. Seules trois valeurs sont possibles : Haut (plus aigu), Bas (plus grave) et Pareil. Ainsi, la séquence correspondant à la figure 1 est : La hauteur absolue indique simplement la hauteur selon l'encodage pitch MIDI. Par exemple, la mélodie de la figure 1 est représentée par la suite de nombres : Si l'on souhaite réduire le nombre de caractères employés pour la représentation, la hauteur exacte peut être simplifiée par des valeurs modulo-12, sachant que 12 est le nombre de demi-tons composant une octave. Le contour mélodique peut aussi être pris en compte par l'ajout d'un signe (+ ou −) selon l'évolution des variations de hauteurs successives. La séquence de la figure 1 devient alors : Pour des applications telles que la requête par fredonnement, cette représentation présente l'inconvénient majeur de ne pas être invariante par transposition. À la différence de cette représentation, les représentations par intervalle ou relatives à la tonalité sont invariantes par transposition. La représentation par intervalle indique simplement le nombre de demi-tons entre deux notes successives. La représentation de la séquence de la figure 1 est donc : L'alphabet de cette représentation peut aussi être limité par une opération modulo-12. L'information relative à la direction mélodique peut également être indiquée : Les représentations relatives à la tonalité indique la différence en demi-tons entre les notes et la tonique de la mélodie. Toujours dans le cas de la figure 1, comme la tonalité correspond à Do Majeur, la séquence associée devient : L'alphabet de cette représentation peut aussi être limitée par une opération modulo-12 et l'information de la direction mélodique peut également être indiquée : Les limitations de cette représentation sont évidemment fortement liées au choix judicieux de la tonalité. Cette tonalité doit être connue a priori pour pouvoir représenter correctement une mélodie. Des représentations semblables sont envisageables concernant la durée des notes et des silences d'une mélodie. Le contour général (plus Court, plus Long, Pareil) indique la variation de durée entre deux notes consécutives. Ainsi, la représentation des durées des notes de la mélodie présentée dans la figure 1 est : La représentation absolue indique simplement la durée des notes en nombre de double croches : Il est important de remarquer que cette représentation n'est pas invariante par changement de tempo, contrairement à la représentation relative. Le changement de durée entre deux notes successives peut être exprimé par des différences de durée : ou par des rapports de durée : Dans la suite, nous avons fait le choix de considérer les représentations de notes par intervalle, et les représentations de durée relatives. A partir de ces représentations, chaque élément (note) d'une séquence peut donc être formellement représenté par un symbole appartenant à un ensemble infini Σ d'étiquettes. Nous considérons une fonction de score d'édition s sur cet ensemble d'étiquettes. Cette fonction assigne un nombre réel s( x, y) à chaque paire d'étiquettes (x, y) dans Σ∪{ λ} où λ représente le symbole vide 1, de telle façon que : Cela signifie que le score entre deux symboles x et y devient d'autant plus important que leur similarité croît. Dans l'article (Hanna et al., 2007), une étude des fonctions de coûts adaptés au domaine musical est proposée, s'appuyant notamment sur les premiers travaux décrits dans (Mongeau et al., 1990). Pour les coûts d'insertion et de suppression, il est pertinent de prendre en compte la durée des notes, puisqu'insérer une longue note doit être plus pénalisant qu'insérer une courte note. Concernant le coût de substitution, les meilleurs résultats sont obtenus en prenant en compte la consonance entre deux notes. En effet, remplacer un Do par un Do# doit être plus pénalisé que le remplacement d'un Do par un Sol (quinte). Le calcul d'une mesure de similarité entre séquences est un problème qui a souvent été abordé en informatique théorique au travers de nombreuses applications (Gusfield, 1997; Sankoff et al., 1983) comme la biologie, l'analyse du texte, la détection d'erreur, la reconnaissance de forme, etc. Au début des années 1970, (Needleman et al., 1970) ou (Wagner et al., 1974) ont proposé des algorithmes de calcul d'une mesure de similarité entre deux chaînes de symboles. Étant données deux chaînes de symboles S 1 et S 2 de longueurs respectives | S 1| et | S 2|, un ensemble d'opérations élémentaires sur les chaînes, appelées opérations d'édition, et un score associé à chacune des opérations, le score entre S 1 et S 2 est défini formellement comme le score maximum d'une séquence d'opérations qui transforme S 1 en S 2. Cette mesure de similarité est calculée en utilisant le principe de programmation dynamique qui permet de résoudre le problème d'optimisation en un temps quadratique, i.e. en O( | S 1| × | S 2|). Afin de comparer des séquences musicales, nous considérons uniquement trois opérations d'édition : la substitution, la suppression et l'insertion. Soit e une opération d'édition, un score s est associé à chacune des opérations comme suit : si e est une substitution, xi (le i ème caractère de S 1) est substitué par yj (le j ème caractère de S 2) et s (e) = s (xi, yj) si e est la suppression de xi alors s (e) = s (xi, λ) si e est l'insertion de yj alors s (e) = s (λ, yj). Le score s est étendu à la séquence d'opérations d'édition E = (e 1, e 2, …, en) en posant s (E) = ∑nk = 1 s (ek). Cette extension permet de définir le score σ (S 1, S 2) entre deux séquences S 1 et S 2 comme le score maximum parmi les séquences d'opérations d'édition transformant S 1 en S 2 : où ε représente l'ensemble des séquences d'opérations d'édition transformant S 1 en S 2. Cependant, dans de nombreuses applications, deux chaînes peuvent ne pas être très similaires mais partager des régions ayant une forte similarité. Ceci est particulièrement remarquable lorsqu'on compare des séquences de longue taille n'ayant a priori pas de relation, mais dont certaines sections internes peuvent correspondre. Dans ce cas, le problème consiste à déterminer et à extraire une paire de régions de très forte similarité, chacune dans l'une des deux chaînes. Ce problème est appelé problème de similarité locale (Smith et al., 1981) et il est formellement défini de la façon suivante : étant données deux chaînes S 1 et S 2, déterminer les deux sous-chaînes ρ 1 et ρ 2 respectivement de S 1 et S 2, dont la similarité parmi toutes les paires de sous-chaînes de S 1 et S 2 est maximum. Le calcul d'une similarité locale permet de détecter les sous-régions conservées durant l'édition des deux séquences. La solution à ce problème est basée sur la comparaison des suffixes des deux séquences. Étant donnée une paire (xi, yj) de symboles, on recherche un suffixe (éventuellement vide) ρ 1 de la sous-séquence S 1 [<hi rend="italic">xi</hi>] (définie depuis le premier symbole de S 1 à xi) et un suffixe (éventuellement vide) ρ 2 de la sous-séquence S 2 [<hi rend="italic">yj</hi>] (définie depuis le premier symbole de S 2 à yj) tels que le score d'édition entre ρ 1 et ρ 2 est maximum parmi toutes les paires de suffixes de S 1 [<hi rend="italic">xi</hi>] et S 2 [<hi rend="italic">yj</hi> ]. Ce score optimal est noté LS( xi, yj) : La similarité locale entre deux séquences est alors définie comme le score maximum de la paire de suffixes entre les séquence S 1 et S 2 : Finalement, afin d'évaluer la similarité locale, l'algorithme doit déterminer les suffixes de similarité maximum pour toutes les paires (xi, yj) de S 1 × S 2, puis déterminer la meilleure paire x max 1, y max2 de S 1 et S 2. On peut toujours choisir un suffixe vide LS( xi, yj) ≥ 0 : en effet LS( xi, θ) = 0 et LS( θ, yj) = 0, où θ est une séquence vide. Enfin, pour toute paire (xi, yj), l'équation de récurrence permettant de calculer LS( xi, yj) est donnée par : où x i −1 et y j −1 représentent respectivement les symboles avant xi et yj. À partir du système présenté, basé sur l'alignement de symboles représentant les mélodies, plusieurs améliorations ont été récemment proposées. Un algorithme a ainsi été proposé pour prendre en compte d'éventuelles transpositions locales (ou modulations) au cours d'une même mélodie (Allali et al., 2007). Pour cela, plusieurs matrices de programmation dynamique (1 matrice par transposition possible, soit 12 au total) sont calculées en parallèle. Une nouvelle opération d'édition est prise en compte autorisant, avec un certain coût fixé, les passages entre différentes matrices de transposition. La principale application concernée est la requête par fredonnement. Il arrive en effet fréquemment qu'un utilisateur commence à chanter un extrait dans une certaine tonalité, et termine dans une autre. L'algorithme proposé permet de retrouver des similarités mélodiques malgré ces éventuelles transpositions. Par ailleurs, d'autres améliorations algorithmiques basées sur la théorie musicale ont été proposées dans (Robine et al., 2007a). Des éléments musicaux pris en compte par les auditeurs lors de la discrimination de morceaux de musique ont été étudiés. Par exemple, les notes placées sur les temps forts d'une mesure semblent devoir être considérées comme plus importantes que les notes placées sur des temps faibles. La figure 2 donne un exemple d'un morceau et de deux variations obtenues en supprimant des notes. Si les notes supprimées sont sur les temps, la différence devient très importante, alors que si les notes supprimées ne sont pas sur les temps, la similarité reste forte. Le système proposé permet donc de prendre en compte cette propriété en ne pénalisant pas les suppressions ou insertions de notes placées sur des temps faibles. En suivant cette nouvelle règle, les morceaux (a) et (b) sont bien estimés comme très similaires. D'autres exemples de prise en compte d'informations musicales sont illustrés par la figure 3, présentant un extrait ainsi que des variations du thème du morceau D ay Tripper des B eatles. Nous proposons de prendre également en compte les notes tonales, plus importantes sur le plan de la perception que les autres notes. Ainsi, même si plusieurs notes ont été supprimées dans l'extrait (b) de la figure 3, le morceau reste très proche de l'original car les notes relatives à la tonique et à la dominante ont été préservées. De la même façon, les variations (c) et (d) restent également très similaires à l'extrait original, puisque seules des notes de passage ont été insérées (variation (c)) ou puisque les notes correspondant aux temps forts ont été préservées (variation (d)). Dans cette section, nous présentons deux applications importantes reposant sur les algorithmes d'estimation automatique de la similarité mélodique présentés ci-avant. La première application concerne la recherche de mélodies dans une base de données musicale à partir d'un extrait. La seconde application propose de rechercher dans une base de données d'éventuels plagiats. Pour chacune de ces applications, nous présentons quelques expériences d'évaluation des algorithmes proposés sur des bases de données musicales. Les méthodes de recherche de musique existantes reposent essentiellement sur une recherche par le nom (de l'interprète, du titre). Il est toutefois courant qu'un utilisateur souhaite retrouver un morceau de musique sans posséder ces informations. Un utilisateur peut par exemple souhaiter retrouver un morceau de musique dont il vient d'écouter un extrait à la télévision ou à la radio. La seule donnée dont il dispose est une mélodie qu'il est capable de fredonner ou de siffler, parfois approximativement. Dans ce cas, la ressemblance entre le thème fredonné et le morceau recherché est uniquement basée sur la mélodie. Il en découle une application des algorithmes d'estimation automatique de la similarité mélodique : la recherche de morceaux à partir d'un extrait chantonné ou fredonné. Ces systèmes de recherche, appelés systèmes queryby-humming, sont en plein développement. Ainsi de nombreuses interfaces, plus ou moins précises, apparaissent régulièrement sur Internet. On peut citer par exemple watzatsong 2, musipedia 3, c - Brahms 4, etc. L'application proposée offre donc la possibilité à un utilisateur non seulement de retrouver le morceau recherché, mais aussi de retrouver des morceaux dont les mélodies, ou les thèmes, sont ressemblants. Pour cela, le principe est relativement simple. Le morceau fredonné ou sifflé par l'utilisateur est considéré comme une requête, c'est-à-dire le morceau référence pour la recherche. Le système informatique proposé doit alors calculer les scores de similarité entre cette requête et tous les morceaux de la base de donnée musicale. Les scores les plus importants doivent correspondre aux morceaux de la base de données qui ressemblent le plus à la requête, notamment le morceau de score le plus important devrait être le morceau recherché par l'utilisateur. Un des problèmes principaux du domaine de recherche lié à l'informatique musicale est le problème de l'évaluation des systèmes proposés. Le premier concours international Music Information Retrieval Evaluation eXchange (MIREX 2005) (Downie et al., 2005) a été proposé dans le but de comparer les algorithmes existants dans des domaines variés. Un des concours proposés durant la première édition du MIREX concernait l'estimation de la similarité mélodique à partir de données symboliques. A cette occasion, les participants ont discuté le processus d'évaluation et ont proposé une méthode. Les résultats que nous allons présenter reposent sur cette méthode, que nous détaillons ici. Tout d'abord, il est nécessaire de considérer une importante base de données de morceaux de musique. La collection RISMA/II du répertoire international des sources musicales est composé d'un demi-million de partitions de compositions existantes. Chaque début de morceau est représenté symboliquement, dans une notation proche d'une partition de musique. Chaque extrait est monophonique et composé d'entre 10 et 40 notes de musique. 11 extraits ont été aléatoirement choisis dans cette collection. Une base de vérité de similarité a été établie (Typke et al., 2005) en combinant les listes ordonnées données par 35 experts en musique. La base de vérité résultante prend donc la forme de groupes ordonnés d'extraits. Chaque groupe contient des extraits dont les différences entre eux n'ont pas été jugées comme statistiquement signi-ficatives. Par contre, l'ordre des groupes est statistiquement significatif. Chaque système testé retourne une liste ordonnée d'extraits estimés comme similaires sur le plan mélodique à la requête proposée. Quelquesmesures pour l'évaluation sont alors utilisées pour produire un unique score relatif à la correspondance avec la base de vérité établie par les experts musiciens. Une mesure spécifique a ainsi été introduite : le rappel dynamique moyen (Average Dynamic Recall ou ADR) (Typke et al., 2006a). Cette mesure prend en compte les groupes ordonnés de la base de vérité en notant le nombre de documents de ces groupes qui apparaissent avant ou à une position donnée de la liste ordonnée, sans tenir compte de l'ordre à l'intérieur des groupes (puisqu'il n'est pas pertinent). L'ADR prend une valeur dans l'intervalle [0; 1 ]. Plus l'ADR est importante, plus le système est proche de la base de vérité établie par les experts musiciens, et plus le système est supposé précis. Puisque notre algorithme n'a pas pu participer au MIREX 2005, les premières expériences que nous avons menées concernent les données d'entraînement du MIREX 2005. Ces données sont composées de 11 morceaux requêtes pour une base de données de 580 extraits. Dans le tableau 1, nous présentons nos résultats et ceux obtenus par les participants au concours. Il est important de rappeler ici que cette comparaison n'est pas suffisante en elle -même, puisque l'algorithme proposé n'a pas participé au concours. Les deux bases de données (entraînement et test) sont toutefois issues de la même base de données, et donc les résultats obtenus sur la base d'entraînement peuvent être comparés à ceux obtenus sur la base de test. Les algorithmes proposés par Grachten et Lemström sont basés sur la distance d'édition, et considèrent donc une approche très similaire à la méthode présentée dans cet article. Les résultats obtenus sur les données d'entraînement du MIREX 2005 sont très bons : l'ADR moyen obtenu par l'algorithme d'alignement présenté est 0, 79 alors que le meilleur ADR moyen obtenu par un des candidats du MIREX 2005 n'est que de 0, 66. De plus, l'ADR minimum reste important (0, 63) alors que l'ADR maximum (0, 96) s'approche quasi parfaitement du choix des experts musiciens. Résultats de l'évaluation des systèmes de recherche lors du MIREX 2005 : en comparaison, l'algorithme proposé obtient de meilleurs résultats (ADR moyen de 0, 79, ADR min de 0, 66 et ADR max de 0, 96). Algorithme Auteur ADR moyen ADR min ADR max Distance d'édition I/R Grachten 0, 66 0, 29 0, 88 N-grams Orio 0, 65 0, 31 0, 91 N-grams de base Uitdenbogerd 0, 64 0, 31 0, 91 Géométrique Typke 0, 57 0, 29 0, 86 Géométrique Lemström 0, 56 0, 34 0, 72 Distance d'édition Lemström 0, 54 0, 29 0, 84 Hybride Frieler 0, 52 0, 34 0, 81 Lors de la deuxième édition du MIREX, un autre concours sur la similarité mélodique a été proposé 5. Une partie du concours consistait à comparer les algo - rithmes de recherche. La base de données, sous-ensemble de la collection RISM A/II était plus conséquente puisqu'elle était composée de plus de 15000 extraits monophoniques. La requête était un de ces extraits. La moitié des requêtes a été générée à partir d'extraits fredonnés ou sifflés, convertis en format symbolique. Ces requêtes étaient donc caractérisées par des imperfections rythmiques (légères accélérations ou légers ralentissements) et de hauteur (présence de fausses notes). Certaines requêtes étaient également transposées, d'autres avaient un tempo différent du morceau original. Contrairement à ce qui avait été effectué pour le MIREX 2005, aucune base de vérité n'avait été établie à l'avance. Les résultats des différents algorithmes ont été jugés a posteriori par des experts, selon une évaluation générale (ressemblance forte, moyenne ou nulle) et un score de similarité (entre 0 et 10). La précision de chaque système a ensuite été estimée selon plusieurs mesures, dont l'ADR moyen. Les résultats sont présentés dans la figure 4. Notre algorithme est noté FH (selon les initiales de certains de ses auteurs) et a obtenu des résultats similaires aux résultats obtenus par l'algorithme évalué comme le plus précis soumis par Rainer Typke (Typke et al., 2006b). Concernant la polyphonie, les résultats sont encore mitigés. Les résultats obtenus lors du MIREX 2006 prenaient en compte un système qui a subi depuis de nombreuses améliorations. Les résultats sont maintenant comparables aux résultats obtenus par le meilleur algorithme (Hanna et al., 2008). Toutefois, la complexité de ces algorithmes devient très importante et semble limiter leur utilisation sur des bases de données importantes. C'est pourquoi de nouvelles méthodes basées sur l'estimation des informations tonales telles que les accords, qui permettraient donc une réduction monophonique, sont actuellement à l'étude. Ces expériences réalisées dans le cadre de concours internationaux montrent assez clairement l'intérêt des méthodes d'alignement dans le cadre d'une application musicale. La flexibilité de ces méthodes permet d'effectuer des réglages spécifiques à l'information musicale (Ferraro et al., 2007), et de prendre en compte d'éventuelles imperfections rythmiques ou tonales. Le système de recherche induit permet non seulement de retrouver un morceau à partir d'un extrait, mais aussi de trouver des morceaux mélodiquement ressemblants. D'autres applications proches de ces systèmes de recherche sont alors envisageables. Par exemple, estimer la similarité entre une interprétation et une partition pourrait aider un élève instrumentiste à s'entraîner et à corriger ses éventuelles imperfections. Ces systèmes peuvent aussi permettre de découvrir des ressemblances fortes entre des morceaux dans une base de données, sans avoir forcément besoin d'analyser musicalement à la main tous les morceaux deux à deux. Le nombre de documents musicaux disponibles sur Internet est en forte croissance. Chaque année, plus de 10 000 nouveaux albums de musique sont proposés à la vente dans le monde, et plus de 100 000 nouveaux morceaux sont déposés à des organismes de protection des droits d'auteur (Uitdenbogerd et al., 1999). Par exemple, en France, le nombre total de morceaux de musique enregistrés auprès de la SACEM (Société des Auteurs, Compositeurs et Éditeurs de Musique), organisme chargé de protéger les droits des artistes, dépassait 250 000 en 2004 (Emberger, 2005). Un des rôles de cet organisme est d'aider la justice à prendre des décisions concernant des plaintes pour plagiats. Le plagiat est un acte délibéré de copie partielle ou totale d'une idée d'un autre auteur sans accord préalable. Il est d'ailleurs important de noter que seule la justice est habilitée à décider d'un cas de plagiat. Quelques exemples de procès célèbres pour plagiat musical ont eu lieu au cours des dernières années : Madonna et Salvatore Acquaviva en Belgique, Georges Harrison et le groupe The Chiffons au Royaume-Uni, Les feuilles mortes et La Maritza en France, etc. En 2004, la SACEM avait vérifié l'originalité de seulement 18 000 morceaux sur son catalogue total de 250 000 titres. Ce n'est uniquement qu'en cas de plainte déposée qu'une analyse musicale complète est effectuée par des experts. Étant donné le nombre important de nouveaux documents musicaux déposés chaque année, il paraît difficile de détecter pour chaque morceau un hypothétique cas de plagiat, car il semble impossible d'écouter et de comparer un à un tous les documents déposés. Un système informatique d'estimation de la similarité mélodique peut permettre d'effectuer cette comparaison de manière automatique. Nous avons effectué une première étude (Robine et al., 2007b) à partir du système présenté dans les sections précédentes.Nous montrons ici quelques résultats pour quelques cas célèbres de plagiats. Un des plus fameux procès pour un cas de plagiat musical concerne l'ex-Beatles Georges Harrison pour sa chanson My Sweet Lord, sortie en 1970 sur l'album All Things Must Pass (Benedict, 2008). Il a été accusé de plagiat du morceau He's So Fine composé en 1963 par Ronald Mack et interprété par le groupe The Chiffons. Malgré les explications d'Harrison sur le fait qu'il n'a pas eu conscience de s' être approprié la mélodie du morceau, la cour conclut en 1976 qu'il avait copié, peut-être de manière inconsciente, la mélodie de He's So Fine. Pour appuyer sa décision, la cour examina la structure des deux morceaux. La figure 6 montre deux extraits de la mélodie de chaque chanson. He's So Fine est composé de quatre variations d'un court motif musical (le motif A de la figure 5), suivies de quatre variations du motif B (figure 5). La deuxième utilisation de la série de motifs B inclut une appoggiature, comme le montre le motif C de la figure 5. My Sweet Lord possède une structure très similaire puisqu'il est composé de quatre variations du motif A, puis de trois variations du motif B. Une quatrième variation du motif B inclut l'appoggiature du motif C. Les premières expériences que nous proposons concernent ces deux chansons dont la figure 6 montre deux extraits. Nous pouvons remarquer que, même si les mélodies sont perçues comme très similaires, les extraits sont assez différents. Ces différences rendent évidemment l'analyse automatique plus difficile. Les deux requêtes pour le système de recherche dans une base de données musicales seront les extraits des deux mélodies de chaque morceau. Nous attendons que le système détecte le morceau correspondant comme le morceau le plus mélodiquement ressemblant, malgré les différences. La base de données considérée est la collection RISM A/II utilisée durant le MIREX 2006, présentée dans la section précédente. Cette base de données contient aussi bien entendu les mélodies monophoniques de My Sweet Lord et He's So Fine. Le tableau 2 montre les résultats obtenus pour chacune des requêtes. Dans les deux cas, les noms, ainsi que les scores de similarité, des pièces de la base de données sont donnés. Les résultats obtenus sont ceux escomptés puisque la mélodie détectée comme la plus similaire est bien la mélodie du morceau correspondant, ce qui montre que le système est bien entendu capable de retrouver un morceau à partir d'un extrait. Plus intéressant, la seconde pièce estimée comme la plus similaire est bien la mélodie de He's So Fine pour la requête My Sweet Lord, et inversement.Malgré les différences entre les deux mélodies, le système s'avère donc intéressant pour rechercher de manière automatique les hypothétiques cas de plagiat. Il est aussi important de remarquer les différences significatives entre les deuxième et troisième scores (83 par rapport à 52 ou 45). La similarité mélodique entre la requête et le morceau le plus similaire de la base de données, exception faite du plagiat, est indiquée par le troisième score et reste peu importante comparée à la similarité entre les morceaux He's So Fine et My Sweet Lord. Résultat d'expériences sur la détection automatique de plagiats musicaux : exemples des morceaux My Sweet Lord et He's So Fine (X indique un morceau de la base de données peu similaire à la requête) Requête rang 1 rang 2 rang 3 score 1 score 2 score 3 Sweet Lord Sweet Lord So Fine X mélodie 178,9 83,0 52,2 So Fine So Fine Sweet Lord X mélodie 199,7 83,0 45,5 Pour confirmer les résultats de ces premières expériences, nous avons considéré une autre base de données, composée de morceaux monophoniques de durée plus importante. Cette base de données regroupe plus de 1650 fichiers MIDI monophoniques collectés sur Internet. Quatre autres cas de plagiats célèbres sont également considérés, décrits sur le site (Columbia Center for New Media Teaching and Learning, 2008). Ainsi, pour chacun des cinq cas de plagiats, la mélodie monophonique est considérée comme une requête, et le système de recherche calcule les scores de similarité avec tous les morceaux de la base de données (qui contient également les mélodies des plagiats). Le tableau 3 montre les résultats obtenus par le système présenté, avec notamment les morceaux retrouvés aux trois premières positions, ainsi que leur score de similarité. Comme attendu, le morceau estimé comme étant le plus similaire est bien la requête elle -même. Le score du morceau en première position correspond donc au score maximum. L'information la plus intéressante pour notre évaluation concerne le morceau en deuxième position. Idéalement, ce morceau devrait correspondre à la mélodie déterminée par la justice comme un plagiat. Le tableau 3 montre que c'est toujours le cas, à l'exception du cas Fantasy vs Fogerty. Cette erreur montre les limites du système actuel. Ces limites sont discutées dans la section 4. Pour tous les autres cas, le système de recherche obtient les résultats escomptés. Pour des cas tels que les plagiats Selle vs Gibb ou Heim vs Universal par exemple, la similarité est même estimée comme importante. Néanmoins, les limites apparaissent également puisque l'on observe les petites différences de scores pour les morceaux en deuxième et troisième position pour le cas Repp vs Webber. Le faible score du morceau en deuxième position, considéré comme plagiat, implique une faible différence entre ce score et le score de similarité obtenu avec les autres morceaux de la base de données. Résultats d'expériences sur la détection de plagiat sur quelques cas célèbres Requête rang 1 rang 2 rang 3 score 1 score 2 score 3 R. Mack vs G. Harrison (1976) Sweet Lord Sweet Lord So Fine X 178,9 83,0 77,5 So Fine So Fine Sweet Lord X 199,7 83,0 75,3 Fantasy vs Fogerty (1994) Road Road X Jungle 168,9 87,6 75,9 Jungle Jungle Road X 146,3 75,9 75,5 Heim vs Universal (1946) Vagyok Vagyok Perhaps X 248,6 123,5 92,8 Perhaps Perhaps Vagyok X 215,5 123,5 76,8 Repp vs Webber (1997) Till You Till You Phantom X 135,5 50,8 50,4 Phantom Phantom Till You X 145,8 50,8 49,7 Selle vs Gibb (1984) Let It End Let It End How Deep X 192,4 118,1 68,9 How Deep How Deep Let It End X 202,8 118,1 83,8 Ces expériences sur la détection de cas de plagiats sont encore des études préliminaires, mais montrent l'intérêt d'adapter les méthodes issues de l'alignement de texte au contexte musical. Les limites actuelles restent liées à la gestion de la polyphonie. L'analyse musicale permettant de mener à une réduction monophonique en prenant en compte des accords semble être une piste prometteuse. Nous avons présenté un système d'estimation automatique de la similarité automatique entre deux mélodies, basé sur une adaptation d'algorithmes couramment appliqués en BioInformatique et en traitement du texte. Deux applications ont été proposées et testées, l'une permettant la recherche demélodies à partir d'un extrait, l'autre proposant d'aider à la recherche automatique de plagiats. Les expériences menées indiquent que le système développé semble très prometteur. Quelques améliorations et extensions doivent toutefois être proposées dans un futur proche. Tout d'abord, nous décrivons une représentation et des algorithmes dédiés à la musique monophonique. Il semble essentiel de pouvoir considérer un contexte polyphonique.De nombreuses adaptations sont nécessaires. Certaines ont déjà été proposées et testées. Mais la complexité des méthodes devient beaucoup plus importante et semble limiter leur application sur des bases de données réelles (de taille importante). Il semble donc nécessaire de prendre en compte des informations musicales de plus haut niveau telles que les séquences d'accords, les modulations à l'intérieur d'un morceau ou la tonalité. Ces adaptations risquent de soulever de nouveaux problèmes algorithmiques telles que la comparaison d'accords par exemple. Des travaux de recherche sont en cours à ce sujet. Il semble aussi intéressant de proposer des méthodes d'indexation, permettant d'éviter de comparer entièrement tous les morceaux d'une base de données. Des méthodes issues de la BioInformatique peuvent certainement être adaptées dans le futur. De plus, nous avons restreint notre système de comparaison de musique aux propriétés mélodiques. Il semble évident que la similarité musicale peut reposer sur de nombreux autres facteurs tels que l'harmonie, le rythme, la structure, le timbre, etc. Là encore, de nouveaux problèmes apparaissent, notamment liés à la représentation informatique de ces propriétés musicales, et des éventuels liens entre elles .
Dans un monde numérique en croissance permanente, la navigation dans de grandes bases de données musicales ne peut plus se limiter à une recherche par mot-clé textuel. Les nouvelles méthodes de navigation reposent en grande partie sur l'estimation de la similarité musicale entre deux morceaux. Nous proposons d'adapter des méthodes couramment employées dans le domaine de la Bioinformatique, notamment dans la recherche sur les séquences ARN, au contexte de la recherche d'informations musicales. Des évaluations à partir de bases de données réelles montrent que la précision de ces méthodes est tout à fait satisfaisante. Nous présentons ensuite une application originale à la recherche automatique de plagiats. Les résultats d'expériences effectuées à partir de cas célèbres de plagiats montrent alors un des intérêts de la comparaison de mélodies.
sciencesInfo_09-0255896_tei_DN_113_0107.tei.xml
termith-491-communication
La classification des sommets d'un grand graphe a déjà fait l'objet de nombreux travaux. Cette approche a été présentée depuis longtemps comme un moyen de simplifier la structure d'un grand graphe, dont le nombre de sommets peut être égal à plusieurs milliers, pour en faire ressortir sa structure macroscopique : “reducing [the] level of complexity [of a network] to one that can be interpreted readily by the human eye, will be invaluable in helping us to understand the large-scale structure of these new network data” (voir (Newman et al., 2004)). L'idée de la classification des sommets est de mettre en valeur des « communautés » (pour reprendre la terminologie couramment employée dans le domaine des réseaux sociaux). Même si aucune définition formelle de ce qu'est une communauté n'est aujourd'hui consensuelle, on désigne généralement sous ce terme un sous-ensemble de sommets du graphe, fortement connectés entre eux et faiblement connectés aux autres sommets. Aucune structure euclidienne, a priori, n'est définie entre les sommets d'un graphe et la classification des sommets requiert donc l'implémentation de méthodes spécifiques par rapport aux données multidimensionnelles usuelles. Une très grande variété de méthodes s'attachent à trouver des solutions satisfaisantes au problème de la partition des sommets d'un graphe : Schaeffer, (2007) fait une revue de ces méthodes qui sont basées sur la définition de similarités entre sommets ou sur l'optimisation de critères de qualité. Parmi celles -ci, la classification spectrale (voir (von Luxburg, 2007)) est une approche devenue très populaire mais qui est très sensible à la taille des données puisqu'elle nécessite la décomposition spectrale d'une matrice carrée dont la taille est égale au nombre de sommets du graphe. Nous proposons, dans cet article, d'utiliser la classification des sommets d'un graphe en étape préalable à la représentation de celui -ci. La pré-étape de classification permet de simplifier la structure macroscopique du graphe et de décomposer le problème de la représentation en sous-problème plus simple. A l'inverse, l'étape de représentation, permet de mieux visualiser les relations inter et intra-communautés. Ainsi, la combinaison des deux approches se veut une méthode efficace d'aide à la compréhension du graphe que l'on peut proposer à un utilisateur non expert. Une approche similaire est décrite dans (Karouach et al., 2003) où les auteurs utilisent les résultats d'une classification hiérarchique de la matrice d'adjacence du graphe comme méthode d'initialisation d'un algorithme attraction répulsion. Nous présentons ici une approche encore plus dirigée puisque la classification est utilisée comme étape préalable à une représentation contrainte des sommets du graphe. Dans cet article, la classification des sommets est effectuée par une approche optimisant une mesure de qualité populaire de la classification des sommets dans un graphe : la modularité, introduite par (Newman et al., 2004). L'originalité de notre approche réside dans l'utilisation d'un algorithme stochastique d'optimisation de ce critère, algorithme permettant sa mise en œuvre pour des graphes dont la taille peut être importante. Enfin, nous montrons comment cette méthode de classification peut être combinée avec un algorithme de représentation adapté au cas de graphes dont les sommets ont été partitionnés en classes et que l'on appelera, dans la suite graphes en classes. Cette approche aboutit à une représentation lisible de l'ensemble du graphe, des principaux groupes mis en valeur par la phase de classification et des liens existant entre sommets et entre groupes. La suite de l'article s'organise comme suit : la section 2 présente l'étape de classification de sommets et évalue l'algorithme proposé sur un jeu de données simulé. La section 3 présente l'algorithme de représentation de graphes en classes et, finalement, la section 4 illustre l'approche sur deux jeux de données issus du domaine des réseaux sociaux. Schaeffer, (2007) présente les principales méthodes de classification de sommets dans un graphe : certains auteurs se sont concentrés sur la construction d'une mesure de similarité ou d'une distance entre sommets du graphe pour pouvoir ensuite appliquer directement les méthodes de classification existantes pour des données définies par des tableaux de similarités (voir par exemple, (Capoccia et al., 2005; Lakroum et al., 2005) ou (Dong et al., 2006), pour des exemples de telles approches). Une méthode alternative consiste à optimiser une mesure de qualité de la classification, mesure définie à partir de la structure du graphe, c'est-à-dire, de la donnée de ses arêtes. Classiquement, on peut minimiser le nombre ou le poids des arêtes inter-classes : si G est un graphe non orienté, pondéré, de taille n, de sommets V = {1, 2, …, n} et dont l'ensemble des arêtes, E, est décrit par la matrice (symétrique, à diagonale nulle et coefficients positifs) des poids W, on appelle coupe d'une classification c (i) (pour i ∈ V) la quantité : Cette mesure de qualité est fortement reliée à la définition d'une certaine représentation du graphe, appelé plongement, dans un espace euclidien (voir par exemple, (von Luxburg, 2007)). Son optimisation, qui est un problème NP-complet, est fréquemment approchée par des méthodes de classification de type k - means sur ce plongement. Cette méthode est connue sous le nom de classification spectrale (« spectral clustering »). Cependant, si la classification spectrale est séduisante par sa simplicité et son interprétation très naturelle, elle peut s'avérer décevante en pratique. La raison est exposée dans (Newman, 2006) : la mesure de coupe considère toutes les arêtes de manière similaire. Or, Newman fait remarquer qu' être lié à un sommet de fort degré est moins exceptionnel qu' être lié à un sommet de faible degré. Pour tenir compte de cet aspect, il introduit une mesure de qualité basée sur le calcul d'une distance à un modèle nul dans lequel la répartition des arêtes entre et à l'intérieur des classes ne dépend que du degré des sommets. Pour une classification donnée C 1, … Cp des sommets du graphe, la modularité est la quantité : où m est le nombre total d'arêtes du graphe et les Pij sont les poids estimés des arêtes intra-classes entre les sommets i et j dans le modèle nul où la répartition des arêtes dépend uniquement du degré et non des classes. Ainsi, une valeur de Q grande (et positive) est le signe d'une sur-représentation (par rapport au modèle nul) des arêtes à l'intérieur des classes alors qu'une valeur de Q fortement négative est le signe d'une sur-représentation des arêtes à l'extérieur des classes. La notion naturelle de communautés, exposée précédemment, correspond au premier cas. Le choix de la valeur des Pij est fait en fonction des hypothèses correspondant au modèle nul. Des contraintes raisonnables sur ces valeurs sont, usuellement : (i.e., le nombre d'arêtes du modèle nul est identique au nombre d'arêtes du graphe considéré); où, pour tout i ∈ V, di désigne le degré du sommet i :. Cette hypothèse est simplement équivalente au fait que le degré de chaque sommet du modèle nul est le même que le degré des sommets dans le graphe considéré. Enfin, par hypothèse, on suppose que Pij est de la forme f (di) f (dj) qui traduit, d'une part, le fait que les poids attendus du modèle nul ne dépendent que des degrés des sommets considérés et non de leur répartition entre les différentes classes et, d'autre part, le fait que les poids entre deux arêtes données sont indépendants. Newman, (2006) montre qu'alors la valeur des Pij est donnée par. L'optimisation de Q sur l'ensemble des partitions des sommets du graphe est un problème NP-complet qui ne peut être effectuée par une recherche exhaustive sur l'ensemble des partitions possibles des sommets en p classes pour la plupart des graphes réels. Diverses approches d'approximation de ce critère ont été proposées récemment : Newman et al., (2004) proposent une optimisation hiérarchique qui peut, dans certains cas, conduire à des solutions assez inadéquates (voir, entre autres, l'exemple donné dans (Newman, 2006)). Newman, (2006) propose une approximation par optimisation d'un critère basé sur une décomposition spectrale d'une matrice de taille n ². Lehman et al., (2007) et Rossi et al., (2010) proposent, respectivement, l'optimisation de ce critère ou d'un critère adapté à une classification organisée, par un algorithme de recuit déterministe. Ce type d'algorithme est rapide et efficace mais nécessite un réglage adéquat des paramètres de refroidissement du système qui nécessite de connaître une partie du spectre d'une matrice de taille n 2 liée au graphe. Nous présentons ici une approche par recuit simulé de l'optimisation de la modularité : cette approche, basée sur une démarche stochastique, présente l'avantage de ne nécessiter que des opérations de très faible complexité et peu de réglage de paramètres pour sa mise en œuvre : elle est donc particulièrement bien adaptée à des données de grande taille. Le recuit simulé est un algorithme stochastique, présenté dans (Kirpatrick et al., 1983) et destiné à optimiser une fonction de coût lorsque d'autres algorithmes plus simples (de type descentes de gradient) sont inadaptés. Il est particulièrement utile lorsque l'espace des possibles est discret ou bien lorsque la fonction possède de nombreux maxima locaux. Ici, l'optimisation de la modularité sur l'espace des partitions possibles du graphe est typiquement le cadre d'application d'un algorithme stochastique tel que le recuit simulé. Cette approche a d'ailleurs été utilisée dans (Reichardt et al., 2006) pour des simulations sur la modularité. L'algorithme de recuit simulé et son application à l'optimisation de la modularité sont présentés ici brièvement. Pour plus de détails, le lecteur pourra se référer à (Kirpatrick et al., 1983). De manière similaire à l'algorithme de Métropolis-Hastings (Hastings, 1970), le principe de l'algorithme de recuit simulé est de simuler, par une chaîne de Markov, une variable prenant ses valeurs dans l'ensemble des classifications possibles des sommets du graphe. Cette chaîne de Markov a pour loi de probabilité invariante : où Q (C, G) désigne la modularité de la classification C du graphe G, T est un paramètre de température positif et Z une constante de normalisation qu'il est inutile de calculer. L'intérêt de cette loi apparaît lorsque l'on fait tendre le paramètre de température, T, vers 0 : la chaîne de Markov a alors tendance à se figer sur les états de grande probabilité, c'est-à-dire, sur les maxima de Q. Un choix généralement admis pour la décroissance du paramètre de température est où l désigne l'état l de la chaîne de Markov (i.e., le nombre d'itérations de l'algorithme) et γ est une constante strictement positive. La mise en œuvre pratique de la simulation de la chaîne de Markov est faite par le biais de la méthode d' « acceptation/rejet » : étant donné une classification CI, des sommets du graphe G, on choisit, de manière aléatoire, une classification « voisine », CF, selon un processus réversible. La classification CF est choisie à partir de CI avec une probabilité P (CI, CF) (dans notre cas, on prend, pour simplifier, P (CI, CF) = P (CF, CI)). Enfin, on accepte la classification CF (c'est-à-dire que l'on conserve cette classification comme nouvel état de la chaîne de Markov) avec la probabilité où Δ Q (C1, CF, Q) désigne la différence de modularité entre la classification CI et la classification CF (plus précisément,). L'algorithme d'optimisation de la modularité par recuit simulé est décrit dans l'algorithme 1. L'étape 3d de l'algorithme 1 ne nécessite pas le calcul intégral de la modularité. En effet, Lehman et al., (2007) montrent que la modularité peut être mise sous la forme matricielle où S désigne la matrice de taille p × n dont les éléments sont, pour tout sommet x dans V et toute classe Ck, (en d'autres termes, S est la matrice d'appartenance des sommets aux classes); B désigne la matrice (W – P); Tr( STBS) est la trace de la matrice STBS, c'est-à-dire, la somme de ses éléments diagonaux. On montre alors facilement que l'étape 3d se réduit à : ce qui nécessite moins de (n – 1) additions, c'est-à-dire, bien moins que le calcul de la modularité d'une classification donnée qui nécessite de l'ordre de n 2 opérations élémentaires. Nous nous proposons d'analyser la qualité de la classification obtenue par l'approche décrite dans l'algorithme 1. Pour ce faire, nous utilisons un modèle de graphe aléatoire (non orienté et non pondéré) plausible du point de vue de l'étude des réseaux sociaux : il s'agit du « planted p-partition model » décrit, par exemple, dans (Condon et al., 2001). Ce modèle est composé de groupes de sommets denses et faiblement reliés entre eux et présente donc une structure naturelle en communautés que l'algorithme de classification doit être capable de pouvoir retrouver. De manière plus précise, un graphe aléatoire généré par ce modèle dépend de 4 paramètres, notés p (nombre de classes, appelées dans la suite classes naturelles), k (nombre de sommets dans chaque classe), r (probabilité d'une arête intra-classes) et q (probabilité d'une arête inter-classes). Nous noterons, dans la suite, G (p, k, r, q) ce modèle. Une réalisation du modèle pour 3 classes de 4 sommets est donnée dans la figure 1. Pour évaluer si l'algorithme 1 était capable de retrouver les classes naturelles du modèle « planted p - partition », nous avons généré pour des valeurs fixées des paramètres du modèle, 50 graphes aléatoires. Deux ensembles de paramètres ont été testés : G (5,100,0.7,0.02) : sur les 50 graphes aléatoires générés selon ce modèle, la modularité moyenne de la partition naturelle est de l'ordre de 0,70. Cette valeur est compatible avec les valeurs trouvées dans les réseaux sociaux réels; G (50,10,0.7,0.2) : sur les 50 graphes aléatoires générés selon ce modèle, la modularité moyenne de la partition naturelle est de l'ordre de 0,37. Cette valeur est bien inférieure aux valeurs généralement observées sur des réseaux sociaux réels. La recherche des classes naturelles dans ce modèle peut donc être considérée comme un problème relativement compliqué. Par ailleurs, l'algorithme a été testé en initialisant le nombre de classes selon deux stratégies : une stratégie dans laquelle le nombre de classes est supposé connu (on initialise donc le nombre de classes de l'algorithme à la valeur p du nombre de groupes de sommets dans les graphes aléatoires que l'on a générés) et une stratégie dans laquelle le nombre de classes est inconnu (et on initialise donc le nombre de classes de l'alorithme à une valeur p algo > p). Ceci permet d'évaluer si l'algorithme est sensible à l'initialisation du nombre de classes. Enfin, la qualité de reconstruction des classes a été mesurée de deux manières différentes : par le calcul du taux de mauvais classement des sommets dans leur classe naturelle (pourcentage de sommets qui ne sont pas classés dans la classe la plus fréquemment affectée aux sommets de la classe naturelle à laquelle ils appartiennent); par calcul de la différence entre la modularité de la classification naturelle et la modularité de la classification fournie par l'algorithme (cette mesure de qualité sera appelée défaut de modularité). Les résultats obtenus sont résumés dans le tableau 1. Le taux de bonne classification des sommets dans leurs classes naturelles est tout à fait satisfaisant, avec moins de 10 % de sommets mal classés même dans la situation la plus difficile (celle décrite par la dernière colonne du tableau). De même, la modularité est correctement optimisée puisque le défaut de modularité représente environ 10 % de la modularité attendue pour le problème le plus difficile (dernière colonne) contre 5 % environ pour le problème le plus facile (première colonne). Enfin, même dans la situation où le nombre de classes recherchées par l'algorithme est très supérieur au nombre de classes naturelles (deuxième colonne), l'algorithme se comporte correctement et tend à s'adapter en donnant un nombre de classes non vides automatiquement plus faible que le nombre de classes proposées par défaut par l'utilisateur. Performances moyennes de l'algorithme d'optimisation de la modularité par recuit simulé sur le modèle « p-planted partition graph » r × q p × k palgo 0.7 × 0.02 5 × 100 5 0.7 × 0.02 5 × 100 10 0.7 × 0.2 50 × 10 50 Taux d'erreur (classification) 1,36 % 2,34 % 6,32 % Défaut de modularité 0,036 0,040 0,036 Les résultats de cette section sont le signe que l'algorithme proposé est une approche de classification des sommets d'un graphe dont les performances sont tout à fait satisfaisantes. Dans la suite, nous expliquons comment utiliser une classification pertinente obtenue par cette approche pour représenter l'intégralité du graphe de manière à en faire ressortir les principales structures. Il est admis que la visualisation contribue fortement à l'efficacité des processus d'analyse et d'exploitation des données. C'est dans cette optique que plusieurs travaux se sont intéressés au dessin de graphes. Construire un dessin de graphe consiste à positionner les sommets et les arcs d'un graphe dans un espace d'affichage selon des critères et des contraintes dont l'objectif est d'offrir les visualisations les plus facilement interprétables. Les travaux les plus connus se fondent sur une approche dirigée par des forces. Dans cette approche, que l'on peut attribuer à Eades (voir, par exemple, (Eades, 1984)), les sommets sont assimilés à des anneaux et les arcs à des ressorts. Les sommets sont placés dans une disposition initiale souvent aléatoire et laissés libres de sorte que les forces des ressorts les déplacent vers un état d'équilibre où l'énergie du système – anneaux et ressorts – est minimale. Une autre variante de cette méthode, appelée « force et repousse », consiste à modifier la manière dont les forces sont appliquées : des forces répulsives sont activées pour toutes les paires de sommets tandis que des forces attractives sont instaurées uniquement pour les sommets connectés. Ces algorithmes de forces sont utilisés avec succès pour le dessin de graphes possédant relativement peu de sommets. La difficulté de visualiser un graphe dépend, en effet, de sa taille, qui est l'obstacle majeur pour la réalisation de l'objectif de visualisation. Plus le nombre de sommets et d'arcs est grand, plus les critères de visibilité et de qualité de l'interprétation sont difficiles à atteindre. Pour prendre en charge des graphes contenant plus que quelques centaines de sommets, on a recourt soit à des algorithmes plus efficaces (voir, par exemple, (Hachul et al., 2005)), soit à une classification préalable ayant pour but de réduire la complexité du graphe. Cette réduction de complexité consiste souvent à considérer le graphe des classes plutôt que le graphe initial (voir, (Rossi et al., 2010) pour un exemple d'utilisation de cette approche) et s'accompagne donc indéniablement d'une perte d'information. C'est cette perte d'information que nous cherchons à minimiser par l'utilisation d'algorithmes de représentation de graphes en classes. Ce type d'algorithme fournit une visualisation qui permet d'apprécier non seulement la place de chaque sommet dans le graphe (relativement à ses voisins) mais aussi la structure en communautés du graphe. Elle permet ainsi de montrer les relations entre communautés (ou classes) et de juger l'influence de l'appartenance à une classe sur le positionnement de chaque sommet. Elle bénéficie de la simplification de structure apportée par l'étape de classification tout en conservant la représentation du graphe dans son ensemble. En réalité, très peu de travaux ont été dédiés à la visualisation des graphes en classes. Parmi ces travaux, nous pouvons mentionner ceux de (Noack, 2004), de (Chuang et al., 2004) et de (Eades et al., 2000) comme les plus représentatifs. Ces travaux se basent sur le modèle de forces traditionnel de (Kamada et al., 1989), ajoutent un sommet virtuel représentatif de chaque classe et relient chacun de ces nouveaux sommets à tous les sommets de la classe à laquelle ils sont associés. Ces modèles donnent de bons résultats pour des graphes dont les classes sont beaucoup plus denses que le graphe global. Ainsi, outre l'introduction d'un sommet virtuel dont le sens n'est pas réellement défini de manière concrète, cette approche s'avère inutilisable lorsque le rapport de la densité dans les classes à la densité globale du graphe n'est pas faible. Cela peut être le cas dans de nombreux exemples concrets, notamment lorsque le nombre de classes de la classification est faible devant la taille du graphe. Dans cet article, nous proposons d'utiliser une approche alternative de visualisation capable de gérer la visualisation des graphes en classes quel que soit le rapport des densités intra et inter-classes. Cette approche a été présentée dans (Truong et al., 2007). Elle est basée sur le modèle de forces de (Fruchterman et al., 1991) et permet d'associer à chaque classe une zone de visualisation prédéfinie dans laquelle chacun de ses sommets sera représenté. L'algorithme proposé présente deux différences par rapport à celui de Fruchterman et Reingold : tout d'abord, les forces mises en œuvre sont de deux types : celles intervenant entre les sommets d'une même classe d'une part, et celles intervenant entre les nœuds de classes différentes d'autre part. Ces forces sont caractérisées par des intensités différentes dans les deux cas. Ensuite, les sommets sont contraints à l'intérieur des zones associées à leur classe d'appartenance par l'ajout de forces répulsives entre les sommets et la frontière de leur zone. Pour ce faire, les sommets et les frontières des zones associées aux différentes classes sont chargés de forces électriques de même nature. Ceci assure que chaque sommet reste toujours à l'intérieur de la zone qui lui a été initialement associée. La figure 2 résume l'intégralité du modèle de forces mis en œuvre lors de la représentation d'un graphe en classes. C'est cette approche que nous combinons avec la méthode de classification de sommets décrite dans la section 2 pour obtenir une représentation globale d'un réseau social découpé en communautés. Nous proposons d'utiliser la classification des sommets du graphe comme étape préalable à la représentation globale de celle -ci, tout en préservant la structure en communautés trouvées. De manière plus précise, après avoir effectué la classification des sommets du graphe en optimisant la modularité par recuit simulé, le graphe des classes est d'abord représenté grâce à un algorithme de forces ordinaire. Cette étape est similaire à celle décrite dans (Rossi et al., 2010) : le graphe des classes est le graphe dont les sommets sont les classes et il existe, dans ce graphe, une arête entre deux classes Ck et Cl si et seulement si au moins une paire de sommets du graphe initial, (i, j), est telle que i ∈ Ck, j ∈ Cl et (i, j) ∈ E (la paire de sommets (i, j) est connectée dans le graphe initial). Les arêtes entre classes sont pondérées par la somme des poids des arêtes reliant des paires de sommets dans le graphe initial : pour tout k, l dans {1, …, p }, le poids de l'arête reliant les classes Ck et Cl est : Lorsque l'on représente ce graphe chaque classe peut être figurée par un symbole (un cercle, un carré) dont la surface est proportionnelle à l'effectif de la classe. La représentation est très simplifiée mais facile à lire si le nombre de classes est peu élevé. Ensuite, l'algorithme de représentation d'une classe, décrit dans la section 3.1., est utilisé pour représenter l'intégralité des sommets du graphe initial : les positions des classes déterminées par l'algorithme de forces appliqué au graphe des classes sont utilisées comme zone de contrainte dans laquelle les sommets appartenant à la classe considérée doivent se situer. Dans ce premier exemple, nous traitons un réseau élémentaire très connu pour montrer comment la combinaison d'outils de classification et de visualisation permet de donner une représentation simple des structures principales d'un graphe. Il s'agit d'un réseau social issu du livre « Les Misérables » de Victor Hugo et décrit dans (Knuth, 1993) qui dénombre, les apparitions simultanées des 77 personnages du roman. Ces co-apparitions peuvent être modélisées par un graphe pondéré et symétrique, représenté dans la figure 3 1. La première phase de l'analyse consiste à mettre en œuvre l'algorithme de recuit simulé pour la classification des sommets. Celui -ci a été testé avec : différentes valeurs du nombre de classes (variant de 5 à 10). En effet, la modularité n'est pas une fonction monotone du nombre de classes et peut donc permettre un choix optimal (au sens de ce critère) du nombre de classes; différentes valeurs du paramètre γ de l'algorithme 1. Par ailleurs, plusieurs itérations de l'algorithme ont été effectuées : l'algorithme étant basé sur un processus stochastique, chaque itération produit une solution potentiellement différente, les répétitions ayant pour but d'approcher au mieux l'optimum en temps fini. L'évolution de la valeur optimale de la modularité optimale trouvée sur l'ensemble des répétitions, en fonction du nombre de classes initial de l'algorithme, est donnée dans la figure 4. La modularité optimale est obtenue pour une initialisation à 9 classes; la classification obtenue pour cette solution optimale comporte seulement 8 classes. La figure 4 ainsi que le fait que le nombre de classes finalement fourni par l'algorithme est inférieur au nombre de classes initial (9) montre que la recherche d'une bonne classification dont le nombre de classes serait supérieur à 10 est inutile. La figure 5 est le résultat de la représentation du graphe des classes par un algorithme de forces 2. On y remarque un groupe important, central, autour duquel gravitent les autres personnages du roman et on identifie également aisément 3 autres groupes de taille importante et qui permettent de structurer les relations autour du groupe principal. La combinaison de la représentation du graphe des classes avec l'algorithme de représentation d'un graphe en classes donne finalement la représentation fournie dans la figure 6 que l'on peut la comparer à la représentation initiale du graphe donnée par la figure 3. Si certains groupes denses sont facilement identifiables dans les deux représentations (comme par exemple celui qui est organisé autour de Myriel), la représentation du graphe en classes permet d'identifier plus clairement des groupes dans la partie la plus dense du graphe. Elle met bien en valeur la position centrale de certains personnages du groupe principal : Valjean, Cosette, Marius, Javert (…), ainsi que la proximité de ces personnages centraux. On rappelle que la trame principale du roman est organisée autour de la vie de Jean Valjean, ancien forçat, qui mourra dans les bras de sa jeune protégée Cosette et du jeune étudiant tombé amoureux d'elle, Marius, après avoir été poursuivi durant des années par l'intransigeant Javert. Or, hormis pour Valjean, cette position centrale n'est pas aussi claire dans le graphe initial. Les trois sous-groupes principaux se présentent comme autant d'histoires secondaires gravitant autour de cette histoire principale : le groupe important situé le plus en bas du graphe est organisé autour de Gavroche, gamin des rues, capable de gestes de générosité envers Mabeuf (aussi dans ce groupe) et deux enfants perdus, appelés ici « Child 1 » et « Child 2 », qui sont ses frères. Un second groupe principal se situe au-dessus de celui -ci, à droite. Il est organisé autour de Fantine, ouvrière obligée de confier sa fille, Cosette à des inconnus. On retrouve justement ces inconnus dans le troisième groupe important, situé à gauche du groupe principal : ce sont les Thénardier; c'est leur présence dans ce groupe qui influence la position de Cosette dans la partie gauche de son groupe. Ainsi, la représentation du graphe en classes est facilement mise en relation avec l'histoire du roman. Elle permet d'en identifier les personnages principaux et les histoires secondaires. Sur cet exemple simple, on comprend l'apport d'une phase préalable de classification à la représentation du graphe afin de diriger la structuration du dessin et de simplifier l'interprétation. Nous traitons, dans cette section un autre exemple simple mais plus réaliste destiné à montrer que l'approche est utilisable pour des graphes de plusieurs centaines de sommets. L'exemple traité ici est issu de (Newman, 2006) 3 : il s'agit d'un réseau de collaborations scientifiques d'individus travaillant autour de la thématique des réseaux sociaux, modélisé sous la forme d'un graphe pondéré (non orienté). La plus grande composante connexe du graphe contient 379 scientifiques. Une représentation basée sur un algorithme de forces est donnée dans les figures 7 et 8. Sur le graphe des figures 7 et 8, nous avons, tout d'abord, mis en œuvre l'algorithme de recuit simulé pour optimisation de la modularité. Afin d'obtenir des classes de petites tailles, nous avons opté pour un nombre de classes égal à 20; plusieurs initialisations aléatoires ont été effectuées et plusieurs valeurs du paramètre γ de l'algorithme de recuit simulé ont été testées. La meilleure classification obtenue avait une modularité finale égale à 0,816, ce qui est une valeur optimale attendue pour ce type de réseau (voir (Newman et al., 2004)). La figure 9 montre l'évolution de la modularité lors des itérations de l'algorithme de recuit simulé : la vitesse de convergence de l'algorithme est forte avant de se stabiliser vers 50 000 itérations. La figure 10 donne la représentation, par un algorithme de forces, du graphe des classes. On y remarque des groupes isolés et des groupes très centraux autour desquels le réseau est structuré en étoile. Ce phénomène était déjà perceptible sur la représentation initiale du graphe mais il est, sur la représentation de la classification, plus évident et lisible, démontrant ainsi la validité et l'utilité d'une telle approche pour l'utilisateur. Enfin, notre approche permet d'obtenir la représentation finale des figures 11 et 12. On y voit clairement l'avantage de la représentation du graphe entier plutôt que du graphe de classes : les densités locales d'arêtes sont plus facilement identifiables, que ce soit à l'intérieur des classes ou entre celles -ci. Par rapport à la représentation initiale, la représentation peut sembler perdre légèrement en clarté mais elle présente l'avantage de mettre en valeur des communautés et les relations entre celles -ci. C'est une information d'importance pour l'utilisateur (sociologue, biologiste…), qui peut ainsi directement visualiser sa classification sur le graphe. L'information donnée par la visualisation directe des sommets permet de comprendre les raisons de la formation des classes et de leur organisation dans le plan. Le travail présenté ici décrit la combinaison d'une méthode de classification de sommets d'un graphe et d'une méthode adaptée de visualisation de graphes en classes pour donner une représentation simplifiée et lisible des grandes structures de relations existant dans un graphe. La méthode de classification des sommets, basée sur un algorithme stochastique et l'utilisation d'un critère de qualité spécifique au graphe permettent d'utiliser cette approche pour la représentation de graphes de taille importante. L'application dans des domaines tels que la classification de documents ou de réseaux biologiques est en cours d'investigation : ces domaines sont des challenges importants pour la fouille de graphes par la taille des données qu'elles mettent en œuvre. Enfin, une autre voie d'investigation consiste en l'utilisation, à la place d'une classification, d'un algorithme d'organisation des sommets du graphe (par exemple, les cartes auto-organisatrices de Kohonen) : de tels algorithmes adaptés à des données de type graphes ont été présentés dans (Villa et al., 2007) et (Rossi et al., 2010). Une approche similaire à celle que nous présentons ici pourrait être mise en œuvre pour la représentation de graphes, permettant d'éviter la phase de choix de la position des classes (ou de représentation du graphe des classes) en la remplaçant par une carte définie a priori. Cependant, l'avantage d'un choix automatique de la position des classes est contrebalancé par la contrainte que représente la forme de la carte qui doit être choisie a priori et qui peut être peu adaptée au plongement du graphe étudié .
Ce travail concerne l'analyse, la compréhension et la représentation de grands graphes. La progression des moyens de recueil et de stockage des données rend la taille de ces graphes croissante: le développement de méthodes permettant leur analyse et leur représentation est donc un domaine de recherche dynamique et important. Dans cet article, nous développons une méthode de représentation de graphes basée sur une classification préalable des sommets avant sa représentation complète. La phase de classification consiste en l'optimisation d'une mesure de qualité spécialement adaptée à la recherche de groupes denses dans les graphes. La représentation finale est basée sur un algorithme de « forces » contraint. Deux exemples issus de l'analyse de réseaux sociaux sont présentés.
sciencesInfo_13-0053292_tei_DN_id9782746233034_pu2011-01s_sa04_art04.tei.xml
termith-492-communication
Biométrie, vidéosurveillance, traces électroniques, drones ou satellites espions. .. ,à lire les gros titres de la presse qui évoquent régulièrement le retour de Big Brother, la sophistication croissante des technologies del'information annonce l'avènement d'une société de transparence, une « cité deverre » (Lyon, 2003), où l'on pourrait instantanément visualiser tout ce qui s'ypasse. Du Truman Show (Weir, 1998) à Minority Report (Spielberg, 2002), le cinéma a d'ailleurs popularisé cetteidée en dévoilant les rouages invisibles et le potentiel de cet appareillagesophistiqué : les agents de l'ordre seraient désormais capables de suivre à distanceles va-et-vient du simple citoyen, de prévenir les comportements indésirables et deconfondre à coup sûr les criminels. Qu'il soit permis d'en douter et des'interroger. Les discours actuels ne servent-ils pas plutôt à entretenir un purfantasme, celui de l'existence d'un appareil panoptique inédit, une espèce d'objetidéal censé convaincre les citoyens de la commodité à assurer le maintien del'ordre. .. ou plus prosaïquement à endiguer les désordres sociaux actuels ? Il estvrai que la police a toujours opposé à la curiosité des chercheurs une exigence desecret, et que cette clôture a provoqué en retour le soupçon et débridél'imagination, comme le soulignent Dominique Montjardet et Frédéric Ocqueteau( 2004). En réalité, l'institution policière a peu de chose à voir avec l'appareilmassif et bien huilé que l'on décrit généralement. Les rares recherches consacrées àl'usage réel (et non supposé) des technologies de l'information dans le champ de lasécurité ont montré que celles -ci ne peuvent jouer un rôle actif dans l'acquisitionde savoirs qu' à certaines conditions (Heilmann, 2003; Pallida, 2000). Commentgarantir la pertinence et la véracité des données collectées ? Comment accumulertoujours plus d'informations, sans pour autant entraver leur exploitation ?Classement, codification, réduction, recoupement etc., les méthodes sont connues ,mais la police a toujours eu toutes les peines du monde à résoudre ces problèmesavec succès, comme en témoigne par exemple l'exploitation de l'outil informatiquedepuis son introduction dans les services à la fin des années 60 (Heilmann, 2005) .Cela dit, il est légitime de s'interroger : l'usage de ces technologies a -t-il accrules capacités de l'appareil policier pour contrôler et surveiller la population ?Au-delà de la fascination ou des craintes que ces techniques peuvent susciter, ilconvient d'abord de questionner leur « nouveauté » sous l'angle du travail policier .En effet, si l'innovation se traduit par un perfectionnement dans l'ordre technique ,elle n'est pas toujours suivie par un changement dans l'organisation, l'exercice oula définition même du travail d'enquête ou d'identification. Si nouveauté il y a, ilfaut donc la chercher ailleurs que dans l'objet technique proprement dit. Plusprécisément, il faut repérer parmi toutes ces innovations celles qui induisent denouvelles modalités de régulation des désordres, de nouvelles « procéduresdisciplinaires » comme les désignait Michel Foucault (1975). De ce point de vue, lavidéosurveillance mérite de retenir toute l'attention car son déploiement dans lesespaces urbains s'est accompagné de changements radicaux dans la gestion del'ordre. L'exploitation de l'image à des fins d'enquête et d'identification est aussiancien que l'appareil photographique mais elle n'a jamais, jusqu' à une périoderécente, occupé une place centrale dans les dispositifs disciplinaires exploitéspar les institutions en charge du maintien de l'ordre. Comme le souligne MichelFoucault (1975 : 216) dans Surveiller et punir : « Toutau long du xviii e siècle, unimmense texte policier tend à recouvrir la société grâce à une organisationdocumentaire complexe ». En effet, ce qui distingue la police moderne desanciennes techniques de garde et de guet est l'usage de dispositifs d'écritureoù sont enregistrées des informations sur la population (identité, signalement ,opinion, condamnation, etc.). La surveillance exercée par les forces de l'ordrepasse désormais par l'élaboration de savoirs sur les individus et non plus parune simple vigilance. Et l'évolution du traitement de l'information dans lapolice, jusqu' à la fin du xx e siècle, montre clairement qu'elle n'a cessé d'étendre et d'étoffer un réseaucomplexe d'écritures afin d'élaborer de nouvelles connaissances à partir desdonnées collectées. Pour faire entrer dans le champ documentaire tous ceux quiont à être vus, la police a exploité trois types de dispositif. Le premier dispositif réunit tous les procédés par lesquels le support del'information qui objective un individu est conservé en propre par lesservices de police : les fichiers de police proprement dit où les noms, lesfaits et les choses dont on veut garder le souvenir sont consignés. Enréalité, jusqu' à la fin du xix e siècle, le terme « fichier » n'est pas utilisé par les professionnels dumaintien de l'ordre. On exploite des « registres » (les registres de laSûreté) ou encore des « sommiers », gros livres de commerce qui, enl'espèce, comptabilisent la somme des crimes et délits à mettre au comptedes délinquants (les sommiers judiciaires). Lorsque les pages du registresont rendues mobiles, on parle alors de bulletins se logeant dans un« casier » (le casier judiciaire) et la diffusion des données sur leterritoire en est grandement facilitée. Comme la police fonctionne aupluriel et s'est organisée selon le principe de la spécialisation( contre-espionnage, renseignement politique, sécurité urbaine, lutte contrela criminalité, etc.), chaqueservice va progressivement se constituer un patrimoine informationnel dontl'exploitation est primordiale pour délimiter son champ de compétence et sevoir reconnaître une capacité spécifique d'intervention sur le terrain. Lesservices des mœurs s'occupent de la « mise en carte » des prostituées, ceuxde la Sûreté alimentent les casiers des escrocs, des voleurs, des personnesdisparues. .. Ainsi l'enquêteur dispose -t-il d'instruments appropriés à ceque Jack Goody (1977 : 97) appelle un « exercice de ruminationconstructive ». Fixées par écrit, les informations collectées – par lespoliciers eux -mêmes ou auprès de témoins et d'indicateurs – ne risquent pasd' être déformées ou corrompues par le temps. Codifiée ou étiquetée, unefiche peut se loger avec précision dans une vaste collection pour êtreensuite extraite et manipulée à loisir, comparée à d'autres donnéescollectées en d'autres lieux et à d'autres moments. Un fait singulier peutsurgir après l'examen de différents modes opératoires pour reconnaître celuiqui est propre à un malfaiteur, ou encore en examinant la fréquence decertains faits pour obtenir un indice de convergence. La photographie ? Les épreuves daguerréotypiques font leur premièreapparition dans les maisons d'arrêt durant les années 1840 en France .L'évolution de la technique facilite la démultiplication des épreuves et des« albums signalétiques » sont mis à la disposition des commissariats. Maisla première entreprise de fichage systématique est conduite en 1871 par lajustice militaire qui tente de confondre les militants de la Commune .L'expérience est décisive. Comme le souligne Christian Phéline (1985 : 28) ,en accédant aux prisons versaillaises pour réaliser plusieurs centaines deportraits de communards, le photographe Eugène Appert s'écarte de lapratique usuelle des studios pour imposer un mode de figuration défini parsa fonctionnalité propre : les détenus sont identiquement représentés assis ,devant le fond clair d'un mur. De face ou de trois quarts, ils regardentl'objectif placé légèrement au-dessous de la ligne des yeux. Dans le climatde réaction sociale qui suit l'écrasement de l'insurrection, un servicephotographique est créé en 1874 à la préfecture de police de Paris .L'enregistrement photographique de la population pénale devientsystématique, mais son efficacité est rapidement contestée. En quelquesannées, 100 000 portraits ont été réalisés. Cependant, faute d'un principeopératoire permettant à la fois de classer et de retrouver chaque documentindividuel, l'efficacité du service photographique est sérieusement mise encause. Avec l'avènement de la police dite scientifique, sous l'impulsiond'Alphonse Bertillon qui a fait son entrée à la préfecture en 1879, denouveaux procédés d'identification sont exploités à grande échelle. Le« bertillonnage » combine le système anthropométrique qui est fondé sur lamensuration de certaines parties du corps humain, le relevé des marquesparticulières (cicatrices, tatouages, grains de beauté) et des fiches designalement. Et ce n'est qu' à la fin des années 1880 que la photographie estintégrée à l'ensemble. Les procédures de prises de vue sont désormaisstrictement codifiées : le protocole opératoire assure l'uniformité de lapose, de l'éclairage et de l'échelle de réduction, l'usage du portrait deprofil est rendu impératif – Alphonse Bertillon (1890 : 17) considère que lafiguration latérale est la seule à donner « la plus exacte coupe anatomiquede l'individualité » – et un nouveau rétrécissement du cadrage est opéré .Les bases de la photographie judiciaire sont posées et ne varieront guèredans les décennies suivantes. De 1940 à 1944, un ensemble de fichiers d'une amplitude inégalée jusque -là vaprendre forme pour recenser, identifier, contrôler, et au fil des moisarrêter, interner, voire déporter les Juifs français et étrangers (Rémond ,1996). L'un des enseignements que l'on peut tirer de cette collecteméticuleuse est que l'oppression des hommes concomitante à une technique nevient pas uniquement de l'utilisation de cette dernière par un pouvoirmalveillant, contrairement à une idée encore largement répandue aujourd'hui .L'oppression résulte de certaines démissions ou compromissions éminemmentpolitiques : il a fallu que des nomenclatures soient définies par desspécialistes (juristes), que d'autres (techniciens) acceptent d'inclure etde manipuler certaines données dans des dispositifs qu'ils doivent rendreopérationnels, que d'autres encore (policiers, gendarmes) s'en servent pourtraquer et arrêter les personnes ainsi désignées, et enfin que lacollectivité accepte qu'une partie de ces membres soit d'abord stigmatiséepuis poursuivie, asservie ou anéantie. Par la suite, pour s'en tenir à desaspects techniques, le recours à la mécanographie puis à l'informatique –àpartir de la fin des années 60 – s'impose pour rénover les procédésclassiques d'archivage et d'exploitation des données qui en ont grandbesoin. Selon un document confidentiel daté de 1968 (Heilmann, 2005 : 145) ,dans les seuls services parisiens de la police nationale, il existe plus de400 fichiers contenant au total plus de 130 millions de fiches ! Audemeurant, cette entreprise serait en partie vaine si les enquêteurs nepouvaient compter que sur les informations en leur possession. Comment fixerfidèlement l'individualité dans des papiers alors que la population esttoujours changeante et en perpétuel mouvement ? Avec le « livret ouvrier », la « carte de séjour » ou le « passeport pourl'intérieur » – c'est ainsi que l'on désignait autrefois la carte d'identité–, la distance qui sépare l'individu – que l'information objective – dusupport – où l'information est fixée – est réduite. Les données sontconservées par l'individu lui -même. On perçoit d'emblée tous les avantagesque la police des va-et-vient peut tirer de ce deuxième dispositif (facilitéd'accès, mobilisation à moindre frais de données supplémentaires), maisaussi ses inconvénients (précision et véracité des inscriptions limitées enraison des risques de falsification). Suivant les périodes politiques, cedispositif est utilisé avec plus ou moins de rigueur. Au xix e siècle, certaines catégories depopulation comme les ouvriers, les marchands itinérants et autres gens« sans feu, ni lieu » feront l'objet d'une surveillance assidue (Bernard ,1987). Relevé de compte d'une vie laborieuse, le fichier ambulant n'est-ilpas aussi le signe d'appartenance à une classe dangereuse ? Si le livretouvrier disparaît en 1890, le procédé demeure et la terminologie évolue. En1912, un « carnet anthrométrique d'identité » est institué pour lapopulation tzigane. Il est obligatoire pour tout individu appartenant àcette communauté à partir de l' âge de treize ans. En 1921, les premières« cartes d'identité » sont délivrées de manière facultative par lapréfecture de Paris. Sous le régime de Vichy, avec la généralisation des« cartes d'alimentation » dont l'obtention nécessite de justifier sonidentité, l'usage de la carte d'identité pour les Français et de la carte deséjour pour les étrangers se généralise. En octobre 1940, en zone Nord, lesautorités d'occupation prescrivent que la mention « juif » figure sur lespièces d'identité des Juifs français et étrangers. En décembre 1942, àl'initiative du gouvernement français, la mesure est étendue à la zone Sud. Ici, le fichier ambulant ne sert plus seulement àconnaître l'identité et l'adresse de celui qui en est le titulaire ,l'inscription du mot « juif » sur ces documents est ce qui rend visible une« différence » que personne, pas même les nazis, ne pourrait voirautrement. Au lendemain de la Seconde Guerre mondiale, toute forme de discriminationentre citoyens est proscrite et le ministère de l'Intérieur annule lesmesures d'encartement instituées sous Vichy. Reste que l'administration nepeut se priver durablement de moyens fiables d'identification. C'estpourquoi une nouvelle réglementation est mise en œuvre en 1955 : d'un modèleuniforme, la « carte nationale d'identité » est délivrée sans conditiond' âge à tout Français qui en fait la demande (Piazza, 2004). Si laphotographie qui y figure remplit toujours la même fonction (faciliter lareconnaissance d'un individu), elle a profondément changé de nature auregard des pratiques antérieures. À la fin du xix e siècle, quand les théories déterministesinspirées par les travaux de Cesare Lombroso (1887) sur le « criminel né »tiennent le devant de la scène criminologique, le portrait signalétique–comme l'ensemble des techniques associées au bertillonnage – doit servir àreconnaître un individu pour identique à lui même (identité du criminel) ,mais aussi à établir l'appartenance de celui -ci à une catégorie présupposéedéviante ou nuisible (identité de criminel). Désormais, chaque citoyen estinvité à réaliser son propre portrait et cette image, dont le mode deproduction est le même pour tous, est le signe d'une appartenance légitime àla collectivité. Engagée par étapes successives à partir de la fin des années 70 ,l'informatisation des cartes d'identité constitue une innovation importantedans la mesure où elle limite les risques de falsification et facilite lesrapprochements avec les données conservées dans les fichiers exploités parles services de police. Cela dit, la forme actuelle la plus aboutie dufichier ambulant est certainement le « bracelet électronique », conçuinitialement aux États-Unis pour rendre les solutions de rechange àl'incarcération des délinquants plus attractives aux administrateurs de lajustice et promouvoir à cette fin des moyens électroniques de surveillance àdomicile (Landreville, 1994). Fondé sur la technologie GPS (Global Positioning System), le système dévoile lesallées et venues des personnes visées au moyen d'un réseau sophistiqué detélécommunication. Toutes les inscriptions ont disparu, aussi biencelles qui servent à retracer les déplacements d'un individu que celles quipermettent d'établir son identité. Le dispositif d'écriture est réduit à saplus simple expression : un signal. Le principe du troisième dispositif d'écriture est encore différent. C'estsur le corps même de la personne que sont inscrites, artificiellement ounaturellement, les informations qui s'offrent au regard policier. Et ladistance qui sépare l'individu du support est nulle : l'index, c'est lecorps humain. Des données de ce type ont d'abord été appliquées sur le corpscomme la marque au fer brûlant faite sur l'épaule des criminels jusqu' à sonabolition en 1832. Véritable alphabet judiciaire, les lettres G (galères), T( travaux forcés), V (vol), F (faussaire), etc. désignent de façon apparenteun coupable et constituent un moyen relativement sûr d'identifier lesrécidivistes. Lorsqu'on s'aperçoit que le corps humain recèle de précieuxsignes de reconnaissance, la police s'empresse de les relever pour servir àl'identification (Ginzburg, 1980). Comme un topographe arpentant une terreinexplorée, Alphonse Bertillon est le premier à parcourir l'étendue du corpsdu criminel, équipé d'un compas et d'un mètre, pour effectuer le relevésystématique de ces « marques particulières » (cicatrices, naevi, tatouages ,etc.). Grâce à des points de repères anatomiques définis à l'avance, ellessont localisées puis décrites avec précision avant d' être reportées sur une« fiche de signalement ». Il n'en reste pas moins que la « puissancesignalétique » de la marque – pour reprendre un concept de l'époque – estlimitée car elle peut être effacée et identique sur deux individusdifférents. À la suite des travaux conduits par Francis Galton (1892), ilapparaît que les dessins digitaux constituent un moyen bien plus sûrd'affirmer l'identité d'un individu. De fait, dès le début du xx e siècle, la recherche etl'identification des empreintes digitales comptent parmi les opérations lesplus ordinaires de la criminalistique moderne et la dactyloscopie supplanterapidement l'anthropométrie pour le classement des fiches de signalement .Dans le même mouvement, des voix s'élèvent pour réclamer – sans succès –l'apposition d'une empreinte digitale sur les papiers d'identité et lacréation d'un « registre national d'identité » où seraient conservées lesempreintes de toute la population française. En effet, pour lescriminalistes qui œuvrent dans l'entre-deux guerre, les empreintes digitalesreprésentent une sorte de clé d'accès à tous les dispositifs existants, unidentifiant unique susceptible de faciliter et d'étendre les opérations decontrôle et de recoupement entre les dispositifs utilisés par les agents del'ordre. Après l'Occupation, comme on l'a vu, tout projet de fichagegénéralisé de la population étant écarté, ces propositions ne seront passuivies d'effets. Dans les années 80, la biologie moléculaire ouvre de nouvelles perspectivesen sondant l'intérieur du corps et permettant le relevé de caractéristiquesindividuelles jusque -là imperceptibles : les empreintes dites génétiques( Ludes, Mangin, 1992). Dans la foulée, l'industrie de la biosécurité assurela promotion d'un mot savant, la biométrie, succédané de l'anthropométriejudiciaire, pour désigner l'ensemble des techniques disponibles sur lemarché de l'analyse des données morphologiques (empreintes digitales, formedu visage, de la rétine, de la voix, etc.) et biologiques (empreintesgénétiques) de la population. Une poussée de fièvre biométrique affecteaujourd'hui la quasi totalité des pays occidentaux. Force est de constater que les innovations techniques n'ont pas manqué aucours de l'histoire. Mais jusqu' à la fin du xx e siècle, l'usage des technologies de l'information nes'est pas traduit par des changements fondamentaux dans la définition oul'exercice de la gestion de l'ordre. Ainsi l'exploitation des empreintesgénétiques n'a -t-elle pas impliqué de bouleversements dans la compréhensiondu phénomène criminel, ni même dans le travail des laboratoires de policescientifique. Elle s'inscrit dans une pratique constante : explorer le corpshumain pour y découvrir des caractéristiques de l'individualité. De même ,les bracelets électroniques n'ont pas remis en cause le principe quisous-tend l'exploitation des fichiers ambulants : introduire des individusen perpétuel mouvement dans le champ de surveillance des forces de l'ordre .Certes, le « texte policier » n'a cessé de s'étendre au fil du temps, maisl'économie de la visibilité sur laquelle repose l'élaboration du savoirpolicier est demeurée inchangée. En inscrivant les populations dans unréseau d'écriture, l'appareil policier a maintenu sous son regard tous ceuxqui ont à être vus et, ce faisant, a constitué un corpus de données quiobjectivent les individus et les transforment chacun en objet pour uneconnaissance. De ce point de vue, le développementde la vidéosurveillance qui place l'image au cœur des procéduresdisciplinaires marque une rupture radicale en la matière. La vidéosurveillance, ou CCTV en anglais (pour Closed CircuitTeleVision), désigne le dispositif technique conçu pour surveiller àdistance un espace déterminé à l'aide de caméras. Parkings, gares, musées ,écoles, hôpitaux, banques, bâtiments publics, logements collectifs, petitscommerces, grands magasins. .., tous ceux qui parcourent ces lieux sontsusceptibles de pénétrer dans le champ de vision de caméras de surveillance .Toutes sortes d'équipements et de services sont disponibles : caméra fixe ,pivotante, analogique, numérique, miniaturisée, munie d'un zoom ou d'unintensificateur de lumière, etc. Les configurations techniques peuvent prendreles formes les plus diverses, de la caméra unique reliée à un moniteur et unmagnétoscope, au PC vidéo capable de visualiser les images de plusieurs dizainesde caméras différentes, voire même, pour les habitants de résidences ditessécurisées, aux ressources de la domotique pour relier des caméras auxtéléviseurs domestiques (voir Dard, Ocqueteau, 2001). La première caractéristique de ces dispositifs tient à la qualité de leurexploitant. En effet, le recueil et la conservation des images collectéespar les caméras sont assurés essentiellement par des agents privés agissantdans des espaces privés. Ce constat n'est pas anodin. Selon lesprofessionnels du secteur, au milieu des années 90, 120 000 systèmes devidéosurveillance étaient installés en France et le rythme de croissance dumarché était évalué à 10 % par an. On peut donc estimer que près de 300 000systèmes de vidéosurveillance sont installés aujourd'hui, c'est-à-direplusieurs millions de caméras. Or, selon le ministère de l'Intérieur qui adressé un bilan statistique des systèmes autorisés par les commissionsdépartementales chargées de veiller à l'application de la Législation envigueur, près de 60 000 dispositifs de vidéosurveillance ont été déclarés enpréfecture dont 2 000 seulement par des collectivités publiques. Dans la mesure où cette législation neconcerne que les systèmes installés sur la voie publique ou dans des « lieuxprivés ouverts au public » (commerces, banques, parkings, etc.), celasignifie que l'immense majorité des exploitants utilise ces équipements dansdes espaces privés. Pour cerner l'expansion irrésistible du secteur privé dela sécurité, Frédéric Ocqueteau (2004 : 94-105) a livré des statistiquesprécieuses : au début des années 80, l'effectif national des agents desécurité privés (101 387) était quasiment équivalent à celui des agents dela police nationale (102 373); à partir du milieu des années 90, la pentedes effectifs des agents privés est continûment orientée à la hausse pouratteindre 147 049 en 2001 et dépasser ceux de la police nationale (119 526la même année). On n'analysera pas ici les causes de ce phénomène qui ontfait l'objet d'une littérature abondante. On retiendra simplement que lespolices étatiques (civiles et militaires) n'ont plus le monopole de ladéfense de la « tranquillité publique » au quotidien, fonction confiéehistoriquement à la police dite d' îlotage dans les territoires urbains. Ainsi, au fantasme d'un Big Brother tout puissant ,symbole d'un pouvoir central traquant sans relâche des individusmalveillants voire même de simples citoyens, s'oppose une réalité plusprosaïque. L'essor d'un secteur marchand de la sécurité a favorisél'émergence d'une multitude de Little Brothers ,petits et grands propriétaires qui tentent d'annexer les prouesses (réellesou supposées) des nouvelles technologies de surveillance. Cetteréorganisation du champ régalien de la gestion de l'ordre n'est pas sanseffet sur la nature même de son exercice dans les espaces urbains. De fait ,elle n'a plus grand chose à voir avec un « ordre public » car lesgestionnaires des systèmes travaillent avant tout au service des clients quiles emploient, quand ils ne travaillent pas tout simplement à défendre leurspropres intérêts. C'est dire que la sécurité a changé imperceptiblement denature : d'un droit reconnu à tous et garanti par l' État, elle est devenueun bien de valeur marchande, un bien que seuls les plus riches (individus ,entreprises, collectivités. ..) peuvent s'offrir. Dans le même sens ,s'agissant des collectivités locales, la cartographie d'implantation dessystèmes sur le territoire laisse entrevoir une répartition déterminéeessentiellement par la richesse des municipalités qui doivent être en mesurede lever les fonds nécessaires à l'installation du dispositif mais aussi àson fonctionnement quotidien. Rappelons ici que, selon les professionnels ,pour 10 000 euros investis dans l'installation d'une caméra, 3 000 à 5 000euros doivent être mobilisés chaque année pour en assurer l'exploitation( salaire des opérateurs, maintenance, etc.). Des chiffres qu'il fautmultiplier par plusieurs dizaines en fonction de l'étendu du système. .. Quece soit par conviction, manque d'imagination ou simple mimétisme, les élusqui décident d'engager de telles dépenses ont l'assurance de répondre ausentiment d'insécurité de leurs concitoyens et de renforcer l'attractivitéde leur territoire, sans avoir à s'interroger sur l'efficacité réelle de cesdispositifs et les conséquences de cette politique sur les communesavoisinantes. La deuxième caractéristique de ces dispositifs est de produire desinformations instantanées. Alors que les données textuelles font l'objetd'un traitement préalable avant leur exploitation (sélection, codification ,etc.), la caméra vidéo saisit tout ce qui entre dans son champ de vision .Les images sont enregistrées sans égard à l'existence d'une cause précise etla collecte est prolifique : une caméra traitant 24 images par seconde ,c'est-à-dire plus de 2 millions d'images en 24 heures, dans un espace quicompte une vingtaine de caméras, le système capture plusieurs dizaines demillions d'images au cours d'une journée ! Il en résulte que lavisualisation apporte toujours des informations excédentaires au regard dela finalité du dispositif. Ce qui, dans la pratique, soulève des problèmessinguliers. Si l'enregistrement est exploité comme un soutien à un travaild'identification, l'enquêteur tentera d'isoler après coup un individususpect parmi un flux d'images prises en continu. Très médiatisées, lesréussites en la matière restent néanmoins rares car la tâche est immense etfastidieuse. Par exemple, Michael McCahill et Clive Norris (2002) rapportentl'expérience de la police britannique en quête de l'auteur de plusieursattentats à la bombe à Londres en avril 1999 : près de 1 100 cassettes ,contenant plus de 25 000 heures d'enregistrement, ont été visionnées par unecinquantaine d'agents mobilisés pendant dix jours. Lors des attentats qui ont ensanglanté la capitalebritannique en juillet 2005, Scotland Yard aurait examiné, selon la presselondonienne, plus de 15 000 cassettes, mobilisant plusieurs centainesd'agents avant de parvenir à identifier les auteurs de ces actes criminels .Au-delà des formules incantatoires qui nourrissent les débats actuels sur lapolitique sécuritaire, on peut affirmer que de telles ressources humaines nesont et ne seront jamais mobilisées pour identifier les auteurs d'actesmalveillants ou délictueux de moindre gravité. De fait, dans la gestionquotidienne des désordres urbains, l'aide apportée à l'identification d'unsuspect est négligeable. Ainsi, dansl'étude qu'il a conduite sur l'usage de la vidéosurveillance dans troisvilles anglaises, Ben Brown (1995) souligne -t-il que sur trois centsdemandes d'identification adressées aux opérateurs en trente-deux mois àKing's Lynn, seules trois ont abouti à un résultat tangible : « Utiliserl'information enregistrée pour identifier des suspects », souligne -t-il ,« est peu efficace. [. ..] utiliser la vidéosurveillance pour piloterl'action des agents en direct sur le terrain accroît les chancesd'arrestation ». C'est dire que la logique du renseignement, qui cherche àrésoudre les problèmes grâce à une accumulation de données, cède ici le pasà la logique du réseau qui implique un flux continu de relations afind'accroître les possibilités d'action. La première étant soutenuetraditionnellement par les polices publiques dont la légitimité etl'efficacité sont régulièrement remises en cause, la seconde étant portéeactuellement par les polices privées, en quête de performance etd'autonomie, dans les espaces où elles assurent la garde. Si l'enregistrement est exploité pour prévenir des comportements déviants ,l'opérateur sera amené à cibler in situ des individusparticuliers parmi la multitude qui défile sur les écrans. De quelle façoncette sélection est-elle effectuée ? L'enquête conduite par Clive Norris etGary Amstrong (1999), durant près de 600 heures dans les PC vidéo deplusieurs villes anglaises, est révélatrice de la pratique des opérateurs. Les statistiques établies par les auteursmontrent que les agents visent en priorité des adolescents : ilsreprésentent 47 % des personnes ciblées (mais seulement 15 % de lapopulation locale). Les individus âgés de 30 ans et plus ne constituentqu'une part minime des personnes visées (11 %). Et les hommes (89 %) le sontbien plus souvent que les femmes (11 %). L'appartenance à un groupe ethniquesemble également être un critère sélectif dans une des trois villes : 84 %des personnes visées sont des Noirs alors que cette catégorie représenteseulement 18 % de la population locale. Afin de pousser plus loin leursinvestigations, les auteurs ont dressé une typologie des motifs desuspicion, en distinguant celle qui est fondée sur les caractéristiques despersonnes comme l' âge ou la couleur de peau (categoricalsuspicion), celle qui est initiée par un tiers comme un policierqui patrouille sur le terrain (transmittedsuspicion), celles qui sont fondées sur des comportements anormauxobservés à l'écran comme une bagarre ou une conduite en état d'ivresse (behavioural suspicion), sur la situation géographiqued'une victime potentielle (locational suspicion) ,sur des connaissances personnelles de l'opérateur (personalised suspicion), sur la crainte de voir une personneexposée à un danger (protectional suspicion) ou surle voyeurisme (voyeuristic suspicion). Il ressort del'enquête que les motifs les plus fréquemment invoqués pour justifier lasurveillance relèvent des trois premières catégories : Categorical suspicion (34 % : dans ce cas, un individu est visépar les caméras, non pas pour ce qu'il fait mais pour ce qu'il est. Lespopulations les plus surveillées pour ce motif sont les adolescents (67 % )et les Noirs (74 %), Transmitted suspicion (31 %) :les interventions sollicitées par un tiers visent principalement lespersonnes âgées de 30 ans et plus (26 %) et les Blancs (23 %), de façon bienmoindre les adolescents (15 %) et les Noirs (7 %), Behavioural suspicion (24 %) : les interventions fondées sur ladétection d'un comportement anormal concernent avant tout les personnesâgées de 30 ans et plus (46 %) et les Blancs (36 %), de façon bien moindreune fois encore les adolescents (12 %) et les Noirs (13 %). En définitive, Clive Norris et Gary Armstrong soulignent que le travail desopérateurs repose essentiellement sur des stéréotypes grossiers. Et dans lamesure où la suspicion des agents est rarement fondée sur une base concrèteet objective, il n'est pas étonnant de constater que parmi les 888 incidentsrecensés au cours de leur étude, seuls 49 ont débouché sur une interventioneffective des forces de sécurité. Cela dit, d'autres enquêtes menées par lasuite, en Grande-Bretagne et au Québec, montrent que ces statistiquesvarient sensiblement selon le contexte d'implantation des systèmes :environnement socio-économique de l'équipement, management des équipes desurveillance, degré de qualification des opérateurs, etc.. De fait, l'un des problèmesmajeurs auquel sont confrontés les opérateurs est d'avoir à faire le choixd'une pondération entre des principes d'action contradictoires. Si lavidéosurveillance peut soutenir plusieurs types d'activités (prévention decomportements déviants, aide au déploiement de forces de sécurité, aide àl'identification), il paraît inconcevable qu'un même système puisse servirdurablement tous ces objectifs en même temps et avec la même intensité .D'autant que des objectifs éminemment politiques s'y ajoutent encore dans lapratique, ceux des autorités locales qui soutiennent les implantations pourrestaurer l'image de leur cité, stimuler l'économie et apporter une réponseau sentiment d'insécurité des électeurs. Or les enquêtes réalisées à ce jour montrentqu'un choix des priorités et des stratégies d'action est rarement formulépar les acteurs concernés. Si les marchands de biens de sécurité ont toutintérêt à entretenir l'idée que la vidéosurveillance est une « machine àtout faire » pour faciliter la mobilisation des bailleurs de fondspotentiels, cette confusion des genres a des effets plutôt désastreux unefois les caméras en place. Les opérateurs se retrouvent finalement seuls ,contraints de discriminer jour après jour des personnes et des évènements ,pour définir un ordre de priorité et faire le choix d'une pondération entreles principes d'action établis par les compagnies privées qui les emploient ,les agents et/ou les policiers avec lesquels ils travaillent sur le terrainet les collectivités locales qui ont soutenu financièrement les équipements .Alors que l' État ne cesse de vouloir en assurer la promotion, la« coproduction de la sécurité » entre agences publiques et privées del'ordre montre ici clairement ses limites. La troisième caractéristique de ces dispositifs tient à leur capacitéd'intégration dans les espaces urbains, d'autant que ces derniers ont connudes transformations profondes au cours des dernières décennies. Produit del' âge d'or de l'industrialisation, la ville organique s'était structurée àpartir de son centre selon une division sociale et fonctionnelle de l'espace( la zone industrielle, la cité dortoir, le quartier résidentiel, etc.) .Depuis les années 70, la ville organique a cédé la place à une villeéclatée, fragmentée. Elle a perdu son centre unificateur, les territoirespériphériques se sont multipliés et étendus, certaines formes inéditesd'urbanité ayant fait leur apparition comme les banlieues pavillonnaires .Par élection ou par relégation, les populations se sont regroupées dans cesnouveaux territoires selon des logiques affinitaires. Comme le soulignentjustement Jacques Donzelot et Marie-Christine Jaillet (1999 : 5-17), « laville archipel s'avère plus capable que la ville dense, ramassée, defavoriser la fermeture de certains territoires, obérant toute confrontation ,tout frottement à l'altérité, pour les populations qui les occupent ». Autrefaçon de dire que la ville contemporaine est un lieu d'évitement. Et lestechnologies de surveillance fournissent aux promoteurs de sécurité dans lechamp de l'habitat et de l'urbanisme les moyens de mettre en œuvre desstratégies ségrégatives. Ainsi plusieurs grandes villes américainesont-elles lancé des programmes spécifiques d'urbanisme pour sécuriser desquartiers résidentiels. Ces interventions se sont inspirées des thèses deJane Jacobs et Oscar Newman sur le « design environnemental » (1972, 1996) ,fondées sur l'hypothèse qu'il existe un déterminisme des formesarchitecturales et urbaines sur les comportements .Concrètement, pour limiter les opportunités de passage à l'acte d'individusmalveillants, ces programmes s'articulent autour de trois objectifsessentiels : un contrôle d'accès naturel afin de créer une perception durisque pour le délinquant potentiel, en réduisant les possibilités d'entréeet/ou de fuite (cul-de-sac, voies sans issue, etc.); une surveillanceinformelle qui vise à accroître la visibilité dans les espaces résidentiels( éclairage des rues et des entrées, suppression des murs de grandeshauteurs, etc.); un renforcement de la territorialité qui passe par lapromotion d'un fort sentiment d'appartenance au quartier (préservation deson aspect physique) et la réduction de la présence prolongée desnon-résidents (grâce à un mobilier urbain adapté : bancs anti-clochards ,trottoirs anti-skates, etc.). Parfois, l'engouement pour ces programmes apris des formes extrêmes. À Los Angeles, Mike Davis (1997) a décrit l'essorde « forteresses électroniques » et de « l ' apartheid urbain » : enclavement des centres d'affaires, des espaces commerciaux etdes zones résidentielles, rétrécissement des espaces publics accessibles àtous, évitement de toute interaction spatiale entre riches et pauvres ,Blancs et Noirs, sans-abri et autres. .. Plus radicalement encore, certainsgroupes de population se sont repliés volontairement dans des espacesprotégés, les fameuses gated communities, isolés duterritoire communal. Edward J. Blakely et Mary Gail Snyder (1997) ont décritles premiers ce phénomène d'auto-enfermement résidentiel : au milieu desannées 90, ils recensaient près de 20 000 communautés de ce genre, abritant8 millions d'Américains, chiffre en hausse constante depuis. Cette quête del'entre-soi s'est socialement élargie au fil du temps : aux « ghettosdorés », propriétés des plus fortunés, se sont ajoutées des retirement communities, réservées aux retraités etdes lifestyle communities, destinées aux classesmoyennes supérieures attachées à une pratique récréative particulière (golf ,nautisme. ..). Mais tous les chercheurs travaillant sur ces phénomènes desécession urbaine s'accordent pour affirmer que ces logiques affinitaires ,qu'elles soient sociales, économiques, ethniques ou générationnelles, sonttoujours articulées à une logique sécuritaire pour légitimer l'existence deces communautés résidentielles fermées, la peur de la criminalité sousdifférentes formes étant plus largement associée à celle de l'Autre dont ilfaut se protéger en ayant recours à des enceintes clôturées, des gardes etune quincaillerie électronique plus ou moins sophistiquée. En France, comme sur le Vieux Continent, nulle trace d'un phénomène d'unetelle ampleur. Comme le souligne Marie-Christine Jaillet (1999), lapossibilité de trouver un entre-soi en Europe n'a pas besoin de gated communities pour se réaliser. La logiqueaffinitaire peut se déployer dans les nouveaux territoires urbains, sansqu'il soit nécessaire de marquer physiquement une frontière ou derevendiquer une autonomie politique .Cela dit, les résidences fermées sont devenues une forme d'urbanisation qui ,sans être tout à fait banale, n'a plus rien d'exceptionnel. Dans le sud dela France en particulier, la formule de « l'habitat sécurisé » fait lesbeaux jours des promoteurs immobiliers qui ont édifié des ensemblesrésidentiels, enclos sur eux -mêmes, vidéosurveillés, pour abriter despersonnes soucieuses de s'abstraire de leur environnement et des populationsqui y vivent. Au-delàde ce phénomène largement médiatisé, la prévention de l'insécurité parl'urbanisme est en voie de normalisation. Aux agencements concrets de cette« architecture de la peur », comme la désigne l'architecte américain NanEllin (1997), se sont agrégés les principes criminologiques de la« prévention situationnelle ». Ce référentiel de la protection quivise non plus à agir sur le délinquant potentiel mais à réduire lesoccasions de délits ou d'incivilités, place de facto les technologiessécuritaires au cœur des opérations d'aménagements urbains et résidentiels :techniques pour augmenter l'effort requis par le délit (verrous, clôtures ,etc.), techniques pour augmenter les risques pris par le délinquant( alarmes, vidéosurveillance, etc.), techniques pour réduire les bénéficesescomptés (marquages des biens, etc.). On n'entrera pas ici dans un débatsur le bien-fondé ou les effets de ces stratégies et de ces pratiques surl'exercice de la solidarité dans la cité. On retiendra avant tout que lavidéosurveillance s'intègre à toutes ces opérations, quelles que soientleurs finalités, offrant ainsi une incroyable plasticité à leurs promoteurs .Elle est susceptible d'intégrer tous les lieux, tous les territoires de laville pour capter des images de ceux qui les occupent ou les fréquentent, ouencore pour les amener à se conformer à un certain type de (bonne) conduite ,dès l'instant où ils pénètrent dans le champ des caméras. Toutes lesfonctions sociales (logement, éducation, commerce, etc.) sont concernées .Toutes les populations sont visées, les vivants. .. comme les morts, puisquele gouvernement a même envisagé d'installer des caméras dans des cimetièrespour lutter contre les profanateurs de sépultures. Dire que l'usage des caméras de vidéosurveillance s'est banalisé est uneévidence. D'autant qu'au même moment, le succès des émissions de téléréalité n'afait que brouiller un peu plus la frontière entre espace privé et espace public .Produit hybride qui ne relève ni de la fiction, ni du documentaire, ce genre audiovisuel inédit réunit toutes lescaractéristiques techniques d'un dispositif de vidéosurveillance : fixité ,automaticité et permanence du tournage qui permet de capter un comportement ouun évènement inattendu dans un espace circonscrit. Une esthétique de l'ennuiselon certains. Plus sûrement, une esthétique sécuritaire que cette télévisionde l'intimité a vulgarisée bien au-delà du cercle des amateurs de jeux ou despectacles télévisuels. Au point que l'on serait bien en peine de trouveraujourd'hui, hormis une minorité militante et bien informée, des citoyens enlutte contre l'emprise des techniques d'observation à distance. À la fin desannées 90, un chercheur britannique soulignait que les caméras devidéosurveillance étaient « aussi familières au public que les cabinestéléphoniques et les lampadaires » (Fyfe, 1998 : 260). On peut affirmer aveccertitude que cette observation vaut désormais aussi pour la France. Reste laquestion posée initialement : la diffusion de ces dispositifs dans lesterritoires de la ville s'est-elle traduite par un renforcement de lasurveillance exercée par la police sur la population ? Si l'on entend par làtoutes les formes de contrôle et de normalisation organisées et assurées par desagences étatiques et centralisées (police nationale et gendarmerie nationale) ,la réponse est négative. L'éclatement de l'espace urbain et l'essor des agenceslocales (polices privées et municipales) engagées dans la lutte contrel'insécurité ont abouti à une fragmentation des connaissances acquises sur lespopulations à surveiller et/ou à protéger. Dans la « ville archipel » décritepar les chercheurs depuis plusieurs décennies, se constitue désormais unarchipel de savoirs policiers. Cette hyperspécialisation limite les perspectivesd'échange et de confrontation des connaissances acquises dans des lieux et pardes opérateurs différents. Et c'est faire preuve de beaucoup d'optimisme que depenser que les agences locales de sécurité répondront sans réticence aux besoins– d'informations en particulier – et aux exigences des polices d' État. Pourquoiaccepteraient-elles que celles -ci leurs reprennent d'une main ce que l' Étatlui -même leur a accordé de l'autre, c'est-à-dire de disposer des moyens humainset techniques nécessaires pour agir en toute autonomie dans les espaces dontelles assurent la garde ? C'est sans doute là une des caractéristiquesprincipales de cette nouvelle économie de la visibilité : une surveillanceexercée par une multiplicité de « micro-polices » locales, en charge chacuned'un territoire spécifique et animées par des logiques propres, qui ont peu dechoses à voir avec la défense de l'intérêt commun. Sur ces territoires ,propriétaires privés et autorités locales disposent de la même liberté, celle dene jamais avoir à justifier ni la nécessité des investissements, ni l'efficacitédes dispositifs. Et s'agissant de la protection des libertés des personnesvisées par les caméras, les opérateurs vidéo qui exploitent ces systèmes dansdes espaces privés ne sont tenus par aucune obligation légale. En définitive ,tout se passe comme si l' État, en abandonnant une part significative de sesprérogatives en matière de défense de la tranquillité publique, avait pour sapropre tranquillité abandonné toute velléité de contrôle sur les dispositifssécuritaires exploités par ces nouveaux agents de l'ordre. Si l' État y a sansdoute gagné, en est-il de même pour les citoyens ?
L'usage de la vidéosurveillance a-t-il accru les capacités de l'appareil policier pour contrôler et surveiller la population ? Cette étude tend à montrer que la réponse est négative. L'éclatement de l'espace urbain et l'essor des agences locales (polices privées et municipales), engagées dans la lutte contre l'insécurité, ont abouti à une fragmentation des connaissances acquises grâce à ces dispositifs techniques sur les populations à surveiller et/ou à protéger. Plus fondamentalement, la diffusion de la vidéosurveillance dans les territoires urbains marque l'émergence d'une nouvelle « économie de la visibilité » dans l'exercice de l'ordre dont les principales caractéristiques sont décrites ici.
sciencesInfo_10-0232427_tei_1100.xml
termith-493-communication
Les deux contributions de Robert Boure s'inscrivent dans une recherche qu'il mènedepuis plusieurs années sur l'histoire des sciences de l'information et de lacommunication (sic). Commencée au sein du groupe Théorieset pratiques scientifiques (tps), celle -ci a consistéensuite à rassembler une documentation et des archives (Boure, 2002). Elle s'estdésormais élargie, comme en témoigne le dernier ouvrage du chercheur (Boure, 2007) .Fidèle à la position qui veut qu'un acteur social engagé dise « d'où il parle » ,signalons à notre sujet que, depuis dix ans, nous nous efforçons d'étudier laquestion de l'histoire des sic à destination des étudiantsdu Diplôme d'études approfondies (dea) puis du MasterRecherche de l'université Lille 3. Ce, en profitant de notre position d'acteur pourdécrire cette histoire à la manière d'un « roman familial », fondé sur nombre dedonnées. Enseignant du second degré, non encore recruté comme maître assistant, j'aiparticipé au premier congrès de la Société française des sciences de l'informationet de la communication (sfsic) à Compiègne, en 1 978. Dès ma thèse de 3 e cycle (1976) ,j'étais inscrit sur les listes d'aptitude (alafma en sic et en Linguistique).Je n'ai jamais été élu au Conseilnational des universités (cnu) ni n'ai été membre duconseil d'administration (ca) de la sfsic. En revanche, j'ai été partie prenante de l'initiative de cr é er un groupede recherche (Org&Co) reconnu par la sfsic .Enfin, j'ai mené une réflexion sur « un état des travaux des chercheurs encommunications organisationnelles » (Delcambre, 2007a) en m'appuyant explicitementsur un couple de concepts proposés par Robert Boure : « institutionnalisationsociale » et « institutionnalisation cognitive ». Préciser cela, c'est dire la sympathie et la proximité qui me lient à la démarchenécessaire que Robert Boure appelle de ses vœux et qu'il a lui -même entreprise etdéveloppe, cette fois -ci, dans deux livraisons de Questions decommunication (10, 2006; 11, 2007). L'effort qu'ilpropose et se propose de mener à bien explique en partie le caractère volontierspolémique de quelques-unes de ses positions et analyses. Pour ma part, je prends cesaspects - souvent « rattrapés » par une analyse finale plus complexe - comme un desmoteurs d'une écriture qui offre généreusement un travail sur un « nous » aveclequel chacun se « dépatouille » comme il peut. Dialoguer sera donc pour moiquestionner les constructions, les principes d'analyse, pointer des résultats plusque m'en étonner. J'ai pris un parti de lecture : Robert Boure propose de considérer que l'unité de sontravail réside en la question : « À quoi peut donc bien servir l'histoire dessciences de l'information et de la communication ? ». Si la réponse à cette questionest la conclusion du second article (Boure, 2007), à savoir que la démarchehistorique servirait « contre des tentations hégémoniques toujours présentes » et à« développer une culture du débat », elle est en phase avec ma propre position .Néanmoins, j'y ajoute une autre réponse, tout aussi importante à mes yeux : laisserautonomes les doctorants au moment de leurs constructions épistémiques, en leurpermettant de savoir d'où viennent les acteurs du champ. Cela m'engage moi -même à ,« çà et là », « faire aussi de l'histoire ». Mon dialogue est donc une discussionnon sur le projet, mais sur ses modalités (méthodes choisies, références théoriquespour l'analyse, part de la polémique et de la construction savante). Au vu de ceci, dans une première partie, je traiterai de l'engagement de Robert Bourevis-à-vis d'une pratique historienne rigoureuse et exigeante. Poser cette nécessitégénère des accents polémiques qui, parfois, me ravissent, parfois m'agacent .J'indiquerai ici les fortes limites que les concepts d' « histoires spontanées » etd' « histoire officielle » semblent induire. Dans une deuxième, je tenteraid'apporter ma contribution à l'analyse des processus d'institution - sociale etcognitive - des sic, en gardant en tête que nous nepratiquons pas l'analyse de l'institution d'un champ, ni d'un domaine des sciences ,ni d'une science. .. mais d'une discipline instituée dans sa configuration française .La troisième partie sera l'occasion de faire des propositions pour envisagerl'analyse des processus d'institutionnalisation cognitive, à mon sens les plusdélicats à étudier La logique des points précédents me conduira, dans un quatrièmetemps, à revenir sur l'approche théorique propre à l'analyse del'institutionnalisation. Aussi sera -t-il question de l'usage - scientifique oumilitant - du terme « luttes ». En effet, j'estime qu'on ne peut se suffire d'uneanalyse agonistique ou compétitive des relations professionnelles dans les processusd'institutionnalisation d'une discipline. Il s'agira donc d'analyser - notamment -les phénomènes coopératifs, d'alliances, de connivences, liés au partage ou non desocialisations propres aux métiers intellectuels. Enfin, partant du constat selonlequel Robert Boure commence par une proposition théorique dans le premier article ,pour en venir à des analyses dans le second, je poserai cette question : est -ce quecette dernière contribution est une illustration de la méthode ? Si tel est le cas ,cela suppose un retour critique sur les quatre critères organisant l'ensemble. Lapartie ultime analysera donc plus précisément les données et interprétationssuggérées dans le second texte de Robert Boure. Ici encore, il est plus aisé pourl'historien de commencer par poser des éléments concernant l'institutionnalisationsociale. Saluons ces avancées. .. L'institutionnalisation cognitive est, quant àelle, plus difficile à documenter. Qu'en est-il de l'intérêt heuristique de la principale distinction proposée parRobert Boure, entre « histoires spontanées » et « histoire officielle » ? Il mesemble que celle -ci opère un déplacement par rapport à une distinction à l' œuvredans d'autres textes - plus précisément dans l'introduction de l'ouvrage autitre ambitieux Les sciences humaines et sociales en France (Boure, 2007a : 5-2 1) -, celle entre « institutionnalisation sociale » et« institutionnalisation cognitive ». Si la distinction entre les deux formes estriche et heuristique, en revanche, elle interroge sur les spécificités deplusieurs types d'histoire. Il est manifeste que Robert Boure cherche à asseoirune position - « recourir à l'histoire sans être historien » (Boure, 2007a : 17 )- en indiquant les conditions requises pour mener sérieusement à bien ce projet( préférence pour l'historicisme plutôt que l'histoire rétrospective) .Mais. .. Mais, dans sa première chronique, qu'est -ce qui anime l'auteur à autanttravailler selon l'angle de cette distinction tout en concluant : « Le lecteurde cette chronique peut estimer que. .. les histoires spontanées sont moinsdangereuses que l'histoire officielle. A contrario, ilpeut penser que l'histoire officielle est non seulement inévitable maisnéanmoins utile parce qu'elle participe à la construction de l'identitédisciplinaire et contribue à cr é er, puis à perpétuer ce qu'elle énonce. Nouspréférons soutenir que ces manières de penser et de faire aident à construiredes histoires qui ne contribuent guère à donner du grain à moudre à ceux quis'interrogent, à partir d'observables et de travaux de référence, sur lesmodalités matérielles et symboliques de construction de leur champ » (Boure ,2007b : 294) ? Acceptons que Robert Boure appelle de ses vœux des normes detravail et un déplacement des intérêts. Toutefois, au-delà, revenons aux deuxcatégories critiquées. En fait, c'est avec la première que l'auteur est le plus sévère, notamment àl'encontre de Daniel Bougnoux et d'Yves Winkin. Ce que donne à penser RobertBoure, et ce avec quoi je suis en accord, c'est que des chercheurs n'ayant pasde projet historique sont conduits à « raconter des séquences historiques » etfinissent par valider - par la simple répétition - et légitimer - par l'autoritéde l'auteur - des propos sur l'histoire qui, de ce fait, font vulgate. Certes, lepatient constructeur d'une histoire « sérieuse », ou portée par la volonté derigueur, s'irritera de devoir ainsi travailler à déconstruire des « erreurs »qui, souvent, ne sont même pas « intentionnées ». L'agacement peut porter à lacritique. Mais le plus frappant est qu'en faisant une telle critique, on évalueles chercheurs sur la base de ce que, pourtant, ils ne prétendent pas faire. Ainsipasse -t-on, parfois, faute d'une réelle lecture compréhensive, à côté d'uneanalyse historique intéressante. Je prendrai le cas d'une des critiques faites àYves Winkin, quand ce dernier caractérise la revue Communications comme étant la « bible » d'une générationd'enseignants-chercheurs. La réfutation est appuyée. Certes, Robert Bouremontre, exemples à l'appui, que des auteurs - dans des ouvrages relativementbien diffusés -, souvent proches des sic, outravaillant sur des objets qui seront ceux de la discipline, n'ont pas donné àla revue Communications ce statut de référenceincontournable. Mais c'est le fruit d'une analyse d'ouvrages dont les auteurs nefont pas partie de la génération évoquée par Yves Winkin, mais sont, à l'époque ,des chercheurs confirmés. Bien sûr, on ne pouvait pas travailler sur lesréférences de jeunes enseignants-chercheurs qui ne publiaient guère encore dansdes revues, ni ne présentaient leurs travaux dans des congrès bisannuels, et nepouvaient donc donner à la revue un statut de référence incontournable. .. Mais ,au fait, qu'est -ce qu'une « bible » ? Certes, faire, comme les historiensétudiant les « inventaires de bibliothèques » après décès, une analyse desbibliothèques des jeunes enseignants-chercheurs de l'époque, est une tâcheinimaginable. Cependant, en considérant qu'une bible peut avoir un statutcognitif autre que celui d'une référence dans une bibliographie, ou en accordantde façon compréhensive à Yves Winkin que la revue Communications pouvait avoir une place dans une bibliothèque, achat oulecture de survol obligée, par exemple, on s'approcherait des difficultésréelles à étudier la production, les pratiques scientifiques de lecture etd'écriture, pour mettre au jour les mécanismes de « l'institutionnalisationcognitive ». Resterait à savoir quelle proportion de jeunes chercheursprétendants ou de jeunes enseignants-chercheurs en sic participait de cette aire d'influence. Accordons à Robert Boure que dire « touteune génération » relève de l'amplification rhétorique. La catégorie « histoires spontanées » (au pluriel, elle) empêche de prendre encharge certains aspects de la démarche intellectuelle propre au travail cognitifet d'écriture, qui pose des filiations, tente de faire des liens, regroupe despersonnes; cela dans un travail réflexif qui construit une position d'auteur« en contexte », même si ce contexte mêle les époques, même si l'auteur seconstruit un monde ad hoc. En d'autres termes, la manièrede « construire de l'histoire », faite par les contributeurs à la constructionintellectuelle (de la discipline, ou, refusant la discipline comme cadreintellectuel de référence, des sic, ou de. .., oude. ..), n'est pas seulement une production offerte pour la discussion et ledébat; c'est aussi une pratique contribuant à l'institutionnalisation. Pour lechercheur qui, comme Robert Boure, se refuse à une histoire rétrospective qui neserait que récit téléologique, les fragments historiques des « récits desémergences et développements des sciences » sont un matériau riche, si l'onprend surtout en considération les propos publiés et assumés qui engagent sonnom propre. La catégorie d'histoire officielle pose un problème différent. L'usage du terme« histoire officielle » est l'occasion, pour Robert Boure, d'évoquer deux pointsavec lesquels je suis en accord. Premièrement - et, de ce point de vue, les« disciplines » universitaires comme corps social (en processusd'institutionnalisation sociale) ne sont pas différentes des entreprises et deleurs directions dont Nicole D'Almeida (200 1) analysaitles « grands récits » comme « récits de la maisonnée » -, l'existence defragments de discours historique dans la production des représentants de ladiscipline montre que la discipline-corps social ne se contente pas de produiredes normes et des « bornages territoriaux » (voir le long passage sur « lepérimètre Meyriat » et les trois textes du cnu surl'extension de la discipline, Boure, 2006, pp. 288-291). Elle s'appuie demanière autoréférentielle sur son propre « feuilleté de textes » pour s'imposer ,et se célèbre elle -même. Ce sont bien deux éléments d'un processusd'institutionnalisation : les membres dirigeants cherchent à se (eux -mêmes etl'institution qu'ils représentent) construire non seulement comme « avatarhistorique et momentané », mais avec la prétention de perdurer et faire vivredurablement leurs « membres » de manière normée. Second point d'accord : RobertBoure insiste sur le fait que cette histoire comme récit se construit sur desmanques, des absences, des exclusions (« Les vaincus et les dominés sont souventoubliés et relativisés ainsi que leurs vérités et leurs normes », Boure, 2007b :279). Bref, selon lui, l'histoire officielle est, au mieux, une histoirerétrospective et donc orientée (d'où l'image du « mainstream » utilisée deux fois). En historien critique, il sait que l'archive publique de la discipline est unconstruit partiel. Il se méfie :je ferais de même ! Mais Robert Boure pose aussi que « l'histoire officielle est du côté desvainqueurs ». Cette formule a -t-elle du sens pour les organisations comme les« disciplines » qui ne sont pas forcément des appareils d'Etat ? Finalement ,cette catégorie a un statut étrange : d'une part, elle est nécessaire commecatégorie, d'autre part, elle est quasi inexistante comme « texte positif ». Jecite : « Discipline récente, les sic n'ont pas( encore ?) d'histoire officielle » (Boure, 2007b : 187). Il reste donc àl'auteur d'estimer que les témoins-acteurs - en fait, les dirigeants, j'yreviendrai en reprenant le concept d'institutionnalisation sociale et laquestion des acteurs de l'institutionnalisation - construisent des « pans »d'une histoire officielle. Certes, il y a chez ceux qui concourent àl'institutionnalisation sociale (organisations ou hommes notamment engagés auxpostes de direction, les « classiques » témoins historiques) un « besoin d'histoire ». Plusieurs organisations« parlent » la discipline (au moins la sfsic et le cnu) et nedéveloppent pas le même travail d'appel à l'histoire. Leurs ressources sontfaibles. Les dirigeants témoins des différentes organisations ont pu voir d'unœil favorable latransmission de leur histoire sociale. Or un travail historiquede ce type a été entrepris de différentes manières, en profitant du cadrecollectif et relationnel de la sfsic : témoignagesd'abord, puisrencontres - tps a été un lieu pour une telleconfrontation -, constitution de documentation et ouverture d'archivespersonnelles, travail d'écriture de quelques membres de lacommunauté. Selon moi, cesmodalités sont un effort fait par la « communauté ». Dès lors, quel seraitl'intérêt d'affirmer que ce type de recherche - soutenue, voire réalisée par desmembres éminents de la communauté instituée (cnu, sfsic )- constitue une « histoire officielle » ou juste un « pan » de celle -ci? Dire ceci n'aurait qu'un sens polémique ,viserait à décrédibiliser les efforts internes à la communauté pour fairesérieusement une histoire (de la discipline, ou des recherches menées par lesmembres de la discipline. ..). Certes, on peut faire l'hypothèse que, sur ladurée, une institution a intérêt à voir se répandre une certaine vision del'Histoire, voire à stabiliser et contrôler des représentations. Cette idée estclassique (voir les polémiques sur la colonisation et l'Etat français. ..). Mais ,au bout du compte, qu'est -ce qu'une discipline envisagée comme institution ? Lefait d' être un « conglomérat institutionnel » lui donne -t-elle la volonté, lesforces productives, et les capacités de contrôle qui aboutiraient à une« histoire officielle » ? Plus sérieusement encore, en produisant des fragmentsd'histoire, les membres de la discipline (participants del'institutionnalisation sociale et/ou cognitive) créent-ils des « pansd'histoire officielle », jugés comme tels, dès lors que leur travail serait menédans une perspective téléologique et « rétrospective » ? Avec les histoires spontanées et l'Histoire officielle, nous sommes en présencede deux catégories dont l'apport heuristique est faible. En revanche, leur rôlediscursif est grand car, dans une polémique, elles jouent le rôle de« répulsifs », permettant ainsi d'installer une bonne pratique. Quant au faitqu'une communauté scientifique et disciplinaire se penche sur l'Histoire et leprocessus de sa propre institutionnalisation, et cela de manière sérieuse, jesoutiens Robert Boure. Ajoutons que je préfère le Robert Boure qui suit. .. Une autre distinction est à l' œuvre dans le travail de Robert Boure, mais, cettefois -ci, elle n'est qu'incidemment le support de sa réflexion : il s'agit desconcepts d'institutionnalisation sociale et d'institutionnalisation cognitive ,repris de Richard Whitley (1974, 1984). Le projet d'analyser de tels processus estexplicité : « l'institutionnalisation des sic dansleurs dimensions cognitives et sociales ». Et, quand il est question de définirune méthode de travail pour répondre à la question « les sic ont-elles une origine littéraire ? » (Boure, 2007b : 279) ,l'auteur s'appuie sur les deux aspects de la question et, implicitement, sur lesconcepts de Richard Whitley II les décrit rapidement dans l'introduction del'ouvrage qu'il consacre aux sciences humaines et sociales en France : « Ce quinous intéresse fondamentalement ici [ce sont] les dimensions historiques del'institutionnalisation des sciences humaines et sociales, c'est-à-dire, pourreprendre la distinction opérée par Richard Whitley (1974, 1984) leurinstitutionnalisation cognitive (formulation des questions de recherche, desconcepts et des théories, travail sur les méthodes, délimitation du champépistémique, choix des sujets et des terrains. ..) et leur institutionnalisationsociale (modes d'organisation interne de la recherche et de l'enseignement ,structures sociales de reproduction et de légitimation, modes d'allocation desressources, systèmes de publication, normes sociales. ..) » (Boure, 2007a : 11). Dans les deux présentes contributions de Robert Boure, le sujet est circonscritaux sic, mais on retrouve l'angle spécifique de laréflexion menée avec les concepts concernés : l'analyse des processus. C'est àceux -ci que l'on s'intéressera, non aux organisations ou aux acteurs collectifsorganisés (ccu, cnu, sfsic) ,ces « instances sociales légitimes » (Boure 2007b : 287) dont on necherchera pas à faire l'histoire « pour elle -même » (comme dans « les récits dela maisonnée », ou comme le pratiquent certains historiens spécialistes desorganisations) ‘ .En revanche, ons'intéressera aux processus auxquels elles - ces instances sociales légitimes -et ils - ces acteurs collectifs organisés - ont pu participer, qu'elles ou ilsont pu initier, qu'elles ou ils ont pu éviter Mais comment analyser desprocessus si l'on ne dispose pas d'éléments factuels suffisants sur ceux qui ontété pris dans cette démarche (partie voulue) et ce mouvement (partie subie )d'institutionnalisation ? On remerciera Robert Boure (2002) et les collèguesayant collaboré à son ouvrage de ce que le projet historien les a conduits àêtre généreux en données factuelles. Quatre idées fortes caractérisent l'institutionnalisation sociale. Premièrement ,Robert Boure en a manifestement une conception agonistique (il y a desvainqueurs et des vaincus, des dominants et des dominés); il se réfère le plussouvent aux analyses de Pierre Bourdieu et réutilise le concept de champ. J'yreviendrai. Ensuite, selon lui, « le social a précédé le cognitif » (Boure ,2007b : 287) .Troisièmement, que ce soit en cohérence avec cette construction sous lacatégorie agonistique de domination ou sous l'effet de l'analyse des donnéesdisponibles, « l'institutionnalisation sociale s'est réalisée davantage par lehaut que par le bas ». Enfin, il traite longuement des origines.Je m'attacheraià ces deux derniers points, réservant pour plus tard les éléments de la méthodede description de l'institutionnalisation présentés dans la secondelivraison. Robert Boure écrit que « l'institutionnalisation sociale s'est réalisée davantagepar le haut que par le bas ». Ici, on comprend que le conceptd'institutionnalisation sociale, repris à Richard Whitley correspond à unehistoire « interne » et ses « acteurs collectifs ». La note 8 (Boure 2007b :265) indique que cette conception n'est pas aveugle aux autres acteurshistoriques de l'institutionnalisation : « Les équipes de sic se multiplieront dans les années 80 et 90, quand les conditionsseront plus favorables en raison notamment de l'institutionnalisation croissantedes sic, mais aussi des mesures prises par le ministèrepour développer. .. ». Mais il y a deux inconvénients à s'appuyer sur un conceptréduit au processus social « interne » (sont-ils évitables dans ce cadrethéorique ?). Le premier est de ne pas mesurer précisément les élémentshistoriques complexes qui ont émaillé l'histoire de l'institutionnalisation dessic. Carla mise en évidence de ceux -ci permettrait d'analyser à la fois les rapportsentre l'Etat et cette néo-discipline, et le développement progressif desrecherches sur les technologies de l'information et de la communication. Et ce ,dans une période de montée en puissance des questions technologiques pour lesEtats et les industriels - et donc de leur réflexion sur de nouveaux thèmes derecherche. Second inconvénient : faire une analyse « top-down » de l'institutionnalisation sans prendre la mesure de lapoussée des néo-entrants qui produisent et cherchent à développer des espaces depromotion et de reconnaissance. Si l'on prend en compte ce phénomène, il nes'agit pas seulement de canaliser l'intégration par les normes d'entrée, maisd'organiser socialement et de réguler cognitivement des producteurs individuelsou collectifs, ce qui n'est pas forcément un processus top-down et suppose un travail sur les « initiatives ». .. Certes, ces deux critiques sont différentes. Elles ne remettent pas en causel'analyse de Robert Boure lorsqu'il vise à décrire précisément le travail desorganisations et de leurs dirigeants. Elles ouvrent simplement à deux questionssur les acteurs des processus de l'institutionnalisation sociale, en souhaitantque le travail historique des uns et des autres conduise à mieux penser lacontribution d'acteurs « externes » à la discipline et celle d'acteurs qui nesont pas seulement « ressortissants » (Boure, 2007b : 279), mais aussi membresde la « discipline » (une analyse organisationnelle montrerait que ces membresne sont pas toujours adhérents de la sfsic, et, biensûr; rarement élus ou nommés du cnu). Autre point : pourquoi se pencher avec autant de ferveur sur les origines ? Je neformule cette question que de manière réactive. En effet, d'une part, il n'y apas de raison majeure pour critiquer une pensée historique qui cherche àréfléchir sur une période donnée telle celle des origines; d'autre part, RobertBoure (2007b : 291) fait un travail original en posant l'hypothèse selonlaquelle « le 7 e Congrès de 1990 [. ..] constitue untournant important dans la construction de pans de l'histoire officielle[. ..] ». Aussi apporte -t-il des éclairages nouveaux sur une période qui ,précisément, ne correspond pas aux origines. Mais, dès lors qu'on dépasserait cette réaction sur la propension à toujoursréinterroger les origines, ne peut-on faire une suggestion : ne serait-il paspossible de représenter, pour des acteurs engagés dans les processus et pourceux qui s'attellent au travail de réflexivité critique sur une communautéinstituée, des phases de développement ? Et comment chroniciser ces phases ?Certes, on pourrait, pour chaque organisation, travailler sur les mandatures desdirections successives des organisations majeures. Mais n'est -ce pas encore uneanalyse trop interne, répondant mal aux rythmes de développement d'une discipline ? Pour mapart, et à propos de cette communauté disciplinaire (ma réponse seraitdifférente dans l'analyse d'entreprises, d'administrations. ..), il me semblequ'il faut explorer aussi une hypothèse générationnelle (analyse qui n'estd'ailleurs pas étrangère à l'auteur qui parle de « deuxième génération dechercheurs » pour ceux qui interviendront au I er Congrès de Compiègne, Boure 2007b : 276). À mon sens ,« l'institutionnalisation sociale » ne peut s'analyser uniquement comme un champagonistique. Elle résulte d'un collectif en développement, fait de trois corpset non de deux : les cadres A ou Professeurs et depuis peu les « habilités » ,les cadres B - maîtres assistants à l'ancienne ou maîtres de conférences - etles doctorants et docteurs non (encore) recrutés (étudiants, attachéstemporaires de recherches, allocataires de recherches ou allocataires moniteursnormaliens, salariés de l' Éducation nationale, d'entreprises, ou. .. consultants ,chargés de recherche dans des organismes publics ou privés). Elle s'est opéréeau sein d'une communauté faite de collectifs, marquée par la cooptationintergénérationnelle. Dès lors, il faudrait analyser un processus deconstruction, pour des membres engagés dans l'enseignement et la recherche ,d'une institution de recherche et d'enseignement, donc d'apprentissage et detransmission à des fins d'innovation. Si, dans le cadre des activités menées et sur leurs lieux de travail, lesProfesseurs, les maîtres de conférence confirmés postulant ou non à une hdr, les jeunes maîtres de conférences et/ou lesdoctorants ont une place différente, leur activité collective les amène aussi àparticiper différemment à l'institutionnalisation sociale et àl'institutionnalisation cognitive de la communauté disciplinaire. Combinerl'analyse des mouvements de création de postes avec celle du remplacementgénérationnel permettrait vraisemblablement de dégager des phases observablesdans la vie des organisations collectives et des instances représentatives de ladiscipline. Comment traiter de l'institutionnalisation cognitive ? Les deux chroniquesproposées dans Questions de Communication sont rarementl'occasion de travailler cette dimension. Robert Boure explique ailleurs( 2007a : 11) que le cognitif est également un processussocial : « Le social et le cognitif sont aussi des institués ». Certes. On pourrait dire que les congrès, lesrevues - pour peu qu'elles existent -, avec leurs axes et appels àcommunication, participent d'une institutionnalisation de ce type. Outre cetteétude, qui me paraît éclairante, notamment parce que congrès et revues ont deseffets de commande, comment procéder ? Comment mener des travaux de recherchepour ne pas simplement se doter d'une autre paire de concepts : histoire del'institution et histoire de la construction intellectuelle ? Ainsi Robert Boure( 2007b : 280) évalue -t-il l'apport de Daniel Bougnoux et d'Yves Winkin, endésignant ces derniers comme des chercheurs dont « l'investissement dans laconstruction intellectuelle, sinon des sic du moins deleur branche communicationnelle a été plus important que leur participation àl'institutionnalisation sociale ». La définition que donne Richard Whitley del' « institutionnalisation cognitive » (« formulation des questions de recherche ,des concepts et des théories, travail sur les méthodes, délimitation du champépistémique, choix des sujets et des terrains. ..) est-elle suffisante ? En outre ,comment en faire l'histoire ? Comment la documenter ? Il me semble nécessaire derespecter un objectif : faire une analyse de l'institutionnalisation de ladiscipline (en l'occurrence des sic, une spécificitéfrançaise) si l'on veut progresser Je souhaiterais que l'on distingue( construction spécifique à ce travail historique) institutionnalisation d'unediscipline et institutionnalisation d'une science, voire de groupes de sciences- faire une histoire des shs est différent et, pourRobert Boure, l'objet d'une autre publication. Le terme de champ est lui aussidistinct, et relève plus d'une économie des biens symboliques, la référenceétant ici Pierre Bourdieu. La difficulté est que, premièrement, les acteurs sociaux qui participent à laconstruction cognitive d'une discipline le font en s'appuyant sur des sciences ;deuxièmement, qu'ils désignent les autres et eux -mêmes non en référence à ladiscipline, mais en référence à une science. En sic françaises, nous sommes bien placés pour saisir ces jeux qui sont plusdifficiles à lire avec la sociologie ou la psychologie. Par exemple, nousrencontrons des collègues qui ne parlent que de « sciences de l'information »pour désigner leur cadre scientifique de travail, ou encore de « sciences del'information et du document ». Nous savons que certains membres de ladiscipline estiment travailler efficacement au développement d'une science enayant le moins de rapport possible à la discipline. Cela conduit à expliciter la question : « qu'est -ce qu' être membre d'unediscipline ? ». Y répondre permettrait de mieux définir le genre d'institutionqu'est une discipline. Quand Robert Boure utilise le terme de « ressortissant » ,plutôt que celui de « membre », c'est qu'il estime, je suppose, que l'on n'estpas « des sciences de l'information et de la communication » par décisionpersonnelle, ni sous le régime associatif : il y a une contrainte. Mais lanature de celle -ci est complexe (Delcambre, 2007b); vraisemblablement, lescontraintes d'affiliation ont elles -mêmes changé au cours des 30 dernièresannées. « ressortissant » ne semble donc pas le mot juste. Comment faire l'analyse de l'institutionnalisation cognitive tout en restantcohérent vis-à-vis d'une analyse de l'institutionnalisation de la discipline ?Il se trouve que les uns et les autres, nous construisons des univers deréférence dans le cadre de la discipline d'appartenance. Et que, de temps àautre, cette construction apparaît comme sociale. Ainsi les travaux d'HDR sont-ils unemise en acceptabilité cognitive de travaux, en vue d'une habilitation parl'institution régulatrice de la discipline, le comité 71 e du cnu; mais encore, des collectifs « cognitifs » sedotent de programmes et organisent des journées. Dès lors que cela se déroulesous l'égide de la discipline, on estimera que ces collectifs, leur groupe depilotage, et les intervenants, participent d'une institutionnalisation cognitivede la discipline. De manière plus resserrée, ne peut-on trouver des travaux oùun collègue dépasse le simple travail cognitif scientifique (définir ses« lignées » en autodéfinissant son travail scientifique, faire une lecture ouune évaluation critique de travaux de collègues pour des revues) et contribue àl'institutionnalisation disciplinaire du champ ? C'est le cas, me semble -t-il ,des textes où l'un ou l'autre « fait le point » sur les travaux d'un ensemble decollègues qu'il cite et situe, le tout dans un cadre « disciplinaire sic » (donc français). Des groupes se sont donné cetobjectif (tps en particulier), et des individus ont étéamenés à jouer ce rôle qui a quelque chose à voir avec une fonction dereprésentant de tout ou partie de la communauté disciplinaire. Ainsipourrait-on estimer que la livraison 64 de Cin é m'Action (1992) contribuait àl'institutionnalisation cognitive de la discipline, mais pas l'ouvrage de 1 999, La communication. Etat dessavoirs, coordonné pour la revue éditrice Scienceshumaines par Philippe Cabin, qui en était le rédacteur en chef. La différence n'est pas la qualité desprestations, mais la construction d'un entre-soi disciplinaire par le choix etla nature des auteurs, ainsi que la référence explicite à la discipline. Untravail tout aussi intéressant est à mener sur tous les ouvrages de type manuelou handbook, publiés par un chercheur seul (voirMucchielli, 1995) ou par un coordinateur (voir Olivesi, 2006), prenant commetitre ou partie du titre le syntagme « sciences de l'information et de lacommunication ». Ces contributions peuvent être lues comme un apport adressé àdes publics reconnaissant la discipline, quand bien même la relation des auteursou des coordinateurs à la discipline pourrait-elle être d'opportunisme ,d'affiliation, de distance, de décalage, voire de critique. Pour avoir connu une difficulté de ce type et avoir été invité à l'évoquer ausujet des communications organisationnelles (Delcambre, 2007a), je peux ici évoquer quelquespoints en lien avec mon expérience. La difficulté de l'analyse en prise avecl'histoire récente est que le temps de l'institutionnalisation cognitive estnécessairement plus long que celui de l'institutionnalisation sociale. De plus ,si l'on veut décrire un état cognitif un état de l'institution ou des moteurs del'institutionnalisation cognitive, sans attendre que les cadres de pensées aientfait effet, on est nécessairement pris dans une démarche ouverte et fortcomplexe de configuration. Ce, à la fois parce que le travail de désignation desautres est un « coup de force » social car cognitif, et parce que, de fait, lesfamilles, les tendances, les courants, les appariements sont délicats àanalyser, notamment parce qu'ils exigent du chercheur-analyste qu'il ait lu sespairs et travaille plus les cousinages que les divergences. En cela, je revienssur la nécessité d'une analyse non uniquement agonistique del'institutionnalisation. C'est moins le débat qu'il faut engager quel'intelligence épistémique d'une synthèse improbable ! Sil'institutionnalisation sociale peut s'étudier comme une cohabitationtranquille, peut-on pour autant analyser de la même manière les dimensionscognitives ? Pour ma part, je ne vois pas comment des chercheurs de ladiscipline pourraient s'autoriser à évaluer l'apport de cette dernière auxactivités scientifiques, sans fonder la discussion sur une perspective toutautant compréhensive que critique, en se donnant comme objectif la recherched'un accord (Delcambre, 2007a). Dans le point qui suit je me demande si une conception agonistique estraisonnable pour traiter de l'institutionnalisation d'une discipline; jevoudrais adresser également cette question à Robert Boure. Certes, je comprendsqu'une analyse du champ engage le chercheur dans l'étude de formes de dominationsymbolique. Evidemment, dans une version économiste du marché des bienssymboliques, on remarquera des concurrences. Ce entre les sciences et leurssavants, autant pour l'allocation des ressources que pour la propriété d'objetsde recherche et la définition des critères de scientificité. Que cetteconcurrence ne se fasse pas à égalité, et qu'il y ait entre disciplines desluttes, avec des positions fortes et des positions faibles, je le conçoiségalement. Mais, dèslors qu'il s'agit de n'étudier ni un champ, ni une science, mais une disciplineinstituée, pour laquelle on analyse non un état des lieux, mais des processusd'institutionnalisation, peut-on exclusivement poser le problème en termes dedomination symbolique et/ou de luttes ? D'ailleurs, comment différencier les« luttes » (Boure 2007b : 287) et les « conflits » que, pour sa part, ne peuttotalement ignorer l'historien (Boure, 2007b :278) ? Quelles sortes de luttessont les « querelles » que l'on perçoit lors de l'analyse des productions, icilittéraires (Boure, 2007b : 274), les « débats scientifiques » quel'organisation instituante se doit d'organiser sont-ils expression de luttes ouconstruction d'un cadre ? Comment analyser, par exemple, les besoins deconfrontation et de dialogues préconisés par tel président de la sfsic (en l'occurrence Robert Boure cite BernardMiège). Et encore, comment traiter des alliances et des « compromis pratiques etscientifiques mal négociés » ou des « cohabitations vécues comme forcées »( Boure, 2007c : 278) ? Enfin, comment distinguer les « éloignements et prises dedistance volontaires » que souhaiteraient les uns et « l'ostracisme » quechercherait à éviter tel dirigeant ? Je ne défends pas une conception « irénéenne » et ne suis pas victime d'angélismepour ce qui se rapporte à l'histoire des constructions institutionnelles, maisl'analyse globale (seulement introductive dans l'ensemble des deux textes) etl'usage du terme global « lutte » ne me semblent pas être des outilssuffisamment précis. Ainsi, pour analyser les rapports avec les autresdisciplines, comment analyser l'émergence de postes (analyse dans le secondtexte des lieux d'apparition des postes dans l'enseignement supérieur) ? Commele résultat de luttes ? Ou comme l'émergence d'une demande ? S'il y a eu luttes ,est -ce dans les différents conseils d'administration qui ont voté des demandesde postes ? Autre questionnement : peut-on mettre sur le même plan des luttes denature très différentes ? En effet, certaines ont pour visée de faire émergerpuis maintenir une discipline (qu'une analyse des rapports entre les directionsdes instances sociales de la discipline et le ministère décrirait); d'autresont pour but la conquête de places dominantes (mais est -ce que la luttesyndicale - pour ne parler que de celle évoquée quant à l'existence d'une« coalition syndicale minoritaire sgen/snesup » 1987-1999 ? -visant l'obtention d'une majorité, puis une présidence au cnu, est de même nature que les luttes ayant pour motif une électionau ca de la sfsic ?) ;d'autres encore se situent sur le terrain de la reconnaissance et del'accréditation. Sur ce point, est -ce que l'éloignement volontaire peut êtreanalysé comme une défaite ? Toute non-qualification d'un postulant est-elleforcément liée à une lutte en session du cnu ? Oualors, est -ce le débat sur les formes de régulation qui serait à analyser commelutte ? Dès lors que l'on cherche à étudier historiquement l'institutionnalisation d'unediscipline, le caractère trop général et inapproprié du terme lutte (centraldans une analyse de champ telle que la pratiquerait Pierre Bourdieu, et toutaussi central dans le langage militant qui veut orienter l'action et signalerdes enjeux forts) vient de ce qu'une discipline instituée est une formeinstitutionnelle spécifique, où les formes de relation ne renvoient passeulement à la conquête du pouvoir institutionnel. De plus, une disciplineinstituée est vraisemblablement une forme institutionnelle d'appartenance lâche ,même si elle s'avère décisive à certains moments de la vie professionnelle ;enfin, l'appartenance est une ressource faible dans nombre de manières de vivreet développer une activité scientifique individuelle ou dans un laboratoire. L'institutionnalisation cognitive, pas plus que l'institutionnalisation sociale ,ne me paraît pas exempte de luttes qui, elles aussi, sont à décrire précisément .De même, l'institutionnalisation cognitive ne saurait provenir, elle non plus ,de formes de relations seulement compétitives, mais aussi coopératives. C'estainsi que, parmi les questions ouvrant le second texte, je suis intéressé parcelle -ci : « Pourquoi des rendez -vous manques avec certaines disciplines, alorsque quelques-uns de leurs lieux ou de leurs ressortissants ont joué, à un momentdonné, un rôle dans la construction des sic [. ..] tellela psychologie » (Boure, 2007b : 258). Il m'est plus difficile d'intervenir sur le second texte de Robert Boure (Questions de communication, 11 ,2007). Je suis à la fois intéressé par les données recueillies, mais dansl'expectative en ce qui concerne leur productivité. Et surtout, mal à l'aise. Cesentiment provient précisément de la difficulté à laquelle est confrontée laquestion des origines dans une recherche portant sur la discipline. Malgré lesprécautions dont il fait preuve pour définir ce qu'il entend par » littéraire » ,Robert Boure finit par globaliser des chiffres portant sur des phénomènesd'ampleur différente. Le fondement de ma remarque n'est pas la conclusion àlaquelle il aboutit sur l' « origine plurielle des sic », mais, pour commencer, l'argumentation concernantl'institutionnalisation sociale. Tout comme Jean-François Têtu (2002 : 72), jepropose de distinguer encore plus clairement plusieurs aspects en lien avecl'usage complexe de l'adjectif « littéraire ». Dans cette désignation, il y vad'abord de la question du cursus universitaire. De ce point de vue, il fautestimer que la linguistique est un élément non autonome pris dans un cursus deLettres. En conséquence, il ne saurait être dit « non littéraire » (Boure2007b : 273). Pour traiter des origines, quel est l'intérêt de ce repérage ? Unrepérage des « pratiques apprises », des types de « culture », des thèmestravaillés. On est donc ici dans des questions de socialisation (on pourraitquasiment dire « socialisation primaire » pour reprendre le concept à ClaudeDubar) qui peuvent intéresser l'analyse des pratiques (cognitives) de recherche ,voire certains aspects de l'institutionnalisation cognitive (les jeuxd'invitations réciproques entre Professeurs, le choix des jurys de thèse, lesalliances et connivences diverses) sur du long terme. La question du littéraire recouvre en second lieu celle de la formation à larecherche et de la définition de la thèse. De ce point de vue, le « littéraire »est un « francisant » ou un spécialiste de « littérature comparée » (autresection du cnu) ou d'autres langues et littératures. Onpeut admettre que le thésard en linguistique ne soit pas considéré comme unlittéraire. .. mais le cas est déjà plus complexe pour classer un analyste defilm qui fera une thèse en analyse de film, ou filmologie (18 e section). Sur ce point, il me semble qu'il faut interroger la façonde procéder de Robert Boure (2007c : 270) qui, faute de pouvoir lui -mêmeapporter un arbitrage à propos de la question « Est -ce une thèse véritablementlittéraire ? », s'est appuyé sur la spécialité officielle du directeur de thèse ,plutôt que sur une analyse de la composition du jury Bien sûr, cela demandait untravail beaucoup plus lourd. Mais cela aurait permis de construire des donnéespour traiter, quand nous le pourrions, de la question des appuis des premièresgénérations. Le directeur de thèse n'est pas forcément (comme maintenant ?) undirecteur qui dirige. Nombre de jeunes thésards de l'époque ont dû chercher ettrouver quelqu'un qui accepte de les « héberger » et les autorise à faire unethèse nécessairement hybride, dans une période où la discipline était en voie deconstitution et rares étaient les formations à la recherche en sic. Certains thésards ont alors pu être accueillis pardes historiens (rôle d'André-Jean Tudesq), par des linguistes - Professeurseux -mêmes en « apprentissage » de ce qu'était la linguistique des années 70. Mais peu importe la bonnepratique d'analyse, le point essentiel est précisément que, au cours de cettepériode, des personnes fort peu encadrés doctoralement produisaient des thèsesqu'il leur fallait faire qualifier De ce point de vue, je pense que lesquestions les plus intéressantes sont : combien de doubles inscriptions ?Combien de postes effectivement trouvés en sic, sansinscription sur une liste d'aptitude équivalente ? Combien de transfuges enmutation discrète, de quelles autres disciplines. .. avec quelles phasesrepérables ? Somme toute, ne mesure -t-on pas là l'attractivité et non l'originede la discipline, par rapport à d'autres qui étaient peu « hospitalières »cognitivement, et qui avaient peu de ressources disponibles en postes pour unnombre de thésards conséquent ? Néanmoins, cette question sur le littéraire est aussi une manière de parler de lasocialisation secondaire et, plus précisément, du premier moment de celle -ci .J'ai évoqué l'aspect de cette socialisation prise dans les processusd'institutionnalisation sociale de la discipline (7 1 e section), mais elle s'inscrit aussi dans les phénomènesd'institutionnalisation cognitive. En effet, d'une part, les jeunes chercheurssont pris dans les apprentissages des bonnes pratiques de recherche, selondiverses modalités, et, d'autre part, ils peuvent développer des initiativesindividuelles ou collectives. Quel est l'intérêt de traiter de ces origineslittéraires ? En accord avec Robert Boure, je pense que cela permet de traiterdes pratiques apprises : comment procède -t-on pour conduire une recherche et larédiger ? Mais, j'y reviendrai plus loin, il faudrait éviter de penser qu'unchercheur n'apprend des pratiques de recherche que pendant sa période deformation doctorale. .. Or, c'est cela que pointerait l'analyse de cesorigines. Enfin, troisième manière d'interpréter institutionnellement l'adjectif« littéraire », on travaillera l'état académique des organisationsuniversitaires, comme dans le travail mené par Robert Boure lorsqu'il mène sonanalyse selon le critère des lieux d'apparition des sic. De ce point de vue, les facultés de lettres, lettres et scienceshumaines, lettres et arts sont des structurations dont l'histoire - parisienneou non - donne des résultats variables. Conclure en faisant référence aux« établissements plus particulièrement dédiés aux lettres » comme catégorie meparaît curieux. Que sont ces établissements ? En revanche, travailler sur leslieux d'apparition est vraiment intéressant, notamment pour repérer où s'estdéveloppée une demande, et donc un « accord pour héberger » (Boure, 2007c :263). Je ne suis pas sûr que cela soit intéressant en termes d'origine (sauf àsignaler les lieux pionniers); en revanche, je trouverais passionnant que l'onanalyse les luttes ou alliances qui ont amené les premières demandes. Je penseaussi qu'il faut soigneusement distinguer les demandes déformationsprofessionnelles ou générales jusqu' à la licence et les demandes de maîtrise etdea, o ù l'on peut imaginer que les situations ne se posent pas de la même manière( c'est une idée que nous partageons, voir Boure, 2007c : 263). La mise en placed'un enseignement « appendice » des formations antérieures (comme les« techniques d'expression ») et celle de filières nouvelles( professionnalisantes, mais pas seulement) ne me semblent pas non plus àanalyser de la même manière. La création de filières suppose des alliances, descoopérations avec des collègues ouverts sans forcément être « transfuges », et ,plus tardivement, une masse critique d'enseignants-chercheurs spécifiquement dela discipline, là où le contexte interne aux universités concernées étaitfavorable aux sic et à la création de postes en 7 1 e section. Pour finir, les deux derniers critères proposés par l'auteur pour une analyse desorigines littéraires des sic, celui des productions etcelui des pratiques scientifiques, me semblent liés à l'institutionnalisationcognitive. Je voudrais qu'un travail moins « précipité » permette d'avancer Pourl'heure, il me semble que, visant à reprendre et retravailler les données deJean-François Têtu (2002), RobertBoure est pris dans une perspective trop complexe. Premièrement, il construit une polémique vis-à-vis d'un adversaire qu'il estdifficile d'identifier. .. faisant référence à une supposée vulgate, hostile auxLettres, que je n'ai, pour ma part, pas rencontrée. Deuxièmement, il évalue au couteau les pratiquesd'écriture et de recherche sur la littérature « de l'époque » (Boure ,2007c :274) pour aussitôt, dire que ces pratiques - celles qu'il décrit ne sontpas estimables - sont tout aussi bien celles « de la philosophie, des languesétrangères et du droit » que des spécialistes de la littérature française (ibid. : 277).Troisièmement, il tente de rendre compte depolémiques, querelles d'un champ peu connu et qu'il est difficile de penser sur 30 ans; rendant compte depolémiques de l'époque, il choisit d'évoquer « la querelle de la nouvellecritique »; mais la rapidité du traitement l'amène à fairedes choix sur les querelles marquantes (par exemple, le structuralisme n'est pasévoqué); du coup, l'élément choisi du contexte de l'époque est implicitementdonné à lire comme le terreau des trois thématiques portées par des collèguessic issus du champ littéraire qu'il analyse enfin( Boure, 2007c : 274-276). Tout cela me semble trop rapide, alors que j'estimerais utile que l'on travaillesur les connivences cognitives qui ont fait, par exemple (mais peut-on traitercela en termes d'origine d'une discipline ?), que certains des collègueslittéraires ont établi des ponts à l'intérieur des sic .Au risque de citer un exemple qui me met en scène, à Lille, Yves Jeanneret etmoi -même, dans deux ufr distinctes où nous étionsprofesseurs (information, documentation et information scientifique et techniqued'un côté, information et communication de l'autre) avons travaillé, dans lesannées 96-98, les ponts entre deux univers des sic, lepôle information - autoappellation courante « sciences de l'information » -( qui, nationalement, dans le cadre de la sfsic ,s'affirmaient sciences de l'information et de la documentation à uneépoque) et le pôle « communication » - auto-appellation courante des « sciencesde l'information et de la communication » - (qui, nationalement, dans le cadrede la sfsic, affirmaient plutôt dans les années 90-96les deux pôles, industries culturelles + nouvelles technologies, d'une part ,médias + sémiologie, de l'autre). Décrire des connivences cognitives n'est paschose aisée : celles -ci résultent de l'intérêt pour un monde de recherchedifférent du nôtre et de l'envie de multiplier les espaces de discussioncommuns, par la reconnaissance réciproque de la pertinence des questionstraitées. Elles amènent, par uneattraction au sein de la discipline en quelque sorte, à chercher à placer aucentre des chercheurs qui pourraient se penser périphériques. Ou encore, ellespeuvent produire de véritables constellations cognitives avant que ne soientinstitutionnalisés, parfois, des axes finalement identifiés et reconnus par lesinstitutions disciplinaires. Je cite ce cas car c'est une des connivences parmid'autres qui ont fait, par exemple, que des rapports positifs dans laconstruction institutionnelle ont été établis avec ceux qui « étaient éloignés -alors - des sic » comme la muséologie (Daniel Jacobi ,Benoît Jurdan, Jean Davallon, venus nombreux au Congrès de Metz - 1998 - et dontcertains ont pris dès lors une part active dans la sfsic) .Certes, de telles connivences cognitives peuvent provenir d'apprentissagesproches, réalisés lors de la socialisation primaire (la période de la formation« littéraire I ») ou secondaire (la période de l'entréedans le métier par la thèse et les premiers travaux, « littéraire 2 ») pourreprendre ces concepts à Claude Dubar; maisl'exemple précédent montre, à mon sens, qu'il y a lieu de penser la« socialisation secondaire » d'une manière complexe : en estimant par exempleque la socialisation se joue différemment selon les trois âges que j'évoquais( jeunes doctorants; enseignant-chercheur jusqu' à l'habilitation, Professeurs) .Cet exemple illustre aussi le fait que, parmi les phénomènesd'institutionnalisation cognitive, il faut prendre en compte, à côté des luttes ,les phénomènes de co-construction, d'initiatives communes d'acteurs qui ont desenjeux : ici, pour ces Professeurs, non seulement l'enjeu de la reconnaissancede leurs travaux en cours, mais aussi l'enjeu de la formation de jeuneschercheurs; non seulement l'enjeu du « placement » de leurs thésards, maisaussi celui de l'installation de pratiques de recherche qui peuvent avoir dusens après eux. Faute d'une contribution personnelle à la construction d'une documentationcommune, j'ai cherché ici à revenir sur les concepts d'institutionnalisationsociale et d'institutionnalisation cognitive. Le répertoire des types d'enquête ,fondé sur le cadre des quatre critères identifiés par Robert Boure est unpremier travail fort utile et précieux. J'ai pu critiquer de manière récurrentel'intérêt focalisé sur les origines, mais je pense que Robert Boure permet, parles éléments qu'il livre une fois encore, de penser non seulement les originesmais d'autres moments de développement de la discipline, évidemment« l'origine-temps du début », mais aussi l'origine comme « socialisation » ,partagée ou non par les membres de la discipline, à divers moments de sonhistoire. J'ai fait quelques propositions complémentaires, notamment en ce qui concernel'institutionnalisation cognitive. Pour cette dernière, je pose l'idée selonlaquelle l'institutionnalisation est un travail, qu'elle résulte d'initiatives( voire de luttes par l'initiative : « occuper le terrain ». ..) et decoopérations (construire ensemble un déplacement du terrain.. .).Je pose aussiqu'une discipline universitaire est une institution où l'apprentissage est l'unedes opérations ordinaires, et que réduire la question aux processus initiaux età l'affiliation et/ou la qualification est préjudiciable. Dès lors, j'appelle de mes vœux des études qui s'intéresseraient moins aux« origines », qu' à une généalogie des coopérations dans les activitésd'enseignement de la recherche. Je m'associe à la conclusion de Robert Boure selon laquelle il ne s'agit pas des'ériger en arbitre des élégances scientifiques, selon laquelle, encore, il estutile de penser « l'intérêt, dans chaque shs, depratiques scientifiques plurielles, et au-delà, du pluralisme théorique etméthodologique » (Boure, 2007c : 278). Ces principes pratiques sont un gage desrecherches auxquelles je m'associe et non l'affirmation d'un « relativisme de ladiversité scientifique ». L'appel au débat que lance l'auteur est un aussiexercice salutaire. En effet, autant certains chercheurs savent exercer une pensée critique dans des textes qui serépondent, autant, dans les espaces supposés être consacrés à la discussion - àl'exception des écoles doctorales de la sfsic peut-être-, ils finissent par installer la simple juxtaposition d'espaces depromotion .
Ce texte est un dialogue critique avec Robert Boure, auteur de deux articles (Questions de communication, 10, 2006 ; 11 2007) sur l'histoire française des sciences de l'information et de la communication (sic, 71e section du CNU). Il s'interroge sur l'usage que fait le chercheur- de deux notions - « histoires spontanées » et « histoire officielle » - pour leur- préférer l'étude des processus d'institutionnalisation entrepris par Robert Boure. Il revient également sur les quatre pistes proposées pour analyser l'institutionnalisation des sic et leurs origines, ici littéraires. Il tente de préciser ce que l'on peut appeler- « institutionnalisation cognitive » d'une discipline et imagine les procédures de recherche historique qui pourraient en rendre compte.
sciencesInfo_10-0023555_tei_1120.xml
termith-494-communication
Cet article est fondé sur des lectures et entretiens menés en 2008 dans les milieuxdes agences Agence France Presse (AFP), Reuters (RTR) et, à un degré moindre ,Associated Press (AP). Ces trois transnationales de l'information, sisesrespectivement à Paris, Londres (encore que…) et New York, sont à la fois leshéritières de traditions où, avec raison, chacune peut prétendre remonter au milieudu XIX e siècle, et des entreprises qui se réinventent et serepositionnent. Elles s'efforcent des'adapter ou de prendre les devants dans une société dite de l'information encontinu, qui est bousculée ou forgée — c'est selon — par trois facteurs : laglobalisation économique et géopolitique des années 90, l'internet des années1995-2000 et la financiarisation croissante des marchés. Portails, moteurs derecherche et « news agregators » (comme Google) modifient ladonne. Tout comme les réseaux sociauxdits « de socialisation » (tel Facebook) et, plus largement, pour reprendre uneformule américaine, « la grande conversation électronique ». Le taux de reprise dela copie agencière à travers la planète reste pourtant considérable. Le chercheur en information internationale se situe souvent du côté de laréception; il lui arrive aussi d'aborder les stratégies des acteurs quifaçonnent l'offre de l'information. Les incidences de l'économie, de lapolitique, de la technique, des relations internationales et du« géomédiatique » sont également à appréhender. Que recouvre ce dernier terme ?Il s'agit d'un croisement de facteurs qu'on pourrait qualifier de « classiques »( entrepreneuriaux, politiques, culturels, techniques…), mais où le tout estsous-tendu par la vision des « ouvriers intellectuels ». Ces derniers recouvrentl'éventail du personnel, depuis la direction et le management jusqu'au personneltechnique, administratif, et rédactionnel. Ensemble, peu ou prou, ils forgent àla fois le persona collectif et les produits d'uneentreprise de l'information et des média; persona où ,même relativement discrètes dans le tintamarre des médias, l'image et la marquedes agences intègrent nolens volens la perception qu'enont les publics, aussi flou que soit ce terme, comme du reste peut l' être« l'information ». Pour étudier les « transnationales de l'information » et leurattitude face à la globalisation, nous procéderons à des « incises dansl'actualité internationale ». Nous y aborderons des facteurs tenant aux sourcesde l'information, aux archives des entreprises multinationales et multimédias ,et aux incidences des technologies de collecte, de traitement et de transmissionde l'information sur les débats internes dans les rédactions. Aussi différentes soient-elles, les trois agences précitées assurent deuxfonctions : elles s'efforcent de « sourcer » l'information — règle d'or rappeléedans tant de manuels, d'écoles de journalisme et de salles de rédaction — et sequalifient de fournisseur-vendeur de l'information (newsvendor, data supplier). Leur terraind'opérations est fondé sur des sables mouvants. On conviendra à la fois que lerécit dit « factuel » est le texte de base de la production agencière et que lamultiplication des facilités techniques pour que tout se duplique aisémentajoute au trouble. Ainsi le RSS — Really SimpleSyndication, avec duplication sérialisée par simple click — et les blogs — sur l'internet et l'intranet, qu'ils soientsurveillés par un « modérateur » ou non — exemplifient les marchés et produitsmodernes de l'information. Les croisements entre données, récits factuels ettextes formatés — tant de signes, tant de mots clés, tant de référentshypertextuels, tels les slugs — où, dans la masse de lacopie produite et traitée, figurent aussi bien le récit-news, les « textes d'interprétation », et de contextualisation ,font plus ou moins bon ménage. Ils occasionnent des échanges constants entreproducteurs et « traiteurs » (journalistes et desks) duproduit « info », quel qu'en soit le support numérique. Le tout s'intensifieavec l'augmentation des flux et l'accélération du processus, résumés par lesformules « temps réel » et « produits de l'éphémère » susceptibles, un bref lapsde temps, de produire un impact. Si la caducité du « produit » information — stale news — est relevée depuis longtemps, la consciencequ'en ont les professionnels s'est accrue avec l'informatique, le numérique etla force symbolique du temps réel. Ainsi, avec les mark-uplanguages hypertextuels de métadonnées, on recycle les récits produitsdepuis quelques minutes à peine en « données historiques »; les discours sur lasociété de la connaissance, sur l'économie de l'information, sur la culture del'information… attestent d'une prégnance des topoï, ouprismes. Ici, les agences sont prises comme des entreprises et sociétés à la recherche derepères et de stratégies performantes dans l'environnement de l'information desannées 2000-2010. Certaines d'entre elles récusent l'appellation « agence » .Lessources évoquées ici ne peuvent pas toujours être citées en « mettant les pointsur les i ». Le propos part du souci de croiser discours managérial et patronalavec le discours rédactionnel, et de camper les trois acteurs traditionnels dansun univers où tant de nouveaux start-up ont fait florèset souvent réussi avec maestria (Google, créée en 1998, Bloomberg en 1981 ;certains y ajouteraient les chaînes d'information dite en continu, telles CNN en1980, al-Jazeera en 1996. ..) Par ailleurs, il s'agit de s'interroger sur lesentiment qu'éprouvent tant de journalistes qui s'estiment devenus des « pions »peu considérés, devant les logiques de l'internationalisation et de lafinanciarisation dite (en français, et dans bien des pays de culture latine) « àl'anglo-saxonne ». Fin 2008, le nombre de journalistes (personnel rédactionnel) de Reuters Newsdevrait être de 2 467 à 2 500, selon le directeur de l'information (editor in chief) David Schlesinger. L'entreprise RTRHoldings PLC se fit racheter, dans un jeu complexe d'acquisition-fusion, par lasociété canadienne Thomson, en 2007-2008, pour un montant évalué à 8,7 milliardsde dollars. L'ensemble des effectifs du nouveau groupe totaliserait 50 000employés dans 93 pays. En 2001, Reuters intronisa un nouveau directeur-général ,Tom Glocer et, en 2004, un nouveau président, Niall Fitzgerald. La société RTRHoldings PLC fut cotée en bourse en 1984; la société Thomson-Reuters de même .La capitalisation boursière, les cours au jour le jour, connurent d'innombrablesfluctuations. On entendit de nouveau exprimer lacrainte que la culture de l'entreprise soit de moins en moins le reflet devaleurs journalistiques, les principaux gestionnaires et dirigeants n'ayant pasété formés comme journalistes. Certains gestionnaires et financiers traitent lesjournalistes « d'intellectuels ». Cependant, en 2003, un rapport interne RTRtraite, lui, les gestionnaires « d'intellectuels ». Sociétés bien différentes l'une de l'autre, l'AFP et Bloomberg ne sont pas cotéesen bourse; elles eurent un temps, dès 1996, un partenariat dans le domaine dela télévision/vidéo. L'AFP est une société — « organisme autonome » plutôt —dont le statut résulte d'une loi promulguée le 10 janvier 1957; elle est régiepar un conseil d'administration où le « collège presse » dispose d'une majorité( 8 sièges sur 15); s'il lui faut vivre en bonne intelligence avec l' État, lareprésentation syndicale (l'intersyndicale notamment) est des plus vigilantes ,et l'indépendance rédactionnelle garantie par le statut suigeneris de 1957, d'une part, et par la conscience professionnelle desagenciers et de ses dirigeants, d'autre part .Bloomberg, entrepriseprivée basée à New York, aurait un nombre de journalistes de par le monde prochede celui de l'AFP, mais le secret des sources et l'incompatibilité des donnéesque fournissent les responsables d'agences rendent hasardeuse toute mise enparallèle de ce genre. Du reste, Bloomberg, société qui desservit d'abord desmarchés financiers états-uniens et qui développa des terminaux « conviviaux »avec un temps d'avance sur RTR (au milieu des années 90), et par ailleurs l'AFPdont le service d'informations sportives constitue l'un des fleurons, sedistinguent plus encore qu'elles ne se ressemblent. À certains égards, dès le milieu des années 90 ,AP et RTR, présentes sur l'ensemble des marchés texte et image (photo, vidéo ,télévision), furent longtemps les transnationales de l'information les plusaisées à comparer. Que leurs rédactions desservent en premier lieu des clientspreneurs de leurs services de langue anglaise (ou « anglaise-américaine ») ,diffusés à travers le monde, pourrait en être une des explications, encore quel'ascendant d'AP auprès des médias aux États-Unis, même contesté par d'autres( dont RTR), concurrente par ailleurs de Bloomberg dans les services spécialisés( et souvent fort rémunérateurs) de l'information économique et financière ,introduit un bémol à cette affirmation. « News is more and more a commodity » : affirmer quel'information est un produit-marchand n'est pas chose nouvelle, mais depuis lesannées 80, elle ressort tel un leitmotiv d'innombrablesdéclarations de managers et responsables rédactionnels. Raisonner de la sorteconduisit à développer, grâce à l'informatique et à la Toile les mesuresd'impact des récits-produits de l'information et à chiffrer l'insuffisance desrecettes provenant des services rédactionnels strictosensu. On les compare à celles engrangées par certains servicesfinanciers, nouveaux médias, ou à celles des services destinés au B. to B. (Business to Business )et aux usagers professionnels. Le sentiment de déconsidération qu'éprouvent biendes journalistes se renforce de plus en plus. Comme par le passé, beaucoupd'entre eux cherchent à être recrutés par une grande agence afin d'avoir unecarrière « à l'international ». Les restrictions budgétaires des services etbureaux « à l'étranger » de grands médias nationaux réputés — comme les chaînesou réseaux traditionnels aux USA (ABC, CBS, NBC…) — renforcent à bien des égardsle sentiment de l'importance du rôle des réseaux internationaux des grandesagences. Et pourtant ! Le formatage de la production, la place accrue desproduits d'information pensés pour l'enligne, le multimédia, la consultationdirecte par les usagers — professionnels ou autres —, ainsi que l'effet croiséde la globalisation et de la financiarisation des flux, nuisent à l'estime desoi de bien des journalistes et des rédactions traitant de l'international. En écho à ces constats, nous procéderons par diverses analyses des flux del'information internationale. Plusieurs motifs sous-tendent la manière dechoisir les angles retenus : la qualité des sources auxquelles nous avons accès ,l'hétérogénéité des corpora recueillis, l'interrogationque suscitent les méthodes éprouvées d'analyse de discours et d'analyse decontenu devant les discours d'accompagnement et de promotion, les stratégies etles produits élaborés tantôt sur un temps long, tantôt sous le sceau del'urgence. Et, dernier facteur (pourquoi le nier ?),la perspective qui voudraitque les flux de l'information-monde sont à penser en tenant compte de laperception, si courante et non sans fondement, qu'un tropisme anglo-saxon etlibéral — dans la mesure où ces mots sont porteurs de sens — façonne bien desregards et des manières professionnelles d'agir, et cela malgré la pluralité desacteurs et des « Régions-Monde » : l'Asie, les Amériques .Europe-Moyen-Orient-Afrique. .. À bien des égards, ces vingt dernières années, tant chez Reuters qu' à l'AFP, lespostes clés de la direction de l'entreprise sont de moins en moins occupés pardes journalistes professionnels. À l'AFP, dès 1976, un énarque occupa le postenuméro 2 de l'agence, il en fut le PDG de 1979 à 1986. Depuis les années 90, despersonnes issues soit de l' École nationale de l'administration (ENA), soit d'unparcours de gestionnaire ou de dirigeant de la presse écrite (Lionel Fleury ,jean Miot, Bertrand Eveno, Pierre Louette) se succèdent à la tête de l'Agence .Si le poste de directeur de l'information revient encore et toujours à unjournaliste, on notera par ailleurs que le rôle de la rédaction en cheftechnique se développe. Elle assure l'interface entre la rédaction etl'informatique, l'internet, voire l'enligne en général. L'importance stratégiquede la gestion financière, elle aussi, se développe. En 1998, un audit d'uninspecteur général des finances releva que l'AFP était encore fortement marquéepar une culture journalistique, ce qui lui parut un inconvénient. Divers outilsde gestion se multiplient pourtant, d'autant que l' État s'efforce de réduire sonapport financier et que l'entreprise elle -même se positionne sur un nombrecroissant de marchés demandant des produits et services, loin du discours( entendu après comme avant la loi de 1957, et souvent repris par la concurrence )présentant l'AFP, peu ou prou comme « la voix de la France ». Le chemin parcourudans l'affirmation de l'indépendance rédactionnelle de l'Agence doit beaucoup àses journalistes. En somme, les équipes de direction et de managers en place dans les deux agencestravaillent sur un dosage délicat entre gestion, marketing, technique etrédaction. RTR nomma ainsi Mark Wood son directeur de l'information (editor in chief) à son ExecutiveBoard, ou conseil de direction pendant un certain temps. Son départ duBoard en 1996 fut difficilement admis par lesservices rédactionnels; déjà en 1977, Jonathan Fenby, le rédacteur en chef del'époque, avait démissionné de l'Agence lorsque, dans la refonte des services ,le World news service avait reçu, à l'en croire, uneposition subsidiaire au RTR Economic Services. En 2001, Peter Job, journaliste deformation, quitta la direction de l'entreprise RTR Holdings plc. Son successeur ,Tom Glocer, américain et avocat de formation, spécialisé dans les fusions etacquisitions, devint le premier non-journaliste à la tête de l'entreprise. Ils'engagea à accorder l'importance qu'ils méritaient aux services rédactionnels .À l'époque, et aujourd'hui encore, beaucoup restent convaincus que l'importancede l'apport « éditorial » à la marque de RTR excède largement les recettesqu'elle engrange. Peter Job notait en interne en 1996 : « Au fur et à mesure queles données que nous traitons deviennent des produits “commodities ”, notre couverture de l'actu ' est de plus en plus ce quifait la force de notre marque ». Il n'empêche ! Tout comme avant, depuis lafusion-acquisition par Thomson en 2007-2008, bien des journalistes s'estimentpeu considérés. En 2008, le directeur de l'information RTR, David Schlesingermultiplia les assurances à propos de l'importance de la division News. Et l'entreprise, avec près de 2 500 employésrédactionnels, figure comme l'une des plus importantes transnationales del'information au monde. Dans la société Thomson-Reuters réorganisée, larépartition des ressources rédactionnelles suppose à la fois l'intégration desdeux équipes et la suppression de doublons, notamment en Europe. L'observateurextérieur, lui, note l'importance accrue, encore et toujours, des servicesrédactionnels ciblés sur les usagers professionnels (B. to B.), et il garde en mémoire l'une des remarques d'un anciendirigeant-manager de RTR-Europe, longtemps en poste à Genève et que l'on tint untemps pour l'un des candidats internes pour la succession de Peter Job, avantque Tom Glocer n'emporte la mise : « Les journalistes sont des intellectuels peuperformants ». Une entreprise mondiale de l'information livre une multiplicité de servicestaillés sur mesure pour une multitude de clients. Elle peut fournir autre choseque sa propre production et servir de plateforme pour relier d'autresfournisseurs à divers clients. Avec l'internet, la croissance des sites et desportails, et le développement des moteurs de recherche et d'agrégateurs del'information, ce positionnement serait menacé. Des questions épineuses depropriété intellectuelle se posent. L'AFP entama un temps des poursuitesjudiciaires contre Google, qui reproduisait des dépêches AFP sans en reconnaîtresuffisamment la paternité, avant qu'un règlement à l'amiable ne fût concluen 2006. Une entreprise comme l'AFP doit à la fois naviguer entre l'écueildélicat de la propriété intellectuelle de sa propre production (par exemple, desphotos prises par des cameramen travaillant pour son service téléphoto mondial )et, autre écueil — Charybde après Scylla— tout faire pour défendre sa marqueface à d'autres. L'usager de la production AFP en France (afp.com) est habitué àvoir comme générique (credits) « AFP/Getty images » : eneffet, l'AFP a les droits d'utilisation de la banque d'images — photos ,infographie. .. — de l'entreprise US Getty, longtemps perçue comme fortementprésente dans le domaine des « célébrités ». Le directeur-général de RTR en 2000, Peter Job (2000), nota qu'il y avait dangerà voir la production-maison exploitée abusivement par des agrégateurs. Il pointala désintermédiation des médias, vecteur ou supports dépassés par la vitesse del'internet. Et pourtant ,beaucoup critiquaient alors la lenteur du développement, par RTR, sous sadirection, d'une stratégie pointue face à l'internet. Pour résumer ,schématiquement, RTR connut une période de vaches grasses dans lesannées 1975-1990, avec son système informatique Monitor desservant les marchésfinanciers et les banques avec leurs propres données et cours sur ses écrans etterminaux, suivie d'une longue période de vaches maigres : Bloomberg, issue desmarchés d'instruments financiers et bancaires aux US, et propriétaire determinaux autrement plus « conviviaux » que ceux de RTR, lui dama le pion dès lemilieu des années 90. Dès cette époque, l'internet et la Toile créèrentun foisonnement de possibilités, surtout sur les marchés financiers, que RTRaurait tardé à saisir, tant il parut difficile d'y voir clair. Par ailleurs, l'une des forces de RTR tenait àson ascendant sur le marché des devises. Dès les années 70, elle créa en quelquesorte un marché électronique de l'information économique et financière, le forex (foreign exchange : lesdevises) en tête. Ce marché — quoique toujours d'importance, avec une croissanceannuelle de 25 % dans les années 80, avec RTR en position de réseau-phare — seréduisit peu à peu; ainsi, par exemple, l'euro, qu'adoptèrent plusieurs pays del'UE, diminua ipso facto le nombre de devises encirculation. Par ailleurs, de l'aveu même de l'auteur d'une étude sur Google (Vise, 2005) ,celui -ci — moteur de recherche leader — n'était pas trop regardant lorsqu'illança Google news, en reprenant des informations disponibles sur plusieurs siteset portails, dont ceux des agences. D'où l'inquiétude desresponsables d'agence des années 2000 : des portails, tels Yahoo, Orange ,incluent des sites d'information, tels RTR et AFP; l'agrégation automatique ,s'effectue par Googlenews, Netvibes, etc, sans reconnaissance suffisante—financière et autre — aux sites tels RTR et AFP. Un fin observateur de l'évolution de l'entreprise RTR note qu'après unecroissance portée en large mesure par l'explosion du forexdans les années 90, la concurrence (et même les poursuites judiciairesentamées contre elle aux États-Unis par Bloomberg), et l'intrication des flux del'information mondiale avec la globalisation et la financiarisation del'économie mondiale, compliquaient gravement les perspectives vers la fin de ladécennie. En février 2003, le cours chuta sensiblement, analystes et marchésestimant peu rassurantes les pertes financières enregistrées; les stratégiesannoncées par Peter Job parurent insuffisantes pour transformer l'entreprise àl'ère de l'internet. Les membres « non-executive » duconseil d'administration n'hésitaient pas à le faire savoir en petit comité .Pouvoir diriger une telle entreprise attirait encore ses propres senior managers et certains dirigeants d'autres grandessociétés multinationales. En 2004, la recherche d'un nouveau président (chairman) pour l'entreprise attirait tout autant. Unesociété de « chasseur de tête » chargée d'identifier (pour 200 000 livressterling) les candidats potentiels en trouva vingt-cinq. In fine, celui qui fut choisi n'était autre que l'ancien PDG de lafirme anglo-néerlandaise Unilever, dont la marque, depuis un siècle, étaitleader dans le domaine des produits détergents. En somme, les hautes sphères de la finance et des entreprises multinationalesservent de vivier au recrutement du top management de« l'entreprise » RTR, tandis qu' à l'AFP, une formation d'énarque n'est pas derefus. Le moyen de marier la culture de la société, les technologies et lesmarchés de l'information de par le monde — avec entre autres, mais passeulement, les médias (traditionnels ou nouveaux, pour autant que cesappellations aient de sens) — reste, en somme, l'exercice de quadrature ducercle auquel il faut se livrer. Par ailleurs, à l'ère des « shrinking newsrooms », maisaussi de crises financières, monétaires et bancaires que renforcel'interdépendance des économies d'un monde dit globalisé, les agencesd'information bataillent sur le front des blogs, des réseaux de socialisation( Facebook, Myspace, Youtube. ..), du journalisme citoyen, et sur d'autres siteset portails encore. L'irruption de ce journalisme participatif dans l'univers del'information véhiculée par des marques reconnues trouble un existant qui, parle passé également, se savait toujours fragile. Une agence doit-elle créer sonpropre Wikipédia ? La question est débattue à l'AFP comme à RTR. Quellestratégie convient-il d'adopter face aux blogs ? Comment se placer dansl'univers des multi-médias, pluri-langues, d'un monde globalisé et dont les fluxintra-régionaux (des « Régions-Monde ») augmentent ? Autant de questions que seposent les décideurs, les responsables et bien des journalistes destransnationales de l'information et de la communication. Sur son blog, unresponsable rédactionnel RTR comme David Schlesinger, directeur de l'information( editor in chief), se demandait avec inquiétude ethumour : « Même avec nos 2 400 employés, peut-on prétendre tout couvrir ? » .D'où un débat récurrent depuis 2000 environ : « Comment tirer profitintelligemment et prudemment des ressources offertes par les médias sociaux ousociétaux ? ». En 1995 déjà, face à l'essor rapide de l'internet, certainsresponsables étaient des plus méfiants; d'autres, dès 2000, qualifiaient cettedernière période de « Moyen Âge ». D'autres encore, en 2008, soulignentl'évolution des pratiques et des usages, aussi bien selon les tranches d' âge queselon les segments de marché : « Moi qui ai 47 ans, écrit l'un d'eux avechumour, suis -je à la page, à l'ère des Facebook et autresYoutube ? ». Ici, on ne répondra qu'indirectement à ces questions. Pratiquant des « incisesdans l'actualité » (Palmer, 2003, 2006), on retiendra deux types de corpora, issus chacun des agences elles -mêmes : l'uncentré sur les questions rédactionnelles, à partir des « manuels de style » ;l'autre sur les dispositifs de monitoring interne de lacopie produite et de son impact, évalué, entre autres indicateurs, sous forme detaux de reprise. Il n'est pas question de comparer les agences in abstracto, mais plutôt de mettre en évidence leurs propres« manières de faire » qui, du reste, diffèrent autant qu'elles seressemblent. Dans les archives RTR et AFP, il y a trace de « manuels de style » qui remontentaux années 70. Leur nature et leur évolution diffèrent. Il setrouve que RTR, en avril 2008, diffusa en interne un nouveau manuel de style enlangue anglaise. L'AFP, en juillet 2008, fit de même avec un nouveau manuel enlangue française; une mise à jour du manuel AFP du service en anglais est encours. L'historien de l'immédiat — pour reprendre un terme associé à AlbertCamus et, dans les années 60-70, à Jean Lacouture — y trouve des artefacts desconsignes pour mettre l'actualité du monde en discours qui, disons -lesimplement, en valent bien d'autres. Les journalistes-agenciers producteurs dela copie les consultent-ils au jour le jour ? Rien ne permet de l'affirmerà 100 %. Mais le rappel de leur existence, de la nécessité de s'y référer ,revient souvent dans les notes de service des responsables rédactionnels .Plusieurs de ces rappels actualisés — avant de figurer dans le manuel — sontlivrés, au coup par coup, lorsque tel ou tel problème ou bévue surgit. Ces documents sont volumineux. On rappellera qu'ils ontvocation à aider les journalistes à mettre à jour leur connaissance des modus operandi des agences, en fonction de l'évolution dujournalisme, du discours et aussi des langages techniques. En 2008, ces dernierssont largement tributaires du développement de l'univers hypertextuel desmétadonnées et du traitement numérique de la copie pour permettre auxordinateurs et aux child elements que sont ces faiblesagents humains, les journalistes, d'interagir de concert. Les normes de l'IPTC (International Press Telecommunications Council) ,instance où se rencontrent les rédacteurs en chef techniques des grandes agenceset des entreprises de la presse audiovisuelle et imprimée — s'imposent vailleque vaille depuis le tournant des années 2000. L'IPTC classe tout matériaud'information d'actualité en 17 « sujets » qui eux -mêmes se déclinent en denombreux sous-sujets. Par exemple, les sports comportent une arborescence oùfigurent 117 sous-sujets (Palmer, 2006b; AFP, 2004). Partons du mot slug, terme technique qui, en langagecourant, désigne une limace, une cartouche, alors qu'en argot, le verbe signifie« frapper ». Le mot s'emploie depuis longtemps en milieu d'agence. Lemanuel 2008 AFP l'utilise pour signifier des « mots clés » : La notice ou « entrée » AFP comporte seize lignes (d'environ onze mots parligne). La notice du manuel RTR en comporte quarante (d'environ dix-huit motspar ligne). Chaque notice renvoie à d'autres notices. La notice RTR — ventiléeen « Slugs and slugging » et « How toslug » comporte des exemples. Citons le début de cette notice : Cette technicité rédactionnelle — dont le but est de faire l'interface entre larédaction, l'informatique et l'internet (l'AFP, comme le journal Le Monde, nomma pour cela des rédacteurs en cheftechniques au cours des années 90) — conduit les journalistes qui, jadis ,disposaient de secrétaires de rédaction, de sténographes et de secrétaires, àexercer eux -mêmes ce que l'anglais appelle le multiskilling, une multiplicité de tâches, afin de desservir desclients « multimédia ». Le manuel AFP définit ainsi ce dernier terme : Producteurs de la copie, travaillant de concert avec les desks, les agencierspensèrent longtemps en termes de production, de vérification, et de diffusion .De même, longtemps, la ventilation des services selon les langues, les régionsdu monde, ainsi que les besoins de marchés tantôt généralistes, tantôt cibles etspécialisés de l'information, sont pris en compte. Les manuels RTR et AFPreflètent ces préoccupations. Tous deux soulignent l'importance tant éprouvée de« la pyramide inversée ». Mais de leur lecture en parallèle ressortent quelquesdifférences. Ainsi, à propos du lead, l'AFP distingue lelead (accroche) du lead( dépêche développant une information antérieure). La notice du premier estde facture classique : « Premier paragraphe d'une dépêche. Crucial pour vendre l'information. Doit répondre aux questions : quifait quoi, quand et où ? Et, si possible, pourquoi et comment » (AFP, 2008). Lemanuel RTR (2008) emploie souvent le terme lead et, dansson texte consacré à The Update, le définit comme une« dépêche développant une info antérieure » qui ne doit pas se contenter delister les principaux faits, la source et les circonstances : « An update is a story aimed at carrying forward an earlierreport by weaving together fresh developments, reaction, added context andinterpretation, analysis and background ». Cette mise à jour, poursuit-il, s'appellesouvent un lead dans la salle de rédaction — terme quiest également synonyme « d'introduction » (le premier paragraphe d'un récitd'information). Et, dans une autre section du manuel — Thedrill for breaking news —, le manuel RTR va plus loin que les 5 Wcanoniques : who, what, where, when, why( et how) : le papier « urgent », ou newsbreak, doit comporter les faits principaux, la sourceet les circonstances ainsi que le facteur temps, mais aussi répondre à laquestion : « et alors ? », qui implique de savoir placer l'information encontexte : « Raconter l'histoire, signaler sa portée, établir des comparaisons ,et inclure la réaction du marché si elle est instantanée ». « Et alors ? »répond aux questions : « Quelle pertinence pour moi ? »; « Pourquoi celadevrait-il me toucher ? » .À lire RTR, la question : « etalors ? » fait partie des cinq W canoniques; par ailleurs, RTR se réfère aussiaux pratiques courantes dans les salles de rédaction aux USA (et à AP) : un nut graph, ou paragraphe inséré en 2 e ou 3 e position, résume en quelque sorte laportée d'une information en la contextualisant, par exemple en situant la placed'une société dans un secteur d'affaires donné. À la différence du manuel AFP, celui de RTR comporte une section sur les blogs .Les deux manuels s'y réfèrent, et soulignent les nécessaires garde-fous face auxsites de socialisation. Tel, par exemple, le discours de prévention de l'AFPface à Myspace — « espace web personnalisé pouvant accueillir notamment desœuvres musicales »; Youtube — « site de partage de vidéos, tout comme Dailymotion »; Facebook — « sitede socialisation destiné à rapprocher des personnes du même milieu (le plussouvent des étudiants), qu'elles se connaissent ou non »; enfin, à l'encontrede l'encyclopédie collaborative Wikipédia, « le mode de rédaction participativede cette encyclopédie enligne ne répond pas à nos critères de fiabilité ». Quant à RTR, sa politique à l'égard des blogs y suscite un débat continu depuisau moins 2000. Qu'en dit son manuel ? « Blog : manière informelle pour aborderla question de la création de contenu qui s'est développée en réponse au besoinsdes internautes d'un outil éditorial qui permet l'interaction maximale avec leslecteurs. Bloguer est, par définition, un format flexible ayant peu de règles .Les journalistes RTR bloguent afin de susciter un débat sur des thèmesd'actualité, pour indiquer des sites pertinents ailleurs sur la Toile, pourfaire voir aux lecteurs les coulisses de notre collecte de l'info, pour susciterdes questions que nous poserons lors de nos interviews, pour ajouter de lacouleur, des anecdotes et des angles qui ne figureraient pas autrement dans nosgenres rédactionnels (story types). Part ailleurs ,bloguer s'avère être le meilleur moyen dont nous disposons pour traiter desinfos multimédia; certains journalistes RTR produisent même des vidéoblogs ,appelés “vlogs” ». Suivent des recommandations et des interdits pour le blogueur RTR. Ainsi, s'ilconvient d'adopter le ton de la conversation, d' être intéressant, de citer desanecdotes et de se montrer ouvert aux remarques des lecteurs, ne faut-il pointêtre opinionated, émettre des avis tranchés sur telle outelle question. Bref, la pratique évolue constamment et un site RTR intranetactualise les conseils disponibles. On voit bien là perplexité des agenciers élevés, pour ainsi dire, dans le respectdes papiers « factuels » .En effet, le factuel est le texte de base, pour ainsidire, à l'AFP. Il arrive que, dansdes notes en interne, des responsables RTR affirment : « Nous ne sommes pas uneagence qui consigne tout, une agency of record, à la différence d'agences telles que l'AFP » .« Nous avons à la fois à… couvrir les événements du monde qui touchent (affect) les gens, les marchés et les pays, et àhiérarchiser l'information — notre production doit refléter notre estimation desdominantes (major news themes) decelle -ci. Par ailleurs, note David Schlesinger, endécembre 2008, « si l'information factuelle est le fondement même de nosactivités, nous proposons également de commentaires éclairés produis nos grandessignatures (point-of-view commentar) : nos commentateurs( columnists) n'ont pas normalement à faire du reportageet nos reporters ne font pas de commentaire. Mais deux influences extérieuressurdéterminent le tout. L'internet donne une priorité à l'expression del'opinion et des « voix », et la situation économique (de budget rédactionnel )interdit d'avoir des chroniqueurs qui n'ont pas aussi à assurer le rôle dereporters ». En effet, depuis quelques années, on incite des journalistes RTR expérimentés —grandes signatures en quelque sorte — à développer des chroniques, des papierssignés, afin, là aussi, de valoriser la marque de la maison, la renommée de sesjournalistes. Les blogs se situent dans une perspective voisine. Detelles innovations viennent souvent des États - Unis et du « va-et-vient » entreles journalistes RTR et leurs collègues outre-Atlantique, en phase avec lespratiques des médias impulsées, entre autres, par les applications destechnologies d'information « conviviaux ». The good the badand the ugly en est un exemple. Disponible sur l'intranet de lasociété, dès le printemps 1997, pour que les agenciers voient les interactionsque suscitait la copie RTR livrée aux internautes qui consultaient les sites « RTRs Americas », ce site devint accessible en 2005 àtout un chacun cliquant « Reuters.com » : cette vitrine illustre lesinteractions et valorise une marque agissant de la sorte. Le phénomène blogs, lui, s'avère plus complexe. Nous en trouvons trace, surl'intranet RTR, en 2000. Évolutif, certes, le phénomène s'accroît. En juin 2008 ,on dénombre une douzaine de blogs, dont « Soccer blogs( le foot) », « J.O. de Pékin : compte à rebours », « Les photographesRTR », « On the trail — sur la piste » (les blogs desjournalistes couvrant la campagne électorale aux États-Unis) et « Faithworld : religion faith and ethics ». Nousterminerons en examinant de plus près ce dernier. Tom Heneghan, journaliste RTRexpérimenté, couvrit par le passé le Pakistan depuis Islamabad, et l'Allemagnedepuis Berlin. Enoctobre 2007, il lança le blog RTR Faithworld. En effet ,en poste à Paris depuis la fin des années 90 et nommé « Reuters religion correspondent », il avaitdéveloppé — réseaux de télécoms et de l'internet aidant — un service« religion », à savoir un service destiné à profiter des ressources del'entreprise à travers la planète, pour que l'ensemble des connaissances desjournalistes sur les mouvements religieux puisse être « capitalisé », mobiliséau-delà de tel ou tel « item d'info » produit de manière ponctuelle. Plusieursdizaines de journalistes-maison lui envoyaient, à l'occasion, descontributions; il établit un « glossaire » ou « lexique », avec maints liens ,auquel chacun pouvait se référer. En 2008, il produit lui - même des sujetsd'actualité qu'on pourrait qualifier de « classiques »; ainsi se rend -il à Romeà l'occasion pour aider le correspondant RTR chargé du Vatican. Les déplacementsdu pape Jean-Paul II, puis de Benoît XVI, sont des sujets d'actualité trèssuivis à travers la planète. En janvier 2009, l'éventualité qu'envisagerait lePape, du retour au bercail de Rome des catholiques intégristes, dont certainstinrent des propos négationnistes, fit la « Une » des JT en France etd'innombrables blogs. D'autres sujets peuvent paraître moins évidents, en Francenotamment : tel le débat sur le créationnisme, vif aux États-Unis; ou lesinterfaces entre les questions de foi, d'éthique, de bioéthique. .. Citonsquelques billets postés sur FaitthWorld par Tom Heneghanen juin 2008 (parfois, il en produisait deux par jour) : Le nombre de commentaires postés par des internautes est affiché : le papier du13 juin sur les évangélistes qui auraient l'intention de faire du prosélytismelors des Jeux Olympiques de Beijing, en août 2008, suscita le nombre decommentaires le plus élevé : 25. En effet, de tels sujets soulèvent débat. On serappellera que Le Monde (16/07/08) consacra sa Une à« l' Église anglicane au bord du schisme » — thème que souleva le blog de TomHeneghan du 20/06/08. De même, en juin, l'affaire de ce mari musulman quichercha à annuler son mariage lorsqu'il comprit que sa femme mentait à propos desa virginité fit couler beaucoup d'encre en France. Or, en février-mars 2008, Tom Heneghan lança sur l'intranet un débat sur le rôleet le contenu des blogs de Reuter. Que son domaine — The « Godbeat » : terme familier, mi-argotjournalistique américain, mi - définition précise : « Dieu et les sujets yafférant » — soit des plus sensibles ne fut pas au cœur du débat. La tensionentre la politique rédactionnelle affichée — « Entrons dans l'ère des nouveauxmédias en expérimentant les nouveaux genres journalistiques » — et la réductiondes ressources journalistiques disponibles l'était davantage; rappelons ques'opéraient alors la fusion entre Thomson et RTR, et que celle -ci fut suivied'un redéploiement des ressources, en Europe notamment. Le débat tourna autourdes points suivants : « Élevés dans la tradition du factuel — “just the facts” » —, des agenciers pouvaient trouverdifficile la rédaction de papiers sur un ton conversationnel et personnel, qu'ils'agisse de l'expression d'opinions ou de liens tissés avec les internautes ;l'objectif des blogs était double : enfantés par le développement de la Toile ,le blog, pour RTR, devait servir de miroir aux alouettes et attirer desinternautes qui, autrement, pourraient ne pas visiter ses sites. D'autre part ,il devait renforcer la marque en générant un trafic, et une connaissance del'éventail des services proposés (grâce à la multiplication des liens, aucroisement des mots clés, etc.). Des ambiguïtés subsistaient, certes : dans ununivers où tout un chacun peut diffuser en ligne, les internautes avaientrecours aux blogs, aux microblogs, et à d'autres vecteur de l'information et del'opinion pour pouvoir accéder rapidement à des nouvelles pertinentes; cesinformations, certes, n'étaient pas toutes vérifiées; les internautes enquestion iraient, pensait-on, consulter ensuite des organisations en qui ilsavaient confiance — telle la marque RTR. Bien des journalistes RTR, notait TomHeneghan — pensant notamment mais pas seulement au blog Faitthworld — redoutaient les attaques auxquels ils risquaient des'exposer en exprimant une opinion sur des sujets aussi sensibles, ce qui allaità contre-courant de la recherche de l'exactitude factuelle, de l'objectivité etd'une attitude non-partisane. Tom Heneghan lui -même m'indiqua lors d'unentretien à Paris en juin 2008 qu'il n'était pas question que ses propresconvictions religieuses — ou leur absence — fassent débat. Même si desinternautes postaient des commentaires à ce sujet. Quelles conséquences l'historien de l'information, le chercheur en communication ,bref « l'info-logue » devait-il de tirer de ce matériau daté de 2000 et plus ?L'internet et l'intranet offrent un matériau, des corpora, que n'avaient pas leurs prédécesseurs. Un bémol toutefois : cematériau est, pour partie, marqué par la caducité. Même si « le disque dur »perdure, la mise à jour des systèmes informatiques, etc., rend souvent difficilel'accès à un matériau vieux parfois simplement d'un an. D'où un souci, commeici, de ne pas dépendre d'une seule source, voire d'une seule « archive » .Chacune recèle des forces et des faiblesses, permet d'entrevoir un angle, unaspect des choses. On ne peut tout embrasser : la seule production quotidienned'entreprises telles que RTR et AFP dépasse les millions de mots, et davantageencore de données numérisées. On n'embrassera jamais la totalité de laproduction; et la focale à laquelle invitent les mots-clefs, les « tags », les« sujets IPTC » rend dépendant, par définition, des langages normés de latechnique. Les discours sur l'enligne et le virtuel, sur les avatars du second life et les méta-données, et, par ailleurs, sur« la fin de la distance », l'augmentation des informations en circulation etl'accélération de la production, du traitement et de la diffusion de l'info…constituent à la fois un marqueur d'une société dite « globalisée », friande deformules comme « la société de l'information » ou « les biens immatériels del'immédiateté », et une invitation à se rappeler que d'autres sociétés, end'autres espaces-temps, se disaient chamboulées par l'abondanceinformationnelle. Zola, dans les années 1880, parlait de l'énervement desesprits devant l'impact des dépêches télégraphiques, et àOxford, dans les années 1620, un savant s'inquiétait de l'abondance desinformations (sur la guerre, la peste, etc.); en effet, dans l ' Anatomie de la Mélancolie, Robert Burton (1621) signalel'effet déstabilisant du flot ininterrompu des nouvelles qui arrivaient detoutes parts : « New newes every day […] of what these tempestuous times afford […] of warre, plagues, fires, inundations, massacres, meteors[ …] so many men slain […] newpamphlets, currantoes, controversies ». Admettons d'emblée la relativité et la nature éphémère de tout propos concernant« l'info » .Travailler sur un seul « acteur » — ici les agences, pour d'autres, latélévision, la presse, le téléphone mobile, plusieurs industries culturelles ,etc. — permet d'entrevoir des facettes d'un tout qu'on ne peut que difficilementsaisir dans son ensemble. Les manuels de style constituent ici un sous-corpus ;cela fait longtemps que je scrute par ce « petit bout de la lorgnette » de telsindices, qui, quelque part, disent quelque chose sur l'évolution et lespratiques des langages des agenciers, producteurs des discours del'information-monde (aussi fragmentés, éphémères et multi-publics qu'ilssoient). Marc Paillet, dans les années 70-80 pour l'AFP, d'autres encore —dont Ian Macdowall pour Reuters — deviennent dans cet exercice des« auteurs/rédacteurs-phares ». Dire et montrer le monde au monde, rapporter« son actu ' «, est un exercice auquel se livrent des professionnels de l'infoque traversent, depuis longtemps, des contradictions liées à la finance, à latechnique, et à d'autres pouvoirs — géopolitiques, géo-médiatiques, etc. Dire etmontrer le monde, d'une certaine manière, restent encore, vaille que vaille, deleur ressort. Langages et techniques, histoires et Histoire en sont les masterslugs .
Non sans raison, les agences internationales de l'information prétendent être les tout premiers acteurs sur la scène internationale des médias de l'ère moderne. Ces deux dernières décennies, à l'ère dite de la globalisation et de l'internet, elles se sont efforcées de se réinventer. Ici, à partir de manuels rédactionnels, d'archives d'entreprise et d'échanges internes et sur l'internet - de Reuters et de l'Agence France Presse notamment -, seront pointés les débats entre agenciers dont les entreprises s'efforcent de se repositionner sur les marchés médias et non-médias.
sciencesInfo_10-0302988_tei_1075.xml
termith-495-communication
Les moteurs de recherche1 Web se sont imposés en tant qu'outils qu'outilsomniprésents et cruciaux pour réussir à naviguer dans la sphère toujours enexpansion de l'information en ligne. Le moteur de recherche le plus important auniveau mondial, Google (2005a)2, est emblématique du but de tous les moteursgénéralistes lorsqu'il affirme sa mission : « Organiser l'information mondiale et larendre universellement accessible et utile ». C'est la raison pour laquelle GoogleInc., comme la plupart des opérateurs d'outils de recherche, s'efforce de créer « unmoteur de recherche parfait capable de traiter et d'assimiler toute l'informationmondiale » (Google, 1999)3 et de comprendre « exactement ce que vous voulez direet vous donner en retour précisément ce que vous voulez » (Google, 2007)4. La quêted'un tel moteur a donné naissance à des outils de recherche puissants qui permettentl'accès à des dizaines de milliards de sources d'information en ligne, traitent desmillions de requêtes chaque jour et fournissent des résultats pertinents et souventpersonnalisés, tout cela gratuitement. Avec l'essor des réseaux à grande vitesse, la baisse des coûts des technologiesnumériques, l'omniprésence des webcams et des appareils photo intégrés auxtéléphones portables, et avec le développement de sites Web innovants qui permettentle stockage de contenus et l'interaction sociale – comme Flickr ou Facebook –, leWeb devient de plus en plus une plateforme de création, de stockage et de partage decontenus multimédias produits par les utilisateurs. Par conséquent, les opérateursde moteurs de recherche s'efforcent d'étendre la puissance et la portée de leursrobots de collecte pour inclure dans leurs index des images, des contenus audio etvidéo. Ils mettent à disposition leurs propres plateformes de stockage, de rechercheet de partage d'image et de vidéos, et parfois se spécialisent dans les contenusexclusivement multimédias, comme le projet de moteur de recherche européen Quaero .Bref, le moteur de recherche parfait fait la part belle à l'audiovisuel. La puissance croissante et l'omniprésence des moteurs de recherche font qu'ilsn'échappent pas à la controverse : les biais qui les affectent, la censure (ou sescontournements), les violations de droit d'auteur et de marque, ainsi que la libertéd'expression en ligne sont des sujets constants de préoccupation. Toutefois, lesplus importants concernent les risques que présentent ces outils de recherchepuissants pour la vie privée (Sullivan, 2003; Associated Press, 2005; Mills ,2005; Zimmer, 2008a, 2008b). Créés dans l'optique de rendre les contenusaudiovisuels aussi « universellement accessibles et utiles » que leurs homologuestextuels, ces nouveaux et puissants outils de recherche audiovisuelle suscitent unregain d'inquiétude chez les universitaires et les autorités de réglementation surces problématiques5. Du fait de la nature spécifique des contenus audiovisuels, lesproblématiques liées à la vie privée que soulève la quête de la perfection desmoteurs de recherche audiovisuels méritent une attention particulière. Cette contribution fait le point sur les dernières tendances dans le domaine destechnologies de recherche d'information audiovisuelle – l'intégration d'imagesproduites par les utilisateurs dans les index des moteurs, le marquage et lesmétadonnées enrichies des photographies et les outils de reconnaissance facialedestinés aux utilisateurs – et met en évidence les risques qu'ils constituent pourla vie privée. Elle s'appuie sur une analyse qualitative et une synthèse desinformations publiques sur les technologies de recherche audiovisuelle, quiproviennent des communiqués de presse officiels des compagnies et de ladocumentation sur les produits, mais aussi de la couverture par la presse etd'entretiens avec des dirigeants d'entreprise. Nous avons nourri la réflexion parl'analyse de diverses technologies de recherche d'information, que ce soit à partird'un équipement standard et l'utilisation des technologies de rechercheaudiovisuelle, ou encore des analyseurs de protocoles du réseau pour voir ce qui sepasse « derrière l'interface » des outils utilisées. Depuis que les premiers moteurs de recherche ont commencé à fournir un moyend'interfacer les contenus du Web, a débuté la quête du « moteur de rechercheparfait », celui qui sera capable d'indexer toute l'information disponible et defournir des résultats rapides et pertinents (Kushmerick, 1998; Andrews, 1999 ;Gussow, 1999; Mostafa, 2005), et qui donnerait des résultats intuitifs baséssur les recherches précédentes et l'historique général de navigation del'utilisateur (Pitkow et al., 2002; Teevan et al., 2005). Par exemple, le moteur parfait saurait siune recherche sur l'expression « Paris Hilton » est censée aider l'utilisateur àlocaliser des chambres d'hôtel dans la capitale française ou à trouver lesderniers potins sur la jeune célébrité, et lui fournirait uniquement lesrésultats adéquats dans chacun des cas. Il est clair que les entreprises quitravaillent sur les moteurs de recherche ont des motivations financières pourréussir la « recherche d'information parfaite » : offrir à l'utilisateur desrésultats personnalisés contribuerait probablement à le rendre dépendant d'unmoteur donné, tout en augmentant son exposition à la publicité des sitespartenaires et en améliorant les chances pour que l'utilisateur recoure à desservices payants. De même, les moteurs peuvent augmenter leurs tarifspublicitaires quand les annonces sont précisément présentées devant les yeuxd'utilisateurs ayant des besoins et des centres d'intérêt qui y correspondent –par exemple, quelqu'un qui chercherait des renseignements touristiques plutôtque les derniers commérages sur une célébrité6. Pour le journaliste JohnBattelle (2004; 2005 : 228), le moteur de recherche parfait devrait fonctionnerde la manière suivante : « Imaginons qu'on puisse poser n'importe quelle question etobtenir une réponse exacte et sur tout parfaitementadaptée. Cette réponse correspond au contexte et à l'intention de laquestion et sait, avec une précision surnaturelle, qui vous êtes et pourquoivous demandez cela. Une réponse capable d'incorporer tout le savoir du mondeaccessible à la recherche (aux formats texte, vidéo ou audio) pour accomplir satâche. Une réponse capable de distinguer les interrogations directes (« Qui futle troisième président des États-Unis ? ») des questions plus nuancées (« Dansquelles circonstances le troisième président des États-Unis abjura -t-il […] saconception de l'esclavage ? »). […] Cette recherche idéale disposerait égalementd'une mémoire parfaite. Elle saurait ce que vous avez déjà vu et ne confondraitpas requête de découverte (procédant d'un désir d'appendre de nouvelles choses )et envie de retrouvailles (lorsqu'on souhaite retrouver quelque chose) ». Interrogé sur ce que serait pour lui le moteur de rechercheparfait, Sergey Brin (in : Ferguson, 2005 : 40) deGoogle Inc. a répondu : « Comme l'esprit de Dieu » [« Likethe mind of God » ]. Pour atteindre un tel idéal d'omniprésence etd'omniscience, le moteur de recherche parfait doit avoir à la fois la « portéeparfaite » [perfect reach] pour donner accès à toutel'information disponible en ligne et le « rappel parfait » [perfect recall ]7 pour fournir des résultats personnalisés etpertinents qui tiennent compte des habitudes d'un chercheur d'informationdonné. Pour réussir à atteindre la portée nécessaire à la réalisation de la recherched'information 2.0, les moteurs de recherche en ligne amassent dans leurs indexune quantité phénoménale d'informations sur les contenus du Web. Loin de selimiter aux pages Web en html, les opérateurs de moteurs ont indexé des médiastrès diversifiés trouvés en ligne, notamment des images, des fichiers vidéo, pdfet autres documents informatisés. Par exemple, en 2005, Yahoo prétendait indexerplus de 20 milliards d'éléments, dont plus de 19,2 milliards de documents Web ,1,6 milliards d'images et plus de 50 millions de fichiers audio et vidéo (Mayer ,2005). De plus, les moteurs numérisent de plus en plus le « monde physique », enajoutant le contenu de livres à succès, les fonds des bibliothèquesuniversitaires, des cartes géographiques et des images satellites à leurs indexen croissance permanente. Outre leurs index extensibles et diversifiés, lesmoteurs d'aujourd'hui atteignent aussi la « portée parfaite » en développantdivers outils et services permettant aux utilisateurs d'organiser et d'utiliserl'information dans des contextes que la recherche d'information en ligne neprenait pas en considération. Cela comprend les plateformes de communication etde réseaux sociaux, la gestion de données financières, les achats et larecherche de produits en ligne, la gestion de fichiers informatisés et unenavigation sur l'internet améliorée. En combinant ces deux aspects de la portée parfaite – des index de rechercheextensibles et divers produits d'organisation de l'information – le moteur derecherche idéal donne aux utilisateurs le pouvoir de chercher et de trouver, etles met en contact avec toutes les formes d'information dont ils ont besoin dansleur vie quotidienne. La portée du moteur de recherche parfait permet auxutilisateurs de chercher et d'accéder à pratiquement tout le contenu en ligne ,mais aussi de communiquer, de naviguer, d'acheter et d'organiser leurs vies ,aussi bien en ligne que hors ligne. En complément de la portée parfaite du moteur idéal, les opérateurs de moteurssouhaitent fournir le rappel parfait à chaque chercheur d'information, tout enpermettant la personnalisation des services et de la publicité. Pour obtenir cerappel, les moteurs de recherche Web doivent pouvoir identifier et comprendreles souhaits, besoins et désirs des internautes lorsqu'ils font des recherchesen ligne. Par exemple, pour différencier le contexte et l'intention de larequête « Paris Hilton », le moteur parfait devrait savoir si l'internaute arécemment témoigné quelque intérêt pour un voyage en France ou s'il passe untemps significatif à rechercher en ligne des commérages sur les célébrités. Le principal moyen de personnaliser les résultats d'une recherche est de se fieraux habitudes de recherche d'information des utilisateurs et à leur historique( Pitkow et al., 2002; Speretta, Gauch, 2005 ;Teevan et al., 2005). Pour collecter les historiques derecherche des utilisateurs, la plupart des moteurs gèrent des journaux détaillésqui enregistrent chaque requête traitée par leurs serveurs, l'adresse ip d'oùprovient la requête, les pages vues et les résultats sur lesquels l'internaute acliqué (Google, 2005b)8. Les moteurs de recherche misent aussi beaucoup sur lescookies pour distinguer les utilisateurs et tracerleur activité d'une session à l'autre, et les poussent de plus en plus à créerdes comptes – ce qui les aide à associer un utilisateur donné à son activité enligne. On explique à l'utilisateur que ces informations sont recueillies dans lebut d'améliorer à l'avenir son expérience de la recherche en ligne. Google, parexemple, le présente en ces termes : « Nous utilisons cette information afind'améliorer la qualité de nos services et pour d'autres raisons commerciales » 9 ,alors que le moteur Ask.com présente également ses motivations économiques commesuscitées, selon le discours de l'entreprise, par la nécessité de ce rappelparfait dans la quête de la recherche d'information parfaite : « Nousrecueillons […] des informations anonymes afin d'améliorer la qualité généralede votre expérience en ligne, notamment grâce au contrôle du produit, à sonamélioration, à une publicité ciblée et à la monétisation des mots clés desrequêtes à visée commerciale » 10. Étant donné la palette étendue de produits etde services offerts par les opérateurs de moteurs, les historiques de leursserveurs peuvent contenir bien plus que les requêtes des internautes11. Lesrequêtes sur divers contenus en ligne – images, actualités, vidéos, livres ,recherches scientifiques, produits, musique, etc. – sont aussi probablementenregistrées, tout comme les liens sur lesquels ils ont cliqué et lesstatistiques d'usage des services qui ne sont pas liés à la recherched'information mais que fournissent ces mêmes entreprises, tels que le courrierélectronique, les groupes de discussion, les services de cartes ou d'itinéraireset ainsi de suite. Pour résumer, la quête du moteur de recherche parfait a conduit les opérateurs demoteurs de recherche à étendre la portée de leurs index et à permettred'interroger de nombreuses sources d'information diversifiées (à la fois en ethors ligne); elle a également amélioré le rappel pour certains besoins ,habitudes et souhaits spécifiques des utilisateurs. Si l'on considère les étapesaccomplies vers la portée et le rappel parfaits que nous venons d'évoquer, lesmoteurs semblent se rapprocher de plus en plus de cet idéal d'omniscience etd'omniprésence, et sont sur le point de « devenir l'instrument de pouvoirparfait du XXIe siècle, qui voit tout, qui sait tout, qui peut tout » (Ayers ,2003 : 4). L'enthousiasme suscité par la recherche du moteur parfait – celui qui promet unelarge couverture, profondeur et pertinence – n'est pas totalement bénigne. Laroute qui mène à ce moteur est jonchée d'obstacles liés aux préoccupations surles biais, la censure – ou son contournement –, la violation du droit d'auteurou du droit des marques, et la liberté de parole (e.gIntrona, Nissenbaum, 2000; Elkin-Koren, 2001; Gasser, 2006; Goldman ,2006; Grimmelmann, à paraître). Toutefois, les inquiétudes les plus for tessont liées aux risques potentiels d'un tel moteur de recherche idéal pour la vieprivée (Sullivan 2003; Associated Press, 2005; Mills, 2005; Zimmer 2008a ,2008b). En effet, la portée et le rappel nécessaires à la réalisation du moteurparfait ont des implications spécifiques sur la vie privée des individus. Pour obtenir la portée parfaite, les moteurs doivent indexer autant de pages Webet de sources d'information en ligne que possible pour proposer la plus grandebase de données de résultats de recherche potentiels. Parmi les milliards depages Web indexées par les moteurs, se trouvent des pages contenant desinformations personnelles sur les individus, notamment les pages personnelles( qu'elles soient actives ou abandonnées), les messages postés dans les forums dediscussion, les curriculum vitae en ligne, les comptesrendus de réunions publiques, les registres fonciers et les archives destribunaux. Peu sont ceux qui n'ont pas encore été touchés par le « long bras durobot de collecte de Google » explique le journaliste Neil Swidey (2003 : 11) enfaisant référence au rayon d'action de l'index Web de Google : « Il s'agissait peut être d'une farce stupide entre étudiants oud'un message imprudent posté sur un forum Internet à l'université. Vous vousêtes peut être lancé dans une diatribe lors d'une réunion du conseil municipalou signé une pétition sans prendre le temps de la lire. Ou peut être avez -vousvécu un divorce difficile. Vous pensiez peut-être avoir tourné la page. Et bienGoogle ne partage pas votre avis. Même si votre embarrassant bagage était déjà en grand partiepublic, il était hors de portée de tous sauf du professionnel intrépide etvraiment curieux. À présent, aux États-Unis, dans les États où les décisions dejustice sont publiées en ligne, et grâce à la facilité de la fonction en un seulclic de Google, vous pouvez lire tous les détails sordides du divorce de votrevoisin sans plus d'efforts qu'il ne vous en faut pour vérifier si vous avez denouveaux messages ». Une recherche par vanité, c'est-à-dire une recherche en ligne sur son propre nom ,peut révéler un nombre surprenant d'informations personnelles : feuillesd'imposition, documents judiciaires, certificats de mariage, actes etinformations d'enregistrement sur les listes électorales par exemple .« Googler » quelqu'un avant une première rencontre est devenu une pratiquecourante (Lobron, 2006). Près d'un internaute sur quatre a déjà recherché desinformations en ligne sur ses collègues ou ses relations d'affaire (Sharma ,2004), et les employeurs « googlisent » leurs futurs employés avant de prendreleurs décisions d'embauche (Weiss, 2006). En moins d'une heure, un journaliste adécouvert une mine de détails personnels sur la vie du pdg de Google, EricSchmidt (Mills, 2005)12 : « Schmidt n'en dit pas beaucoup sur lui -même dans sa pagepersonnelle. Mais il a suffit de 30 minutes passées sur le moteur Google pourdécouvrir que Schmidt, âgé de 50 ans, pesait environ 1,5 milliard de dollarsl'an dernier. Au début de l'année, il a mis en vente près de 90 millions dedollars d'actions Google et obtenu 50 millions de dollars de plus en vendant desactions au cours des deux derniers mois, alors que le cours de l'action faisaitun bon de plus de 300 $. Lui et sa femme Wendy vivent dans la riche ville d'Atherton enCalifornie où, à l'occasion d'un dîner de collecte de fonds politiques à 10 000$ le plat, il y a cinq ans, le candidat aux élections présidentielles Al Gore etsa femme Tipper ont dansé alors qu'Elton John chantait à plein poumons « Bennie and the Jets ». Schmidt a aussi parcouru le désertau festival artistique Burning Man au Nevada et est unpilote amateur passionné ». L'expansion des index qui permettent la recherche d'information, aussi bien entermes de couverture que de niveau de détail, dans le but d'atteindre la« portée parfaite » a amoindri le sentiment « d'intimité par non-visibilité »[ « privacy through obscurity »] des utilisateurs( Swidey, 2003; Ramasastry, 2005). Une multitude d'informations sur lesindividus jusque là difficiles à trouver est désormais facilement accessiblegrâce aux moteurs de recherche (Wright, Kalalik, 2000). Par conséquent, il estaujourd'hui de plus en plus facile d'exploiter le nombre croissantd'informations personnelles publiées en ligne pour s'engager dans des« cyberfilatures » (Tavani, Grodzinsky, 2002), recouper des données et fouillerles informations personnelles dans des bases de données qui, autrement, seraienthétérogènes (Garfinkel, 2000), et de construire des dossiers numériques sur lesindividus (Solove, 2004). Le spécialiste de l'éthique, Herman Tavani (2005 :40), a notamment écrit sur la facilité avec laquelle les moteurs de recherchepermettent de collecter, regrouper et analyser des informations personnelles :« Les forums de discussion contiennent des liens vers l'information postée partel ou tel individu, ils peuvent par conséquent donner aux usagers des moteursune bonne idée de ses centres d'intérêt et de ses activités13. Il semble quetoute l'information actuellement disponible sur les sites Web et accessible auxmoteurs n'ait pas été nécessairement placée là par les personnes concernées nimême avec leur autorisation explicite ». Il se peut qu'un individu ne sache pasque son nom figure parmi ceux répertoriés dans une ou plusieurs de ces bases dedonnées accessibles aux moteurs, et encore moins comment fonctionnent lesmoteurs et leur capacité à retrouver des informations personnelles à partir dediverses sources d'information en ligne. C'est John Battelle (2005 : 168) qui résume le mieux l'anxiété que suscite laportée parfaite des moteurs de recherche : « Que faire quand une informationlégalement publique devient, disons, trop publique ? [… ]Que se passe -t-il quand tout ce qui vous concerne – vrève mention dans la lettred'information de votre école primaire (actuellement en ligne bien sûr) oudivagations revanchardes d'un amant éconduit – suit votre nom pourl'éternité ? ». La portée des moteurs de recherche se rapprochant de plus en plus de laperfection, les préoccupations quant aux risques potentiels pour la vie privéesont d'autant plus exacerbées que les moteurs de recherche sont aujourd'huicapables de recueillir et de rassembler une grande quantité d'informationspersonnelles et morales sur leurs utilisateurs pour atteindre cet objectif durappel parfait. L'inquiétude la plus manifeste porte sur le suivi des requêtesindividuelles et la capacité de les associer à des adresses ip spécifiques .Cette pratique de recueil et de mémorisation des données relatives aux requêtespour atteindre le « rappel parfait » a attiré l'attention du grand public enjanvier 2006, lorsqu'une source a révélé que, dans le cadre des efforts déployéspar le gouvernement des États-Unis pour faire respecter une loi sur lapornographie en ligne, le Département américain de la Justice a demandé à unjuge fédéral de contraindre le moteur de recherche Google à lui remettre lesenregistrements de millions de requêtes de ses utilisateurs (Hafner, Richtel ,2006; Mintz, 2006). Google a résisté mais trois de ses concurrents, AmericaOnline (AOL), Microsoft et Yahoo se sont pliés à des assignations semblables dugouvernement de produire leurs enregistrements des requêtes (Hafner, Richtel ,2006). Plus tard, la même année, AOL rendait publiques environ 20 millions derequêtes provenant de 658 000 de ses utilisateurs pour essayer de soutenir larecherche universitaire sur l'analyse des requêtes soumises aux moteurs derecherche (Hansell, 2006). Malgré les tentatives d'AOL de rendre les donnéesanonymes, certains particuliers restaient identifiables uniquement à partir deces historiques de recherches, qui comportaient des termes de requêtescorrespondant aux noms des utilisateurs, à des numéros de sécurité sociale, àdes adresses, des numéros de téléphone et autres informations personnellespermettant l'identification (McCullagh, 2006a). Ces affaires ont dévoilé au grand public les pratiques de mémorisation desrequêtes, générant une vague d'inquiétude parmi les chercheurs d'information surla présence d'un tel contrôle systématique de leurs activités de recherched'information en ligne (Barbaro, Zeller Jr, 2006; Hansell, 2006; McCullagh ,2006b) et amenant la presse à enquêter et publier des rapports sur l'informationque les moteurs recueillent systématiquement sur leurs utilisateurs (Glasner ,2005; Ackerman, 2006). À leur tour, divers groupes de pression ont critiquél'ampleur du suivi et du recueil des requêtes que permettent ces moteurs ,souvent sans même que les utilisateurs ne le sachent vraiment (voir par exempleElectronic Frontier Foundation, 2007; Privacy International, 2007), alors queles autorités gouvernementales des pays européens et des États-Unis commençaientà enquêter sur les pratiques et politiques de conservation des requêtes desmoteurs (Associated Press, 2007; Lohr, 2007). Alors que les pratiques d'archivage des requêtes Web des internautes attiraientde plus en plus l'attention du grand public, la capacité des opérateurs demoteurs à surveiller et croiser leurs activités – réalisées via la palette deproduits et de services qu'ils proposent – semble nourrir de nouvellesinquiétudes (Glasner, 2005; Ackerman, 2006 ;Waters, 2007). Le fait d'encouragerles utilisateurs à créer des comptes, la promotion croisée des services pourempêcher les utilisateurs de quitter le site du moteur et l'usage de cookies persistants dans ces services, permettent auxmoteurs de recherche de recueillir et de regrouper une quantité importanted'informations personnelles et morales sur leurs utilisateurs, qui va bienau-delà des quelques mots clés sur lesquels ils font des recherches : celacomprend notamment les actualités qu'ils consultent, leurs centres d'intérêt ,les blogs qu'ils suivent, les livres qu'ils aiment et autres détails privés surleur identité, leurs idéaux politiques, leur état de santé, leur vie sexuelle ,leur religion, leur situation financière et leurs préférences de consommation( voir Zimmer, 2008b). Il en résulte ce que John Battelle (2003) nomme une « basede donnée des intentions » : « Ces informations représentent, une fois regroupées, unconteneur des intentions de l'humanité, une base de données massive dessouhaits, besoins, désirs et passions que l'on peut découvrir, assigner ,archiver, suivre et exploiter dans toutes sortes d'objectifs. Un tel monstre n'aencore jamais existé dans l'histoire de la culture. Il a toutefois de bonneschances de grandir de manière exponentielle à l'avenir. Cet artefact peut nousrévéler des choses extraordinaires sur qui nous sommes et ce que nous voulonscomme culture ». De même que nos habitudes quotidiennes – comme l'utilisation des cartes decrédit, des distributeurs bancaires, des téléphones portables ou des systèmes depéage automatiques – laissent derrière nous d'innombrables « traces virtuelles »de nos activités, la quête du rappel parfait nécessaire à la construction dumoteur idéal a pour effet d'engendrer une infrastructure robuste de surveillancedes données ayant le pouvoir de contrôler et d'enregistrer l'historique desrecherches d'information des utilisateurs, les messages électroniques, lesbillets postés sur les blogs et leurs habitudes générales de navigation, donnant« une excellente source de connaissance de ce qu'une personne pense, et pas seulement de ce qu'elle fait » (Hinmann, 2005 : 23). Les images numériques et les contenus vidéo proliférant sur l'internet et le WordWide Web, les opérateurs de moteurs ont longtemps cherché à inclure ces contenusaudiovisuels dans leurs index. En 1995, Alta Vista créait l'événement en étantle premier moteur à proposer la recherche d'images, de contenus audio et vidéo ,une fonctionnalité bientôt reprise par les autres principaux moteurs del'époque, comme Lycos, HotBot et InfoSeek. Ces tout premiers services derecherche audiovisuelle intégraient l'accès à des fichiers multimédias en sebasant principalement sur l'extension des noms de fichiers (.gif, .avi, .au) etles références textuelles extraites du contexte comme les noms de fichiers, lesmétadonnées, les liens hypertextes ou les mots environnants (Schwartz, 1998 :979). Aujourd'hui, si certains moteurs spécialisés existent encore (Picsearch ,par exemple, permet de chercher dans plus de deux milliards d'images), lesservices de recherche audiovisuelle sont l'apanage des grands moteursgénéralistes. Google, Yahoo, Microsoft et Ask donnent tous la possibilité derechercher des fichiers images et vidéo, en utilisant les mêmes méthodes derecherche qu'Alta Vista a développées dix ans plus tôt. Même si l'identification du contenu des images pour la recherche d'informationdépend encore largement des métadonnées, on voit surgir des innovations dans larecherche audiovisuelle, en particulier des améliorations à la fois techniqueset sociales de ces services. Avec l'expansion des sites web de partage dephotographies, un secteur aujourd'hui dominé par Flickr, le nombre d'imagespersonnelles disponibles en ligne a explosé. Tout en fournissant une plateformerobuste et facile d'usage pour le téléchargement et le partage de photos enligne, l'innovation principale de Flickr réside dans le fait qu'il permet auxutilisateurs d'étiqueter les photos avec leurs propres descripteurs. Leschercheurs d'information peuvent ainsi trouver des images concernant tel domainecomme par exemple un nom de lieu ou un sujet thématique. Dès son rachat par lemoteur de recherche Yahoo, la base de données de Flickr, riche de plus de 100millions de photographies, a rapidement été intégrée aux résultats de recherched'image de Yahoo, augmentant de façon considérable la portée de son offre derecherche audiovisuelle14. L'exploitation des étiquettes des photos créées par les auteurs des images dansFlickr a aidé Yahoo à améliorer la précision de son moteur de recherche d'images: plutôt que d'utiliser le texte environnant ou simplement le nom de l'imagepour déterminer sa pertinence vis-à-vis de la requête, Yahoo peut à présenttirer profit des multiples étiquettes placées à bon escient par les individuspour décrire l'image. Google n'a pas tardé à développer sa propre méthoded'amélioration des résultats de recherche d'image en mettant au point son Image Labeler (Lensen, 2006). Les utilisateurs sontassociés aléatoirement par paire et une image de la base de données de Googleleur est présentée. Chaque internaute propose des mots clés pour décrirel'image, sans voir les propositions de l'autre. S'ils trouvent tous deux le mêmemot clé en moins de 120 secondes, ils gagnent des points. Bien que le dispositifsoit divertissant pour les utilisateurs, c'est aussi une manière intelligentepour Google de s'assurer que les images sont associées aux mots clés les plusappropriés. Parallèlement à l'utilisation croissante d'étiquettes produites par les individuset leur mise en réseau pour aider à identifier et à rechercher des images, desavancées dans la recherche d'images basées sur les technologies dereconnaissance automatique de formes ont considérablement amélioré la rechercheaudiovisuelle (Lew et al., 2006; Vasconcelos, 2007) .Plutôt que de reposer sur des métadonnées créées par les individus, les systèmesfondés sur le contenu cherchent à reconnaître et cataloguer différentes formes ,couleurs et textures dans les images, ce qui leur permet par exemple dedistinguer l'image d'un chien brun de celle d'une pomme rouge. La capacité dessystèmes de recherche d'images d'identifier automatiquement les visages et deles discerner fait depuis peu l'objet de toutes les attentions, à la fois pourdes applications policières et commerciales (Zhao et al. ,2003). De plus en plus, ces systèmes de reconnaissance faciale se développentdans le monde de la grande consommation et sont intégrés aux moteurs derecherche du Web. Ainsi, après avoir acheté Neven Vison, une entreprise quidéveloppe une technologie de détection et de reconnaissance d'objets et depersonnes dans les images, Google15 a -t-il amélioré son service de recherched'image en limitant les résultats aux seules images montrant des visages. Parexemple, une recherche d'image simple sur « Zimmer » donne différentsrésultats : de la voiture hors série du même nom à diverses images de chambressélectionnées au hasard (Zimmer signifie chambre enallemand) ainsi que plusieurs photos de personnes. Mais en sélectionnant le typede contenu « visages » dans le formulaire de recherche d'image avancée, onobtient uniquement des visages de personnes. Récemment, divers services de recherche audiovisuelle spécialisés enreconnaissance faciale ont été mis sur le marché. Lancé début 2006, le servicede recherche de photo Riya propose des services de reconnaissance faciale et dereconnaissance de texte pour identifier des visages dans la collection dephotographies numériques de l'utilisateur et les étiqueter en conséquence16. Unefois que l'utilisateur a entraîné manuellement le système en étiquetant levisage d'une personne sur un grand nombre de photos, le logiciel prend la relèveet peut analyser, identifier et étiqueter automatiquement cette personne surtoutes les autres photos qui seront chargées ultérieurement dans l'album del'utilisateur (Ribeiro, 2006). Un million de photos ont été téléchargées surRiya dans les deux premiers jours de son lancement et sept millions de photos aucours des sept premières semaines (Arrington, 2006). For t de son succès, Riya aannoncé son projet d'étendre ses technologies de reconnaissance faciale au-delàdes collections personnelles de photos en les appliquant désormais aux images enligne. Grâce à ce moteur de recherche visuelle encore en projet, lesutilisateurs pourront soumettre une image à Riya (le dessin d'un tapis, unephotographie de sac à main ou même le visage d'une personne) et obtenir enretour des images semblables trouvées en ligne (Arrington, 2006). Le site suédois Polar Rose projette des innovations similaires pour la recherched'image17. Plutôt que de compter sur les contributions des internautes quitéléchargent leurs albums d'images personnels pour qu'ils soient analysés (commeRiya), Polar Rose prévoit de mettre à disposition une extension Web (plug in) qui identifiera les visages dans les images surpratiquement n'importe quel site, permettant aux utilisateurs d'étiqueter lesvisages qu'ils reconnaissent lors de leurs navigations sur le Web (Simonite ,2006). Ces données seront ensuite envoyées au serveur central de Polar Rose, cequi permettra à n'importe qui, regardant une image où apparaît un visage donné ,de dire de qui il s'agit, et de confirmer ou de corriger sa description. Ainsil'internaute qui verrait une photo représentant de manière évidente Bill Gates ,mais étiquetée comme représentant Steve Jobs, pourra -t-il rendre Polar Rose plus« intelligent » en corrigeant l'erreur. Les utilisateurs pourront aussi chercheren ligne d'autres photos contenant ce visage, en se fondant sur les donnéesbiométriques uniques créées par Polar Rose pour ce visage. Pour résumer, les services de recherche audiovisuelle ont fait l'objet denombreux progrès technologiques, notamment en intégrant des images produites parles utilisateurs dans leurs index interrogeables, grâce à l'étiquetagegénéralisé des fichiers images et au déploiement de systèmes de reconnaissancede visages capables d'apprendre avec l'aide de l'utilisateur. Grâce à cesinnovations, les fournisseurs ont pu étendre la portée de leurs services derecherche en ligne pour intégrer une quantité toujours plus grande d'imagesproduites par les utilisateurs et accessibles sur l'internet. En fait, certainsmoteurs de recherche ont pour seule vocation de donner accès à des contenusaudiovisuels, comme le projet scientifique européen de recherche d'informationmultimédia Quaero, dont l'un des buts est de faciliter l'accès aux archives dupatrimoine audiovisuel et aux bibliothèques numériques18. En même temps, alorsque ces nouveaux outils de recherche audiovisuelle donnent aux utilisateursl'opportunité de chercher des visages, des sons, des vidéos et des lieux, lesopérateurs de moteurs peuvent mieux accéder aux souhaits et désirs desutilisateurs, améliorant leur capacité à mieux « se souvenir » de leursintentions. Par exemple, si le moteur sait qu'un utilisateur rechercheessentiellement des vidéos de célébrités plutôt que des photos de sitestouristiques européens, cela peut l'aider à fournir des résultats pluspertinents pour une recherche sur les mots « Paris Hilton ». En somme, le moteurde recherche parfait devient de plus en plus audiovisuel. L'amélioration de la portée et du rappel dans la quête du moteur parfait faitpeser des menaces spécifiques sur la vie privée. Le fait que le moteur idéaldevienne de plus en plus audiovisuel fait émerger de nouvelles menaces peut êtreencore plus pesantes. Les tentatives d'ajout de composants audiovisuels aumoteur de recherche idéal exacerbent les menaces pour la vie privée, à la foisdans la recherche de l'amélioration du rappel et de la portée parfaites. Comme nous l'avons décrit, la portée parfaite des moteurs de recherche a misà mal « l'intimité par non-visibilité » des individus en rendant visiblesles sites web, les documents et autres fichiers en ligne qui étaientauparavant difficiles à localiser ou auxquels on ne pouvait pas facilementaccéder. L'émergence de composants audiovisuels accélère la désintégrationde la vie privée par non-visibilité au fur et à mesure que les utilisateursperdent chaque jour un peu plus le contrôle sur les possibilités d'accéderet d'identifier leur apparence en ligne. Les sites de partage d'images commeFlickr ont simplifié les fonctions de chargement, d'étiquetage et de partagedes images, qu'il s'agisse des siennes propres ou de celles des autres. Avecl'ubiquité des appareils photographiques intégrés aux téléphones portables ,il devient possible de filmer presque n'importe quel moment de la vie dequelqu'un, de l'étiqueter et de le mettre en ligne à la disposition de tous .Depuis l'intégration des images de Flickr aux résultats de la recherched'images sur Yahoo, les internautes n'ont plus besoin d' être membres de lacommunauté Flickr (ou même de savoir qu'elle existe) pour accéder aux imagesque ce service stocke. Par conséquent, n'importe qui pourra été pris enphoto, laquelle sera ensuite mise en ligne, étiquetée avec son nom etdécouverte grâce au moteur de recherche Yahoo sans même qu'il le sache19 .Comme il arrive souvent que des personnes soient prises en photo (notammentdans les lieux publics), cette nouvelle possibilité d'avoir des imagesétiquetées et accessibles via la recherche à desmillions de personnes menace les normes actuelles de vie privée du fait quel'apparence de tout un chacun est mise à la disposition du grand public. Cette inquiétude est exacerbée par la prédominance de métadonnées détaillées .Les appareils photo numériques utilisent généralement le format d'échange defichier Exif, qui enregistre diverses métadonnées dans chaque image, ycompris la date et l'heure, les paramètres de réglage de l'appareil, uneimage réduite de prévisualisation sur l'écran de l'appareil photo ou dans unlogiciel, et éventuellement des informations concernant les droits d'auteur .De nombreuses images sont géocodées à l'aide d'étiquettes d'information surle lieu, soit manuellement par l'utilisateur, soit automatiquement grâce àun système de gps intégré à l'appareil photo lui -même. Ces métadonnéesdétaillées peuvent être consultées (et souvent on peut faire des recherchesdessus) sur des sites de partage de photographie en ligne, ce qui permet auxutilisateurs de savoir précisément quand et où telle photo a été prise. Parconséquent, de plus en plus de photos de personnes sont disponibles en ligneà leur insu et, par ailleurs, elles sont accompagnées d'une mined'informations détaillées sur le lieu et le moment où cette personne setrouvait quand la photo a été prise, détériorant encore un peu plus la touterelative « intimité par non-visibilité ». L'émergence d'outils robustes de reconnaissance faciale pour identifier etrechercher des images en ligne donne un autre exemple où la puissance de laportée du moteur de recherche audiovisuel parfait menace la vie privée( voir, pour une approche globale, Granick, 2005; Inman, 2007). Plus besoindes utilisateurs pour identifier le visage d'une personne dans une photoFlickr et l'étiqueter : il est désormais facile de découvrir des visages àpartir de ses caractéristiques biométriques uniques. Avec des services telsque Riya ou Polar Rose, un utilisateur peut charger des douzaines de photospersonnelles pour entraîner le logiciel à apprendre à reconnaître son proprevisage, ce qui rendra plus facile l'étiquetage de futures images. Cependant ,Riya exploite ce profil facial pour permettre également aux autresutilisateurs de rechercher et d'identifier des images. Ainsi un utilisateurdifférent pourra -t-il soumettre une photo trouvée au hasard en ligne; lelogiciel Riya analysera sa base pour apparier les visages, et étiquetteraautomatiquement tout visage reconnaissable parmi les nouvelles images. Lesutilisateurs pourront aussi balayer et analyser tout le Web pour des visagesqu'ils ont entraîné Riya à reconnaître. Un autre utilisateur avaitauparavant peu de moyens à disposition pour identifier une personne sur unephoto mais, avec les outils de reconnaissance faciale comme Riya et PolarRose, l'identification de visages inconnus devient bien plus facile. Enoutre, Polar Rose facilite la recherche en ligne d'autres images comportantle visage de cette personne. Cela peut amener à trouver des images sur dessites de réseaux sociaux, des pages personnelles, des sites Webprofessionnels, etc. Même si toutes ces images étaient visiblespubliquement, il aurait été difficile pour un utilisateur commun de savoirqu'elles existent toutes, ou de savoir où les trouver. Avec ces nouveauxoutils sociaux de reconnaissance faciale, les internautes perdent leurcapacité de contrôler le contexte et la communauté dans laquelle certainesimages peuvent être visualisées. Les menaces sur la vie privée qu'amène avec elle l'extension de la portée dela recherche audiovisuelle ne sont pas les seules : des menaces similairesse profilent avec l'amélioration du rappel du moteur de recherche idéalgrâce à la présence de contenus audiovisuels. À l'instar des requêtesgénérales des internautes qui sont suivies à la trace et enregistrées parles moteurs de recherche pour aider à prévoir leurs souhaits et leursbesoins, les termes des requêtes audiovisuelles – des noms, des lieux, de lapornographie, etc. – peuvent également être interceptées et potentiellementassociées aux comptes utilisateurs. Plus que simplement embarrassantes ,certaines requêtes pourraient éclairer les points de vue sur la société oula politique d'un individu, et éventuellement s'avérer d'une légalitédouteuse. Tout comme les représentants de la loi ont manifesté leur intérêtpour le pistage ou le recueil des activités générales de recherche, ilspourraient bien prêter attention aux recherches audiovisuelles sur deséléments controversés ou illégaux comme la pornographie enfantine, lescaricatures du prophète Mahomet, les souvenirs nazis ou les contenusprotégés par un droit d'auteur. Bref, l'ajout de contenus audiovisuels auxservices de recherche du Web rend possible des requêtes spécifiques quimenacent de rendre la « base de données des intentions » plus détaillée etpotentiellement plus préjudiciable. En s'efforçant de rendre les contenus audiovisuels aussi « universellementaccessibles et utiles » que leurs homologues textuels, les fournisseurs deservices de recherche sur le Web ont ajouté à leur offre de nouveaux outilspuissants, tels que l'insertion d'images produites par les utilisateurs, unétiquetage des photographies et des métadonnées robustes, et l'émergenced'outils de reconnaissance faciale sophistiqués mis entre les mains del'internaute ordinaire. Ces améliorations audiovisuelles sont porteuses demenaces importantes pour la vie privée, puisque la portée comme le rappel dumoteur de recherche parfait incluent désormais des visages de personnes, desidentifiants biométriques et l'historique des types de contenus multimédiasqu'ils recherchent. Il en ressort donc une sorte de pacte avec le diable : lestechnologies de recherche audiovisuelle promettent de mettre au point le moteurde recherche parfait en rendant disponible une mine de contenus multimédias –dont la plupart sont produits par les utilisateurs – tout en puisant dans lesmétadonnées et l'idéologie Web 2.0 qui pousse les individus à identifier etmarquer les images disséminées sur le Web pour faciliter les recherchesd'information futures. Mais elles suscitent aussi des inquiétudes quant à laprotection de la vie privée, parmi lesquelles la perte continue de « l'intimitépar non-visibilité », le fait que les utilisateurs n'aient plus le contrôle surle téléchargement d'images qui les représentent, sur l'étiquetage de leursvisages et le fait que les activités de recherche audiovisuelle puissentalimenter une « base de données d'intentions » toujours plus vaste, collectéespar les opérateurs de moteurs de recherche. De quelles options disposons -nous pour renégocier notre pacte avec le diable pources outils de recherche audiovisuels émergents ? D'abord, nous devons élargirnotre conception de l'intimité et de la vie privée aux contenus disponibles enligne, y compris les images mises en ligne par les particuliers ou prises dansdes lieux publics. Il devient essentiel d'adopter une notion plus contextuellede la vie privée (Nissenbaum, 2004; Barth et al. 2006 ;Zimmer, 2008a) qui admette que ce n'est pas parce qu'une personne se trouve dansun lieu public qu'on a le droit de la photographier, de télécharger cette imagesur le Web, de l'identifier, de l'étiqueter et de faire éventuellement uneanalyse biométrique du visage créé pour la partager avec tous. Certaines imagessont destinées à un contexte particulier et cumuler toutes ces actions – mêmedans le but d'améliorer le moteur de recherche parfait – pourrait encoreconstituer une violation de la vie privée. En second lieu, nous devons explorer de nouveaux cadres légaux et denormalisation pour faire face au flux croissant d'images personnelles en ligneet au développement de technologies sophistiquées pour les identifier, lesétiqueter et permettre de les rechercher. Dans certaines juridictions où leslois actuelles restreignent la possibilité de collecter et de publier desinformations personnelles sans consentement explicite, il a été envisagéd'étendre ces protections aux images en ligne qui contiennent des visagesd'individus identifiables (e.g le Commissariat à laprotection de la vie privée du Canada, 2008). En réaction à de tellescontraintes légales (existantes ou potentielles), certains fournisseurs deservices de recherche de contenus audiovisuels ont commencé à masquer les imagesidentifiables pour tenter de protéger la vie privée des individus qui auraientpu être filmés ou pris en photo (bbc News, 2008; Bergstein, 2008). D'autres mesures juridiques de protection pourraient prendre la forme duprocessus d' « avertissement et retrait » [« notice andtakedown »] utilisé pour les violations présumées des droits d'auteurdans la loi américaine sur le droit d'auteur numérique (Digital Millennium Copyright Act ou DMCA). D'après le DMCA (et la loisur la limite de responsabilité en cas de violation du droit d'auteur en ligne) ,les fournisseurs de services en ligne se voient offrir le bénéfice du « safe harbor » (sphère de sécurité) s'ils retirentimmédiatement le contenu après que quelqu'un se soit plaint d'une violation deses droits d'auteur. Pour faciliter cela, de nombreux site internet ont créé desprocédures d' « avertissement et retrait » fiables permettant aux détenteurs dedroits d'auteurs de les aviser en cas de réclamation pour violation. Parexemple, le moteur de recherche Google a mis en place des instructions et desprocédures très complètes pour gérer les notifications de violation de droitsd'auteur20. Ces procédures pourraient être modifiées afin de prendre en compteles préoccupations liées à la protection de la vie privée des utilisateursplutôt que celles liées à la violation des droits d'auteur. Plus précisément ,plutôt qu'un détenteur de droits d'auteurs n'adresse une notification en casd'une violation potentielle, notification suivie du retrait du contenu enquestion, les particuliers devraient pour voir envoyer un avertissement auxfournisseurs de services de recherche audiovisuelle si telle image ou vidéoconstitue une violation de leur vie privée, obligeant ainsi le fournisseur àprendre des mesures raisonnables pour retirer ou masquer les informationspersonnelles identifiables. Finalement, il existe diverses options technologiques pour atténuer les risquesque présentent les nouveaux outils de recherche audiovisuelle pour la vieprivée. Même en l'absence d'obligations légales ou réglementaires, lesfournisseurs d'outils de recherche audiovisuelle pourraient proposer desinterfaces conviviales pour les personnes souhaitant demander le retrait de leurimage publiée en ligne. Par exemple, la fonctionnalité StreetView du service cartographique de Google, qui fournit des images desrues prises au niveau du sol, offre la possibilité de signaler des images« inappropriées », notamment celles qui montrent des visages, des façades demaison et des plaques d'immatriculation. Des fonctionnalités similairespourraient être ajoutées aux autres systèmes de recherche audiovisuelle pourpermettre aux particuliers de demander de manière simple et pratique le retraitde leur image. Une seconde option technologique relève des mêmes avancées de reconnaissancefaciale qui permettent aux systèmes de recherche audiovisuelle comme Riya defonctionner, tout en donnant à l'individu la pleine possession de la signaturenumérique de son visage créée par les algorithmes de reconnaissance faciale .Doté de la signature numérique de son propre visage, l'utilisateur pourraitalors disposer d'outils qui parcourent automatiquement le Web à la recherched'images correspondant à cette signature, aidant ainsi à identifier les imagesmises en ligne sans son accord. Ou encore, à l'instar des services de gestion decrédits à la consommation qui aident à prévenir les usurpations d'identité ensignalant automatiquement aux individus lorsque de nouvelles opérations ouactivités apparaissent sur leur relevé de transactions personnel, des tiers deconfiance pourraient prévenir automatiquement les utilisateurs de la mise enligne ou de l'étiquetage d'une image correspondant à la signature numérique deleur visage, ce qui permettrait à l'utilisateur d'entreprendre l'action qu'iljuge nécessaire. Quant au fait que les activités de recherche des utilisateurs puissent êtresuivies et intégrées dans une « base de données des intentions », lesfournisseurs de recherche audiovisuelle devraient suivre le « code de bonneconduite en matière d'information » (« Fair InformationPractice Principles ») des commissions fédérales du commerce desÉtats-Unis et donner accès aux utilisateurs aux données recueillies sur leursactivités de recherche21. Les utilisateurs devraient bénéficier d'un accès auxdonnées collectées et conservées à leur sujet – c'est-à-dire consulter lesdonnées enregistrées dans les fichiers d'un organisme –, et pouvoir contesterl'exactitude et la complétude des données. Pour revêtir tout son sens, cettemesure devrait comporter un droit d'accès sans délai et peu coûteux aux données ,un moyen simple de contester les données inexactes ou incomplètes, et desupprimer les données incorrectes ou non souhaitées des historiques de larecherche22. En somme, le développement d'outils de recherche audiovisuelle puissants peutfaire considérablement avancer la quête du moteur de recherche parfait. Mais cen'est qu' à la condition que soient abordées les multiples préoccupationsconcernant la vie privée – en élargissant notre conception de la vie privée, encréant des politiques de protection et en s'engageant dans une conceptiontechnologique respectueuse de la vie privée – que nous éviterons de suivre lemême chemin que Faust, en pactisant avec le diable en échange de l'accès à laconnaissance universelle. 1L'auteur remercie les organisateurs et les participants du Forum on Quaero : A Public Think Tank on the Politics of the Search Engine[ Forum sur Quaero : groupe de réflexion public sur lapolitique du moteur de recherche ], hébergé par l'Académie Jan van Eycket l'atelier expert Audiovisual Search : Regulator yChallenges for Audiovisual Abundance [Rechercheaudiovisuelle : défis réglementaires pour l'abondance audiovisuelle] ,hébergé par l'Institut du Droit de l'information de l'université d'Amsterdam ,pour avoir permis la présentation de cette recherche et pour leurs remarques .L'auteur adresse également ses remerciements aux relecteurs externes de Questions de communication pour leurs précieusessuggestions. Ce travail a été en partie soutenu par le Projet Société de l'information de la Yale Law School (New Haven ,Connecticut). 2 « 0rganize the world's information and make it universallyaccessible and useful », Companyover view ,( consulté le 03/06/06). 3 « A perfect search engine [that] will process and understandall the information in the world », « GoogleReceives $25 million in equity funding [pressrelease] », Google Press Center, 07/06/99 ,( consulté le18/08/06). 4 « Exactly what you mean and give back exactly what youwant », Our philosophy ,( consulté le27/03/07) 5 Par exemple, en septembre 2007, l'Académie Jan van Eyck (Maastricht, Pays-Bas) ,en collaboration avec la Maison Descartes, l'Institut français des Pays-Bas, atenu un forum critique sur le projet européen de recherche d'informationaudiovisuelle Quaero (voir). S'ensuivit, en avril 2008, un atelier d'experts sur les défis de réglementationauxquels doivent faire face les moteurs de recherche d'informationaudiovisuelle, à l'Institut pour le Droit de l'information de l'Universitéd'Amsterdam. 6 S. Hansell, « Microsoft plans to sell search ads of its own », The New York Times (26/09/05 : C1, C8). 7 En recherche d'information, le rappel [recall] mesurela proportion de documents pertinents effectivement retrouvés par un système derecherche. Nous avons conser vé la traduction par le terme de rappel même si ,ici, le terme est employé dans un sens plus général de « mémoire » ou« remémoration ». 8 Google Privacy faq ,( consulté le 03/03/06); iacSearch & Media, 13/07/05, Privacy policy forAsk.com ,privacy.shtml (consulté le 06/01/07) ;Yahoo !, 11/11/06, Yahoo ! Privacy policy ,. yahoo.com/privacy/us/yahoo/details.html (consulté le 06/01/07). 9 « We collect […] anonymous information to improve the overall quality of theonline experience, including product monitoring, product improvement, targetedadvertising, and monetizing commercially oriented search keywords », Google Privacy faq, .google.com/privacy_faq.html (consulté le 03/03/06). 10 IAC Search & Media, 13/07/05, Privacy policy forAsk.com ,privacy.shtml (consulté le06/01/07). 11 Wikipedia liste plus de cent produits et services différents proposés parGoogle et plus de cinquante par Yahoo. 12 Ironiquement, Google a puni le CNET pour cette publication d'informationpersonnelle sur E. Schmidt – information trouvée grâce à leur propre moteur derecherche – par un boycott d'un an de son service d'actualité. Face à lacritique générale, Google a mis fin au boycott deux mois plus tard. 13 Une recherche sur mon nom révèle des messages (il est vrai que je les avaisoubliés) dans les forums de discussion Usenet du début des années 90, sur dessujets allant du droit à l'avor tement, au catholicisme, en passant par leféminisme, le marketing et le tableur Lotus 1-2-3. Yahoo !, « Flickr-izing image search », Yahoo ! Search Blog, 26/06/07 ,( consulté le 10/07/07). 15 « A better way to organize photos ? », Official GoogleBlog, 15/08/06 ,.blogspot.com/2006/08/better-way-to-organize-photos.html( consulté le 15/08/07). 16 Voir. 17 Voir. À l'heure où nous rédigeons cettecontribution, Polar Rose est encore en version d'essai et d'accès privé. 18 Voir 19 Par exemple, une recherche sur « Michael Zimmer » viala recherche d'image de Yahoo montre une photo de moi donnant uneconférence, étiquetée avec mon nom et postée sur Flickr, tout cela à moninsu. 20 Voir 21Voir la section 3, « Accès/participation » du Code de bonne conduite en matièred'information de la Commission fédérale du commerce des États-Unis, disponibleà :. 22Pour un nom d'utilisateur ou une adresse ip, les fournisseurs de services derecherche pourraient fournir une liste de toutes les requêtes réalisées sur unecertaine période, ainsi qu'une interface utilisateur afin de modifier oud'effacer les enregistrements dans le fichier des données mémorisées. Toutefois ,l'authentification de l'identité de l'utilisateur qui demande àconsulter/modifier l'historique de la recherche reste un défi majeur pour cettefonctionnalité .
L'internet devient de plus en plus une plateforme de création, de stockage et de partage de contenus multimédias produits par les utilisateurs. Par conséquent, les fournisseurs de moteurs de recherche s'efforcent d'étendre les fonctionnalités et la portée de leurs technologies pour rendre ces contenus audiovisuels aussi « universellement accessibles et utiles » que leurs homologues textuels. Cependant, l'émergence d'outils de recherche audiovisuels puissants suscite de nouvelles inquiétudes quant à la façon dont les moteurs de recherche s'immiscent dans la vie privée. Cette contribution fait le point sur certaines technologies émergentes de recherche dans les données audiovisuelles comme l'intégration des images produites par les utilisateurs dans les index des moteurs, le marquage et les métadonnées enrichies des photographies, ainsi que les outils de reconnaissance faciale destinés aux utilisateurs. En outre, elle montre comment, dans le contexte de la quête de la perfection des moteurs de recherche, ces technologies sont une source de préoccupation croissante pour la protection de la vie privée.
sciencesInfo_09-0474882_tei_1127.xml
termith-496-communication
Toute entreprise de classification nécessite un ensemble approprié de descripteurs. Il en va ainsi en matière de classification textuelle : au même titre qu'il serait peu pertinent de proposer des descripteurs tels que « taille » ou « couleur des yeux » pour caractériser les profils financiers d'utilisateurs de comptes bancaires, il serait inapproprié de décrire les textes scientifiques à partir de variables certes discriminantes en matière de typologie textuelle littéraire mais fondamentalement absentes du discours scientifique, e.g. « nombre de marques de dialogue », ou « nombre de verbes conjugués au passé simple ». Les classifications textuelles en domaines et en genres, qui représentent un enjeu pour la Recherche d'Information (RI), nécessitent de même un ensemble de descripteurs linguistiques adéquats. Dans les faits, domaines et genres sont associés à des niveaux linguistiques différents. Quand il s'agit de classification thématique ou domaniale, les textes sont souvent réduits à l'état de « sacs de mots ». Chaque document est alors décrit par le vocabulaire présent dans le corpus. Étant donné la taille de ce vocabulaire, une étape de réduction de l'espace de description est généralement effectuée 1 : sélection d'attributs par des mesures d'intérêt, reparamétrage de l'espace ou regroupement d'attributs. Ces formalismes d'indexation permettent d'obtenir des classifieurs performants, atteignant jusqu' à 90 % de précision sur grands corpus (Hofmann, 1999; Dhillon et al., 2003). De la même manière, les classifications en genres à partir d'un jeu de variables morphosyntaxiques robuste sont à même d'obtenir de très bons résultats en matière de validation de typologies textuelles (Karlgren et al., 1994; Kessler et al., 1997; Malrieu et al., 2001). On notera toutefois que la plupart des travaux recensés effectuent de la classification domaniale sur corpus génériquement homogènes (e.g. Reuters ou Newsgroup), et de la classification générique sur corpus discursivement 2 hétérogènes (e.g. (Karlgren et al., 1994; Kessler et al., 1997; Malrieu et al., 2001)), ce qui augmente le pouvoir classificatoire des variables employées mais limite l'utilisation conjointe et l'évaluation de la portée des deux niveaux descriptifs. Bien que de nombreuses applications de RI partent de données génériquement hétérogènes mais de même domaine, ce type de classification demeure problématique et est rarement mené étant donné la robustesse des jeux de variables utilisés. Nous nous proposons d'évaluer l'impact des variables thématiques et morphosyntaxiques sur les classifications génériques et domaniales à partir d'un corpus pilote de taille restreinte développé à cet effet. Nous déterminerons ainsi les variables les plus discriminantes selon les typologies et apprécierons l'intérêt d'une utilisation conjointe des deux niveaux descriptifs. Après un bref rappel des notions de domaines et de genres en RI, nous reviendrons sur les relations entre les deux concepts en section 2. La partie 3 présente la méthoologie que nous avons développée pour réaliser l'expérience, de même que le corpus test utilisé. Enfin, les sections 4 et 5 sont dédiées aux aspects expérimentaux de cette évaluation et à l'analyse des résultats obtenus. Bien que les notions de genres et de domaines soient de plus en plus exploitées en RI, elles sont rarement utilisées conjointement, dans la mesure où elles sont généralement associées à des variables ou traits appartenant à des niveaux linguistiques différents. Les domaines se situeraient sur le plan lexical, tandis que les genres, ou les styles, seraient déterminés au niveau morphosyntaxique. Ainsi, les domaines sont souvent décrits en termes de relations lexicales, dans la mesure où ils sont supposés être le reflet de champs de connaissance particuliers. Ils se positionnent donc sur le plan du contenu, que différentes techniques de classification de documents ont tenté d'appréhender. Les mesures les plus fréquentes sont calculées sur les mots, les clusters de mots - inégalement appelés « thèmes », « sujets », « topics », etc. - ou encore les racines (ou word stems) (Porter, 1980), et se sont avérées plutôt efficaces dans diverses entreprises. De manière générale, on demeure au niveau du mot en raison de son faible coût de traitement. La notion de genre 3, philologique et littéraire au départ, est de plus en plus employée en RI et catégorisation textuelle (Prime-Claverie et al., 2002; Crowston et al., 2004). En effet, le genre possède des propriétés linguistiques formelles qui permettent de l'identifier et de le différencier : certains marqueurs sont ainsi absents de certains genres, comme les points d'exclamation dans les textes juridiques. De manière générale, on recourt aux parties du discours, de même qu' à des catégories fonctionnelles pour discriminer et décrire les genres. A la suite de Biber (Biber, 1988), c'est l'utilisation de variables morphosyntaxiques qui a été privilégiée pour valider des typologies textuelles et identifier les genres. On considère généralement que les genres et les domaines sont des notions orthogonales. Il est souvent souligné qu'on peut retrouver des domaines distincts à l'intérieur de genres différents, et inversement, ce qui laisserait penser que les deux dimensions sont indépendantes. Les deux niveaux de caractérisation des notions sont par conséquent rarement utilisés de manière conjointe; certaines études (e.g. (Poudat et al., 2003; Lee et al., 2002)) ont pourtant corrélé des variables lexicales aux genres et ont obtenu des résultats tout à fait encourageants. La classification des domaines à partir du niveau morphosyntaxique reste encore, à notre connaissance, en suspens. Pourtant, il semble qu' à l'instar des genres, les domaines sont susceptibles d'entraîner des régularités stylistiques. Prenons par exemple le cas du discours scientifique : la pratique sociale de la « communication scientifique » a donné lieu à la création d'un ensemble de genres tant écrits qu'oraux (articles, actes, présentations de conférence, etc.), dans laquelle on retrouve des « domaines » correspondant aux différentes aires de l'activité scientifique (médecine, économie, recherche d'information, informatique, etc.). L'ensemble des productions de cette pratique communicative, qui partagent des propriétés linguistiques communes, forme ce que l'on appelle le « discours scientifique ». Si les genres ont développé au sein de cette pratique une structure et un style propre qui permettent de les identifier par-delà les domaines - on reconnaîtra un article scientifique, qu'il porte sur le domaine médical, biologique ou informatique -, il paraît raisonnable d'émettre l'hypothèse que les domaines peuvent être discriminés au moyen de variables morphosyntaxiques. Notre objectif étant d'évaluer l'intérêt des niveaux morphosyntaxiques et thématiques en matière de classifications en genre et en domaine, il nous semble toutefois primordial d'initier cette entreprise sur un corpus textuel discursivement homogène 4, quitte à étendre l'étude à un corpus plus large et plus hétérogène dans une étape ultérieure. Les notions de domaines et de genres intéressant spécifiquement le discours scientifique et les applications qui s'y attachent (veille scientifique et technique, recherches documentaires, etc.), c'est sur un corpus de textes scientifiques français que nous avons travaillé. Comme les textes scientifiques sont soumis à de fortes contraintes rédactionnelles qui limitent leur(s) variation(s), ils possèdent des propriétés de genre plus stables qui conviennent particulièrement à notre entreprise. Parmi les variables lexicales envisageables, ce sont les substantifs que nous avons sélectionnés. En effet, les noms sont des parties du discours non vides davantage susceptibles de pointer sur des concepts scientifiques, que les adverbes, verbes ou adjectifs. Ils sont donc potentiellement plus discriminants et peuvent aisément être extraits. Le poids des substantifs au singulier et au pluriel (dans la mesure où ils peuvent renvoyer à des concepts différents, e.g. « la langue » en linguistique ne renvoie pas à la même notion que « les langues ») a également été pris en compte. Dans un deuxième temps, nous avons sélectionné 136 variables morphosyntaxiques dédiées au discours scientifique : il serait en effet peu pertinent de décrire les textes scientifiques à partir de descripteurs trop généraux ou non caractéristiques qui n'incluent pas ses traits spécifiques. Outre les parties du discours traditionnelles (noms, adjectifs, verbes, adverbes prépositions, etc.), nous avons donc retenu un ensemble de traits « caractéristiques » du discours scientifique dans la littérature existante (tableau 1). Variable Description ABR Abréviations CON (+ attributs ) Connecteurs : addition, cause, conséquence, conclusion, exemplification, disjunction, opposition, reformulation, espace, temps, etc . FGW Eléments étrangers (non français ) NUM (+ attributs ) Numéraux : dates, cardinaux, ordinaux + références dans le text (e.g. « Voir en 1.2 » ) LS Indices de structuration (titres et listes ) PON (+ attributs ) Ponctuation : deux points, crochets, guillemets, parenthèses, slashs, etc . VER :mod : Principaux traits caractéristiques du discours scientifique [temps] Modaux SIG Acronymes SYM Symboles Nous avons été contraints d'exclure les corpus de référence traditionnels comme Reuters ou Newsgroup en raison de leur homogénéité générique et avons été développé un corpus pilote adapté à notre problématique. Le corpus est de taille restreinte : il contient au total 371 textes scientifiques français publiés autour de 2000. Trois genres (articles, présentations de revue et comptes rendus) et deux domaines différents (linguistique et mécanique) y sont représentés. La répartition des documents de ce corpus est présentée dans le tableau 2. Les spécificités des expérimentations présentées infra nous ont amené à effectuer différentes partitions du corpus correspondant à des tâches de classification distinctes : ART-corpus correspond au sous-corpus constitué uniquement des textes de genre « article » (1ère ligne du tableau 2), LING-corpus correspond au sous-corpus constitué uniquement des textes de domaine « linguistique » (1ère colonne du tableau 2). Présentation du corpus utilisé Linguistique Mécanique Articles 224 49 Présentations de revues 45 Comptes rendus 53 L'étiquetage a été réalisé à partir des textes bruts via un processus incrémental d'apprentissage avec le tagger TnT (Trigrams'n'Tags) (Brants, 2000) sur le jeu d'étiquettes sélectionné. La classification (ou catégorisation) automatique de documents a donné lieu à de nombreux travaux recourant aux méthodes d'apprentissage automatique. Les techniques les plus utilisées dans ce domaine d'application sont : le classifieur naïf de Bayes (Lewis et al., 1994), les machines à support vectoriel (SVM) (Joachims, 1998) ou encore les arbres de décisions (Cohen et al., 1998). Les expérimentations que nous proposons par la suite visent à (1) évaluer l'influence de chaque type de description sur la classification (précision du classifieur) et (2) observer l'articulation des deux ensembles d'attributs combinés dans un même classifieur. Dans cette perspective, nous utilisons deux méthodes très différentes mais complémentaires de ce point de vue, à savoir la classification par SVM et par arbres de décision. Les SVMs sont reconnus pour leurs performances inégalées dans l'application à la catégorisation de textes (Dumais et al., 1998). De manière simplifiée, cette méthode consiste à apprendre un classifieur dans un nouvel espace d'attributs de dimension plus importante que l'espace initial. Ce nouvel espace peut être obtenu par différents types de fonctions noyaux (e.g. linéaire, polynomial, RBF, etc.) 5. Plusieurs études empiriques (e.g. (Dumais, 1998)) ayant montré que les meilleures performances en classification de textes sont obtenues avec des SVMs linéaires, c'est ce type de noyau que nous avons retenu dans nos expérimentations. La classification par SVMs permettra alors d'appréhender quantitativement l'importance de chaque ensemble d'attributs : lexical, morphosyntaxique et combiné, notés respectivement. Les Arbres de Décision (ADs), contrairement aux SVMs, procèdent par apprentissage symbolique. Bien que moins performants sur cette application, les arbres générés par cette méthode permettent l'analyse et l'interprétation du rôle joué par chaque attribut. La présence et la position d'un attribut dans l'arbre indique son importance dans le processus de classification ainsi que la classe favorisée par ce dernier De l'arbe peut être extrait un ensemble de règles explicatives « caractérisant » les classes ciblées. Dans nos expérimentations, nous utiliserons l'algorithme C4.5 (Quinlan, 1993). Afin de mesurer l'impact des différents jeux de variables sur les classifications en genre et en domaine, il est nécessaire d'observer l'influence de chacun des trois ensembles d'attributs sur le corpus global et les corpus locaux 6 Soient D un ensemble de textes scientifiques et C un ensemble de classes (genre domaine selon l'étude) tels que chaque texte di ∈ D est associé à une unique classe c (di) ∈ C. D est divisé en deux sous-ensembles, d'entraînement et de test, notés respectivement Dtrain et Dtest. On note l'ensemble ordonné des substantifs (singuliers et pluriels) apparaissant dans les textes de Dtrain (description lexicale). Les substantifs sont ordonnés par Information Mutuelle (IM) décroissante. Soit C la variable de classe et li une variable lexicale de L : On note l'ensemble ordonné des 136 attributs morphosyntaxiques décrit en section 3.1. On utilise le Gain d'Information (GI) pour mesurer l'intérêt de chaque attribut pour la classification cible et ainsi ordonner M : Les attributs dans M sont continus (e.g. % prépositions); ils sont alors discrétisés de façon analogue à l'algorithme C4.5 (Quinlan, 1993). Ainsi dans [2 ], les valeurs de s correspondent aux différents seuils de discrétisation possibles pour les valeurs de mi, aux sous-ensembles de documents induits par cette discrétisation. Enfin, E désigne la fonction « entropie », EC (X) mesurant la pureté d'un ensemble X étant donné une schéma de classification attendu C : Rappelons que dans [3 ], c (xi) indique la classe associée à l'élément xi. Enfin, correspond à une fusion ordonnée des deux ensembles d'attributs L et M, suivant l'ordre d'alternance suivant :. Les expérimentations présentées en section 4 correspondent à des résultats moyens obtenus sur 5 validations croisées à 2 blocs (2-fold cross-validations) : D est divisé en deux sous-ensembles de tailles équivalentes, chaque sous-ensemble étant utilisé à son tour comme corpus d'entraînement et de test. Les valeurs reportées correspondent à des micro-précisions 7. Concernant l'apprentissage par SVM, dans le cas de problèmes multiclasses plusieurs SVMs sont appris (un par classe) puis combinés. Nous considérerons, dans ce qui suit, plusieurs sous-corpus correspondant chacun à une tâche différente de classification. En premier lieu, les expérimentations présentées porteront sur une classification en domaines. Sur le corpus local (ART-corpus), la classification consistera à distinguer les deux domaines « linguistique » et « mécanique » pour un ensemble de documents homogène en genre (uniquement des articles). Le corpus « global » permettra en revanche d'appréhender l'introduction d'un paramètre de variation générique (articles, présentations et compte rendus). De façon analogue, dans un second temps, la classification en genre sera expérimentée sur un corpus « local » homogène en domaine (LING-corpus) puis sur le corpus « global » faisant intervenir une variation générique au sein des domaines. Les résultats obtenus avec la méthode SVM (figures 1 et 2) montrent clairement et contre toute attente que les variables morphosyntaxiques sont plus discriminantes que les variables lexicales. De plus, on note qu'une utilisation conjointe des deux types de variables est globalement plus efficace que chacun des deux ensembles choisi séparément. On obtient donc l'ordre de précédence suivant, avec ou sans variations génériques : D'autres tests, effectués avec C4.5 indiquent les mêmes tendances, bien que les taux de précision obtenus par les ADs soient moins bons qu'avec la méthode SVM. L'indexation par le lexique semble également moins pertinente qu'une indexation morphosyntaxique ou mixte. Il semble donc que les domaines scientifiques se distinguent davantage par des traits stylométriques que par des informations lexicales, constat surprenant si l'on considère que les deux domaines à discriminer (linguistique et mécanique) sont conceptuellement très éloignés. Les résultats obtenus avec le classifieur SVM (figures 3 et 4) confirmeraient l'hypothèse selon laquelle les genres sont effectivement corrélés au niveau morphosyntaxique : le taux de précision obtenu est plus élevé avec les jeux de variables comprenant des attributs morphosyntaxiques qu'avec les variables lexicales uniquement. Notons que les différences de domaines ne perturbent pas cet ordre. Nous présentons en figures 5 et 6 les résultats obtenus avec C4.5. On observe en premier lieu que les taux de précision obtenus avec cette méthode sont encore une fois sensiblement inférieurs aux résultats obtenus avec la méthode SVM : 84 % au mieux avec C4.5 contre 88 % avec SVM. De plus, l'ordre de établi précédemment diffère avec cette nouvelle approche : les variables lexicales, combinées aux attributs morphosyntaxiques forment un jeu de descripteurs plus efficace au niveau global, ce qui confirmerait l'existence d'une possible corrélation des genres avec le niveau lexical, hypothèse soutenue par Lee et Myaeng (Lee et al., 2002) qui associent des traits lexicaux au genre de la « homepage » : D'un point de vue plus technique, ces différences obtenues entre les deux classifieurs 8 peuvent en partie s'expliquer par les méthodes très différentes auxquelles ces deux classifieurs font appel. Notamment, l'approche SVM considère un nouvel espace de représentation des documents, à forte dimensionalité, et dont les dimensions sont définies par combinaisons - ici linéaires - des descripteurs initiaux. Cette méthode fait donc intervenir de façon plus ou moins marquée l'ensemble des descripteurs considérés tandis que la construction d'un arbre de décision nécessite généralement très peu de descripteurs mais bien choisis. Avant de fournir une explication plus précise des résultats précédents nous proposons un résultat intermédiaire synthétisant l'ensemble des expérimentations présentées ci-dessus. Pour un nombre fixé de descripteurs, nous étudions dans le tableau 3, les macro et micro-précisions induites par les arbres de décisions appris sur le corpus global. Cette étude a son importance compte tenu des grandes variations de tailles entre les classes, aussi bien pour la classification en domaines que pour la classification en genres. Micro et macro-précisions sur le corpus global avec C4.5 Type de classification Type de précision Nature et taille de l'ensemble de descripteurs M136 L500 {M ⊕ L}500 Domaine micro 92.2 % 93.3 % 94.1 % macro 80.3 % 80.4 % 84.8 % Genre micro 79.9 % 80.1 % 81.1 % macro 59.3 % 61.9 % 61.4 % L'analyse en terme de macro-précision révèle certains phénomènes masqués par l'influence d'une classe fortement majoritaire (60 % des documents du corpus global sont des articles de linguistiques). Notamment pour la tâche de classification en domaine, la macro-précision permet de mettre en évidence un écart plus important entre les ensembles d'attributs pris séparément (80.3 % et 80.4 %) et la combinaison des deux ensembles (84.8 %). En effet, on note beaucoup plus de documents du domaine de la mécanique classés en linguistique avec les niveaux de descriptions M ou L qu'avec une description combinée. Cette remarque confirme à nouveau la complémentarité entre les deux niveaux de description pour la classification en domaines. On reporte dans le tableau 4 les variables apparaissant dans au moins 2 des 10 arbres de décision obtenus (5 validations croisées à 2 blocs) 9. Descripteurs morphosyntaxiques et lexicaux discriminants en matière de classification en domaines Variables Morphosyntaxiques Lexicales Mixtes Indices de renvois (e :g : « voir en 1.1 » ) équation équation Pronoms personnels écoulement vitesse Prépositions vitesse écoulement Symboles, sigles, abréviations coefficient vitesses Participes passés modaux déformation laboratoire Adverbes et connecteurs amélioration Adjectifs réflexifs Pronoms clitiques augmentation Locutions adverbiales courbes Adverbes et connecteurs essais Connecteurs de concession laboratoire Nombre de « JE » mécanique Prépositions vitesses Ponctuation (points) Les variables lexicales discriminantes sont toutes caractéristiques du domaine scientifique mécanique. Par exemple, on observe sur un échantillon d'entraînement que si le terme « écoulement » apparaît au moins deux fois, il permet de discriminer la moitié des textes de mécanique Les textes de linguistique sont donc différenciés de manière négative : dans le même échantillon 90 % des textes linguistiques sont bien classés s'ils contiennent au plus une fois le terme « écoulement » et ne contiennent ni « mécanique », ni « vitesse » et ni « essais ». Cette discrimination par des termes de mécanique s'explique par : la taille plus importante des textes de linguistique qui augmente le nombre et la diversité des descripteurs, et les textes de mécanique qui semblent plus homogènes au niveau lexical. Les descripteurs morphosyntaxiques les plus discriminants semblent par contre plus caractéristiques du domaine linguistique : par exemple, on observe sur un échantillon que la variable « préposition », lorsqu'elle dépasse un certain seuil, permet de différencier jusqu' à 90 % des textes de linguistique. De même, un nombre élevé de pronoms personnels et de marques de renvois discrimine les textes de linguistique des textes de mécanique. En ce qui concerne les classifications mixtes, notons qu'elles recourent davantage aux variables morphosyntaxiques qu'aux variables lexicales malgré la prépondérance des traits lexicaux dans l'espace de description. Pourtant, les variables lexicales interviennent toujours en premier dans l'arbre de classification (cf. figure 7), les traits morphosyntaxiques permettant de raffiner la classification. Elles sont donc les plus discriminantes, mais ne suffisent pas à classer les documents de manière satisfaisante. Le rôle du niveau morphosyntaxique est donc loin d' être négligeable en matière de classification en domaines. On notera que ces résultats contiennent des indices descriptifs susceptibles d'intéresser la caractérisation des domaines. On reporte dans le tableau 5 les variables apparaissant dans au moins trois arbres de décision sur l'ensemble des arbres appris. Descripteurs morphosyntaxiques et lexicaux discriminants en matière de classification en genres Variables Morphosyntaxiques Lexicales Mixtes Indices de structuration textuelle (LS ) chapitres LS Noms propres contributions articles Passifs/passés composés articles chapitres Symboles presses contributions Ponctuation (deux points ) chapitre Passifs/passés composés Ponctuation (points ) bibliographie Connecteurs de concession Connecteurs de conséquence journées Connecteurs spatiaux Éléments de langue étrangère linguistique Éléments de langue étrangère Indices de renvois numéro Indices de renvois Pronom personne « NOUS » politique Pronom personne « NOUS » clitique clitique On notera que les arbres de décision font intervenir plus de variables lexicales pour classifier les genres que pour la classification des domaines 10, ce qui ne semble pas surprenant. Les substantifs présentés dans le tableau 5 sont caractéristiques des comptes rendus et des présentations de revues. Les articles sont donc classés relativement à l'absence de marqueurs caractéristiques des deux autres genres : ainsi, la quasi totalité des articles est correctement classée si les textes ne contiennent ni « contributions », ni « chapitres » et au plus une occurrence de « chapitre », les contributions étant aussi bien caractéristiques des comptes rendus que des présentations de revues. « chapitres » permettrait par contre de discriminer les comptes rendus. Certains indices lexicaux semblent donc caractéristiques du genre, conformément à ce que soutiennent (Lee et al., 2002). Toutefois, les éléments lexicaux ne sont pas aussi efficaces pour distinguer les genres que pour la classification des domaines les genres n'étant pas discriminés de manière aussi claire que les domaines. Les variables morphosyntaxiques semblent caractéristiques des articles scientifiques : ainsi, les indices de structuration textuelle (LS) sont particulièrement discriminants et interviennent d'ailleurs en premier dans la plupart des arbres de classification. En effet, les comptes rendus ne sont jamais structurés, à l'inverse des articles et des présentations de revues. Notons que si les articles sont caractérisés par un niveau élevé de structuration, il n'en va pas de même des présentations, qui peuvent être structurées sans que cela soit pour autant caractéristique du genre. Enfin, en ce qui concerne la classification mixte, on note que seuls trois items lexicaux participent à la classification de manière significative : les substantifs « articles », « chapitres » et « contributions », qui ne sont pas caractéristiques des articles. De la même manière que pour la classification à partir du plan morphosyntaxique seul, les indices de structuration interviennent en premier dans l'arbre de classification (cf. figure 8). Nous avons cherché à évaluer de manière expérimentale l'incidence des niveaux morphosyntaxique et lexical sur la classification en domaines et en genres dans le cas particulier des textes scientifiques. Dans cette perspective, un ensemble de descripteurs morphosyntaxiques adapté aux caractéristiques du discours scientifique a été développé. Nous avons parallèlement opté pour le choix des substantifs au singulier et au pluriel au niveau lexical, dans la mesure où ils pointent potentiellement sur des concepts. Bien qu'ils aient été obtenus sur un corpus de taille restreinte, les résultats de l'expérience sont particulièrement encourageants parce qu'ils soulignent l'intérêt d'une complémentarité des deux niveaux pour la classification en domaines et confirment celui des variables morphosyntaxiques en matière de classification en genres. En effet, la discrimination des deux domaines observés est nettement plus précise si l'on utilise les deux jeux de variables conjointement avec les deux types de classifieurs employés, dans la mesure où les variables morphosyntaxiques permettent d'affiner considérablement les partitions obtenues avec le lexique. Enfin, nous avons pu apprécier la performance de la méthode SVM par rapport à la méthode C4.5 en matière de classification générique morphosyntaxique. Nous n'écartons pas toutefois l'intérêt de l'utilisation de variables lexicales pour discriminer les genres, l'étude des descripteurs s'étant révélée encourageante. Nous envisageons d'approfondir et de préciser les résultats obtenus sur d'autres types de domaines et de genres. La pertinence des descripteurs utilisés sera également évaluée plus exactement : le jeu de variables morphosyntaxiques employé sera ainsi comparé aux jeu d'étiquettes du Penn Treebank Corpus utilisé par des taggers comme Brill ou TreeTagger par exemple, et d'autres types de descripteurs lexicaux seront extraits afin d'évaluer la pertinence de l'approche substantivale que nous avons adoptée .
Cet article traite du choix de descripteurs linguistiques appropriés pour caractériser et classifier les textes. On considère généralement que les domaines sont corrélés au niveau du contenu (mots, termes, etc.) tandis que les genres sont discriminés au niveau morphosyntaxique. Malgré les bons résultats obtenus par ces choix méthodologiques, peu de travaux ont cherché à mesurer l'impact et la complémentarité des deux niveaux de description pour la classification. Cette étude vise ainsi à évaluer l'intérêt discriminant des descripteurs morphosyntaxiques et thématiques pour classer les genres et les domaines. Des résultats encourageants sont obtenus sur un corpus pilote de textes scientifiques français.
sciencesInfo_06-0278931_tei_DN_091_0061.tei.xml
termith-497-communication
La revue scientifique joue un rôle central dans la communication scientifique, aussi bien pour la diffusion des résultats de recherche (production) que pour l'accès aux connaissances (consommation) [2 ]. Depuis plus de 60 ans, l'anglais est devenu la lingua franca des revues scientifiques [8 ]. Neuf revues sur dix sont publiées dans cette langue 1 et, au fil des années, l'anglais a relégué la plupart des autres langues à un statut régional ou marginal. Publier en français, allemand, espagnol réduit la visibilité et l'impact des résultats de recherche sur la scène internationale et nuit au classement des universités [25] 2. La surreprésentation des titres anglophones dans les outils scientométriques Web of Science et Scopus induit un biais dans toute évaluation. Déjà en 2002, Garfield [24] remarquait : « […] there is a great need for national journals written in German and other European languages, but it is absurd to expect them to reach the same level of impact as international journals, unless they adhere to the same standards as leading journals and attract significant original research. » 3. Cependant, aujourd'hui, la plupart des chercheurs français en sciences humaines et sociales publient leurs résultats de préférence en français et dans des revues francophones. Une étude du GFII constate en 2009 que « la publication en français est encore la règle, ce qui pose le problème de la visibilité de la recherche française en SHS à l'international » [9 ]. Par ailleurs, ces documents restent une source d'accès privilégiée à l'information scientifique. « Les revues SHS, avant d' être l'expression du travail collectif d'une communauté disciplinaire ou sous-disciplinaire, sont l'expression, le vecteur de communication d'équipes de recherche. Il en résulte un extrême morcellement de l'offre de revues SHS en France. » (ibid.) Il est donc légitime de s'interroger sur les caractéristiques de ces périodiques, aussi bien sous l'aspect de l'évaluation que de la discipline. Concrètement, cela appelle quelques questions : premièrement, comment ces périodiques sont-ils référencés par les outils scientométriques et bibliométriques, comment sont-ils positionnés sur le marché de l'édition scientifique, comment assurent-ils une qualité minimale de leur contenu ? Et, deuxièmement, quels disciplines et domaines scientifiques couvrent-ils, même d'une manière marginale ? Nous avons choisi le domaine information, communication et documentation (ICD) 4 comme champ d'investigation pour son caractère interdisciplinaire, sa proximité avec le milieu professionnel [16] et sa courte histoire [3] qui incite les chercheurs, plus encore que dans d'autres domaines, à veiller sur l'appartenance, le « bornage » [7] et les caractéristiques de leurs revues. Depuis quelques années, les revues ICD ont fait l'objet de plusieurs études. • Schloegl et Stock [20] ont associé une analyse des citations et une enquête de satisfaction pour répondre à deux questions : quel est l'impact de 50 revues ICD anglophones et allemandes et quels sont les titres les plus importants et visibles ? Comment les lecteurs utilisent-ils ces revues, comment ces revues sont-elles appréciées ? La méthodologie mixte produit plusieurs « ranking lists » avec en tête des titres comme Journal of Documentation, JASIST ou Bibliotheksdienst. Schloegl et Petschnig [21] ont mené une enquête auprès des rédactions de 50 revues ICD anglophones et allemandes, afin de mieux connaitre ce secteur du marché éditorial. Le résultat est contrasté : • Zhao [26] a analysé sept revues ICD sous l'aspect économique, mettant en rapport l'analyse des citations (impact) et le financement des projets. L'étude distingue entre information-oriented journals (recherche) et library-focused journals (métier). Hu et al. [11] publient une analyse des co-citations de 24 revues ICD en Chine. L'analyse statistique permet d'identifier quatre groupes (clusters) qui se distinguent selon le domaine (science de l'information versus bibliothéconomie) et l'audience (recherche versus métier). Bar-Ilan [1] propose un classement de 37 revues ICD à partir de leur h-index et du facteur d'impact du Web of Science. Arrivent en tête MIS Quarterly et le Journal of the American Medical Informatics Association, suivis par des titres comme Information & Management ou Scientometrics. Toutes sont publiées en langue anglaise. En France, sous l'égide de l'ISCC (Institut des sciences de la communication du CNRS), le séminaire Valorisation des revues en sciences de l'information et de la communication est créé en février 2008. Son objectif est d'initier une réflexion, parmi les acteurs opérationnels, sur le processus de publication, d'édition et de signalement de la production des chercheurs. Ses activités se concentrent sur la production d'enquêtes et l'organisation de deux journées d'étude annuelles, en 2008 puis 2009 5 [15 ]. Parmi ces enquêtes, celle de Jeannin [12] [13] applique une méthode dite « revuemétrie », définie comme « repérage scientifique […] pour valoriser (les) publications [des chercheurs en sciences humaines et sociales] ». Il a ainsi identifié plusieurs centaines de revues dans huit disciplines SHS, dont 281 revues dans le domaine ICD publiées en 24 pays. Rasse et al. [19] ont mené une enquête auprès d'enseignants-chercheurs et chercheurs afin d'identifier les revues qu'ils lisent, parmi un panel de 31 titres SIC francophones. En moyenne, les personnes interrogées utilisent régulièrement 3,3 revues auxquelles s'ajoutent quatre revues qu'elles consultent régulièrement. Il existe un lien fort entre les revues et leurs auteurs : 30 % des répondants qui lisent régulièrement une revue publient aussi dans cette revue; inversement 68 % lisent les revues dans lesquelles ils publient. Face à l'internalisation de la discipline, Rasse insiste sur la « nécessité absolue de maintenir et de développer un « cœur » de revues francophones de la discipline. » De 2008 à 2010, Dassa et al. [6] ont recensé les périodiques en SHS dans les bases de données du Web of Science et Scopus ainsi que dans les listes d'autorité du European Reference Index for the Humanities (ERIH) et de l'AERES. La plateforme JournalBase 6 détaille la représentativité des titres dans 27 domaines SHS et contient 286 revues en sciences de la communication. Dans une étude récente sur les revues en SIC, Heinderyckx et al. [10] soulignent l'émergence de nouvelles formes de publication. Quel est le point commun de ces études ? D'une manière générale, elles contribuent à une meilleure connaissance des revues ICD comme vecteur de communication scientifique et outil d'évaluation. Plus concrètement, elles aident à délimiter le champ disciplinaire et à consolider la cohérence de la communauté scientifique par l'identification des établissements, auteurs, co-auteurs, références citées, réseaux, etc. Par ailleurs, elles témoignent aussi de la réflexivité du domaine ICD et des regards croisés entre chercheurs et professionnels de l'information. Notre article poursuit le travail de ces études, notamment de Jeannin, Rasse et Dassa. Il dresse un panorama de l'offre de périodiques francophones ICD en 2010, dans une double perspective scientifique et professionnelle. Il s'intéresse à trois aspects : leur classement thématique et/ou disciplinaire; leur visibilité internationale; leur facteur d'impact (Web of Science et Scopus). La discussion portera sur la méthode d'analyse et sur d'éventuelles conséquences aussi bien pour l'édition que pour l'évaluation, la publication et la recherche. L'étude s'appuie sur une méthodologie développée par Dassa et al. [6] puis reprise par l'Institut de l'information scientifique et technique du CNRS (Inist) dans le cadre d'un outil de visualisation 7 de revues SHS à partir de plusieurs sources : les bases de données Arts & Humanities Citation Index (AHCI) et Social Sciences Citation Index (SSCI) du Web of Science (WoS), Scopus, Francis, les listes de l'AERES et de l'ERIH, les portails Revues.org et Cairn. À ces sources, nous avons ajouté trois autres corpus : l'enquête de Jeannin [13 ], les Library and Information Science Abstracts (LISA) et le Ulrichsweb Global Serials Directory de ProQuest, la plus exhaustive base de périodiques contenant plus de 300 000 titres dont 27 000 revues scientifiques 8. Voici les différentes sources caractérisées par leur critère d'extraction (indexation thématique dans le domaine ICD) et le nombre de revues ainsi obtenues : Composition du corpus des revues ICD francophones (total 106 revues) Source Date d'extraction Critère d'extraction Nb titres AHCI (WoS) févr-10 Information science & library science 8 SSCI (WoS) févr-10 Information science & library science 5 Scopus déc-10 Library Information Science, Communication, Information System, Information System Management, Media Technologies 14 Ulrichsweb déc-10 Library Information Science, Communication, Information Science and Information Theory 83 FRANCIS févr-10 Sciences de l'information 41 ERIH 2007-2008 Communication sciences 10 Revues.org mai-10 Information 12 CAIRN mai-10 Sc.info./communication 15 AERES oct-10 Liste SIC rang A (section 71 CNU) 37 Jeannin 2000-2001 Revues en sciences de l'information et de la communication 67 LISA avr-12 Serials source list (= library and information science) 5Pour notre étude, nous avons retenu toutes les revues indexées ICD par au moins une source et éditées en France et/ou de langue française. Cette démarche implique par exemple qu'une revue de médiation culturelle se trouve dans le corpus uniquement si elle a été indexée en SIC, LIS etc. Si besoin, les informations bibliographiques ont été complétées avec le Sudoc, ISSN-Online, Google Scholar ou Scirus. Pour finir, trois remarques : nous n'avons pas analysé titre par titre. L'objet de notre étude est leur description et leur classement par des outils de sélection, d'évaluation et de recherche. En particulier, nous n'avons pas évalué la scientificité des revues. Toutes les sources utilisées (WoS, Scopus, etc.) ont fait une sélection à partir de leur caractère scientifique et/ou leur intérêt pour les chercheurs. L'objectif de notre étude n'est pas l'analyse de leurs critères de sélection. En conséquence, environ un tiers du corpus se rapproche de la presse spécialisée (magazines, bulletins, newsletters, etc.) même si on y trouve aussi du contenu avec un intérêt scientifique. Nous n'avons pas non plus interrogé l'indexation thématique des différentes sources. Les SIC françaises ne correspondent pas tout à fait aux library and information sciences anglaises, américaines ou allemandes. Mais pour étudier les revues SIC francophones à partir de sources internationales, il faut accepter une certaine hétérogénéité. Pour éviter tout malentendu, nous avons donc systématiquement remplacé le terme SIC par « domaine ICD » (cf. aussi note 4). Les 106 revues de notre corpus sont publiées dans six pays différents, dont 77 % en France et 12 % au Canada (cf. tableau 2). Pays d' Édition Pays d'édition Total % France 82 77 % Canada 13 12 % Belgique 7 6 % Tunisie 2 2 % Algérie 1 1 % Suisse 1 1 %Cent éditeurs différents se partagent le corpus francophone, parmi lesquels une grande majorité (94 %) publie une unique revue. Avec cinq titres, Lavoisier est l'éditeur le mieux représenté, suivi par le CNRS, A Jour, Armand Colin, l'ABF et L'Harmattan. Vingt-six revues sont publiées par une université ou école, dix-sept autres par une association ou société savante. Le rythme de parution de la moitié des revues (49) les rapproche des monographies en séries, car leur périodicité est soit annuelle, semestrielle ou irrégulière (tableau 3). Autant de revues (47) paraissent entre trois et six fois par an, tandis que dix périodiques sont publiés avec sept à douze numéros par an, se rapprochant de la presse spécialisée (magazines). Périodicité Périodicité Total Irrégulière, indéterminée 7 1-2 fois/an 42 3-4 fois/an 40 5-6 fois/an 7 7-12 fois/an 10Comme le corpus a été élaboré à partir de sources extraites à des dates différentes, dix titres étaient en cessation ou suspendus au moment de l'analyse (juillet 2011) et deux autres revues avaient changé de titre. Pour chaque revue du corpus, nous avons comparé l'indexation thématique de trois sources françaises (Francis, AERES, Jeannin) et quatre sources internationales (WoS, Scopus, Lisa, Ulrichsweb). Premier résultat : parmi les 106 titres du corpus, il n'y a pas un seul qui soit indexé ICD 9 par l'ensemble des sept sources. Une seule revue - Documentaliste-Sciences de l'information - fait consensus pour six sources, une autre - Canadian Journal of Information and Library Science - par cinq sources. Trois titres sont indexés ICD par quatre sources : Argus, Documentation et bibliothèques et Études de Communication, 14 autres par trois sources. Ensemble, ces titres correspondent à 18 % du corpus (tableau 4). Revues cœurs ICD (n=19) Archives (Québec, PQ) Association des Archivistes du Québec CA Argus Corporation des Bibliothecaires Professionnels du Québec CA Canadian Joumal of Information and Library Science University of Toronto Press CA Communication (Québec) Editions Nota Bene CA Documentation et bibliothèques Association pour l'Avancement des Sciences et des Techniques de la Documentation CA Archimag I D P s.a.r.l. FR Bases (Paris) Bases Publications FR Bibliotheques de France. Bulletin Ecole nationale supérieure des sciences de l'information et des bibliothèques ENSSIB FR Communication et lanqaqes Armand Colin FR Communications & stratégies Institut de l'Audiovisuel et des Telecommunications en Europe FR Document numérique Lavoisier FR Documentaliste Association française des documentalistes et des bibliothécaires spécialisés FR Etudes de Communication Laboratoire GERIICO - Université de Lille 3 FR La Revue des revues Association Ent'revues FR Le Temps Des Médias Nouveau Monde Editions FR MEL Media et information Université Paris VIII, département Infocom - - L'Harmattan FR Mots (Paris. 1980) ENS Editions FR Réseaux : communication technologie societe La Découverte FR Revue tunisienne de communication Institut de Presse et des Sciences de l'Information (lPSI) TNPour la description de ces titres, il existe apparemment un certain consensus, une convergence ou concordance d'indexation de plusieurs sources différentes. Peut-être pourrait-on les considérer comme des revues cœurs dans le domaine en question, du moins d'une manière empirique. Revenons au corpus des 106 titres. Du fait du caractère transdisciplinaire du domaine ICD, une partie significative est également indexée dans une autre discipline. Par exemple, Communication, Communication et langages et Études de Communication sont également indexées comme revues en sociologie; La Revue des revues comme titre d'histoire; et Mots comme appartenant aussi à la sociologie et la linguistique. L'analyse de l'indexation des disciplines limitrophes dégage trois catégories de disciplines, en fonction du nombre d'indexation : trois disciplines limitrophes importantes : la sociologie avec l'anthropologie, la linguistique et l'histoire (avec les sciences politiques); huit disciplines de moindre importance : l'informatique, les sciences de l'éducation, l'économie, les médias, la littérature, la philosophie et le droit, puis les SHS comme domaine général et multidisciplinaire; cinq disciplines ou domaines en marge : l'art, la géographie, la psychologie, la théologie et la science comme domaine général et multidisciplinaire. À partir des deux notions - revues cœurs et disciplines limitrophes -, on pourrait établir une cartographie des revues ICD sous forme de cercles concentriques et avec des facettes disciplinaires où l'appartenance à telle ou telle facette serait le reflet du caractère interdisciplinaire de la revue et/ou l'expression de l'échange entre les ICD et d'autres disciplines. Face à la dynamique des politiques scientifiques et au développement des revues en libre accès, on peut penser qu'il ne s'agit là que d'une photo instantanée, amenée à évoluer dans les années à venir. Comment les périodiques du corpus ICD sont-ils signalés sur le plan international ? Quelle est leur visibilité ? Pour avoir une idée, nous avons étudié leur indexation à la fois par Scopus, la plus importante base de données scientifique du moment, par Lisa, une base thématique renommée, et par Ulrichsweb, la base de revues la plus exhaustive pour la gestion d'une collection. Lisa contient cinq titres francophones. Scopus indexe cinq titres de notre corpus dans les catégories Library and information sciences (2), Communication (2) ou les deux (1). De son côté, Ulrichsweb signale 18 titres en Library and information sciences, 11 en Communication et un en Information science and information theory, soit 30 titres en tout. Sans les titres morts ou suspendus, il reste 27 revues (cf. tableau 5). Revues francophones indexees ICD dans Scopus, Ulrichsweb et LISA Titre Editeur Pays Ulrichsweb SCOPUS LISA Alsic Université de Strasbourg 2 FR Com Annales des Telecommunications Springer France FR Com Autre Arbido Staempfli Verlag AG CH Lis Archimag I D P s.a.r.l . FR Lis Archivaria Association of Canadian Archivists CA Lis Lis Archives (Québec, PQ ) Association des Archivistes du Québec CA Lis Lis Archives et Bibliotheques de Belgique Archives et Bibliothèques de Belgique a.s.b.l . BE Lis Argus Corporation des Bibliothecaires Professionnels du Québec CA Lis Bases (Paris ) Bases Publications FR Lis Bibliotheques de France. Bulletin Ecole nationale supérieure des sciences de l'information et des bibliothèques ENSSIB FR Lis Lis Cahiers de la Documentation Association Belge de Documentation BE Lis Canadian Journal of Film Studies Film Studies Association of Canada CA Com Canadian Journal of Information and Library Science University of Toronto Press CA Lis Lis CinémAction Editions Corlet S.A . FR Com Communications & stratégies Institut de l'Audiovisuel et des Telecommunications en Europe FR Com Document numérique Lavoisier FR Autre Lis Documentaliste Association française des documentalistes et des bibliothécaires spécialisés FR Lis Lis, Com Lis Documentation et bibliothèques Association pour l'Avancement des Sciences et des Techniques de la Documentation CA Lis Etudes de Communication Laboratoire GERIICO - Université de Lille 3 FR Com Information interaction intelligence Cepadues Editions FR Lis International Journal of Information Sciences for Decision Making Centre de Recherche Retrospective de Marseille FR Info Le Temps Des Médias Nouveau Monde Editions FR Com Com Partnership : the Canadian journal of library and information practice and research The Partnership. Provincial and Territorial Library Association of Canada CA Lis Reseaux : communication technologie societe La Découverte FR Autre Com Revue de la BNF Bibliothèque Nationale de France FR Lis Revue tunisienne de communication Institut de Presse et des Sciences de l'Information (IPSI ) TN Com Scriptorium Centre d'Etude des Manuscrits BE Autre Lis Autrement dit, 25 % des revues du corpus jouissent d'une certaine visibilité internationale. Ces titres sont publiés par 26 éditeurs de cinq pays différents. Le paysage est éclaté - neuf titres appartiennent à des éditeurs commerciaux (dont Lavoisier, Springer et Serda), neuf sont publiés par des sociétés savantes ou associations professionnelles, et neuf sont édités par des établissements de l'enseignement supérieur ou de la recherche (universités, écoles, laboratoires, instituts). Aucun acteur ne domine l'offre éditoriale. Plus des ¾ de ces titres existent en version électronique. ALSIC, BBF, ISDM et la revue Information, Interaction, Intelligence sont des titres en open access et sont répertoriés dans l'annuaire international DOAJ. Documentaliste et Études de Communication sont partiellement en libre accès mais pratiquent un embargo sur les articles récents. Une dernière remarque concerne la visibilité internationale des revues considérées par l'AERES, Francis ou Jeannin comme « essentielles » ou « cœur du domaine » des SIC. Un tiers seulement de ces titres sont indexés par Scopus, Ulrichsweb ou LISA (cf. tableau 6). Visibilité internationale des revues francophones SIC Corpus initial Nb titres vivants Nb titres indexés dans SCOPUS ou Ulrichsweb En % JEANNIN 52 16 31 % FRANCIS 41 13 32 % AERES 37 10 27 %Deux tiers des titres jugés par la communauté scientifique comme de bonne ou très bonne qualité manquent donc de visibilité internationale. Malgré une critique constante sur la fiabilité, l'objectivité et l'application, le nombre des citations est toujours interprété comme indice de la qualité d'une revue. Aujourd'hui, il existe surtout deux indicateurs calculés à partir des citations : le facteur d'impact de l'Institut of Scientific Information (ISI), Journal Citation Reports (JCR du WoS) et celui de l'équipe espagnole SCImago, SCImago Journal Rank Indicator (SJR de Scopus) 10. Comment se situent les revues francophones ICD par rapport à ces deux indicateurs ? Cinq revues de notre corpus ont un facteur d'impact de l'ISI (2009). Deux font partie du noyau dur du domaine ICD (cf. tableau 7). Présence d'un facteur d'impact ISI (2009) Titre Editeur Nb Citations FI Revue internationale de psychologie sociale Presses universitaires de Grenoble 86 0.341 Annales des Télécommunications Springer France 232 0.325 Revue française de sociologie Ophrys 281 0.263 Sociologie du travail Elsevier BV 160 0.340 Canadian Journal of Information and Library Science University of Toronto Press 60 0.000Ces revues totalisent 819 citations en 2009. Le niveau des valeurs du facteur d'impact est relativement bas (<0,5). Douze revues du corpus sont indexées dans Scopus et ont un facteur d'impact SJR de SCImago (2009). Tandis que la Revue internationale de psychologie sociale arrive de nouveau en tête du classement, on y trouve davantage de titres cœur ICD (cf. tableau 8). Présence d'un facteur d'impact SJR (2009) Titre Editeur SJR Revue internationale de psychologie sociale Presses universitaires de Grenoble 0.048 Annales des Télécommunications Springer France 0.039 Réseaux : communication technologie société La Découverte 0.036 Revue française de sociologie Ophrys 0.035 Sociologie du travail Elsevier BV 0.035 Document numérique Lavoisier 0.034 Documentaliste Association française des documentalistes et des bibliothécaires spécialisés 0.034 Etudes Photographiques La Société Française de Photographie 0.034 Le Temps Des Médias Nouveau Monde Editions 0.034 Meta : Journal Des Traducteurs Presses de l'Université de Montréal 0.034 Scriptorium Centre d'Etude des Manuscrits 0.034 Positif Scope Editions 0.033La comparaison des deux tableaux révèle que même si 13 titres ont l'un ou l'autre des deux indicateurs (12 %), quatre seulement sont référencés par les deux outils scientométriques (tableau 9). Présence des deux facteurs d'impact ISI et SJR (2009) Titre Editeur SJR 2009 IF 2009 Revue internationale de psychologie sociale Presses universitaires de Grenoble 0.048 0.341 Sociologie du travail Elsevier BV 0.035 0.340 Annales des Télécommunications Springer France 0.039 0.325 Revue française de sociologie Ophrys 0.035 0.263On peut interpréter ce constat comme inadéquation des outils scientométriques, et/ou comme problème de qualité et/ou de référencement des revues. L'exploitation de onze sources différentes induit des problèmes de doublons, d'indexation (hétérogénéité), de terminologie (langue, nomenclature) et d'exhaustivité (données incomplètes ou manquantes). Dassa et al. [6] ont décrit les difficultés à établir une classification par discipline et des correspondances entre les nomenclatures des sources. Un autre problème est lié au marché de l'édition avec de nombreux changements de titres ou d'éditeurs, avec des fusions, suspensions ou cessations. La différence de date des sources introduit un biais de temporalité. Même si l'information des bases de données est généralement fiable, il reste toujours un risque d'erreur ou d'imprécision 11. Les résultats de notre analyse posent plusieurs questions. Le point de départ est une compilation et une mise en correspondance de périodiques indexés comme revues scientifiques appartenant au domaine ICD. Au final, un corpus hétérogène composé de 106 titres scientifiques et professionnels, avec ou sans peer review, issus de plusieurs domaines de recherche. Sous l'angle des revues, ce champ de recherche se révèle comme une discipline composite, au carrefour entre recherche et métier, fruit d'échanges avec d'autres disciplines mais aussi d'une histoire particulière, construite, revendiquée, assumée [3] : « Les sciences de l'information et de la communication ne sont sans doute pas caractérisées autant que d'autres disciplines par un noyau dur de revues centrales et essentielles » [7 ]. Les liens organiques et historiques des SIC avec formations, techniques et métiers ont été analysés par Miège [16 ]. La proximité avec les professionnels de l'information et de la communication dépasse le concept d'une recherche appliquée et implique qu'une contribution scientifique est attendue de ces professionnels plus à l'aise pour appréhender les différents outils bibliométriques. Peut-être faudrait-il aussi transcender l'idée de la communauté scientifique pour l'ouvrir vers le milieu professionnel. Il y a quinze ans, Viviane Couzinet avait déjà étudié ce caractère hybride du format et du contenu des articles de la revue Documentaliste-Sciences de l'information [4] [5 ]. Quant à l'interdisciplinarité, notre corpus confirme au niveau des revues ce qu'une recherche dans les bases de données scientométriques 12 montre au niveau des articles : contrairement à d'autres disciplines, une partie significative des publications du domaine ICD est diffusée dans des revues multidisciplinaires ou appartenant à d'autres disciplines. C'est un fait, ce n'est pas un problème en soi. On peut néanmoins se demander quel est l'impact sur la visibilité du domaine ICD et aussi sur le mode de production scientifique, dans la mesure où chaque discipline a ses propres habitudes, modalités et contraintes. Le focus de cette étude se concentre sur les revues éditées en France et/ou de langue française. Dans le milieu de l'édition scientifique, on compte en moyenne 50-100 auteurs réguliers par revue. Le ministère de l'Enseignement supérieur et de la recherche chiffre la communauté des SIC en France à 600-700 chercheurs [23 ]. Il y aurait donc de la place pour l'édition d'au moins 5-15 périodiques. Ce chiffre correspond assez bien au nombre des « revues cœur ». Le nombre plus élevé de l'ensemble du corpus s'expliquera assez facilement par la transversalité et l'interdisciplinarité du domaine ICD, animées par des communautés mixtes dépassant les équipes de chercheurs avec un nombre important de professionnels de l'information et de la communication. D'autre part, il faut tenir compte de la présence de communautés francophones belge et canadienne. À ce jour, il n'existe pas en France de base de données ou d'archive qui recenserait les publications du domaine ICD d'une façon exhaustive 13. Il est difficile de chiffrer la production annuelle d'articles dans ces revues. Cependant, une extrapolation à partir de Francis permet d'estimer leur potentiel annuel à environ 2 000 articles de tout genre. Ce n'est pas rien. Et pourtant, même s'il paraît exagéré de parler d'une tendance à la « ghettoïsation » [15 ], le manque d'impact et de visibilité sur la scène internationale est significatif. Cette situation freine le développement de coopérations ou partenariats et pénalise l'évaluation et l'octroi de subvention (ANR, FP7, etc.) car la recherche internationale devient progressivement un critère prioritaire. Certes, cette situation n'est pas propre au domaine ICD. Mais les publications d'autres disciplines - et pas seulement en sciences médicales ou sciences de la vie - sont mieux représentées dans les outils scientométriques. En ce qui concerne les SHS en France, les revues en psychologie, sociologie ou économie ont par exemple plus d'impact et de visibilité que celles des SIC [22 ]. Cette relative invisibilité sur la scène internationale est une difficulté qui ne se réduit pas à une question de barrière linguistique [10 ]. D'autres facteurs sont en jeu, comme par exemple une politique éditoriale claire et affichée en anglais, un mode (et un taux) de sélection explicite et conforme aux standards internationaux, une traduction des titres, résumés et informations pour les auteurs, un comité de rédaction international, une périodicité régulière et souvent plus élevée, ou une stratégie de promotion, de communication et de référencement. De plus, les définitions disciplinaires des SIC francophones, LIS anglophones, Bibliothekswissenschaften allemandes, etc. ne se recoupent pas tout à fait, ce qui complique la réception, le référencement et la visibilité au plan international. Le lien entre communauté, francophonie et internationalité est là : le développement de l'impact international du domaine ICD francophone ne passe pas nécessairement ni uniquement par l'abandon du français au profit de l'anglais, mais aussi par le développement de la qualité des revues. Pour reprendre la remarque de Garfield [24] citée plus haut : ces revues francophones pourraient avoir le même degré d'impact que les revues internationales à condition d'adopter les mêmes règles que les titres phares et d'attirer d'importants travaux de recherche originaux. L'article débute par le constat que la revue scientifique joue un rôle central dans la communication scientifique, pour la diffusion des résultats et pour l'accès aux connaissances. Riche d'une histoire de plusieurs siècles, la revue scientifique continue à refléter et façonner le mode de fonctionnement d'une communauté scientifique, y compris l'évaluation. Une étude empirique sur les revues d'une discipline parlera toujours de la discipline elle -même, dans la mesure où toute réflexion sur la discipline portera aussi sur les modalités d'acquisition, de production et de diffusion des connaissances. L'image qui se dégage de notre analyse est contrastée. Le référencement des périodiques francophones renvoie l'image d'une discipline assez hétérogène, interdisciplinaire, transversale, dont les contours ne sont pas toujours clairs. Une autre caractéristique se définit par une forte contribution professionnelle mais sans réelle visibilité ni impact significatif sur la scène internationale, en dehors de la francophonie. Le trait est certainement forcé. En particulier, l'analyse ne tient pas compte de la partie non francophone de la production scientifique qui contribue au rayonnement du domaine ICD français. Mais l'analyse confirme que le cœur (et a fortiori la périphérie) des revues de cette communauté reste en grande partie en dehors ou en-deçà des publications de renommée internationale. Pour conclure, trois pistes d'études : Une des particularités de cette analyse est que son corpus fait partie d'un ensemble de 1 218 périodiques ICD sur le plan international. Il est donc tout à fait possible et envisageable d'effectuer une comparaison entre les 106 revues francophones et les autres afin d'étudier de plus près les liens entre francophonie, internationalité et communauté. Cette analyse a adopté une approche assez large, sans limiter le corpus à quelques titres reconnus. Or, il serait intéressant de revenir sur le concept du caractère scientifique d'un périodique ICD, d'analyser ce qui contribue à sa reconnaissance et à sa réputation. Ceci pourrait se faire en appliquant les approches qualitatives de Jeannin [13] et Schloegl & Stock [20 ]. A priori, il paraît possible d'en dériver un indicateur quantitatif. Nous n'avons pas pris en compte le fait que de plus en plus de travaux sont publiés en dehors du système traditionnel de l'édition, en particulier dans des archives ouvertes. Même si les périodiques ICD en libre accès (avec ou sans embargo) restent encore une minorité, un nombre croissant de publications est déposé dans une ou plusieurs archives ouvertes. Un document sur six déposé dans ArchiveSIC n'est pas publié ailleurs. Même si, pour l'instant, il s'agit d'un choix individuel sans concurrence au système traditionnel car ces dépôts ne sont pas évalués, il est tout de même certain qu'ils ont un impact et une visibilité intéressante [14 ]. Pouchot & Prime-Claverie [18] viennent de publier une première étude bibliométrique à ce propos, dont les résultats et perspectives sont prometteurs. Le besoin fait l'outil, et l'outil façonne l'usage. La transformation en profondeur des modes de production et de distribution des revues scientifiques et l'émergence de nouveaux formats, contenus et services détermineront à terme aussi les méthodes de recherche, la circulation des savoirs et la production des connaissances [17 ]. Les sciences de l'information et de la communication progresseront aussi grâce à une évaluation constante et une maîtrise accrue de leurs outils « et » vecteurs de communication. Hélène Prost, Joachim Schöpfel Juin 2012
Réalisée par Hélène Prost et Joachim Schöpfel, cette étude dresse un panorama de l'offre de périodiques francophones dans le domaine information, communication et documentation (ICD) de l'année 2010. L'image qui se dégage de cette analyse, basée sur un corpus de 106 titres, est contrastée. Le référencement des titres francophones renvoie l'image d'un domaine assez disparate, interdisciplinaire, transversal, dont les contours ne sont pas toujours clairs et sans réelle visibilité ni impact significatif sur la scène internationale, en dehors de la francophonie. La richesse des informations contenues dans le corpus permet cependant d'obtenir le reflet réaliste de l'état du domaine ICD, qui se confirme comme une discipline composite, au carrefour entre recherche et métier, et fruit d'échanges constants avec d'autres disciplines.
sciencesInfo_13-0015799_tei_DOCSI_493_0062.tei.xml
termith-498-communication
Il est communément admis que le Web est une source majeure d'information et decommunication, à la fois dans la vie professionnelle et dans la vie quotidienne. Lesprincipaux outils d'accès à l'information sur le Web sont les moteurs de recherche( voir par exemple Fallows, 2005 ou Dutton, Helpser, 2007). Actuellement, le moteurde recherche le plus utilisé dans le monde occidental est de loin Google, suivi deYahoo et Live Search (Sullivan, 2007). En France, selon Nielsen/Netratings (2008) ,les compagnies les plus prisées sont, dans l'ordre : Google Inc., Microsoft, FranceTelecom, Iliad, PagesJaunes et Yahoo. Cependant, toutes ne sont pas spécialiséesdans la recherche d'information en ligne, nous en concluons donc que Google, LiveSearch (propriété de Microsoft) et Yahoo sont les moteurs de recherche les pluspopulaires en France. Dans cette contribution, nous étudions l'usage des moteurs pour la recherchescientifique sur le Web, c'est-à-dire celle qui analyse les données disponibles enligne. On emploie parfois une autre terminologie : la webométrie, définie parLennart Björneborn et Peter Ingwersen (2004 : 1217) comme « l'étude quantitative dela construction et de l'utilisation des ressources informationnelles, des structureset technologies du Web, inspirée de la bibliométrie et de l'infométrie » ou encorela webologie, définie par Alireza Noruzi (2004) comme « l'étude du Web, de sastructure, son organisation, sa topologie, ses fonctions, ses caractéristiques, sesinterconnexions et son développement ». Le terme webologie est plus général et, dansles milieux académiques, le terme webométrie est plus répandu. Pour ne pas limiternotre approche, nous utilisons ici l'expression plus générale de « recherche Web » .On peut noter que l'expression « science du Web », dont le but « est de comprendre àla fois le développement du Web et de créer des approches qui permettent l'émergencede nouveaux modèles puissants et plus fertiles » (Berners-Lee etal., 2006 : 269), est aussi pertinente de ce point de vue. Parfois, les chercheurs peuvent se passer d'interroger les moteurs commerciaux pourla collecte des données nécessaire à l'analyse du Web. Le logiciel SocSciBot, développé par Mike Thelwall ,offre cette possibilité : il est disponible librement pour quiconque dispose desressources nécessaires au fonctionnement du robot de collecte et au stockage de sesrésultats. D'autres (par exemple Spink, Jansen, 2004) ont la chance de pouvoiraccéder aux historiques d'interrogation des moteurs de recherche commerciaux .Quelques études du Web ont été menées par des chercheurs qui travaillent pour lesmoteurs de recherche (par exemple Broder et al., 2000 ouFetterly et al., 2004), ce qui leur a permis d'explorer leWeb ou d'accéder aux données collectées par le moteur. Cependant, le plus souvent, les chercheurs qui étudient le Web recourent aux outilsde recherche d'information librement disponibles : les moteurs de recherche ou lesarchives collectées dans le cadre des projets de conservation du Web (par exemple ,l'archive d'internet,). Actuellement, les projets d'archivage du Web ontsoit un accès limité (pour des raisons de droits d'auteurs), soit ils ne fournissentque des outils restreints de recherche plein texte, voire aucun; ils sont alorsd'une utilité très limitée pour la recherche scientifique en matière de Web. Lesmeilleurs outils libres d'accès sont donc les principaux moteurs de recherche .D'autres moteurs dotés de fonctionnalités spécifiques pour la recherche Webpourraient exister mais, selon nous, la couverture de l'outil de recherche – lataille de l'index – compte beaucoup; c'est pourquoi nous limitons notre analyse desoutils de recherche aux seuls moteurs de recherche généralistes. Dans un premier temps, nous établirons la liste des fonctionnalités souhaitées, dontl'importance pour la recherche scientifique sur le Web a déjà été expliquée dans ledétail (Bar-Ilan, 2005). Dans un deuxième temps, nous examinerons si les troisprincipaux moteurs de recherche (Google, Live Search et Yahoo) remplissent cesconditions avant de développer les conséquences de notre étude. Les moteurs derecherche changent constamment, aussi tenons -nous à souligner que nos remarques surces outils sont fondées sur les résultats des interrogations des moteurs effectuéesen avril 2008. Pour appuyer les résultats, nous avons sauvegardé et documenté chaqueexemple présenté ici, et nous pourrons fournir au lecteur intéressé une copie de nosexemples et toute la documentation sur lesquels repose cet article. Dans certainscas, nous avons ajouté ou modifié certains exemples suite aux remarques desrelecteurs, c'est pourquoi certains cas datent de juin 2008 (quand les exemples nedatent pas d'avril 2008, nous l'indiquons clairement). On sait bien que les moteurs de recherche ne couvrent pas – et ne peuventcouvrir – tout le Web (Bharat, Broder, 1998; Lawrence, Giles, 1998, 1999 ;Gulli, Signorini, 2005). On mesure l'étendue de la couverture d'un moteur derecherche par le nombre de pages qu'il indexe. Dans ce domaine, plus grandest l'index, meilleur n'est pas forcément le moteur.Toutefois, dans le casoù les moteurs de recherche sont utilisés pour collecter des données du Web ,la couverture la plus large possible est un critère essentiel. Une despremières études fondée sur l'analyse des résultats des moteurs de rechercheest celle de Ronald Rousseau (1997) sur les sitations, et ses conclusions sontfortement influencées par la couver ture des moteurs utilisés. On peutessayer d'évaluer la limite inférieure du nombre de pages indexées ensoumettant une requête sur un mot fréquent, par exemple sur l'article a en anglais. Le 2 avril 2008, pour cette requête ,Google affichait plus de quatorze milliards de résultats, Live Search plusde sept milliards et demi et Yahoo presque 31 milliards (tableau 2). La couverture non uniforme des ressources en ligne par les moteurs pose unautre problème. Herbert Snyder et Howard Rosenbaum (1999) ont montré que letaux de couverture des principaux domaines de l'internet par les différentsmoteurs de recherche n'est pas le même. Dans une étude de la couverture desgrands domaines nationaux, Mike Thelwall (2000) a constaté qu'elle étaitextrêmement inégale. Les résultats obtenus au moment où nous écrivons cetarticle montrent que la couverture des moteurs de recherche est encoreinégale (tableau 2). En soumettant différentes requêtes, nous avons obtenudes ratios différents concernant la taille des index des moteurs derecherche. Ces résultats semblent suggérer que l'indexde Yahoo est le plus grand. Cependant, il est bien connu que le nombre derésultats indiqués par les moteurs de recherche n'est pas précis et on nesait pas clairement si les différents moteurs de recherche interprètent larequête de la même manière (c'est-à-dire considèrent acomme un mot en tant que tel). Lorsque l'on conduit une recherche scientifique, la fiabilité et l'exactitudedes outils de collecte de données sont de la plus haute importance. Lesprincipaux moteurs de recherche s'adressent au grand public pour qui cescaractéristiques sont moins importantes, du fait qu'il se concentreseulement sur les dix ou vingt premiers résultats. Dans nos requêtes, nous n'avons pas limité les résultats à un langage donné ,à l'exception de quelques exemples explicitement indiquées. Ronald Rousseau (1998-1999) a relevé des fluctuations quotidiennes dans lenombre des résultats de recherche d'AltaVista; ces variations ont étécomparées au nombre de résultats rapportés par Northern Light, quicroissaient de manière continue. Judit Bar-Ilan (2000) a observé desvariations quotidiennes importantes dans les résultats de recherche deHotbot par rapport à Snap, alors que ces deux outils de recherche reposaientsur la technologie Inktomi. L'auteure a proposé un ensemble de mesures pourévaluer la stabilité d'un moteur de recherche dans le temps (Bar Ilan ,2002a). Souvent, le nombre de réponses indiqué change au fur et à mesure que l'onexplore plus en profondeur la liste de résultats. Par exemple, nous avonsrecherché sur Google « digifeed » le 3 avril 2008 .Au début, cette requête donnait 686 résultats, puis nous avons vouluconsulter l'ensemble complet des résultats (en incluant ceux qui avaient étéomis initialement). Cette fois, le nombre de résultats indiqués passait à693, mais au moment où nous consultions la dernière page, ce nombre adiminué à 510. Dans une certaine mesure, Google apporte un début de réponseà la question de ces modifications du nombre de résultats indiqués lorsqu'onn'inclut pas les pages ignorées par le moteur, mais pas dans le cas où l'onclique sur le lien « relancer la recherche en incluant les pages ignorées »en bas de la page de résultats. Live Search donnait au début 620 résultatsmais, quand nous avons atteint les dernières pages de résultats, ce nombres'est réduit à 198. MikeThelwall (2008) a également observé ce comportementen étudiant un grand nombre de requêtes. Yahoo a rapporté et affiché lenombre de résultats le plus stable pour cette requête spécifique : au début ,il indiquait 740 résultats et 713 ont été réellement retrouvés. Nous avions montré (Bar-Ilan, 2005) que Google était un peu faible en« mathématique de moteur de recherche ». La situation ne s'est pas beaucoupaméliorée en 2008 (tableau 3) : Selon la théorie ensembliste : ∣A⋃B∣ =∣A∣+ ∣ B ∣▯ A ⎢ B ∣ Le nombre de résultats pour « Paris OR London » devrait être457+451-24,2 =883,8 millions et non 1 070 millions de résultats. Une explication possible de ces résultatséquivoques pourrait être la suivante : le nombre total de résultats indiquéétant nettement plus élevé que le nombre de documents affichés, il s'agitseulement d'approximations grossières. Ici, nous reproduisons unexemple déjà traité (Bar-Ilan, 2005) où le nombre de résultats rappor té est« faible ». Pour les requêtes « digifeed » et « transnova », Google donnait respectivement 676 et3 100 résultats le 4 avril 2008. La requête avec l'opérateur et retournaitseulement 5 résultats mais, pour la requête ou, on obtenait 9 370 résultats ,ce qui est bien inférieur au nombre de résultats pour seul le mot transnova. Il y a donc encore là quelque chose qui nepose problème (figure 2). L'inclusion et l'exclusion posent égalementproblème à Live Search. Considérons à nouveau l'exemple de Paris-London :Paris donne 240 millions de résultats, London 315 millions résultats, Pariset London 145 millions résultats, enfin Paris ou London 585 millionsrésultats (figure 3), alors que la requête Paris ou London devrait produireseulement 410 millions résultats. Nous n'avons pas rencontré ce type deproblèmes sur Yahoo. Nous avons vu supra que les moteurs de recherche ne sontpas toujours parfaits. Parfois, il est impossible d'atteindre cette perfection( par exemple, il est impossible de couvrir tout le Web); mais, parfois aussi ,les moteurs de recherche sont à l'origine de ces problèmes et ils lesconnaissent. Malheureusement, ils ne les signalent pas toujours. Par exemple ,nous avons montré (Bar-Ilan, 2002b) que Google ne donne pas le nombre réel depages de liens vers un site donné qui figurent dans son index. Quelques tempsaprès, Google a reconnu cette politique sans fournir aucune explication. Les moteurs de recherche nerendent pas compte des raisons pour lesquelles ils ne retrouvent pas desdocuments qu'ils indexent sur certaines requêtes pour lesquelles ces documentsdevraient absolument apparaître (Mettro, Nieuwenhuysen, 2001). Considérons par exemple la requête link :http://ques2com.ciril.fr sur Google. Celle -ci devrait lister les pages Web ayant un lien vers la paged'accueil de la revue Questions de communication. Larequête a donné 53 résultats le 3 avril 2008 (figure 4). La même requête surYahoo donnait 1 510 résultats. La plupart des résultats des deux moteurs derecherche proviennent du blog irrealTV (h. com) dont la barre latérale contient unlien vers la page d'accueil du site de la revue. Yahoo indexe environ 300 pagesde ce blog, alors que Google en indexe 1620 (figure 5), mais présente seulement48 de ces pages en réponse à la requête sur le lien. Pourquoi ? Nous n'avons pasde réponse à cette question. En outre, Yahoo présente au moins 90 autres pagesqui comportent des liens vers la page d'accueil du site de la revue, alors queGoogle en montre seulement 5. Nous avons vérifié l'une de ces pages (h) : elle est indexéepar Google et la copie en cache de Google contient un lien vers la paged'accueil de journal. Pourquoi cette page est-elle exclue des résultats ? Unefois de plus, nous n'avons pas de réponse. Notons que l'on peut vérifier si unecertaine adresse url est indexée par les moteurs de recherche en soumettant unerequête formée de cet url. Détail intéressant, Live Search n'affiche qu'un seul lien vers la page d'accueilde la revue. Ce moteur n'indexe qu'une partie du blog irrealTV (31 pages) etindexe également staff/grundmannr.jsp, mais aucune de cespages n'est montrée en résultat pour la requête sur le lien. Un examen plusapprofondi de l'unique résultat suggère que Live Search ne traite pas lesrequêtes portant sur des liens, bien que ce soit l'une des options proposées en« recherche avancée ». C'est comme si le moteur cherchait la chaine de caractère« link :http://ques2com.ciril.fr » dans les pages Web, au lieu de rechercherdes liens hyper textes (figure 6). À noter que les requêtes sur Yahoo portant sur les liens sont transférées à sapage Site Explore (h) qui propose des filtresassez utiles pour l'analyse de liens (par exemple, exclure les liens du siteauquel appartient la page, voir les liens pointant vers une page spécifique ouvers tout le sous dossier) et permet également de sauvegarder les résultats sousforme d'un fichier au format tsv (séparation par des tabulations), ce quisimplifie le processus de collecte de données. La documentation est parfois incomplète. Parexemple, il n'y a aucun détail sur les algorithmes de classement que les moteursde recherche appliquent. On peut le comprendre du fait de la concurrence entreles moteurs de recherche et de la lutte constante contre les spammeurs quiessayent d'augmenter de manière artificielle leur classement dans lesrésultats. Par ailleurs, l'algorithme de recherche sur le radical des mots que Googleapplique est peu clair : il ajoute d'autres mots à ceux de la requête d'originede l'utilisateur. Mais la recherche sur le radical est-elleappliquée systématiquement ? Comme on peut le voir dans la figure 7, ce n'esttoujours pas le cas. Live Search surligne également la forme du motau pluriel sur une recherche sur le singulier (et le singulier pour unerecherche sur la forme plurielle), mais nous n'avons trouvé aucune mention surce point dans les pages d'aide. Ce moteur n'applique pas non plussystématiquement la recherche sur le radical : en effet, pour le mot succulent nous avons obtenu 3 870 000 résultats alors quele mot succulents donne 1 010 000 résultats. Quant àYahoo, on ne sait pas clairement s'il applique une recherche sur le radical : cen'est pas mentionné dans ses pages d'aide et ce traitement de la requête n'estpas apparent lorsqu'on examine les résultats d'une recherche. Pour la requêtesucculent, nous avons obtenu 12 millions derésultats, contre 4,54 millions de résultats pour « succulents », puis 0,454 million de résultats pour « succulent succulents » et 15,7 millions de résultats pour« succulent or succulents ». Bien sûr, quand nous analysons les données du Web, nous nous intéressons auxpages les plus récentes, mais les moteurs exécutent leur recherche sur lespages qu'ils ont trouvées lors de leur dernière collecte. Les moteurs derecherche ne peuvent pas mettre à jour leurs index dès que le contenu d'unpage Web est modifié. La fréquence des mises à jour dépend de la politiquequ'ils mettent en œuvre. Prenons, par exemple, l'entrée de Wikipedia « 2008Tibetan unrest » .Cette page a été indexée par Google pour la dernière fois le 27 mars 2008( c'est la date de la version en cache) et, depuis le 5 avril 2008, la page aété modifiée 312 fois selon l'historique des modifications de la page. LiveSearch a indexé cette page pour la dernière fois le 22 mars 2008, manquantainsi 701 modifications de cette entrée jusqu'au 5 avril 2008.Yahoo nefournit pas de date pour la version en cache des pages qu'il indexe mais, ennous basant sur la liste des événements figurant sur la page en cache, ellesemble être assez récente. Chacun des trois moteurs de recherche a d'excellents temps de réponse etfournit un ser vice 24 heures sur 24 et 7 jours sur 7. Les moteurs de recherche sont les principaux outils qui nous permettentd'accéder à l'information en ligne. La plupart des utilisateurs consultentseulement les tout premiers résultats (voir par exemple Spink, Jansen ,2004), ces outils ont donc une for te influence sur la sélection del'information en ligne qu'ils consultent. Lucas Introna et Helen Nissenbaum( 2000) analysent cette question de la politique des moteurs de recherche. Lacommunauté des utilisateurs peut parfois influencer l'ordre dans lequel lesmoteurs de recherche présentent les résultats, en mettant en œuvre desbombes Google (voir par exemple Bar-Ilan, 2007). Bien sûr, il n'existe pasde solution simple pour atteindre l'idéal d'objectivité. Les requêtes desutilisateurs sont brèves et les ensembles de résultats très grands, lesalgorithmes de classement des moteurs influencent donc de manière importantequelle information l'utilisateur verra réellement. Il s'agit d'une fonctionnalité très importante pour l'étude du Web. Commenous l'avons vu, il n'est pas possible de se fier au nombre total derésultats indiqué par les moteurs. De plus, selon les objectifs desinvestigations menées sur le Web, il peut être nécessaire d'analyser lespages retrouvées pour une requête donnée. Actuellement, tous les moteurs derecherche évoqués dans cet article limitent à 1 000 le nombre de résultatsqu'ils veulent bien montrer pour une requête donnée. Il est possible decontourner partiellement ce problème en employant différentes techniques departitionnement, par exemple en incluant ou en excluant des termes dans larequête, ou encore en limitant la recherche à des sites ou des formats defichier spécifiques. Google, Live Search et Yahoo donnent accès à une version en cache des pages ,ce qui est très utile à la fois pour essayer de comprendre pourquoi lemoteur a retrouvé tel résultat pour une requête donnée et pouvoir consulterles pages devenues inaccessibles. Google et Live Search indiquent aussi ladate à laquelle la page a été mise en cache, ce qui est une fonctionnalitésupplémentaire bien utile. Pour les versions plus anciennes des pages Web ,on peut tenter de consulter les archives de l'internet (h) ou lesarchives nationales du Web. Le moteur msn, version précédente de Live Search, permettait aux utilisateursde modifier dans une certaine mesure l'ordre d'affichage des résultats de larecherche en paramétrant l'importance relative des critères de classement( Bar-Ilan, 2005). Cette option a été supprimée et, à présent, aucun desprincipaux moteurs de recherche ne permet aux utilisateurs de modifierl'ordre d'affichage des résultats de sa recherche, même s'ils le font demanière implicite en s'appuyant sur le comportement spécifique de recherchede l'utilisateur. La personnalisation des résultats par les moteurs derecherche est un sujet de recherche controversé (voir Levene, 2006 :chapitre 6.4; Jeh, Widom, 2003; Liu et al. ,2004). Nous pouvons montrer qu'une personnalisation implicite existe, selon le paysd'où la requête est émise : l'ordre des résultats de recherche est différentquand on compare, par exemple, les résultats de Google.com à ceux deGoogle.fr (France) ou de Google.de (Allemagne) – voir les figures 8, 9 et10. On peut noter que le nombre total derésultats indiqué est pratiquement identique dans ces trois cas. Toutefois ,les premiers résultats affichés sont différents, même si l'on ne limite pasla recherche à un langage donné. L'anglais est une langue dont la morphologie est simple et la plupart desrecherches scientifiques menées en recherche d'information (information retrieval) reposent sur des corpus enlangue anglaise. Par exemple, si nous prenons le cas de la langue française ,plusieurs questions se posent : 1. Comment le moteur traite -t-il lesaccents ?; 2. Comment le moteur traite - t-il les articles définis ou lespronoms possessifs dans le cas où ce ne sont pas des mots autonomes mais unepartie du mot ? Il est important de comprendre la manière dont les moteursgèrent les différentes langues, parce que cela influence la qualité desrésultats obtenus pour une requête sur un terme donné (Lazarinis et al., 2007; Bar-Ilan, Gutman, 2005). Pour répondreà ces questions, nous avons soumis des requêtes à chacun des moteurs envariant et en combinant des termes orthographiés de quatre manièresdifférentes : « électricité », « l'électricité », » d'électricité » et« electricite ». Nous avons aussi testé l'ajout du signe + devant un termedela requête, cette syntaxe étant censée forcer le moteur à respecterl'orthographe exacte du terme, c'est-à-dire la présence des accents .Les résultats sont plutôt décevants. Windows Live et Yahoo ne semblent passensibles à la casse des caractères. Google semble montrer une certainesensibilité à la casse mais plutôt inégale, même si les requêtes« électricité » et « +électricité » produisent un nombre total de résultatsidentiques, de même que « l'électricité » et « +l'électricité »; nous avonsobtenu une différence très importante quant au nombre total de résultatspour « électricité l'électricité » et pour « +électricité l'électricité » .Nous devons toutefois tenir compte du fait que le nombre total de résultatsindiqué par les moteurs de recherche est souvent peu fiable. Actuellement les trois moteurs de recherche fournissent une interface deprogrammation d'application (API), ce qui permet aux développeurs de créerdes applications et aux chercheurs scientifiques qui analysent le Webd'adapter les résultats de recherche à leurs besoins. Cependant, il fautnoter que les résultats des recherches exécutées viales API ne sont en général pas identiques aux résultats obtenus grâceaux interfaces de recherche ordinaires. La mise à disposition de ces API améliore larecherche scientifique sur le Web parce que cela permet aux chercheurs ,entre autres résultats, de récupérer automatiquement de grandes quantités dedonnées, comme c'est le cas par exemple pour l'application LexiURL Searcher de MikeThelwall. Les fonctions booléennes permettent aux chercheurs scientifiques d'affinerleurs requêtes et de dépasser – au moins en partie – la limite de 1000résultats par requête (Thelwall, 2008; Bar-Ilan, Peritz, à paraître). Legrand public recourt rarement aux requêtes booléennes, les moteursn'investissent donc pas d'efforts en ce sens. Google ne fournit pas toutesles fonctionnalités de la recherche booléenne, c'est-à-dire la possibilitéde formuler des requêtes booléennes complexes et d'utiliser les parenthèses .Yahoo permettait de formuler de vraies requêtes booléennes, mais il sembleque ce ne soit plus le cas, puisque le nombre de résultats pour la requête« informetrics or (webometrics cybermetrics) » estinférieur à celui obtenu pour la requête sur le seul terme « informetrics »( figure 11) : L'interprétation de Live Search poseégalement problème (figure 12), puisque le nombre de résultats pour larequête « informetrics or (webometrics & cybermetrics) » nedevrait pas dépasser la somme des résultats obtenus pour « informetrics » et pour « (webometrics & cybermetrics) » .Actuellement, Live Search est le seul moteur qui prétende dans ses pagesd'aide permettre la formulation de requêtes booléennes complexes. L'opérateur not (ou le signe - devant leterme) est utile en tant qu'opérateur autonome, parce qu'il permet d'essayerd'estimer la taille de la base de données du moteur en soumettant desrequêtes de la forme +x et –x ,où x est le terme recherché. Actuellement, aucun destrois moteurs ne traite de telles requêtes. Comme nous l'avons déjà mentionné, Yahoo fournit des fonctions utiles pourl'analyse de liens et de sites via Siteexplorer(h). Google permet seulement derechercher des liens vers des pages Web spécifiques, et non sur des sitesentiers ou des sous - parties de sites; en outre, il ne mentionne pas tousles liens, comme nous l'avons montré dans la sous-section 3. Sur ce plan ,Google présente de sérieuses insuffisances pour la recherche scientifiquepuisqu'il n'est pas possible d'utiliser le moteur pour une analyse sérieusedes liens. S'il n'est pas possible de chercher les liens vers un site ou decombiner avec d'autres opérateurs les requêtes portant sur les liens, c'estpeut-être parce que cet opérateur est rarement utilisé par le grand public ;seuls les webmestres essaient de savoir quelles sont les pages qui pointentvers leurs sites. Google ne se sent donc pas obligé de permettre de tellesrequêtes. Quelques études utilisent la fonction link : avec d'autresopérateurs (par exemple Larson, 1996; Thellwall, 2002; Vaughan, 2004 ;Bar-Ilan, 2004). Nous avons vu (figure 6) que Live Search ne permet pas nonplus, à l'heure actuelle, de faire des recherches sur des liens, même sicette option apparaît dans son formulaire de recherche avancée. Pour pouvoir formuler de manière plus précise des requêtes, nous avons besoind'un certain nombre de moyens de restreindre les recherches, notamment surles dates, les domaines, les langages, la zone géographique, les formats defichiers, l'emplacement dans le fichier (par exemple, le titre, l'url ou uneancre). Les opérateurs avancés qui existent actuellement permettentd'affiner une recherche sur une période particulière, un domaine ou unepartie du document .Google les nomme » opérateurs de recherche avancée », Yahoo emploie enanglais la terminologie search meta terms( méta-termes de recherche) et « mots clés spéciaux » en français, alorsque Live Search décrit des moyens de « focaliser votre recherche » (« focus your search ») ce qui est traduit dans sespages en français par « mots clés de recherche avancée ». Ces opérateurspeuvent s'avérer très utiles, par exemple lorsqu'on veut trouver combiend'url du site x ont un lien vers un site ou une pagedonnée (voir Larson 1996; Thelwall, 2002; Vaughan, 2004; Bar-Ilan ,2004). Par le passé, les moteurs permettaient aussi des recherches par dates : ilétait possible, par exemple, de limiter la recherche aux pages créées oumises à jour dans une période particulière. Les résultats étaient assezproblématiques du fait que, souvent, les serveurs web ne donnent pas lesdates correctes. Actuellement Yahoo et Google permettent seulement delimiter les recherches aux pages mises à jour dans les derniers mois (pourplus de détails, voir les pages de recherche avancée de ces moteurs). Sil'on passe par l'interface avancée d'Alta Vista (h web/adv), il est encore possible de limiterles recherches sur certaines dates. Alta Vista affiche plus ou moins lesmêmes résultats que Yahoo, vu que Yahoo a racheté Alta Vista. Une autre restriction concerne le nombre de termes que l'on peut insérer dansune requête. Auparavant, Google limitait à 10 le nombre de mots de larequête, mais est passé à 32 il y a quelques temps. Cela restreint toujoursles possibilités car des requêtes plus longues permettent d'outrepasser leslimites imposées sur le nombre de résultats affichés. Yahoo semble limiter le nombre de mots dans une requête à 50 et Live Search à19 mais cela n'est pas annoncé dans les pages d'aide de ces moteurs derecherche. Un certain nombre de fonctions supplémentaires sont utiles : pouvoirrechercher ou non sur le radical d'un mot, utiliser la troncature gauche/droite, des jokers, régler la sensibilité à la casse des caractères ,disposer d'un correcteur d'orthographe, choisir d'exclure ou non les siteshors service. Chacun des trois moteurs de recherche propose une forme decorrection orthographique. Tous ne distinguent pas les majuscules et lesminuscules. Il n'est pas possible de choisir d'activer ou non la recherchede radical. Pour l'heure, ils ne permettent pas l'utilisation de caractèresjokers ou tout autre opérateur de troncature. Du point de vue du chercheurscientifique qui analyse le Web, il vaudrait mieux que le moteur le laissedécider de recourir ou non à la recherche sur le radical, de distinguermajuscules et minuscules ou de recourir à la troncature. Actuellement, seulLive Search permet de choisir d'exclure ou non les sites hors service ainsique Yahoo, à condition de passer par l'interface d'Alta Vista (www.altavista.com). Il est utile de disposer de fonctionnalités de rétroaction de pertinence, depouvoir rechercher des pages similaires ou liées. Quant à la personnalisation ,c'est un sujet brûlant et controversé (voir Murray, Teevan, 2007). D'un côté, elle estsupposée améliorer les recherches des utilisateurs mais, d'un autre, ellesoulève des inquiétudes sur les données privées puisque, pour fournir desrésultats personnalisés, le moteur doit détenir des informations – implicites ouexplicites – sur l'utilisateur. Les moteurs devraient permettre de combiner en une seule requête toutes lesfonctions disponibles et ne pas limiter le nombre de termes spécifiés dansl'interrogation. Il serait également souhaitable de pouvoir construire dessous-ensembles à partir des résultats précédents, par emboîtement derequêtes. Tous les moteurs de recherche limitent le nombre de termes quel'on peut utiliser dans une requête. Ce peut être un point faible pour leschercheurs qui analysent le Web quand ils conçoivent des requêtes précises .Google ne permet pas les recherches booléennes complexes (notammentl'utilisation de parenthèses) ni de combiner l'opérateur link : avec un autre terme dans la requête, ce qui est un limiteimportante pour les recherches scientifiques sur le Web. Les moteurs répondent à certains besoins dans ce domaine. Live Search etYahoo (si l'on passe par l'interface d'AltaVista) permettent d'exclure ounon les sites hors service. L'utilisateur peut paramétrer le nombre derésultats affichés par page pour chacun des trois moteurs. Mais aucun d'euxn'utilise des techniques de regroupement des résultats (clustering) et les utilisateurs ne peuvent pas modifier le formatd'affichage pour obtenir des résultats spécifiques, sauf sur des pointsmineurs (par exemple masquer ou non le lien « plus de pages sur ce site »sur Yahoo). Tous les moteurs permettent aux utilisateurs d'activer un filtrepour les sites réservés aux adultes. On ne sait pas exactement s'il existe une limite de taille pour l'indexationdes documents. Ces limites ont existé par le passé. Si l'on prend l'exempledu livre numérique Amusements in Mathematics d'Henr yErnest Dudeney, sur le site du Projet Gutenberg ,Google l'indexe; cependant, une recherche sur une expression exacte quiapparaît vers la page 235 n'affiche aucun résultat. Cela semble indiquer queGoogle n'indexe les documents longs que jusqu' à une certain point. LiveSearch indexe le livre jusqu' à la page 219 environ et Yahoo ne peutretrouver des expressions qui apparaissent dans ce livre après la page 55 .Le fait de ne pas indexer le document entier a un effet négatif sur lerappel. Actuellement, les trois moteurs permettent la recherche d'images, en sefondant principalement sur des descriptions textuelles. Il y a encorebeaucoup de progrès à faire dans le domaine de la recherche d'informationmultimédia. Les fonctions de recherche d'images qui pourraient présenter unintérêt pour les chercheurs qui analysent le Web ne sont pas traitées danscet article. Les moteurs commerciaux actuels sont encore loin de l'outil idéal de recherche enligne dont rêvent les chercheurs qui analysent le Web. Ce dont nous avons besoinest un outil puissant, fiable et flexible pour servir la communautéscientifique. L'ensemble des fonctions idéales est, de façon inévitable, quelquepeu subjective et fondée sur mes préférences personnelles, mais les recherchesconduites et publiées par d'autres confirment le besoin de beaucoup de cesfonctionnalités. Bien sûr, la fiabilité est indispensable pour les recherchesacadémiques. Avec des temps de réponse longs, la collecte de donnée à grandeéchelle devient impossible et c'est donc un besoin de base. L'étendue de lacouverture du moteur est de la plus grande importance pour les analysesquantitatives. Les mises à jour fréquentes de la base de données du moteur sontnécessaires notamment pour les études sur l'évolution du Web. Le fait de pouvoirretrouver tous les résultats de recherche indiqués est crucial pour étudier lecontenu des pages Web sur un sujet, dans un domaine ou sur un site donné. Leshyperliens sont l'un des mécanismes de base du Web et présentent un grandintérêt pour en comprendre la structure. Il est assez facile d'analyser lesliens sortant d'un site ou d'une page donnée; mais, si le chercheur n'a pas derobot de collecte, il doit compter sur les outils fournis par les moteurs derecherche pour accéder aux liens qui pointent vers un site ou vers une page. Lesfonctionnalités linguistiques des moteurs pour les langues autres que l'anglaisprennent de l'importance avec l'augmentation de la proportion de pages nonanglophones en ligne. Les autres fonctionnalités que nous avons listéesrépondent aux principaux objectifs des chercheurs scientifiques et facilitent lacollecte des données, ou en fournissent des moyens détournés dans le cas où lesmoteurs de recherche n'offrent pas certaines fonctions de base. Certaines de ces fonctionnalités idéales sont difficiles, voire impossibles, àatteindre – par exemple une couverture complète du Web ou une mise à jourinstantanée –, mais sur certains points, les moteurs pourraient s'améliorer. Parexemple, ils pourraient fournir l'ensemble complet des résultats pour unerequête. Ils pourraient améliorer leurs estimations du nombre total de résultatspour une requête, permettre des requêtes booléennes plus complètes ou desinvestigations sur les liens. Les moteurs de recherche ont un but commercial etleur principal objectif est de servir les intérêts des utilisateurs communs ,mais on pourrait espérer qu'ils trouvent le moyen de satisfaire aussi lesbesoins des chercheurs scientifiques. Dans un article antérieur (Bar-Ilan, 2005), nous avions promis de revisiterpériodiquement les fonctions proposées par les moteurs de recherche. Le présentarticle met à jour nos résultats pour la première fois. Comme dans le précédent ,nous recommandons de construire un ensemble de tests selon des règlesméthodologiques claires et planifiées, qui détaillent la façon d'exécuter et dedocumenter ces tests pour évaluer la performance des moteurs de manièrepériodique. Nous espérons que lacommunauté des chercheurs s'emparera du challenge qui consiste à instaurer detelles règles méthodologiques et que ces règles motiveront les moteurs derecherche à mieux répondre aux besoins de la recherche scientifique .
Les chercheurs qui analysent le Web s'appuient sur des données qui sont souvent collectées à l'aide des moteurs de recherche. Dans une précédente contribution (Bar-Ilan, 2005), l'auteur a proposé une liste d'objectifs pour le moteur de recherche idéal en expliquant le besoin de fonctionnalités spécifiques pour ce type d'activité. Ici, il revisite cette liste et examine si les principaux moteurs de recherche actuels peuvent répondre, au moins partiellement, aux exigences de l'outil de recherche idéal. Les principaux outils de recherche sont commerciaux et destinés à l'utilisateur « moyen » et non au chercheur scientifique qui analyse le Web, ils ne peuvent donc pas satisfaire toutes les demandes.
sciencesInfo_09-0474883_tei_1126.xml
termith-499-communication
L'exercice de commentaire est difficile. En effet, comment discuter de façonpertinente un texte dont, en toute rigueur, chacune des parties nécessiteraitanalyse fine ? Et qu'il est présomptueux de maintenir sa détermination à s'y risquerlorsque le texte en question commence par ces mots  : « Comment prétendre traiterune question aussi vaste et complexe que l'interdisciplinarité quand, d'un côté ,Claude Lévi-Strauss […] invitait, au nom de la méthode du bricolage, à établir desconnexions entre l'anthropologie, la linguistique, la littérature, l'art, lapsychologie, le droit, la religion, etc., de l'autre, Edgar Morin incite, au-delàmême de la transdisciplinarité, à « écologiser les disciplines  » en tenant comptede « tout ce qui est contextuel y compris des conditions culturelles et sociales  »et en adoptant parfois un point de vue « métadisciplinaire  »  » (Charaudeau ,2010  : 196). Décidément, la tâche est ardue, et ni le sujet traité ni lesréférences écrasantes ne contribuent à la rendre plus légère. Impossible dès lorsd'éviter l'écueil de l'anecdotique (extraction d'une partie très réduite du matériaufourni et discussion de cette seule partie, peu ou prou décontextualisée). Leprésent travail n'y dérogera pas. Et puisque voilà d'emblée cette proposition condamnée à l'anecdotique, jouons cetravers jusqu'au bout de ses possibilités. Voici une petite saynète proposéecomme support à la réflexion. Soit une personne A, dotée de tous les attributsnécessaires à ce qu'elle puisse légitimement être qualifiée de « parfaite  »( attributs qu'on se gardera bien de détailler ici). A pénètre pour la premièrefois dans le bureau d'une personne B, qu'elle ne connaît pas, mieux que pas malelle aussi. Aucune parole, aucun geste ne s'échangent. Y a -t-il communication ?À n'en pas douter, instantanée, simultanée et parfaitement symétrique. Il y adonc eu communication sans « acte de communication  », puisque PatrickCharaudeau (ibid .  : 216-217) nous dit  : « On soutiendra l'hypothèse que tout acte de communication –qu'il s'agisse de communication interpersonnelle privée ou collective publique –se réalise toujours entre un sujet locuteur, et un sujetdestinataire-récepteur-interprétant (qui peut devenir à son tour sujet locuteur ,de façon symétrique), entre lesquels transite un certain acte de langage porteurde sens ayant une certaine forme ». Bien étrange concept à saisir que cette communication qui s'impose en totaledéconnexion avec les faits ou actions permettant de la qualifier comme telle –au sens prescrit par Patrick Charaudeau tout au moins. Poursuivons notrehistoire. A se déshabille. N'ayez crainte, rien d'érotique à cela, ce n'est pasune séquence torride qui débute, mais un examen médical, car B est médecin. Àl'aide de diverses méthodes (écoute à l'aide d'un stéthoscope, palpations ,etc.), il va prélever sur ce corps des indices précis lui permettant d'élaborerun diagnostic. B aura presque totalement oublié la « perfection  » première dece corps, pour se concentrer sur le fait que son apparence dissimule une autrequalification  : il est « malade  ». La personne A a -t-elle communiqué – au sensprescrit précédemment ? Pas le moins du monde. En revanche, elle a servi desupport à une recherche d'information exploratoire qui a permis l'émergenced'une signifiance nouvelle  : un diagnostic, pour l'instant encore hypothétique .L'affaire ne va pas bien du tout pour A  : c'est grave ! Voici son corps nusoumis à un examen par scanner, technique d'imagerie médicale qui ,rappelons -le, « consiste à mesurer l'absorption des rayons X par les tissuspuis, par traitement informatique, à numériser et enfin reconstruire des images2D ou 3D des structures anatomiques. Pour acquérir les données, on emploie latechnique d'analyse tomographique ou « par coupes  », en soumettant le patientau balayage d'un faisceau de rayons X  ». B scrute l'image formée par la recomposition de ces différentes coupes, qui luipermet de conforter son diagnostic. La personne A, bombardée qu'elle est derayons X, ne communique toujours pas davantage, la pauvre. B a complété parcette nouvelle image de A l'information disponible sur la maladie présumée. À cestade, B a souvent totalement occulté A au profit de sa maladie, dont il seconstruit progressivement une représentation de plus en plus fine. Il se trouveque la personne A est ce qu'on appelle un « cas clinique  » inédit. Elle estrentrée chez elle, mais elle ne sait pas que ses résultats de scanner ont ététransmis à toute une communauté qui en débat, conformément au principe del' « étude de cas  ». Revenons à Patrick Charaudeau (ibid .  : 217) qui explique  : « Lorsqu'il s'agit d'une communication collective qui se déploiedans un espace public à l'aide de divers supports de transmission, on dira quela communication se réalise entre une instance de production du langage, et uneinstance de réception-interprétation (qui peut devenir à son tour instance deproduction mais de façon asymétrique), entre lesquels transite un certainproduit porteur de sens ayant diverses formes selon le système de signes( verbal, iconique, gestuel) qui le configure. Ces instances sont constituées pardes acteurs qui agissent, qui pensent, qui parlent et qui se trouvent les unsvis-à-vis des autres dans diverses relations selon les statuts et les rôlesqu'ils ont à tenir. Certains de ces acteurs tiennent des rôles de producteur dediscours (par exemple, pour les médias  : direction de l'organe d'information ,rédacteurs en chef, journalistes, etc.), d'autres tiennent des rôles derécepteur (par exemple, lecteurs, auditeurs, téléspectateurs), les uns et lesautres étant tenus par certaines contraintes tant du côté de la production quedu côté de la réception. Du même coup, ces acteurs sont amenés à se représenterla place qu'ils occupent et qu'est censé occuper l'autre, la finalité del'échange dans laquelle ils sont impliqués et les conditions qui président à cetéchange  ». Dans notre cas, peut-on circonscrire précisément une instance de productionconforme aux termes de cette définition ? Est -ce B qui a fait circuler le cas àla communauté ? Ou est -ce la machine, qui a fourni l'image ? Ou encore le corpsde A, dont c'est une représentation ? Et tous les spécialistes qui débattentautour du cas ne sont-ils pas à la fois producteurs et récepteurs, dans unparadigme de construction collaborative, réciproque, simultanée et symétrique ,entre pairs de statut égal ? Cette historiette n'a pas pour but – bien entendu –de disqualifier le travail de Patrick Charaudeau, mais de montrer qu'il possèdeson horizon de pertinence qu'il convient de ne pas oublier, son « lieugéométrique  » qu'il circonscrit lui -même  : pour faire simple et donc forcémentréducteur, celui d'une communication mesurée à l'aune des actes de langage etrecourant à l'analyse de discours comme point de vue prioritaire – point de vued'un sémiologue, analyste du discours ayant traversé les sciences du langage del'époque structuraliste à nos jours affirme -t-il dès l'introduction de sontexte. Elle montre aussi que le regard propre aux sciences de l'information etde la communication peut être différent, élargi notamment par le biais de ce quiconstitue son caractère spécifique  : la prise en considération simultanée – etpresque indistincte, pourrait-on dire parfois – de l'information et de lacommunication, en intrication étroite et sans tentative (ni même tentation) dedécorrélation préliminaire et/ou arbitraire. Dès lors, est invalidée l'hypothèseposant un modèle d'analyse de la communication à partir de trois lieux depertinence séparés  : le lieu des conditions de la production, le lieu desconditions de la réception, et le lieu de réalisation de l'acte de communicationcomme produit fini. L' « horizon de pertinence  » scientifique – plutôt que « principe ou lieu depertinence  » – est apparu « spontanément  » au paragraphe précédent. Il seprésente comme un savant mixage de l' « horizon d'attente  » de Hans R. Jauss( 1978) et de la théorie de la pertinence de Deirdre Wilson et Dan Sperber( 1989). Il assemble les divers items énumérés par Patrick Charaudeau  : cadreconceptuel de référence, théories, catégories, modes de raisonnement, procéduresd'analyse. Il n'est pas inutile d'insister sur le fait que la détermination del'horizon de pertinence est toujours indispensable. On pourrait croire qu'ellene s'impose que pour les disciplines récentes, trop jeunes pour que leursassises scientifiques soient totalement assurées. On aurait tort. La suite decet « échange  » va beaucoup recourir aux travaux de la physicienne MioaraMugur-Schächter, qui a fondé et dirigé le laboratoire de mécanique quantique etstructures de l'information à l'université de Reims Champagne-Ardenne. Dans sonouvrage L'infra-mécanique quantique. Une révolutionépistémologique révélée dans les descriptions de microétats (Mugur-Schächter, 2009  : 49-52), elle montre que les deux notions fondamentaleset incontournables de la physique, celles que l'on pourrait croire à jamaisimpossibles à réfuter, l'espace et le temps, sont des construits relativisésdont l'horizon de pertinence est limité : « Selon Kant, l'espace et le temps ne sont pas du réel physique ,ni des ' ' propriétés ' ' du réel physique. Ce sont des réceptacles innés où selogent les perceptions et les connaissances humaines concernant le réelphysique. L'épistémologie kantienne opère une transmutation des absolusphysiques de l'espace et du temps newtoniens, en traits du psychisme humain […] .Considérons d'abord les deux théories de la relativité d'Einstein. Commençonsavec les vues concernant l'espace-temps. Selon l'entière physique classiquel'espace et le temps sont des donnés absolus. Tandis que les deux théorieseinsteiniennes de la relativité – élaborées elles aussi en tant que disciplinesmacroscopiques – assignent une validité relativisée aux résultats des mesures dedistances et de durées [… ]. Quant aux représentations de la mécanique quantique ,elles concernent foncièrement des entités microscopiques, étrangères à laphysique de Newton et à la philosophie kantienne et néo-kantienne. Dans cettethéorie les concepts d'espace et de temps sont atteints d'un degré notable dedésagrégation et évanescence, à cause de la nature primordialement probabilistedes descriptions  ». Sous ces quelques mots d'apparence anodine se cache la révolution épistémologiqueannoncée par le titre de l'ouvrage – très mal acceptée, du reste, par lacommunauté des sciences physiques. Car, comme l'affirme Mioara Mugur-Schächter (ibid .  : 48), « la pensée physique classique a totalement occulté la questionépistémologique. Elle a laissé un trou épistémologique qui prolonge le videphilosophique concernant l'existence même des consciences individuelles avecleurs subjectivités et leurs formes a priori .Corrélativement, la physique classique pose que l'on découvre les lois' ' objectivement vraies ' ' du réel physique; que, au fur et à mesure que laphysique progresse, elle nous rapproche de manière asymptotique de laconnaissance du réel physique tel qu'il est en lui -même vraiment, objectivement ,en entendant par ces mots  : indépendamment de toute perception ou actioncognitive humaine. La physique classique ne se soucie pas de spécifier commentles physiciens – des hommes qui pour connaître agissent nécessairement à traversleurs consciences individuelles liées à leurs corps – peuvent arriver àdécouvrir les lois objectives de la réalité physique telle qu'elle estindépendamment de toute conscience humaine, de toute perception ou actioncognitive humaine  ». Cette citation confirme l'abolition pure et simple d'une « réalité physique  »qui serait « vérité scientifique  » connaissable en soi, concept sur lequels'appuient pourtant avec autorité et certitude les sciences dites« dures  ». Mioara Mugur-Schächter (ibid .  : 46) concrétise cetteidée de la manière suivante  : « Il est clair qu'une fourmi perçoit le réel – quoi que celapeut vouloir dire – autrement qu'un homme ou qu'un aigle; que si je regarde latête d'un chaton sous une grande loupe, elle m'apparaît comme celle d'un tigre ,cependant qu'au seul toucher, sa patte continue de me sembler minuscule; que –selon les modèles de la microphysique actuelle – pour un neutron qui serait dotéd'une capacité de perception consciente de type humain, le corps humain dont ilfait partie apparaîtrait comme un nuage de petits maxima de densité de substancegrave très éloignés les uns des autres; etc. Toutes ces relativités aux modesde percevoir crèvent l'entendement dès qu'on analyse la genèse des perceptionset l'on met en jeu les vues de la science actuelle. Le réel en soi ne peut êtrede toutes ces façons différentes à la fois. Il ne peut que, soit être toutcourt, caché dans une stricte absence de toute apparence, donc de touteconnaissabilité, soit paraître tel ou tel, à travers telle ou telle grille deperception ou de représentation et donc être connu à travers cettegrille  ». Il en va exactement de même de la personne A de notre petite histoire. Elle est« vue  » successivement de quatre façons différentes  : comme une forme humaineperçue naturellement via le regard d'un autre êtrehumain, sans intermédiation appareillée – sauf si B porte des lunettes ou deslentilles, ce que l'histoire ne dit pas; comme un patient dont les symptômessont expertisés via l'appareillage basique usuel –méthodologique et technique – de la médecine allopathique; comme une imagetomodensitométrique définissant, grâce à un regard très spécifique généré par lebiais d'une technologie sophistiquée, les contours d'une pathologie sévère ;comme un cas clinique sujet à débats susceptibles d'enrichir la connaissancemédicale spécialisée. Aucune de ces quatre vues n'est plus vraie que lesautres; ou plus exactement, elles sont toutes aussi vraies, et simultanémentvraies, mais répondent simplement à des regards différents. Perte définitivedonc de la « vérité scientifique  » en tant qu'absolu  : le réel objectif telqu'il est en lui -même est transcrit également, aussi bien ou aussi mal, danschacune de ces quatre vues, ainsi que dans une infinité d'autres. S'il peutparaître incongru dans un travail comme celui -ci, ce petit détour par laphysique nous a au moins démontré que les choses ne sont pas plus« objectives  » ou ancrées dans le réel en sciences dites exactes qu'ailleurs  :les fondements épistémologiques de la production de connaissances, abondammentdiscutés en sciences humaines et sociales, posent question là aussi, et de lamême manière, même si l'incontestable prédictibilité pratique acquise par lessciences dures renvoie souvent ces questions -là dans les enfouissements del'inavoué. Ce résultat préserve d'absolutisations abusives. Pour reprendre l'undes exemples cité par Patrick Charaudeau (2010), le concept de représentationn'est pas plus « exact  » ni plus « vrai  » en philosophie qu'il peut l' être enanalyse du discours, en sociologie, en psychologie sociale ou en anthropologie ,non plus qu'en mathématiques, en médecine, en informatique graphique, ensciences de l'information ou en esthétique. Il est validé et ainsi renduopératoire, dans chacun de ces cadres, par l'horizon de pertinence qui lecirconscrit, et qui doit sans cesse être redéfini précisément, dès lors que l'onenvisage une migration ou même le plus insignifiant glissement de sens leconcernant. Autrement dit, ce n'est pas tant l'emprunt ou la migration deconcept – qui est courant, comme on peut le constater – que la spécification deshorizons de pertinence respectifs et la détermination de ce qui peut en êtrepartageable qui compose le cœur d'une interdisciplinarité « focalisée  ». La notion d'horizon de pertinence est intimement tissée avec celle dereprésentation. Elle soutient la problématique liée à la manière dont seconstruisent et s'organisent les pensées, les connaissances et/ou les savoirs .Pour mieux la cerner, il convient de s'attarder sur la façon dont lesconnaissances sont élaborées et circulent, de la subjectivité stricte auxconstructions intersubjectives. En effet, après l'abolition définitive du « réelen soi  », la principale révolution opérée par Mioara Mugur-Schächter et qui estproposée ici à la réflexion, est de replacer la totalité des phénomènes connuset connaissables dans la relativité de leur perçu, c'est-à-dire dans lesubjectif strict. Car tout système interprétant, au sens de Gregory Bateson( 1972) – qu'il soit automate, animal ou humain –, évolue en interaction avec unenvironnement dont il perçoit certaines propriétés (« focalisées  » et, de cefait, pas toutes) à partir desquelles il fonde ses propres comportements et sesréactions en retour. L'appréhension du monde et l'aptitude à y survivre passentpar l'expérience. Patrick Charaudeau (2010  : 209-210) ne dit pas autre chose ,puisqu'il affirme qu' « on ne peut dissocier représentation et action, et doncactivité cognitive, pratique sociale et conscience agissante des sujets. Ceux -cisont dotés de la faculté de percevoir et d'évaluer les actions collectives, cequi leur permet d'ajuster leurs conduites  ». En outre, il rappelle que GastonBachelard oppose la « conceptualisation  », activité rationnalisante qui produitla science, à la « rêverie  », activité créatrice produisant une vision poétiquedu monde; mais il associe immédiatement ces deux activités en ce qu'elles sontà l'origine des principes organisateurs des conduites (Charaudeau, 2010  : 208) .Selon Jean-Louis Le Moigne (1995  : 71), « le sujet ne connaît pas de choses ensoi – hypothèse ontologique – mais il connaît l'acte par lequel il perçoitl'interaction entre les choses  ». Pour Edgar Morin (1994), notre seule réalitéimmédiate se réduit à notre représentation de la réalité au travers del'expérience que nous en avons. Dans un premier stade de l'interaction, le perçuest globalisant, intuitif et dépourvu de toute caractérisation et/oucatégorisation. C'est ce que Mioara Mugur-Schächter dénomme l'infra-conceptuel ,qui se présente comme un magma de perçus indistincts. La faculté de classementapparaît au deuxième degré de la représentation, après l'automatisme qui est leniveau 0 et la proto-représentation de niveau 1, avec la capacité à catégoriser .Dans un précédent travail (Leleu-Merviel, 2003) dont une synthèse partielle estreprise ici, je proposais une hiérarchisation des capacités représentationnelleset montrait, à partir des travaux de Joëlle Proust (2003), que les animaux sonttout à fait capables de catégorisation. C'est par exemple ce que fait l'araignéequi sent vibrer sa toile. Les capteurs de vibration fournissent un stimulussensoriel; celui -ci est analysé par un comparateur qui a mémorisé les« signatures  » vibratoires des proies antérieures. L'araignée peut égalementgarder en mémoire, en cas de prise multiple, les positions de plusieurs proiesdans sa toile (ibid. : 29). Ce stade permet àl'araignée de diversifier les réponses en fonction de circonstances identifiées ,mais par voie réflexe, sans possibilité de « décider  » en autonomie d'uneréponse parmi un échantillon de possibles. Par ailleurs, elle ne forme pas unereprésentation du monde sous forme d'objets indépendants  : elle catégorise lesperceptions de traits centrés sur sa propre réactivité, et qui occasionnent, parassociation, un certain type de réaction (selon qu'il s'agit de consommer ou defuir). Une représentation « mentale  » exige davantage. Ce n'est quelorsqu'apparaît la capacité de former des représentations « détachées  » (leurcontenu n'est pas centré sur la façon dont il va être utilisé) que le dispositifpeut être qualifié de cognitif. La représentation détachée doit satisfaire deuxprincipes  : la condition d'évaluation  : la représentation peut être vraie ou fausse ,l'objet possède ou non telle propriété modale reconnue comme uninvariant dans le monde; le principe de généralité  : l'entité doit pouvoir attribuer unepropriété quelconque, parmi celles qui figurent dans son répertoire, àun objet quelconque. La première propriété de la représentation détachée est la référence. Pourpouvoir former des représentations détachées, les canaux de traitementcorrespondants à diverses sollicitations sensibles doivent pouvoir opérer demanière spatialement cohérente, c'est-à-dire qu'ils doivent être interconnectéset calibrés pour s'accorder sur la région de l'espace concerné par un stimulusdonné. Le sujet percevant – ou plutôt son cerveau – apparie alors plusieurstypes de données sensorielles pour les exploiter ensemble, rapportant ainsidiverses propriétés indépendantes à un même objet. La référence est présentechez bon nombre d'animaux, notamment les mammifères, les serpents et lesoiseaux. La seconde propriété de la représentation détachée est l'emploi deconcepts. Leur usage suppose de catégoriser un objet ou une propriété, et d'entirer les conséquences pour maintenant ou pour plus tard. Utiliser des conceptsconsiste à élaborer des propositions qui peuvent être vraies ou fausses – i.e. sémantiquement évaluables – et qui servent àproduire des inférences. Les principales conditions de la représentationconceptuelle, c'est-à-dire l'abstraction, l'orientation et la représentationglobale de l'espace, l'apprentissage par généralisation, la mobilisation dirigéevers un but, sont présentes chez un grand nombre d'animaux, en particulier lesvertébrés. Cette étape correspond à l'apparition des premières formes deraisonnement pratique. La conceptualisation est la réponse apportée parl'évolution au problème de la surcharge. Un système perceptif reçoit un grandvolume de données, dont une grande part est sans pertinence (bruit). Quant à lapart utile (signifiante), elle ne peut l' être que si elle est correctementexploitée. Processus performant de compression, la conceptualisation convertitles données sensorielles en réduisant les entrées perceptives à des structuresminimales cohérentes, permettant ainsi de schématiser. Le langage étendconsidérablement les capacités de la représentation conceptuelle en luiattribuant une dimension communicationnelle intersubjective (conceptspartageables et dont la légitimité est évaluable ou réfutable par autrui). Lelangage permet en outre d'élaborer des objets abstraits, ou des concepts d'ordresupérieur (comme le concept de concept). Grâce au développement de la mémoire ,les données concernant un objet ou un événement peuvent être complétéesultérieurement, ou révisées. Cette indépendance entre temps et contenu du codagepermet une appréciation flexible des conditions de l'action et favorise laplanification. La question demeure ouverte, mais la plupart des spécialistesestiment que la capacité de prévoir l'avenir ou de planifier son action sansapprentissage préalable est inaccessible aux animaux non langagiers. Le langageest donc bien davantage que l'exploitation d'un code commun à l'émetteur et aurécepteur  : il suppose la compréhension de l'intention qui préside à l'envoi dumessage. Par ailleurs, la mise en concordance d'une sémantique symbolique etd'une syntaxe rend les propositions combinables, ce qui permet la productiond'un ensemble ouvert (en principe infini) de messages nouveaux portant sur desétats de choses indéterminés. Les systèmes de signaux animaliers peuvent avoirune syntaxe, comme le chant des oiseaux ou des baleines. Ils peuvent renvoyersémantiquement à un fait extérieur ou à une propriété de l'émetteur, comme lescris d'alarme ou les cris territoriaux. Ils ne disposent jamais de toutes lespropriétés articulées en cohérence. Il n'y a pas de place pour l'invention designaux radicalement nouveaux pour faire référence à des événements qui ne sontpas déjà au « répertoire  » des individus de l'espèce considérée. Le tableauci-dessous (lui aussi repris de Leleu-Merviel, 2003  : 26), récapitule les cinqniveaux représentationnels et leurs caractéristiques principales – le lecteurest renvoyé au texte complet, ainsi qu' à l'ouvrage de Joëlle Proust (2003), pourune présentation plus détaillée. La faculté supérieure la plus spécifique à l' être humain réside donc sansconteste dans sa créativité, c'est-à-dire sa capacité à innover en faisantémerger des représentations novatrices et différenciées, totalement inédites .L'une de ses caractéristiques propres est aussi d'élaborer des représentationsintersubjectives partageables, et donc communicables, légitimées et instituéesen objets sociaux circulants. Mais la mise en circulation de représentationspartagées implique des processus de légalisation des signifiés. D'ailleurs, c'est un travail très important de la démarche scientifique, et quidistingue ses construits de ceux du langage naturel. En effet, « il y a […] une certaine finalité spontanée incorporée à toutlangage naturel, un but incorporé de malléabilité des significations assurée parla possibilité de compositions de mots très diverses. Les langages courants ontbesoin de certains flous, car au cours des processus de communication ceux -cidotent l'expressivité d'élasticité, de richesse et de résilience. Mais pasn'importe quel flou [… ]. La frontière d'un concept désigné par tel mot, bienqu'implicite, résiste au flou où la plonge un trompe-l'œil conceptuel. En outre ,la recherche de la possibilité de moduler le sens d'un mot par le contextes'affaiblit dans les langages spécialisés. Dans un langage formel réussi elleest même éliminée entièrement. Dans ce cas limite d'un langage spécialisé delogique formelle, le but est diamétralement opposé à celui de pouvoir moduler lesens d'un mot à l'aide de son contexte  : on y cherche au contraire l'unicitéstricte de la signification de chaque signe d'étiquetage, afin d'assurer auxtrajets déductifs une rigueur parfaite, à l'abri de toute ambiguïté  »( Mugur-Schächter, 2009  : 35-36). L'élaboration d'un objet, qu'il soit concret ou abstrait, s'accomplit ainsi surla base de propriétés qui émergent dans l'interaction et les perçus quil'accompagnent, avec toute la relativité qui les caractérisent. En effet, « toutobjet est foncièrement relatif aux grilles sensorielles et aux formes deconceptualisation introduites par la conscience où il s'est constitué .Notamment, il est relatif aux seuils de perception que comportent les grillessensorielles mises en jeu. Si l'homme pouvait distinguer des dimensionsspatiales de l'ordre de 10 - 10 d'un centimètre et desdimensions temporelles de l'ordre de 10 - 30 d'une seconde ,les objets construits par les consciences humaines seraient tout à fait autres ,ou au moins différents de ce qu'ils sont. Par exemple, une cuillère apparaîtraitcomme un nuage à bords mouvants. Et les objets formés par les appareilssensoriels d'autres espèces d' êtres, un oiseau, un insecte, sont en généraldifférents des objets que forment les hommes  » (ibid. : 37-38). Dans cette approche, le primat est rendu aux consciencesqui construisent, plutôt qu'aux « faits objectifs  ». Les effets immédiatementperceptibles des interactions entre une conscience et son environnements'élaborent comme des « apparences phénoménales  ». « Tels qu'ils émergentd'abord dans les consciences, ce sont encore des faits strictement subjectifs .Afin qu'ils deviennent communicables et donc susceptibles de consensusintersubjectifs et notamment scientifiques, les phénomènes doivent être soumis àcertaines opérations de légalisation à la suite desquelles ils se trouventobjectivés. Selon Emmanuel Kant, l'objectivité scientifique consiste donc enconsensus intersubjectifs concernant des apparences phénoménales qui au départsont foncièrement subjectives, mais qui sont par la suite légalisées, notammentselon des méthodes scientifiques  » (ibid .  : 45). Cetteapproche n'est pas sans rappeler celle de François Rastier (2003) qui établit unrenversement entre « sens  » et « signification  ». Le « sens  » n'est pas de la« signification  » altérée par le contexte individuel, situé et pragmatique .C'est l'inverse  : la « signification  » s'apparente à du « sens normalisé  » (ibid .  : 9), détaché de son contexte, généralisé ,marqué ainsi par une certaine stabilité. Dès lors, elle devient transmissible ,partageable, peut se communiquer et circuler, se construire donc en objetsocial. Les significations, en tant que résultat d'une normalisation, impliquentla présence de procédures publiques de légitimation, faisant l'objet d'unconsensus social au moins partiel (c'est-à-dire agréées dans une communauté nonréduite à un seul individu). D'un point de vue proprement linguistique ,l'approche rejoint également la « théorie de la pertinence  » de Dan Sperber etDeirdre Wilson, où les « représentations partagées  », fondatrices du langage ,reposent sur l'idée d'adhésion des membres d'un groupe à des valeurs communesqui feraient consensus pour qu'ils puissent communiquer. Sans du tout épuiser le sujet, une dernière question doit être abordée pour clorele tour d'horizon proposé  : il s'agit des données factuelles et de leur lienavec les procédures qui s'y appuient dans l'élaboration des représentations .Toute discipline scientifique « s'affronte au problème du repérage des donnéespertinentes, de leur recueil, de leur classement selon certaines catégories, deleur analyse et de l'interprétation des résultats  » écrit Patrick Charaudeau( 2010  : 204). Mais que sont exactement les « données  » ? Ayant aboli la notionde donnés absolues fournies par l'essence même du réel, donnés au sens« d'offerts à la saisie  », « prêts à prendre  », que deviennent donc les« données  » dans cette approche ? Et quand et comment sont-elles pertinentes ?On commencera par accepter un postulat  : « Toute transposition d'un phénomène en termes communicableséquivaut en essence à la construction d'une description : rien d'autre que des descriptions ne peut être connu d'une manièreintersubjective non restreinte. Ni des entités factuelles extérieures à touteconscience, ni des phénomènes non décrits, ne peuvent être connus d'une manièreintersubjective non restreinte. Ce qui n'est pas décrit peut être ressenti en uncertain sens, mais ne peut pas être communiqué à toute distance et sanslimitations, dans tous les détails et sans ambiguïtés (pas juste montré du doigtou dessiné, dansé, crié ou gémi, etc.). Cette spécification est loin d' êtretriviale. Elle focalise l'attention sur l'importance primordiale du contenu etde l'agencement d'une description quelconque et notamment sur le degré et laqualité de la communicabilité que ce contenu et agencement assurent  » (ibid .  : 202). Cette question mériterait à elle seule une longue et profonde analyse. Il n'estpas certain que quelques sortes de phénomènes – les comportements humains parexemple – ne soient pas mieux communiqués dans une forme métaphorique – telleune pièce de théâtre – que par le biais d'une description. Laissons agir le flouconceptuel que comporte le qualificatif de « restreint  » pour désigner cettecommunicabilité là, et accordons -nous sur le fait d'accepter ce préliminairecomme un postulat. « Les langages naturels avec leurs grammaires nous ontprofondément conditionnés à supposer plus ou moins explicitement que ce qui ,dans les descriptions, joue le rôle d'entité-objet-de-description, préexiste auxdescriptions en tant qu'objets tout court, qualifiés à l'avance par despropriétés qu'ils posséderaient à l'état déjà actuel et indépendamment de toutexamen [… ]. Quant aux opérations de qualification, selon la pensée classiquetelle qu'elle est reflétée par les grammaires et par la logique, tout leprocessus qui d'abord crée un qualificateur et ensuite crée les qualificationscorrespondantes est rétréci en un seul acte statique, presque passif, de simpledétection sur une entité-objet préexistante, d'une propriété préexistant danscette entité  » (Mugur-Schächter, 2009  : 203-204). Or, cette sorte d'évidence de ce que sont les propriétés et de la façon dontelles qualifient les phénomènes ou les événements est totalement réfutée par laméthode de conceptualisation relativisée (mcr). Elle« débute à des zéros locaux de conceptualisation, en y représentant la capturede fragments de substance physique purement factuelle, encore a-conceptuelle ,qui par la suite sont traités comme une matière première pour des sémantisationsprogressives. Ces sémantisations constituent le cœur même de l'entièredémarche  » (ibid. 2006  : 25). La méthode mcr prône ainsi que dans tous les cas ,l'observateur-chercheur crée une entité-objet qui ne préexistait pas, souventtout à fait indépendamment des opérations de qualification qui ne sont réaliséesqu'ensuite. En outre, celles -ci sont doublement relatives  : le mode degénération de l'entité-objet, en produisant le fragment de matière premièresupport de la future connaissance, peut exclure certains examens ou en favoriserd'autres; les modes d'examen influencent également les qualificationsproduites. Les chaines d'opérations de conceptualisation commencent doncsystématiquement par une extraction légalisée de fragments de pure factualitéphysique. Une biopsie pratiquée sur la personne A de l'exemple initial illustretrès concrètement ce type de « prélèvement  » (mais n'en est qu'une instanceparmi une infinité de possibles quant à cette seule personne A). Cependant ,l'échantillon tissulaire ne dit rien en lui -même. Il faut ensuite le qualifier àl'aide de qualificateurs construits explicitement pour assurer lacommunicabilité de leurs « résultats  », donnant lieu à des consensusintersubjectifs répondant à des buts. Par exemple, le prélèvement sera soumis àtel type d'analyse pour détecter l'éventuelle présence de cellules cancéreuses .Mais d'autres « regards  », appareillés différemment et donnant lieu à d'autres« mesures  », pourront fournir d'autres qualifications  : groupe sanguin ,structure génomique, etc. Fort probablement, la biopsie ne produira pas la bonneentité-objet pour déterminer si la personne A a les yeux bleus. Cet exemplemontre bien le « canon descriptionnel  » à l' œuvre  : saisie de fragments desubstance a-conceptuelle, génération de l'entité-objet, choix explicite depropriétés ou aspects qualifiants répondant à des buts précis, méthodologie etappareillage – théoriques et/ou artefactuels – pour effectuer la qualification .Le « coup  » tiré par ce canon descriptionnel produit les données. Ainsiapparaissent-elles désormais exactement contraires à du « naturel prêt àsaisir  », mais comme des construits façonnés par la méthode de construction ,laquelle relève d'un choix cognitif – volontaire et totalement assumé dans ladémarche scientifique, souvent réflexe dans la vie courante. C'est l'ensemble deces éléments, maintenus ensemble en cohérence, qui constitue l'horizon depertinence des représentations conceptuelles. De ce qui précède, on déduit qu'il existe de nombreuses manières de ne pas secomprendre entre disciplines  : extraire des fragments différents d'une mêmeréalité sans s'apercevoir que ce ne sont pas les mêmes fragments; les examinersur la base d'aspects qualifiants différents, en ignorant qu'ils sontdifférents; procéder à la qualification par des méthodologies ou via des outilsqui n'ont strictement rien à voir les uns avec les autres; prendre pour argentcomptant les données des autres alors qu'elles résultent d'un canondescriptionnel totalement inadapté à sa propre approche; dissimuler sous unmême « étiquetage verbal  », un même vocable de « concept  », des horizons depertinence ne partageant rien. On le voit, il est plus aisé pour deuxdisciplines de se méprendre que de se comprendre. Encore n'avons -nous envisagéque le passage de l'infra-conceptuel aux données. Une même analyse serait àmener, avec la même rigueur, concernant le passage des données à leurinterprétation. Quoi qu'il en soit, ce travail sur l'horizon de pertinence ,quoique trop rapide, a permis de mieux cerner les probables exigences d'uneinterdisciplinarité « focalisée  » .
Les propositions que Patrick Charaudeau avance dans « Pour une interdisciplinarité « focalisée » dans les sciences humaines et sociales » sont mises en dialogue avec les travaux de Mioara Mugur-Schächter qui explicitent et organisent la genèse et la structure du contenu de l'entier volume du conceptualisé, en particulier de la connaissance scientifique. Partant de l'infra-conceptuel, qui se présente comme un magma de perçus indistincts, les processus d'élaboration de représentations transforment les perçus en entités signifiantes. Des procédures agréées de légitimation permettant une normalisation du sens conduisent à des significations, c'est-à-dire du sens négocié et partageable, détaché de son contexte, communicable, enseignable, apte à circuler, dès lors institué en objet social. En montrant comment s'entrelacent des concepts, des opérations, des données factuelles, une sémantique symbolique et une syntaxe qui assurent la communicabilité, le « canon descriptionnel » instauré met en relief les diverses composantes d'un « horizon de pertinence » que se doivent de partager des disciplines cherchant à se construire des espaces interdisciplinaires « focalisés ».
sciencesInfo_11-0404255_tei_1050.xml
termith-500-communication
Nous exposons ici un travail d'analyse et de prototypage d'un document numérique en santé, pour l'apprentissage, facilement accessible lors de situations de soins courantes comme par exemple au pied du lit du malade, lors d'une consultation ou pendant une garde. L'accès grand public à des outils technologiques embarqués de plus en plus miniatures (PDA, microPC, SmartPhone et autres) est désormais très simple. On peut ainsi envisager une diffusion massive d'assistants pour l'apprentissage mobile et personnel avec lesquels chaque professionnel de santé pourrait interagir pour compléter ses connaissances. Force est de constater, en regardant les professionnels agir dans les services hospitaliers, que les outils numériques mobiles sont rarement utilisés dans la pratique quotidienne. Ils imposent de fait un certain nombre de contraintes liées par exemple à l'autonomie des batteries, à l'encombrement et au risque de vols, au problème de sauvegarde des données. Mais on peut supposer que si ces outils apportaient une réelle valeur ajoutée pour la consultation d'information, et étaient plus efficacement intégrés dans leur activité, cela améliorerait la diffusion de ces dispositifs. Définir les services et les contenus associés à de tels outils reste un challenge. La qualité et l'accessibilité du document numérique ainsi proposé, sa nature, sa structure et ses objectifs sont essentiels à l'utilisabilité de l'outil, en particulier pendant une activité de soins, bien souvent urgente et stressante. Nous avons donc orienté notre recherche pour explorer, en collaboration avec les acteurs de soins concernés, quelles nouvelles pistes pour les documents numériques pédagogiques nous pourrions proposer. Dans ce papier nous avons d'abord analysé différents documents pédagogiques actuellement manipulés par les cliniciens pour ensuite proposer un modèle de document numérique pédagogique pervasif. Cette expérience soulève un certain nombre de questions qui ne manquent pas de se poser à toute communauté scientifique essayant d'utiliser de l'information numérique pédagogique adaptée à une activité. La section 1 présente le contexte scientifique et technologique actuel dans lequel nos travaux s'inscrivent. La section 2 décrit les méthodes abordées pour définir les documents pédagogiques retenus. La section 3 décrit le modèle de carnet retenu ainsi que l'implémentation qui en est proposée, avant d'aborder les sections de discussion et de conclusion. Le monde de la santé utilise de nombreux documents numériques, à destination des étudiants en médecine, des praticiens, des patients, des organisations de soins ou de la recherche. Les supports sont multiples : les dossiers de soins, dossiers patients, dossiers administratifs, images, dictionnaires médicaux, ressources pédagogiques. La numérisation des documents permet d'envisager de nouvelles applications, proposant un accès distant aux informations pour de nouvelles approches (dossier médical personnel, e-formation par exemple). La convergence d'internet et des outils portables et mobiles (téléphone portable, cartes à micro-processeur, ordinateurs et organiseurs de poche…) ainsi que la convergence des appareils multimédias (TV, Hi-Fi, Vidéo, Photo), de la téléphonie et d'internet laissent place à des perspectives nouvelles, mobiles et interactives où le document numérique devient accessible en permanence. Dans le cadre de notre approche, nous nous sommes intéressés aux documents numériques pédagogiques, que les professionnels de santé pourraient utiliser au cours de leurs activités de soins. Afin de situer plus précisément ces informations, nous allons dans les sections suivantes discuter du document numérique pédagogique en santé puis des documents numériques mobiles en santé. Les documents pédagogiques en santé sont souvent issus des enseignements traditionnels sous la forme de diaporamas ou de textes en PDF, organisés pour être facilement accessibles sur internet. Ils font l'objet de projets majeurs ayant pour objectifs de les fédérer et/ou d'en faciliter l'accès. Ainsi le site de l'UMVF 1 (Université Médicale Virtuelle Francophone), ou le site de IVIMEDS 2 (International Virtual Medical School) permettent de fédérer des ressources pédagogiques respectivement du monde francophone ou anglophone. En France, CISMeF 3 (Catalogue et index des sites médicaux francophones) propose des outils de recherche pour accéder à différents types de ressources préalablement indexées dans le site (> 43 000 en mai 2008 – source CISMeF). De nouveaux supports d'enseignement se développent peu à peu, les outils de e-learning en particulier mettent en avant de vrais projets pédagogiques, conçus via des méthodes d'ingénierie pédagogique, organisant les contenus pédagogiques et les interactions entre apprenants et tuteurs. Des constats positifs peuvent être établis pour l'utilisation de tels documents comme par exemple dans le domaine de la formation médicale continue ainsi que le soulignent (Maisonneuve et al., 2009) ou de la formation initiale. D'autres types de documents, plus informels émergent dans les forums et les sites de discussion et prennent toute leur place dans le cadre de l'acquisition de connaissance en santé (réseau de soins, forums d'association (ex. maladies orphelines), informations grand public (ex. doctissimo 4). La mise en œuvre et l'utilisation de tels documents numériques n'est pas sans poser un certain nombre de contraintes et de problèmes; nous en exposons quelques-uns ci-après. Les ressources pédagogiques nombreuses ne sauraient être exploitables sans une indexation efficace. A ce titre, différents types de métadonnées sont envisagés, permettant de décrire différents aspects liés aux ressources. Ainsi, le schéma de métadonnées générique du Dublin Core 5 est couramment utilisé pour la description de ressources en ligne. Il est constitué de 15 éléments de description tels que : l'auteur, le titre, le sujet, la langue, etc. Une qualification complémentaire et sémantique des ressources est intéressante, même si ce travail est difficile puisqu'il s'agit de capturer des éléments de sens. Dans le cadre des travaux de l'UMVF un travail d'indexation des ressources pédagogiques, guidé par un processus de publication de type Workflow (Renard et al. 2007), permet de proposer des ressources décrites d'une part, par des métadonnées du type Dublin Core et, d'autre part, par des termes de la terminologie CISMeF qui est fondée sur le thésaurus médical MeSH 6 et inclut des améliorations pour l'adapter aux ressources internet 7. La qualité de cette indexation est assurée en déléguant une partie de l'indexation de ces ressources et le contrôle des indexations aux documentalistes des bibliothèques universitaires. Les ressources pédagogiques complexes peuvent s'obtenir par agrégation de ressources plus simples. La norme LOM 8 (Learning Object Metadata) – et son profil français LOM-fr – propose un schéma de description de ressources d'enseignement et d'apprentissage. Elle est utilisée pour fournir des métadescriptions des cours. Ces qualifications pédagogiques peuvent s'élargir à certains aspects pédagogiques plus spécifiques des enseignements, ainsi par exemple (Ullrich, 2005) propose une ontologie pour réaliser l'indexation instrumentale des ressources pédagogiques en prenant en compte différentes théories pédagogiques. Ainsi que le mentionnent (Bachimont et al., 2002) : la conception de contenus pédagogiques et leur exploitation posent classiquement, trois problèmes : la structuration des contenus documentaires; la scénarisation de l'interaction pédagogique; la distribution des contenus et l'accessibilité des services. Le standard SCORM (Sharable Content Object Reference Model) permet d'une part, l'échange de contenus interactifs entre différents systèmes de gestion de formations (LMS pour Learning Management System) et permet d'autre part, l'agrégation de contenus de formation pour les systèmes de gestion de contenus pédagogiques (LCMS). Le procédé SCENARI 9 (système de conception des enseignements numériques adaptables réutilisables et interactifs) met en place une chaîne éditoriale, qui, en séparant le travail d'auteur du travail d'éditeur, permet de rationaliser la conception de supports pédagogiques numériques. Ainsi sont définies les unités logiques (UL) : « agrégation de contenus mobilisables dans un cadre d'apprentissage, le terme contenu désignant toute forme sémiotique participant à l'explication d'un concept (texte, image, vidéo, etc.) » et les schémas pédagogiques (SP) : « description d'un ou plusieurs parcours temporels possibles d'un ensemble d'UL par un graphe représentant des relations de précédence entre ces UL (Bachimont et al., 2002). Deux aspects d'adaptations sont particulièrement envisagés : l'adaptation aux compétences des apprenants (objectifs pédagogiques, pré-requis, contenu pédagogique) ou la plasticité des interfaces (adaptation aux débits, aux tailles d'écran, etc.). Mais il est difficile de construire un document numérique pédagogique adapté et cohérent. La granularité des informations à enchaîner, la bonne description des pré-requis, l'adaptation au langage, à la connaissance et à la culture des apprenants induisent un ensemble de difficultés importantes pour reconstruire un document pédagogique intéressant. (Brusilovsky, 1996) analyse les différentes possibilités d'adaptation de documents hypermédias. (Prié et al., 2004) préconisent l'utilisation de métadonnées et d'annotations issues des travaux du web sémantique pour d'envisager la construction d'enseignements adaptatifs. (Bouzeghoub et al., 2007) proposent un modèle de contexte permettant de décrire à la fois l'utilisateur et son environnement, l'objectif étant de s'adapter à la situation courante de l'utilisateur. (AbdelWahed et al., 2007) introduisent une ontologie de domaine pour adapter les enseignements en e-learning aux préférences des apprenants. (Bricon-Souf et al., 2009) préconisent de marquer la variabilité – en particulier pour la dimension de variabilité culturelle – des ressources pédagogiques afin de calculer les besoins d'adaptation de celles -ci en fonction des contextes d'utilisation. Les documents numériques en santé sont nombreux et utilisés quotidiennement. Les documents pédagogiques numériques restent encore majoritairement des informations de type polycopiés ou diaporamas en ligne, même si l'on accède de plus en plus à des documents plus interactifs intégrant des animations (ex. animation flash pour visualiser une molécule en 3D). Les plateformes de e-learning connaissent un vrai développement et de nombreuses réflexions sont actuellement en cours pour créer et dispenser des informations adaptées au mieux aux apprenants. Mais la plupart des enseignements sont conçus pour être lus et consultés pendant une période d'apprentissage dédiée et non au fil de l'activité. L'introduction d'outils mobiles peut affranchir le professionnel de santé d'une rupture entre le lieu où il soigne et le lieu où il peut consulter des ressources pédagogiques. Même si ces outils sont encore assez peu installés dans la pratique quotidienne, beaucoup de recherches portent sur l'introduction d'outils mobiles du type PDA (Personal Digital Assistant) dans le monde médical. On trouve ainsi une littérature assez abondante dans ce domaine avec, par exemple, plus de 200 documents issus de la recherche brute « PDA Healthcare » sur Pubmed. Dans une revue récente (Lindquist et al., 2008), 48 articles décrivant l'utilisation de PDA dans le monde médical ont été retenus et analysés. Les résultats de cette étude sont assez encourageants, en particulier l'accès à des bases de données ou à des bases de référence médicales semble satisfaire les utilisateurs de tels outils. L'accès aux informations sur les médicaments semble être également très prisé des utilisateurs. Si l'on s'intéresse plus précisément à l'apprentissage, une revue portant sur des articles de 1993 à 2004 (Kho et al., 2006) souligne également l'intérêt des praticiens pour de tels outils : En ce qui concerne une utilisation au fil de l'activité, les utilisations d'un PDA sont les suivantes : « au pied du lit, ils [les PDA] peuvent être utilisés pour la formation clinique en facilitant le calcul de règles de prédiction clinique, la vérification des interactions médicamenteuses et la consultation de références pour développer des diagnostics différentiels. » (notre traduction). Dans un papier assez récent, (Trelease, 2008), montre l'intérêt de l'utilisation d'outil à écran tactile du type iPod touch Wireless Media Player, en exploitant les différents types de données supportés par un tel outil. Il se situe dans le cadre de l'apprentissage en anatomie, accédant à des ressources telles que des textes stockés dans des cartes Flash, des documents PDF existants pour l'éducation, des données 3D en imagerie clinique, des conférences en podcasts et des vidéos concernant des procédures cliniques. Même si l'introduction d'outils numériques mobiles pose encore un certain nombre de problèmes : taille, durée des batteries, convivialité des interfaces, les études scientifiques portant sur l'intégration de tels outils dans la communauté médicale sont encourageantes. Nous nous intéressons à la formation des professionnels de santé en situation pendant leur activité. La mobilité s'impose pour suivre les apprenants dans leurs déplacements. Il est nécessaire de leur proposer une connaissance contextualisée, et ce, en raison de la diversité des situations et des contenus pour l'apprentissage en médecine. En effet, les variables suivantes peuvent intervenir : différence des niveaux de compétences des différents apprenants, variété des organisations médicales, diversité des environnements de travail : différents pays, différents hôpitaux, différents services et différents individus. L'information de formation que les professionnels de santé peuvent attendre pendant leur activité doit être précise et concise, afin que la consultation soit rapide et efficace. Nous rejoignons les courants actuels de recherche autour de l'apprentissage pervasif (pervasive learning) et des micro-apprentissages (microlearning). Siobhán Thomas (2008) situe l'apprentissage pervasif en introduisant les notions de communautés de personnes, d'outils et de situations pour des apprentissages pertinents et porteurs de sens et le définit ainsi : « Pervasive learning is a social process that connects learners to communities of devices, people, and situations so that learners can construct relevant and meaningful learning experiences that they author themselves in locations and at times they find meaningful and relevant ». Le micro-apprentissage prend en compte les changements qu'imposent les technologies numériques actuelles, introduisant en particulier un apprentissage fragmenté, au quotidien, tout au long de la vie, comme le concluent les organisateurs de la conférence 2008 en micro-apprentissage : “A new digital micromedia ecology, and with it new learning strategies, are emerging. The shift to fragmented digital communication and information flows affects all aspects of daily work and daily lifelong learning. This calls for innovative experiences, processes and technologies : ubiquitous, personal and dynamic, casual and volatile, but still complex and effective.” 10 Nous participons au programme national de recherche ANR-TELECOM p-LearNet 11, axé sur la conception et l'expérimentation de nouvelles infrastructures pour l'apprentissage pervasif. Il s'agit d'étudier en quoi les technologies augmentées (TEL : Technology Enhanced Learning) peuvent aider à l'apprentissage. « p-LearNet s'attache particulièrement à l'intégration de technologies et la facilité d'utilisation, à la possibilité de contextualisation, d'adaptation aux utilisateurs; aux usages humains individuels et collectifs pour la formation formelle et informelle en relation avec le travail, et l'organisation et les dispositifs de formation. » (Derycke et al., 2008). Plusieurs laboratoires de recherche travaillent dans le cadre de ce projet et trois sites pilotes contribuent et participent à la définition et à la mise en place des scénarios et des plans d'expérimentation. Ils sont représentés par les grandes organisations suivantes, partenaires du projet : Auchan, La Poste, et l'Université Médicale Virtuelle Francophone. D'une part, la mise en œuvre d'outils pervasifs pose de nombreux problèmes techniques : assurer la mobilité, capter les informations de contextes, assurer la sécurité des données, supporter la multimodalité, etc. D'autre part, imaginer les usages et les informations manipulées par ces outils est extrêmement complexe, les utilisateurs n'expriment pas spontanément leurs besoins puisque bien souvent ils n'imaginent même pas l'existence de tels outils dans leur quotidien. Cependant, de premiers résultats issus des travaux conjointement menés par les équipes de p-LearNet permettent de cerner les points suivants : « La différence entre information et formation devient plus difficile à cerner. Une information pertinente au moment et sur le lieu de la résolution d'un problème professionnel prend vite un tour pédagogique. La possibilité de conserver et de réutiliser cette information en augmente sa valeur. L'apprentissage informel à travers l'activité et les relations entre professionnels peut être pris en compte et largement encouragé et démultiplié. Les utilisateurs deviennent acteurs et s'emparent de ces outils personnels pour dépasser la simple diffusion de contenus et contribuer en direct à alimenter la base d'expériences et de connaissances de l'organisation. » (Derycke et al., 2008). Dans le domaine de l'activité en santé, nous avons analysé la place du document en situation d'apprentissage. Nous avons tout d'abord repéré les activités d'apprentissage auxquelles le professionnel de santé est confronté lors de son activité et nous avons identifié les modalités d'échanges pédagogiques qu'il met en œuvre. Ensuite, nous nous sommes intéressés plus précisément aux documents utilisés par les soignants – en particulier par les internes –. Nous avons identifié les documents utilisés lorsque les échanges ou acquisitions de connaissance étaient de nature pédagogique. Enfin nous avons modélisé et proposé un outil supportant une activité d'apprentissage non encyclopédique. L'identification des besoins pour les innovations technologiques est une tâche ardue. En effet, il est souvent impossible de travailler directement avec les futurs utilisateurs, pour lesquels il est très difficile de projeter leur activité actuelle dans un contexte technique futur qui, en plus d' être incertain, changerait en partie leur mode de pensée et d'action. Il est ainsi indispensable de passer par une phase d'analyse, d'une part, des possibilités techniques rendues possibles par les nouvelles technologies, et, d'autre part, des déterminants de l'activité des utilisateurs. La confrontation de ces deux aspects permet la mise au point des scénarios futurs de l'activité. Les outils informatiques en général et pervasifs en particulier permettent : 1) une dématérialisation de l'information; 2) une grande disponibilité de l'information, par l'utilisation d'une combinaison d'outils informatiques traditionnels comme les PC de bureaux et les outils mobiles, de l'ordinateur portable au smart phone; 3) la possibilité de partage et de co-construction de l'information entre plusieurs utilisateurs. L'analyse de ces propriétés a permis d'orienter l'analyse de l'activité sur la création, la recherche, l'utilisation et le partage d'informations utilisées par les internes lors de leurs stages dans les services de soin. L'objectif était d'identifier le type d'informations échangées avec les autres personnes du service. L'observation de l'activité des internes a été réalisée dans le service de Gastroentérologie du CHRU de Lille, où trois demi-journées d'observations ont été réalisées. Les informations suivantes étaient mesurées : localisation des internes dans le service nature de l'information communiquée destinataires et sources de l'information Une grille d'observation a été réalisée et implémentée dans le logiciel Studiocode®. Les observateurs ont caractérisé en temps réel les informations échangées entre les internes et les autres personnes du service. Actuellement, les internes n'ont un accès facilité aux ressources informatiques que dans leur bureau, où ils sont présents pendant 1/3 de leur temps de travail. Ils passent 51 % de leur temps dans le couloir ou la chambre des patients, où ils communiquent avec les infirmiers, les autres médecins, les patients et leur famille. Les informations de type factuelles concernent essentiellement les caractéristiques des patients pris en charge par l'interne. Assez logiquement, la majorité des informations se retrouvent chez le patient ou sa famille. Les informations échangées avec les autres internes ou infirmiers supportent leur travail coopératif. Les informations échangées avec le médecin sénior correspondent aux patients dont la prise en charge est plus complexe. Il y a de nombreux échanges correspondant aux savoirs de type encyclopédiques. La majorité des contenus émis par l'interne sont à destination des patients et leur famille, auxquels sont expliqués les paramètres de leur pathologie. Les autres destinataires sont les autres internes et infirmiers, où certaines informations pertinentes dans la prise en charge du patient sont communiquées. La majorité des informations reçues proviennent des médecins sénior (10 sur 18). La catégorie « autre » correspond essentiellement à un pharmacien Canadien en stage dans le service au moment de l'étude. Des échanges de type « connaissances procédurales » ont été observées. Assez logiquement, les internes reçoivent la majorité des connaissances des médecins séniors. Leurs émissions sont à destination des patients et ont lieu majoritairement pendant les examens cliniques, où l'interne explique au patient ce qu'il fait et pourquoi il le fait. Lors de nos observations, les internes ont très peu consulté internet pour la recherche d'information. Interrogés à ce sujet, ils nous ont fourni les explications suivantes : 1) nous les avons observés en fin de stage et ils rencontrent alors moins de défauts de connaissances qu' à leurs débuts. 2) pour les questions assez simples, ils demandent aux autres internes. Pour les cas plus complexes et quand ils en ont l'occasion, ils préfèrent solliciter les médecins sénior. Cette option, présente de nombreux avantages car la ressource est en général facilement accessible, la requête peut être faite en langage naturel et le médecin sénior connaît en général le patient, ce qui permet une contextualisation immédiate. Enfin, cela permet également de valider la prise de décision pour ce patient particulier. Les internes communiquent beaucoup d'informations oralement. Une partie importante d'entre elle concerne les savoirs de type « encyclopédiques » et les savoirs procéduraux. Ils reçoivent ainsi beaucoup de ce savoir des médecins sénior du service et un peu des autres internes. Il est intéressant de noter qu'ils sont également des vecteurs de savoir à destination des patients, infirmiers et autres internes. Lors de notre étude il n'y avait pas d'externes dans ce service, mais ceux -ci sont très probablement des destinataires privilégiés des connaissances encyclopédiques et procédurales. Concernant leurs besoins en recherche d'informations, les internes nous ont dit ne pas avoir de besoin particulier. Quand ils ne possèdent pas les connaissances nécessaires à la prise en charge d'un patient et que cette connaissance n'entre pas dans le cadre de leur spécialité, ils demandent directement un avis à un spécialiste. Par contre, si la question concerne leur domaine, ils cherchent de façon plus active. Ils disent ainsi ne pas avoir de besoins particuliers de recherche d'informations en dehors de leur bureau. Selon eux, les questions qu'ils se posent n'ont jamais de caractère urgent et ils préfèrent attendre d' être dans leur bureau pour effectuer la recherche « tranquillement ». Néanmoins, cette absence de besoins déclarés trouve également son origine dans la difficulté qu'ils rencontrent à se projeter dans un mode de gestion de l'information très différent du mode actuel. Ainsi, presque tous possèdent un carnet papier sur lequel ils notent toutes les informations qu'ils jugent utiles pour leur activité. Nous avons donc mené une seconde analyse pour identifier les documents pédagogiques utilisés. L'analyse du contenu du carnet nous a permis de mieux comprendre les informations qu'il contenait et mieux identifier celles dont les internes jugent avoir toujours besoin. L'analyse de l'activité a été réalisée auprès des Internes du service de chirurgie pédiatrique du CHRU de Lille. Quatre méthodes d'analyse ont été utilisées : des interviews qui ont permis d'acquérir de nombreuses informations sur la nature de leur activité. Cette méthode est utilisée au début d'une analyse car elle permet de dégager les principaux buts et objectifs des opérateurs. Néanmoins, cette technique a été utilisée tout au long de l'analyse, notamment après une période d'observation pendant laquelle les observateurs ont détecté des comportements qu'ils ne sont pas parvenus à interpréter ou pour investiguer des comportements peu fréquents qui n'ont pas pu être observés durant les observations. La technique utilisée est celle dite du « Pourquoi ? Comment ? », où les interviewers dirigent la personne interviewée par ces deux questions. L'objectif de cette méthode est de faire décomposer à la personne interviewée ses tâches en termes de buts et sous-buts (Bisseret et al., 1999); observations : des observations de type ethnographiques ont été menées dans les blocs opératoires du service de chirurgie pédiatrique; questionnaire : suite aux premières interviews et observations, un questionnaire portant sur les outils de communication et recherche d'informations a permis de généraliser l'étude aux Internes des autres services du CHRU. Une centaine de questionnaires ont été distribués pour un retour final de 32; analyse de traces : en complément de l'observation et des interviews, les documents papiers utilisés par les internes ont été analysés. Ainsi, trois carnets appartenant à trois internes en anesthésie ont été photocopiés et analysés. L'étude de ces traces permet d'identifier le type d'informations utilisées dans la réalisation de leurs tâches ainsi que le vocabulaire opératif. Les internes ont accès à des outils de recherche informatique dans la salle de soin ou leur bureau, où des ordinateurs fixes sont reliés à la fois au système d'information de l'hôpital et à internet. Une imprimante est en général également disponible. C'est là qu'ils travaillent les dossiers des patients et qu'ils effectuent de manière privilégiée leurs recherches sur internet. Ces recherches portent principalement sur les conduites de bonnes pratiques, les propriétés pharmaceutiques des médicaments, la prescription et l'analyse des données biologiques et sur les fiches descriptives de pathologies. Les anesthésistes ont également accès à un ordinateur connecté dans le bloc opératoire. Certains d'entre eux possèdent des pocket pc ou smart phones, sur lesquels sont parfois installés des programmes d'aide à la conduite de protocoles. La majorité des internes possède un « carnet ». Ce document, de taille modeste, est rangé dans la poche de la blouse. Les internes y renseignent les informations qu'ils jugent importantes pour leur pratique médicale. Ce document a l'avantage d' être toujours accessible et facilement utilisable. Lors de nos observations nous n'avons vu que rarement les internes utiliser cet outil. Néanmoins, tous nous ont dit tenir énormément à cet outil et ne vouloir s'en séparer à aucun prix. Les informations contenues dans un carnet sont pour la plupart des données recueillies lors de situations de travail pratique dans un service. Par exemple, un groupe de nouveaux internes arrive dans un service donné devant un cas particulier. Un responsable leur montre la conduite à tenir dans cette situation et chaque interne la note, à sa manière, dans son carnet personnel. Souvent, les notes ne sont pas prises de façon synchrone, mais reportées, après coup, proprement dans le carnet. Une même information pourra être dupliquée dans le carnet. Les couleurs ne sont pas fortement structurantes, il s'agit juste d'une mise en valeur avec la couleur disponible au moment de la prise de note. Des informations de différentes natures sont intégrées au document. Des éléments du type fiches issues d'internet ou résumés de cours peuvent être collés pour compléter les notes manuscrites. Parfois le carnet s'organise suivant un principe de répertoire, par ordre alphabétique. Le carnet de l'interne n'a pas vocation à être encyclopédique, il est plutôt un recueil de « recettes de cuisine » suivant les services et les situations. Les notes prises par les internes vont petit à petit créer une connaissance qui décrit les informations utiles, et ce, dans le contexte de leur service. C'est en ce sens que le carnet diffère des recommandations globales qui peuvent se trouver dans des connaissances encyclopédiques de type cours. Il est dynamique et mobile, il doit permettre de retrouver les informations rapidement. Plusieurs indices nous laissent alors croire qu'un carnet pervasif pourrait trouver place dans l'activité des internes : au début de leur stage, les internes démarrent avec un carnet vierge. Celui -ci est alors alimenté au fur et à mesure de leur activité. Il est évident que la construction de ce carnet par l'interne lui -même est une partie indispensable à l'assimilation de ces savoirs. Cependant, les internes recopient les informations manuellement ou photocopient des documents pour les coller dans ce carnet. Ce processus est long et fastidieux. De plus, il est connu que la recopie est une source d'erreur importante. Il pourrait ainsi être intéressant de proposer une bibliothèque de connaissance que l'interne pourra, de sa propre initiative, incorporer dans une version électronique du carnet; les caractéristiques du carnet de l'interne ont retenu notre attention. C'est un document pédagogique mobile qui propose des granules d'informations de faible taille. Il est fortement contextualisé. Son contenu s'accroît au fil de la capitalisation des connaissances. Il est partiellement indexé et annoté (système de couleur, mots clés des titres). Il est très important pour les utilisateurs. Sa consultation est rare, brève, mais doit apporter ou conforter immédiatement un savoir indispensable à l'activité. Proposer des documents numériques pédagogiques s'inspirant des caractéristiques de ce carnet peut aider à concevoir des outils pour le micro-apprentissage et pour l'apprentissage pervasif pendant l'activité de soins. Ces caractéristiques ne se retrouvent pas lors de la consultation de ressources pédagogiques plus classiques telles que des polycopiés de cours; de plus, l'informatisation du carnet pourrait proposer des fonctionnalités que la version papier ne permet pas : une mise à jour automatique du savoir des liens vers des formes plus détaillées du savoir etc. L'informatisation du carnet doit préserver les qualités reconnues par les internes à cet outil : mobilité : l'accès au carnet électronique doit être immédiat et au chevet du patient, on privilégiera donc des outils mobiles (PDA, Smartphone, netPC…). simplicité d'accès : les interfaces doivent être faciles à appréhender et diriger rapidement vers l'information pertinente. contextualisation de l'information : il ne s'agit pas dans ce carnet de reconstruire l'ensemble des informations encyclopédiques connues (« refaire le Vidal ») mais bien de se focaliser sur les savoirs qui présentent un intérêt dans un contexte donné (les médicaments du service de pédiatrie du professeur P.). Il convient alors de mémoriser les informations de contexte pour chacune des connaissances saisies. Mais elle va également permettre de nouvelles fonctionnalités : sauvegarde et échange de données avec la possibilité de transférer ses informations sur un autre support; liens hypertextuels vers des sujets similaires et connexes. D'une part, de nombreuses connaissances encyclopédiques existent et peuvent être mises en relation avec les documents inscrits dans le carnet (exemple un accès au Vidal en complément d'une information contextualisée sur un médicament, ou à un cours issu de l'UMVF), d'autre part, les informations du carnet peuvent également se mettre en relation les unes avec les autres; multimodalité : toute forme de note, écrite, sonore, photographique, etc., peut être envisagée dans le document électronique; indexation, annotation : des tags, des annotations, des index peuvent contribuer à poser une métadescription des informations pour enrichir la connaissance que l'on possède sur celles -ci; contextualisation : la contextualisation des informations peut s'enrichir en sélectionnant les informations pertinentes selon différents axes, en particulier en exploitant une indexation des documents; enrichissement collaboratif : le carnet peut se construire par capitalisation de savoir. Un nouvel interne pourrait alors disposer d'informations communes utiles, que ses prédécesseurs auraient rassemblées et qu'il continuerait à enrichir. Le carnet augmenté permettant alors de faciliter la mise en commun de notes et de synchroniser toutes les notes prises. Nous modélisons le carnet de la façon suivante : un mémo est l'unité de base d'information du carnet. A ce mémo, nous associons un titre, pour préserver les habitudes de notations remarquées lors de nos analyses. Des métadonnées de description de ces mémos sont proposées. Chaque mémo peut être mis en correspondance avec d'autres mémos. Les liens vers des éléments autres que le carnet (données encyclopédiques ou annuaires par exemple) sont proposés au travers d'un interfaçage du carnet avec un Framework plus général de gestion de contenu. Les axes de description des informations retenues sont, dans un premier temps, les suivants : la localisation géographique (par service), les médicaments, les syndromes, les pathologies, les conduites à tenir et protocoles. Ils permettent de contextualiser, de façon pertinente pour l'activité de soins, l'information à proposer lors de la consultation des carnets. Ces axes pourront évoluer par la suite en fonction de l'usage que feront les internes de ces documents. Les fonctionnalités du carnet que nous souhaitons mettre en place sont les suivantes : un accès distant au carnet; des possibilités d'import, export d'information; la mise en place d'outil de rédaction collective; la possibilité de consulter des ressources externes connexes aux thèmes abordés; la possibilité d'indexer les informations saisies, soit au travers d'annotations sémantiques, soit au travers d'éléments contextuels issus de la pratique tels que le créateur de la ressource ou le service dans lequel cette ressource prend du sens. L'architecture mise en place pour l'expérimentation repose sur trois composants : un serveur qui héberge les informations du carnet, une infrastructure réseau expérimentale, des dispositifs de consultations confiés aux internes. Le serveur héberge le logiciel nécessaire à l'écriture coopérative du carnet comme à sa consultation. Il est accessible aussi bien du réseau interne de l'hôpital que de l'internet permettant ainsi aux internes de l'alimenter même lorsqu'ils sont en dehors de leur service. L'infrastructure réseau expérimentale est constituée d'un ensemble de bornes wifi réparties dans les services cliniques. Seuls les dispositifs prévus pour l'expérimentation peuvent y accéder. Ils permettent la navigation sur le serveur du carnet de l'interne comme l'accès aux contenus pédagogiques disponibles sur internet. Les dispositifs de consultations sont constitués des postes de travail mis à la disposition des internes, de smartpad (e90 nokia) et de netbook (eeepc 901). Différentes catégories d'outils collaboratifs ont retenu notre attention pour la mise en œuvre de ce carnet : les CMS (Content Management System), les Wiki, les réseaux sociaux, les blogs. Les outils de type réseaux sociaux (ex. Facebook 12) sont à l'origine pensés avec une préoccupation sociale pour mettre en contact des individus, mais ils peuvent désormais être mis en place dans une sphère privée (ex. Ning 13) et offrent une palette d'outils pour déposer et partager très facilement de l'information, comme les forums, le « mur » d'information, etc. Cependant la structuration des données pour assurer un caractère pervasif aux informations du carnet de l'interne n'est pas aisément réalisable. De même les blogs, fortement structurés chronologiquement n'ont pas été retenus. Les outils de CMS sont conçus pour aider à la gestion de contenu et à l'administration des pages qui mettent en ligne les informations. Ils sont performants pour assurer l'édition d'un document, faciliter sa présentation au moyen de modèles prédéfinis et assurer les différentes étapes de validation avant publication des contenus. L'utilisation d'un CMS est cependant assez complexe pour éditer les petits grains de connaissances que sont les mémos et il n'est pas si facile de contextualiser les informations présentées. Nous avons retenu ce type d'outil pour mettre en place le canevas général d'accès non seulement vers le carnet de l'interne mais également vers des informations pouvant attirer les internes vers l'outil informatique. Nous proposons ainsi des hyperliens vers des outils dont l'intérêt est avéré (recherche bibliographique ciblée, annuaire, dictionnaire de médicaments, etc.). Nous avons utilisé Joomla 14, logiciel OpenSource qui présentait des fonctionnalités suffisantes. Les outils de type WIKI sont reconnus pour faciliter efficacement la construction collaborative d'informations. Le wiki permet de construire très facilement un réseau de pages liées entre elles. Chaque mémo du carnet de l'interne peut alors se concevoir comme une page du Wiki, le titre du mémo jouant le rôle du lien hypertexte. Des mécanismes intéressants tels que l'historique des pages créées et modifiées permettent de contrôler la provenance des informations. La possibilité d'organiser des discussions autour des concepts proposés dans les pages, parallèlement à la création de contenu, présente un réel intérêt pour sécuriser de façon collaborative la validité des contenus proposés. Nous proposons donc d'organiser le carnet via un Wiki. Il existe de nombreux moteurs de wiki disponibles en Open source. Le moteur MediaWiki 15 sur lequel repose l'encyclopédie libre en ligne Wikipedia 16 présente l'avantage d' être robuste. Ses fonctionnalités répondaient assez bien à nos besoins. Une zone de discussion sur les pages est facile à implémenter. Une organisation des liens autour des notions présentées dans la page en lien externes et liens internes est disponible. Ce Wiki dispose de fonctionnalités additionnelles fournies par une communauté active de développeurs. Parmi ces fonctionnalités l'interfaçage avec le protocole LDAP pour l'authentification, l'exportation des pages en PDF, la présence d'éditeur de texte évolué sont d'une importance particulière pour notre projet. Une structuration des documents par catégorie est proposée. Chaque catégorie peut être vue comme un ensemble de tags associés à la page concernée. L'extension Semantic MediaWiki 17 permet d'annoter des articles ou de typer des relations (liens) entre articles. Ce Wiki a été retenu pour l'implémentation de notre prototype. En nous appuyant sur l'analyse des échanges pédagogiques menés pendant l'activité de soins, nous avons identifié un document spécifique : le carnet de l'interne. La numérisation de ce carnet ouvre des perspectives intéressantes pour le micro-apprentissage pervasif. Nous avons mis en place l'infrastructure nécessaire au déploiement d'un essai dans les services. Nous avons distribué des outils mobiles : des eeePC Asus 900 ou 901 et des Smartphones Nokia N90 à certains internes des services dans lesquels nous allons mener nos expérimentations. Dans un premier temps, ces outils ont été donnés sans que l'environnement du carnet de l'interne ne soit rendu disponible. L'utilisation des outils mobiles est alors très faible, malgré le nombre de connaissances encyclopédiques disponibles en ligne, ce qui conforte notre hypothèse sur l'importance des services proposés. Nous avons développé un prototype de carnet de l'interne. Nous disposons d'un carnet proposant des informations contextualisées en fonction des grands axes de catégorisation identifiés. Quelques formulaires ont été développés dans le Wiki pour aider à la saisie d'information en facilitant leur catégorisation. La suite de ce travail consiste en l'évaluation de ce prototype dans les services. En particulier, les aspects collaboratifs pour la capitalisation de connaissances seront à explorer. De nombreuses perspectives de recherche sont ouvertes par cette étude exploratoire. La capitalisation des connaissances devrait permettre d'identifier des connaissances générales, ou plus spécifiques à certaines équipes (dans tel service c'est le médicament avec le dosage xxg/l que l'on trouve généralement) et spécifiques à certaines équipes ou certains individus. C'est bien le fait de capitaliser ces connaissances appliquées qui devraient apporter une plus value à ce carnet, en particulier pour l'interne fraîchement arrivé dans un service. Nous devons explorer la possibilité de proposer des outils permettant de gérer la dualité du carnet collaboratif et du carnet personnel, en combinant les apports des outils de type Wiki avec des outils plus performants pour le taggage de données personnelles. A côté de la consultation des informations encyclopédiques, le travail d'acquisition ou de consolidation des connaissances s'appuie au quotidien sur d'autres supports : carnet de l'interne, clé USB dans laquelle on stocke ses informations pertinentes par exemple. Si de nombreux travaux sont menés dans le cadre de l'ingénierie pédagogique afin de proposer des enseignements adaptés, il est également important de réfléchir à des modalités pour un apprentissage modeste, ponctuel et précis, et de proposer des documents qui pourront le nourrir. Notre analyse de l'utilisation des documents pédagogiques pendant l'activité de soins souligne la difficulté que nous rencontrons à intégrer des connaissances d'apprentissage dans la pratique quotidienne. Le travail que nous proposons autour du carnet de l'interne ne fait qu'ébaucher des solutions mais, en proposant un modèle de document permettant de capitaliser des connaissances appliquées. Il permet de nourrir une réflexion sur la place de nouveaux documents numériques dans une perspective d'apprentissage pervasif .
Peu de documents pédagogiques sont consultés pendant l'activité de soins. Or de nos jours, de nombreux outils mobiles pourraient s'intégrer dans l'activité. Nous présentons nos recherches autour de la production de documents pédagogiques, accessibles de façon pervasive. Tout d'abord, nous présentons le contexte des enseignements en santé, rarement conçus pour être consultés pendant l'activité de soins et celui de l'utilisation d'outils mobiles. Et nous introduisons notre objectif d'apprentissage pervasif. Dans une seconde partie, nous présentons les analyses que nous avons menées dans les services hospitaliers, d'une part, pour comprendre où et quand se déroulent les échanges pédagogiques, d'autre part, pour analyser le type de documents échangés. Le carnet de l'interne retient notre attention. La section 3 décrit un modèle de carnet augmenté ainsi que l'implémentation qui en est proposée, avant d'aborder les sections de discussion et de conclusion.
sciencesInfo_11-0059501_tei_DN_123_0079.tei.xml