Les étapes de la production de l’information en ligne

Le « fact-checking » et les facteurs ayant permis son émergence

Évolutions technologiques et sociétales

Avant de tenter de comprendre ce qui a pu impulser cette pratique du « fact-checking », il est important de bien la cerner. Car si vérifier les faits est une des principales composantes de la profession, le « fact-checking » n’en est qu’un dérivé, pensé comme un outil journalistique à part entière. Les journalistes ne pratiquant pas la technique de vérification des faits telle qu’on pourrait la définir aujourd’hui – permettant, dans un laps de temps assez court, d’authentifier ou non une information en recourant à des bases de données sourcées – n’en sont pas moins rigoureux. La pratique prend sa raison d’être sur le Web.
Comme évoqué en introduction, les médias de tous horizons (télévision, radio, presse écrite) s’intéressent à la pratique et de plus en plus de sites (Factamedia, factcheck.org, Politifact, factcheck.eu, Full Fact, africacheck.org, etc.) et de rubriques (les « Décodeurs » du Monde, « Désintox » de Libération, « détecteur de mensonges » du JDD, « Fact Check » d’ABC News, « Truth Teller » du Washington Post, « Reality Check » du Guardian …) ont été créés ces dernières années avec pour objectif « d’en venir aux faits » (apparaît sur le site du Monde) et de mettre à l’épreuve « la vérité ». Recouper les sources, les diversifier, vérifier des données … Toutes ces actions n’ont jamais été aussi simples à réaliser que grâce à l’Internet.
Depuis l’apparition du web en 1990 et du premier navigateur trois ans plus tard, le journalisme en ligne s’est considérablement développé. De la simple version électronique du journal à toutes les réflexions faites aujourd’hui autour des différents temps (consultation le matin, en journée, le soir ou le week-end) et supports (smartphones, tablettes, ordinateurs ou encore phablettes) de l’information, la profession s’est progressivement mise à l’heure numérique. Les technologies de l’information et de la communication ont eu une influence majeure sur les usages du journalisme. Les principaux quotidiens américains (Wall Street Journal, New York Times, Chicago Tribune) sont les premiers à expérimenter la mise en ligne, dès le début des années 1990. Quelques années plus tard, le mouvement s’étend en Europe mais aussi en Asie et en Afrique. À mesure que les différents sites d’information se développent, le rôle du lecteur – auditeur – internaute devient lui aussi plus  important. D’abord récepteur « passif » ne participant pas à la production de l’information, il est aujourd’hui pleinement intégré et tend de plus à plus à vouloir collaborer avec la sphère journalistique.
Les réseaux sociaux rendent d’autant plus réelle cette interactivité.
Sans faire un retour extrêmement détaillé sur ces évolutions de la presse en ligne, on comprend toutefois l’enjeu central qu’est devenu, de son apparition à sa phase d’enracinement aujourd’hui, le web pour le monde médiatique. Désormais, il n’existe presque plus une seule entreprise de presse qui n’est pas dotée d’équipes spécialisées. Cette extension de la sphère journalistique contribue à redessiner la profession du journaliste. Du travail de terrain, qui constituait auparavant la source principale de ses informations, il doit désormais faire preuve de nouvelles compétences, plus connectées. Les bases de données d’entreprises ou de gouvernements, les « breaking news » fuitant instantanément sur les réseaux sociaux … sont autant d’éléments qui vont constituer de nouvelles références pour les professionnels de l’information. Pour prendre l’exemple de Twitter, la fusillade à Virginia Tech trouve son premier écho sur le réseau social en 2007. Deux ans plus tard, l’amerrissage d’un avion sur l’Hudson fait réagir immédiatement les adeptes de la plate-forme de micro-blogging. En France, l’exemple le plus connu est sans doute le tweet d’un certain Jonathan Pinet en mai 2011, qui enflammera la Toile et fera naître ce que les médias ont appelé « l’affaire DSK ».
C’est au milieu de toute cette interconnexion d’outils et d’acteurs que le journaliste doit arriver à faire le tri et vérifier les faits. Alice Antheaume, directrice adjointe de l’école de journalisme de Sciences Po Paris, résume le déluge de données dans lequel il est plongé : « Autrefois, un journaliste pouvait passer des semaines, voire des mois, à chercher un seul chiffre pour les besoins d’une enquête. Aujourd’hui, c’est l’inverse : il est abreuvé d’informations, sur tout, tout le temps. Naviguant entre les flots, il trie et départage information et rumeur, vrai et faux, essentiel et secondaire, en fonction de la demande de l’audience. Par « trier », on entend aussi rendre lisible et organiser cette multitude de données. » Le travail réalisé par les rédactions du Guardian, du Monde, d’El Pais et du New 13 York Times pour discerner les documents secrets de Wikileaks les plus pertinents, en décoder le contenu et les contextualiser est, à ce titre, un exemple saisissant. La fonction de « trieur » évoquée par Alice Antheaume est intéressante car elle introduit également la notion
d’organisation des données, de mise en forme. Une dimension qui, on le verra, prend tout son sens avec le datajournalisme.

Un journalisme critiqué, à la recherche d’une nouvelle crédibilité

Depuis des années, la profession de journaliste fait l’objet d’une remise en cause permanente.
Un climat de défiance semble s’être installé avec les lecteurs – auditeurs – téléspectateurs – internautes – consommateurs. La faute à qui ? À quoi ? Dans son ouvrage intitulé « Mauvaise presse », sur lequel nous reviendrons plus en détail, Cyril Lémieux considère que « la critique des journalistes n’est pas quelque chose de très neuf. Il est vrai que le journalisme a toujours été de ces activités qui réclament à être justifiées. De quel droit des individus s’autorisent-ils à rendre publics des faits et des jugements qui peuvent endommager le fonctionnement de certaines institutions ou ruiner l’honneur de certains particuliers ? »
Chaque début d’année, l’institut de sondage TNS-Sofres publie son « baromètre de confiance dans les médias » . S’il s’agit bien de sondages et que, par conséquent, leur remise en cause peut être faite, ce baromètre représente tout de même un indicateur important qui permet d’avoir des tendances de « l’opinion » sur la profession. Le sondage pour 2015, effectué pour le journal La Croix, a interrogé un échantillon de plus de 1000 personnes (de sexe, d’âge et de profession différente). Que dit cette enquête ? L’intérêt porté aux médias (dans leur globalité) a évolué de plus de sept points par rapport à l’an passé (76% des personnes interrogées portent un intérêt assez ou très grand pour les médias). Ensuite, l’indice de crédibilité des différents médias comme source d’information est également questionné. Voici, du plus au moins crédible, les médias ayant les faveurs de l’opinion.

De l’écrivain au « vautour » chercheur de scoops

Le sociologue Erik Neveu souligne, dès les premières pages de son ouvrage « Sociologie du journalisme » , l’influence de la sphère littéraire sur la presse française. Même s’il semble difficile de réduire l’émergence du journaliste français à cette influence, toujours est-il que cette tradition d’une presse engagée politiquement, intellectuelle et de la figure du « journaliste-écrivain » est une des principales caractéristiques du journalisme « à la française ». Lorsque le modèle anglo-américain (qui a fait émerger bon nombre de pratiques journalistiques utilisées aujourd’hui) s’attachait particulièrement au « newsgathering » (collecte de l’information), à construire un discours de l’objectivité – devenue depuis lors une sorte de « norme professionnelle » pour Neveu – ou à la figure du reporter sur le terrain, le modèle français développait un style, une compétence littéraire « faite de talent polémique et de pyrotechnie rhétorique » . La profession de journaliste n’est pas envisagée comme telle : elle est pour Neveu une position d’attente vers les vraies carrières de la littérature et de la politique. Des plumes célèbres comme Balzac, Dumas, Hugo, Zola ou encore Camus côtoient des pionniers comme Albert Londres ou Lucien Bodard, contribuant à associer l’écrivain et le journaliste.
L’industrialisation de la presse en France marque une scission et affaiblit l’influence de la sphère littéraire. La vente au numéro se généralise, les titres de presse se multiplient en même temps que l’économie du secteur se développe. Cyril Lémieux explique qu’à la fin du XIXe siècle, le journalisme à grand tirage commence à être accusé de « faire dégénérer les mœurs ». « Ce n’était pas seulement à travers son influence sur le public populaire et la débat public […] Ses détracteurs lui imputaient aussi l’avilissement des conduites dans le journalisme même » . Le sociologue reprend également dans son ouvrage la définition faite par le Larousse, en 1875, du journaliste : « les premiers arrivés sur les champs de course ou sur les théâtres d’incendie, questionneurs acharnés, se faufilant dans les groupes, prenant des notes sur les enfants brûlés, les maris battus, les passants écrasés. » On est désormais éloigné de 34 l’écrivain, le reporter de terrain fait son apparition. Néanmoins, comme le souligne Lémieux, les codes de bonne conduite ne semblent pas arrêtés. Le « scoop » fait son apparition, en même temps que les professionnels de l’information se mettent au service d’intérêts économiques particuliers. Les premières accusations de sensationnalisme, « de collusion et de manipulation, de tromperie et de voyeurisme, de partialité et de superficialité, de suivisme et d’artificialité » , commencent à se faire entendre.

Information en ligne et vérification des faits

Les étapes de la production de l’information en ligne

Comme rappelé en introduction, la vérification des faits est une prérogative qui est aux fondements mêmes de l’activité journalistique. Si celle-ci s’est développée et intégrée à mesure que la profession construisait sa propre grammaire (déontologie, règles, normes …), elle a évolué depuis ses débuts, notamment avec l’avènement du Web. Désormais, le nombre de données disponibles est considérable. Sur Internet, le nombre de sites, blogs, forums, réseaux sociaux … susceptibles de contenir des informations pouvant être intéressantes pour le journaliste est difficilement quantifiable. Ce dernier se trouve au cœur d’un processus de production en pleine mutation : il doit, en partie, réapprendre à traiter l’information en ligne, qui répond à des codes et des caractéristiques qui lui sont propres. L’utilisation du « factchecking », telle qu’on peut la voir dans les médias aujourd’hui, s’est développée tout d’abord en ligne avant de progressivement trouver une place dans l’ensemble des médias (cf. l’annexe « panorama du « fact-checking » dans les médias français »). La pratique requiert des aptitudes qui n’étaient jusqu’alors pas mobilisées, ou en tout cas pas dans ces dimensions, dans la presse écrite. A tel point que, pour de nombreuses rédactions, la fonction de vérification est devenue une spécialité (cf. l’exemple du Der Spiegel ci-dessous).

Der Spiegel, ce maître du « fact-checking »

Le bimensuel de l’école de journalisme de Columbia aux Etats-Unis a publié en avril 2010 une conversation de Craig Silverman , rédacteur pour BuzzFeed au Canada, avec deux « fact-checkers » de l’hebdomadaire allemand du Der Spiegel, considéré comme l’un des fleurons du journalisme d’investigation à travers le monde. On apprend que la technique de vérification des faits (même si elle a considérablement évolué depuis) a été réellement introduite dans les années 1950 au sein de la rédaction. Les deux spécialistes évoquent que près d’une centaine de personnes travaillent sur la vérification des faits, dont 80 à temps plein. Ceux-ci sont répartis selon six aires d’expertise identifiées par l’hebdomadaire : la politique, la science, l’économie, les affaires étrangères, la culture et le sport. On ne trouve pas seulement des « fact-checkers », mais aussi des personnes travaillant sur le traitement des bases de données et sur l’indexation de l’information. Ils expliquent aussi qu’une personne est chargée de vérifier les faits, tandis qu’une autre vérifie les photos. Si le Der Spiegel est l’un des pionniers du « fact-checking », il l’est aussi quant à la manière de penser la production de l’information. L’originalité de leurs démarches repose principalement sur la coopération entre les auteurs des articles et les « fact-checkers ». Comme l’explique Axel Pult, l’un des deux spécialistes, ces derniers ne sont pas uniquement chargés de vérifier les faits. Leur rôle est double : ils accompagnent d’abord les auteurs dans le processus de recherche d’informations, avant ensuite de reprendre leur casquette de vérificateurs des faits. Cette conception collaborative rompt ainsi avec le modèle américain (largement repris en France) selon eux, où le fact-checker n’est mobilisé qu’une fois l’article écrit.
Dans son ouvrage « Le journalisme numérique », Alice Antheaume, la directrice adjointe de l’école de journalisme de Sciences Po Paris, également journaliste pour Slate et chroniqueuse dans l’émission « Médias le mag » sur France 5, revient sur la chaîne de production de l’information en ligne. Elle explique notamment que les étapes de traitement sont les mêmes en ligne ou hors-ligne, à travers le quatuor « enquêter, vérifier, raconter, diffuser ». Mais, « ce qui change, dans la sphère numérique, c’est la façon dont elles sont réalisées. Car on n’enquête pas de la même façon sur le terrain réel que sur le réseau, on ne vérifie pas les mêmes éléments, on n’utilise pas les mêmes outils ni les mêmes formats pour mettre en scène une information et la diffuser en ligne » . Sur les données chiffrées, elle explique qu’on peut en trouver énormément sur Internet. La difficulté réside dans le fait de trouver lesquels vont être vraiment pertinents pour le lecteur. Par exemple, le développement du mouvement des données ouvertes ou « Open Data » a contribué à favoriser l’accès des journalistes à tout un tas de sources potentielles, provenant aussi bien de collectivités publiques que d’entreprises privées. Elle prend notamment l’exemple de l’enquête de lemonde.fr qui, en 2012, a exploité les données d’Ameli-direct, le site de l’Assurance maladie, pour pointer les régions où les médecins pratiquaient des dépassements d’honoraires et celles qui, au contraire, les respectaient le plus. Pour bon nombre de spécialistes, repris ici dans l’ouvrage, « certains des postes les plus recherchés et les mieux payés des dix prochaines années vont revenir à des statisticiens Internet et autres prospecteurs de données (« data miners ») » . De quoi assurer du travail aux « fact-checkers ».

Les limites et les défis de la technique de vérification des faits

De nombreux journalistes français se sont montrés favorables quant à cette technique de vérification des faits. En 2012, le « fact-checking » se révèle aux yeux de l’Hexagone.
L’élection présidentielle érige la pratique en genre à part entière. Les médias ouvrent leur propre rubrique, les paroles des candidats sont observées avec la plus grande attention. Dans un article publié sur le site d’Acrimed en novembre 2014, Benjamin Lagues dresse un portrait critique du « fact-checking », en s’appuyant sur des exemples relayés par ces médias. S’il conçoit que le technique « peut être saine et féconde pour le journalisme », il détaille que dans certains cas, celle-ci « a parfois été dévoyée pour devenir dans certains cas une pratique inutile, voire contre-productive » . Le premier élément qu’il soulève est qu’il arrive que le « fact-checking », érigé en rubrique quotidienne, n’en devienne un prétexte pour finalement ne rien démontrer. Tous les jours, il faut alors trouver de quoi vérifier, tenter de dévoiler un mensonge d’un personnel politique … Ce qui, bien sûr, n’est pas toujours le cas. La deuxième limite que pointe Benjamin Lagues, c’est une vérification orientée politiquement. Il prend l’exemple de la rubrique « Désintox », tenue par Cédric Mathiot. Si la ligne éditoriale de
Libération est connue, et en ce sens peu surprenante, le journaliste regrette que la rubrique ne s’arrête parfois que sur des éléments de forme, et non pas vraiment de fond. Une déclaration à l’emporte-pièce d’un homme ou d’une femme politique (de droite de préférence), et la démonstration du contraire tombe. Le « fact-checking », certes, joue son rôle, mais ne contribue pas vraiment au débat d’idées et manque de contextualisation. L’auteur prend l’exemple des propos de Brice Hortefeux sur la réforme pénale, selon lequel « la loi Taubira aboutira à ce que 30% des condamnés à de l’incarcération ne soient finalement pas emprisonnés ». En s’appuyant sur la loi, on s’aperçoit que c’est faux. Et c’est tout. Enfin, Benjamin Lagues revient sur des vérifications partielles, visant davantage à savoir si la source citée par un élu (exemple ici d’Alain Juppé) est correcte et pas surévaluée. « Vérifier certains faits pour apprécier le débat public… ou vérifier les faits simplement parce qu’ils sont vérifiables ? » , se demande le journaliste. Et d’ajouter : « Rapidement victime de son succès, 55 le « fact-checking » est en réalité devenu un genre quasi-autonome dans certains médias : équipe dédiée, chronique quotidienne, rubrique hebdomadaire, etc. In fine, puisqu’une case est à remplir, il fallait vérifier à tout-va. Et dans l’urgence, souvent, seules les données les plus rapidement vérifiables sont analysées. Résultat: une vérification industrielle des faits, mais une production parfois famélique d’informations. »
Si la vérification des faits peut paraître dématérialisée en ligne, elle n’en reste pas moins complémentaire, sur des événements en direct, avec une autre dimension : la réalité du terrain.
Le danger explique l’auteure est, lors d’événements importants en train de se produire, de confondre vitesse et précipitation. Si transmettre l’information le plus rapidement possible est un objectif, toujours est-il que ce n’est pas un impératif. Encore faut-il être sûr de l’information en question. La crédibilité est un terme important pour n’importe quel média, les lecteurs – téléspectateurs – auditeurs – internautes s’appuyant sur cette légitimité réelle ou supposée. Alice Antheaume prend l’exemple du traitement fait par le New York Times de la tuerie de Newtown, aux Etats-Unis, en 2012. Quotidien de référence, il avait commis des erreurs et révélé des informations fausses en Une de leur édition, en divulguant notamment le mauvais nom du tueur. Dans une tribune, la « public editor » (représentante des lecteurs) du New York Times Margaret Sullivan insistait sur le fait « qu’il ne suffit pas de publier vite, il faut publier vrai ». Elle expliquait que le chef de la police, selon une des reporters présente 57 sur le terrain, était mis sous pression par les médias et n’avait transmis des informations que partiellement vérifiées. Preuve s’il en est que la réalité du terrain peut également être trompeuse, et pas toujours facile à vérifier.

Une fonction de vérification en pleine mutation

« Fact-checking » et datajournalisme

Données, chiffres, traitement, vérification, recoupement … Désormais, tous ces termes, dans le milieu journalistique, évoquent immédiatement un type de journalisme qui connaît un essor considérable depuis quelques années : le « datajournalisme ». Que désigne-t-il ? Le journalisme de données est capable, selon Alice Antheaume, « de mettre en scène des chiffres pour raconter un sujet d’actualité » . Pour ses défenseurs, le datajournalisme est synonyme de davantage de rigueur et de précision : on ne s’appuie pas sur des opinions, mais sur des données chiffrées, des faits vérifiés et incontestables. Reste que sa définition reste floue, et que toutes les dimensions qu’il comporte ne sont pas évidentes à évaluer. Sylvain Lapoix résume les lieux communs qui reviennent : « Pour certains, faire du datajournalisme, ce serait simplement faire trois schémas avec de jolis dessins attractifs et faciles à comprendre pour mettre en scène quelques « chiffres clés ». C’est une démarche marketing qui n’est pas fidèle à ce qu’est et peut être le datajournalisme. » Pour lui, l’industrie des informations 72 tend de plus en plus vers le « journalisme Shiva », qui veut faire du professionnel de l’information un être polymorphe, capable « d’écrire, faire des graphs, du son, de l’image, et en plus doit être généraliste ». Or le journalisme de données se compose de plusieurs dimensions qui, au contraire, fondent sa pratique sur le recours à tout un tas de compétences diverses. Les Décodeurs, qui font aujourd’hui davantage office de vitrine du datajournalisme que du « fact-checking », en sont un exemple saisissant.
Sur quelles dimensions se fonde le datajournalisme ? Tout d’abord, la collaboration entre différents acteurs est une des composantes essentielles du datajournaliste, que Sylvain Parasie appelle aussi « journaliste-programmeur » ou « journaliste-hacker ». Des passionnés d’informatique – mais pas que – vont mettre en commun leurs connaissances et leurs savoirfaire avec des journalistes. Sylvain Parasie et Eric Dagiral expliquent que c’est environ à partir de 2005, avec la mobilisation pour l’ouverture des données publiques, que s’inscrit le journalisme de données. « Un assemblage hétérogène d’entrepreneurs du Web, de militants politiques, de programmeurs informatiques, de passionnés d’informatique et de journalistes joignent leurs forces pour réclamer la libération des données produites par les pouvoirs publics […] ils investissent les technologies du Web pour concevoir un grand nombre de projets dont ils attendent qu’ils augmentent la transparence des gouvernements et la participation des citoyens. » Pour prendre un exemple, aux Etats-Unis la radio new-yorkaise 73 WNYC avait publié une carte interactive sur le prix du lait, d’une salade et d’un pack de bières dans les commerces de la ville, en sollicitant les auditeurs pour l’aider à compléter la carte. Mais si cet aspect participatif est l’une des pierres angulaires du datajournalisme, il paraît toutefois important de préciser qu’il n’est pas le seul fait du journalisme de données. On le retrouve également pour le « fact-checking ». Les citoyens, les internautes (cf. l’appel aux questions des internautes sur le blog comme sur la rubrique des Décodeurs) participent à la transmission de l’information, en effectuant notamment un travail de veille et d’alertes sur des chiffres erronés. Il y a également un autre élément qu’il faut remettre en perspective : le mouvement de libération des données publiques. Certes, celui-ci a permis d’accéder à davantage de matière et a suscité l’intérêt commun de tout un tas d’acteurs différents, quelle que soit leur origine sociale ou leur statut professionnel. Mais cela ne s’est pas enclenché au milieu des années 2000. Beaucoup, comme le soulignent Parasie et Dagiral, étaient investis dans les communautés du logiciel libre, avec une idée déjà bien précise de ce qu’est et doit être l’Internet : un outil ouvert à tous, une aide au citoyen reposant sur une utilisation libre et non-privative. Adrian Holovaty, journaliste et développeur américain diplômé d’une école de journalisme et créateur de Django – plateforme de programmation web reconnue – et fondateur d’EveryBlock – sorte de communauté de voisinage en ligne – est l’une des figures phares qui illustre ceci.

Données, journalisme et statistique

Lors des Assises du journalisme, qui se sont tenues à Metz en 2014, une conférence regroupant de nombreuses personnalités (Romain Hugon (journaliste), Pierre Audibert (secrétaire général du Conseil national de l’information statistique (CNIS)), Karen Bastien (datajournaliste cofondatrice de WeDoData), Béatrice Beaufils (statisticienne en psychologie sociale) et Marion Selz (statisticienne en sociologie)) (mettre en bas de page) s’est tenue, portant sur « l’information par les chiffres : peut-on compter sur les journalistes ? ». L’idée était de comprendre dans quelles perspectives le travail que réalisent les journalistes, notamment sur les données, s’apparente à celui effectué par les professionnels de la statistique. Karen Bastien a expliqué que l’analyse statistique pour la profession est primordiale, et permet de répondre à des questions que se pose la société. Elle a pris notamment l’exemple des travaux réalisés sur la question « est-ce que les villes les plus riches votent à droite et les plus pauvres à gauche ? », en tentant de démonter les clichés, ou encore sur l’examen des résultats de l’extrême droite en fonction du revenu médian. Pour être compris, explique-t-elle, les chiffres doivent être à mi-chemin entre la bonne visualisation et les articles de fond. C’est le cas notamment de l’application « Le Pariteur » qui propose, à partir d’une base de données extrêmement fournie, un jeu à l’internaute lui permettant de savoir selon son sexe s’il gagne plus ou moins qu’une femme, en précisant quelle est sa profession, son âge etc. Béatrice Beaufils et Marion Selz, toutes deux membres de l’association Pénombre – espace de réflexion sur l’usage du nombre dans le débat public – ont toutefois mis en garde contre l’invasion de cette nouvelle religion du chiffre dans les médias, en précisant que « le journaliste, avant d’être un statisticien, est un homme de terrain qui décrit les réalités », et qu’il « faut être vigilant face à l’utilisation tout azimut des chiffres » . Sylvain Lapoix, dans son entretien avec Samira Ouardi, parle davantage d’une « réappropriation » de l’outil statistique par les journalistes, « avec un objectif supplémentaire : que la donnée ne soit plus simplement un élément illustratif ou de simple argumentation, mais qu’elle soit bien le terreau et le fondement de l’enquête pour aller plus loin » . Il ajoute également qu’avec « l’essor des nouvelles technologies et la démocratisation d’un certain nombre d’outils permettant de manipuler les données et les documents, on a désormais à disposition un certain nombre de fonctionnalités qui permettent de faire du tri, du classement, du traitement de données en grande quantité et apportent un niveau de maîtrise du matériau journalistique (statistiques, études, enquêtes…) assez proche de celui de certains statisticiens et cela ouvre la porte à un certain nombre de démarches jusque-là plutôt réservées à des infographistes ».

Algorithmes et robots à la conquête de la vérification des faits

Aujourd’hui, sans forcément que l’on puisse s’en rendre compte, de plus en plus de services s’automatisent dans la sphère journalistique. Les algorithmes sont partout, et deviennent même des « camarades de chambrée » . Comment ? En réalité, plusieurs éditeurs de presse en ligne sous-traitent une partie de la page d’accueil de leurs sites. Alice Antheaume explique qu’ils en « confient la gestion à des robots qui régentent par exemple des listes répertoriant les articles les plus envoyés, les plus commentés, les plus populaires » . Eli Pariser, président d’Upworthy, un site web spécialisé dans le contenu viral, expliquait en 2014 lors du festival South by Southwest – qui offre une large vitrine aux médias interactifs – à quoi servait l’algorithme en place sur la plate-forme : « un algorithme est un bout de code qui nous dit ce que l’audience veut voir, et tente de trouver les éléments qui vont maintenir les lecteurs sur un site, les encourager à cliquer sur des contenus et des publicités. » Et pour se rendre compte 93 de l’impact considérable que prennent ces programmes informatiques, Eli Pariser va droit au but : « ces petits bouts de code sont bien plus puissants que les plus puissants des directeurs de rédactions. » La curation, terme qui désigne cette sélection et ce partage des contenus et 94 qui a pour objectif d’améliorer le référencement d’un site web dans le but d’augmenter son audience, est un enjeu majeur pour tous les médias en ligne. Ce journalisme assisté par ordinateur (ou JAO), qui définit en réalité pratiquement toutes les actions effectuées par des journalistes sur le Net (recherche et vérification de l’information, traitement, mise en forme, publication) est en évolution perpétuelle. De nouveaux logiciels, de nouvelles applications, toujours plus performantes, renforcent la flexibilité des professionnels de l’information, qui doivent désormais lorgner un peu plus du côté des programmeurs que de leurs ancêtres écrivains, surtout en France. Bien écrire n’est plus une condition suffisante.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
I) Le « fact-checking » et les facteurs ayant permis son émergence
1) Evolutions technologiques et sociétales
– Un outil journalistique « made in USA »
2) Un journalisme critiqué, à la recherche d’une nouvelle crédibilité
– De l’écrivain au « vautour » chercheur de scoops
II) Information en ligne et vérification des faits
1) Les étapes de la production de l’information en ligne
– Der Spiegel, ce maître du « fact-checking »
– Les limites et les défis de la technique de vérification des faits
2) Le « nouveau fact-checking » de la rubrique des Décodeurs du site lemonde.fr
– L’organigramme des Décodeurs
III) Une fonction de vérification en pleine mutation
1) « Fact-checking » et datajournalisme
– Données, journalisme et statistique
2) Algorithmes et robots à la conquête de la vérification des faits
– Quelques initiatives mêlant journalistes et robots
Conclusion
Annexes

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *