Tag Archives: algorithmes

Les algorithmes au secours de la censure ? Le projet Deepnews

Devant la multiplication des sources d’information, en particulier sur internet, de nombreux projets existent pour qualifier l’information. Du désastreux et non crédible Decodex (financé par Google) du Monde, au Checknews de Libération en passant par les notes de Facebook ou de Google. Depuis que deux lois votées en Allemagne et en France sur les infox sur les réseaux sociaux prévoient des sanctions pécuniaires ou pénales contre les contrevenants, de nombreuses sociétés commerciales tentent de bâtir un modèle prédictif qui permettrait d’éliminer les fameuses infox.

Les critères du « bon algorithme »

Un excellent article du Monday Note de Frédéric Filloux (25 février 2019) précise les critères que devrait satisfaire l’algorithme du futur :

Devrait pouvoir être utilisé par tout l’écosystème, rédacteurs, éditeurs, publicitaires, marchands.
Devrait être automatique
Devrait être en temps réel, sans attente d’analyse humaine
Devrait approcher une fiabilité de 100%

Le projet Deepnews

Deepnews est né à Stanford en 2016/2017. Développé pendant deux ans aux États-Unis grâce à une bourse, il a été transféré à Paris à l’été 2018 pour des raisons de coût. Le système est entièrement fondé sur l’intelligence artificielle et classe les informations (exclusivement en anglais pour le moment, avons nous compris) sur une échelle de 1 à 5 en fonction de leur possible véracité. Une note de 5 égale une information quasi sûre, une note de 1 égale une information quasi fausse, avec les trois notes intermédiaires.

Les paramètres (de l’ordre de 22/25 millions) permettent de classifier les items, de les mettre en rapport, pour déceler des interférences qualifiantes. Des comparaisons sont ensuite faites entre des analyses humaines et celles de l’intelligence artificielle.

Limites et interrogations

L’auteur indique que début 2019 Deepnews classifie correctement 80% des cas. Autrement dit une analyse automatique confirme une analyse humaine dans 80% des cas. La déviation humain/non humain semblerait inférieure à un point (4 au lieu de 5, 3 au lieu de 2 ou le contraire etc). Un modèle concurrent développé par Elon Musk et ses associés, Open AI aurait recours à un nombre de paramètres nettement plus important (70 fois plus nombreux) mais avec des résultats nettement inférieurs plus proches des 50%, le système se trompant une fois sur deux. Deepnews semble mieux fonctionner, ses créateurs essayant de le tromper par exemple en supprimant la ponctuation d’un texte ou en enlevant tous les noms propres pour le leurrer et corriger ensuite.

Dans tous les cas ces nouveaux systèmes – dont la motivation est bien plus le futur profit que la recherche de la vérité universelle – posent question. Que se passe-t-il lorsque le système se trompe ? Quels sont les freins qui permettent de corriger en temps réel ? Comment intégrer différents univers linguistiques ? Le système pourrait il mener à une sorte de contrôle universel de l’information ? L’enfer est pavé de bonnes intentions disait ma grand-mère. Deepnews et ses frères semblent plus proches du diablotin fourchu que des gentils anges, même s’ils s’attribuent volontiers les ailes de ces derniers. Au nom de la vérité vraie, bien entendu.

Texte repris du site de l’OJIM

Les algorithmes de la censure régiront bientôt votre information

10/05/2017 – INTERNATIONAL (NOVOpress avec le bulletin de réinformation de Radio Courtoisie) :
Facebook, l’Otan et de nombreux titres de la grande presse profitent des élections pour travailler à un modèle de contrôle orwellien. Il s’agit de purger Internet de ce qu’ils prétendent être des fausses nouvelles ou « fake news » en novlangue angliciste. Le New York Times y consacre un article. Ces justiciers de l’extrême se sont réunis dans une coalition majoritairement financée par des géants privés américains tels que Google.

Il s’agit bien l’intelligence artificielle au service de la pensée unique

Tout à fait puisqu’il s’agit du développement d’un outil de haute technologie pour réduire automatiquement les avis que vous considérez comme nuisibles.
Le chouchou de ces héros de la bien pensance est le « fast checking » ou vérification rapide. Grâce à des algorithmes et des rames de données, ils déterminent la probabilité de fausseté de l’information, la localisent et automatiquement la suppriment.

Le mode de sélection favorisera la pensée unique

Peu de preuves seront nécessaires pour éliminer les informations dites déviantes. Ces algorithmes ne déterminent pas si l’information est fausse mais sa probabilité d’être fausse. Tout dépend donc des critères choisis…

Le responsable de Stratcom, le centre des communications stratégiques de l’OTAN, a ouvertement précisé que l’objectif n’est pas de supprimer uniquement des informations contradictoires, mais aussi les points de vue alternatifs avant qu’ils ne soient entendus. Il a pris pour exemple l’Ukraine : « Des acteurs étatiques ont tenté d’amplifier des points de vue spécifiques pour les intégrer dans l’opinion majoritaire ».

Cette censure qui pourrait devenir obligatoire

Selon le Times, ce mouvement de censure pourrait devenir obligatoire en Allemagne, sous peine de lourdes amendes. En France, Facebook a profité de la campagne présidentielle pour supprimer plus de 30 000 comptes en France et fait de même aux Pays Bas.