Différences entre versions de « Algorithme »

De lexSIC
(Hyperliens termes corrélés)
m
 
(6 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 2 : Ligne 2 :
 
__TOC__
 
__TOC__
  
 +
. n.m.
  
 +
. Angl. ''Algorithm''
 +
 +
. Cult. numérique
 +
----
  
. n.m.  
+
====Définition====
 +
Un algorithme est une suite déterminée d'instructions informatiques élémentaires et automatisées appliquée à des variables, en l'occurrence des données informationnelles, pour les traiter dans le but d'obtenir un résultat, sous la forme d'une réponse à un problème posé. Le traitement algorithmique peut ainsi être rapproché par analogie d'une recette de cuisine où chaque étape doit être correctement exécutée et ce, dans un ordre précis. Aujourd'hui, des instituts de recherches, des grandes entreprises du numérique développent ainsi des algorithmes capables de traiter à très grande vitesse d'énormes masses de données numériques, appelées ''big data''. Programmés pour agréger, filtrer, croiser, classer et hiérarchiser ces quantités incommensurables de données, les algorithmes permettent de les présenter de manière compréhensible à l'entendement humain, les rendant exploitables et aptes à répondre à des besoins précis.
  
. Angl. ''Algorithm''
+
==== Compléments ====
  
. Cult. numérique
+
=====L'essor des algorithmes=====
====DÉFINITION====
 
Un algorithme est une suite déterminée d'instructions informatiques élémentaires et automatisées appliquée à des variables, en l'occurrence des données informationnelles, pour les traiter dans le but d'obtenir un résultat, sous la forme d'une réponse à un problème posé. Le traitement algorithmique peut ainsi être rapproché par analogie d'une recette de cuisine où chaque étape doit être correctement exécutée et ce, dans un ordre précis. Aujourd'hui, des instituts de recherches, des grandes entreprises du numérique développent ainsi des algorithmes capables de traiter à très grande vitesse d'énormes masses de données numériques, appelées ''big data''. Programmés pour agréger, filtrer, croiser, classer et hiérarchiser ces quantités incommensurables de données, les algorithmes permettent de les présenter de manière compréhensibles à l'entendement humain, les rendant exploitables et aptes à répondre à des besoins précis.
 
=====III. L'essor des algorithmes=====
 
 
Dans l'ordre documentaire traditionnel, le traitement des données informationnelles était pris en charge d'une part par les professionnels de l'information via les opérations de sélection, d'indexation et de classification, et d'autre part par les utilisateurs eux-mêmes qui y exerçaient leurs compétences de maîtrise de l'information. Mais à partir du moment où l'information est devenue numérique, où tous les secteurs de la société sont numérisés, générant et donnant accès à d'immenses gisements de données personnelles, comportementales et statistiques, la solution algorithmique s'est imposée dans tous les domaines. La poussée néolibérale des années 80, consciente des enjeux économiques que représente cette nouvelle manne, a encouragé la généralisation de la calculabilité dans une logique d'évaluation, de recherche de performance et de compétition. Les palmarès des meilleurs lycées et des meilleurs hôpitaux en est l'une des expressions les plus visibles. Les promoteurs des ''big datas'' ont  perçu dans la datafication de l'économie un formidable moteur de croissance, alimentée par l'innovation et la productivité.
 
Dans l'ordre documentaire traditionnel, le traitement des données informationnelles était pris en charge d'une part par les professionnels de l'information via les opérations de sélection, d'indexation et de classification, et d'autre part par les utilisateurs eux-mêmes qui y exerçaient leurs compétences de maîtrise de l'information. Mais à partir du moment où l'information est devenue numérique, où tous les secteurs de la société sont numérisés, générant et donnant accès à d'immenses gisements de données personnelles, comportementales et statistiques, la solution algorithmique s'est imposée dans tous les domaines. La poussée néolibérale des années 80, consciente des enjeux économiques que représente cette nouvelle manne, a encouragé la généralisation de la calculabilité dans une logique d'évaluation, de recherche de performance et de compétition. Les palmarès des meilleurs lycées et des meilleurs hôpitaux en est l'une des expressions les plus visibles. Les promoteurs des ''big datas'' ont  perçu dans la datafication de l'économie un formidable moteur de croissance, alimentée par l'innovation et la productivité.
=====III. Les masses de données=====
+
=====Les masses de données=====
 
Les données numériques que traitent les algorithmes constituent ces gisements de statistiques dont ont besoin les entreprises du web, et notamment les GAFA, mais aussi les états, les organisations, les instituts scientifiques (open data) et les médias d'information (data-journalisme) pour analyser des faits, orienter des comportements, attirer des investisseurs, contrôler des conduites, anticiper des tendances, prévoir des risques, optimiser des solutions... Les données statistiques qui intéressent les grandes firmes de l'internet sont générées par la captation et l'enregistrement des comportements des populations et des individus. Aujourd'hui, des indicateurs, des capteurs et des métriques permettent de collecter, de quantifier et de mesurer tout ce qui peut l'être dans la vie quotidienne des personnes connectées : comportements sociaux, conversations, santé, travail, loisirs, consommation, finances, orientations politiques, religieuses ou sexuelles, déplacements, contacts et échanges, dès lors que ces données sont numérisées, et donc calculables. Ainsi nos moindres clics, avis, like, requêtes, votes et contacts sur la toile sont-ils quantifiés, ainsi que sont détaillés nos transactions bancaires et commerciales, et, via les objets communicants, nos pas et jusque nos moindres battements de cœur qui peuvent intéresser les compagnies d'assurance...
 
Les données numériques que traitent les algorithmes constituent ces gisements de statistiques dont ont besoin les entreprises du web, et notamment les GAFA, mais aussi les états, les organisations, les instituts scientifiques (open data) et les médias d'information (data-journalisme) pour analyser des faits, orienter des comportements, attirer des investisseurs, contrôler des conduites, anticiper des tendances, prévoir des risques, optimiser des solutions... Les données statistiques qui intéressent les grandes firmes de l'internet sont générées par la captation et l'enregistrement des comportements des populations et des individus. Aujourd'hui, des indicateurs, des capteurs et des métriques permettent de collecter, de quantifier et de mesurer tout ce qui peut l'être dans la vie quotidienne des personnes connectées : comportements sociaux, conversations, santé, travail, loisirs, consommation, finances, orientations politiques, religieuses ou sexuelles, déplacements, contacts et échanges, dès lors que ces données sont numérisées, et donc calculables. Ainsi nos moindres clics, avis, like, requêtes, votes et contacts sur la toile sont-ils quantifiés, ainsi que sont détaillés nos transactions bancaires et commerciales, et, via les objets communicants, nos pas et jusque nos moindres battements de cœur qui peuvent intéresser les compagnies d'assurance...
=====III. Les enjeux=====
+
=====Les enjeux=====
 
Les algorithmes, s'ils peuvent apparaître pour nombre de personnes comme de froids calculs conduits par l'objectivité, sont d'abord conçus par des développeurs dont ils ne peuvent que répercuter les biais (représentations, éthique). Ces instruments puissants sont façonnés par des entreprises dont les visées et les intérêts nous échappent souvent. Tout sauf neutres, ou de simples miroirs des usages du web, ils véhiculent les valeurs de ceux qui les conçoivent. En retour, les résultats obtenus par les algorithmes ont de lourdes conséquences sur notre rapport à l'information et, par là même, sur nos choix en toutes matières. Ils influencent, ou du moins conditionnent, nos pratiques de consommation (recommandation et personnalisation des résultats) et nos pratiques informationnelles (bulles informationnelles, ciblage comportemental, géolocalisation). Celles-ci sont orientées tant par les stratégies des entreprises numériques privées, devenues les nouveaux ''gatekeepers'' de l'information en remplacement des prescripteurs médiatiques traditionnels, que par les politiques publiques de santé, de sécurité, de justice, d'éducation ou d'aides sociales qui déterminent notre place et nos libertés dans la société. Le risque politique qui en découle consisterait en la mise en place progressive et subreptice  d'une "gouvernementalité algorithmique" fondant ses orientations sur des calculs de prévision et d'optimisation rendus possibles par les progrès de l'intelligence artificielle.
 
Les algorithmes, s'ils peuvent apparaître pour nombre de personnes comme de froids calculs conduits par l'objectivité, sont d'abord conçus par des développeurs dont ils ne peuvent que répercuter les biais (représentations, éthique). Ces instruments puissants sont façonnés par des entreprises dont les visées et les intérêts nous échappent souvent. Tout sauf neutres, ou de simples miroirs des usages du web, ils véhiculent les valeurs de ceux qui les conçoivent. En retour, les résultats obtenus par les algorithmes ont de lourdes conséquences sur notre rapport à l'information et, par là même, sur nos choix en toutes matières. Ils influencent, ou du moins conditionnent, nos pratiques de consommation (recommandation et personnalisation des résultats) et nos pratiques informationnelles (bulles informationnelles, ciblage comportemental, géolocalisation). Celles-ci sont orientées tant par les stratégies des entreprises numériques privées, devenues les nouveaux ''gatekeepers'' de l'information en remplacement des prescripteurs médiatiques traditionnels, que par les politiques publiques de santé, de sécurité, de justice, d'éducation ou d'aides sociales qui déterminent notre place et nos libertés dans la société. Le risque politique qui en découle consisterait en la mise en place progressive et subreptice  d'une "gouvernementalité algorithmique" fondant ses orientations sur des calculs de prévision et d'optimisation rendus possibles par les progrès de l'intelligence artificielle.
  
Ligne 23 : Ligne 26 :
  
 
Mais une nouvelle page est déjà en train de s'écrire, avec des algorithmes qui apprennent seuls (''machine learning'') et de manière continue. S'échappant du déterminisme de ceux qui les programment et y insufflent leurs valeurs, et en l'absence de régulation, ils deviennent de véritables boîtes noires étanches à toute traçabilité et à toute tentative d'explications, rendant encore le contrôle plus difficile. En 2016, le Parlement européen a fait voter le Règlement Général sur la Protection des données (RGPD), entré en vigueur en mai 2018, lequel constitue une première avancée notable en matière de régulation contre les dérives des algorithmes privés.
 
Mais une nouvelle page est déjà en train de s'écrire, avec des algorithmes qui apprennent seuls (''machine learning'') et de manière continue. S'échappant du déterminisme de ceux qui les programment et y insufflent leurs valeurs, et en l'absence de régulation, ils deviennent de véritables boîtes noires étanches à toute traçabilité et à toute tentative d'explications, rendant encore le contrôle plus difficile. En 2016, le Parlement européen a fait voter le Règlement Général sur la Protection des données (RGPD), entré en vigueur en mai 2018, lequel constitue une première avancée notable en matière de régulation contre les dérives des algorithmes privés.
====II. TYPOLOGIE====
+
====Typologie====
 
Il existe différentes familles d'algorithmes, répondant à des besoins particuliers. On peut par exemple distinguer les algorithmes de mise en correspondance (''matching''), les algorithmes d’éditorialisation, les algorithmes de profilage ou de ciblage. Dominique Cardon, quant à lui, répartit les algorithmes en quatre grands types, selon qu'ils ont pour but de calculer la popularité des sites web, l'autorité des informations, les réputations ou de permettre de recommander et de prévoir.
 
Il existe différentes familles d'algorithmes, répondant à des besoins particuliers. On peut par exemple distinguer les algorithmes de mise en correspondance (''matching''), les algorithmes d’éditorialisation, les algorithmes de profilage ou de ciblage. Dominique Cardon, quant à lui, répartit les algorithmes en quatre grands types, selon qu'ils ont pour but de calculer la popularité des sites web, l'autorité des informations, les réputations ou de permettre de recommander et de prévoir.
 
=====Calcul de la popularité=====
 
=====Calcul de la popularité=====
Ligne 33 : Ligne 36 :
 
=====Calcul de la prédiction=====
 
=====Calcul de la prédiction=====
 
Pour prédire avec plus de probabilité le comportement à venir d'un internaute, il est à présent jugé préférable de se baser sur ses conduites réelles plutôt que sur ses postures et ses intentions exprimées sur les réseaux sociaux. La métrique prédictive va alors se concentrer sur les actes réellement accomplis en collectant systématiquement toutes les traces laissées par l'individu dans l'environnement numérique, comme ses parcours de navigation (''cookies''), ses transactions commerciales, sa géolocalisation et la masse des données transmises par les objets communicants dont il s'entoure. Le profil ainsi établi est alors comparé à d'autres profils, ce qui permet d'anticiper les comportements à partir de l'hypothèse que tel profil similaire les auraient déjà produits. La traçabilité organisée des personnes et le filtrage collaboratif qui en résultent produisent ainsi des résultats qui permettent la prédiction personnalisée et la production de recommandations fines. Les techniques mises en œuvre, basées sur l'apprentissage automatique des calculateurs, sont en constante évolution et participent de ce que l'on appelle "intelligence artificielle".
 
Pour prédire avec plus de probabilité le comportement à venir d'un internaute, il est à présent jugé préférable de se baser sur ses conduites réelles plutôt que sur ses postures et ses intentions exprimées sur les réseaux sociaux. La métrique prédictive va alors se concentrer sur les actes réellement accomplis en collectant systématiquement toutes les traces laissées par l'individu dans l'environnement numérique, comme ses parcours de navigation (''cookies''), ses transactions commerciales, sa géolocalisation et la masse des données transmises par les objets communicants dont il s'entoure. Le profil ainsi établi est alors comparé à d'autres profils, ce qui permet d'anticiper les comportements à partir de l'hypothèse que tel profil similaire les auraient déjà produits. La traçabilité organisée des personnes et le filtrage collaboratif qui en résultent produisent ainsi des résultats qui permettent la prédiction personnalisée et la production de recommandations fines. Les techniques mises en œuvre, basées sur l'apprentissage automatique des calculateurs, sont en constante évolution et participent de ce que l'on appelle "intelligence artificielle".
====ÉTYMOLOGIE====
+
====Étymologie====
 
Le mot ''algorithme'', tout comme le mot ''algèbre,'' provient du nom d'un mathématicien arabe du IX<sup>e</sup>s., Al-Khwarizmi qui redécouvrit et développa les notions d'enchaînement de calculs introduites par Euclide 1000 ans auparavant.
 
Le mot ''algorithme'', tout comme le mot ''algèbre,'' provient du nom d'un mathématicien arabe du IX<sup>e</sup>s., Al-Khwarizmi qui redécouvrit et développa les notions d'enchaînement de calculs introduites par Euclide 1000 ans auparavant.
  
Sous les formes ''augorisme'' puis ''algorisme'' (XIII<sup>e</sup>s.) tirées de l'espagnol ''algorismo'', le mot a d'abord désigné le calcul, l’arithmétique élémentaire et ses règles. La forme moderne reprend le latin médiéval ''algorithmus'', calquée sur terme ''arithmetica''. Au XIX<sup>e</sup>s., il se spécialise au sens de "suite de règles opératoires explicites". A partir de 1960, son emploi en informatique lui assure une diffusion importante.
+
Sous les formes ''augorisme'' puis ''algorisme'' (XIII<sup>e</sup>s.) tirées de l'espagnol ''algorismo'', le mot a d'abord désigné le calcul, l’arithmétique élémentaire et ses règles. La forme moderne reprend le latin médiéval ''algorithmus'', calquée sur le terme ''arithmetica''. Au XIX<sup>e</sup>s., il se spécialise au sens de "suite de règles opératoires explicites". A partir de 1960, son emploi en informatique lui assure une diffusion importante.
====LIENS====
+
----
=====TERMES CORRÉLÉS=====
+
 
[[Autorité]] ; [[Ciblage comportemental]] ; [[Donnée informationnelle]] ; [[Donnée personnelle]] ; [[Données massives]] ; [[EdgeRank]] ; [[Moteur de recherche]] ; [[PageRank]] ; [[Popularité]] ; [[Prédiction]] ; [[Profilage]] ; [[Recommandation]] ; [[Référencement]] ; [[Réseaux sociaux]].
+
====Liens====
=====LIEN WIKINOTIONS=====
+
=====Termes corrélés=====
 +
[[Autorité]] ; [[Ciblage comportemental]] ; [[Donnée informationnelle]] ; [[Donnée personnelle]] ; [[Données massives]] ; [[EdgeRank]] ; [[Moteur de recherche]] ; [[PageRank]] ; [[Popularité]] ; [[Prédiction]] ; [[Profilage]] ; [[Recommandation]] ; [[Référencement]] ; [[Réseaux sociaux]] ; [[Trace numérique]].
 +
=====Lien Wikinotions Infodoc=====
 
[http://wikinotions.apden.org/index.php?title=Algorithme Algorithme].
 
[http://wikinotions.apden.org/index.php?title=Algorithme Algorithme].
====BIBLIOGRAPHIE====
+
----
 +
 
 +
====Bibliographie====
 
*BREILLAT Jacques. ''Dictionnaire de l'e-réputation : veille et communication d'influence sur le web''. ENS, 2015.
 
*BREILLAT Jacques. ''Dictionnaire de l'e-réputation : veille et communication d'influence sur le web''. ENS, 2015.
 
*CARDON Dominique. ''A quoi rêvent les algorithmes ?'' Le Seuil, La République des Idées, 2015.
 
*CARDON Dominique. ''A quoi rêvent les algorithmes ?'' Le Seuil, La République des Idées, 2015.

Version actuelle datée du 5 mai 2022 à 08:17

Liste des termes

E (Élicitation, Embargo...)

L (Ligne éditoriale, Like...)

P (Packaging, Page...)

R (Raccord, Résumé...)

S (Scénario, Scoop...)

T (Tabloïd, Trace...)

V (Veille, Voix off...)

. n.m.

. Angl. Algorithm

. Cult. numérique


Définition

Un algorithme est une suite déterminée d'instructions informatiques élémentaires et automatisées appliquée à des variables, en l'occurrence des données informationnelles, pour les traiter dans le but d'obtenir un résultat, sous la forme d'une réponse à un problème posé. Le traitement algorithmique peut ainsi être rapproché par analogie d'une recette de cuisine où chaque étape doit être correctement exécutée et ce, dans un ordre précis. Aujourd'hui, des instituts de recherches, des grandes entreprises du numérique développent ainsi des algorithmes capables de traiter à très grande vitesse d'énormes masses de données numériques, appelées big data. Programmés pour agréger, filtrer, croiser, classer et hiérarchiser ces quantités incommensurables de données, les algorithmes permettent de les présenter de manière compréhensible à l'entendement humain, les rendant exploitables et aptes à répondre à des besoins précis.

Compléments

L'essor des algorithmes

Dans l'ordre documentaire traditionnel, le traitement des données informationnelles était pris en charge d'une part par les professionnels de l'information via les opérations de sélection, d'indexation et de classification, et d'autre part par les utilisateurs eux-mêmes qui y exerçaient leurs compétences de maîtrise de l'information. Mais à partir du moment où l'information est devenue numérique, où tous les secteurs de la société sont numérisés, générant et donnant accès à d'immenses gisements de données personnelles, comportementales et statistiques, la solution algorithmique s'est imposée dans tous les domaines. La poussée néolibérale des années 80, consciente des enjeux économiques que représente cette nouvelle manne, a encouragé la généralisation de la calculabilité dans une logique d'évaluation, de recherche de performance et de compétition. Les palmarès des meilleurs lycées et des meilleurs hôpitaux en est l'une des expressions les plus visibles. Les promoteurs des big datas ont perçu dans la datafication de l'économie un formidable moteur de croissance, alimentée par l'innovation et la productivité.

Les masses de données

Les données numériques que traitent les algorithmes constituent ces gisements de statistiques dont ont besoin les entreprises du web, et notamment les GAFA, mais aussi les états, les organisations, les instituts scientifiques (open data) et les médias d'information (data-journalisme) pour analyser des faits, orienter des comportements, attirer des investisseurs, contrôler des conduites, anticiper des tendances, prévoir des risques, optimiser des solutions... Les données statistiques qui intéressent les grandes firmes de l'internet sont générées par la captation et l'enregistrement des comportements des populations et des individus. Aujourd'hui, des indicateurs, des capteurs et des métriques permettent de collecter, de quantifier et de mesurer tout ce qui peut l'être dans la vie quotidienne des personnes connectées : comportements sociaux, conversations, santé, travail, loisirs, consommation, finances, orientations politiques, religieuses ou sexuelles, déplacements, contacts et échanges, dès lors que ces données sont numérisées, et donc calculables. Ainsi nos moindres clics, avis, like, requêtes, votes et contacts sur la toile sont-ils quantifiés, ainsi que sont détaillés nos transactions bancaires et commerciales, et, via les objets communicants, nos pas et jusque nos moindres battements de cœur qui peuvent intéresser les compagnies d'assurance...

Les enjeux

Les algorithmes, s'ils peuvent apparaître pour nombre de personnes comme de froids calculs conduits par l'objectivité, sont d'abord conçus par des développeurs dont ils ne peuvent que répercuter les biais (représentations, éthique). Ces instruments puissants sont façonnés par des entreprises dont les visées et les intérêts nous échappent souvent. Tout sauf neutres, ou de simples miroirs des usages du web, ils véhiculent les valeurs de ceux qui les conçoivent. En retour, les résultats obtenus par les algorithmes ont de lourdes conséquences sur notre rapport à l'information et, par là même, sur nos choix en toutes matières. Ils influencent, ou du moins conditionnent, nos pratiques de consommation (recommandation et personnalisation des résultats) et nos pratiques informationnelles (bulles informationnelles, ciblage comportemental, géolocalisation). Celles-ci sont orientées tant par les stratégies des entreprises numériques privées, devenues les nouveaux gatekeepers de l'information en remplacement des prescripteurs médiatiques traditionnels, que par les politiques publiques de santé, de sécurité, de justice, d'éducation ou d'aides sociales qui déterminent notre place et nos libertés dans la société. Le risque politique qui en découle consisterait en la mise en place progressive et subreptice d'une "gouvernementalité algorithmique" fondant ses orientations sur des calculs de prévision et d'optimisation rendus possibles par les progrès de l'intelligence artificielle.

S'il faut bien reconnaître l'emprise grandissante des algorithmes sur nos existences, ainsi que la paradoxale docilité avec laquelle nous les accueillons au motif de leur efficacité pour nous faciliter la vie, il importe toutefois d'en être conscient.es et mieux informé.es. La connaissance de ces mécanismes mis au service des entités monopolistiques qui les instrumentalisent devrait nous permettre d'affronter les choix que nous sommes dorénavant amené.es à faire pour conserver tant que faire se peut la maîtrise de notre destinée individuelle et collective.

Aussi s'attendrait-on à ce que, de leur côté, les détenteurs de ces algorithmes fassent la preuve de transparence et de responsabilité en laissant leur code ouvert, ce qui n'est pas le cas de la majorité des plateformes numériques puisque, justement, c'est dans le secret de l'algorithme que réside la source essentielle de leur avantage économique. Pour tenter de percer ces mystères, des méthodes de rétro-ingénierie sont employées avec plus ou moins de succès pour inférer le comportement de l'algorithme à partir de simulations.

Mais une nouvelle page est déjà en train de s'écrire, avec des algorithmes qui apprennent seuls (machine learning) et de manière continue. S'échappant du déterminisme de ceux qui les programment et y insufflent leurs valeurs, et en l'absence de régulation, ils deviennent de véritables boîtes noires étanches à toute traçabilité et à toute tentative d'explications, rendant encore le contrôle plus difficile. En 2016, le Parlement européen a fait voter le Règlement Général sur la Protection des données (RGPD), entré en vigueur en mai 2018, lequel constitue une première avancée notable en matière de régulation contre les dérives des algorithmes privés.

Typologie

Il existe différentes familles d'algorithmes, répondant à des besoins particuliers. On peut par exemple distinguer les algorithmes de mise en correspondance (matching), les algorithmes d’éditorialisation, les algorithmes de profilage ou de ciblage. Dominique Cardon, quant à lui, répartit les algorithmes en quatre grands types, selon qu'ils ont pour but de calculer la popularité des sites web, l'autorité des informations, les réputations ou de permettre de recommander et de prévoir.

Calcul de la popularité

Ces algorithmes calculent l'audience d'un site à partir du nombre de clics enregistrés. La mesure se fait soit à partir d'un panel d'utilisateurs représentatifs, comme pour les médias traditionnels, soit à partir du nombre de visiteurs pour chaque site, à l'aide d'un outil statistique, tel Google analytics. Les résultats obtenus sont peu fiables étant donné la facilité avec laquelle il est possible de tricher pour les faire gonfler.

Calcul de l'autorité

La mesure est basée sur le nombre et la valeur des citations dont un site fait l'objet de la part d'autres sites, considérant que plus un site est pointé, plus il doit être important. L'unité est ici, non pas le visiteur unique, mais l'hyperlien, porteur de reconnaissance et d'intérêt. Le PageRank de Google a été imaginé pour pondérer cette valeur et établir l'autorité d'un site. Celui-ci ayant acquis une bonne place dans la page de résultats voit automatiquement sa visibilité augmenter. L'effet pervers est une centralisation de l'autorité et une mise à l'écart d'autres sites dans un cycle irréversible. Par ailleurs, la course à la visibilité est telle qu'un marché du référencement a vu le jour, proposant des stratégies de production de liens artificiels pour manipuler l'algorithme. Les moteurs sont ainsi contraints de les modifier en permanence dans une fuite en avant.

Calcul de la réputation

Le développement des réseaux sociaux, des plateformes de vidéo et des logiques affinitaires qui s'y construisent constitue un nouveau gisement d'exploitation pour les entreprises du web. L’algorithme va suivre ici et exploiter la tendance sociale vers davantage d'individualisation des utilisateurs, lesquels cherchent à s'émanciper de l'autorité des médias traditionnels pour accéder à une information personnalisée. Pour ce faire, la métrique réputationnelle se nourrit des données personnelles générées par les profils, les statuts et les interactions entre membres d'un même groupe. Le principe affinitaire à la base de ces groupes a pour conséquence que l'utilisateur se crée un écosystème informationnel individualisé qui l'éloigne progressivement de l'espace public, au risque d'un enfermement algorithmique à l'intérieur d'une "bulle de filtre" sélective et exclusive. Une autre conséquence, liée à la mise en visibilité systématique du score d'influence qui s'affiche via des compteurs, est que l'internaute est mis en demeure de mesurer en permanence la place qu'il occupe dans son ou ses réseaux ainsi que son pouvoir d'influence (ratio abonnements/abonnés). Celui-ci ne se mérite pas autant qu'il se fabrique, en ayant recours à des stratégies de management de l'identité numérique (benchmark) qui, en retour, impactent fortement les comportements.

Calcul de la prédiction

Pour prédire avec plus de probabilité le comportement à venir d'un internaute, il est à présent jugé préférable de se baser sur ses conduites réelles plutôt que sur ses postures et ses intentions exprimées sur les réseaux sociaux. La métrique prédictive va alors se concentrer sur les actes réellement accomplis en collectant systématiquement toutes les traces laissées par l'individu dans l'environnement numérique, comme ses parcours de navigation (cookies), ses transactions commerciales, sa géolocalisation et la masse des données transmises par les objets communicants dont il s'entoure. Le profil ainsi établi est alors comparé à d'autres profils, ce qui permet d'anticiper les comportements à partir de l'hypothèse que tel profil similaire les auraient déjà produits. La traçabilité organisée des personnes et le filtrage collaboratif qui en résultent produisent ainsi des résultats qui permettent la prédiction personnalisée et la production de recommandations fines. Les techniques mises en œuvre, basées sur l'apprentissage automatique des calculateurs, sont en constante évolution et participent de ce que l'on appelle "intelligence artificielle".

Étymologie

Le mot algorithme, tout comme le mot algèbre, provient du nom d'un mathématicien arabe du IXes., Al-Khwarizmi qui redécouvrit et développa les notions d'enchaînement de calculs introduites par Euclide 1000 ans auparavant.

Sous les formes augorisme puis algorisme (XIIIes.) tirées de l'espagnol algorismo, le mot a d'abord désigné le calcul, l’arithmétique élémentaire et ses règles. La forme moderne reprend le latin médiéval algorithmus, calquée sur le terme arithmetica. Au XIXes., il se spécialise au sens de "suite de règles opératoires explicites". A partir de 1960, son emploi en informatique lui assure une diffusion importante.


Liens

Termes corrélés

Autorité ; Ciblage comportemental ; Donnée informationnelle ; Donnée personnelle ; Données massives ; EdgeRank ; Moteur de recherche ; PageRank ; Popularité ; Prédiction ; Profilage ; Recommandation ; Référencement ; Réseaux sociaux ; Trace numérique.

Lien Wikinotions Infodoc

Algorithme.


Bibliographie

  • BREILLAT Jacques. Dictionnaire de l'e-réputation : veille et communication d'influence sur le web. ENS, 2015.
  • CARDON Dominique. A quoi rêvent les algorithmes ? Le Seuil, La République des Idées, 2015.
  • CARDON Dominique. La culture numérique. Les presses de la fondation nationale des sciences politiques, 2019.
  • ERTZSCHEID Olivier. L'appétit des géants : Pouvoir des algorithmes, ambitions des plateformes. C&F, 2017
  • GIRARDOT Clément. "Comment enquêter sur les algorithmes ?" In INA Global, 2017.
  • GUALINO Jacques. Informatique, Internet et nouvelles technologies de l'information et de la communication : dictionnaire pratique. Gualino, 2005.
  • LEGAVRE Jean-Baptiste, RIEFFEL Rémy. Les 100 mots des sciences de l'information et de la communication. PUF, 2017.
  • MAYER-SCHÖNBERGER Viktor, CUKIER Kenneth. Big data : La révolution des données est en marche. Robert Laffont, 2013.
  • MOROZOV Evgeny. Pour tout résoudre cliquez ici : L'aberration du solutionnisme technologique. FYP, 2014.
  • PARLEMENT EUROPÉEN. Le règlement général sur la protection des données - RGPD. Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016, relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données). CNIL, 23 mai 2018.
  • REY Alain (dir.). « Algorithme ». Dictionnaire historique de la langue française. Dictionnaires Le Robert, 1995.
  • SALAÜN Jean-Michel, HABERT Benoît (Dir.). Architecture de l’information : méthodes, outils, enjeux. De Boeck, ADBS, 2015.
  • VITALIS André. L'incertaine révolution numérique. ISTE, 2016.