Accueil / Supply chain management /

La CNIL appelle à la vigilance dans l’utilisation des algorithmes

, par Luc Battais

La loi pour une République numérique d’octobre 2016 (n°2016-1321) a chargé la CNIL (Commission nationale informatique et libertés) de conduire « une réflexion sur les problèmes éthiques et les questions de société soulevés par l’évolution des technologies numériques ». Cette dernière vient de publier un rapport de synthèse sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, réalisé à l’issue d’un débat national qui s’est déroulé de janvier à juin de cette année. A lire absolument.

Faut-il réguler les algorithmes ? Faut-il les interdire tout comme l’intelligence artificielle dans certains secteurs ? Comment permettre à l’Homme de garder la main ? Appliquées au pilotage des supply-chain, ces questions posées par le rapport de la CNIL ont de quoi effrayer pas mal de monde.

Elles suggèrent en effet que la puissance publique pourrait chercher à encadrer, restreindre voire interdire l’usage d’outils désormais à la base du fonctionnement du moindre des systèmes de pilotages de la logistique, depuis les contrôles d’accès jusqu’aux dispositifs les plus sophistiqués de gestion prédictive des réassort des magasins utilisant, entre autres, données comportementales du consommateur.

Moulinages statistiques en temps réel

Dans une chaîne logistique ces systèmes agissent en meute ou en réseau chacun produisant des données pour les autres, se nourrissant de celles qu’ils reçoivent. Leurs moteurs internes sont ces fameux algorithmes -fonctions de fonctions disait un professeur de mathématiques- essentiellement animés par des outils statistiques d’autant plus précis dans leurs analyses qu’ils pourront traiter des séries d’informations toujours plus grandes. Dans cet univers la « data » est une marchandise de grande valeur qui déjà s’achète et se vend sur les « market places ».
L’Intelligence artificielle n’est qu’une utilisation particulière d’algorithmes en batterie capable, dans un certaine mesure, d’apprendre sans cesse de leurs moulinages statistiques afin d’en savoir assez à un moment donné pour décider et déclencher un certain nombre d’actions de façon automatisée.

Appauvrissement de l’action

La CNIL décrit l’optimisation algorithmique comme un écrasement du temps et de l’espace. « L’une des caractéristiques du fonctionnement algorithmique est son immédiateté et sa simplicité, du moins son uniformité et son caractère inexorable. Les algorithmes d’IA ont la capacité d’accomplir une tâche dans un temps presque immédiat (réduit au temps du seul calcul de la machine). Ils ont la capacité d’accomplir cette même tâche à une très large échelle spatiale mais de façon identique en tous lieux.  » Le problème selon la commission est que l’écrasement de la durée et de la dimension spatiale du processus délégué à la machine peut aussi constituer une perte, un appauvrissement de l’action.

Au bout du compte la CNIL ne dit pas s’il faut interdire ou réguler l’emploi des algorithmes ou celui de l’intelligence artificielle. Ce n’était pas l’objet de sa mission. S’appuyant sur une enquête IFOP, elle constate que plus de la moitié des Français ne sait pas vraiment ce qu’est un algorithme et estime qu’il faut commencer par l’expliquer. Son rapport contribue opportunément à cette tâche. La commission considère cependant que deux principes fondateurs devraient guider toute initiative visant à « permettre à l’Homme de garder la main » face à ces technologies pas si nouvelles.

Deux principes fondateurs

D’une part, un principe de loyauté des algorithmes, dans une formulation approfondissant celle déjà élaborée par le Conseil d’Etat. "Cette formulation intègre en effet une dimension de loyauté envers les utilisateurs, non pas seulement en tant que consommateurs, mais également en tant que citoyens, voire envers des collectifs, des communautés dont l’existence pourrait être affectée par des algorithmes, que ceux-ci d’ailleurs traitent des données personnelles ou pas."

Vigilance

D’autre part, un principe de vigilance qui doit être entendu, "non comme une vague incantation mais comme une réponse étayée à trois enjeux centraux de la société numérique. Premièrement, le caractère évolutif et imprévisible des algorithmes à l’ère de l’apprentissage automatique (machine learning).

Deuxièmement, le caractère très compartimenté des chaînes algorithmiques, induisant segmentation de l’action, indifférence aux impacts générés par le système algorithmique dans son ensemble, dilution des responsabilités.

Troisièmement, enfin, le risque d’une confiance excessive accordée à la machine, jugée – sous l’effet d’une forme de biais cognitif humain – infaillible et exempte de biais."

«  À travers le principe de vigilance, l’objectif poursuivi est en somme d’organiser l’état de veille permanente de nos sociétés à l’égard de ces objets socio-techniques complexes et mouvants que sont les algorithmes ou, à proprement parler, les systèmes ou chaînes algorithmiques.  »

Et la CNIL de conclure que « ces principes, par la démarche universelle dont ils procèdent, pourraient bien s’inscrire dans une nouvelle génération de principes et de droits de l’homme à l’ère numérique : cette génération qui après celles des droits-libertés, des droits patrimoniaux et des droits sociaux, serait celle des droits-système organisant la dimension sous-jacente
à notre univers numérique. 
 »


Voir en ligne : Télécharger le rapport

Le magazine et les hors-séries

Hors-série n°16 - World Class Logistics

Téléchargez ce hors-série consacré à l’événement World Class Logistics, qui se tiendra à Paris-La Défense le 12 décembre 2017, et découvrez les candidats en lice pour le Prix de l’innovation durable 2017.

Cliquez ici pour télécharger ce hors-série.

Hors-série n°15 - Value Chain Parts

Téléchargez ce hors-série consacré à l’événement Value Chain Parts, qui s’est tenu à Toulouse le 22 novembre 2017.

Cliquez ici pour télécharger ce hors-série.