Faut-il réguler les algorithmes?

02/01/2017

Voitures sans conducteur, prédiction de crimes, filtrage des actualités: les algorithmes ont toujours plus d’influence sur notre quotidien. Les Etats devraient-ils intervenir?

(De "Horizons" no 111 décembre 2016)​​​​​​

 

Oui, dit Markus Ehrenmann, de Swisscom.

Les progrès actuels dans le traitement de grandes quantités de données ("big data") et l'apprentissage automatique ne présentent pas que des avantages. Certains algorithmes pénalisent les êtres humains et doivent donc être régulés.

Si une voiture sans conducteur identifie un obstacle sur la route, par exemple, c'est un algorithme qui décide de risquer la vie des passagers ou celle de passants sur le trottoir. L'ordinateur de bord fait des choix qui étaient auparavant du ressort des humains. Il est du devoir des autorités de clarifier qui doit être tenu pour responsable des conséquences de la décision automatique ("algorithmic accountability"). Sans cela, notre système juridique pourrait se voir démantelé. Dans certains Etats américains, des programmes aident les juges à déterminer les peines des condamnés. Cela permet – en moyenne – de réduire le taux de récidive et les coûts de détention. Au niveau des cas individuels en revanche, les jugements de ces algorithmes peuvent s'avérer désastreux, par exemple lorsque la couleur de peau ou le domicile sont utilisés comme variables d'entrée.

Sur la version américaine de Google, une recherche avec les mots-clés "professional hairstyle" et "unprofessional hairstyle" fournit dans le premier cas des images d'individus à peau claire, dans le second des images de femmes de couleur ("algorithmic bias"). Les données à partir desquelles les algorithmes prennent leurs décisions ne sont pas toujours pertinentes. Même si d'importantes quantités d'informations servent de fondement, les facteurs culturels ne peuvent pas être éliminés et sont susceptibles de déboucher sur des résultats discriminatoires. A cela s'ajoute que les données se rapportent au passé et ne permettent donc que des prédictions limitées.

Les êtres humains ont droit à une explication concernant des décisions qui les affectent. Et ils ont le droit de ne pas être discriminés. Nous devons donc comprendre comment les algorithmes fonctionnent et être en mesure d'intervenir pour les corriger si besoin. Cela concerne aussi les mécanismes de classement des grands réseaux sociaux. Le danger ici ne réside pas tant dans le choix tendancieux de contenus des médias que dans le fait que le mode de fonctionnement du système reste caché.

Des organisations publiques et privées travaillent déjà à élaborer des solutions pour éliminer les distorsions des algorithmes ("debiasing") et des modèles de surveillance. Même s'il ne faut pas étouffer les avantages importants de l'innovation dans le domaine de l'intelligence artificielle, nos droits demandent à être protégés. Le Data Privacy Act de l'UE, qui devrait entrer en vigueur en 2018, constitue une règlementation mesurée et utile.

Markus Ehrenmann est responsable du domaine Intelligence artificielle à Swisscom à Berne.

 

Non, dit Mouloud Dey, de l’entreprise SAS.

Il sera nécessaire de pouvoir auditer les algorithmes susceptibles d'être utilisés de manière inappropriée. Mais il faut éviter que la régulation n'étouffe la créativité et ne bride la recherche. Elle doit être dosée et ne pas survenir trop tôt. Il est crucial de laisser aux créatifs la liberté de travailler sans leur prêter, a priori, de mauvaises intentions et de considérer l'utilisation concrète que l'on fait d'un algorithme avant d'intervenir. Car en général, ce n'est pas le programme informatique qui pose problème, mais la manière dont il est utilisé.

On pointe souvent du doigt l'algorithme qui paraît mystérieux, mal intentionné et quasi autonome. Il convient néanmoins de considérer l'ensemble de la chaîne de responsabilité, depuis le programmeur jusqu'à l'usager en passant par les décisions des managers. Il ne faut pas tuer la poule dans l'oeuf: un algorithme développé pour une utilisation discutable – comme celle d'un drone militaire – peut trouver d'autres applications clairement utiles et qui ne soulèvent pas de problèmes.

On critiquer peut-être la manière dont Google gère nos données. Il aurait été toutefois incroyablement dommage de bloquer le développement de l'entreprise il y a vingt ans en arguant de la nécessité de régler d'abord et a priori les questions de vie privée et de protection des données. Gérer les utilisations délicates n'exige pas forcément de faire passer de nouvelles lois. Prenez Pokemon Go: la législation existante m'interdit déjà d'y jouer de manière irresponsable en mettant en danger la vie d'autrui.

Il serait difficile d'instaurer une agence de régulation: son travail s'avérerait extrêmement compliqué, ralentirait l'innovation et serait voué à être pratiquement toujours en retard, car la technologie évolue excessivement vite. L'usager a aussi ses responsabilités. Je travaille dans le domaine du numérique, mais j'ai choisi de ne pas être sur Facebook, dont l'utilité ne me convainc pas. En revanche, je suis sur Linkedin, bien que leurs algorithmes ne soient fondamentalement pas différents les uns des autres.

Il est important de donner aux citoyens un droit de regard sur les algorithmes qui les concernent. Mais il faut être clair: le commun des mortels n'est pas en mesure de vérifier tout seul leur fonctionnement. Au final, on est forcé de faire confiance à un tiers. L'autorégulation du marché a de bonnes chances de fonctionner dans ce domaine, car les clients sont très proches des entreprises et peuvent exercer une forte pression. Celles-ci doivent prendre leurs responsabilités et expliquer de manière très claire les usages prévus par les systèmes qu'elles mettent en place. Une fois de plus, c'est l'utilisation qui peut poser problème, pas le programme informatique lui-même.

Mouloud Dey est directeur Innovation & Business Solutions de l'entreprise SAS France et membre du conseil scientifique du Data ScienceTech Institute à Sophia-Antipolis (Nice).

Propos recueillis par Daniel Saraga.