Comments for Quel menu pour nourrir l’intelligence artificielle? Pouvez-vous passer la carte?

FONTAINE Quentin, GIUS Lisa, HOUNSOU Jean, MUMBU Jonathan, VILAS David
FONTAINE Quentin, GIUS Lisa, HOUNSOU Jean, MUMBU Jonathan, VILAS David A. Deux points de mise à jour 1. Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur? Avant 2009, l’admission dans l’enseignement supérieur en France se faisait en personne auprès des différents établissements, mais comportait dès lors un risque de manipulation de la norme…
Read more

FONTAINE Quentin, GIUS Lisa, HOUNSOU Jean, MUMBU Jonathan, VILAS David

A. Deux points de mise à jour

1. Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur?

Avant 2009, l’admission dans l’enseignement supérieur en France se faisait en personne auprès des différents établissements, mais comportait dès lors un risque de manipulation de la norme générale par l’administration. Aucune mesure particulière de transparence n’était requise, et le mode décisoire des institutions était opaque.

En 2009, le système Admission Post-Bac (dit “APB”) est lancé au niveau national, dans le but de centraliser les candidatures et d’appliquer uniformément les règles de classement des étudiants – processus désormais automatisé par un algorithme. En pratique, chaque candidat est autorisé à postuler pour 24 filières (“choix”), classées par ordre de préférence. Les dossiers des étudiants ayant postulé sont transmis aux établissements d’enseignement, qui signalent quels étudiants ils souhaitent acueillir (“proposition”). Chaque étudiant ne reçoit que la proposition la mieux classée parmi ses choix.

Cependant les critères de classement des étudiants ne sont pas connus, et année après année, un nombre grandissant d’étudiants se retrouve sans proposition de formation en juillet. L’association Droit des Lycéens lance alors plusieurs actions en justice pour obtenir la publication de l’algorithme.

En juin 2016, la Commission d’accès aux documents administratifs (CADA) estime que les étudiants ont le droit d’obtenir des informations quant aux modalités d’utilisation de l’algorithme dans les décisions du système APB. Bien que la CADA ne soit qu’une autorité consultative sans pouvoir de sanction, le ministère de l’Education nationale rend public le code source du système en octobre 2016. Cependant celui-ci est peu lisible, et n’est accompagné d’aucune explication.

De son côté, la Commission nationale de l’informatique et des libertés (CNIL) contrôle la conformité du système APB avec la loi française du 6 janvier 1978 dite “Informatique et Libertés”, relative à la protection des données personelles dans le secteur de l’informatique.
Dans son avis du 30 août 2017, la CNIL pointe trois manquements grave du système :
A. Un manque de transparence quant à l’algorithme et à son fonctionnement dans la procédure APB, alors que les utilisateurs de la plateforme doivent légalement pouvoir obtenir « les informations permettant de connaître et de contester la logique qui sous-tend le traitement automatisé en cas de décision prise sur le fondement de celui-ci et produisant des effets juridiques à l’égard de l’intéressé » (L. 6 janvier 1978, art. 39).
B. Un manque de transparence quant au traitement des données des utilisateurs, car le portail APB ne met pas à disposition des utilisateurs certaines informations légalement requises, telles que l’identité du responsable du traitement, finalité du traitement, et droit des personnes (L. 6 janvier 1978, art. 12).
C. Le pouvoir exclusif de l’algorithme – pour les formations dites “non sélectives”, l’algorithme agit sans aucune intervention humaine, allant ainsi à l’encontre des dispositions légales prévoyant qu’aucune “décision produisant des effets juridiques à l’égard d’une personne ne peut être prise sur le seul fondement d’un traitement automatisé de données destiné à définir le profil de l’intéressé ou à évaluer certains aspects de sa personnalité” (L. 6 janvier 1978, art. 10).

Décision exceptionnelle, la CNIL met alors publiquement le Ministère de l’Education en demeure de modifier le système pour s’assurer de sa conformité avec la loi endéans 3 mois.

Suite à cela, APB a été remplacé le 22 janvier 2018 par la plateforme Parcoursup. En pratique, les étudiants ne doivent désormais plus indiquer que 10 choix, non classés – et ensuite effectuer un choix parmi toutes les réponses positives et négatives qu’ils ont reçues. Puisque l’affectation n’est plus automatique, les choix sont nécessairement réduits, ce qui crée un risque accru d’auto-censure et d’absence de proposition. Cependant, les étudients conservent un sentiment de maîtrise du choix et des décisions, puisque la seule tâche du code informatique est désomais de mettre en relation filières et élèves, ainsi que de transmettre les documents pertinents.

En définitive, la CNIL n’excluait pas complètement l’utilisation d’algorithmes par le système d’admission dans l’enseignement supérieur – à condition que les utilisateurs disposent d’informations transparentes et que le processus de décision comprenne une intervention humaine en cas de problème. Par facilité, la réaction législative a donc été de rétropédaler : retirer tout pouvoir décisoire à l’algorithme au profit des chargés d’admission et publier immédiatement le code source de ce dernier.

2. Est-ce que l’on a progressé en ce qui concerne la transparence des algorithmes de Facebook, Google et Twitter et de l’usage de l’IA comme remède à la propagation des propos haineux sur ces réseaux sociaux ?

Pour répondre à la première de ces questions, il importe de s’entendre sur la signification du mot progrès : plus de transparence constitue-t-elle nécessairement un progrès ? Plusieurs études (comme celles conduites par R. Kizilcec et C. Nass) ont contribué à démontrer les effets néfastes d’un excès de transparence sur la confiance des utilisateurs ainsi que sur l’efficacité de l’algorithme lui-même.

Les algorithmes utilisés par Facebook, Google et Twitter à leurs débuts ont considérablement évolué. Prenons l’exemple de l’algorithme qui détermine ce qui apparaît sur le fil d’actualité des utilisateurs de Facebook : il se basait à l’origine sur des critères bien définis et explicables. Certaines activités d’amis proches considérées comme plus importantes étaient programmées pour apparaître en priorité. Les résultats du moteur de recherche de Google fonctionnaient similairement, au moyen de critères explicites et hiérarchisés. Ce genre d’algorithme est particulièrement propice à la transparence en raison de sa simplicité et de son apparente logique. Ils ont été en grande partie remplacés par des méthodes de « Deep Learning », qui se basent sur un nombre colossal de données pour « apprendre », par expérience, ce que les utilisateurs sont susceptibles de préférer en fonction de leurs réactions. Ce type d’algorithme est par nature beaucoup plus opaque, car il est difficile d’expliquer les conclusions tirées des habitudes de millions d’utilisateurs, même pour les programmeurs.

Force est donc de constater que la transparence des algorithmes des réseaux sociaux n’a pas connu de progrès significatif, en raison des réticences à les partager et de leur complexité croissante. Un compromis suggéré est que l’accès au code des algorithmes soit octroyé aux instances judiciaires pertinentes plutôt qu’en accès libre au public, et que celles-ci se portent garantes de la légalité de leur fonctionnement.

L’usage de l’IA comme remède à la propagation des propos haineux a, lui, progressé considérablement dans les derniers mois. L’union européenne a félicité en février dernier les plateformes de réseaux sociaux pour les aboutissements de leur combat contre le discours haineux et plus particulièrement Facebook, Twitter et YouTube. Signataires d’un code de conduite il y a trois ans, ils retirent 72% du contenu signalé comme discours haineux dans les 24h, ce qui constitue une amélioration de 40% depuis leur signature.

La technologie à la base de ce progrès connaît toutefois des limites. Mark Zuckerberg lui-même admet que des algorithmes basés sur la reconnaissance de mots-clés dépendent énormément de subtilités langagières, que les machines ne sont pas capables de saisir avec fiabilité. La détection de l’ironie ou du satire est elle aussi particulièrement difficile sans intervention humaine.

Certains activistes s’inquiètent des conséquences de ces progrès sur la liberté d’expression. Ils dénoncent la marge d’appréciation laissée aux réseaux sociaux pour définir le discours haineux, et de la censure politique qui pourrait s’accomplir sous son prétexte, en l’absence d’une transparence algorithmique complète. Le discours haineux le plus fréquemment censuré se dirige contre les migrants (17%), suivi de près par l’homophobie (15%) et l’islamophobie (13.6%). Mais la frontière entre opinion politique franche et expression de haine n’est pas toujours évidente à saisir, a fortiori pour des êtres dénués de l’un comme de l’autre.

B. Questions ouvertes pour discussion

1. Y a-t-il un droit à l’explication des algorithmes dans les règles en matière de vie privée?

La question du droit à l’explication des algorithmes est pertinente, car l’intelligence artificielle intervient aujourd’hui dans de nombreux domaines par le biais d’algorithmes, laissant parfois la machine décider à la place de l’homme – en matière de sélection pour l’accès à l’enseignement ou en matière de systèmes de conduite autonome, par exemple. Avec les progrès technologiques, la vie des consommateurs est régulée par des algorithmes éminemment complexes de façon croissante. Or, ces algorithmes se nourrissent d’informations à caractère personnel, et cette tendance présente un risque accru d’asymétrie d’information entre les ingénieurs, les responsables du traitement des algorithmes et la personne concernée. En effet, le citoyen moyen n’a aucune idée de la façon dont un algorithme fonctionne – alors que ce dernier prend des décisions sur base de ses informations personnelles.

Pour remédier à cela, le règlement général sur la protection des données (RGPD) de l’Union européenne met l’accent sur une nouvelle obligation essentielle : la transparence du traitement. Le règlement appelle notamment à créer « un cadre de protection des données solide et plus cohérent dans l’Union […] car il importe de susciter la confiance qui permettra à l’économie numérique de se développer dans l’ensemble du marché intérieur. Les personnes physiques devraient avoir le contrôle des données à caractère personnel les concernant. La sécurité tant juridique que pratique devrait être renforcée pour les personnes physiques, les opérateurs économiques et les autorités publiques » (RGPD, cons. 7).

Il prévoit également des dispositions particulières relatives à la prise de décision automatisée et au profilage – créant une obligation d’information renforcée en la matière à la charge du responsable du traitement des données. Les personnes concernées ont un droit aux « informations complémentaires suivantes qui sont nécessaires pour garantir un traitement équitable et transparent, [en l’occurrence] des informations utiles concernant la logique sous-jacente, ainsi que l’importance et les conséquences prévues de ce traitement pour la personne concernée » (RGPD art. 13.2.f – voir également 14.2.g si les données sont collectées indirectement).

Cependant, de nombreux algorithmes échappent à une telle obligation : dès que la prise de décision n’est pas entièrement automatisée – c’est-à-dire dès qu’une intervention humaine est avérée – l’obligation d’information renforcée n’est plus applicable, avec un retour à l’obligation d’information classique.

Enfin, même lorsque cette obligation renforcée est applicable, le contenu exact de l’information à fournir reste flou – notamment dans les cas impliquant des algorithmes extrêmement complexes ou du machine learning (en raison de leur opacité naturelle). Le Groupe de travail de l’article 29 (G29), qui réunit les autorités de contrôle des Etats membres en matière de protection des données à caractère personnel, a tenté d’en définir les contours de façon pragmatique : « Le responsable de traitement devrait trouver des manières simples d’indiquer aux personnes concernées la logique derrière la décision, ou les critères sur laquelle elle est fondée, sans nécessairement essayer de donner une explication complexe des algorithmes utilisés, ou divulguer l’intégralité de ces algorithmes » (Lignes directrices, 3 octobre 2017). Il ne s’agirait donc pas du tout d’expliquer « mathématiquement » l’algorithme par une divulgation du code source, mais bien de dévoiler la nature et les enjeux de la décision prise automatiquement pour la personne concernée – en conformité avec les exigences de clarté et d’accessibilité prévues par le règlement (RGPD, art. 12.1).

2. Quelle est la pertinence des arguments juridiques invoqués par des opérateurs privés pour limiter l’accès aux algorithmes et/ou aux données?

Avant même de parler d’une quelconque limitation à l’accès aux algorithmes et/ou aux données, faut-il encore parler des droits qui permettent cet accès. En effet, c’est dans le nouveau « Règlement no 2016/679, dit règlement général sur la protection des données (RGPD), que se trouvent les règles applicables en la matière. Mais on peut également trouver des précisions, informations complémentaires, éclaircissements et approfondissements dans les « lignes directrices relatives à la prise de décision individuelle automatisée et au profilage aux fins du règlement (UE) 2016/679 » adoptées par le groupe de travail « article 29 » sur la protection des données.

Les règles relatives au droit d’information des personnes concernées sont entre autres reprises aux articles 13,14, 15 et 22 du RGPD. Les deux premiers concernent le droit d’information réservé à toute personne concernée par la collecte de données, avec une distinction selon que les données sont collectées auprès de cette personne ou non. Tandis que l’article 15 traite du droit d’accès de la personne concernée aux données collectées mais aussi comme nous le verrons, au fonctionnement des algorithmes permettant la prise de décisions automatisées. Finalement l’article 22 traite plus spécifiquement d’un droit négatif, en effet, il prévoit le droit pour toute personne de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, sauf respect de certaines conditions.

Après avoir situé certaines règles concernant les droits accordés aux personnes concernées, il paraît utile de définir ce qu’est une donnée à caractère personnel, la définition nous vient directement de l’article 4, (1) du RGPD : « toute information se rapportant à une personne physique identifiée ou identifiable (ci-après dénommée «personne concernée»); est réputée être une «personne physique identifiable» une personne physique qui peut être identifiée, directement ou indirectement, notamment par référence à un identifiant, tel qu’un nom, un numéro d’identification, des données de localisation, un identifiant en ligne, ou à un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique, économique, culturelle ou sociale » (RGPD).

Il est connu de tous que de longue date les opérateurs privés collectant des données à caractère personnel poursuivent essentiellement un but économique. Ces données permettent à ces derniers de proposer par exemple des publicités ciblées, de faire du profilage, de vendre, plus rarement, ces données, ou plutôt de les échanger, etc. Mais il faut savoir que les données collectées permettent aussi par le biais d’algorithmes assez sophistiqués, de prendre des décisions individuelles automatisées. C’est notamment le cas en France, pour le système d’Admission Post Bac (ABP). Il s’agit d’un « système automatisé d’admission dans l’enseignement supérieur ».

Aujourd’hui les « données sont devenues des ressources valorisées, et le droit commence à arbitrer entre les demandes variées, et souvent contradictoires, visant à contrôler les données et à garantir l’accès aux données ».

C’est ainsi qu’on en arrive à un stade de « conflit » entre revendications d’opérateurs privés et les droits de tout un chacun. En effet, la question traitée chevauche à la fois les droits intellectuels et contractuels des opérateurs privés et les droits d’information et d’accès des particuliers.

Les opérateurs privés tendent à vouloir limiter l’accès aux algorithmes, à mon avis à juste titre. En effet il ne faut pas perdre de vue que ces derniers ont eux aussi des droits comme indiqué infra. Ainsi comme l’a dit Adrien AULAS ; « qu’une telle divulgation, d’abord, se heurterait au respect du secret des affaires et de la propriété intellectuelle, dans un monde où l’actif immatériel que constitue un algorithme performant peut représenter l’essentiel de la valeur d’une entreprise ». Permettre un accès à toute personne concernée, aux algorithmes utilisés dans les prises de décisions individuelles automatisées, porterait donc atteinte, comme repris dans le considérant 63 du RGPD, « aux droits ou libertés d’autrui, y compris au secret des affaires ou à la propriété intellectuelle, notamment au droit d’auteur protégeant le logiciel ».

À lui d’ajouter encore à juste titre qu’une « retranscription intégrale de l’algorithme, voire son explication mathématique, est à l’évidence insusceptible de satisfaire aux conditions de clarté et d’accessibilité posées par le texte, dont l’article 12.1 dispose que l’information doit être donnée aux personnes concernées “d’une façon concise, transparente, compréhensible et aisément accessible, en des termes clairs et simples, en particulier pour toute information destinée spécifiquement à un enfant“. ».

Il conclut ainsi, en disant qu’il s’agit « d’informer ni trop, ni trop peu – soit, mais au regard de quel étalon ? La meilleure approche nous semble être à cet égard une approche fonctionnaliste : l’information fournie doit être suffisante pour remplir les objectifs qui en dépendent, du point de vue de la protection des personnes concernées ». Une approche qui irait dans le même sens que les objectifs du RGPD et des lignes directrices adoptées par le G29.

Mais au-delà des difficultés liées à la protection des algorithmes par des droits spécifiques, le droit d’information et le droit d’accès à celles-ci est souvent « rendu compliqué par le fait que les concepteurs (des algorithmes) ignorent parfois pourquoi un modèle est parvenu à une décision spécifique ».

En France, il existe cependant une possibilité d’avoir droit à une explication détaillée contenant la « méthode ayant servi à développer l’algorithme, aux contraintes et aux besoins ayant guidé ce développement, aux taux d’erreur par catégorie de données, aux critères de test et d’évaluation, ou encore, “si l’algorithme est le produit d’un apprentissage machine, [aux] sources de données qui ont été utilisées pour [le] concevoir“ ». Cette possibilité est notamment réservée aux hypothèses de recours.

Nous retiendrons donc de tout cela que les algorithmes doivent en principe faire l’objet d’un droit d’accès, droit d’information pour la personne concernée mais que le considérant 63 du RGPD « prévoit une certaine protection pour les responsables du traitement qui s’inquiètent de révéler des secrets d’affaires ou liés à la propriété intellectuelle, ce qui peut être particulièrement pertinent en ce qui concerne le profilage. Il indique que ce droit d’accès ne devrait pas porter atteinte aux droits ou libertés d’autrui, y compris au secret des affaires ou à la propriété intellectuelle, notamment au droit d’auteur protégeant le logiciel. Toutefois, les responsables du traitement ne peuvent pas invoquer la protection de leurs secrets d’affaires comme excuse pour refuser l’accès ou refuser de fournir des informations à la personne concernée » (Lignes directrices relatives à la prise de décision individuelle automatisée et au profilage aux fins du règlement (UE) 2016/679).

En ce qui concerne l’accès aux données à caractère personnel recueillies par les opérateurs privés, celles-ci ne peuvent en principe souffrir aucune limitation. Mais comme noté sur le site de la CNIL (La Commission nationale de l’informatique et des libertés de France) certaines limitations peuvent être prévues. Et notamment en France on prévoit des limitations « pour certains fichiers de police ou intéressant la sûreté de l’État ». Mais il existe aussi des limitations liées aux « droits ou libertés d’autrui, l’exercice du droit d’accès d’une personne ne doit pas porter atteinte au droit des tiers. Seules les données de la personne concernée peuvent être communiquées au titre du droit d’accès ». Et une dernière limitation déjà citée au sujet des algorithmes, « la propriété intellectuelle : par exemple le droit d’auteur, lorsqu’il protège le logiciel, ou encore le secret d’affaires, etc. ».

Tout cela nous mène à une question fondamentale en droit de la propriété intellectuelle et notamment dans le domaine des données personnelles. Se dirige-t-on vers un droit de la propriété des données à caractère personnel ? L’avenir nous le dira bien assez tôt, au vu des évolutions ultra-rapides en la matière. Le droit arrivera-t-il à suivre les avancées numériques et technologiques ? La question reste en suspens dans une époque où le numérique semble être le nouveau monde.  

3. Faut-il revoir les exceptions aux secrets d’affaires et/ou à l’accès aux documents administratifs pour assurer la transparence des outils d’IA?

Il est nécessaire, avant de pouvoir parler de secret d’affaire, que trois conditions soient remplies (Loi du 30 juillet 2018 relative à la protection des secrets d’affaires). En effet, il faut :
A. Que le procédé ne soit pas généralement connu par les personnes qui exercent dans le milieu en question ou que le procédé ne leur soit pas facilement accessible et cela, dans sa globalité, dans sa configuration et dans l’assemblage précis de ses éléments.
B. Ensuite, il faut que ce procédé ait une valeur commerciale
C. Enfin, les mesures mises en place par la personne qui le détient doivent être raisonnables en vue de l’objectif de garder le secret.

Si la transparence algorithmique est souhaitée pour les consommateurs, les entreprises préfèreraient garder leurs algorithmes secrets pour conserver leurs avantages concurrentiels. Le secret d’affaire semble être l’outil de protection idéal pour les algorithmes.

Les algorithmes permettent de traiter des données personnelles mais également d’en collecter. Par conséquent, les consommateurs doivent être au courant de ce qui est fait avec leurs données personnelles. Mark Zuckerberg l’a concédé lors de son interrogatoire de dix heures au Sénat Américain : l’une des prochaines étapes est de progresser dans la transparence, notamment en permettant aux consommateurs d’avoir accès aux algorithmes.

Toutefois la question est légitime : la protection du secret d’affaire est-elle conciliable avec la transparence recherchée ? Selon Yacine Si Abdallah, chargé de mission « éthique et numérique » à la CNIL, « (…)  pour concilier transparence et secret, on peut publier une spécification du code, autrement dit ce que doit faire le programme, et non comment il le fait. De même, l’auteur d’un algorithme peut s’appuyer sur un tiers certificateur, comme cela se fait dans l’industrie aéronautique ». Par conséquent, les exceptions aux secrets d’affaires existant jusqu’à présent peuvent servir de justification pour laisser place à plus de transparence.

Qu’en est-il pour les documents administratifs où les algorithmes sont de plus en plus présents ? La question est de savoir si le manque de transparence algorithmique est contraire à l’obligation de transparence et à l’obligation de motivation de l’acte administratif.

En France, le Conseil constitutionnel a exposé clairement sa position. S’il y a faute de transparence, les actes administratifs pourront être annulés.

Un texte de loi, pas encore promulgué par Emmanuel Macron, énonce que les décisions administratives relevant exclusivement du traitement automatisé seront officiellement autorisées sous réserve du respect de ces trois conditions :
A. Qu’une « mention explicite » avertisse l’usager qu’une décision a été prise à son encontre par le biais d’un algorithme, et qu’il a le droit de se faire expliciter le fonctionnement de celui-ci « sous une forme intelligible ».
B. Que les « règles » définissant le traitement ainsi que ses « principales caractéristiques » de mise en œuvre soient communiquées – sur demande – à la personne concernée, « à l’exception des secrets protégés par la loi ».
C. Que l’algorithme ne fonctionne pas à partir de données jugées sensibles (orientation sexuelle, convictions religieuses, origine ethnique, données biométriques…).

En ce qui concerne la « mention explicite », la haute juridiction  a ajouté : «  Lorsque les principes de fonctionnement d’un algorithme ne peuvent être communiqués sans porter atteinte à l’un des secrets ou intérêts énoncés au 2° de l’article L. 311-5 du Code des relations entre le public et l’administration, aucune décision individuelle ne peut être prise sur le fondement exclusif de cet algorithme. »

Autrement dit, sans transparence, les décisions administratives ne peuvent pas entièrement être prises de manière automatisée. Les acteurs publics ne pourront pas se justifier par des exceptions pour le faire. (Des exceptions existent : secret de la défense nationale, risques d’atteinte à la sécurité des systèmes d’information des administrations, au déroulement des procédures judiciaires, à la monnaie et au crédit public, etc.)

Par cela, nous voyons que tant pour les actes privés que pour les actes publics, les exceptions existantes suffisent actuellement à ce que plus de transparence soit faite dans le monde algorithmique. Néanmoins, si les exceptions venaient un jour à ne plus suffire pour imposer la transparence nécessaire à la protection des données personnelles du consommateur, nul doute qu’il faudrait les revoir afin que la technologie puisse toujours servir l’homme conformément aux principes légaux et conformément à la dignité humaine.

Show less
Reply
Savenberg Clara + Verhoeven Amandine + Dupont Christelle
Travail fait par : Savenberg Clara + Verhoeven Amandine + Dupont Christelle TITRE VI Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur? APB APB a été créé car on voulait plus de transparence dans la sélection des candidats. En effet, le dernier système avait fortement critiqué pour son manque de transparence et son risque de…
Read more

Travail fait par : Savenberg Clara + Verhoeven Amandine + Dupont Christelle
TITRE VI

Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur?

APB
APB a été créé car on voulait plus de transparence dans la sélection des candidats. En effet, le dernier système avait fortement critiqué pour son manque de transparence et son risque de manipulation frauduleuse commise par les fonctionnaires. L’avantage de l’algorithme est qu’il applique les règles indépendamment des personnes concernées, cela favorise une application uniforme de celles-ci. Cela peut assurer une égalité des chances entre les candidats, alors que cette égalité n’aurait pas pu être assurer par l’administration.
Tout ce système est inscrit dans le Code des relations entre le public et l’administration. Le code source de l’algorithme est considéré comme un document administratif. Ce qui implique que tout étudiant qui en fait la demande peut se voir attribuer une copie de ce document (copie sur support ou électronique), en vertu, d’un avis de la commission d’accès aux documents administratifs de juin 2016[1],ainsi que l’article 4 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique en matière d’ouverture des données publiques. Par la suite, cela va être mis en œuvre par le décret n° 2017-330 du 14 mars.
En effet, le décret n° 2017-330 du 14 mars 2017[2] relatif aux droits des personnes faisant l’objet de décisions individuelles prises sur le fondement d’un traitement algorithmique autorise l’accès a toute personne sujette à la décision de l’algorithme. Ensuite, cela est consacré dans le nouvel article R. 311-3-1-2 du Code des relations entre le public et l’administration[3], un droit d’accès de la personne sujette à la décision algorithmiquement fondée à diverses informations. Etant donné que c’est reconnu par Code des relations entre le public et l’administration, la transparence est assurée au niveau administratif seulement,…

Parcoursup
Avec le système APB, était mis en cause son manque de transparence, ainsi que l’impossibilité pour les candidats d’obtenir des informations précises quant à son fonctionnement. C’est pour résoudre ces problème qu’est née la nouvelle plate-forme, baptisée Parcoursup, elle entre en fonction le 22 mai 2018 et prévue par la loi “Orientation et réussite des étudiants” (ORE). Parcoursup reproduit la même mécanique de tri qu’APB, mais de façon plus progressive et en laissant voir le fonctionnement de chacune des étapes de sélection . Les dispositions spécifiques introduites par la loi ORE introduisent un régime d’exception sur la transparence : l’article L612-3 du Code de l’éducation dispose que “ les candidats ont la possibilité d’obtenir, s’ils en font la demande, la communication des informations relatives aux critères et modalités d’examen de leurs candidatures ainsi que des motifs pédagogiques qui justifient la décision prise”. De plus, l’article R311-3-1-2 du Code des relations entre le public et l’administration dispose que Parcoursup communique certaines informations telles que les données traitées et leurs sources ainsi que les paramètres de traitement et le cas échéant, leur pondération.
Bien que le but des autorités fût de faire en sorte que le logiciel soit le plus transparent possible. Son opacité est toujours fortement critiquée. Effectivement, le « secret de délibération » est préservé, les établissements supérieurs ne devront pas révélées les algorithmes locaux qui classent les étudiants, selon l’adéquation entre le profil et les attendus de l’établissement concerné. De ce fait, Parcoursup déroge à la loi d’octobre 2016 qui impose d’informer les candidats qui le demande, « des principaux traitements algorithmiques utilisés dans l’accomplissement de leurs missions ». il déroge aussi à l’article 4 et 22 du RGPD qui interdit qu’une personne face l’objet d’une décision fondée uniquement sur un traitement automatisé des donnés.
Plusieurs personnes se battent pour rendre le parcoursup plus transparent. Tout d’abord, le sénat a rendu un avis afin de rendre public les algorithmes locaux de sélection des étudiants mais celui a été rejeté par les députés. Cette opacité a aussi été vivement critiquée, notamment par Les défenseurs des droit l’hommes « La publication de ces informations ne porte pas atteinte aux principes de souveraineté du jury et du secret de ses délibérations”, estimait le Défenseur. Il a demandé au gouvernement “de prendre les mesures nécessaires” pour “rendre publiques toutes les informations relatives au traitement, y compris algorithmique, et à l’évaluation des dossiers des candidats par les commissions locales des établissements d’enseignement supérieur”. Vient au tour de la justice, le 4 février 2019, « le Tribunal Administratif de Guadeloupe a rendu sa décision : l’Université des Antilles est contrainte de publier les algorithmes locaux utilisés par l’établissement pour classer les candidats à ses licences via la plateforme Parcoursup ». C’est un pas de plus vers la totale transparence de parcoursup.

[1] CADA, avis 20161989 du 23 juin 2016, Ministère de l’Education nationale
[2] Décret n° 2017-330 du 14 mars
[3] R. 311-3-1-2 du Code des relations entre le public et l’administration

Est-ce que l’on a progressé en ce qui concerne la transparence des algorithmes de Facebook, Google et Twitter et de l’usage de l’IA comme remède à la propagation des propos haineux sur ces réseaux sociaux?

Non. Pour que les IA puissent progresser sur la résolution de la propagation des “fake news” et des propos haineux sur les réseaux sociaux, il faudrait que les plateformes de l’Internet (Google, Twitter, Facebook, etc.) acceptent de rendre plus transparente, voire, publique, la façon dont les algorithmes de propagation de ces contenus fonctionnent. Or, sous couvert de la propriété intellectuelle et du secret d’affaire, ces dernières refusent d’octroyer l’accès à ce contenu. D’autres refusent que des chercheurs extérieurs aux plateformes en question créent des faux profils afin d’analyser et de cartographier les biais des moteurs de recherche.
Néanmoins, Face book a annoncé qu’il allait ouvrir ses algorithmes à l’Etat Français, plus particulièrement à la Cnil (le défenseur des données personnelles), l’Arcep (le régulateur des télécoms) et l’Autorité de la Concurrence, afin de lutter contre les propos haineux. Durant 6 mois, de janvier à Juin 2019, Facebook va mettre son algorithme à disposition des autorités françaises afin réguler pour trouver la meilleure façon d’éviter les discours de haine. Bien qu’ils soient tous soumis au secret d’affaire, cela reste une grande étape pour face book, en effet, pour la première fois face book va partager le secret de son algorithme.

Y a-t-il un droit à l’explication des algorithmes dans les règles en matière de vie privée?

Certains articles du RGPD font référence à un droit d’explication tel que l’Art 12 du RGPD qui stipule que “la transparence des informations et des communications et modalités de l’exercice des droits de la personne concernée”

Quelle est la pertinence des arguments juridiques invoqués par des opérateurs privés pour limiter l’accès aux algorithmes et/ou aux données?

Les arguments invoqués par les opérateurs privés sont les différents panels de droits intellectuels ainsi que le droit au secret d’affaire. Ces arguments sont pertinents car essentiels pour protéger leur valeur sur le marché, face à leurs concurrents.
Ex : Google l’algorithme de google est en constante évolution, cela a une répercution sur des millier de site et sur le chiffre d’affaire d’autant d’entreprise. “Les agences de référencement se sont spécialisées dans l’optimisation du positionnement des sites web de leurs clients en fonction des évolutions de l’algorithme de Google (PageRank)”.
Ex : Facebook, leur algorithme sert à déterminer la visibilité d’un message sur le mur des utilisateurs.
Data broker : “ les big brothers du big data” collecte un maximum de donnée afin d’anticiper au mieux le comportement des individus et innover une nouvelle stratégie commerciale basée sur les données collectionnées. Les grandes plateformes telles que Facebook collecte un nombre incalculable de donnée sur ses utilisateurs. “ Un like” donne déjà des informations précieuses sur mes préférences.
Toutefois on vise l’accès aux algorithmes et/ou aux données afin de protéger le traitement des données des utilisateurs et de faire en sorte qu’ils comprennent comment fonctionnent ces algorithmes. Nous ne sommes pas ici dans une optique concurrentielle.

Faut-il revoir les exceptions aux secrets d’affaires et/ou à l’accès aux documents administratifs pour assurer la transparence des outils d’IA?

La protection du secret d’affaires a été renforcée lors d’une directive de l’union européenne de 2016. Cette directive vise à protéger les entreprises contre l’espionnage économique et industriel. Toutefois, cela a inquiété les journalistes et les lanceurs d’alertes, qui sont non-concurrents aux entreprises dont ils divulguent les informations. C’est pourquoi, des garde-fous ont été ajoutés sous forme d’exceptions à la protection du secret des affaires à l’article 5 du texte:
« Pour exercer le droit à la liberté d’expression et d’information établi dans la [charte des droits fondamentaux de l’Union européenne], y compris le respect de la liberté et du pluralisme des médias. »
« Pour révéler une faute, un comportement inapproprié ou une activité illégale, à condition que [la personne qui commet l’infraction] ait agi dans le but de protéger l’intérêt public général. »
Toutefois, ces exceptions n’en sont pas vraiment selon nous, puisqu’elles ne font que viser des libertés fondamentales établies ainsi que limitations afin de protéger l’intérêt public général. Nous avons pensé à ajouter une exception plus spécifique aux secrets d’affaires afin d’assurer la transparence des outils des IA uniquement pour certaines entreprises dont il a été établi qu’elle possèdent une large position dominante sur le marché en question avec une forme de protection subsidiaire qui interdirait aux concurrents d’utiliser ces informations (pendant un temps limité ou non). Cela permettrait d’atteindre l’objectif de protection des données, d’information quant à l’utilisation des données et de protection des consommateurs tout en préservant d’une certaine façon l’équilibre concurrentiel du marché.

Show less
Reply
Gladys Nollevaux , Julien Laurent, Marie Maréchal
A) 1) Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur ? Une tension est née entre d’une part le droit à l’enseignement pour chaque étudiant et d’autre part l’admission dans un enseignement supérieur réglé un algorithme qui procède à une sélection d’admission en cas de surnombre de demande. Ce système a été mis…
Read more

A) 1) Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur ?
Une tension est née entre d’une part le droit à l’enseignement pour chaque étudiant et d’autre part l’admission dans un enseignement supérieur réglé un algorithme qui procède à une sélection d’admission en cas de surnombre de demande.
Ce système a été mis en place en vue d’assurer davantage de transparence lors de cette procédure de sélection, alors qu’avant c’était un fonctionnaire personne physique qui en était chargé. Cela est censé être plus égalitaire puisque l’algorithme applique uniformément les règles de droit.
Toujours dans un souci de transparence, ces règles utilisées par ailleurs par l’algorithme peuvent être connues des étudiants puisque le code source est considéré par la Commission d’accès aux documents administratifs comme un document administratif et doit donc être communiqué sur demande, même à des fins autres que d’une mission de service public, sous réserve de la protection des droits intellectuels des tiers sur le code.
Un décret a par ailleurs été pris en 2017 concernant le droit des personnes faisant l’objet de décisions individuelles prises sur le fondement d’un traitement algorithmique. Ce décret permet aux personnes visées d’avoir un droit d’accès à différentes informations.
La difficulté a été de créer un algorithme qui n’agissait pus dans le but d’un tirage au sort mais qui traduit les dispositions d’une loi. Ce système de prise de décision complexes doit être vu comme une promesse d’objectivité dans la prise de cette décision administrative qui va affecter la vie individuelle de chacun. Le fait que les étudiants aient accès au système algorithmique permet la transparence ainsi qu’un contrôle sur les critères et leur équité. Alors qu’un algorithme peut paraitre flou pour le citoyen, car sans intervention humaine, et donc source de manipulation.
Il est donc facile de prévoir des règles de transparence, mais parfois plus difficile de les mettre en œuvre.

A) 2) Est-ce que l’on a progressé en ce qui concerne la transparence des algorithmes de Facebook, Google et Twitter et de l’usage de l’IA comme remède à la propagation des propos haineux sur ces réseaux sociaux ?
La protection des données en ligne est protégée entre-autre via l’utilisation d’algorithmes. A entendre Marck Zuckerberg parler, l’IA serait une véritable solution pour assurer cette protection, même si à l’heure actuelle cette méthode n’est pas encore optimale étant donné que de nombreux de nombreux problèmes de messages haineux et diffamatoires sont encore présents sur les réseaux sociaux. Toutefois s’en remettre à la seule utilisation de l’IA, ne présenterait-elle pas un risque de déresponsabiliser ces plateformes en cas de mauvaise protection des données ? Ce n’est surement pas une solution miracle à tous les problèmes de protection de données en lignes et de propagation de contenu. Les contenus haineux par exemple sont très difficiles à repérer pour une technologie d’intelligence artificielle, la limite pouvant être très mince avec l’humour, l’ironie ou en fonction du contexte.
Toutefois, parler de progression est un grand mot aux vues de la situation encore floue de cette question de transparence. En effet, certes l’IA peut permettre de pallier au problème d’une telle propagation de haine, mais le souci reste que la transparence de cette méthode n’est pas encore optimale. En effet, les grandes plateformes d’internet sont encore réticentes à l’idée de donner les informations concernant les algorithmes à diverses personnes, invoquant principalement comme argument la protection du secret des affaires. Alors que le meilleur moyen de déterminer si en effet l’IA est assez efficace pour empêcher des dérives, est que ces plateformes rendent plus transparente la manière dont les algorithmes fonctionnent. Cela s’illustre bien avec Google qui laisse penser qu’il occupe un rôle de législateur en limitant très clairement cet accès à l’information, rôle que la plateforme joue sans mal étant donné son poids mondial.
En se renseignant, on a pu apprendre que Facebook allait partager pour la première les secrets de ses algorithmes à une équipe de régulateurs français, notamment des défenseurs des données personnelles, afin de combattre la propagation de contenus haineux sur son réseaux (pendant 6 mois à partir du 1er janvier 2019).

B) 1) Y a-t-il un droit à l’explication des algorithmes dans les règles en matière de vie privée ?
Il y a un énorme risque à ce qu’une personne concernée par une décision pris e par un algorithme ne comprenne pas comment ses données sont traitées et comment la décision qui la concerne est prise. C’est compliqué d’explique run algorithme mais cela n’empêche pas de donner des informations claire set utiles dans la compréhension, comme les paramètres qui déterminer la décision. Mais jusqu’où doit aller l’exigence d’explication ?
Un groupe de travail qui réunit l’ensemble des autorités de contrôle des Etats membres (2017) s’est penché sur la question avec pour objectif fondamental de contrôle par le citoyen de ses données ainsi que s compréhension du système de prise de décision (RGPD). Cependant le contenu de l’information à fournir est assez flou (surtout pour la manière dont on doit expliquer un algorithme ?). Cette obligation d’information renforcée n’est valable que pour les cas de prise de décision, fondée exclusivement sur un traitement automatisé de données, qui produit des effets juridiques. Tout dépendra donc de l’intervention humaine ou non dans l’utilisation de l’algorithme ainsi que de la décision à laquelle aboutira l’utilisation. Toutefois une personne doit être informée de l’existence d’un profilage ainsi que de ses conséquences. Il reste à attendre l’adoption de directives pour mettre en œuvres cette obligation renforcée de transparence.

B) 2) Quelle est la pertinence des arguments juridiques invoqués par des opérateurs privés pour limiter l’accès aux algorithmes et/ou aux données ?
Les opérateurs privés qui sont les grandes plateformes d’internet tels que Facebook ou encore Google ne semblent pas encore prêts à accorder autant de transparence et de liberté d’accès concernant les algorithmes utilisés.
En effet, cela se voit par l’argument principal avancé par ces plateformes à savoir la protection de leur propriété intellectuelle, et plus particulièrement celui de la protection du secret des affaires.
Par cette volonté de sauvegarder au maximum leurs droits intellectuels en la matière, il est certain que la conséquence première sera ainsi la limitation de l’accès aux données et aux algorithmes. En effet dans l’élaboration de l’algorithme, il y a une étape de conception et d’apprentissage. Ce sont des éléments essentiels de leur stratégie marketing. C’est un élément de leur patrimoine immatériel. Par exemple avec Facebook et Google, les algorithmes déterminent quelles publication et informations nous paraitront en premier lieu. Cela devient des éléments centraux de leur valeur. Mais n’est-ce pas plus l’ensembles des données qu’ils possèdent traitées par l’algorithmes qui sont la réelle valeur ? En effet les données sont le carburant de l’outil, plus la base de données est grande, mieux il fonctionnera.
Bien entendu, cela peut se comprendre puisque la protection de la propriété intellectuelle est un droit qui peut être valablement exercé par ses plateformes. Toutefois d’autres droits tout aussi importants entrent en concurrence avec celui-là comme en première ligne le droit à la vie privée.
Dès lors une telle restriction à l’accès aux données et aux algorithmes telle qu’opérée par Google par exemple à l’heure actuelle semble disproportionnée comparé à la marge de manœuvre possible du droit à la vie privée dans un tel contexte. Légiférer sur base d’une balance des intérêts entre es différentes prérogatives semble dès lors primordial.

B)3) Faut-il revoir les exceptions aux secrets d’affaires et/ou à l’accès aux documents administratifs pour assurer la transparence des outils d’IA ?
Le but serait de contrôler si en effet l’utilisation des algorithmes est réellement efficace, notamment dans le contrôle des informations publiées sur certaines plateformes ou de contrôler si l’utilisation d’outils de IA permettent en effet la non-discrimination et l’égalité. Un équilibre doit être trouver entre encourager l’innovation et la protection de ceux qui sont soumis à l’utilisation de ces outils.
En effet, l’utilisation de ces outils peut manquer d’objectivité dans les résultats, car ils dépendent de certaines données (mais de toutes celles qui peuvent être prises en compte ?).
Il faut donc rendre intelligible pour chaque citoyen d’où viennent les données qui sont utilisées ainsi que le but de l’outil IA. De plus, cela semble essentiel pour les concepteurs d’acquérir la confiance des utilisateurs dans les outils d’IA qu’ils développent.
Mais comme dit plus haut, c’est surtout la base de données à laquelle l’outils aura accès, qui déterminera sont efficacité. Là est la réelle valeur, et donc le réel enjeu. Car l’accessibilité à un ensemble de données personnelles doit avoir droit à une protection. Il faudrait également une transparence quant aux informations dont l’outil dispose.

Show less
Reply
Antoine Marchal, Alexandre Delbart, Célia Lefevre, Arnaud de Broux, Frédéric Braquet
IPdigIT A. Deux points de mise à jour 1. Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur Critères de gestion d’ APB Compte tenu des moyens constants avec lesquels on demande aux universités d’accueillir toujours plus d’étudiants, ce que, bonne pâte, elles font toujours, l’ancienne plate-forme Admission post bac (APB) optimisait la gestion de la pénurie.…
Read more

IPdigIT

A. Deux points de mise à jour

1. Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur

Critères de gestion d’ APB
Compte tenu des moyens constants avec lesquels on demande aux universités d’accueillir toujours plus d’étudiants, ce que, bonne pâte, elles font toujours, l’ancienne plate-forme Admission post bac (APB) optimisait la gestion de la pénurie. Après avoir saisi leurs vœux en ligne de manière hiérarchisée, les candidats aux formations non sélectives étaient classés par un algorithme selon les trois seuls critères auparavant autorisés par le code de l’éducation : l’académie du candidat, l’ordre des vœux et la situation familiale.
Dans un dernier temps, un autre algorithme croisait la liste de vœux, les rangs de classement des candidats et le nombre de places disponibles pour chaque formation. Devenu le bouc émissaire de choix sociopolitiques qui n’avaient rien de technique, le système avait progressivement perdu l’essentiel, la confiance de ses usagers.
Opacité de l’ancienne plate-forme APB
APB s’est en effet attiré la foudre des familles, tétanisées par un système vécu comme opaque et déshumanisé. La Commission nationale de l’informatique et des libertés (CNIL) avait d’ailleurs rappelé, dans une mise en demeure du ministère d’août 2017, l’interdiction de prendre des décisions à l’égard des personnes sur le seul fondement d’un traitement automatisé, sans intervention humaine.
Le système APB était donc condamné à la révision.
Le projet de loi « Orientation et réussite des étudiants » sera prochainement présenté au Parlement. Sans même prendre la peine d’attendre ce moment, le ministère de l’enseignement supérieur a déjà adressé en 2017 nombre d’injonctions aux équipes universitaires pour en organiser la mise en place, en dehors de tout cadre légal. Une telle précipitation est officiellement justifiée par l’urgence qu’il y aurait à remplacer un système impopulaire, APB, vu comme incapable de satisfaire les choix d’orientation des futurs étudiants. Lui succède ainsi une nouvelle plate-forme nommée « Parcoursup », fonctionnant sur la base de principes différents.
Le nouveau système « Parcoursup », toujours aussi opaque ?
Les lycéens seront invités à formuler dix choix non hiérarchisés (au lieu des vingt-quatre d’APB classés eux par ordre de préférence) dans un dossier qui comportera plusieurs pièces (en plus d’une lettre de motivation et des bulletins de notes de première et terminale, les avis du conseil de classe de terminale sur les choix d’orientation demandés par les lycéens). Pour accompagner ce processus, les universités ont dû commencer à formuler des « attendus nationaux » par discipline, éventuellement précisés par des « attendus locaux ».
Un système basé sur l’information et des vœux non-hiérarchisés
Pour chacune des 13 000 formations post-bac proposées sur le site, soit 85% des formations du supérieur, Parcoursup proposera un descriptif. Chaque université ou chaque école devra expliquer en quoi consistent les études qu’elle propose. Elle devra également notifier ses attendus, c’est-à-dire les compétences qu’elle juge nécessaires pour bien réussir sa première année. Attention cependant, ces attendus ne sont pas obligatoires, insiste le ministère de l’Enseignement supérieur. Il ne s’agit donc pas d’une barrière, d’une forme de sélection, mais d’un moyen d’information.
À partir de ces informations, les élèves pourront ensuite noter leurs vœux de formation pour l’année prochaine, avec une nouveauté par rapport à APB : il y a aura dix vœux au maximum sans aucune hiérarchie entre eux. Autre changement dans la méthode de sélection : l’algorithme utilisé jusque-là pour répartir les bacheliers dans les filières laisse sa place à l’humain. Les universités vont ainsi devoir répondre à chaque demande.
Pour les filières sélectives, il n’y a aucun changement par rapport à APB. Les bacheliers auront trois réponses possibles : “oui”, “non”, ou “sur liste d’attente” en attendant qu’un candidat retenu se désiste. Pour les filières non-sélectives, trois réponses également, mais le “non” est remplacé par le “oui si “. Ainsi, si l’université considère que l’élève n’a pas le niveau requis pour bien débuter l’année, elle lui proposera une remise à niveau obligatoire personnalisée, sous forme de cours de méthodologie ou de tutorat par exemple.
Sur le papier, l’université ne dit jamais “non” à un candidat mais “oui”, “oui si”, ou “sur liste d’attente”. Mais dans les faits, si un bachelier est toujours inscrit sur liste d’attente à la fin de la procédure, parce que la capacité d’accueil est atteinte et la filière saturée, il restera sur le carreau, comme l’an dernier. Tout dépendra donc des places disponibles, ouvertes dans les filières jusqu’ici sous tension.

2. Est-ce que l’on a progressé en ce qui concerne la transparence des algorithmes de Facebook, Google et Twitter et de l’usage de l’IA comme remède à la propagation des propos haineux sur ces réseaux sociaux?

L’utilisation de l’IA en Europe est fortement soumise au Règlement Général pour la Protection des Données. Pour être légal et conforme au RGPD, l’usage des données et donc de l’IA doit obligatoirement être transparent (L. Bastien, Pegasystems : pourquoi l’intelligence artificielle doit être transparente, 21 février 2019). On peut désormais contester la décision d’un algorithme et “obtenir une intervention humaine” en cas de conflit (Le Vif, Fake news: les algorithmes des réseaux sociaux et des sites web incriminés – des algorithmes plus éthiques, 16 juillet 2018).
A cette fin, Google et principalement Danny Sullivan, Responsable de Google Search Liaison, a publié une série de tweets concernant les mises à jour récentes et le développement de celles-ci des algorithmes de recherche de Google afin de jouer la carte de la transparence (N. Nguessan, Google Search joue la transparence sur les récentes mises à jour de son algo, novembre 2018).
Google a très bien progressé notamment en mettant en place une charte éthique sur l’IA qui porte sur 7 principes généraux comme ligne de conduite dont 2 qui nous intéresse particulièrement : éviter de créer ou de renforcer un parti pris injuste dans le cadre de propos haineux, racistes ou sexistes et faire face à ses obligations notamment en travaillant à la transparence des algorithmes. En effet, l’opacité des programmes d’intelligence artificielle rend leurs décisions parfois impossibles à expliquer par leurs propres concepteurs. Google assure que leurs technologies d’IA « feront l’objet d’une direction et d’un contrôle humains appropriés» (F. Marius, Google se dote de 7 grands principes pour faire bon usage de l’intelligence artificielle, 8 juin 2018).
Comme on le verra plus tard, Facebook a également progressé car des experts travaillent avec responsables du réseau social américain pour examiner les conditions d’une meilleure régulation dite “intelligente”. En revanche, Twitter n’est guère coopératif et “n’est pas à la hauteur des enjeux” (J. Colombain, Pour lutter contre la haine en ligne, le gouvernement veut plus de transparence de la part des réseaux sociaux, 14 février 2019)
L’usage de l’IA comme remède à ce type de propos est relativement compliqué car ceux-ci sont à discerner de l’ironie, de l’humour, du second degré, etc. La nature de ces différents propos est très difficilement décelable par les outils de technologies actuelles ce qui rend la tâche encore plus ardue. En effet, l’IA a du mal à placer la limite entre le contenu véritablement offensant et du contenu à caractère humoristique. Dès lors, les plateformes Facebook, Twitter, etc. ne sont pas capables de réguler cela et encore moins de réagir à temps (S. François, Facebook ouvre pour la première fois ses algorithmes à l’Etat pour lutter contre les contenus haineux, 12 novembre 2018).
Pour lutter contre cette question, la France et l’Europe veulent progresser notamment par la mise en place d’un système qui mettrait la pression sur les plateformes. En effet, dernièrement une députée française a remis au gouvernement un rapport relatif à la lutte contre la haine sur les réseaux sociaux qui comprenait 20 recommandations (approuvées par le gouvernement) (S. François, Facebook ouvre pour la première fois ses algorithmes à l’Etat pour lutter contre les contenus haineux, 12 novembre 2018).
Ces recommandations sont relativement contraignantes telles que la multiplication par cent (jusqu’à un montant de 37,5 millions d’euros) du montant des amendes encourues par les grands réseaux sociaux et moteurs de recherche quand ils manquent à leurs obligations de retrait, de déréférencement de contenus et de coopération avec les autorités judiciaires. Par ailleurs, ces réseaux sont aussi dans l’obligation de retirer les contenus manifestement racistes et antisémites “dans les 24 heures” – ce qui les pousse à développer encore plus leurs outils pour savoir les identifier (S. François, Facebook ouvre pour la première fois ses algorithmes à l’Etat pour lutter contre les contenus haineux, 12 novembre 2018).
L’Europe a donc un projet à plus long terme qui consiste à une coopération entre les états en vue d’une plus grande régulation à l’échelle européenne tout en laissant une place pour la liberté d’expression – ce qui est un énorme défi. Ce projet consisterait en un rapport-bilan « capable à la fois d’aller plus loin que l’existant -la loi pour la confiance dans l’économie numérique de 2004- et de s’adapter aux réflexions en cours. Pour lutter contre les contenus illégaux et le traitement de ces alertes, l’idée serait de créer un statut “d’accélérateur de contenus” pour les réseaux sociaux et les moteurs de recherche, qui auraient une obligation de transparence sur ces contenus (S. François, Facebook ouvre pour la première fois ses algorithmes à l’Etat pour lutter contre les contenus haineux, 12 novembre 2018).
Pour expérimenter ces démarches, Facebook partage ses méthodes de lutte contre les contenus haineux (cyber-harcèlement, sexisme, racisme, antisémitisme, diffamation…) avec une délégation de régulateurs français issus de la Cnil, de l’Arcep et de l’Autorité de la Concurrence jusqu’en juin 2019 (qui seront évidemment soumis au secret d’affaires) (S. François, Facebook ouvre pour la première fois ses algorithmes à l’Etat pour lutter contre les contenus haineux, 12 novembre 2018).
Il s’agit donc de définir de manière “transparente et en commun” les règles qui régissent le fonctionnement des plateformes. Pour y parvenir, le gouvernement français et principalement 2 personnes que sont Mounir Mahjoubi, secrétaire d’État au numérique, et Marlène Schiappa, la secrétaire d’État chargée de l’égalité entre les femmes et les hommes et de la lutte contre les discriminations. Ces 2 acteurs politiques montrent le plus d’intérêt dans le domaine et souhaitent avoir accès aux algorithmes de régulation des réseaux sociaux afin que la loi soit mieux respectée. Ces algorithmes auraient, en effet, « tendance à privilégier la propagation des contenus haineux car cela suscite le plus d’engagement”, selon Marlène Schiappa (J. Colombain, Pour lutter contre la haine en ligne, le gouvernement veut plus de transparence de la part des réseaux sociaux, 14 février 2019)
Pour conclure, une question fondamentale consiste en la nature et le statut des plateformes de réseaux sociaux tels que Facebook et Twitter : actuellement ils sont considérés comme des hébergeurs mais on se demande s’il ne faudrait pas en faire plutôt des éditeurs (comme les médias). Comme on l’a vu, récent rapport parlementaire français entrevoit une position intermédiaire qui passerait plutôt par un statut d’accélérateur, ce qui mettrait la pression à ces plateformes afin de les soumettre à une multitude d’obligations légales (J. Colombain, Pour lutter contre la haine en ligne, le gouvernement veut plus de transparence de la part des réseaux sociaux, 14 février 2019).

B. Questions ouvertes pour discussion

1. Y a-t-il un droit а l’explication des algorithmes dans les règles en matière de vie privée?
On assiste à la progressive mise en place d’une gouvernance par les algorithmes.
L’algorithme facilite une application uniforme des règles de droit, indépendamment des personnes impliquées.
La gouvernance algorithmique peut prendre de multiples formes qu’il faut étudier pour comprendre comment l’agir humain est toujours davantage suivi de près, fléché, voire (télé)guidé.
L’usage répandu des algorithmes en matière fiscale par exemple a également trouvé un écho en droit européen : il explique l’insertion d’une exception dans le RGPD du 27 avril 2016. Alors que le RGPD octroie à toute personne physique le droit de ne pas faire l’objet d’une décision uniquement fondée sur un traitement automatisé (RGPD, art. 22), il n’en va pas de même lorsque le profilage est, comme en matière fiscale, autorisé par le droit moyennant le respect des libertés et garanties (RGPD, art. 23).
Si l’algorithme peut vérifier la cohérence des informations, il permet également d’assurer une application statistique de la norme, en fonction du risque ou des conséquences créées par un individu ou une situation.
Le risque est de voir l’asymétrie s’aggraver toujours plus entre le responsable du traitement, concepteur ou commanditaire de l’algorithme, qui en détermine la logique et les objectifs, et la personne concernée, incapable de comprendre les conditions dans lesquelles ses données sont traitées et les décisions qui la concernent sont prises. A cet égard, le nouveau règlement, qui se donne pour principe fondamental celui du contrôle des individus sur leurs données, met l’accent sur l’obligation essentielle de transparence du traitement.
=> obligation d’information renforcée (fournir “des informations utiles concernant la logique sous-jacente, ainsi que l’importance et les conséquences prévues du traitement“).
Les lignes directrices du G29 sont à cet égard très claires, en ce qu’elles distinguent radicalement entre deux régimes : un régime spécial, d’abord, applicable au profilage qui aboutit à une prise de décision automatisée au sens de l’article 22, mais aussi à tout autre traitement automatisé de données qui aboutit à une telle prise de décision ; un régime plus général, ensuite, applicable lorsque le profilage n’aboutit pas à une prise de décision automatisée au sens de l’article précité.
L’information fournie doit être suffisante pour remplir les objectifs qui en dépendent, du point de vue de la protection des personnes concernées.
BUT : privilégier l’explication à l’information brute, et, surtout, d’oublier les notices “Informatique & Libertés” stéréotypées, pour leur préférer des interfaces user-friendly, ou plutôt reader-centered.

2. Quelle est la pertinence des arguments juridiques invoqués par des opérateurs privés pour limiter l’accès aux algorithmes et/ou aux données

La restriction à l’accès aux algorithmes peut être justifiée par le secret d’affaires. En effet le développement du code et la structure de celui-ci peut être complexe et faire l’objet d’un temps considérable de développement.
En revanche, l’accès à l’essence même de l’algorithme devrait être le sujet d’un débat profond. L’algorithme permet d’automatiser et d’optimiser des tâches autrefois effectuées par l’être humain, mais la problématique des algorithmes est située aussi dans cette automatisation des tâches.
L’automatisation de certains actes/décisions peut être bénéfique , mais des interrogations subsistent dans le cas où les actes et décisions touchent des matières sensibles comme par exemple l’accès au crédit ou encore l’accès à la justice .
Ces interrogations sont d’autant plus pertinentes dans le cadre de l’application d’une règle de droit, car de nos jours il n’est pas question d’une application automatique de celle-ci car le droit est fait de nuances et d’interprétations.
La restriction du code algorithmique et des données n’est ainsi pas pertinente du fait de la finalité des algorithmes et des données.
Le fait que des opérateurs privés s’arrogent le droit de déterminer à travers le code de ces algorithmes la manière dont doit être effectuée une tâche ou une règle de droit pose question. La question de l’application de la règle de droit est sans doute la plus importante. En effet les concepteurs ne sont pas juristes, et n’ont pas la formation nécessaire pour déterminer la pertinence d’une interprétation d’une règle de droit ou même encore la bonne application de celle-ci. Les résultats peuvent être ainsi au mieux erronés, au pire injustes.

3. Faut-il revoir les exceptions aux secrets d’affaires et/ou à l’accès aux documents administratifs pour assurer la transparence des outils d’IA?

Nous pensons que oui. Cependant, la difficulté varie d’un cas à l’autre :
Concernant l’accès aux documents administratifs, la révision des exceptions pour prendre en compte les nouveautés concernant l’IA paraît plus facile. En effet, le terme de « document administratif » pourrait être interprété comme englobant le code source de l’algorithme constituant une IA. En France, plusieurs avis de la CADA (notamment : CADA, avis 20161989 du 23 juin 2016, Ministère de l’Education nationale) ainsi qu’une décision du tribunal administratif de Paris considèrent un programme informatique comme un document administratif auquel le citoyen a donc accès (tribunal administratif de Paris (5ème section – 2ème chambre), 10 mars 2016, n° 1508951/5-2). La République a même inséré un article L311 3 1 au Code des relations entre le public et l’administration qui précise le droit d’accès à un algorithme de prise de décision. En Belgique cependant, les outils d’IA font peu de remous dans le système juridique, ce qui, le cas échéant, pourrait être source de complication. En effet, toutes les administrations ne sont peut-être pas de bonne foi et, afin de ne pas dévoiler le code de source d’une IA, pourraient jouer avec les mots. Malgré cela, en Belgique, « les documents administratifs ne peuvent être soustraits à la publicité qu’en vertu d’un motif d’exception prévu par la loi » (CADA fédérale, 16 avril 2012, avis n° 2012-28, p. 3.). Or, actuellement, aucune exception légale à proprement parler ne se rapporte à une telle situation. Il ne parait donc pas possible, au premier abord, de soustraire les outils d’IA à la publicité des documents administratifs s’ils sont qualifiés comme tel. Malgré cela, une révision de la législation permettrait de clarifier le tout.
Concernant le secret d’affaire, la situation parait plus compliquée. Un algorithme peut être protégé via la technique du secret d’affaire, mais les exceptions ne sont pas très claires. Peu voire aucune décision ou avis n’a été rendu en la matière La transparence étant le but ultime dans le chef des individus, ici elle entre tout de même en conflit avec d’autres valeurs dans le chef des entreprises (protection du savoir-faire, etc). La réponse n’est pas aussi limpide que pour les actes administratifs mais il nous parait que révisions les exceptions ne peut qu’être bénéfique.

Show less
Reply
Benjamin Mouton - Maxime Penso - Yunus Samanci
A. 1) Avec l’ancien système d’accès à l’enseignement supérieur, beaucoup de critiques ont été soulevées pour son manque de transparence et risque de subjectivité. Le système fonctionnait sur base de critère tel le domicile du candidat ou encore sur une base d’un ordre de souhait de ce candidat. En dernier recourt, un tirage au sort était organisé pour départager…
Read more

A. 1) Avec l’ancien système d’accès à l’enseignement supérieur, beaucoup de critiques ont été soulevées pour son manque de transparence et risque de subjectivité. Le système fonctionnait sur base de critère tel le domicile du candidat ou encore sur une base d’un ordre de souhait de ce candidat. En dernier recourt, un tirage au sort était organisé pour départager les candidats.

La France, consciente des nombreux problèmes liés à cette technique, décida de remanier le système. Dorénavant, le système se base sur une « application uniforme des règles de droit ». C’est à dire que ne sont plus prit en compte les critères personnels des candidats. L’algorithme est beaucoup plus impartial que l’administration lorsque cette dernière était en charge du choix.

Le code source de l’algorithme est considéré comme étant un document administratif, et donc dans un souci de transparence, celui-ci doit être accessible en tout temps par tout le monde, à première demande. La transparence conférée à cet algorithme permet également à l’administration de pouvoir justifier par ce biais sa décision quant à la situation d’un candidat.

La transparence est une nécessité et un droit pour chacun, mais dans la pratique, celle-ci peut-être difficile à garantir pleinement. Dans le cas de l’algorithme, celui-ci est devenu beaucoup plus transparent qu’antérieurement, cependant subsistent certaines zones d’ombres.

A. 2) L’opinion publique est désireuse de connaitre comment fonctionnent les différents algorithmes de ces plates-formes, dans un souci de contrer les effets pervers tels les fausses informations, les propos haineux,… Cependant, les plateformes ne veulent pas divulguer trop d’informations sur leurs algorithmes, ils invoquent le secret d’affaire, mais également la propriété intellectuelle, à juste titre. Par conséquent, on ne peut pas dire qu’il y a vraiment une évolution dans la transparence jusque maintenant, de part cette protection par la propriété intellectuelle. Le temps nous dira si la situation va évoluer, la pression risque sans doute d’être de plus en pus grande sur ces plateformes, étant donné que la problématique des propos haineux est très actuelle.

B. 1) Le droit à l’explication consacre l’idée selon laquelle « une évaluation automatisée des caractéristiques d’une personne conduisant à une prise de décision ne peut être réalisée sur la seule base du traitement automatisé » (Philippe Besse, Céline Castets-Renard, Aurélien Garivier, Jean- Michel Loubes. L’IA du Quotidien peut elle être Éthique ? : Loyauté des Algorithmes d’Apprentissage Automatique. 2018.)

De fait, ce droit permet ainsi de cadenasser les dérives du profilage. Ce droit a été consacré dans le RGPD à l’article 22. Cet article a donc pour conséquence de protéger la vie privée.
Il permet l’intervention humaine lors du traitement des données par l’algorithme. Les données considérées comme sensibles seront exclues du traitement à moins qu’il ait le consentement de l’individu ou bien un intérêt public.

Donc il y a bien un droit à l’explication des algorithmes pour les règles en matière de vie privée.

B. 2) Le principal argument des opérateurs privés pour limiter l’accès aux algorithmes est le droit au secret. Ce droit est prévu à l’art 22 §3 du RGPD. Qui plus est, la directive 2016/943 traite de cette notion. L’article 2 définit le secret d’affaire. Dès lors, il faudra tout d’abord que l’algorithme respecte les conditions de l’article. Les articles 15 et suivants de la directive permettront d’envisager un dédommagement en cas de violation du secret.

B. 3) La transparence des algorithmes est primordiale. En France, ce principe a été consacré par la loi Lemaire en son article 49. Il est dit qu’un opérateur d’une plateforme en ligne doit livrer au consommateur : une information loyale, claire et transparente. Certes, des exceptions sont prévues via les lois, directives, … Mais, nous pensons qu’il faudrait aller encore plus loin dans les exceptions. Pourquoi ne pas prendre exemple sur le système américain ? Aux Etats-Unis, il y a un contrôle des algorithmes. Les universités, ainsi que la FTC contrôlent la transparence des logiciels. Mettre en place un bureau qui sera spécialisé dans ce contrôle pourra avoir un impact positif sur les outils d’IA. (https://perso.math.univ-toulouse.fr/aoc/files/2017/04/Castets-Renard_cadre-l%C3%A9gal-et-%C3%A9thique-des-algorithmes.pdf)

Show less
Reply
Gabriel Maroy, Alexis de Schoutheete, Alexandre Flemal, Arthur de Callataÿ, Romane Massinon
A.1. Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur ? A l’origine, la plateforme en ligne d’orientation scolaire en France se nomme Admission Post-Bac (APB). Cette dernière, comme il a été abondamment relevé dans l’article ci-dessus, n’a pas été exempte de critiques, eu égard au manque de transparence qui la caractérisait et…
Read more

A.1. Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur ?

A l’origine, la plateforme en ligne d’orientation scolaire en France se nomme Admission Post-Bac (APB). Cette dernière, comme il a été abondamment relevé dans l’article ci-dessus, n’a pas été exempte de critiques, eu égard au manque de transparence qui la caractérisait et au risque d’arbitraire susceptible de défavoriser certains étudiants, lesquels ont un droit à l’enseignement supérieur et, comme administrés, un droit d’accès aux documents administratifs.

Depuis le 15 janvier 2018, c’est une nouvelle plateforme, toujours en ligne, qui a été mise en place pour prendre le relais d’APB, à savoir Parcoursup. Si, sous le régime d’APB, c’est la méthode du tirage au sort qui était employée, d’ailleurs à l’origine sans qu’elle ne soit dévoilée, en cas de nombre de candidatures supérieur au nombre de places disponibles dans un établissement d’enseignement supérieur, le législateur français a adopté une autre approche avec Parcoursup. En effet, en pareil cas d’excédent de candidatures eu égard à la capacité d’accueil de l’établissement, il appartient au président ou au directeur de ce dernier d’opérer les inscriptions et, partant, les éventuels refus d’inscription. Les candidats doivent, désormais, faire part de leur motivation au moment de postuler, ce qui permet, ensuite, au directeur responsable du choix d’examiner cette motivation et, plus encore, de la confronter au regard de la formation proposée par l’établissement, dans le but de prendre la mesure de l’adéquation de la motivation et du projet de formation du candidat par rapport à la formation dispensée par ledit établissement. C’est donc un critère qualitatif, et non plus purement aléatoire, qui détermine donc, in fine, l’inscription ou non de l’étudiant dans un établissement d’enseignement supérieur. L’on peut donc percevoir, derrière cette modification de taille, « la patte » du Président de la République Emmanuel Macron, qui n’est pas sans ce rapprocher d’une approche davantage « d’excellence » pour faire place au système aléatoire précédent.

Toutefois, il est, encore aujourd’hui, permis de s’interroger sur la réelle transparence du système Parcoursup. Si, à maintes reprises, et même déjà sous l’empire d’APB, des responsables publics, dont le Président Macron, ont tous émis l’annonce que le code source du service Web ferait l’objet d’une publicité, celle-ci se fait toujours attendre. En mai dernier, les députés de l’Assemblée nationale ont voté, en dépit de l’avis contraire du Sénat, la proposition émise par le gouvernement de garder secrets les algorithmes de classement auxquels ont recours chaque université. Or, chaque université ou établissement d’enseignement supérieur peut disposer de son propre algorithme, ce qui privatise de facto une part de la plateforme Parcoursup et qui est susceptible d’induire une infinité de différences de méthodes de classement des étudiants d’un établissement à un autre, outre les critères généraux. A l’inverse, seul l’algorithme de classement au niveau national fait l’objet d’une publicité, mais son intérêt pratique est donc limité.

En conclusion, le nouveau système Parcoursup opère, certes, une évolution positive, dans la mesure où il se défait du tirage au sort, lequel était placé, auparavant, au centre de toutes les objections. L’on ne saurait, cependant, s’arrêter à cette considération, dès lors où les algorithmes dits « locaux » (ceux des établissements supérieurs, version privée de Parcoursup) n’ont en rien été rendu publics, une opacité justifiée, en droit, par la protection des données personnelles. Doit-on, pour autant, faire fi à ce point de la transparence, et donc des finalités qu’elle poursuit, à savoir l’égalité et la non-discrimination entre les étudiants ? Il est en tout cas fort à parier qu’au cours des prochains mois ou années, la version privée de Parcoursup soit sujette à d’autres modifications, lesquelles sembleraient préalables à une divulgation de l’algorithme. Ce recours à l’intelligence artificielle dans le champ de l’action administrative s’inscrit dans un projet plus large poursuivi par l’actuel gouvernement français, lequel a pour objectif, à terme, de se doter d’une intelligence artificielle purement française, qui répondrait au nom de MarrIAnne.

A.2. Est-ce que l’on a progressé en ce qui concerne la transparence des algorithmes de Facebook, Google et Twitter et de l’usage de l’IA comme remède à la propagation des propos haineux sur les réseaux sociaux ?

La transparence des algorithmes de Facebook, Twitter et Google est en pleine évolution. L’acceptation de nouvelles mesures de transparence par les représentants de Facebook et Twitter à la Conférence RSA 2019 n’est qu’une des nombreuses preuves de cette évolution. L’ajout de ces règles de transparence a pour but de lutter contre la propagation massive de contenus indésirables sur leurs plateformes. La question d’une identification accrue et accélérée des faux-profils a également été abordée.
Pour ces trois plateformes, des minimaux de transparence concernant les algorithmes de ciblage des publicités politiques sont devenus une stratégie commerciale nécessaire afin de conserver la confiance des utilisateurs et de plusieurs gouvernements européens. A l’approche des élections, il a été considéré dans plusieurs pays que les plateformes devraient fournir aux utilisateurs de plus amples informations sur les raisons pour lesquelles une publicité politique leur a été proposé. Cet impératif permettra aux utilisateurs de voter en pleine conscience des influences qu’ils risquent d’avoir subies sur les réseaux.
La régulation actuelle des fake news a également été fortement critiquée ainsi que la gestion des signalements et la modération effective des propos haineux. Des rapports réguliers (mensuels ou trimestriels) de l’activité de ces réseaux et des avancées significatives mises en place par ceux-ci au niveau de la transparence sont désormais exigés par plusieurs organes européens. Ces rapports permettront aux pays d’assurer un plus grand contrôle sur le contenu disponible en ligne. De plus en plus, les sociétés privées propriétaires de réseaux publics concèdent avoir une certaine responsabilité dans la désinformation grandissante qui serait selon certains une menace pour la démocratie.
L’inquiétude concernant l’influence des réseaux sociaux sur les opinions a enflé à l’approches d’importantes élections, entre autres les élections européennes en mai 2019. La Commission européenne a également imposé des exigences de transparence aux plateformes. Facebook compte assurer dans le mois l’accès aux données relatives à l’API Archives, l’outil qui facilite l’analyse des pubs ayant été catégorisées comme politiques ou liées à une problématique d’intérêt national. Les trois plateformes se sont engagées auprès de la Commission à respecter un code de conduite contenant des pratiques contre la désinformation et doivent fournir un bilan mensuel de leurs efforts. Les rapports reçus en janvier 2019 n’ont pas satisfait les commissaires, qui considéraient qu’il manquait encore de nombreuses avancées déterminantes.
Le gouvernement allemand ainsi que le gouvernement français ébauchent également un cadre juridique plus strict en la matière. Des campagnes de prévention sur les problèmes relatifs aux données personnelles et aux fake news ont lieu, comme à l’occasion de la journée sans Facebook organisée le 28 février. Mozilla Foundation a quant à elle mené une large campagne de sensibilisation des utilisateurs et propose aujourd’hui une extension qui empêche la plateforme Facebook de suivre l’activité web lorsque ceux-ci sont hors connexion.
En définitive, nous assistons à un développement des obligations de transparence des sociétés privées ayant un impact sociétal. C’est grâce à la pression des différents gouvernements inquiets mais également grâce à la reconnaissance par les plateformes de leurs impacts que l’on peut savoir que la transparence envers les utilisateurs ne va cesser d’augmenter au cours des prochaines années.
L’expansion de l’utilisation de l’intelligence artificielle comme remède à la propagation des propos haineux sur les réseaux sociaux est également à prévoir au cours des prochaines années. Actuellement, la modération des propos présents sur les plateformes est effectuée au moyen d’un tandem entre une IA et des employés. Ainsi Facebook compte augmenter son personnel à 20.000 employés en charge de la sécurité et de la modération du contenu. L’investissement actuel et futur en l’intelligence artificielle est néanmoins assuré car la gestion de milliards signalements par les modérateurs n’est pas une solution satisfaisante. Pour ces trois géants de la technologie informatique, de nombreux espoirs reposent sur le développement de ces outils technologiques.
En effet, outre le surmenage psychologique que les modérateurs peuvent subir, de nombreux problèmes ont récemment été détectés suite à une investigation menée au Royaume-Uni par un journaliste, entre autres : des consignes de formation trop laxistes, un arriéré du traitement des signalements, une limitation de l’audience des contenus plutôt qu’une suppression, peu voire pas de transparence dans le suivi des plaintes, …
L’Allemagne a rédigé un projet de loi ayant pour objectif de combattre concrètement les incitations à la haine et les propos haineux sur les réseaux. Une amende pouvant aller jusqu’à 50 millions d’euros pourrait être prononcée à l’encontre des plateformes ne faisant pas respecter leurs standards de sécurité. En décembre 2015, Facebook et Twitter s’étaient engagés à retirer les propos haineux de leurs plateformes en 24 heures maximum. Le code de conduite conclu en mai dernier avec la Commission européenne exige une suppression endéans le même délai.
Néanmoins, la dernière étude financée par le gouvernement allemand a révélé que Facebook rencontre des obstacles dans le traitement rapide des plaintes, affirmant que l’entreprise a supprimé seulement 39% du contenu criminel signalé par les utilisateurs, et 33% l’a été dans les 24 heures promises. Facebook conteste ces résultats sur base d’une enquête FSM.
Les performances de Twitter sont encore pires, avec 1% de contenu signalé effacé sans qu’aucune suppression n’ait eu lieu dans les 24 heures. La plateforme espère néanmoins apporter une certaine transparence en permettant un suivi succinct des plaintes. Google, par contre, a apporté des améliorations manifestes à son traitement des plaintes concernant le contenu disponible sur Youtube : 90 % du contenu supprimé et 82 % dans les 24 heures.
En réaction à cette investigation, l’équipe Facebook a expliqué dans un communiqué ses différentes techniques et formations de modération du contenu. Elle a également mis en avant les solutions avantageuses que pourrait apporter une IA plus proactive, aux différents problèmes pointés.
Actuellement, l’IA ne fait que signaler d’elle-même certains contenus identifiés comme objectivement répressibles après une analyse approfondie des profils et contenus. Mais le processus nécessite encore une vérification postérieure par un modérateur. L’IA ne détecte en effet pas encore certaines subtilités de contexte. Une fois un contenu supprimé, elle permet à la fois une détection et une suppression rapides de toutes les publications semblables. Cette détection automatisée est également rendue possible avant même la diffusion trop large de publications de propagandes terroristes ou d’abus envers les enfants.
A contrario des modérateurs physiques, l’intelligence artificielle ne peut être choquée par les contenus traités. Elle assurera également un traitement rapide et identique de tous les signalements effectués par les utilisateurs. Ainsi, l’utilisation de l’intelligence artificielle pourrait répondre à certaines inquiétudes d’application discriminatoire des politiques d’utilisation des réseaux sociaux. Elle permet également l’analyse des informations des différents profils afin de trouver des preuves de faux profils ou encore de profils appartenant à des enfants n’ayant pas l’âge d’utiliser ces plateformes.

L’utilisation de ces outils technologiques comme solution à la propagation des propos haineux tels que l’IA, mais également le « machine learning » (outils qui apprennent et modifient leur comportement par eux-mêmes), est indéniablement en progression. Ils permettront peut-être un contrôle global des propos haineux sur les réseaux sociaux. Facebook, Twitter et Google semblent tout de même déterminés à satisfaire aux exigences minimales de transparence afin d’assurer un traitement et un suivi en toute confiance des plaintes, même si ce traitement est effectué par des algorithmes.
Un cadre juridique strict accompagné de sanctions pénales pourrait être bientôt mis en place pour contraindre ces trois multinationales d’assumer leurs responsabilités. Le projet de loi allemand prévoit des peines pénales pour la personne morale, comme nous l’avons vu ci-dessus, mais également pour la personne physique responsable du traitement, qui est susceptible d’une peine de 5 millions d’euros. Cette sanction pourrait toujours s’appliquer aux sociétés si l’IA devient l’intervenant majeur de la modération de contenu. L’Allemagne souhaite que les sociétés privées nomment des responsables nationaux dans les pays qui pourraient encourir la peine de 5 millions d’euros si le contenu indésirable est maintenu en ligne par l’IA. En conclusion, nous pouvons affirmer que les juristes, au moyen entre autres du droit des obligations ou du droit pénal, interviennent pour venir au secours des utilisateurs et leur garantir une transparence effective dans l’utilisation des réseaux publics.

B.1 Y a-t-il un droit à l’explication des algorithmes dans les règles en matière de vie privée ?
L’intelligence artificielle (IA) progresse à une vitesse folle. Ces progrès nous permettent d’imaginer que des algorithmes de traitement de plus en plus élaborés prendront intégralement en charge de plus en plus d’aspects de la vie de l’être humain. Cela a comme conséquence que ces algorithmes sont perçus comme étant de plus en plus divers, élaborés et complexes aux yeux des citoyens.
Pour contrer cela ne faut-il pas élaborer un droit à l’explication des algorithmes dès que cela concerne les citoyens ? Le citoyen européen a-t-il le droit de connaitre la liste « des ingrédients » utilisés dans l’algorithme ? Peut-il exiger qu’on lui explique la manière de fonctionner de ces algorithmes ?
Ces questions sont légitimes car dans le cadre des algorithmes l’on peut apercevoir qu’il existe une multitude d’incertitudes que chaque programmateur va résoudre différemment dans son propre logiciel ! Beaucoup des choix pris par les logiciels dépendent des choix pris par les programmateurs. Les logarithmes pouvant fort varier de l’un à l’autre, ne pas avoir droit à l’explication du fonctionnement des logarithmes peut entrainer une certaine insécurité ou méfiance envers ces logiciels.
Ce droit de comprendre l’algorithme semble pour la première avoir été consacré dans le Règlement Général de l’Union européenne sur la Protection des Données (RGPD). Conscient en effet que l’avancée de l’intelligence artificielle dépasse les frontières nationales, l’Union européenne a décidé d’y réfléchir. Comment permettre aux individus d’avoir un contrôle optimal sur leurs données ? La réponse semble toute trouvée dans le règlement : en mettant l’accent sur l’obligation essentielle de transparence. Tout traitement de données à caractère personnel doit pouvoir être compris par un citoyen européen.
Ce droit à l’explication a été consacré plus explicitement à l’article 13.2.f (« l’existence d’une prise de décision automatisée, y compris un profilage, visée à l’article 22, paragraphes 1 et 4, et, au moins en pareils cas, des informations utiles concernant la logique sous-jacente, ainsi que l’importance et les conséquences prévues de ce traitement pour la personne concernée ») lu en parallèle avec l’article 22 de ce règlement (« la personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire. »).
A la lecture de ces articles, les citoyens de l’Union européenne semblent via une obligation d’information renforcée envers les sociétés avoir le droit de comprendre les recettes de fabrication des décisions algorithmiques.
Cependant divers obstacles peuvent se loger entre le citoyen et l’explication du logarithme.
Premièrement, il n’est pas rare qu’un logarithme self-learning échappe entièrement à son créateur tel un Frankenstein. Les concepteurs ignorent parfois pourquoi un modèle est parvenu à telle ou telle décision. Comment la société utilisant cet algorithme peut-elle expliquer une chose qu’elle ne maitrise plus ?
Deuxièmement, à cause de la croissance et de la complexité des algorithmes il semble de plus en plus difficile d’expliquer simplement à un citoyen un processus décisionnel complexe et automatisé. Un citoyen lambda peut-il comprendre un logiciel très complexe expliqué mathématiquement ? Cela semble illusoire.
Troisièmement, le droit à l’explication complète se heurte au respect du droit des affaires et à la protection de la propriété intellectuelle (comme précisé dans le considérant 63 du règlement). L’algorithme (un actif immatériel) représente parfois la principale (voir unique) valeur d’une entreprise. Dans ces conditions, il n’est pas difficile de comprendre pourquoi certaines sociétés seraient réticentes à l’idée de dévoiler leur algorithme.
Comment faire pour contrer ces problèmes ? Une seule solution semble dès lors envisageable : charger le responsable du traitement de trouver des moyens simples d’informer la personne concernée sur les catégories utilisées par le logiciel, sur les mesures prises pour assurer la véracité des conclusions, sur la pondération relative de chacun des critères, sur les recours ouverts pour contester la décision prise par l’algorithme etc …
L’efficacité du droit à l’explication des algorithmes repose sur la simplicité des explications des sociétés. Il est inutile d’aller bombarder le citoyen d’explications complexes.

B.2. Quelle est la pertinence des arguments juridiques invoqués par des opérateurs privés pour limiter l’accès aux algorithmes et/ou aux données ?

Afin de répondre à cette question, il faut distinguer les différentes catégories d’acteurs et les finalités d’utilisation de ces algorithmes. En effet, dans le cadre de l’utilisation de ces algorithmes pour les jeux vidéo, on peut dire que les arguments juridiques invoqués afin de ne pas divulguer les algorithmes sont cohérents voire nécessaires. Le jeu étant une création originale, dont l’algorithme est propre à celui-ci demande que tant d’un point de vue commercial que juridique d’être protégé. En effet, en réfléchissant aux jeux en ligne de la loterie nationale, il est nécessaire afin de garder le jeu neutre et « honnête » de ne pas donner la possibilité à quiconque de détourner ou manipuler l’algorithme afin de changer l’issue du jeu. Il est également nécessaire de maintenir les données secrètes, tant pour ne pas influencer le résultat du jeu que pour la protection des utilisateurs (souvent mineurs dans le cas des jeux vidéos).

Dans le cas de la voiture autonome, la réponse sera différente. En effet, il est nécessaire que les principaux acteurs puissent échanger les algorithmes entre eux et pouvoir en faciliter l’utilisation entre les différents opérateurs afin d’accroitre la sécurité de l’usager. Je pense à l’exemple d’un avion qui s’est écrasé parce que les pilotes successifs (américains, puis européens) se sont trompés dans l’utilisation des systèmes métriques et impériaux. Offrir la possibilité à tous les acteurs de pouvoir utiliser un algorithme standard est nécessaire pour la sécurité. Cependant, pour un usage autre, l’application des principes de propriété intellectuelle doit prôner et un secret peut être maintenu dessus. Quant aux données (par exemple communiquer avec les sociétés d’assurances pour indiquer les profils d’automobilistes et donc fixer le montant d’un contrat d’assurance correspondant au profil de l’usager), la question est discutable. Il faut le consentement au moins de l’utilisateur avant de pouvoir récolter et partager ces données car, on peut le comprendre assez vite, nous risquons de voir apparaitre une monétisation des profils d’utilisateurs, monétisation qui risque de se retourner contre eux au travers d’une augmentation des primes d’assurance de manière dangereuse.

Quant à la question de la non divulgation des algorithmes par les administrations, il faut distinguer deux situations : l’application du principe de motivation des actes formels de l’administration et la nécessité, au nom de l’égalité et de l’équité, de maintenir secret ces algorithmes et données. En effet, d’une part, l’administration se doit de pouvoir justifier les décisions prises par celle-ci auprès du citoyen dans un but de transparence et d’égalité. Mais comme indiqué dans l’article, on peut également se poser de la question de l’objectivité de l’agent de l’administration qui lui-même, à l’inverse de l’algorithme peut être manipulé. Selon moi, ce principe de motivation formelle des actes est institué pour parer aux erreurs et manipulations prises par les êtres humains travaillant au sein des administrations. Mais si l’on part du postulat que l’algorithme est juste et équitable et non manipulable car fonctionnant dans un environnement clos, à l’abris de toute intervention humaine pour le manipuler, ne vaut-il pas mieux maintenir celui-ci secret afin de garantir ce postulat ? Quant aux données, celles-ci doivent évidemment rester secrètes et utilisées de manière raisonnable. Offrir la possibilité à l’administration de vendre ces données serait une grosse erreur car une ingérence de l’Etat dans la vie privée des gens, ce qui serait extrêmement dommageable.

Dans le cadre de l’utilisation des algorithmes et données par les GAFA, la problématique reste complexe. En effet, même si l’argument de maintenir secret les algorithmes au nom de la concurrence et de la protection de leur droit d’auteur, leur laisser un « monopole » sur nos données et la manière dont ils gèrent celles-ci est délicat. En effet, la monétisation de nos données reste un sujet très sensible. Il s’agit pour eux de la seule manière de vendre des encarts publicitaires sur leur site et donc d’assurer leur modèle économique. On comprend donc la nécessité de pouvoir maintenir sous leur égide ces données. Cependant, on en revient à discuter à qui appartiennent ces données et donc à qui appartiennent les droits concernant celles-ci. L’argument souvent invoqué est celui des fake news : ont-ils le droit de maintenir secret leurs algorithmes et de choisir quelles informations sélectionner au nom justement de la démocratie et de la liberté d’expression ?

B.3. Faut-il revoir les exceptions aux secrets d’affaires et/ou à l’accès aux documents administratifs pour assurer la transparence des outils d’IA?
Concernant l’IA, cette problématique revient en fait essentiellement à s’interroger sur la protection des logiciels et des algorithmes. La première chose à soulever afin de répondre à cette question est que les outils d’intelligence artificielle (IA) ne bénéficient pas d’une protection suffisamment élaborée en matière de propriété intellectuelle. Celle-ci est probablement à venir et n’est pas encore existante simplement parce que la réelle émergence des IA est assez récente et que la matière n’a pas fait l’objet d’un travail juridique développé et soutenu par une jurisprudence abondante et relativement homogène.
Ainsi, le droit d’auteur est susceptible de protéger un logiciel, ou même, un algorithme mis en forme par un logiciel, sous la condition de pouvoir revendiquer une certaine originalité et de démontrer « la marque de l’apport intellectuel » de son auteur (soit un « effort intellectuel personnalisé »). Le droit des brevets, quant à lui, n’a pas vocation à protéger directement les programmes d’ordinateurs bien qu’il soit possible de protéger une invention intégrant un tel programme d’ordinateur, à condition d’être en mesure d’établir que cette invention remplit les critères classiques de nouveauté, d’inventivité et d’application industrielle.
Les entreprises corrigent cette carence en ayant recours à la confidentialité et au secret des affaires, dont elles aménagent les conditions à leur convenance, par voie contractuelle. Une transparence totale est, en d’autres mots, en conflit avec la protection de l’innovation et, par conséquent, aurait un impact plus ou moins négatif sur la compétitivité et une “bonne” concurrence au sens du droit européen. Cependant, les algorithmes concentrent un certain nombre de craintes légitimes au titre desquelles leur manque éventuel d’objectivité, du fait de leur dépendance aux données pouvant provoquer des biais dans les résultat; l’exigence de transparence est donc totalement fondée et légitime.
S’agissant d’apprentissage profond (deep learning), plus une machine aura pu être entraînée en recourant à un volume de données conséquent, plus son taux d’erreur sera faible, et plus son fonctionnement sera performant. Autrement dit, un algorithme de qualité médiocre sera supérieur à un algorithme qualitatif dès lors qu’il sera mieux entraîné. Il en résulte que les données sont le « carburant » de l’IA et que l’accès à de larges bases de données représente un actif de premier ordre. Suite à cela, on pourrait être témoin de la mise en place de dispositifs d’open data sectoriels (c’est-à-dire une ouverture des données publiques du type décisions de justice, consommations énergétiques, données foncières, etc.) puisque beaucoup considèrent que l’accessibilité des données doit être facilitée, en tant que vecteur de compétitivité. Dans ce cas, le seul critère de différenciation résiderait dans l’algorithme lui-même puisque toutes les IA auront, a priori, accès à une quantité de données similaires, algorithme qui devrait, logiquement, pouvoir être protégé efficacement.
La transparence des outils d’IA est assurément obstruée par le secret des affaires, il serait donc logique de répondre par l’affirmative à la question qui nous est posée. Cependant, nous posons-nous la bonne question? Plutôt que de revoir les exceptions au secret des affaires et l’accès aux documents administratifs, ne serait-il pas plus intéressant de développer un système de protection de la propriété intellectuelle efficace qui permettrait ainsi une transparence plus grande afin de pouvoir, dans le cas plus extrême, interdire le secret des affaires concernant les outils d’IA puisque nous ne les comprenons pas encore totalement ( que se passe-t-il dans la “black box” ?) ? On pourrait imaginer un système analogue à celui du brevet, spécialement conçu pour les algorithmes d’IA, afin que les développements en la matière puissent être partagés par et pour tous. De cette manière, on pourrait modifier les critères actuels nécessaires à l’obtention d’un brevet (notamment, le critère d’originalité/invention qui pose problème pourrait être vu plutôt sous la forme d’un critère d’évolutivité: une invention de base constamment revisitée pour améliorer sa propre performance).
Une autre question à se poser serait de savoir si une totale transparence des données utilisées par les outils d’IA (vu que celles-ci sont indissociables de leur carburant) est souhaitable alors que le croisement entre données, même anonymisées, peut permettre la ré-identification des personnes? Mais c’est un autre débat…

Show less
Reply
Léa Cartier - Ioanna Poulou - Charline Duwez
A. Deux points de mise à jour 1. Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur ? Dans un premier temps, la Commission d’accès aux documents administratifs (la CADA) a rendu un avis en juin 2016 dans lequel elle estimait que le code source de l’algorithme d’Admission Post Bac était un document administratif devant…
Read more

A. Deux points de mise à jour
1. Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur ?
Dans un premier temps, la Commission d’accès aux documents administratifs (la CADA) a rendu un avis en juin 2016 dans lequel elle estimait que le code source de l’algorithme d’Admission Post Bac était un document administratif devant être communiqué aux personnes désirant y avoir accès, moyennant demande, la communication se faisant soit par e-mail, soit sur papier. En mars 2017, un décret a été adopté afin de légiférer sur le droit des personnes faisant l’objet d’une décision individuelle prise sur le fondement d’un traitement algorithmique. La personne a ainsi le droit d’accéder à divers éléments à l’issue du traitement par l’algorithme.
Cependant, en août 2017, soit cinq mois après l’adoption du décret susmentionné, la CNIL (Commission nationale de l’informatique et des libertés de France) publie un communiqué dans lequel elle reproche au Gouvernement français, et plus particulièrement au Ministère de l’Enseignement supérieur, d’utiliser un système dont la transparence n’est pas assurée, d’autant plus qu’il s’agit d’un système utilisé afin de prendre des « décisions produisant des effets juridiques à l’égard d’une personne », et que de telles décisions « ne [peuvent] être [prises] sur le seul fondement d’un traitement automatisé de données » (art 10 de la loi Informatique et Libertés) (1).
Enfin, le Règlement RGPD adopté en 2016 et entré en vigueur en 2018, prévoit en son considérant 63 que « toute personne concernée [par le traitement de données personnelles] devrait avoir le droit de connaître […] la logique qui sous-tend leur éventuel traitement automatisé » (2). Cependant, cette information n’est imposée que dans le cadre d’un traitement entièrement automatisé, ce que n’est pas ParcourSup (nouveau nom d’APB). La CNIL encourage cependant la transmission d’une telle information. (3)
La transparence quant au système automatisé d’admission à l’enseignement supérieur est donc encouragée et revendiquée par certains organismes et associations, mais elle n’est pas obligatoire malgré l’adoption du RGPD.
(1) Pasquier, M., « Les secrets de la protection des algorithmes », (https://www.eurojuris.fr/categories/marques-et-brevets-8300/articles/protection-algorithme-37422.htm#_ftn19)
(2) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données
(3) « Parcoursup et les établissements d’enseignement supérieur » (26 décembre 2018) (https://www.cnil.fr/parcoursup-et-les-etablissements-denseignement-superieur)

2. Est-ce que l’on a progressé en ce qui concerne la transparence des algorithmes de Facebook, Google et Twitter et de l’usage de l’IA comme remède à la propagation des propos haineux sur ces réseaux sociaux ?
En 2016, la commission avait signé un accord (Code of Conduct) avec Facebook, Twitter, YouTube et Microsoft afin de lutter contre la diffusion en ligne de discours de haine illégaux en Europe. Ces Entreprises de technologie de l’information s’étaient engagées à être plus proactive en mettant en place des procédures efficaces d’examen afin de signaler et bloquer, dans un délai approprié, ces propos illégaux. (1)
A l’heure actuelle, la commission révèle que cette coopération entre les autorités nationales, les plateformes informatiques et la société civile a atteint des résultats intéressants. En effet, 89 % des contenus signalés sont évalués dans un délai de 24 heures et 72% sont par la suite supprimés contre 40% et 28 % en 2016. De plus, cette coopération s’est agrandie puisque Instagram, Google+, Dailymotion, Snapchat et Webedia ont également adhéré au Code of Conduct. (2) Cependant l’Europe encourage davantage les plateformes à faire preuve de plus de zèle en ce qui concerne la transparence, notamment en publiant des rapports annuels contenant les types de demande, le temps de traitement, les sources, les avis de contestation et la réponse finale. (3)
Ces géants de l’internet utilisent des outils de détection basés sur l’apprentissage automatique (machine learning) afin de détecter des propos haineux mais une étude a démontré que ces programmes seraient faciles à berner simplement en supprimant les espaces entre les mots ou en ajoutant des termes inoffensifs. (4)
De janvier à juin 2019, Facebook a déclaré qu’il allait partager le secret de ses technologies d’intelligence artificielle dont les algorithmes avec le CNIL, ARCEP et l’autorité de la concurrence en France afin de combattre la prolifération des propos haineux. Il s’agit d’une véritable « expérimentation inédite » puisque cette coopération est la clé afin de trouver un remède efficace contre la cyberhaine qui nage dans un grand flou législatif jonglant entre les contenus véritablement offensants et le « deuxième degré » (5).
(1) Commission européenne – Communiqué de presse du 31 mai 2016 « La Commission européen et les entreprises des technologies de l’information annoncent un code de conduite relatif aux discours haineux illégaux en ligne », http://europa.eu/rapid/press-release_IP-16-1937_fr.htm
(2) Commission européenne – Fiche d’information “Le code de conduite visant à combattre les discours de haine illégaux en ligne : questions et réponses sur la quatrième évaluation », http://europa.eu/rapid/press-release_MEMO-19-806_fr.htm
(3) Communication from the Commission to the European Parliament, the Council, the European economic and social Committee and the Committee of the Regions, « Tackling Illegal Content Online, Towards an enhanced responsibility of online platforms », Brussels, 28.9.2017 COM (2017) 555 final, https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=47383
(4) ZAFFAGNI, Marc (2018,17 sept.), « Contenus haineux sur Internet : les IA qui les traquent sont faciles à tromper », Futura Tech, https://www.futura-sciences.com/tech/actualites/intelligence-artificielle-contenus-haineux-internet-ia-traquent-sont-faciles-tromper-72860/
(5) ROLLAND, Sylvain (2018, 12 nov.), “Facebook ouvre pour la première fois ses algorithmes à l’Etat pour lutter contre les contenus haineux », La Tribune, https://www.latribune.fr/technos-medias/internet/facebook-ouvre-pour-la-premiere-fois-ses-algorithmes-a-l-etat-pour-lutter-contre-les-contenus-haineux-797199.html

B. Questions ouvertes pour discussion
Une multitude d’outils intelligents sont en train d’être déployés dans divers secteurs. Les logiciels de jeu ne posent bien entendu pas les mêmes problèmes que les systèmes de conduite autonome. De même, l’usage d’algorithmes dans la décision administrative soulève d’autres questions de transparence que leur implémentation pour proposer des recommandations ou classer les informations en ligne sur les réseaux sociaux. A chaque fois, l’accès aux données ou aux recettes de fabrication des décisions algorithmiques sont centrales.
Voici trois questions à se poser :
1. Y a-t-il un droit à l’explication des algorithmes dans les règles en matière de vie privée ?
Le Règlement général sur la protection des données d’avril 2016 (Règlement (UE) 2016/679) relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données (1), fixe aussi des normes qui concernent l’utilisation des algorithmes dans la collecte de données dont, éventuellement, un « droit à l’explication » au regard des processus de prise de décision. Il s’agit d’un élément important afin de comprendre si le droit à la vie privée est respecté ou pas. Ce droit d’explication est tout de même contesté.
Il est important de d’abord comprendre qu’elle est la portée de ce droit d’explication. Ce droit dérive de trois bases légales distinctes (3). La première base légale est la sauvegarde contre la prise de décision automatique selon l’article 22 paragraphe 3, et considérant 71. Suite à la prise de décision, le titulaire de ses données personnelles a au moins le droit de demander au responsable qui traite les données « d’obtenir une intervention humaine de la part du responsable du traitement, d’exprimer son point de vue et de contester la décision » mais non d’obtenir un droit d’explication. Ce droit est explicitement prévu dans le considérant 71, qui n’est qu’un commentaire, un guide des articles non contraignant. La deuxième base légale porte sur les informations qui doivent être fournies selon les articles 13 et 14 et les considérants 60 à 62. Ceci est contesté étant donné qu’il ressort d’une lecture plus approfondie des articles que ce droit à l’explication de l’existence et du fonctionnement de la procédure utilisée peut être exercé avant la prise de décision en tant que telle, et uniquement sur la procédure en général, et non pour chaque décision individuelle. La troisième base légale porte sur le droit d’accès selon l’article 15, considérant 63 du RGPD. Encore une fois ce droit se limite au fonctionnement du système et non sur l’analyse d’une décision spécifique étant donné que ce droit est limité par le secret d’affaire.
La contestation du droit à l’explication du RGPD est due au fait que l’accès au traitement algorithmique est limité par la protection apportée par le secret d’affaire. Plus précisément, le code de l’algorithme est protégé par la directive européenne sur le secret d’affaires adopté en 2016 (4). Selon le considérant 34 de cette directive, cette dernière « respecte les droits fondamentaux et observe les principes reconnus notamment par la Charte, en particulier le droit au respect de la vie privée et familiale, le droit à la protection des données à caractère personnel (…) tout en respectant le secret des affaires ». Le considérant 35 précise que la directive sur les secrets d’affaire « ne devrait pas avoir d’incidence sur les droits et obligations fixés par la directive 95/46/CE, notamment le droit de la personne concernée d’accéder aux données à caractère personnel la concernant qui font l’objet d’un traitement (…) ». Il ressort de cela que le droit à la vie privée prévaut sur le droit à la protection du secret d’affaire (5).
Ce droit à l’explication joue donc un rôle important pour la garantie du droit à la vie privée. Il devient de plus en plus important pour les utilisateurs de comprendre le système utilisé par chaque algorithme qui traite des données car il devient de plus en plus difficile de protéger non seulement la vie privée mais également d’autres libertés individuelles. Les résultats d’un algorithme ont un impact sur la vie des individus, les algorithmes ne se limitant pas seulement au filtrage du contenu mais aussi aux résultats fournis. L’algorithme contrôle d’une façon le comportement des utilisateurs qui eux deviennent de plus en plus dépendants à ces algorithmes. La violation de l’autonomie individuelle rentre donc en lien directe avec la violation de la vie privé des individus (6).

(1) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données)
(2) Directive (UE) 2016/943 du Parlement européen et du Conseil du 8 juin 2016 sur la protection des savoir-faire et des informations commerciales non divulgués (secrets d’affaires) contre l’obtention, l’utilisation et la divulgation illicites
(3) Malgieri, G. and Comandé, G., « Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation » (November 13, 2017). International Data Privacy Law, vol. 7, Issue 3, p.31. (https://ssrn.com/abstract=3088976)
(4) Malgieri, G. and Comandé, G., « Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation » (November 13, 2017), in International Data Privacy Law, vol. 7, Issue 3, p.34. (https://ssrn.com/abstract=3088976)
(5) De Filippi, P., « Gouvernance algorithmique : Vie privée et autonomie individuelle à l’ère des Big Data », in De Filippi, P. et Bourcier, D., Open Data & Data Protection : Nouveaux défis pour la vie privée, Mare & Martin, 2016, p. 19
(6) Strowel, A., « Big Data and Data Appropriation in the EU », in Aplin, T., (ed.), « Research Handbook on Intellectual Property and Digital Technologies », Edward Elgar : Camberley, 2018

2. Quelle est la pertinence des arguments juridiques invoqués par des opérateurs privés pour limiter l’accès aux algorithmes et/ou aux données ?
Plusieurs stratégies sont mises en place afin d’assurer un avantage concurrentiel pour les entreprises qui créent des systèmes d’intelligence artificielle. Les deux stratégies les plus répandues sont le contrôle de l’accès aux données et aux algorithmes (1).
Afin de limiter l’accès, ces opérateurs privés invoquent principalement le secret d’affaire ainsi que la protection de leur propriété intellectuelle. Il s’agit d’un conflit entre la transparence du traitement des données et le droit à la protection du secret d’affaire. Comme déjà évoqué à la question précédente ce secret d’affaire résulte de la restriction au droit à l’explication, plus précisément ici au droit à l’accès aux algorithmes et données. Il a également déjà été vu que l’algorithme est protégé par une directive européenne de 2016 (2). Les opérateurs privés disposent donc d’une base légale pour soutenir cette restriction mais il est nécessaire de voir quelle est la portée de cette protection.
Il ressort du considérant 63 du RGPD (3) que le droit d’accès aux données personnelles « ne devrait pas porter atteinte aux droits ou libertés d’autrui, y compris au secret des affaires ou à la propriété intellectuelle, notamment au droit d’auteur protégeant le logiciel » mais précise que « ces considérations ne devraient pas aboutir à refuser toute communication d’informations à la personne concernée ». On en déduit donc que le droit d’accès peut être limité mais pas complétement refusé (4). Concernant la limitation de l’accès aux algorithmes par la propriété intellectuelle, celui-ci peut être protégé par le droit d’auteur s’il répond aux conditions nécessaires.
Un argument invoqué par les opérateurs privés afin de limiter l’accès des données qu’ils collectent est le droit de propriété qui résulte de l’appropriation des données. Très souvent cette appropriation peut être le résultat d’une relation contractuelle (5), par un contrat de vente par exemple entre entreprises. Il est également possible de protéger la propriété de ces données par le secret d’affaire si les conditions prévues à l’article 2 de la Directive de 2016 sont réunies, mais cela est contesté. L’idée de s’approprier des données fait débat et crée des avis opposés. Les grands opérateurs commerciaux privés exercent un contrôle important sur ces données et créent ce droit de propriété. On est loin d’un système d’open data dans le secteur privé. Enfin, il est intéressant de voir que le modèle du libre accès aux algorithmes et à l’accès refusé des données, « the proprietary data model », est le modèle le plus répandu dans le marché (6).
(1) The role of data in Artificial Intelligence, Jared Robert Keller, p.10 (https://theodi.org/article/the-role-of-data-in-ai-business-models/)
(2) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données)
(3) Directive (UE) 2016/943 du Parlement européen et du Conseil du 8 juin 2016 sur la protection des savoir-faire et des informations commerciales non divulgués (secrets d’affaires) contre l’obtention, l’utilisation et la divulgation illicites
(4) Malgieri, G., and Comandé, G., « Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation » (November 13, 2017), International Data Privacy Law, vol. 7, Issue 3, p.34.
(5) Strowel, A., « Big Data and Data Appropriation in the EU », in Aplin, T., (ed.), Research Handbook on Intellectual Property and Digital Technologies, Edward Elgar : Camberley, 2018 (http://hdl.handle.net/2078.3/141667)
(6) The role of data in Artificial Intelligence, Jared Robert Keller, p.13 et16 (https://theodi.org/article/the-role-of-data-in-ai-business-models/)

3. Faut-il revoir les exceptions aux secrets d’affaires et/ou à l’accès aux documents administratifs pour assurer la transparence des outils d’IA ?
Le secret d’affaire constitue un obstacle à la transparence des outils d’intelligence artificielle. Il est nécessaire afin d’assurer une transparence optimale d’avoir un droit à l’explication des systèmes de traitement. Toutefois, il a été vu plus haut que ce droit n’est finalement qu’un simple droit à être informé qui fournit un accès limité à ces systèmes. Cet accès est très limité par le secret d’affaire qui est protégé par une directive européenne de 2016 (1), utilisé par les opérateurs afin de protéger leur code est garantir un avantage concurrentiel étant donné qu’il constitue pour plusieurs la base de leur stratégie commerciale. Il s’agit en principe un problème qui se pose surtout concernant les opérateurs privés.
Afin de garantir une plus grande transparence, il faut que l’on procède à un véritable droit à l’explication permettant aux individus de comprendre en profondeur le fonctionnement d’un algorithme. Outre la simple accessibilité, il serait plus judicieux de recevoir une « motivation formelle » (2), qui permet aux individus de véritablement comprendre comment fonctionne chaque algorithme pour chaque décision concernée indépendamment. Cette motivation sera rédigée dans un langage clair et compréhensible par des individus non spécialisés dans le domaine. Ils auront alors une vision plus claire de la portée, des objectifs commerciaux et des implications socio-économiques des algorithmes entre autres (3). Plus précisément, le fait d’avoir la capacité de comprendre certaines informations, « readability » (4), ne signifie pas qu’un individu est en position de comprendre le raisonnement algorithmique en profondeur. Ceci signifie que même si l’accès à certaines informations donne le moyen aux individus de mieux comprendre, la transparence n’est pas atteinte, étant donné que la compréhension n’est pas totale mais très limitée (5).
Il y a un mouvement de plus en plus répandu concernant l’adoption d’un système de data et d’algorithmes librement accessible afin de mieux garantir la transparence surtout dans le secteur de l’administration publique. Ce mouvement conduit à l’adoption de plus en plus de lois qui portent sur la liberté d’information ou l’accès aux documents administratifs. C’est le résultat de cette évolution qu’on voit se dérouler en France portant sur l’algorithme utilisé afin de prendre la décision concernant le choix des universités.

(1) Directive (UE) 2016/943 du Parlement européen et du Conseil du 8 juin 2016 sur la protection des savoir-faire et des informations commerciales non divulgués (secrets d’affaires) contre l’obtention, l’utilisation et la divulgation illicites
(2) Gérard, L., « Titre 5 – Robotisation des services publics : l’intelligence artificielle peut-elle s’immiscer sans heurt dans nos administrations ? » in L’intelligence artificielle et le droit, Bruxelles, Éditions Larcier, 2017, p. 431
(3) Malgieri, G. and Comandé, G., « Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation, International Data Privacy Law », Volume 7, Issue 4, 1 November 2017, p. 245, (https://doi.org/10.1093/idpl/ipx019)
(4) idem
(5) idem

Show less
Reply
Delphine Louis, Aurore De Plaen, Audrey Goffinet, Anne-Sophie Marotta, Pauline De Giorgi
A. Deux points de mise à jour 1 Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur ? Le système antérieur d’admission à l’enseignement supérieur avait été critiqué pour son manque de transparence et pour les risques de manipulation par le fonctionnaire procédant à la répartition entre les filières et universités. L’algorithme d’APB a pour…
Read more

A. Deux points de mise à jour
1 Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur ?

Le système antérieur d’admission à l’enseignement supérieur avait été critiqué pour son manque de transparence et pour les risques de manipulation par le fonctionnaire procédant à la répartition entre les filières et universités.

L’algorithme d’APB a pour but d’appliquer de manière uniforme les règles de droit, peu importe qui est visé par la manœuvre. Le Code des relations entre le public et l’administration ouvre le droit aux futurs étudiants de connaître les règles définissant le traitement algorithmique et ses principales. Le code source de l’algorithme constitue un document administratif et doit être communiqué sur demande par la délivrance d’une copie sur support ou par courrier électronique. Le décret n° 2017-330 du 14 mars 2017 relatif aux droits des personnes faisant l’objet de décisions individuelles prises sur le fondement d’un traitement algorithmique consacre, par le nouvel article R. 311-3-1-2 du Code des relations entre le public et l’administration, un droit d’accès de la personne sujette à la décision algorithmiquement fondée à diverses informations : le degré et le mode de contribution du traitement algorithmique à la prise de décision, les données traitées et leurs sources, les paramètres de traitement des données et leur pondération, ainsi que l’ensemble des opérations effectuées au cours du traitement. Au fur et à mesure que le recours au algorithmes pour guider les décisions administratives augmente, de nouvelles modalités de l’obligation de transparence administrative sont donc introduites.

2 Est-ce que l’on a progressé en ce qui concerne la transparence des algorithmes de Facebook, Google et Twitter et de l’usage de l’IA comme remède à la propagation des propos haineux sur ces réseaux sociaux ?

Marck Zuckerberg estime que l’IA sera un jour, bien qu’il ne sache pas encore dire quand ni comment, assez intelligente et sophistiquée pour lutter contre une grande variété de plateforme gâtant les mauvais comportements incluant les fake news, les discours haineux, les annonces discriminatoires et les propagandes terroristes.

Pour vérifier si les technologies d’IA peuvent résoudre les multiples dérives de l’information et des opinions en ligne, il faut à tout le moins que les plateformes de l’Internet qui servent de chambres d’écho, de relai de fausses nouvelles et de discours de haine, acceptent de rendre plus transparente la manière dont les algorithmes de propagation des contenus fonctionnent. Or elles refusent souvent de donner accès à ces informations aux chercheurs, invoquant notamment la protection de leurs secrets d’affaires, voire d’autres dispositions en matière de propriété intellectuelle. C’est donc une boucle sans fin où le problème des fake news, des discours haineux, des annonces discriminatoires et des propagandes terroristes ne peut être résolu.

B. Questions ouvertes pour discussion

1 Y a-t-il un droit à l’explication des algorithmes dans les règles en matière de vie privée?

Il existe un droit à l’explication des algorithmes dans les règles entre le public et l’administration. Le secteur public a des exigences et contraintes supplémentaires vis-à-vis du public contrairement au secteur privé. Ce dernier doit toutefois se conformer au Règlement Général de Protection des Données (RGPD). qui est satisfaisant mais les moyens de notre nouvelle Autorité de Protection des Données devraient peut-être être renforcés.
2 Quelle est la pertinence des arguments juridiques invoqués par des opérateurs privés pour limiter l’accès aux algorithmes et/ou aux données?

Les opérateurs privés invoquent notamment la protection de leurs secrets d’affaires ce qui est très intelligent car le secret d’affaire est cadenassé, très protégé. Ils ne seront donc pas embêtés.

3 Faut-il revoir les exceptions aux secrets d’affaires et/ou à l’accès aux documents administratifs pour assurer la transparence des outils d’IA?
Une directive sur les secrets d’affaires a déjà été adoptée le 8 juin 2016. Cette directive marque une évolution utile du droit de l’Union européenne. La protection des secrets d’affaires constitue un domaine dans lequel le manque et le besoin d’harmonisation du droit des États membres sont flagrants. La directive a toutefois davantage ouvert que refermé le chantier de l’harmonisation. Plusieurs équilibres ne sont qu’esquissés dans la directive (employeurs/employés, intérêts privés des détenteurs/intérêt général, etc.) et certains domaines restent en dehors de la dynamique d’harmonisation tels que la concurrence déloyale et le droit pénal qui peuvent également être mobilisés pour la protection des secrets d’affaires et des informations qui ne répondraient pas à la notion de « secrets d’affaires » définie par la directive. Il appartiendra à la Cour de justice de l’Union européenne de poursuivre le travail d’harmonisation en « interprétant » la directive afin d’en définir le contenu de manière plus rigoureuse et d’assurer ce faisant une harmonisation plus poussée dans l’Union européenne. Il appartiendra aussi à la Commission de remettre son ouvrage sur le métier en proposant une harmonisation du droit de la concurrence déloyale dans l’Union européenne.
Les législateurs nationaux sont désormais appelés à jouer un rôle essentiel. La transposition de la directive en droit interne devrait permettre de remédier à certaines lacunes de ce texte. En autorisant les États membres à prévoir une protection des secrets d’affaires plus étendue que celle établie par la directive, l’article 1, §1er de la directive permet de combler celles-ci. Pour le surplus, la marge de manœuvre des États membres paraît limitée par l’exclusion de nombreuses dispositions visées à l’article 1er, § 1er, alinéa 2, de la directive. En particulier, deux composants de la directive appellent une intervention spécifique des États : les relations de travail et la protection des lanceurs d’alerte.
En ce qui concerne le Règlement Général de Protection des Données (RGPD), celui-ci est satisfaisant mais les moyens de notre nouvelle Autorité de Protection des Données devraient peut-être être renforcés.

Show less
Reply
de Munter Camille, Ejabati Far Sarah, Geurts Romane
A- Mise à jour 1. Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur? Le Code de l’éducation nationale français garantit à tout bachelier l’accès à l’enseignement supérieur. Sous le régime d’APB, les étudiants rendaient une liste hiérarchisée de voeux représentant les filières vers lesquelles ils souhaitaient s’orienter. L’algorithme octroyait à chacun son premier voeu…
Read more

A- Mise à jour

1. Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur?

Le Code de l’éducation nationale français garantit à tout bachelier l’accès à l’enseignement supérieur.

Sous le régime d’APB, les étudiants rendaient une liste hiérarchisée de voeux représentant les filières vers lesquelles ils souhaitaient s’orienter.

L’algorithme octroyait à chacun son premier voeu dans la mesure du possible mais pour les formations en tensions, c’est-à-dire celles pour lesquelles il y a trop de candidats, un tirage au sort était effectué (1). Ce système a été fortement critiqué pour deux raisons: les étudiants recevaient leur résultat de filière sans aucune explication quant à la procédure effectuée par l’algorithme, ce qui démontre un grand manque de transparence et le système de tirage au sort était considéré comme trop aléatoire pour une décision d’une telle importance et a d’ailleurs été jugé illégal depuis lors (2).

En juillet 2017, 87 000 étudiants n’avaient toujours pas eu leur choix d’études supérieures.

Le système APB a ainsi été fermé au cours de la même année et remplacé par une nouvelle plateforme, Parcoursup, sur une promesse de campagne d’Emmanuel Macron (3).

Parcoursup se veut novateur en ce sens qu’il n’y a plus de hiérarchisation des voeux et qu’il se veut plus en transparence.

Basé sur l’algorithme de Gale-Shapley, Parcoursup établi une interaction entre le programme et l’étudiant en contactant ce dernier lorsque l’algorithme a besoin d’informations pour avancer dans la procédure d’attribution des filières.
Pour assurer la transparence promise, l’algorithme en question a été publié dans un rapport et une équipe s’occupe de la certification du code (4).

Malgré ces progrès, un désaccord subsiste quant à l’efficacité de Parcoursup par rapport à son prédécesseur APB. En outre, il n’est désormais plus possible de connaître le pourcentage d’étudiants ayant obtenu leur premier choix étant donné que les voeux ne sont plus hiérarchisés (5).

La mathématicienne Claire Mathieu rappelle avec justesse que même avec le meilleur algorithme du monde, il ne serait pas possible d’attribuer à chacun son premier voeu à cause des formations en tension (6). C’est à ce niveau qu’intervient donc la procédure complémentaire qui organise une sorte de deuxième tour en ouvrant uniquement les filières encore capables d’accueillir des candidats (7).

2. Est-ce que l’on a progressé en ce qui concerne la transparence des algorithmes de Facebook, Google et Twitter et de l’usage de l’IA comme remède à la propagation des propos haineux sur ces réseaux sociaux?

Les chercheurs ont pour objectif que l’IA puisse combattre les fake news, la diffamation, les discours de haine et la discrimination sur internet. Mais ils se heurtent à un problème de taille : les algorithmes de diffusion de l’information ne sont pas toujours publics, les grands de l’internet invoquent le secret d’affaire pour protéger leur technologie. Google a même interdit aux chercheurs de créer des faux profils pour tenter d’analyser les codes de diffusion de l’information.

En France, la Loi numérique impose une certaine transparence des logiciels mais ce n’est pas toujours facile à mettre en oeuvre. Les codes sont seulement publiés partiellement, ce qui ne permet pas de pouvoir extraire toutes les informations souhaitées et de comprendre comment ils fonctionnent. Pourtant les ONG réclament toujours plus de transparence (8). L’intérêt des utilisateurs réside surtout dans le fait de démontrer la loyauté de ces algorithmes. Il faut dresser la liste des biais possibles de ces codes. Aux Etats-Unis, des études ont déjà été menées à ce sujet (9).

Le Règlement européen sur la protection des données amène plus de protection légale à l’échelle européenne. Il permet à chacun de refuser la décision qui aurait été prise par une machine et de demander une intervention humaine (10).

Récemment, Facebook s’est engagé à partager à partir du 1er janvier 2019 ses méthodes de lutte contre la discrimination sur internet avec une équipe de chercheurs issus de diverses autorités françaises. Le but est de travailler sur une régulation commune (11). Cependant la transparence est loin d’être acquise, et ce pour une raison simple : les géants de l’internet ne céderont pas de sitôt leur principal atout économique (12). La voie vers la transparence est ouverte mais est encore loin d’être garantie.

B- Questions ouvertes

1. Y a-t-il un droit à l’explication des algorithmes dans les règles en matière de vie privée?

En France la Loi numérique protège le droit à l’accès des algorithmes mais n’est pas facile à mettre en oeuvre. Dans le Code des relations entre le public et l’administration, le nouvel article R. 311-3-1-2 consacre un véritable droit d’accès à l’information prise par décision algorithmique pour la personne concernée (13).

Dans le Règlement européen pour la protection des données, tout intéressé a le droit d’avoir accès aux données collectées sur lui, d’en connaître la finalité. Il existe donc un “right to explanation”. Les articles 13, 15 et 22 traitent de ce droit, ainsi que le Considérant 63. Le Règlement impose également de réaliser une étude sur l’impact des données collectées par ces algorithmes (14).

Il existe donc bien un droit à l’explication des algorithmes à l’échelle européenne ou en France par exemple, mais celui-ci n’est pas toujours facile à implémenter.

2. Quelle est la pertinence des arguments juridiques invoqués par des opérateurs privés pour limiter l’accès aux algorithmes et/ou aux données?

Les opérateurs privés invoquent bien souvent le secret d’affaire pour limiter l’accès aux algorithmes et données.

Ils utilisent cet argument car les algorithmes ne peuvent concrètement être protégés par le droit d’auteur et le brevet (15). D’une part, le droit d’auteur ne peut bénéficier qu’au logiciel en tant que support de l’algorithme, et pas l’algorithme en tant que tel. Ainsi, un tiers serait libre d’utiliser l’algorithme contenu dans le logiciel s’il réussit à l’y extraire. D’autre part, si le concepteur d’algorithme décide de faire breveter celui-ci, il devra obligatoirement divulguer son algorithme qui sera « figé » par le brevet. Or, comme l’algorithme a vocation à évoluer, il faudrait alors déposer sans cesse des brevets de perfectionnement.

Reste alors le secret afin de protéger les entreprises. Le secret ne nécessite pas de formalités de procédures et offre une durée de protection illimitée. Une directive de l’UE de 2016/943 du 8 juin 2016 dite « secrets des affaires » peut s’appliquer aux algorithmes sous trois conditions.

Tout d’abord, les informations relatives aux algorithmes sont secrètes. Cela veut dire qu’elles ne sont pas connues de personnes qui sont en relation avec ce milieu précis. Ensuite, de par leur secret, elles ont une valeur commerciale. Finalement, les informations font l’objet de mesures prises afin de les gardées secrètes.

Avec ces trois conditions réunies, l’algorithme est effectivement protégé par le secret des affaires (16).

Toutefois, de nombreux auteurs essayent de démontrer l’absence de pertinence du secret des affaires lorsqu’il s’agit d’algorithmes régulant des sentences criminelles. Les concepteurs d’algorithmes refusent de divulguer des détails à propos de la façon dont leur algorithmes fonctionnent, même sous injonction, aux avocats de la défense. Pour l’instant, en 2015, une Cour d’Appel de Californie a donné raison à l’entreprise qui prônait le secret d’affaires pour ne pas divulguer le fonctionnement de son algorithme (17).

3. Faut-il revoir les exceptions aux secrets d’affaires et/ou à l’accès aux documents administratifs pour assurer la transparence des outils d’IA?

Plusieurs auteurs s’accordent pour dire qu’il faut assurer une plus grande transparence des outils d’IA.

Selon un rapport du député-mathématicien français Cédric Villani, il faudrait créer des droits collectifs sur les données. Il faudrait de plus accroître la transparence des systèmes autonomes et assurer que les organisations utilisant ces systèmes soient considérés comme responsables des éventuels dommages subis par des tiers à cause de ces systèmes. (A moins que l’on crée un régime de responsabilité personnel de l’IA) (18).

Ce même rapport démontre que les IA reproduisent des biais (notamment racistes et sexistes), car les IA de Deeplearning se basent sur des données avec une approche purement statistique et, dès lors, reproduisent ces statistiques. Les IA donnent des réponses, sans fournir d’explication de ces réponses (19).

Les entreprises elles-mêmes admettent leur incapacité à fournir une explication quant aux résultats donnés par les IA (20).

Avoir plus d’accès, d’explications et de transparence sur le fonctionnement des IA peut dès lors être considéré comme un enjeu démocratique (21). D’autant plus que la capacité des IA de nous analyser et de pénétrer dans notre vie privée peut être immense (22).

Il faut aussi revoir les exceptions des secrets d’affaires et/ou d’accès aux documents administratifs simplement afin que les entreprises soient conformes aux GDPR. Elles admettent aisément ne pas savoir comment y arriver (23).

En effet, pour l’instant, le RGPD indique dans son considérant 63 et ses articles 13 et 22 que le responsable du traitement, lors d’une procédure de décision automatisée, doivent être capables de fournir les « informations utiles concernant la logique sous-jacente » de cette décision automatisée, « ainsi que l’importance et les conséquences prévues de ce traitement pour la personne concernée. Il a été considéré qu’il s’agirait d’une obligation de révéler une partie de leur algorithme (24).

Dans cette même vague, des auteurs poussent à une utilisation plus grandes d’IA transparente (avec cependant le risque de reverse engineering) que d’IA opaque (par exemple, lorsqu’il y a du machine learning) afin que les personnes lambda puissent mieux comprendre les décisions qui sont prises à leur propos (25).
C’est dans cette optique de transparence que Google a récemment, en juin 2018, lancé une Charte sur l’IA, disant notamment que « L’opacité des programmes d’intelligence artificielle rend leurs décisions parfois impossibles à expliquer par leurs propres concepteurs. Google travaille donc à la transparence de ses algorithmes, «nos technologies d’IA feront l’objet d’une direction et d’un contrôle humains appropriés» (26) (27).

Sources:

1. France Info, “L’article à lire pour comprendre ce qui ne marche pas avec le logiciel APB”, 20 juillet 2017.
2. Le Monde, “La transparence des algorithmes en question, 9 avril 2018.
3. Wikipédia, Admission Post Bac.
4. Le Monde, “Parcoursup, les dessous de l’algorithme”, 28 janvier 2019.
5. 20 Minutes, “Alors au final, Parcousup fait-il mieux qu’APB ?”, 20 septembre 2018.
6. Le Monde, “Parcoursup, les dessous de l’algorithme”, 28 janvier 2019.
7. Studyrama, “Parcoursup, la phase complémentaire, mode d’emploi”, 28 juin 2018.
8. Le Monde, “La transparence des algorithmes en question, 9 avril 2018.
9. Sciences et Avenir, “TransAlgo, une plate-forme scientifique pour juger de la transparence des algorithmes”, 22 décembre 2016.
10. Le Vif, “Fake news : les algorithmes des réseaux sociaux et des sites web incriminés”, 15 juillet 2018.
11. La Tribune, “Facebook ouvre pour la première fois ses algorithmes à l’état pour lutter contre les contenus haineux”, 12 novembre 2018.
12. Le Vif, “Fake news : les algorithmes des réseaux sociaux et des sites web incriminés”, 15 juillet 2018.
13. IP Digit, “Quel menu pour nourrir l’intelligence artificielle ? Pouvez-vous passer la carte ?”, 8 mai 2018.
14. ZD Net, “Machine learning : le droit à l’explication de l’utilisateur à l’épreuve du RGPD”, 19 septembre 2018.
15. Eurojuris, “Les secrets de la protection d’un algorithme, 12 octobre 2017.
16. Linkedin, “La protection juridique des algorithmes est-elle possible ?”, 15 septembre 2018.
17. NY Times, “When a Computer keeps you in jail”, 13 juin 2017.
18. L’écho, “Faut-il réglementer l’intelligence artificielle ?”, 19 avril 2018 .
19. Le Figaro, “Pour éviter le danger des boites noires, l’intelligence artificielle doit devenir explicable”, 29 mars 2018.
20. We Live Security, “Transparency of machine-learning algorithms is a double-edged sword”, 13 novembre 2017.
21. Le Figaro, “Pour éviter le danger des boites noires, l’intelligence artificielle doit devenir explicable”, 28 mars 2018.
22. Le Big Data, “ITW Pegasystems : pourquoi l’intelligence artificielle doit être transparente”, 21 février 2019.
23. We Live Security, “Transparency of machine-learning algorithms is a double-edged sword”, 13 novembre 2017.
24. Eurojuris, “Les secrets de la protection d’un algorithme, 12 octobre 2017.
25. Relation client Mag, “Intelligence artificielle : opacité ou transparence ?”, 16 avril 2018.
26. Le Figaro, “Google se dote de 7 grands principes pour faire bon usage de l’intelligence artificielle”, 22 juin 2018.
27. Pichai S., AI at Google: our principles, 7 juin 2018.

Show less
Reply
Anne-Sophie Sibille, Camille Rubay, Laure Blondiau et Alicia de Mulder
A. 1) Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur? La France a tout d’abord débuté avec un système d’admission ABP qui consiste en un système automatisé d’admission dans les cycles supérieurs et de sélection en cas de surnombre d’élèves candidats. ABP facilite l’application uniforme et indépendante des règles d’admissions aux universités françaises. D’une part,…
Read more

A.
1) Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur?

La France a tout d’abord débuté avec un système d’admission ABP qui consiste en un système automatisé d’admission dans les cycles supérieurs et de sélection en cas de surnombre d’élèves candidats. ABP facilite l’application uniforme et indépendante des règles d’admissions aux universités françaises.

D’une part, il propose comme avantages d’augmenter la transparence dans la répartition des élèves entre filières universitaires et de diminuer les risques de manipulation des candidatures par les fonctionnaires de l’enseignement.

D’autre part, des nouveautés législatives ont été consacrées : avis du CADA de juin 2016 (additionné à l’article 4 de la loi n° 2016-1321 du 7 octobre 2016) autorise les étudiants concernés à avoir accès au code de l’algorithme à la base de l’ABP dans le but de maintenir une forme d’autonomie des individus.

Ensuite, Parcoursup a été créé. Celui-ci est un nouveau programme mis en place pour succéder au système APB, afin d’assurer plus de transparence par une automatisation d’admission et de sélection universitaire. Il fonctionne avec un code général qui a été rendu public en date du 21 mai 2018, et des outils qui varient pour chaque université afin d’affinés la décision d’admission.
Les nouveautés de l’algorithme sont, d’une part, l’intégration de critères relatifs au taux de boursiers et d’étudiants résidents, et d’autre part, un nouvel algorithme pour l’affectation des places d’internat en classe préparatoires.
Néanmoins malgré les progrès qu’il présente par rapport à l’ancien système on critique encore le manque de transparence total et un manque de mixité dans la répartition des jeunes en fonction de leur lycée d’origine.
Une demande pour remédier à ce problème a été introduit auprès du Défenseur des droits français qui a donné en janvier 2019, deux mois à la ministre de l’éducation pour éclaircir la situation. Le système assez jeune devrait donc en principe subir des améliorations très prochainement.

Au niveau jurisprudentiel, une première victoire pour les avocats de la transparence de Parcoursup a eu lieu devant le tribunal administratif de Guadeloupe le lundi 4 février. La Cour dans sa décision demande à l’université des Antilles de rendre publics les algorithmes locaux utilisés pour classer les candidats via la plateforme. L’établissement doit obtempérer dans un délai d’un mois, sous peine d’une astreinte de 100 euros par jour de retard.

2) Est-ce que l’on a progressé en ce qui concerne la transparence des algorithmes de Facebook, Google et Twitter et de l’usage de l’IA comme remède à la propagation des propos haineux sur ces réseaux sociaux ?

Faut-il oui ou non légiférer contre les fake news? La Commission tranche la question d’une potentielle légifération contre les fake news dans son rapport du 12 mars dernier.
Le groupe d’experts à la base des travaux balayait l’idée d’une « loi », il prônait à la place l’auto-régulation. Et dans la foulée, épargnait le rôle des plates-formes comme Facebook ou YouTube dans la prolifération des fake news tout en les invitant à « garantir la transparence » sur la façon dont leurs algorithmes sélectionnent les informations présentées aux internautes.

Un compromis qui s’apparentait au plus petit dénominateur commun tant les sensibilités et les avis sur le sujet varient. « Il n’y a pas de place pour une instance qui s’érigerait en détenteur de la vérité » avait plaidé Mariya Gabriel, Commissaire européenne à l’Économie numérique.

Entre- temps, l’Allemagne a pris le pli d’adopter une loi (avec amendes à la clé pour les Gafa) ; tandis qu’en France, deux projets de lois controversés contre « la manipulation de l’information » en période électorale sont actuellement en discussion au Parlement.

Quid de la Belgique ? Début de réponse dans un rapport final publié ce mercredi par le « Groupe d’experts belge sur les fausses informations et la désinformation ». Mis en place le 2 mai dernier par Alexander De Croo, ce comité réunit 7 spécialistes d’horizons divers (francophones, flamands, académiques, journalistes…). Leur verdict est clair, et en droite ligne des recommandations européennes : non.

Au vu de la rapidité d’internet aujourd’hui, les algorithmes en sont devenus une partie indispensable. Les réseaux sociaux se basent sur une multitude de calculs ; pertinence, classifications des recherches, visionnages…. Un vrai problème néanmoins est cette mise en avant de fausses nouvelles, fausses informations.

Les programmes informatiques sont chargés de prendre des décisions, seul et dans l’ombre afin de répondre au mieux à nos demandes. Cette réorganisation calquée sur les différents profils, créent des « bulles de filtres » où toute opinion divergente disparaît. Le but est de faire circuler les actualités demandées par la personne sans vérifié leur véracité.

Aujourd’hui les ONG réclament une plus grande transparence. Le nouveau règlement européen sur la protection des données aborde également la question des algorithmes en général : on peut désormais contester la décision d’un algorithme et “obtenir une intervention humaine” en cas de conflit.

Les grandes plateformes du web ont commencé à prendre des mesures en labellisant automatiquement les nouvelles douteuses ou encore en renforçant le contrôle humain des vidéos qu’il diffuse pour les enfants.

En plus des fake news, se pose la question du rôle des algorithmes dans la prolifération des propos haineux retrouvés sur le net. Plusieurs exemples, ces dernières années ont montrés une volonté de lutter contre cette invasion de violence sur la toile.

En 2017, Kevin Systrom, PDG et co-fondateur d’Instagram s’exprimait et disait qu’un filtre d’abord en anglais et ensuite dans d’autres langues, s’appliquerai de façon automatique au commentaires haineux et vidéos déplacées (choix de l’utilisateur d’activer ou non ce système).

Le problème reste que le nombres de ces messages ne fait que croitre tous les jours, au point qu’il devient presque impossible pour une IA seule de gérer un tel flux d’informations. Une possibilité serait de faire intervenir certaines entreprises privées qui aideraient à nettoyer les plateformes à l’aide de robots intelligents externes.

(ex : entreprise « Possible » / sur Twitter en transformant tout propos haineux en don pour une organisation sans but lucratif). « We counter hate ».

B.
1) Y a-t-il un droit à l’explication des algorithmes dans les règles en matière de vie privée?

Le cadre réglementaire de la protection des données à l’échelle de l’Union européenne tel que le Règlement général sur la protection des données d’avril 2016 (Règlement (UE) 2016/679 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données), qui s’applique à compter de mai 2018, fixe des normes pour l’utilisation des algorithmes dans la collecte de données dont, éventuellement un droit limité à l’information, voire un « droit à l’explication » (GOODMAN et FLAXMAN, 2016) au regard des processus de prise de décision – même si la portée exacte de ce droit à l’explication est vivement contestée (WACHTER, MITTELSTADT ET FLORIDI, 2016) – et le droit pour la personne de « connaître la logique qui sous-tend le traitement automatisé des données la concernant ».

Comme GOODMAN et FLAXMAN l’argumentent en 2016: « Slated to take effect as law across the EU in 2018, it will restrict automated individual decision-making (that is, algorithms that make decisions based on user-level predictors) which “significantly affect” users. The law will also effectively create a “right to explanation,” whereby a user can ask for an explanation of an algorithmic decision that was made about them. We argue that while this law will pose large challenges for industry, it highlights opportunities for computer scientists to take the lead in designing algorithms and evaluation frameworks which avoid discrimination and enable explanation ».

L’article 22 du RGPD porte sur « la décision individuelle automatisée, y compris le profilage ». Ledit règlement a un impact important concernant l’utilisation de l’apprentissage machine, le Machine Learning. Cet article précise en son premier paragraphe « La personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire ». Cela signifie que la prise de décision et le profilage automatisé utilisé par de nombreux algorithmes d’apprentissage automatique sont autorisé via le consentement explicite de la personne concernée.

Jusqu’à présent, les problèmes soulevés par le traitement automatisé des données étaient réglés par la législation relative à la protection des données. Cette même législation donne aujourd’hui lieu à des approches adaptées et novatrices telles que la création d’un « droit à l’explication » (Goodman et Flaxman 2016 ; Wachter et al. 2016) et d’autres droits pour les internautes. Cependant, il existe une différence importante entre le droit au respect de la vie privée et la réglementation relative à la protection des données qui, au final, reste un mécanisme de gouvernance conçu pour protéger la vie privée et les droits relatifs à la protection des données à caractère personnel. Ce qui importe est que la vie privée, comme l’exercice d’autres droits de l’homme, nécessite une application effective.

Certains des défis les plus importants dans le domaine de la protection des données proviennent du manque de volonté d’octroyer des ressources suffisantes aux autorités de protection des données. S’il est clair que les problèmes concernant la discrimination des contenus ou la manipulation des élections dépassent les questions du respect de la vie privée et de la protection des données et soulèvent des questions fondamentales relatives à un large éventail de domaines, il est néanmoins possible de s’inspirer de l’expertise du secteur de la protection des données pour essayer d’identifier des réponses réglementaires adaptées à la gouvernance des algorithmes.

2) Quelle est la pertinence des arguments juridiques invoqués par des opérateurs privés pour limiter l’accès aux algorithmes et/ou aux données?

Les opérateurs de plateformes en ligne utilisateurs d’algorithmes ont certaines obligations envers leurs clients. Le concept d’intelligibilité impose que les informations concernant le fonctionnement de l’algorithme soient communiquées de manière lisible et intelligible, étant donnée qu’ils sont utilisés par des profanes. Néanmoins certains arguments ont été avancé pour tempérer cette obligation juridique qui s’impose à eux.

• Aspect concurrentiel
Dans une certaine mesure, le secret des algorithmes permet aussi d’assurer la valeur concurrentielle de certains services sur le marché.

• Aspect contre-productif
Il est important de ne pas confondre transparence et publicité. Cela risquerait d’arriver un résultat différent du but recherché.
Pour exemple, le code du moteur de recherche de Qwant, moteur de recherche pour enfants n’est pas « open source » dans un but de précaution. De cette manière personne de peut contourner les règles. Rendre public le code source amoindrirait la qualité du service.

• Aspect technique
La transparence des algorithmes peut dans certains cas aller à l’encontre de leur nature technique. En effet, parfois les algorithmes peuvent produire des résultats (par exemple des prédictions) sans qu’ils ne soient « explicables ».

• Dans le cadre de Parcousup
Dans le cadre de la question de l’utilisation des algorithmes par Parcoursup, l’argument avancé par les universités est « le secret des délibérations ». Ils avancent en effet, que le code général déjà publié est une information suffisante pour les utilisateurs et qu’il est normal pour l’université de se réserver le droit d’user de certains critères sélectifs propres.

3) Faut-il revoir les exceptions aux secrets d’affaires et/ou à l’accès aux documents administratifs pour assurer la transparence des outils d’IA?

En novembre 2013, la Commission a adopté une proposition de directive qui introduit une définition commune des secrets d’affaires et qui permet aux victimes de l’appropriation illicite des secrets d’affaires d’obtenir réparation.

La protection des secrets d’affaires varie davantage selon le pays que pour d’autres volets de la législation relative aux DPI. Si le cadre législatif reste morcelé, l’Union européenne dispose d’un cadre juridique depuis 2016, à savoir la directive (UE) 2016/943 du Parlement européen et du Conseil sur la protection des savoir-faire et des informations commerciales non divulgués (secrets d’affaires) contre l’obtention, l’utilisation et la divulgation illicites.

En ce qui concerne l’obtention, l’utilisation et la divulgation des secrets d’affaires, cela peut être considéré comme légitime lorsque le droit national et celui de l’Union l’exigent et que la législation protégeant les droits des détenteurs l’autorise.

Il a été jugé opportun d’autoriser les pouvoirs publics à utiliser des informations et des secrets d’affaires dans l’exercice des fonctions que leur confère le droit national ou européen.

Il a été décidé de renforcer la confidentialité des secrets d’affaires au cours d’actions en justice, en limitant le nombre de personnes autorisées à y accéder.

Le RGPD exige un devoir de transparence. Il impose de fournir toutes les informations pertinentes à la personne concernée relativement à la nature du traitement de ses données, quand bien même le texte ne préciserait pas exactement la teneur de ses informations. Afin de rendre cet objectif concret, il faut renvoyer à l’adoption prochaine de nouvelles lignes directrices, dédiées précisément à la mise en œuvre de ces obligations générales de transparence. La mise en œuvre concrète de ces nouvelles règles pourrait alors revoir les exceptions aux secrets d’affaires.

En effet, On constate souvent que des plateformes d’Internet refusent de donner accès à des informations pouvant aider les chercheurs à résoudre les multiples dérives de l’information et des opinions en ligne. Ces plateformes invoquent la protection de leurs secrets d’affaires. Ceci n’est pas acceptable et leur refus provoquera certainement une atteinte à leurs secrets professionnels afin de faire respecter l’obligation de transparence.

Show less
Reply
Céline Brauns, Marine Carbon, Julie Michels
Réponses aux questions réalisées par Céline Brauns, Marine Carbon et Julie Michels : A. Deux points de mise à jour 1). Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur ? L’ancien système utilisé en France pour répartir les étudiants français entre les différents établissements d’études supérieures était géré par la plateforme Admission Post-Bac…
Read more

Réponses aux questions réalisées par Céline Brauns, Marine Carbon et Julie Michels :

A. Deux points de mise à jour
1). Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur ?

L’ancien système utilisé en France pour répartir les étudiants français entre les différents établissements d’études supérieures était géré par la plateforme Admission Post-Bac (APB). Il a été conçu de manière à réunir en un site toutes les formations supérieures offertes et permettre ainsi aux étudiants d’en prendre connaissance. Ce système manquait de transparence, a été fortement critiqué et finalement, remplacé par la plateforme ParcourSup.

Le système APB utilisait un algorithme de sélection impliquant qu’un tirage au sort départageait les étudiants entre les différents établissements. D’une part, les candidats étaient classés selon leur domicile. Si quelqu’un résidant à Paris souhaitait étudier à Paris, il était prioritaire par rapport à un étudiant habitant Lyon et qui souhaitait aussi étudier à Paris. D’autre part, les candidats émettaient 24 voeux de formation qu’ils hiérarchisaient. Cet ordre de priorité était pris en compte par l’algorithme. Si le premier choix d’un candidat (A) correspondait au deuxième choix d’un autre candidat (B), le candidat (A) était considéré comme prioritaire sur l’autre candidat dans l’attribution de cette formation. Le système APB ainsi conçu mettait en place un système de tours qui a été critiqué.

Ce système a également été critiqué car l’attribution des formations aux candidats sur base d’une décision algorithmique ne faisait l’objet d’aucun contrôle humain et était, ainsi, contraire à l’article 10 alinéa 1er de la loi du 6 janvier 1978 Informatique et Libertés. Ce dernier dispose qu’« aucune autre décision produisant des effets juridiques à l’égard d’une personne ne peut être prise sur le seul fondement d’un traitement automatisé de données destiné à définir le profil de l’intéressé ou à évaluer certains aspects de sa personnalité ». De plus, en 2017, après sa mise en oeuvre, un nombre élevé d’étudiants ne s’était vu attribuer aucun établissement.

Pour ces différentes raisons, le gouvernement français a décidé de procéder à une modification du système APB qui manquait de transparence. Cet ancien système est devenu la plateforme Parcoursup, un système qui se veut plus transparent et plus juste.

Les futurs étudiants français du supérieur sont invités à formuler différents choix de formations proposées par les établissements scolaires supérieurs jusqu’au 14 mars 2019. Pour chaque formation proposée, différentes informations sont indiquées telles que le contenu de l’enseignement, les connaissances et compétences attendues, les critères généraux d’examen des voeux, le nombre de places proposées en 2019 ou encore le nombre de candidats en 2018 et le nombre d’entre eux qui ont été admis.

Le candidat est invité à formuler jusqu’à 10 voeux de formation et à motiver ses choix. Il ne doit procéder à aucun classement hiérarchique parmi ses différents choix. Ainsi, il n’est pas poussé à choisir des formations par défaut. Chaque voeu est examiné par les universités et non plus par un algorithme. De plus, l’examen est opéré “ au regard de la cohérence entre, d’une part, le projet de formation du lycéen, apprenti ou étudiant en réorientation, ses acquis et ses compétences et, d’autre part, les attendus de la formation et critères généraux d’examen définis par la formation”. Ensuite, dans un souci et objectif de transparence, le site Parcoursup indique pour chaque formation spécifique, les différents critères pris en compte pour l’examen d’une candidature. Enfin, lors de l’examen de la candidature, dans un souci d’égalité entre les candidats, différentes données seront anonymisées telles que le nom, le prénom, l’âge et le domicile du candidat.

Entre le 15 mai et le 19 juillet 2019, les candidats recevront des réponses à leurs différents voeux soit positives, soit négatives ou alors elles indiqueront le fait que le candidat est sur liste d’attente et sa place dans celle-ci. En cas de réponse positive, un certain délai sera indiqué pour que le candidat puisse répondre à la proposition d’admission.

Le caractère détaillé de chaque étape de la procédure sur le site de Parcoursup démontre un souci de transparence et une volonté que les étudiants aient accès à toutes les informations pertinentes pour procéder à leur choix d’études. Ce système est donc beaucoup plus transparent que l’ancien système qui reposait uniquement sur la seule volonté algorithmique puisqu’il permet aussi une intervention humaine en laissant les établissements d’Enseignement supérieur, les lycées et les rectorats procéder à l’examen des voeux.

Sources :
https://www.neoresid.com/parcoursup/
https://www.rtl.fr/actu/debats-societe/admission-post-bac-2017-comment-ca-marche-7787739322
https://interstices.info/dapb-a-parcoursup-quelles-methodes-daffectation-post-bac/
https://www.ladepeche.fr/article/2017/11/17/2686564-nouvelle-plateforme-apb-tout-va-changer-bacheliers.html
https://www.parcoursup.fr/

2). Est-ce que l’on a progressé en ce qui concerne la transparence des algorithmes de Facebook, Google et Twitter et de l’usage de l’IA comme remède à la propagation des propos haineux sur ces réseaux sociaux?

Au fil du temps, les réseaux sociaux sont devenus un lieu de diffusion de messages haineux qui peuvent prendre différentes formes telles que le racisme, la xénophobie, l’homophobie, le cyberharcèlement, le sexisme, la diffamation ou encore l’antisémitisme. Dès lors, en 2016, les quatre grands acteurs du Web: Facebook, Microsoft, YouTube et Twitter et la Commission européenne ont adopté un Code de conduite pour lutter contre les discours haineux illégaux. En 2018, ils ont été rejoints par Google+, Instagram, Snapchat et Dailymotion.

L’objectif du code est d’éviter qu’Internet ne devienne un lieu de “propagation virale des discours haineux illégaux diffusés en ligne”. Par ce code de conduite, ces grandes entreprises des technologies de l’information se sont engagées à “mettre en place des procédures claires et efficaces d’examen des signalements de discours haineux illégaux diffusés via leurs services de manière à pouvoir retirer les contenus concernés ou à en bloquer l’accès”. Ils se sont engagés à agir de la sorte dans les 24 heures du signalement d’un contenu haineux par un utilisateur Internet.
Depuis son adoption, le respect des engagements contenus dans le Code est régulièrement évalué par des ONG et des instances publiques. Une quatrième évaluation effectuée en février 2019 a montré que 89% des contenus considérés comme des discours haineux illégaux signalés sont évalués par les entreprises des technologies de l’information dans les 24 heures et que 72% de ces contenus sont supprimés. Cela témoigne d’une progression de respectivement 40% dans l’évaluation des contenus et de 44% dans la suppression des contenus depuis le lancement du Code. On peut constater par là que les réseaux sociaux et différentes plateformes internet sont très actifs dans la lutte contre les contenus haineux.

Un autre élément qui témoigne de cela est le développement notamment par Facebook, Google et Twitter d’outils basés sur l’intelligence artificielle dont le but est de détecter et supprimer les contenus à caractère haineux présents sur Internet. Cependant, ces outils sont encore à un stade peu avancé de développement car les algorithmes ne sont pas encore assez entraînés pour détecter de manière certaine un contenu haineux.

En ce qui concerne la transparence des algorithmes de Facebook, il semble il y a avoir eu une certaine avancée. Depuis le 1er janvier 2019 et pour une durée de 6 mois, Facebook a accepté de partager avec différents représentants des régulateurs français, à savoir la “CNIL”, l’“ARCEP” et l’Autorité de la Concurrence, la manière dont ses algorithmes travaillent pour “ identifier, catégoriser et éventuellement supprimer les contenus haineux”. Ces experts français seront néanmoins soumis au secret d’affaires.

À l’inverse d’un contenu présentant un caractère terroriste ou pédopornographique qui est aisément détectable par les outils d’intelligence artificielle, il est beaucoup plus difficile pour un algorithme de détecter et d’identifier un contenu à caractère haineux. Avec les messages haineux, l’on se trouve à la frontière avec la liberté d’expression et il n’est pas aisé pour un outil d’intelligence artificielle de détecter s’il s’agit d’humour, second degré, ironie rentrant dans cette forme de liberté ou bien si le message est à caractère haineux et doit alors être supprimé. Cela constitue une difficulté évidente dans l’usage de l’intelligence artificielle comme moyen de lutter contre la propagation de la haine sur le Web.

Un entraînement conséquent des algorithmes pour que l’intelligence artificielle devienne un outil efficace dans cette lutte est nécessaire. À l’heure actuelle, une intervention humaine pour réguler les propos haineux et les supprimer est toujours indispensable. C’est ce que font les grands réseaux sociaux qui engagent ce que l’on appelle des modérateurs de contenu.

En ce qui concerne la transparence des algorithmes de Google concernant les messages haineux, il ne semble pas il y avoir de l’avancée en la matière. Cela s’explique sans doute par le secret industriel entourant le fonctionnement de ses algorithmes.

Toutefois, Jigsaw, la branche spécialisée en innovation technologique de Google, a mis au point, “une nouvelle solution de modération des commentaires en ligne mettant l’intelligence artificielle au service de la chasse aux propos haineux”, par le biais d’un outil nommé Perspective. Celui-ci est utilisé pour lutter contre “les commentaires discriminatoires ou incitant à la haine postés sur internet”.
Plus spécifiquement, Perspective est une “API” c’est-à-dire une interface de programmation qui utilise le modèle du “machine learning” ou en français, apprentissage automatique afin de percevoir l’impact que pourrait avoir un commentaire dans une conversation. Ce premier modèle a pour effet de mesurer à quel point un commentaire pourrait être considéré comme “haineux”. Néanmoins, cet outil doit encore être amélioré puisqu’il confond des messages haineux avec des messages positifs. De plus, cet outil pourra constituer une aide importante pour les modérateurs, car il pourra les aider à détecter plus rapidement les commentaires haineux. Enfin, Perspective permettra aux utilisateurs d’être alertés quant à un potentiel risque de suppression de leur message avant même que celui-ci n’ait été publié si celui-ci devait présenter un caractère haineux.

En ce qui concerne la diffusion de messages haineux sur Twitter, l’on peut souligner l’initiative de la société Possible qui a décidé de lutter contre ceux-ci dans le cadre d’une campagne baptisée “We Counter Hate”. Celle-ci agit par le biais d’un outil d’intelligence artificielle qui détecte les retweets contenant un message haineux et les transforme en dons pour une organisation à but non lucratif appelée Life After Hate. Concernant le fonctionnement de ses algorithmes, Twitter n’en a rien dévoilé à l’heure actuelle.

De manière générale, l’on se rend compte que les géants du Web ne sont pas près de rendre publics leurs algorithmes utilisés dans leurs outils d’intelligence artificielle pour détecter et supprimer les contenus haineux diffusés sur le Net. Ceux-ci se cachent derrière le secret industriel pour justifier ce manque de transparence. On constate différentes initiatives mises en place par ces derniers pour traquer les messages haineux sans toutefois connaître véritablement la manière dont les outils algorithmiques fonctionnent intrinsèquement.

Sources :
https://www.latribune.fr/technos-medias/internet/facebook-ouvre-pour-la-premiere-fois-ses-algorithmes-a-l-etat-pour-lutter-contre-les-contenus-haineux-797199.html
https://ec.europa.eu/commission/news/countering-illegal-hate-speech-online-2019-feb-04_fr
Code de conduite pour la lutte contre les discours haineux illégaux en ligne
https://www.lemonde.fr/pixels/article/2016/05/31/moderation-facebook-twitter-youtube-et-microsoft-s-engagent-devant-la-commission-europeenne_4929739_4408996.html
https://www.futura-sciences.com/tech/actualites/intelligence-artificielle-contenus-haineux-internet-ia-traquent-sont-faciles-tromper-72860/
http://plus.lapresse.ca/screens/28a6a682-81a9-4349-ab76-545ad515d5cc__7C___0.html
https://www.lemonde.fr/entreprises/article/2018/04/09/la-transparence-des-algorithmes-en-question_5282750_1656994.html
https://www.ouest-france.fr/high-tech/google/google-perspective-nouvelle-arme-contre-les-propos-haineux-en-ligne-4819693
http://www.perspectiveapi.com/#/
https://siecledigital.fr/2018/09/12/ia-google-confond-messages-haine-avec-messages-amour/
https://www.cnetfrance.fr/news/google-perspective-un-outil-contre-les-commentaires-toxiques-dope-a-l-ia-39848970.htm
https://www.lecho.be/economie-politique/europe/general/facebook-google-et-twitter-ne-respectent-pas-leur-promesse-en-matiere-de-desinformation/10102936.html
https://www.usinenouvelle.com/article/google-prevoit-plus-de-transparence-pour-les-europeennes-de-2019.N772814
http://www.lefigaro.fr/secteur/high-tech/2016/05/13/32001-20160513ARTFIG00016-des-associations-critiquent-la-mauvaise-moderation-de-facebook-twitter-et-youtube.php

B. Questions ouvertes pour discussion
Voici trois questions à se poser :
1). Y a-t-il un droit à l’explication des algorithmes dans les règles en matière de vie privée?

Dans notre société actuelle où nous partageons beaucoup sur les réseaux sociaux et que ces derniers nous “épient” en permanence, le respect de la vie privée devient vraiment une question d’importance. Le droit à l’information est vraiment devenu un impératif de taille. De plus en plus d’aspects de notre vie privée sont pris en charge par des algorithmes de plus en plus complexes. Dès lors face à ces avancées, l’adoption de mesures est nécessaire. L’une d’entre elle est l’adoption du règlement sur la protection des données personnelles entré en vigueur le 25 mai 2018.

Nous faisons face à une grande asymétrie. En effet, le consommateur moyen voit sa vie analysée par des algorithmes complexes dont il ne comprend pas les tenants et aboutissants. Le consommateur est dans la plupart du temps incapable de comprendre comment ses données sont traitées, analysées et ensuite, utilisées. Le nouveau règlement insiste sur le contrôle par les utilisateurs de leurs données. Ainsi, “tout traitement de données à caractère personnel doit être conçu et entrepris dans des conditions permettant aux personnes concernées d’en comprendre les tenants et les aboutissants, afin précisément de pouvoir exercer utilement le contrôle de leurs données, dans les conditions prévues par le texte lui-même”. On parle ainsi d’un droit à l’information renforcée. Ce droit à l’information implique que le consommateur puisse obtenir “des informations utiles concernant la logique sous-jacente, ainsi que l’importance et les conséquences prévues [du] traitement“.

Simplement transmettre l’algorithme aux consommateurs ne serait pas utile à cet égard. Premièrement, le secret d’affaires se heurte à cette possibilité. Ensuite, comme nous l’avons déjà souligné, les consommateurs ne sont pas en mesure de comprendre un algorithme. Aussi, surtout, une retranscription intégrale de l’algorithme, voire son explication mathématique, est à l’évidence insusceptible de satisfaire aux conditions de clarté et d’accessibilité posées par le texte, dont l’article 12.1 dispose que l’information doit être donnée aux personnes concernées “d’une façon concise, transparente, compréhensible et aisément accessible, en des termes clairs et simples, en particulier pour toute information destinée spécifiquement à un enfant“.

La seule solution est d’expliquer au consommateur dans des termes simples comment ses données seront utilisées. En ce sens, nous pensons, qu’en effet, le consommateur dispose, en vertu du règlement européen, d’un droit à l’explication.

Sources :
https://www.franceculture.fr/conferences/college-des-bernardins/transparence-et-vie-privee
https://aeonlaw.eu/expliquer-lalgorithme-droit-a-linformation-profilage-gdpr/

2). Quelle est la pertinence des arguments juridiques invoqués par des opérateurs privés pour limiter l’accès aux algorithmes et/ou aux données?

Il existe quelques arguments juridiques donnés par les opérateurs privés afin d’éviter de fournir certaines informations aux consommateurs.

1er argument : Respect du secret d’affaires. C’est qu’une telle divulgation, d’abord, se heurterait au respect du secret des affaires et de la propriété intellectuelle. Et ce, dans un monde où l’actif immatériel que constitue un algorithme performant peut représenter l’essentiel de la valeur d’une entreprise. Le considérant 63 du Règlement européen relatif à la protection des données précise d’ailleurs lui-même, concernant le droit d’accès, que celui-ci “ne devrait pas porter atteinte aux droits ou libertés d’autrui, y compris au secret des affaires ou à la propriété intellectuelle, notamment au droit d’auteur protégeant le logiciel“.

Cet argument est parfaitement valable d’un point de vue juridique vu qu’il est prévu par le considérant 63 du règlement. Il est également tout à fait compréhensible d’un point de vue économique. Il semble logique que des sociétés ne souhaitent pas divulguer ce genre d’informations qui pourraient se retrouver auprès de leurs concurrents.

2e argument : Si ces demandes sont objectivement abusives par leur nombre, leurs répétitions ou leur caractère systématique. Par exemple, si un citoyen exerce son droit d’accès à de multiples reprises très rapprochées dans le temps et qu’il demande toujours le même document qui a déjà été fourni. Néanmoins, une deuxième demande de la part de la même personne ne doit pas être considérée comme abusive. Il faut bien étudier et apprécier le délai entre les deux requêtes.

À nouveau, cet argument semble pertinent. Même si le consommateur se voit attribuer un droit à l’information, il ne peut en abuser comme tout droit. Il semble logique que si le consommateur abuse de son droit, les opérateurs privés ne soient plus obligés de lui répondre.

3ème argument : Si la demande intervient après le délai légal de conservation des données personnelles. Dans ces deux derniers cas, il est impossible de fournir les données demandées. Par exemple, les dispositifs de vidéosurveillance dont le délai légal de conservation est de trente jours. Cet argument semble à nouveau justifié. En effet, l’entreprise est dans son droit de refuser vu que la loi lui autorise de supprimer les données et elle est donc dans l’impossibilité de les fournir au consommateur. Qui plus est, il semble impossible d’imposer aux entités privées de conserver les données pour une durée indéfinie. Toutefois, même si le consommateur se voit refuser son droit à l’information de manière justifiée, il faudra toujours lui expliquer les raisons motivées de ce refus.

Sources :
https://www.franceculture.fr/conferences/college-des-bernardins/transparence-et-vie-privee
https://dpoexpert.fr/droits-dacces-a-ses-donnees-personnelles/

3). Faut-il revoir les exceptions aux secrets d’affaires et/ou à l’accès aux documents administratifs pour assurer la transparence des outils d’IA?

Pour pouvoir répondre adéquatement à la question, il y a lieu d’avoir égard d’une part, aux exceptions aux secrets d’affaires et d’autre part, aux exceptions relatives à l’accès aux documents administratifs.

En ce qui concerne le secret d’affaires, l’article 5 de la directive (UE) 2016/943 prévoit des dérogations au secret d’affaire : “ Les États membres veillent à ce qu’une demande ayant pour objet l’application des mesures, procédures et réparations prévues par la présente directive soit rejetée lorsque l’obtention, l’utilisation ou la divulgation alléguée du secret d’affaires a eu lieu dans l’une ou l’autre des circonstances suivantes:
a) pour exercer le droit à la liberté d’expression et d’information établi dans la Charte, y compris le respect de la liberté et du pluralisme des médias;
b) pour révéler une faute, un acte répréhensible ou une activité illégale, à condition que le défendeur ait agi dans le but de protéger l’intérêt public général;
c) la divulgation par des travailleurs à leurs représentants dans le cadre de l’exercice légitime par ces représentants de leur fonction conformément au droit de l’Union ou au droit national, pour autant que cette divulgation ait été nécessaire à cet exercice;
d) aux fins de la protection d’un intérêt légitime reconnu par le droit de l’Union ou le droit national ”.

Le législateur belge a transposé la directive par une loi du 30 juillet 2018 relative à la protection du secret d’affaires. Cette loi a introduit un titre 8/1 relatif au secret d’affaires dans le Code de droit économique. L’article XI 332/5 reproduit l’article 5 de la directive mot à mot.
En son article XI 332/2 (transposition de l’article 1er de la directive européenne), le Code de droit économique prévoit que :
“ § 1er. Les dispositions relatives aux secrets d’affaires ne portent pas atteinte à:
1° l’exercice des droits fondamentaux consacrés par les règles de droit international et supranational et la Constitution, notamment le droit à la liberté d’expression et d’information, y compris le respect de la liberté et du pluralisme des médias;
2° l’application de règles du droit de l’Union européenne et du droit national exigeant des détenteurs de secrets d’affaires qu’ils révèlent, pour des motifs d’intérêt public, des informations, y compris des secrets d’affaires, au public ou aux autorités administratives ou judiciaires pour l’exercice des fonctions de ces autorités;
3° l’application de règles du droit de l’Union européenne et du droit national obligeant ou autorisant les institutions et organes de l’Union européenne ou les autorités publiques nationales à divulguer des informations communiquées par des entreprises que ces institutions, organes ou autorités détiennent en vertu des obligations et prérogatives établies par le droit de l’Union européenne ou le droit national et conformément à celles-ci;
4° l’autonomie des partenaires sociaux et leur droit de conclure des conventions collectives, conformément au droit de l’Union européenne, au droit national et aux pratiques nationales.
§ 2. Les dispositions relatives aux secrets d’affaires ne peuvent pas être interprétées comme permettant de restreindre la mobilité des travailleurs. En particulier, en ce qui concerne l’exercice de cette mobilité, ces dispositions ne permettent aucunement:
1° de limiter l’utilisation par les travailleurs d’informations qui ne constituent pas un secret d’affaires tel que défini à l’article I.17/1, 1° ;
2° de limiter l’utilisation par les travailleurs de l’expérience et des compétences acquises de manière honnête dans l’exercice normal de leurs fonctions;
3° d’imposer aux travailleurs dans leur contrat de travail des restrictions supplémentaires autres que celles imposées conformément au droit de l’Union européenne ou au droit national ”.

Par conséquent, on voit que le secret des affaires n’est pas absolu et que pour des motifs légaux tels que les besoins d’une enquête, la protection d’un “intérêt légitime” et l’exercice du droit d’expression ou d’information, les informations des entreprises peuvent être divulguées ou utilisées.

Tout citoyen est titulaire d’un droit à la consultation de ses documents administratifs. Il peut formuler une demande en sens auprès de la CADA qui est l’organe chargé d’examiner toute demande de consultation. Il y a donc un principe de publicité des documents administratifs.

Mais, dans des circonstances bien précises qui touchent: à la sécurité, l’ordre public, à la protection des libertés et droit fondamentaux, à la protection des intérêts économiques, ou à la recherche de crimes et délits, la CADA doit apprécier si l’intérêt protégé l’emporte sur le principe de publicité et permet alors de refuser au citoyen l’accès au document administratif.

Dans trois cas précis, la CADA est obligée de refuser l’accès au document administratif. L’exception au principe de publicité l’emporte lorsque sont en jeu des questions relatives au respect de la vie privée, aux obligations de secret imposées par la loi ou au secret des délibérations gouvernementales.

Au niveau des exceptions au secret d’affaires, on voit qu’il est possible d’y déroger afin de révéler une faute, un acte répréhensible ou une autre activité illégale. Cette exception permettrait donc de révéler le fonctionnement des algorithmes de certains sites s’ils utilisent les données du consommateur de manière fautive. Cette exception est cependant peu utile, car on peut présumer que les grosses plateformes dont il est question disposent d’un service juridique performant. Il serait donc difficile de contourner le secret d’affaire pour cause d’activité illégale.

Une exception qui pourrait nous intéresser est celle “pour intérêt légitime”. En effet, pour autant qu’on reconnaisse le droit à l’information des consommateurs comme un intérêt légitime, il est possible de contourner le secret d’affaires afin d’informer le consommateur.

L’accès aux documents administratifs peut être refusé pour des questions d’intérêts économiques. C’est ce que les plateformes vont avancer comme argument pour refuser de fournir certaines informations. En effet, leur algorithme a une valeur économique et ne doit pas se trouver aux mains des concurrents. À une époque où l’on pense de plus en plus à remplacer certains fonctionnaires par des outils d’IA cela peut être problématique, car cette exception peut être invoquée par l’administration. On voit donc que cette exception permet difficilement le partage du fonctionnement des algorithmes.

On peut voir qu’à l’heure actuelle, les exceptions sont assez strictes et ne permettent pas vraiment le respect du droit à l’information du consommateur. Il serait donc intéressant de revoir ces règles en les adaptant aux réalités d’aujourd’hui dans laquelle les outils d’IA prennent une place prépondérante.

Sources
Code de droit économique
Directive (UE) 2016/943
https://be.brussels/a-propos-de-la-region/commission-dacces-aux-documents-administratifs/quels-sont-vos-droits

Show less
Reply
Gladys NOLLEVAUX Julien LAURENT Marie MARECHAL
A) 1) Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur ? Une tension est née entre d’une part le droit à l’enseignement pour chaque étudiant et d’autre part l’admission dans un enseignement supérieur réglé un algorithme qui procède à une sélection d’admission en cas de surnombre de demande. Ce système a été mis…
Read more

A) 1) Pouvez-vous résumer les développements en France quant à la transparence du système automatisé d’admission dans l’enseignement supérieur ?
Une tension est née entre d’une part le droit à l’enseignement pour chaque étudiant et d’autre part l’admission dans un enseignement supérieur réglé un algorithme qui procède à une sélection d’admission en cas de surnombre de demande.
Ce système a été mis en place en vue d’assurer davantage de transparence lors de cette procédure de sélection, alors qu’avant c’était un fonctionnaire personne physique qui en était chargé. Cela est censé être plus égalitaire puisque l’algorithme applique uniformément les règles de droit.
Toujours dans un souci de transparence, ces règles utilisées par ailleurs par l’algorithme peuvent être connues des étudiants puisque le code source est considéré par la Commission d’accès aux documents administratifs comme un document administratif et doit donc être communiqué sur demande, même à des fins autres que d’une mission de service public, sous réserve de la protection des droits intellectuels des tiers sur le code.
Un décret a par ailleurs été pris en 2017 concernant le droit des personnes faisant l’objet de décisions individuelles prises sur le fondement d’un traitement algorithmique. Ce décret permet aux personnes visées d’avoir un droit d’accès à différentes informations.
Il est donc facile de prévoir des règles de transparence, mais parfois plus difficile de les mettre en œuvre.

A) 2) Est-ce que l’on a progressé en ce qui concerne la transparence des algorithmes de Facebook, Google et Twitter et de l’usage de l’IA comme remède à la propagation des propos haineux sur ces réseaux sociaux ?
La protection des données en ligne est protégée entre-autre via l’utilisation d’algorithmes. A entendre Marck Zuckerberg parler, l’IA serait une véritable solution pour assurer cette protection, même si à l’heure actuelle cette méthode n’est pas encore optimale étant donné que de nombreux de nombreux problèmes de messages haineux et diffamatoires sont encore présents sur les réseaux sociaux.
Toutefois, parler de progression est un grand mot au vue de la situation encore floue de cette question de transparence. En effet, certes l’IA peut permettre de pallier au problème d’une telle propagation de haine, mais le souci reste que la transparence de cette méthode n’est pas encore optimale. En effet, les grandes plateformes d’internet sont encore réticentes à l’idée de donner les informations concernant les algorithmes à diverses personnes, invoquant principalement comme argument la protection du secret des affaires. Cela s’illustre bien avec Google qui laisse penser qu’il occupe un rôle de législateur en limitant très clairement cet accès à l’information, rôle que la plateforme joue sans mal étant donné son poids mondial.

B) 1) Y a-t-il un droit à l’explication des algorithmes dans les règles en matière de vie privée ?
Au fur et à mesures des développements de l’IA, on constate que celle-ci s’insère de plus en plus dans la vie du citoyen et du consommateur moyen. L’asymétrie d’information se creuse toujours plus entre le concepteur de l’algorithme et la personne ciblée qui se trouve dans l’incapacité de comprendre la manière dont ses données sont traitées et les décisions qui la concernent sont prises.
Face à se problème l’UE a décidé de réagir avec les RGPD qui dispose dans le considérant 7 que tout traitement de données à caractère personnel doit être conçu et entrepris dans des conditions permettant aux personnes concernées d’en comprendre les tenants et les aboutissants. De plus ce règlement précise que le responsable du traitement fournit à la personne concernée les informations complémentaires suivantes qui sont nécessaires pour garantir un traitement équitable et transparent et que les responsables de l’analyse des données personnels doivent préciser l’existence d’une prise de décision automatisée, y compris un profilage visée à l’article 22, paragraphes 1 et 4, et, au moins en pareils cas, des informations utiles concernant la logique sous-jacente, ainsi que l’importance et les conséquences prévues de ce traitement pour la personne concernée.
En matière de droit à l’explication des algorithmes dans les règles en matière de vie privée, il y a deux situations. La première concerne la prise de décision automatisée ayant des effets juridiques sur la personnes concernées ou l’affectant de manière significative de façon similaire. La seconde porte sur la prise de décision faisant intervenir un agent humain, ou n’ayant pas d’effet juridique ni d’impact significatif. Dans le premier cas on constate qu’il existe une obligation d’information renforcée (art. 13.2.f et 14.2.g) et dans le second cas une obligation d’information « semi-renforcée » ou une obligation classique en fonction des cas.
Source : « https://aeonlaw.eu/expliquer-lalgorithme-droit-a-linformation-profilage-gdpr/

B) 2) Quelle est la pertinence des arguments juridiques invoqués par des opérateurs privés pour limiter l’accès aux algorithmes et/ou aux données ?
Les opérateurs privés qui sont les grandes plateformes d’internet tels que Facebook ou encore Google ne semblent pas encore prêts à accorder autant de transparence et de liberté d’accès concernant les algorithmes utilisés.
En effet, cela se voit par l’argument principal avancé par ces plateformes à savoir la protection de leur propriété intellectuelle, et plus particulièrement celui de la protection du secret des affaires.
Par cette volonté de sauvegarder au maximum leurs droits intellectuels en la matière, il est certain que la conséquence première sera ainsi la limitation de l’accès aux données et aux algorithmes.
Bien entendu, cela peut se comprendre puisque la protection de la propriété intellectuelle est un droit qui peut être valablement exercé par ses plateformes. Toutefois d’autres droits tout aussi importants entrent en concurrence avec celui-là comme en première ligne le droit à la vie privée.
Dès lors une telle restriction à l’accès aux données et aux algorithmes telle qu’opérée par Google par exemple à l’heure actuelle semble disproportionnée comparé à la marge de manœuvre possible du droit à la vie privée dans un tel contexte. Légiférer sur base d’une balance des intérêts entre es différentes prérogatives semble dès lors primordial.

B)3) Faut-il revoir les exceptions aux secrets d’affaires et/ou à l’accès aux documents administratifs pour assurer la transparence des outils d’IA ?
Tout d’abord qu’est-ce que le secret d’affaire ? Le secret d’affaire est une information qui répond aux 3 conditions de la loi du 30 juillet 2018. Premièrement, elle est secrète. Ensuite elle a une valeur commerciale parce qu’elle est secrète et enfin elle a fait l’objet, de la part de la personne qui en a le contrôle de façon licite, de dispositions raisonnables, compte tenu des circonstances, destinées à la garder secrète.
De nombreuses entreprises dans le monde pour lutter contre une concurrence acharnée ont dû confier à des algorithmes intelligents le calcul des solutions optimales à leurs nombreux problèmes.
En ce qui concerne le monde de l’entreprise, la révision des exceptions aux secrets d’affaires pour assurer la transparence des outils d’IA doit impérativement se faire avec une balance des intérêts en présence ; en tenant compte aussi bien des intérêts des entreprises, des concurrents et du consommateur.
En matière d’accès aux documents administratifs la transparence doit être beaucoup plus strictes étant donné que cela touche directement au citoyen. Par exemple les USA travaillent à la mise au point d’algorithmes pour aider les juges à prononcer des remises en liberté conditionnelle. Evidemment cela est un cas extrême mais cela montre à quel point l’Etat peut se reposer sur des algorithmes.
Source : https://www.strategie.gouv.fr/sites/strategie.gouv.fr/files/atoms/files/ia_annexe2_21032017.pdf

Show less
Reply
Maxime Corbeau ; Benjamin D'Andrea ; Romain Florins ; Amandine Goffin
1) Y a-t-il un droit à l’explication des algorithmes dans les règles en matière de vie privée ? Avec les progrès récents et continus de l’intelligence artificielle (IA), il semble que l’on s’oriente de plus en plus vers un monde où des algorithmes de traitement assez complexes peuvent prendre en charge la plupart des aspects de la vie du citoyen et…
Read more

1) Y a-t-il un droit à l’explication des algorithmes dans les règles en matière de vie privée ?

Avec les progrès récents et continus de l’intelligence artificielle (IA), il semble que l’on s’oriente de plus en plus vers un monde où des algorithmes de traitement assez complexes peuvent prendre en charge la plupart des aspects de la vie du citoyen et du consommateur. Nos données personnelles font aujourd’hui l’objet d’algorithmes qui permettent de les relier entre elles et de créer ainsi une masse énorme de données identifiant les individus ou les rendant identifiables, ce qui risque de nuire à notre vie privée. Le danger d’un tel mécanisme n’est autre que celui de voir s’aggraver une “asymétrie”, une “distorsion” toujours plus importante entre le responsable du traitement, le concepteur de l’algorithme (c’est-à-dire celui qui en détermine la logique et les objectifs), et la personne concernée. Cette dernière se retrouve souvent incapable de comprendre les conditions dans lesquelles ses données sont traitées et comment les décisions qui correspondent à ses désirs et à ses besoins sont prises.

A cet égard, le nouveau règlement général sur la protection des données, qui entrera en application ce 25 mai (ci après, RGPD), se donne pour principe fondamental celui du contrôle des individus sur leurs données. Le considérant 39 stipule que “le fait que des données à caractère personnel concernant des personnes physiques sont collectées, utilisées, consultées ou traitées d’une autre manière et la mesure dans laquelle ces données sont ou seront traitées devraient être transparents à l’égard des personnes physiques concernées. Le principe de transparence exige que toute information et communication relatives au traitement de ces données à caractère personnel soient aisément accessibles, faciles à comprendre, et formulées en des termes clairs et simples”. L’accent est donc mis sur la transparence du traitement des données à caractère personnel qui doit être conçu et entrepris dans des conditions permettant aux personnes concernées d’en comprendre les tenants et les aboutissants, afin précisément de pouvoir exercer utilement le contrôle de leurs données.

On perçoit donc bien la difficulté à laquelle le responsable du traitement des données se trouve confronté. Il se doit, en vertu de ce principe de transparence, de fournir les informations “d’une façon concise, transparente, compréhensible et aisément accessible, en des termes clairs et simples, en particulier pour toute information destinée spécifiquement à un enfant” (voy. art. 12, 1, RGDP). Si, dans les cas les plus banals, ces informations ne devraient pas être trop difficiles à exprimer, un lourd obstacle pratique risque en revanche de se poser à l’égard des traitements qui mettent en jeu de puissants outils algorithmiques, et à plus forte raison encore, des mécanismes d’intelligence artificielle de type machine-learning, en permanente évolution. Or, il semble que ces traitements complexes soient les plus fréquents. Comment dès lors assurer une information valable sur la “logique sous-jacente du traitement” ? Faudra-t-il aller jusqu’à dévoiler aux personnes concernées les codes sources de ces outils et de ces mécanismes ? La question reste pour l’instant sans réponse. On l’a donc dit : un droit à l’explication des algorithmes existe mais sa mise en oeuvre reste pour l’instant incertaine. Il faudra attendre l’entrée en application du RGPD pour voir la manière dont les responsables du traitement des données vont tenter de s’y conformer.

2) Quelle est la pertinence des arguments juridiques invoqués par des opérateurs privés pour limiter l’accès aux algorithmes et/ou aux données ?

Avec la nouvelle réglementation, une information fondée sur la divulgation des algorithmes de traitement semble être imposée. Cependant, outre sa difficulté de mise en oeuvre, certains estiment qu’une telle divulgation n’est tout simplement pas nécessaire au regard des exigences du RGDP. Elle serait même, dans la majorité des cas, contre-productive. En effet, il semble qu’une telle divulgation se heurterait au respect du secret des affaires (cfr. question 3) et de la propriété intellectuelle. De plus, un algorithme performant est, de nos jours, un actif immatériel qui représente une valeur essentielle pour une entreprise. Sur ce point, on peut dès lors comprendre la position de certains opérateurs privés en faveur d’une limitation à l’accès aux algorithmes et aux données.

Le considérant 63 du règlement précise, concernant le droit d’accès, que “lorsque c’est possible, le responsable du traitement devrait pouvoir donner l’accès à distance à un système sécurisé permettant à la personne concernée d’accéder directement aux données à caractère personnel la concernant. Ce droit ne devrait pas porter atteinte aux droits ou libertés d’autrui, y compris au secret des affaires ou à la propriété intellectuelle, notamment au droit d’auteur protégeant le logiciel. Cependant, ces considérations ne devraient pas aboutir à refuser toute communication d’informations à la personne concernée. Lorsque le responsable du traitement traite une grande quantité de données relatives à la personne concernée, il devrait pouvoir demander à celle-ci de préciser, avant de lui fournir les informations, sur quelles données ou quelles opérations de traitement sa demande porte”.

De plus, certains sont d’avis qu’une retranscription intégrale de l’algorithme (ou son explication mathématique) est insusceptible de satisfaire aux conditions de clarté et d’accessibilité posées par le texte (voy. art. 12).

Ainsi, la meilleure approche nous semble être à cet égard une approche “fonctionnaliste”. Il s’agirait de fournir une information suffisante pour expliquer aux personnes concernées le fonctionnement de l’algorithme. C’est-à-dire une explication des objectifs poursuivis dans le traitement des données par l’algorithme, sans pour autant dévoiler les informations techniques de celui-ci. (Voy. A. AULAS, “Expliquer l’algorithme : droit à l’information et profilage sous le GDPR”, 8 novembre 2017, disponible sur https://aeonlaw.eu/expliquer-lalgorithme
-droit-a-linformation-profilage-gdpr/).

Les opérateurs privés peuvent-ils invoquer un droit de la propriété intellectuelle pour refuser “l’accès” à leurs algorithmes ? Les algorithmes ne disposent d’aucun régime juridique propre, par conséquent, il convient de recourir à des principes juridiques très divers.
Pour ce qui est du droit d’auteur, l’algorithme, en tant que simple principe mathématique, fait partie du domaine des idées et ne dispose d’aucune protection par le droit d’auteur, sauf si l’algorithme est intégré au code source d’un logiciel ou d’un programme protégeable par le droit d’auteur, pour autant que la condition d’originalité soit remplie. Toutefois, la principale limite de cette “protection par le droit d’auteur”, est que, en réalité, c’est le logiciel qui peut en bénéficier, en tant que “support” de l’algorithme, et non l’algorithme lui-même. Aussi, si un tiers réussit à extraire de façon légale l’algorithme contenu dans le logiciel même lorsque ce logiciel est protégé par droit d’auteur, il sera libre de l’utiliser (reverse-engineering). Il n’y a pas non plus de protection à partir de la directive sur les programmes d’ordinateur. Son article 1, 2 dispose que « les idées et principes qui sont à la base de quelque élément que ce soit d’un programme d’ordinateur, y compris ceux qui sont à la base de ses interfaces, ne sont pas protégés par le droit d’auteur en vertu de la présente directive ».

Au titre du brevet, le droit de la propriété intellectuelle exclut expressément de la brevetabilité “les théories scientifiques, les méthodes mathématiques ainsi que les programmes d’ordinateur de la brevetabilité” (art. XI. 4 CDE). L’algorithme serait alors exclu de la brevetabilité lorsqu’il n’est qu’une méthode mathématique destinée à traiter l’information. Cependant, à l’ère du numérique, l’algorithme est plus qu’une simple méthode mathématique appartenant au domaine des idées. Le plus souvent, l’algorithme est intégré à une invention brevetable. D’ailleurs, selon l’O.E.B., un algorithme peut être breveté indirectement dans la mesure où il est intégré à une invention et lui apporte une contribution technique. On le voit, il n’est pas simple de protéger un algorithme par un droit de propriété intellectuelle. Le secret d’affaires semble être l’alternative.

3) Faut-il revoir les exceptions aux secrets d’affaires et/ou à l’accès aux documents administratifs pour assurer la transparence des outils d’IA ?

Le savoir-faire d’une entreprise, ses secrets de fabrique ou d’affaires ou certaines informations qu’elle détient ne peuvent pas toujours faire l’objet d’un brevet ou d’un autre droit de propriété intellectuelle. Dans ce cas, la seule protection qui s’offre aux entreprises est le secret.
L’algorithme peut constituer un secret d’affaires de l’entreprise. La directive 2016/943 entend par « secret d’affaires », des informations qui répondent à toutes les conditions suivantes: (Article 2)
« a) elles sont secrètes en ce sens que, dans leur globalité ou dans la configuration et l’assemblage exacts de leurs éléments, elles ne sont pas généralement connues des personnes appartenant aux milieux qui s’occupent normalement du genre d’informations en question, ou ne leur sont pas aisément accessibles;
b) elles ont une valeur commerciale parce qu’elles sont secrètes;
c) elles ont fait l’objet, de la part de la personne qui en a le contrôle de façon licite, de dispositions raisonnables, compte tenu des circonstances, destinées à les garder secrètes ».

Alors que le RGPD prévoit un principe de transparence, la directive sur la protection des secrets d’affaires permet d’empêcher la divulgation de l’algorithme protégé. Néanmoins, il existe certaines exceptions aux secrets d’affaires. L’article 5 de la directive prévoit que :
“États membres veillent à ce qu’une demande ayant pour objet l’application des mesures, procédures et réparations prévues par la présente directive soit rejetée lorsque l’obtention, l’utilisation ou la divulgation alléguée du secret d’affaires a eu lieu dans l’une ou l’autre des circonstances suivantes:
a) pour exercer le droit à la liberté d’expression et d’information établi dans la Charte, y compris le respect de la liberté et du pluralisme des médias;
b) pour révéler une faute, un acte répréhensible ou une activité illégale, à condition que le défendeur ait agi dans le but de protéger l’intérêt public général;
c) la divulgation par des travailleurs à leurs représentants dans le cadre de l’exercice légitime par ces représentants de leur fonction conformément au droit de l’Union ou au droit national, pour autant que cette divulgation ait été nécessaire à cet exercice;
d) aux fins de la protection d’un intérêt légitime reconnu par le droit de l’Union ou le droit national.”
Les dérogations prévues à cet article restent cependant très floues et donc difficiles à appliquer (Voy. notamment le problème de la protection des lanceurs d’alerte).

Est-il nécessaire de revoir les exceptions aux secrets d’affaires afin de permettre la transparence des algorithmes ? Nous ne le pensons pas. En effet, l’article 3 (2) prévoit que : “l’obtention, l’utilisation ou la divulgation d’un secret d’affaires est considérée comme licite dans la mesure où elle est requise ou autorisée par le droit de l’Union ou le droit national”. Cette exception nous semble donc offrir les outils nécessaires afin de garantir le respect de l’exigence de transparence prévue par le RGPD. Effectivement, une disposition qui oblige la divulgation du fonctionnement d’un algorithme dans le cadre de la protection de données personnelles pourra s’imposer aux opérateurs privés et rendre l’utilisation ou la divulgation du secret d’affaires licite.

Show less
Reply

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use simple HTML tags to add links or lists to your comment:
<a href="url">link</a> <ul><li>list item 1</li><li>list item2</li></ul> <em>italic</em> <strong>bold</strong>