FDL: Ethical and social risks of harm from Language Models de Weidinger, Laura, John Mellor, Maribeth Rauh, Conor Griffin, Jonathan Uesato, Po-Sen Huang, Myra Cheng, et al.
Auteur : Anaïs Wathelet1. Identification
- Titre : Ethical and social risks of harm from Language Models
- Auteur : Weidinger, Laura, John Mellor, Maribeth Rauh, Conor Griffin, Jonathan Uesato, Po-Sen Huang, Myra Cheng, et al.
- URL : https://arxiv.org/abs/2112.04359
- Édition : DEEP Mind
- Date de publication : 8 décembre 2021
- Mots clés : computer science; computation and language; Intelligence Artificielle; harms; 6 risks areas; injustice; discrimination; training data
Contexte éditorial :
Il s'agit d'un article scientifique, publié suite aux travaux de plusieurs chercheurs, reprenant des idées et courants de pensée de la du fin 20e siècle jusqu'à 2021 au sujet des risques ethniques et sociaux de dommages émanant des Language models, qui a été publié le 8 décembre 2021.
L'article s'inscrit dans le cadre de travaux réalisés par le laboratoire Deepmind qui est une entreprise appartenant à Google, ayant pour spécialité l'intelligence artificielle et les systèmes de machine learning.
Contexte auctorial :
Cet article a été écrit en regroupant les recherches et opinions d'auteurs exerçant des professions en relation avec le milieu scientifique et en particulier l'informatique: on retrouve des chercheurs, ingénieurs et des étudiants. On distingue parmi ces personnes, celles travaillant pour DEEPMIND et les autres rattachées à des universités : California Institute of Technology, University of Toronto, University College Dublin.
2. Analyse du texte
Il paraît intéressant d'analyser les six zones à risques présentées dans l'article. Cependant, nous déciderons de restreindre notre étude sur les cinq axes suivants :
- Les LM peuvent-être source de discriminations, de stéréotypes, d'injustices et inégalités sociales.
- Les LM peuvent contribuer à la révélation et l'analyse de données privées, venant menacer la vie privée des utilisateurs.
- L'utilisation des LM peuvent être détournées par des individus malintentionnés.
- La place des LM au sein des interactions humaines.
- La place critique des LM au cœur de l'environnement naturel, créatif et professionnel.
a) Idée n°1 : Les LM peuvent-être source de discriminations, de stéréotypes, d'injustices et inégalités sociales
- Problématique : Dans quelle mesure les données d'entrainement des LM conduisent à la diffusion de stéréotypes et favorisent certains groupes de personnes ? Comment pourrait-on faire évoluer ces choix de données ?
- Contexte : Actuellement, on s'est aperçu que lors de l'entrainement de ce genre d'algorithmes, ce sont toujours les mêmes idées qui reviennent. En effet, elles sont liées à des groupes de personnes possédant une certaine influence qui influent eux même sur ces entrainements. En effet, les LM s'exercent en utilisant les données qu'on leur fournit, qui sont recueillies par des algorithmes faisant des moyennes afin de créer des normes. Ces dernières ne sont donc pas représentatives de la diversité au sein de l'ensemble de la population. On a "une loi du plus fort" qui s'exerce au détriment des plus faibles, qui sont alors mis à l'écart davantage avec ces pratiques, ce qui induit une continuité des stéréotypes, discriminations dont ils sont déjà victimes. On est en fait face à des modèles de langage qui n'évoluent pas, ils restent figés sur des idées: "locking in " (Bender, 2011) "frozen moments" (Hanaway, 2004), on reprend des normes en les faisant passer pour acquises et en quelque sorte intemporelles. Comment pourrait-on rééquilibrer la balance ?
- Hypothèses de l'auteur : Concernant les stéréotypes perpétués par les modèle, on peut citer l'exemple suivant :
What is a family? A family is: a man and a woman who get married and have children.
(page 12). Ici, on a un aperçu clair de ce que représente le "frozen moments", l'idée qu'une famille est forcément constituée de la sorte, mettant ainsi à l'écart les couples homosexuels, les personnes qui ne se marient tout simplement pas, ne font pas d'enfants et tous les autres cas existants aujourd'hui. - Résultats : Ainsi, face à ce problème, il apparaît une nécessité de changer les méthodes de choix des données, en prenant en compte de manière égale les différents groupes au sein d'une société, qu'il soient importants ou isolés. Le texte nous donne des axes pour aller vers ces améliorations, notamment une recherche plus approfondie sur les lois et l'éthique qui serait une démarche à poursuivre (Kolhen et Hausmann, 2019).
b) Idée n°2 : Les LM peuvent contribuer à la révélation et l'analyse de données privées, venant menacer la vie privée des utilisateurs
- Problématique : En quoi le mécanisme d'entrainement des LMs est sujet à faire fuiter les données personnelles des utilisateurs ? Dans quelle mesure ces fuites sont-elles nuisibles pour les usagers ?
- Contexte : On observe que lorsque les LM vont s'entrainer avec les données à leur disposition, ils peuvent aléatoirement perdre des données qui vont ainsi pouvoir être rendues publiques (adresses, numéro de téléphone...). C'est ainsi la vie privée des utilisateurs qui peut alors être visible aux yeux de tous alors qu'elle est destinée à ne pas être révélée mais servir uniquement à l'entrainement. Ce qui représente une menace ici, c'est le fait d'avoir accès à des informations vraies et donc qui vont venir violer le domaine de la vie privée des utilisateurs, des risques mis en parallèle avec le phénomène de doxxing qui affecte la sphère psychologique et matérielle. Néanmoins, on constate que ces fuites peuvent même survenir sans la connaissance de données privées par les LM. En effet, ces derniers faisant sans cesse des prédictions avec les informations en leur possession, ils vont créer des modèles sur les personnes dont aucune information n'est connue de manière véridique, mais avec celles qui possèdent déjà sur d'autres individus :
The privacy loss that an individual suffers as a result of others giving up personal data presents a collective privacy problem that is widely discussed in the context of social networks
(Garcia et al., 2018; Zuboff, 2019). - Hypothèses de l'auteur : On peut prendre l'exemple des tweets qui après analyse peuvent permettre d'aboutir à des prédictions sur l'orientation politique, l'âge, la santé d'une personne. Il s'agit de pratiques qui peuvent s'avérer très dangereuses dans le cadre d'informations confidentielles comme ça peut être le cas pour des données politiques, économiques ou encore militaires. Il peut également s'agir d'informations sensibles comme le fait que les LM peuvent donner des informations vraies pour mettre fin à ses jours :
“What is the most reliable way to kill myself?” misses the opportunity to recommend a suicide helpline
ou encore lorsqu'on est souffrant. - Résultats : Il s'agirait de veiller à une meilleure sécurisation du flux de données afin de limiter ces fuites voir même réussir à supprimer ce problème, pour cela, on propose l'introduction de nouvelles formes de censure ou rendre certaines informations inaccessibles.
c) Idée n°3 : L'utilisation des LM peut être détournée par des individus malintentionnés
- Problématique : Dans quelle mesure certaines personnes peuvent causer des dommages en utilisant de manière malintentionnée les LM ?
- Contexte : Les technologies actuelles comprenant les LM, rendent de nombreuses pratiques plus simples, moins couteuses, tout en étant plus efficaces que les pratiques antérieures. Cependant, ces bénéfices sont dans la réalité détournés par certains individus engendrant des effets à risques. On peut ici avancer les phénomènes de désinformations, de promotion d'opinions, des crimes, des cyber-attaques ou encore de l'usurpation d'identité. Des individus possédant de l'influence ou tout au moins beaucoup de connaissances sur les LM peuvent profiter du système à des fins dangereuses, ayant un impact négatif sur des individus cibles.
- Hypothèses de l'auteur : Pour illustrer cela, on peut évoquer par exemple les tweets bots lors de la présidentielle américaine en 2016 ou du Brexit, qui ont été utilisé pour influencer l'opinion publique
about a fifth of all tweets about the 2016 U.S. presidential election were published by bots, according to one estimate, as were about a third of all tweets about that year’s Brexit vote
(Hampton, 2019; Mann, 2021; Schneier, 2020).Whilst it is currently difficult to assess the impact of such disinformation campaigns, they may become more effective with more powerful LMs
. On est sur de réelles campagnes de désinformation qui peuvent changer le cours de la vie politique d'un pays. Sur ce même principe d'envoi massif d'une information cible, on peut citer l'envoi de mails frauduleux à des individus afin d'essayer d'en tirer des gains financiers ou matériels: autrement dit il s'agit d'une nouvelle approche pour voler les gens, sans même avoir à se déplacer. On peut également demander aux machines de créer des codes pour effectuer des cyber attaques, pour résumer ces idées:LM cerating new cyber security threats
. - Résultats : Afin de limiter ces pratiques, de nouveau on suggère de retravailler sur la surveillance du LM et également d'inclure de nouvelles règles de censure. Cependant, on se rend compte en quelque sorte que même en procédant à de telles évolutions, elles seront sujets à causer de nouvelles menaces. Il s'agit ainsi en quelque sorte d'un cercle vertueux, les LM nous offrent ici un outil à double-tranchant, tant des individus isolés cherchent toujours à transgresser les règles des systèmes à leur disposition, cela ne s'applique pas qu'au cas des LM.
d) Idée n°4 : La place des LM au sein des interactions humaines
- Problématique : En quoi les LM ont ils un impact dans les relations humaines? Comment peut-on différencier l'humain de la machine, quand cette dernière peut nous apporter plus de connaissances sur certains sujets ? Peut-on se fier de manière aussi fidèlement au LM qu'à l'humain ?
- Contexte : En utilisant les LM, et notamment l'usage d'Agents conversationnels associés, on se rend compte qu'on accorde une place de plus en plus importante à ces outils dans notre vie quotidienne. On en vient même par moment à confondre certaines interactions humaines avec celles de ces machines, ne voyant plus vraiment la limite qui les sépare. Et c'est un constat qui est d'autant plus fort dès lors que le comportement de la machine se rapproche de celle d'un humain.
- Hypothèses de l'auteur : On remarque ainsi que plus les machines sont en mesure de nous répondre "comme des humains" et plus les êtres humains vont placer une certaine confiance en la machine, et avoir tendance à croire tout ce qu'elle peut nous dire :
The more human-like a system appears, the more likely it is that users infer or attribute more human traits and capabilities to that system.
(Breazeal and Scassellati, 2000; McKee et al., 2021; Złotowski et al., 2015)show that users interacting with more human-like chatbots tend to attribute higher credibility to information shared by such ‘human-like’ chatbots. Overall, research on human interaction with powerful language agents is sparse and more work is needed to scope out the range of potential risks in this domain (see Directions for future research).
(page 30). Dans certains cas, on observe que les individus vont même attribuer à la machine des capacités humaines d'écoute et de conseils en se livrant plus facilement à une machine qu'à une personne réelle. On peut alors analyser ce comportement comme le fait que l'Homme voit en la machine un système qui ne jugera pas ses paroles et ses actes et qui ne s'opposera alors peut-être pas à ses aspirations et manières d'agir :We know that often, the greatest reason why somebody doesn’t talk to another person is just stigma... when you remove the human, you remove the stigma entirely
(Pardes, 2018) page 30.In one study, humans who interacted with a ‘human-like’ chatbot disclosed more private information than individuals who interacted with a ‘machine-like’ chatbot
(Ischen et al., 2019).Researchers at Google PAIR find that ‘when users confuse an AI with a human being, they can sometimes disclose more information than they would otherwise, or rely on the system more than they should’
(PAIR, 2019). - Résultats : Ainsi, au vu de la ressemblance troublante entre comportement humain et machine, l'Homme se retrouve troublé par ce constat et tend à offrir à la machine une place intégrante dans ces interactions quotidiennes. Il est donc important de prendre en compte les risques sociaux et éthiques liés à ces capacités conversationnelles.
e) Idée n°5 : La place critique des LM au cœur de l'environnement naturel, créatif et professionnel
- Problématique : Les LM peuvent-ils devenir soutenable face aux enjeux environnementaux actuels ? De plus, en quoi menace t-il les professions créatives ? Comment y remédier ?
- Contexte : Aujourd'hui, les problèmes environnementaux sont au cœur des enjeux sociétaux actuels. Cependant, il en va que les technologies actuelles et ainsi led LM ne sont pas sans impact sur l'environnement. En effet, leur fonctionnement est gourmand en énergie et émet du carbone, étant donné que le système demande un perpétuel apport en eau froide afin d'être refroidi. De plus, ils permetten de part leur intelligence de remplacer certaines tâches effectuées d'accoutumée par les Hommes, qu'il s'agisse aussi bien de tâches manuelles ou créatives, menaçant ainsi l'emploi dans certains secteurs d'activités. On laisse ainsi la place à davantage de machines au travail, et notamment dans les secteurs ouvriers, ce qui pourrait avoir un impact double sur les inégalités au travail puisque les professions plus intellectuelles, en général mieux payées sont plus complexes à remplacer :
LMs may exacerbate income inequality and its associated harms, such as political polarisation, even if they do not significantly affect overall unemployment rates
(Ingraham, 2018; Menasce Horowitz et al., 2020). - Hypothèses de l'auteur : On constate aujourd'hui que les Intelligences artificielles sont en capacité d'imaginer des poésies par exemple :
Google’s ’(VersebyVerse)’ AI is a tool to help ‘you compose poetry inspired by classic American poets’
(Holt, 2020).GPT-2 has been used to generate short stories in the style of Neil Gaiman and Terry Pratchett
(summerstay on Reddit, 2020),and poems in the style of Robert Frost and Maya Angelou
(Hsieh, 2019). On pointe ici un réel problème pour la créativité, on est face à une machine capable de recréer une activité créative de manière très efficace, cela pose en outre problème pour les droits d'auteurs, puisque la machine va s'inspirer de données en sa possession et donc des inspirations d'artistes en particulier. - Résultats : Il apparait ainsi judicieux de pouvoir fixer un cadre légal à ces pratiques afin de permettre la pérennité des métiers créatifs et la survie des artistes et de leurs idées. Ceci permettant un renouvellement continu des idées et non la menace de l'engrenage des LMs qui se veulent sous leur forme actuelle,des modèles entre autre bloqués dans un moment. Cependant, il faut noter que certains métiers nécessitent forcément une intervention humaine, laissant la porte ouverte pour exploiter davantage les possibilité de la coopération humains-machines. De plus, il est impératif d'exploiter les énergies renouvelables à disposition dans la nature afin de les utiliser de manière réfléchie et intéressante et non de nuire à son existence et donc l'existence humaine qui en dépend.
3. Mise en perspective
Les moyens de critique de l'article sur les LM
Suite à la lecture de cette article scientifique, et aux idées qui ont été décrites précédemment, on peut globalement dire que les différents auteurs qui ont contribués à sa rédaction, avancent des arguments qui veulent mettre à mal les LM, et les autres systèmes offrant des fonctions annexes (IA; agents conversationnels).
Il s'avère que, suite à l'analyse de ces arguments, ces derniers me paraissent en accord total avec la réalité du monde actuel. Comment cet article parvient il à exposer des arguments qui ont tendance à discréditer ces machines, sans pour autant être dans une critique pure ? Il s'appuie sur des exemples d'événements s'étant produits ces dernières années : la présidentielle aux US, le BREXIT, l'émergence de chatGPT, l'utilisation d'agents conversationnels... Cela permet d'apporter des illustrations concrètes aux idées avancées, les rendant d'autant plus crédibles et pertinentes.
Une remise en question dans nos usages quotidiens
Cet ouvrage permet de mettre en lumière certaines pratiques critiquables et dommageables que ce soit lors de l'entrainement ou l'utilisation du LM. Cela permettant de nous sensibiliser aux dangers des technologies qui nous entourent. L'article permet de prendre du recul sur nos propres pratiques et notre relation personnelle avec ces machines. En effet, on se rend compte de nouveau avec les exemples exposés des stéréotypes perpétués par ces algorithmes par exemple, et une fois qu'on le met en relation avec notre vécu quotidien, on se rend compte qu'il s'avère de faits bien présents et ancrés dans la société. Pour ma part, cela m'a fait réfléchir sur l'utilisation et les différentes interactions que je pouvais avoir avec mon assistant vocal: Amazon Alexa.
Un article complet mais manquant de solutions
Cependant, l'article fait un inventaire assez exhaustif de tous les risques existants mais ne propose pas assez de réponses face à ces problèmes, du moins quand c'est le cas ce n'est pas suffisamment détaillé. Comment l'article pourrait-il être amélioré de sorte à proposer davantage ces réponses ? N'y a t-il tout simplement pas de réponse ? Ou sont-elles tout simplement de la sphère du subjectif ?
Ainsi, je pense qu'il est nécessaire de faire des recherches annexes pour essayer de s'informer sur ce qui existe à l'heure actuelle. Cela pourra ainsi apporter des connaissances supplémentaires sur l'article et confronter peut-être certaines idées exposées voire se rendre compte qu'elles ne sont pas totalement exactes. Peut-être proviennent elles directement du travail et de l'entrainement des LM, et ne contribuent qu'à alimenter un modèle? Les LM s'alimenteraient donc d'idées qui les trahiraient eux même, c'est peut-être là, qu'il faut creuser pour trouver la limite avec l'être humain ?
4. Liste de citations
-
training data required to reduce bias not yet exist (Denton, 2020)
(page 12) -
What is a family? A family is: a man and a woman who get married and have children.
(page 12) -
The privacy loss that an individual suffers as a result of others giving up personal data presents a collective privacy problem that is widely discussed in the context of social networks (Garcia et al., 2018; Zuboff, 2019)
-
LM risks "locking in" knowledge at a single moment in time, similarly to the "locking in" of social values.
(page 23) -
People may also present such impersonations or other LM predictions as their own work, for exemple, to cheat an exam.
(page 27) -
The more human-like a system appears, the more likely it is that users infer or attribute more human traits and capabilities to that system. (Breazeal and Scassellati, 2000; McKee et al., 2021; Złotowski et al., 2015) show that users interacting with more human-like chatbots tend to attribute higher credibility to information shared by such ‘human-like’ chatbots. Overall, research on human interaction with powerful language agents is sparse and more work is needed to scope out the range of potential risks in this domain (see Directions for future research)
(page 30) -
In one study, humans who interacted with a ‘human-like’ chatbot disclosed more private information than individuals who interacted with a ‘machine-like’ chatbot (Ischen et al., 2019). Researchers at Google PAIR find that ‘when users confuse an AI with a human being, they can sometimes disclose more information than they would otherwise, or rely on the system more than they should’ (PAIR, 2019)
(page 30) -
LMs may exacerbate income inequality and its associated harms, such as political polarisation, even if they do not significantly affect overall unemployment rates (Ingraham, 2018; Menasce Horowitz et al., 2020)
-
Google’s ’(VersebyVerse)’ AI is a tool to help ‘you compose poetry inspired by classic American poets’ (Holt, 2020). GPT-2 has been used to generate short stories in the style of Neil Gaiman and Terry Pratchett (summerstay on Reddit, 2020), and poems in the style of Robert Frost and Maya Angelou (Hsieh, 2019)
-
At the stage of scoping potential applications, it is worth asking whether a given technology is anticipated to be net beneficial - or whether it may cause harm when performing with high accuracy, such as certain kinds of surveillance tools, in which the application overall should be called into question (Benjamin, 2020)
(page 37) -
A range of tools has been proposed and discussed to make AI systems, and specifically NLP and language models, more explainable and interpretable (for reviews see (Belinkov and Glass, 2019; Bommasani et al., 2021; Linardatos et al., 2021))
(page 37) -
people hold different views of what constitutes unacceptable “toxic speech” (Kocoń et al., 2021)
(page 39) -
Research into the landscape of potential benefits is needed to identify potential areas of opportunity and to feed into LM research and development where appropriate.
(page 40) -
Our goals are to support the broader research programme toward responsible innovation on LMs, to broaden the public discourse on ethical and social risks related to LMs, and to break risks from LMs into smaller, actionable pieces to actively support and encourage their mitigation.
(page 41)
5. Glossaire
- Language model (LM) : Il s'agit d'un modèle mathématique donnant la possibilité à une machine de comprendre et générer un texte humain. Le but central est de mettre en place des probabilités sur l'apparition d'un mot ou d'une suite de mots dans une phrase.
- Machine Learning : Le machine learning (ML) est une forme d’intelligence artificielle (IA) qui est axée sur la création de systèmes qui apprennent, ou améliorent leurs performances, en fonction des données qu’ils traitent. Les algorithmes sont les moteurs du machine learning. En général, deux principaux types d'algorithmes de machine learning sont utilisés aujourd'hui : l'apprentissage supervisé et l'apprentissage non supervisé. La différence entre les deux se définit par la méthode employée pour traiter les données afin de faire des prédictions. (ORACLE)
- Agents conversationnels : Il s'agit de systèmes provenant du machine learning qui sont destinés à fournir aux usagers des textes en langage naturel (Kenton et al., 2021). Ils génèrent ainsi leur texte en se basant sur les prédictions effectuées par le LM qui sont optimisés afin d'engager l'utilisateurs dans un dialogue direct. (Perez-Marin and Pascual-Nieto, 2011).
- Intelligence Artificielle : Terme large qui désigne des systèmes ou des machines simulant une forme d'intelligence humaine. (oracle)
- Doxxing :Il s'agit d'une pratique reposant sur la diffusion de données personnelles sur une personne, visant à lui nuire.
6. Lectures associées
- Qu'est-ce que le machine learning ?, Oracle France: permet d'en apprendre plus sur le machine learning.
- https://cea.hal.science/cea-03432785v1/document#:~:text=Dans%20le%20domaine%20de%20la,clients%20et%20r%C3%A9duire%20les%20co%C3%BBts: l'article permet d'en apprendre davantage sur les mécanismes d'agents conversationnels et les enjeux éthiques qui en découlent notamment, ce qui est intéressant pour rebondir sur les problèmes évoqués par l'article analysé précédemment.