Malvina Nissim, professeur de linguistique computationnelle et société à l’Université de Groningue, donnera une conférence sur la réduction des préjugés dans les programmes informatiques le 2 décembre 2022

« Si je demande à Google Traduction de traduire « Je suis professeur » en italien, il utilisera le mot masculin pour professeur, à moins que je n’indique spécifiquement que je suis une femme professeur. »

(COMMUNIQUÉ DE PRESSE) GRONINGEN, 21-Nov-2022 — /EuropaWire/ — L’Université de Groningue, l’une des universités les plus traditionnelles et les plus prestigieuses des Pays-Bas, a annoncé que sa professeure de linguistique computationnelle et société, Malvina Nissim , tiendra sa conférence inaugurale sur la réduction des préjugés dans les programmes informatiques le 2 décembre 2022 à l’Aula Academy Building, Broerstraat 5, Groningen. Elle discutera du potentiel et des risques de la technologie du langage, qui s’est développée si incroyablement rapidement ces dernières années que nous ne pouvons plus imaginer la vie sans elle. Par exemple, des applications telles que la correction automatique, Google Translate et Siri sont intégrées dans notre vie quotidienne. Selon le professeur, de tels développements ne sont pas sans risques et ce qui l’inquiète est le fait que les utilisateurs s’arrêtent rarement pour considérer le rôle actif qu’ils jouent eux-mêmes dans le développement de la technologie du langage.

Nous disons à Siri d’appeler “maison” pour nous éviter d’avoir à entrer un numéro. Nous utilisons Google Traduction pour traduire des textes et nous obtenons Word pour vérifier notre orthographe. Et dans WhatsApp, nous n’avons qu’à taper quelques lettres et nous avons le choix entre un certain nombre de mots possibles. Ces applications et les nombreux autres services et applications que tant d’entre nous ont adoptés sont basés sur la linguistique computationnelle : le domaine où la linguistique et l’intelligence artificielle se rencontrent.

Traductions étranges

Ce n’est pas une surprise pour Malvina Nissim que nous aimions tous tant la technologie. ‘Je suis trop. En tant qu’Italien travaillant dans une université néerlandaise, je reçois toujours des documents rédigés en néerlandais. Il me faut des années pour les parcourir tous, alors parfois je demande à Google Translate de m’aider. Il y a quelques années, les traductions qu’il générait étaient souvent assez bizarres, mais aujourd’hui, elles sont vraiment bonnes. Bon, mais pas parfait. Les ordinateurs font des erreurs.

Par exemple, les choses peuvent mal tourner si une expression familière est traduite littéralement. Chaque mot peut avoir été traduit correctement, mais le sens est perdu. Des erreurs peuvent également surgir, explique Nissim, de préjugés qu’une machine de traduction a été enseignée, même à contrecœur. `Prenez ma langue maternelle, l’italien. L’italien marque le genre, ce qui signifie que ses mots peuvent avoir une version masculine et une version féminine. Il faut toujours faire un choix. Je suis une professeure : una professoressa. Un professeur de sexe masculin est un professore. Mais si je demande à Google Translate de traduire “Je suis professeur”, cela ira pour le mot masculin pour professeur, à moins que je n’indique spécifiquement que je suis une femme professeur.

Professeur généré par l’IA

Prejudices and stereotypes

De tels préjugés ne sont pas propres aux machines de traduction. Si vous recherchez des images de professeurs sur Google, la plupart des images que vous obtiendrez seront des hommes blancs avec des lunettes, debout devant des tableaux noirs à l’ancienne. “Ou il existe un système récent, Crayon AI”, dit Nissim, “qui dessine des images en fonction d’invites de texte. Si je veux qu’il me dessine et que je tape : “un professeur de linguistique informatique aux cheveux longs, bruns et bouclés”, cela me donne neuf options. Et tous les neuf sont des hommes blancs avec de longs cheveux bruns et bouclés et des lunettes.

Nissim s’empresse de souligner que simplement blâmer la technologie pour ces préjugés serait myope. « Nous développons ces programmes en montrant à l’ordinateur de nombreux exemples. Et ces exemples sont tirés de textes, d’images, etc., que vous et moi laissons sur des sites Web et dans des documents. Les programmes apprennent du langage que nous utilisons. Ils ne font qu’adopter les préjugés et les stéréotypes que nous avons exprimés, le plus souvent sans pouvoir les nuancer.» C’est un fait qu’il y a plus d’hommes que de femmes dans les postes à responsabilité, comme celui de professeur, et nous terminons parler et écrire plus sur les professeurs masculins que féminins. “Mais les femmes professeurs existent bien sûr, et c’est une connaissance que l’ordinateur doit acquérir”, dit Nissim.

Réduire les préjugés dans les programmes informatiques est certainement possible, mais ce n’est pas facile. “Cela implique d’intervenir au stade du développement et de décider également ce qui est un préjugé et ce qui ne l’est pas”, explique Nissim. “Le genre est un exemple assez clair, même lorsqu’il est simplement considéré sous une forme binaire simplifiée, mais il existe d’autres préjugés qui sont beaucoup plus subtils et donc beaucoup plus difficiles à combattre.” Un autre problème est que les données ne sont pas représentatives de la société en tant que telle. ensemble. «Tout le monde n’est pas actif en ligne et tout le monde n’est pas représenté dans les données utilisées pour former des modèles informatiques. Par exemple, certaines langues sont beaucoup moins utilisées que d’autres et certains groupes ethniques sont sous-représentés. Nous devons également en être conscients lorsque nous utilisons des données pour créer de nouvelles applications. »

“Il est important pour nous tous de réaliser que ces programmes informatiques ne sont pas objectifs et que tout ce que nous trouvons en ligne n’est pas vrai.”

Sensibilisation

Afin de transmettre cette prise de conscience aux générations futures, Nissim et ses collègues ont développé une série de conférences pour les étudiants de troisième année en sciences de l’information à la Faculté des arts sur les aspects éthiques de la linguistique informatique. `C’est la nouvelle génération qui fera des applications à l’avenir. En plus d’acquérir des connaissances techniques, il est important pour eux de réfléchir à l’impact potentiel de la technologie qu’ils développent.

Nissim veut faire passer ce message non seulement aux programmeurs mais aussi aux utilisateurs. “Il est important pour nous tous de réaliser que ces programmes informatiques ne sont pas objectifs et que tout ce que nous trouvons en ligne n’est pas vrai”, dit-elle. `Il existe maintenant des programmes capables de créer des vidéos extrêmement réalistes basées sur du texte. Ils ont l’air incroyablement réels, mais rien de ce que vous voyez dans la vidéo ne s’est réellement produit. Les outils qui sont développés pour détecter les fausses informations s’améliorent de mieux en mieux, c’est vrai, mais la technologie utilisée pour concocter ces informations progresse tout aussi rapidement.

Cela dit, la dernière chose que veut Nissim, c’est que les gens aient peur de la technologie. `C’est fantastique de voir tout ce qui peut être fait, et bien sûr nous voulons exploiter pleinement tout ce potentiel. C’est juste que nous devons être conscients que les programmes informatiques ne sont pas parfaits. Nous devons rester critiques lorsque nous décidons de la manière d’appliquer ce qui est technologiquement possible, et cela nécessite que les personnes et les machines travaillent ensemble. Tant que nous faisons cela, nous pouvons continuer à accueillir de nouveaux développements.

À propos de Malvina Nissim

La professeure Malvina Nissim (1975) a étudié la linguistique à l’Université de Pise et a obtenu son doctorat en 2002 pour une thèse intitulée “Bridging Definites and Possessives: Distribution of Determiners in Anaphoric Noun Phrases”. Elle a travaillé dans des instituts de recherche à Édimbourg, Rome et Bologne avant de rejoindre la Faculté des arts de l’Université de Groningue en 2014, où elle a été nommée professeur de linguistique computationnelle et société en 2020. Elle a été élue UG Lecturer of the Year en 2017.

Nissim dirige une équipe de recherche qui travaille actuellement au développement d’applications prenant en charge l’interaction basée sur le langage. L’équipe utilise des modèles informatiques pour étudier le fonctionnement du langage et de la communication basée sur le langage. Une publication récente écrite par Nissim avec le doctorant UG Gosse Minnema, chercheur UG Dr. Tommaso Caselli, et deux collègues de l’Université de Pavie (Chiara Zanchi et Sara Gemelli) sur la recherche en linguistique computationnelle à fort impact social viennent d’être sélectionnés comme meilleur article lors d’une conférence internationale sur les technologies du langage.

Plus d’informations

By Marjolein te Winkel / Photos Henk Veenstra

AVIS DE NON-RESPONSABILITÉ: La version française de ce communiqué de presse est une traduction du communiqué de presse original, qui est rédigé en anglais, et est uniquement à des fins d’information. En cas de divergence, la version anglaise de ce communiqué de presse prévaudra.

SOURCE: University of Groningen

MORE ON UNIVERSITY OF GRONINGEN, ETC.:

EDITOR'S PICK:

Comments are closed.