Éthique & IA
Type de projet
Projet de recherche académique, étude qualitative
Rôle
Travail de groupe (3 personnes)
Contexte
Projet mené sur un semestre complet dans le cadre d’une étude collective initiée par l’école autour des enjeux éthiques de l’intelligence artificielle. Toute la promotion travaillait sur le même thème général (biais, risques, dérives, usages), puis chaque groupe définissait sa propre problématique en sélectionnant un thème et un sous-thème à investiguer.
Objectif
Mener une recherche approfondie combinant entretiens, références théoriques et analyse critique, afin d’identifier des mécanismes éthiques spécifiques liés à notre sous-thème, et de proposer un artefact conceptuel en conclusion.
Date
Février - Juin 2025
Contenu présenté
Résumé de l’étude, résultats clés et artefact final
Problématique
Les IA génératives créent des images impressionnantes… mais profondément biaisées.
Notre question : Comment sensibiliser les jeunes publics aux stéréotypes visuels produits par les IA, et leur apprendre à les repérer, les comprendre et les contourner ?
Méthodologie
12 entretiens semi-directifs auprès d’étudiant·es en design
Analyse qualitative et catégorisation des réponses
Revue de littérature critique (Haraway, Crawford, Benjamin, Bourdieu)
Veille sur les dérives (deepfakes, sexualisation, homogénéisation esthétique)
Synthèse collective et reformulation des insights
Insights clés de l’enquête
Les biais sont visibles… mais normalisés.
Les utilisat·eurs·rices repèrent les clichés (genre, couleur de peau, sexualisation), mais les perçoivent comme « normaux » ou « inévitables ».L’esthétique IA uniformise la création.
De nombreux étudiants constatent que “tout se ressemble”. Les images générées imposent une “norme IA” qui influence les imaginaires.L’IA est perçue comme neutre.
Confusion fréquente : “Si c’est l’IA qui génère, ce n’est pas vraiment moi.” Il y a une déresponsabilisation et une illusion d’objectivité.Les risques sont mal identifiés.
Confiance excessive dans les filtres et méconnaissance des dérives (deepfakes, illusions réalistes).
Réponse design : le kit pédagogique DcodeIA
Un dispositif hybride pensé pour sensibiliser aux biais visuels, développer l’esprit critique et encourager une création plus inclusive.
Contenu du kit
Livret pédagogique
Comparatifs “image biaisée vs inclusive”
Atelier collaboratif “Vrai / Faux”
Module de prompts inclusifs
Support d’animation pour médiateurs
Fonctionnement du dispositif
Observer, identifier les indices visuels (postures genrées, blanchiment, sexualisation, uniformisation esthétique).
Débattre, analyser collectivement les images et confronter les perceptions.
Comprendre, expliquer simplement comment les biais se construisent dans les datasets.
Créer, générer des images via des prompts guidés pour éviter les stéréotypes.
Partager, comparer les résultats et discuter des choix créatifs.
Scénario d’usage
Un étudiant en design découvre deux portraits générés par IA : l’un stéréotypé, l’autre retravaillé. Guidée par le livret, il identifie les biais visibles.
Il crée ensuite sa propre image via un module de prompts inclusifs, puis discute du résultat avec son groupe.
Il repart avec un support visuel qu’elle pourra réutiliser dans ses projets.
Impact
Développe la lecture critique des images générées
Rends visibles les stéréotypes invisibles
Encourage une création plus juste et consciente
Donne aux jeunes des outils pour comprendre la culture visuelle IA
