Éthique & IA

Type de projet

Projet de recherche académique, étude qualitative

Rôle

Travail de groupe (3 personnes)

Contexte

Projet mené sur un semestre complet dans le cadre d’une étude collective initiée par l’école autour des enjeux éthiques de l’intelligence artificielle. Toute la promotion travaillait sur le même thème général (biais, risques, dérives, usages), puis chaque groupe définissait sa propre problématique en sélectionnant un thème et un sous-thème à investiguer.

Objectif

Mener une recherche approfondie combinant entretiens, références théoriques et analyse critique, afin d’identifier des mécanismes éthiques spécifiques liés à notre sous-thème, et de proposer un artefact conceptuel en conclusion.

Date

Février - Juin 2025

Contenu présenté

Résumé de l’étude, résultats clés et artefact final

Problématique

Les IA génératives créent des images impressionnantes… mais profondément biaisées.

Notre question : Comment sensibiliser les jeunes publics aux stéréotypes visuels produits par les IA, et leur apprendre à les repérer, les comprendre et les contourner ?

Méthodologie

  • 12 entretiens semi-directifs auprès d’étudiant·es en design

  • Analyse qualitative et catégorisation des réponses

  • Revue de littérature critique (Haraway, Crawford, Benjamin, Bourdieu)

  • Veille sur les dérives (deepfakes, sexualisation, homogénéisation esthétique)

  • Synthèse collective et reformulation des insights

Insights clés de l’enquête

  1. Les biais sont visibles… mais normalisés.
    Les utilisat·eurs·rices repèrent les clichés (genre, couleur de peau, sexualisation), mais les perçoivent comme « normaux » ou « inévitables ».

  2. L’esthétique IA uniformise la création.
    De nombreux étudiants constatent que “tout se ressemble”. Les images générées imposent une “norme IA” qui influence les imaginaires.

  3. L’IA est perçue comme neutre.
    Confusion fréquente : “Si c’est l’IA qui génère, ce n’est pas vraiment moi.” Il y a une déresponsabilisation et une illusion d’objectivité.

  4. Les risques sont mal identifiés.
    Confiance excessive dans les filtres et méconnaissance des dérives (deepfakes, illusions réalistes).

Réponse design : le kit pédagogique DcodeIA

Un dispositif hybride pensé pour sensibiliser aux biais visuels, développer l’esprit critique et encourager une création plus inclusive.

Contenu du kit

  • Livret pédagogique

  • Comparatifs “image biaisée vs inclusive”

  • Atelier collaboratif “Vrai / Faux”

  • Module de prompts inclusifs

  • Support d’animation pour médiateurs

Fonctionnement du dispositif

  1. Observer, identifier les indices visuels (postures genrées, blanchiment, sexualisation, uniformisation esthétique).

  2. Débattre, analyser collectivement les images et confronter les perceptions.

  3. Comprendre, expliquer simplement comment les biais se construisent dans les datasets.

  4. Créer, générer des images via des prompts guidés pour éviter les stéréotypes.

  5. Partager, comparer les résultats et discuter des choix créatifs.

Scénario d’usage

Un étudiant en design découvre deux portraits générés par IA : l’un stéréotypé, l’autre retravaillé. Guidée par le livret, il identifie les biais visibles.

Il crée ensuite sa propre image via un module de prompts inclusifs, puis discute du résultat avec son groupe.

Il repart avec un support visuel qu’elle pourra réutiliser dans ses projets.

Impact

  • Développe la lecture critique des images générées

  • Rends visibles les stéréotypes invisibles

  • Encourage une création plus juste et consciente

  • Donne aux jeunes des outils pour comprendre la culture visuelle IA

Dernière mise à jour : Janvier 2026

Dernière mise à jour : Janvier 2026

Dernière mise à jour : Janvier 2026