Éthique & IA

Type de projet

Étude sur l’éthique de l’IA

Date

Février - Juin 2025

Contexte

Ce projet s’inscrit dans une recherche collective portant sur les enjeux éthiques liés à l’intelligence artificielle. À partir d’un thème commun à l’ensemble des groupes, chaque équipe a défini une problématique spécifique à investiguer.

Notre travail a consisté à mener une recherche approfondie combinant entretiens, références théoriques et analyse critique, afin d’identifier des mécanismes éthiques précis liés à notre sous-thème et de proposer, en conclusion, un artefact conceptuel comme réponse spéculative.

Outils

Miro, Condens, Photoshop

Compétences

Recherche qualitative, analyse critique, design spéculatif

Contenu présenté

Résumé de l’étude, résultats clés et artefact final

Problématique

Les IA génératives créent des images impressionnantes… mais profondément biaisées.

Notre question : Comment sensibiliser les jeunes publics aux stéréotypes visuels produits par les IA, et leur apprendre à les repérer, les comprendre et les contourner ?

Méthodologie

  • 12 entretiens semi-directifs auprès d’étudiant·es en design

  • Analyse qualitative et catégorisation des réponses

  • Revue de littérature critique (Haraway, Crawford, Benjamin, Bourdieu)

  • Veille sur les dérives (deepfakes, sexualisation, homogénéisation esthétique)

  • Synthèse collective et reformulation des insights

Insights clés de l’enquête

  1. Les biais sont visibles… mais normalisés.
    Les utilisat·eurs·rices repèrent les clichés (genre, couleur de peau, sexualisation), mais les perçoivent comme « normaux » ou « inévitables ».

  2. L’esthétique IA uniformise la création.
    De nombreux étudiants constatent que “tout se ressemble”. Les images générées imposent une “norme IA” qui influence les imaginaires.

  3. L’IA est perçue comme neutre.
    Confusion fréquente : “Si c’est l’IA qui génère, ce n’est pas vraiment moi.” Il y a une déresponsabilisation et une illusion d’objectivité.

  4. Les risques sont mal identifiés.
    Confiance excessive dans les filtres et méconnaissance des dérives (deepfakes, illusions réalistes).

Réponse design : le kit pédagogique DcodeIA

Un dispositif hybride pensé pour sensibiliser aux biais visuels, développer l’esprit critique et encourager une création plus inclusive.

Contenu du kit

  • Livret pédagogique

  • Comparatifs “image biaisée vs inclusive”

  • Atelier collaboratif “Vrai / Faux”

  • Module de prompts inclusifs

  • Support d’animation pour médiateurs

Fonctionnement du dispositif

  1. Observer, identifier les indices visuels (postures genrées, blanchiment, sexualisation, uniformisation esthétique).

  2. Débattre, analyser collectivement les images et confronter les perceptions.

  3. Comprendre, expliquer simplement comment les biais se construisent dans les datasets.

  4. Créer, générer des images via des prompts guidés pour éviter les stéréotypes.

  5. Partager, comparer les résultats et discuter des choix créatifs.

Scénario d’usage

Un étudiant en design découvre deux portraits générés par IA : l’un stéréotypé, l’autre retravaillé. Guidée par le livret, il identifie les biais visibles.

Il crée ensuite sa propre image via un module de prompts inclusifs, puis discute du résultat avec son groupe.

Il repart avec un support visuel qu’elle pourra réutiliser dans ses projets.

Impact

  • Développe la lecture critique des images générées

  • Rends visibles les stéréotypes invisibles

  • Encourage une création plus juste et consciente

  • Donne aux jeunes des outils pour comprendre la culture visuelle IA

Dernière mise à jour : Janvier 2026

Dernière mise à jour : Janvier 2026

Dernière mise à jour : Janvier 2026