4. Des garde-fous absents, une légèreté inquiétante (4/6)
On a mis dans les mains de chacun des outils jadis réservés à une élite. Et on l’a fait sans manuel, sans avertissement, sans éducation au sens, à l’éthique, à la puissance de ce que l’on tenait là.
Aujourd’hui, n’importe qui peut générer un texte, une image, une voix, une vidéo truquée. Il suffit de quelques clics. Pas besoin de compétence, ni de conscience. On crée, on publie, on diffuse. Parce que c’est drôle, parce que c’est rapide, parce que c’est possible.
Mais cette facilité débride aussi les dérives.
Deepfakes, plagiats massifs, usurpation d’identité, fake news à grande échelle… Le tout dans un climat d’irresponsabilité généralisée. "C’est l’outil qui l’a fait", "je testais", "je voulais juste voir".
L’intelligence artificielle, comme d’autres technologies avant elle, déresponsabilise l’utilisateur. On ne sait plus vraiment qui est l’auteur, ni même s’il y en a un. La technologie produit, l’humain relaie.
Et cette absence de garde-fous va au-delà des cas extrêmes.
Elle est dans nos vies quotidiennes.
Elle est dans la légèreté avec laquelle on s’expose, on consomme, on commente, on enregistre tout.
On partage nos visages, nos voix, nos pensées les plus intimes sur des plateformes opaques.
On enregistre nos enfants, nos familles, nos habitudes, dans des bases de données que nous ne contrôlons pas.
On délègue notre mémoire, notre créativité, parfois même nos choix.
Et personne ne nous a préparés à cela.
Aucun cours à l’école pour apprendre à discerner une vraie image d’un montage.
Aucune campagne massive pour expliquer ce que deviennent nos données.
Aucune formation à la responsabilité numérique — seulement des conditions d’utilisation qu’on ne lit jamais.
C’est un peu comme si on avait confié une voiture de course à des enfants… en leur disant seulement "Amusez-vous bien !"