L’actualité des derniers temps aura mis de l’avant deux phénomènes contemporains extrêmement problématiques : une peur généralisée des figures féminines fortes et émancipées auprès de certaines franges de la population et la facilité avec laquelle il est possible de créer de fausses images en cette ère de montée de l’intelligence artificielle (IA). Si vous vous demandez ce que ces deux phénomènes ont en commun, la réponse est relativement simple : Taylor Swift. En effet, la circulation récente de fausses images pornographiques de la grande vedette, générées par divers outils relevant de l’IA, révèle de réelles problématiques en lien avec l’égalité entre les sexes et les genres, et la violence contre les femmes. À l’approche du 8 mars, Journée internationale des droits des femmes, il semble tout à fait pertinent de se pencher sur ces phénomènes inquiétants. 

Les images pornographiques créées artificiellement, qu’on nomme hypertrucages (traduction du terme anglais deepfake, un mot apparu en anglais vers 2017), constituent un phénomène qui n’est pas nouveau en soi. La manipulation photographique existe depuis presque aussi longtemps que la photographie elle-même, et cette manipulation visuelle a rapidement été appliquée aux images en mouvement. Par contre, l’arrivée de l’IA rend particulièrement ardue la tâche de distinguer le faux du vrai. En fait, l’arrivée de la manipulation numérique des images met à mal, et depuis longtemps, la proclamation livrée par Roland Barthes selon laquelle une photo incarne la preuve que « ça-a-été ». En effet, dans La chambre claire. Essai sur la photographie, le philosophe et sémiologue français se livre à une étude de la photographie et conclut, en fin d’ouvrage, qu’une photographie repose sur une cible réelle, qui a été captée par l’objectif, et qui a donc « été », ne serait-ce qu’un bref moment. Bien entendu, rien dans les images d’hypertrucages n’a « été », si ce n’est des images tout à fait triviales disponibles dans l’espace public à partir desquelles les outils d’IA peuvent générer ces fausses images pornographiques. Bien sûr, le phénomène des fausses images générées par IA représente un danger flagrant pour la santé de nos démocraties, notamment par leur capacité à donner de la matérialité à de fausses informations. Cependant, dans le cas qui nous occupe ici, ces technologies perpétuent également, par l’entremise des images pornographiques d’hypertrucage, une misogyne socionumérique entièrement décomplexée. 

Crédit photo : (2009) Kathy Hutchins / Hutchins Photo

Plusieurs établissent des comparaisons entre les hypertrucages et le phénomène de la pornodivulgation (revenge porn), cette tendance de certains amants frustrés à diffuser en ligne des images au contenu sexuel de leur ex-amante. Ces images, généralement captées dans le contexte intime et consensuel d’une vie de couple, sont récupérées comme arme particulièrement violente et visent ainsi à établir un rapport de pouvoir fort problématique. Dans le cas typique, un homme frustré de s’être fait laisser par sa conjointe choisit de diffuser de telles images pour lui nuire et/ou pour la blesser. Ainsi, le dénominateur commun entre la pornodivulgation et l’hypertrucage repose d’une part sur l’absence de consentement. Que l’image « ait été », comme dans le cas de la pornodivulgation, ou qu’elle soit entièrement fausse, comme avec l’hypertrucage, il y a diffusion non consensuelle de contenus explicites mettant en scène l’image d’une personne. Cette perte de contrôle sur sa propre image constitue une forme de violence particulièrement abjecte, surtout dans le contexte contemporain où l’image revêt une importance prédominante. D’autre part, le dénominateur commun entre les deux phénomènes repose sur la misogyne. Si vous trouvez que je généralise grossièrement en plaçant les victimes de ces phénomènes comme féminines, et les contrevenants comme masculins, notez que c’est parce que c’est le cas dans plus de 95 % des cas de ce type de violence. Alors oui, on peut se permettre de généraliser, parce que c’est un problème extrêmement important qui, à lui seul, rend pertinent un questionnement féministe aujourd’hui. 

Le cas des hypertrucages mettant en scène Taylor Swift est particulièrement révélateur de la misogynie contemporaine, ancrée dans la peur de la féminité. D’emblée, il est à noter que Taylor Swift représente un excellent exemple de réussite féminine, non seulement en raison de la popularité de sa musique – qui fracasse des records –, mais aussi en raison de son apparente force de caractère. En effet, sa lutte pour les droits de diffusion des enregistrements de ses six premiers albums l’a menée à tenir tête à une industrie en grande partie masculine1 en réenregistrant quatre de ces albums, afin de pouvoir les diffuser tout en contournant la compagnie qui détenait ses enregistrements précédents. Dans cette optique, la diffusion des hypertrucages la mettant en scène dans des séquences hautement explicites est frappante de misogynie. Comme le formule Laura Bates dans un article récemment paru dans The Guardian, « c’est une nouvelle façon de contrôler les femmes. Vous prenez quelqu’un comme Swift, qui est incroyablement prospère et puissante, [et] c’est une façon de dire à toute femme : peu importe qui tu es ou combien tu es puissante – on peut te réduire au statut d’objet sexuel et il n’y a rien que tu puisses y faire ». 

On aura tôt fait de souligner que ce ne sont pas toutes les victimes qui peuvent provoquer un soulèvement de bouclier comme ce fût le cas pour Taylor Swift. Souhaitons que ce cas de figure, qui éclipse une infinité de victimes anonymes, puisse pousser à l’action afin non seulement que nos gouvernements légifèrent contre ces nouveaux fléaux, mais surtout afin que nous cessions d’élever des garçons et des hommes qui trouvent cela acceptable. 


Auteur/trice