[10.06.2023] Les différentes formes de discriminations agissent fréquemment comme un vecteur du harcèlement et cyberharcèlement. Elles touchent de nombreuses personnes, et, en particulier, les jeunes. Les conséquences peuvent être dévastatrices, allant de l’angoisse à la dépression, jusqu’à dans des cas extrêmes au suicide. Dans ce contexte, les avatars intelligence artificielle peuvent représenter une approche novatrice pour lutter contre ce type de fléau.
Un des défis dans la lutte contre les différentes formes de discriminations, et le cyberharcèlement qui peut en résulter, est la protection des victimes. Dans un certain nombre de cas, les personnes qui ont été stigmatisées, agressées en ligne, qui ont subi le racisme ou qui ont été exposées à des messages de haine, hésitent à partager leurs expériences par peur de représailles. C’est à ce niveau qu’un avatar animé par une intelligence artificielle peut jouer un rôle intéressant. En utilisant ce type d’avatar, que l’on peut trouver auprès de services tels que Synthesia ou Heygen (exemple vidéo plus bas), il est possible de partager des témoignages sans exposer les victimes ni leur créer une forme d’identité numérique liée à leur témoignage.
Ces avatars IA, mais dont le discours est basé sur un textes produit par l’humain à l’origine du témoignage (afin d’éviter toute forme d’appropriation du message, que ça soit de genre ou culturel), peuvent être utilisés pour faire de la prévention dans divers domaines sensibles tels que le harcèlement, la santé mentale, l’estime de soi, la sexualité et la pornodivulgation, le racisme et toute autre forme de discrimination. L’utilisation d’avatars IA offre plusieurs avantages : en premier lieu, elle protège l’identité de la personne qui s’exprime, ce qui est primordial quand on traite des sujets aussi sensibles. De plus, pour les personnes qui partagent leurs expériences traumatisantes le fait d’exprimer son ressentit à travers ces avatars, peut potentiellement avoir un effet thérapeutique. En partageant leurs expériences sans craindre d’être identifiées, elles peuvent commencer à guérir et à renforcer leur confiance en soi. Parallèlement, ces témoignages servent de matériel pédagogique pour les autres utilisateurs-trices, qui peuvent apprendre de ces expériences sans connaître l’identité réelle de la personne derrière l’avatar, tout en pouvant quand même s’identifier à celle-ci au niveau de leur propre vécu. Le message, quant à lui, reste une création à 100% humaine. Même si aujourd’hui les avatar IA sont imparfaits au niveau de leur capacité à exprimer des émotions, il y a un fort potentiel d’amélioration de leur capacité à le faire de mieux en mieux dans un proche avenir.
Par exemple, si on prend le cas d’une campagne de sensibilisation contre le cyberharcèlement, l’utilisation d’avatars IA permet de proposer de multiples intervenants tout en conservant l’aspect humain du message. Une personne physique écrit le message et c’est l’avatar qui le transmet. Les avatars peuvent exprimer des émotions et interagir de manière réaliste, ce qui peut rendre le message plus engageant et efficace. Sur Tiktok, par exemple, les avatars peuvent également être utilisés pour répondre en vidéo de manière plus exhaustive, alors que le champ destiné aux commentaires par écrit est limité à 150 caractères.
En outre, en cas de harcèlement de meute contre un avatar, les réponses seraient plus faciles à gérer. Les personnes en charge de la campagne ne seraient pas affectées dans leur santé mentale par les commentaires négatifs ou malveillants des détracteurs, car ils seraient dirigés vers l’avatar et non vers une personne réelle. Et de nombreuses personnes, y compris celles qui auraient été victimes de cyberharcèlement pourraient participer à la rédaction des messages de réponse diffusés ensuite par les avatars, sans pour autant s’exposer personnellement.
L’acceptation des avatars IA, en particulier par les jeunes, est un élément clé de leur utilisation dans la lutte contre le cyberharcèlement ou, plus généralement, dans le domaine de la prévention. Le succès de personnages virtuels tels que les mannequins Lil Miquela, Shudu Gram, ou Noonoouri, le footballeur Alex Hunter, ou encore la chanteuse hologramme japonaise Hatsune Miku, montre que les avatars peuvent être perçus comme des interlocuteurs légitimes. Pour favoriser cette acceptation, les avatars doivent être attrayants, engageants et offrir une interaction naturelle. La sensibilisation du public à leur utilité est également essentielle. Bien gérée, cette approche peut constituer une nouvelle stratégie efficace pour lutter contre le cyberharcèlement ou dans d’autres domaines de prévention et aider les victimes à partager leurs expériences en toute sécurité.
Stéphane Koch
Voir aussi, en complément :
- Métavers et virtuel: l’apprentissage au discernement du réel un enjeu de l’éducation aux médias (article/chronique)
- Rethinking cultural appropriation ethics in an AI-generated world (article)
- AI Enabled Chatbot for regulating Mental Health [2023] Cette étude a montré que les gens sont plus ouverts dans les discussions en ligne que dans les consultations en face à face. Cela suggère que les avatars de l’IA pourraient constituer une plateforme sûre et anonyme permettant aux jeunes de partager leurs expériences et de demander de l’aide. Toutefois, l’étude souligne également que les outils d’IA ne peuvent pas remplacer le soutien humain et les services professionnels de santé mentale
- Towards an AI-driven talking avatar in virtual reality for investigative interviews of children [2022] Cette étude est particulièrement pertinente pour le concept d’utilisation d’avatars animés par l’IA à des fins de prévention auprès de la jeune génération. Elle démontre le potentiel des avatars d’IA à fournir une plateforme sûre et anonyme permettant aux jeunes de partager leurs expériences et de demander de l’aide. Elle souligne également l’importance de l’acceptation par les utilisateurs et de la qualité perçue de l’expérience dans la mise en œuvre réussie de tels systèmes. Cependant, il est important de noter que cette étude se concentre sur une application spécifique des avatars d’IA (c’est-à-dire la formation aux entretiens pour le personnel de la CPS (protection de l’enfance)), et que les résultats peuvent ne pas se traduire directement dans d’autres contextes.
- The multifaceted construct of attitudes: Age- and gender-related perspectives on AI, robotics and their users [2022] Cette étude a montré que les gens sont plus ouverts dans les discussions en ligne que dans les consultations en face à face. Cela suggère que les avatars de l’IA pourraient constituer une plateforme sûre et anonyme permettant aux jeunes de partager leurs expériences et de demander de l’aide. Toutefois, l’étude souligne également que les outils d’IA ne peuvent pas remplacer le soutien humain et les services professionnels de santé mentale
- My AI Friend : How Users of a Social Chatbot Understand Their Human-AI Friendship [2022] Cette étude explore le concept d’amitié entre l’homme et l’IA. L’étude a été réalisée au moyen de 19 entretiens approfondis avec des personnes qui entretiennent une relation d’amitié entre l’homme et l’IA avec le chatbot social Replika. L’objectif était de découvrir comment ils comprennent et perçoivent cette amitié et comment elle se compare à l’amitié humaine. Les résultats indiquent que si l’amitié entre humains et IA peut être comprise de la même manière que l’amitié entre humains, la nature artificielle du chatbot modifie également la notion d’amitié de multiples façons. Par exemple, elle permet une amitié plus personnalisée, adaptée aux besoins de l’utilisateur. L’étude examine également les principales caractéristiques de l’amitié, telles que le volontariat et la réciprocité, l’intimité et la similarité, la divulgation de soi, l’empathie et la confiance, et la manière dont ces caractéristiques se traduisent dans la compréhension de l’amitié entre l’homme et l’IA. L’étude conclut que si ces caractéristiques clés peuvent également s’appliquer à l’amitié entre l’homme et l’IA, des nuances importantes doivent être apportées, telles que les possibilités limitées de réciprocité.
- Human Trust in Artificial Intelligence: Review of Empirical Research [2020] Cette étude empirique fournit des informations qui peuvent être appliquées à l’utilisation d’avatars animés par l’IA à des fins de prévention auprès de la jeune génération ::
- Confiance dans l’IA : la compréhension des facteurs qui influencent la confiance dans l’IA peut aider à concevoir des avatars animés par l’IA auxquels les jeunes sont plus susceptibles de faire confiance et de s’engager.
- Forme de représentation de l’IA : La conception des avatars de l’IA, y compris leur apparence et leur expression émotionnelle, peut influencer de manière significative leur acceptation par les jeunes.
- Transparence et fiabilité : Les avatars d’IA doivent être transparents (les utilisateurs doivent comprendre pourquoi ils donnent certains conseils) et fiables (ils doivent fournir des informations cohérentes et exactes) pour être efficaces dans les efforts de prévention.
- Comportements immédiats : Les avatars de l’IA doivent adopter des comportements tels que la proactivité, l’écoute active et la réactivité afin d’instaurer un climat de confiance avec les jeunes.
- Caractéristiques de la tâche : Les avatars IA pourraient être mieux acceptés dans certaines actions de prévention que dans d’autres, en fonction des forces et des faiblesses perçues de la technologie de l’IA.
- Your Robot Therapist Will See You Now: Ethical Implications of Embodied Artificial Intelligence in Psychiatry, Psychology, and Psychotherapy
- Les avatars de l’IA peuvent offrir de nouvelles possibilités de traitement, en atteignant des populations que les méthodes traditionnelles ne peuvent pas atteindre.
- Les avatars d’IA peuvent protéger l’autonomie et la vie privée des patients, en réduisant la gêne ou la honte.
- L’utilisation d’avatars d’IA a des implications éthiques et sociales, notamment l’évaluation des risques, la transparence dans l’utilisation des algorithmes et les préoccupations concernant les effets à long terme.
- Il est nécessaire d’établir des lignes directrices éthiques pour la création et l’utilisation d’avatars d’IA, en abordant des questions telles que la prévention des dommages, l’éthique des données et les lacunes des cadres éthiques et réglementaires.
- Artificial intelligence and Psychiatry: An overview Cet article examine la compréhension actuelle de l’IA, ses types, son utilisation actuelle dans divers troubles de santé mentale, son statut actuel en Inde, ses avantages, ses inconvénients et ses potentiels futurs.