Comment l'IA peut-elle lutter contre le cyberharcèlement ?
Bonjour à toutes et à tous et bienvenue dans le podcast Prompt Réponse. Aujourd'hui, un sujet brûlant: cyberharcèlement et l'intelligence artificielle
Le fléau des réseaux sociaux, le cyberharcèlement touche des milliers de personnes chaque jour, mais l'IA peut-elle aggraver ou, au contraire, lutter contre ce phénomène ?
Marlène Dulaurans, maître de conférences spécialisée en cybercuminalité et en cyberharcèlement, va nous définir le terme de cyberharcèlement.
Comment Comment je définirais le cyberharcèlement ? C'est une vaste question qui est bien problématique parce qu'à ce jour, nous n'avons toujours pas réussi à trouver un consensus scientifique qui nous donne une définition claire de ce qu'est le cyberharcèlement. Il n'y a pas une pratique de cyberharcèlement. Il y a une multiplicité de pratiques de cyberharcèlement. Et moi, tout mon travail de recherche a consisté justement à essayer de cartographier ces pratiques. Et j'en ai identifié avec la Gendarmerie nationale plus de 40, chacune ayant des mécanismes de violences sous-jacents propres, avec un cadre légal bien particulier. Et puis, en plus, des modes sociaux techniques ou des dispositifs numériques à chaque fois singuliers. C'est ça toute ambiguïté, c'est qu'il y a une multitude de pratiques et que réduire cela à une définition du cyberharcèlement, c'est déjà ne pas comprendre ce que sont ces pratiques de cyberharcèlement.
Comme vous venez d'entendre, il n'existe pas de définition universel et strictement établie du terme cyberharcèlement. Cependant, on désigne généralement l'ensemble des comportements agressifs répétés et intentionnels perpétrés via des outils numériques tels que les réseaux sociaux, les messagers cette année pour les forums en ligne dans le but de nuire, intimider ou démêler une personne.
Nous allons ensuite interroger une personne qui a déjà été victime de cyberharcèlement et notamment de deepfake. Un deepfake, c'est une technique qui utilise l'intelligence artificielle pour manipuler des images, des vidéos ou des sons afin de faire ou dire à quelqu'un des choses qu'il n'a jamais dites ou faites.
Oui, j'ai déjà été victime de cyberharcèlement. J'étais victime de type fake. Donc, on a utilisé ma tête pour faire des vidéos où je dansais à mon insu. Et on m'a fait d'autres choses, mais c'était vraiment intradifable et je souhaite ça à personne.
Nous avons eu le privilège d'interviewer Olivia Flipo, avocate en numérique et en digital, qui va nous éclairer sur l'impact de la démocratisation de l'intelligence artificielle et son rôle sur l'augmentation du cyberharcèlement.
On n'a pas de statistiques, donc on ne peut pas encore, pour le moment, vraiment savoir. Mais ce qui est certain, c'est que l'algorithme, l'intelligence artificielle, finalement, c'est un algorithme, est utilisé depuis longtemps par les réseaux sociaux, bien avant qu'on parle de l'intelligence artificielle telle qu'on en parle aujourd'hui. Et on voit bien que depuis qu'existent les réseaux sociaux, le cyberharcèlement est né et s'amplifie quotidiennement, même si on cherche à lutter contre. D'une certaine façon, on peut dire que l'utilisation d'algorithmes, de recommandables notamment sur les réseaux sociaux, accentue, aggrave le risque de cyberharcèlement.
Notre spécialiste, Marlène Dulaurans, va d'ailleurs nous donner son opinion sur la manière dont les intelligences artificielles sont et devraient être utilisées à l'avenir dans la lutte contre le cyberharcèlement.
Le rôle de l'IA dans le cyberharcèlement peut être majeur dès lors qu'on ne l'utilise pas pour générer de nouvelles formes de déviance. Mais si on prend les intelligences artificielles de manière constructive, elles peuvent intervenir à de multiples niveaux pour lutter contre ces pratiques de cyberharcèlement. On utilise de l'intelligence artificielle pour faire de la détection automatique de contenu misible, c'est-à-dire C'est-à-dire qu'on va s'appuyer sur du traitement du langage naturel pour essayer d'identifier des marqueurs discursifs qui font violence. Donc déjà, on peut faire de la détection automatique de contenu misible. Les IA, elles peuvent nous aider également en matière de signalement et d'assistance aux victimes. On peut même faire de la prévention, voire de l'éducation grâce au chatbot. L'ia peut également, de manière plus prédictive, nous aider à faire de l'analyse de tendances ou l'analyse de nouveaux phénomènes de violences qui émergent.
Le cyberharcèlement et l'IA sont deux grands défis de notre monde numérique. L'ia apporte des solutions intéressantes, mais elle n'est pas parfaite et ne remplace pas notre responsabilité. C'est pourquoi la sensibilisation et la régulation et l'intervention restent indispensables. Un grand merci à tous nos intervenants et à vous, chers auditeurs, pour votre écoute. Et à la prochaine sur Prompt et Réponse.