Les adolescents utilisent de plus en plus l’intelligence artificielle et c’est maintenant un problème: les données

Gli adolescenti usano sempre di più l’intelligenza artificiale e questo ora è un problema: i dati

Un sondage de la Fondation Téléphone Azzurro a révélé que l’IA risque de se substituer aux adultes dans leur rôle de guide dans la relation avec les enfants et quels pourraient être les moyens de garantir une utilisation consciente et sûre.

Interview d’Ernesto Caffo
Président de la Fondation Téléphone Azzurro

Image

« Que pensez-vous connaître de l’intelligence artificielle? ». C’est l’une des questions posées aux plus de 800 jeunes âgés de 12 à 18 ans qui ont participé au sondage mené par la Fondation Téléphone Azzurro – en collaboration avec Bva Doxa – à l’occasion de la « Journée mondiale de la sécurité sur Internet ». « Chaque année – a expliqué Ernesto Caffo, président de la Fondation Téléphone Azzurro – nous approfondissons un sujet clé pour la sécurité des mineurs et pour 2024, le choix ne pouvait pas ne pas porter sur l’intelligence artificielle et ses multiples applications ».

Alors qu’au départ, environ 94% des jeunes ont déclaré en avoir entendu parler, lorsque qu’ils ont pu lire la définition correcte de l’intelligence artificielle, seulement 9% ont confirmé en avoir une bonne connaissance. Pourtant, malgré le fait que 40% admettent connaître l’intelligence artificielle « comme ça », plus de six jeunes sur dix ont une opinion positive de l’IA.

Un des thèmes qui ressort du sondage est l’existence chez les jeunes utilisateurs d’un écart entre la facilité avec laquelle ils abordent l’utilisation de l’intelligence artificielle et la conscience réelle de son fonctionnement, mais surtout de ses risques réels. Caffo a expliqué à Netcost-security.fr pourquoi il est essentiel que cet écart soit comblé aussi rapidement que possible et quels sont les outils disponibles pour le faire.

Combien d’adolescents ont essayé l’intelligence artificielle
Sur les plus de 800 participants au questionnaire, 63% ont déclaré avoir essayé au moins une fois des produits ou des services basés sur l’intelligence artificielle. Au cours des trois derniers mois, seuls 7% n’en ont jamais utilisé et 70% recommanderaient ces applications à leurs amis et à leur famille. Il ne fait aucun doute que les jeunes sont les plus enclins à utiliser l’IA, mais cela ne garantit pas qu’ils soient capables de l’utiliser correctement et de se protéger lorsqu’ils le font, comme l’explique Caffo. « Les jeunes d’aujourd’hui savent utiliser ces outils sans problème, même mieux que leurs parents et leurs enseignants. Ils en comprennent les multiples utilisations, mais il est important qu’ils soient également conscients des risques liés à leur utilisation ».

« C’est pourquoi – poursuit le président de l’organisation – nous adultes devons porter notre attention sur tous les canaux de contact entre les jeunes et le monde numérique, y compris les chatbots, qui risquent de se substituer aux adultes dans la pratique, les privant ainsi de ce rôle de guide nécessaire à leur croissance ».

Plus d’outils pour protéger la vie privée
« Afin d’assurer la sécurité des enfants, il est nécessaire d’agir sur deux fronts », avertit Caffo. « D’une part, les jeunes doivent être conscients des potentialités et des risques de l’IA, et d’autre part, nous avons besoin d’outils de réglementation ». En ce qui concerne le premier point, la stratégie pour le réaliser repose entièrement sur la formation : « Il faut parler d’intelligence artificielle à l’école et à la maison. La solution consiste à introduire l’intelligence artificielle dans les écoles, à en faire un véritable outil d’opportunité et d’apprentissage pour les jeunes, mais pour réussir, il est essentiel de former d’abord les enseignants ».

Le deuxième objectif implique l’introduction d’outils techniques pour protéger les mineurs, mais il faut le faire dès maintenant : « Il faut bloquer toute situation dangereuse pour les jeunes avant même qu’elle ne se produise et non après, lorsque cela pourrait être trop tard ».

La proposition d’une application « Take it down »
À l’occasion du « Safer Internet Day », la Fondation Téléphone Azzurro a proposé l’introduction d’un outil spécifique pour la sécurité en ligne des images, le « Take it down » : « Il s’agit d’une fonction qui permettrait aux utilisateurs de demander la suppression définitive des images personnelles devenues publiques sans leur consentement ou dont la présence en ligne ne correspond plus à la volonté du propriétaire ». Cet outil devrait limiter des phénomènes tels que la diffusion inappropriée d’images personnelles ou leur exploitation sexuelle. Une plateforme portant le même nom, lancée par le National Center for Missing and Exploited Children (NCMEC) et financée en partie par Meta, est déjà en ligne pour bloquer la diffusion en ligne de matériel intime non consensuel, qui est souvent publié par des tiers sous forme de revenge porn.

La protection de son image est un sujet délicat dont la plupart des plus jeunes ne sont pas conscients : seulement 21% d’entre eux ont indiqué parmi les risques de l’utilisation de l’IA celui de la création d’images pouvant nuire à leur réputation ou à celle des autres.

Le risque d’isolement social
Lorsque l’on parle des risques de l’IA pour les mineurs, on fait généralement référence à toute une série de dangers concrets liés à leur utilisation. Parmi ceux-ci figurent les préoccupations concernant la vie privée, l’exploitation et l’abus sexuel d’images de mineurs, ainsi que les possibles phénomènes d’automutilation ou de cyberharcèlement. Seule une petite partie des jeunes est réellement consciente de ces dangers : seulement 31% craignent un vol d’identité et 28% se préoccupent de leur vie privée et de la sécurité insuffisante de leurs données personnelles.

Cependant, on parle encore trop peu du risque d’isolement social auquel l’IA pourrait exposer les utilisateurs les plus jeunes. « Déjà maintenant, les jeunes utilisent des chatbots et des applications dans leurs activités quotidiennes, mais le risque est qu’ils arrêtent de parler aux adultes et qu’ils préfèrent demander à ChatGPT plutôt qu’à leurs enseignants et parents », comme il est indiqué dans le dossier de Téléphone Azzurro :

« Un risque significatif est l’isolement social, car les enfants pourraient devenir tellement dépendants des plateformes en ligne qu’ils s’isolent de la vie réelle, compromettant leur capacité à se connecter aux autres ».

Aujourd’hui, les données le confirment au moins en partie : si 77% des participants ont parlé de sujets liés à l’IA avec quelqu’un, 40% l’ont fait avec des amis, seulement 38% avec leurs parents et 31% avec leurs enseignants. Déjà aujourd’hui, 42% des adolescents utilisent l’IA pour trouver des réponses à leurs problèmes.