Selon les avancées qui ont émergé jusqu’à présent, Giove devrait être un logiciel capable d’étudier les données des commissariats et de définir quand et où concentrer le nombre d’agents en service.
Entretien avec Giovanni Battista Gallus
Avocat expérimenté en droit de la vie privée et des technologies
Jupiter. La planète avec la plus grande masse du système solaire. Le père des dieux du Panthéon de la Rome antique. Logiciel de police prédictif à l’ère du gouvernement dirigé par Giorgia Meloni. Ces derniers jours, la nouvelle s’est répandue que le ministère de l’Intérieur avait l’intention d’apporter ce logiciel à tous les commissariats de police en Italie. Les détails sur le programme, les données qu’il peut traiter et surtout l’impact qu’il peut avoir sur le travail de la police ne sont pas clairs. Dès les premières informations, il est apparu qu’il s’agit d’un système capable d’analyser les données détenues par les forces de police et de fournir ensuite des suggestions sur la manière de répartir le travail des agents disponibles. Où s’attendre à plus, quels jours, à quelles heures ou à quels événements.
Nous sommes dans une zone grise. Les capacités de Jupiter ne sont pas encore claires et donc ses risques non plus. Le 6 juin, le sénateur Filippo Sensi (PD) a soumis une question parlementaire au ministère de l’Intérieur. Pas seulement. Avant d’être disponible, le logiciel devra encore passer par l’approbation du garant de la confidentialité, une autorité qui, par le passé, avait déjà bloqué les tentatives d’introduction de telles technologies. Un exemple surtout était celui de la vidéosurveillance dans la gare de Côme. Un système de caméra vidéo connecté à un logiciel de reconnaissance faciale qu’en février 2020, le Garant a demandé de supprimer.
Où les systèmes de police prédictifs sont utilisés
Giovanni Battista Gallus est un avocat expert en droit de la vie privée et des technologies. Il a expliqué à Netcost-security.fr qu’en dehors de l’Italie, il y a déjà eu des cas dans lesquels de tels systèmes ont été utilisés : « Beaucoup de ces exemples viennent des États-Unis. Dans plusieurs villes, des logiciels de police prédictive ont été introduits puis progressivement supprimés. Le principal problème est qu’ils ont créé trop de discrimination, en dirigeant les contrôles des agents uniquement vers certaines ethnies ou certains quartiers ».
Discrimination algorithmique
Dans le Blueprint for an AI Bill of Rights publié sur le site de la Maison Blanche, on peut également lire un néologisme lié à ce type de risque : Algorithmic Discrimination. Une formule que nous pourrions traduire en italien avec Discrimination Algorithmique. Cela se produit lorsqu’un logiciel « contribue à un traitement différent injustifié ou a un impact négatif sur des personnes en raison de leur race, de leur sexe (y compris la grossesse, l’accouchement et les conditions médicales connexes, l’identité de genre et l’orientation sexuelle), de la religion, de l’âge, de l’origine, du handicap, des informations génétiques ou de toute autre classification protégé par la loi ».
Confidentialité et rôle du Garant
Une autre classe de problèmes liés à ce type de logiciel est celle de la confidentialité. Une question sur laquelle le Garant devra intervenir directement. Gallus explique toujours : « Pour des mesures de ce genre, le Garant dispose d’un délai de huit semaines pour exprimer son avis. Il y a différents points qui devront être pris en considération, à commencer par le traitement des données utilisées pour développer ce logiciel ». Sans oublier que comme l’a expliqué le député européen Brando Benifei (PD) à Netcost-security.fr, la semaine prochaine un règlement sera discuté au Parlement européen qui définit les domaines d’utilisation de l’intelligence artificielle, y compris ceux dédiés à la sécurité.
Il y a deux points sur lesquels analyser le traitement des données. Le premier concerne les données qui servent à entraîner les algorithmes pour apporter des réponses aux questions posées par les forces de l’ordre.Beaucoup de doutes sont ici à lever. D’où viennent ces données ? Combien de temps sont-ils conservés sur les serveurs ? Où sont situés les serveurs ? En Italie, dans l’Union européenne ou encore en dehors ?
Le deuxième point concerne la gestion de la liberté personnelle des sujets. Gallus encore : « Si, sur l’indication de cet algorithme, je continue et suis arrêté par la police pour des crimes que je ne commente pas, alors cela peut affecter ma liberté personnelle. En tout cas, avant toute application, il vaudrait mieux attendre la décision du Parlement européen sur la loi Ai ».
Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :
