Google ne fait pas confiance à Bard et demande à ses employés de ne pas partager d’informations sensibles avec le chatbot

Google ne fait pas confiance à Bard et demande à ses employés de ne pas partager d'informations sensibles avec le chatbot

Les employés de Google ont été informés par l’entreprise des risques liés à l’utilisation de chatbots sur le lieu de travail.

Google ne fait pas confiance à Bard et demande à ses employés de ne pas partager d'informations sensibles avec le chatbot
Bard est le chatbot basé sur l’IA de Google, destiné à concurrencer ChatGPT

Google ne semble pas favorable à ce que ses employés utilisent des chatbots sur le lieu de travail, y compris son propre service, Bard. C’est du moins ainsi que des sources proches de l’entreprise l’auraient confirmé à l’agence Reuters, qui assure que Google a informé ses employés sur les risques de ce type d’outil.

Surtout, Google souhaite que son personnel évite de partager des informations confidentielles avec des chatbots comme Bard ou ChatGPT pour réduire les risques de fuites d’informations liées à leurs projets ou technologies en développement.

Google craint que ses employés partagent des informations sensibles avec Bard

Bien qu’ayant présenté Bard comme un outil sûr et respectueux de la vie privée, Google préférerait que ses employés limitent l’utilisation du chatbot dans leur environnement de travail, notamment lorsqu’il s’agit de partager des informations confidentielles ou des données sensibles.

Dans le passé, il a été démontré que certains chatbots avaient la capacité « d’absorber » les données obtenues lors de leurs conversations avec les utilisateurs pour les utiliser lors de leur apprentissage, et plus tard, on a vu comment ils répétaient ces données dans d’autres conversations totalement différentes, ainsi augmentant le risque de fuites d’informations sensibles. En dehors de cela, dans certains cas, le contenu partagé avec les chatbots est examiné par des humains, ce qui entraîne un autre risque pour la confidentialité.

De la même manière, Google n’est pas totalement convaincu de l’efficacité de ce type d’outils dans certaines tâches, comme celles liées à la programmation. Par conséquent, il aurait été suggéré aux employés d’éviter d’utiliser le code généré par les chatbots, car il peut contenir des erreurs.

Apple et Samsung ont également limité l’utilisation des chatbots à leurs employés

Google a été le dernier à « suggérer » aux utilisateurs d’éviter d’utiliser Bard et le reste des chatbots pendant leurs activités professionnelles, ou du moins de ne pas partager d’informations confidentielles avec eux. Néanmoins, n’est pas le seul.

Samsung a été l’un des premiers à interdire l’utilisation de ChatGPT à ses employés, et a décidé de se lancer dans le développement de son propre outil destiné à être utilisé par son personnel.

Peu de temps après, Apple a pris des mesures similaires en limitant l’utilisation de ChatGPT et d’autres outils similaires basés sur l’IA à ses employés, également par crainte de fuites d’informations.

Le cas de Google est encore plus frappant, puisqu’il ne semble même pas sûr que son propre outil sera capable de garder secrètes les données obtenues lors des conversations avec les utilisateurs.

Détente, découvrez l’évolution du nombre de smartphones vendus par marque au fil du temps dans la vidéo ci-dessous :

YouTube video