Quoi ?! Dans une nouvelle qui pourrait inquiéter tous ceux qui pensent que l’intelligence artificielle essaie de nous tuer, l’IA d’un supermarché a proposé des plans de repas que vous ne voudriez pas manger. À moins, bien sûr, que vous ayez un penchant pour le gaz chloré, les pommes de terre rôties à la citronnelle, ou les sandwichs au poison pour fourmis et à la colle.
La chaîne de supermarchés néo-zélandaise Pak ‘n’ Save est l’une des nombreuses entreprises à avoir expérimenté l’IA générative. Le résultat est le Savey Meal-bot alimenté par Chat GPT 3.5, qui suggère des plans de repas aux utilisateurs après avoir saisi les détails de tout aliment dont ils disposent. Le bot a seulement besoin de trois ingrédients ou plus pour proposer une recette.
L’idée derrière Savey Meal-bot est qu’il peut aider les personnes à économiser de l’argent pendant la crise du coût de la vie. Mais l’ajout d’articles non alimentaires ou non conventionnels donne des suggestions qui ne semblent pas très appétissantes. Une personne a découvert qu’elle pouvait faire un sauté de légumes à l’Oreo. Il y avait également une recommandation pour des sandwichs au poison pour fourmis et à la colle.
La réponse la plus surprenante était probablement pour quelque chose appelé mélange d’eau aromatique, une recette que le bot a décrite comme « la boisson non alcoolisée parfaite pour étancher votre soif et rafraîchir vos sens ». Malheureusement, la combinaison d’ingrédients crée du gaz chloré, donc à moins que votre idée de sens rafraîchis inclue des vomissements, une suffocation et une possible mort, il vaudrait mieux éviter celui-ci. « Servir frais et profiter du parfum rafraîchissant », dit le bot, du moins jusqu’à ce que vos poumons se remplissent de sang.
The Guardian rapporte quelques autres recommandations qui seraient mieux utilisées pour des tentatives d’assassinat. Un mocktail « haleine fraîche » semble plutôt agréable, à part l’ajout de l’eau de javel.
Il y avait aussi des recommandations pour un riz surprise à base d’eau de Javel, un pain perdu à la térébenthine appelé Methanol Bliss, et des sandwichs empoisonnés.
Trouver ces recettes potentiellement mortelles implique d’ajouter des articles non alimentaires d’usage ménager, mais Savey Meal-bot semble s’en moquer. Un porte-parole du supermarché a déclaré qu’ils étaient déçus de constater que « une petite minorité a essayé d’utiliser l’outil de manière inappropriée et non selon son objectif initial ».
Le porte-parole a ajouté que le supermarché continuerait à peaufiner ses contrôles pour s’assurer que le bot est sûr et utile, ajoutant que les conditions générales précisent que les utilisateurs doivent être âgés de plus de 18 ans. Une notification a maintenant été ajoutée au bot, avertissant que les recettes ne sont pas examinées par un être humain et que l’entreprise ne garantit pas que toute recette constitue un repas complet ou équilibré, ou qu’elle convienne à la consommation.
« Il est nécessaire d’utiliser votre propre jugement avant de vous fier à une recette produite par Savey Meal-bot », précise-t-il.
Insider rapporte que l’entrée d’articles dangereux dans le bot affiche maintenant un message concernant des ingrédients invalides ou vagues, bien qu’il propose toujours des créations intéressantes comme des pâtes au bœuf et au dentifrice.
Dans un autre exemple montrant à quel point les IA génératives sont loin d’être parfaites, une récente expérience dans laquelle ChatGPT a été interrogé sur un grand nombre de questions de programmation logicielle l’a vu se tromper dans la moitié des cas. Cependant, elle a quand même réussi à tromper un nombre significatif de personnes.
Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :
