Que savons-nous du projet ReALM, la nouvelle intelligence artificielle d’Apple

Image

Une étude de l’entreprise Cupertino révèle qu’un nouveau grand modèle de langage est plus puissant que ses concurrents pour comprendre le contexte d’une phrase. Cette nouveauté, qui pourrait améliorer l’assistant vocal Siri, pourrait replacer Apple au premier plan de la course à l’intelligence artificielle.

Image

Activez les notifications pour recevoir les mises à jour sur

Dans la course pour s’imposer dans le monde de l’intelligence artificielle, un nom manquait : celui d’Apple. Dans un futur proche, ce manque pourrait être comblé. Dans une étude publiée par les chercheurs d’Apple, ReALM (acronyme de « Reference Resolution As Language Modeling ») a été présenté. Le grand modèle de langage sera meilleur que ses concurrents pour comprendre le contexte d’une phrase ou d’une instruction.

Apple n’a pas encore révélé comment et quand elle l’implémentera sur les iPhone et les Mac, mais d’après les exemples fournis dans l’étude publiée sur le site de l’Université Cornell, on peut supposer que l’assistant vocal Siri en bénéficiera surtout.

Les nouveautés de ReALM

Le problème des intelligences artificielles est qu’elles ne savent pas interpréter certaines parties du langage humain. Les expressions contenant des pronoms démonstratifs comme « ce » ou « celui-ci » ne sont pas facilement déchiffrables. Une instruction telle que « Appelle ce numéro » ou « Sélectionne la dernière adresse », même si elle fait suite à une information que l’IA nous a fournie, pourrait ne pas être interprétée correctement par le modèle.

Le cas de l’option « Visible aux autres personnes » sur iPhone : elle s’est activée automatiquement pour tout le monde

À cet égard, ReALM a montré qu’il surpassait d’autres intelligences artificielles comme ChatGPT-4, la dernière version du chatbot d’OpenAI, qui n’a pas réussi à lire le contexte d’une phrase de manière parfaite. Le secret réside dans la façon dont ReALM lit les informations qui apparaissent à l’écran. L’IA d’Apple transforme en effet tout ce qu’elle trouve en texte, facilitant ainsi la lecture des informations par le modèle.

Comment il pourra être utilisé

En somme, ReALM devrait simplifier la vie des utilisateurs qui utilisent les assistants vocaux, en particulier dans le but pour lequel ils ont été conçus : réaliser des actions à l’aide d’un appareil sans le toucher. Par exemple, sur la page d’un store comportant plusieurs numéros de téléphone, il suffira de dire à voix haute d’appeler le numéro de portable ou celui du bureau.

Aujourd’hui, l’interprétation de cette commande n’est pas aussi simple qu’il y paraît pour les assistants vocaux comme Siri, qui sera probablement intégré au nouveau modèle d’intelligence artificielle. L’introduction possible d’une intelligence artificielle comme ReALM n’exclut cependant pas qu’Apple poursuive son accord avec Google pour porter Gemini sur les smartphones de la pomme croquée, comme annoncé le 18 mars dernier. Il reste à comprendre comment les deux modèles se partageront l’attention des utilisateurs Apple.