La nouvelle IA d'Apple vise à affronter GPT-4 grâce à sa capacité à comprendre les indices contextuels

La nouvelle IA d'Apple vise à affronter GPT-4 grâce à sa capacité à comprendre les indices contextuels

Le nouveau développement d'Apple en matière d'IA vise à s'attaquer aux produits GPT d'OpenAI et pourrait rendre vos interactions avec des assistants virtuels comme Siri plus intuitives.

Le système ReaLM, qui signifie « Reference Resolution As Language Modeling », comprend les images et le contenu ambigus à l’écran ainsi que le contexte conversationnel pour permettre des interactions plus naturelles avec l’IA.

Le nouveau système Apple surpasse les autres grands modèles de langage comme GPT-4 pour déterminer le contexte et à quoi les expressions linguistiques font référence, selon les chercheurs qui l'ont créé. Et, en tant que système moins complexe que d'autres grands modèles de langage comme la série GPT d'OpenAI, les chercheurs ont qualifié ReaLM de « choix idéal » pour un système de déchiffrement de contexte « qui peut exister sur l'appareil sans compromettre les performances ».

Par exemple, disons que vous demandez à Siri de vous montrer une liste de pharmacies locales. Une fois la liste présentée, vous pouvez lui demander « Appelez celui sur Rainbow Road » ou « Appelez celui du bas ». Avec ReaLM, au lieu de recevoir un message d'erreur demandant plus d'informations, Siri pourrait déchiffrer le contexte nécessaire pour mener à bien une telle tâche mieux que GPT-4, selon les chercheurs d'Apple. qui a créé le système.

« Le discours humain contient généralement des références ambiguës telles que » ils « ou » cela « , dont la signification est évidente (pour les autres humains) étant donné le contexte », ont écrit les chercheurs à propos des capacités de ReaLM. « Être capable de comprendre le contexte, y compris les références comme celles-ci, est essentiel pour un assistant conversationnel qui vise à permettre à un utilisateur de communiquer naturellement ses besoins à un agent, ou d'avoir une conversation avec lui. »

Le système ReaLM peut interpréter des images intégrées dans du texte, ce qui, selon les chercheurs, peut être utilisé pour extraire des informations telles que des numéros de téléphone ou des recettes à partir d'images sur la page.

Le GPT-3.5 d'OpenAI n'accepte que la saisie de texte, et GPT-4, qui peut également contextualiser des images, est un vaste système formé principalement sur des images naturelles et réelles, et non sur des captures d'écran – ce qui, selon les chercheurs d'Apple, entrave ses performances pratiques et fait de ReaLM le meilleure option pour comprendre les informations à l’écran.

« Apple a longtemps été considéré comme un retardataire par rapport à Microsoft, Google et Amazon dans le développement de l'IA conversationnelle », rapporte The Information. « Le fabricant d'iPhone a la réputation d'être un développeur prudent et délibéré de nouveaux produits – une tactique qui a bien fonctionné pour gagner la confiance des consommateurs, mais qui pourrait lui nuire dans la course rapide à l'IA. »

Mais avec les taquineries sur les capacités de ReaLM, il semble qu'Apple se prépare sérieusement à entrer dans la course.

Les chercheurs derrière ReaLM et les représentants d'OpenAI n'ont pas immédiatement répondu aux demandes de commentaires de Trading Insider.

On ne sait toujours pas quand ni si ReaLM sera implémenté dans Siri ou d'autres produits Apple, mais le PDG Tim Cook a déclaré lors d'une récente conférence téléphonique que la société était « heureuse de partager les détails de notre travail en cours dans le domaine de l'IA plus tard cette année ».

A lire également