La toute nouvelle IA de Google a donné des informations erronées dans une vidéo promotionnelle — encore une fois

La toute nouvelle IA de Google a donné des informations erronées dans une vidéo promotionnelle — encore une fois

Au cours de deux jours consécutifs de grands lancements, OpenAI et Google ont présenté au monde leurs derniers projets d'intelligence artificielle.

Ils ont réalisé des vidéos de démonstration impressionnantes présentant toutes les nouvelles choses que ChatGPT-4o d'OpenAI peut faire et comment Gemini de Google va révolutionner la recherche telle que nous la connaissons.

Mais la vidéo de Google de mardi montre l’un des principaux pièges de l’IA : des conseils erronés, et pas seulement mauvais. Une minute après le début de la vidéo flashy et rapide, Gemini AI dans la recherche Google a présenté une erreur factuelle repérée pour la première fois par The Verge.

Un photographe prend une vidéo de son appareil photo argentique défectueux et demande à Gemini : « Pourquoi le levier ne bouge-t-il pas complètement. » Gemini propose immédiatement une liste de solutions, dont une qui détruirait toutes ses photos.

La vidéo de la liste met en avant une suggestion : « Ouvrez la porte arrière et retirez délicatement le film si l'appareil photo est coincé. »

Les photographes professionnels – ou tous ceux qui ont utilisé un appareil photo argentique – savent que c'est une très mauvaise idée. Ouvrir une caméra à l'extérieur, là où se déroule la vidéo, pourrait ruiner tout ou partie du film en l'exposant à une lumière vive.

Google a été confronté à des problèmes similaires avec des produits d'IA antérieurs.

L'année dernière, une vidéo de démonstration de Google montrant le chatbot Bard indiquait à tort que le télescope spatial James Webb était le premier à photographier une planète en dehors de notre propre système solaire.

Plus tôt cette année, le chatbot Gemini a été critiqué pour avoir refusé de produire des photos de personnes blanches. Il a été critiqué pour être trop « réveillé » et avoir développé des photos truffées d’inexactitudes historiques comme celles des nazis asiatiques et des pères fondateurs noirs. Les dirigeants de Google se sont excusés, affirmant qu'ils « avaient raté le but ».

La vidéo de mardi met en évidence les dangers des chatbots IA, qui produisent des hallucinations, qui sont des prédictions incorrectes, et donnent de mauvais conseils aux utilisateurs. L'année dernière, les utilisateurs de Bing, le chatbot IA de Microsoft, ont signalé d'étranges interactions avec le bot. Il a qualifié les utilisateurs d’illusoires, a essayé de leur expliquer en quelle année nous sommes et a même déclaré son amour à certains utilisateurs.

Les entreprises utilisant de tels outils d’IA peuvent également être légalement responsables de ce que disent leurs robots. En février, un tribunal canadien a tenu Air Canada responsable du fait que son chatbot avait fourni à un passager des informations erronées sur les réductions en cas de deuil.

Google n'a pas immédiatement répondu à une demande de commentaire envoyée en dehors des heures normales de bureau.

A lire également