Imaginez que vous êtes dans la cuisine de votre maison en train de préparer une pizza, mais que lorsque vous la sortez du four, le fromage glisse et n'adhère pas à la pâte. Vous ne savez pas quoi faire pour le garder coincé, alors vous allez Google. Vous pensez que j'ai toutes les informations dont j'ai besoin. Cependant, lorsque vous demandez au chercheur les nouveaux résumés générés avec intelligence artificielle (IA) suggèrent que vous puissiez ajouter « environ 1/8 tasse de colle non toxique à la sauce pour la rendre plus collante ».
C'est ce qui est arrivé cette semaine à un utilisateur qui testait la nouvelle fonction activée par le géant de la technologie. Il y a 10 jours, Google annonçait au monde qu'il allait intégrer le IA dans son populaire Moteur de recherchela porte d'entrée vers l'Internet pour des milliards de personnes. Cela se traduit par de petits résumés qui apparaissent en haut de l'écran et sont alimentés par des contenus extraits d'Internet. « Cela peut nous demander beaucoup de travail », a-t-il promis. Liz Reidresponsable de cette entreprise.
Cependant, le nouveau moteur de recherche ne fonctionne pas comme prévu par Google. Au cours de la dernière semaine et demie, des dizaines d'utilisateurs aux États-Unis ont signalé que la toute nouvelle nouveauté de l'entreprise amplifiait canularsinvente des données historiques ou des faits qui ne se sont jamais produits et suppose de bonnes informations qui pourraient être dangereuses, comme la pizza.
« Complètement dangereux »
Ces problèmes sont dus en grande partie au fait que Gémeaux, l'IA de Google, génère des résumés basés sur l'énorme quantité d'informations qu'elle extrait d'Internet et ne sait pas distinguer ce qui est vrai de ce qui ne l'est pas. Cela signifie que certaines de leurs réponses simplifiées peuvent être basées sur des sources peu fiables. Dans le cas de la colle et de la pizza, par exemple, l'entreprise aurait pu accepter un commentaire posté sur reddit Il y a 11 ans par un utilisateur surnommé «fucksmith». En février, le forum a conclu un accord selon lequel il facturera 60 millions de dollars pour permettre à Google d'utiliser son contenu pour entraîner son IA.
Au cours des dernières heures, des experts en IA, des journalistes technologiques et des utilisateurs ordinaires ont souligné des problèmes majeurs avec le moteur de recherche, allant de l'affirmation selon laquelle seuls 17 des 42 présidents de Etats-Unis ont été blancs pour indiquer que Barack Obama est musulman, une fausse conspiration populaire parmi l’extrême droite et amplifiée par Donald Trump. Les résumés donnent également des conseils de santé dangereux sur des questions telles que la température à utiliser pour cuire le poulet ou que faire si vous êtes mordu par un serpent à sonnette. Dans d’autres cas, le moteur de recherche présente même comme vraies les blagues créées par un magazine satirique.
Certains experts demandent à l’entreprise de supprimer la nouvelle fonctionnalité d’IA. « C'est complètement dangereux », a-t-il déploré. Mélanie Mitchellprofesseur de complexité à l'Institut de Santa Fe. « Google déploie une technologie connue pour être peu fiable dans les infrastructures de connaissances critiques telles que la recherche. C'est tout simplement imprudent et extrêmement irresponsable », a ajouté Abeba Birhane, conseiller principal en IA responsable chez Mozilla.
Lors de la conférence Google I/O de la semaine dernière, le PDG de l'entreprise, Sundar Pichai, a assuré que cette fonction, pour l'instant déployée uniquement aux Etats-Unis, s'ouvrirait progressivement dans le monde entier. Ainsi, ils s’attendent à ce que plus d’un milliard de personnes utilisent ces résumés générés par l’IA d’ici la fin de l’année.
Cependant, cette avalanche de problèmes dans les résultats de Présentation de l'IA pourrait amener l’entreprise à agir. « Google pourrait-il suspendre les résumés de l'IA dans une semaine ? », a demandé Alex Heath, directeur adjoint du média technologique The Verge.