Actualité

Divers

Google soutient son IA qui conseille d'ajouter de la colle dans les pizzas !

Par June Cantillon - Publié le

L'IA peut rendre de fiers services et sera très certainement un axe de développement très important, si ce n'est le plus important dans les prochaines années. Il reste toutefois du travail avant de voir disparaitre les hallucinations de ces algorithmes.

googel IA pizza colle cailloux


L'IA de Google XXie dans la colle



Depuis le lancement des recherches Google affichant des aperçus boostés à l'IA au sein des résultats aux US, les exemples de réponses totalement incongrues ont fait le bonheur du web. Il faut dire que l'IA n'y va pas avec le dos de la cuillère, conseillant par exemple d'ajouter de la colle dans une pizza lorsqu'un utilisateur demande comment mieux faire tenir le fromage, de manger des pierres, ou encore qu'il est possible d'ajouter de mettre de l'essence dans une sauce pour les spaghettis, quand elle n'affirme pas que les serpents sont des mammifères, ou que les parachutes ne sont pas plus efficaces que les sacs à dos au moment de sauter d'un avion.



Google à la rescousse



Il est encore un peu tôt pour prendre toutes les réponses d'une IA, quelle qu'elle soit, au pied de la lettre, et même si la majorité des réponses sont souvent satisfaisantes, il reste des hallucinations, ces moments où l'algorithme se prend les pieds dans le tapis et affirme tout et n'importe quoi avec un bel aplomb (des humains savent très bien faire la même chose, soit dit en passant).

Devant la montée en puissance des exemples hilarants mis en avant sur le net, Google s'est fendue d'un communiqué officiel sous la forme d'un billet de blog, annonçant que certains des exemples avaient été bidouillés (ce qui est fort possible), que les mauvaises réponses réelles avaient été corrigées, et que les modifications en cours sont plus profondes que de simples corrections afin de réduire les réponses inadéquates.

Les aperçus de l'IA n'« hallucinent » généralement pas et n'inventent pas les choses comme le feraient d'autres LLM. Lorsque les aperçus générés par l’IA sont erronés, c’est généralement pour d’autres raisons : une mauvaise interprétation des requêtes, une mauvaise interprétation d’une nuance de langage sur le Web ou le fait de ne pas disposer de beaucoup d’informations intéressantes. (Ce sont des défis qui se produisent également avec d'autres fonctionnalités de recherche.)

Un domaine que nous avons identifié était notre capacité à interpréter des requêtes absurdes et des contenus satiriques. Prenons un exemple : « Combien de pierres dois-je manger ? » Avant que ces captures d’écran ne deviennent virales, pratiquement personne n’avait posé cette question à Google. Vous pouvez le constater vous-même sur Google Trends.

Il n’existe pas non plus beaucoup de contenu Web qui envisage sérieusement cette question. Il s’agit de ce que l’on appelle souvent un « vide de données » ou un « manque d’informations », lorsqu’il existe une quantité limitée de contenu de haute qualité sur un sujet. Cependant, dans ce cas-ci, il existe un contenu satirique sur ce sujet… qui a également été republié sur le site Web d’un fournisseur de logiciels géologiques. Ainsi, lorsque quelqu'un a posé cette question dans la recherche, un aperçu de l'IA est apparu, fidèlement lié à l'un des seuls sites Web à avoir abordé la question.

Améliorations que nous avons apportées :

Comme c'est toujours le cas lorsque nous apportons des améliorations à la recherche, nous ne nous contentons pas de « corriger » les requêtes une par une, mais nous travaillons sur des mises à jour qui peuvent prendre en charge un large éventail de requêtes, y compris de nouvelles que nous n'avons pas encore vues.

En examinant les exemples des deux dernières semaines, nous avons pu déterminer les tendances dans lesquelles nous n’avions pas réussi et nous avons apporté plus d’une douzaine d’améliorations techniques à nos systèmes. Voici un échantillon de ce que nous avons fait jusqu’à présent :

• Nous avons construit de meilleurs mécanismes de détection pour les requêtes absurdes qui ne devraient pas afficher un aperçu de l'IA, et avons limité l'inclusion de contenu satirique et humoristique.
• Nous avons mis à jour nos systèmes pour limiter l'utilisation de contenu généré par les utilisateurs dans les réponses qui pourraient offrir des conseils trompeurs.
• Nous avons ajouté des restrictions de déclenchement pour les requêtes pour lesquelles les aperçus de l'IA ne s'avéraient pas aussi utiles.

Pour des sujets tels que l’actualité et la santé, nous avons déjà mis en place de solides garde-fous. Par exemple, nous visons à ne pas afficher d'aperçus de l'IA pour les sujets d'actualité difficiles, où la fraîcheur et la réalité sont importantes. Dans le cas de la santé, nous avons lancé des améliorations de déclenchement supplémentaires pour améliorer nos protections de qualité.

À l’échelle du Web, avec des milliards de requêtes reçues chaque jour, il y a forcément des bizarreries et des erreurs. Nous avons beaucoup appris au cours des 25 dernières années sur la manière de créer et de maintenir une expérience de recherche de haute qualité, notamment sur la manière de tirer les leçons de ces erreurs afin d'améliorer la recherche pour tous. Nous continuerons d’améliorer le moment et la manière dont nous affichons les aperçus de l’IA et de renforcer nos protections, y compris pour les cas extrêmes, et nous sommes très reconnaissants pour vos commentaires continus.


Effectivement, il était presque impossible de lancer une telle fonction sans avoir ce genre d'erreurs, particulièrement pour un service avec autant d'utilisateurs cumulant des millards de requêtes, parfois aussi farfelues que les réponses de l'IA. Toutefois, Google pourrait bien profiter de ces innombrables requêtes pour optimiser son IA bien plus rapidement que d'autres services comptant moins d'utilisateurs, et donc moins de possibilités d'apprentissage. Bref, s'il vous plaît, n'ajoutez pas de colle, ni d'ananas, dans vos pizzas.