Les déclarations de Sundar Pichai, PDG de Google et Alphabet ; Sissie Hsiao, vice-présidente de Google ; et James Manyika, vice-président principal, à propos de leur intelligence artificielle, ont révélé une réalité surprenante : même eux admettent ne pas comprendre pleinement certaines des capacités de Gemini ou des autres intelligences artificielles de l'entreprise.
Google ne comprend-il pas son IA ?
Dans une interview réalisée en 2023 par CBS, ces dirigeants affirmaient que l’intelligence artificielle avait transformé les recherches sur Internet.
Hsiao et Manyika ont noté que « l'une des premières leçons était que Bard ne cherche pas de réponses sur Internet comme le fait la recherche Google » et que les réponses générées par l'intelligence artificielle de Google proviennent en grande partie d'un système essentiellement autodidacte. Les dirigeants eux-mêmes ont qualifié leur interaction avec cette IA de « perturbante ».
Cependant, le plus frappant de l'entretien a été que les dirigeants ont reconnu que l'IA de Google en était venue à effectuer des tâches de manière autodidacte , c'est-à-dire sans qu'on le lui demande. Et ils ne comprenaient pas très bien pourquoi cela se produisait.
« On ne sait pas très bien comment cela se produit. Par exemple, un programme d’IA de Google s’est adapté tout seul après avoir été interrogé dans la langue bangladaise, pour laquelle il n’avait pas été formé », a illustré l’un des dirigeants.
"Vous ne comprenez pas bien comment cela fonctionne, et pourtant, l'avez-vous mis à la disposition de la société ?", a répondu l'intervieweur.
Sundar Pichai, PDG de Google, a répondu que ces comportements ne représentent pas quelque chose de vraiment grave. "Je ne pense pas non plus que nous comprenions pleinement comment fonctionne l'esprit humain", a-t-il ajouté.
Que signifient les boîtes noires en technologie ?
À ce stade, Pichai a mentionné qu’il s’agissait d’une boîte noire. « Nous tous sur le terrain appelons cela une « boîte noire », c'est-à-dire lorsque quelque chose n'est pas entièrement compris. »
En technologie, le terme « boîtes noires » désigne des systèmes, des appareils ou des composants dont le fonctionnement interne est inconnu ou non révélé aux utilisateurs.
Ces systèmes traitent des intrants et produisent des extrants sans qu’il soit évident comment s’effectuent les transformations internes. Ce concept est appliqué, par exemple, dans le domaine de l'intelligence artificielle et des algorithmes complexes, où les décisions exactes prises par le logiciel peuvent ne pas être totalement transparentes pour les développeurs ou les utilisateurs finaux.
Comment fonctionne Gemini, l'IA de Google ?
Gemini, l'intelligence artificielle de Google, fonctionne comme un grand modèle de langage conçu pour offrir des interactions conversationnelles ou comme un chatbot , formé pour fournir des réponses informatives et complètes. Ce système, capable de communiquer et de générer un texte de qualité humaine pour diverses questions, est basé sur un processus détaillé.
Initialement, il reçoit des entrées, textuelles ou verbales, qu'il traite pour déboguer les erreurs. Par la suite, il interprète le sens du message en tenant compte de la langue, de la grammaire, de la syntaxe et du contexte.
Il recherche ensuite les informations pertinentes dans sa vaste base de données et, avec ces données, formule une réponse personnalisée et pertinente, qui est finalement délivrée à l'utilisateur dans le format original de la requête. Cette procédure permet à Gemini de répondre à un large éventail de demandes, du résumé à la création de récits.