Intermédiaire·2 min·27 avril 2026

Gemini Nano arrive dans Chrome : l'IA locale en 3 étapes

🎧 Résumé audio0:00 / 0:00
Google met l'IA directement dans ton navigateur. Pas de serveur, pas d'API payante, juste Gemini Nano qui tourne sur ta machine.
Gemini Nano arrive dans Chrome : l'IA locale en 3 étapes

Pourquoi ça compte pour toi

Si tu développes une extension Chrome ou un site web, tu peux maintenant ajouter de l'IA sans envoyer de données ailleurs. Recherche améliorée, résumés, filtrage de contenu : tout s'exécute localement. C'est du sérieux pour les créateurs qui veulent rester indépendants.

Ce qu'il faut retenir

  • 1.Prompt API exécute Gemini Nano directement dans Chrome (Windows 10+, macOS 13+, Linux, ChromeOS)
  • 2.Il faut 22 Go libres, 16 Go de RAM ou un GPU de 4 Go+ pour que ça tourne sans ralentir
  • 3.L'API accepte le texte, l'audio et l'image en entrée ; tu peux créer des sessions contextualisées avec des prompts initiaux
  • 4.Disponible via extensions Chrome et sites web ; Android et iOS ne sont pas encore pris en charge

Pourquoi c'est un tournant

Jusqu'à maintenant, si tu voulais de l'IA dans ton application web, tu devais soit passer par une API externe (OpenAI, Anthropic), soit renoncer. Maintenant ? Le modèle se télécharge une fois, ensuite il tourne en local. Zéro latence réseau, zéro données qui quittent l'ordinateur de l'utilisateur.

Comment ça marche concrètement

Étape 1 : Vérifier la disponibilité

D'abord, tu vérifies si le modèle est prêt :

const availability = await LanguageModel.availability();

Si c'est "downloading", le navigateur télécharge Gemini Nano (une fois suffit).

Étape 2 : Créer une session

const session = await LanguageModel.create();

Tu peux ajuster le comportement avec temperature (créativité) et topK (diversité). Pour les extensions Chrome, ça devient vraiment flexible.

Étape 3 : Envoyer des prompts

const response = await session.prompt([
  { role: "user", content: "Résume cet article en 3 points" }
]);

Tu peux garder un historique, ajouter du contexte initial, et même utiliser un "prefix" pour guider le format de réponse — très utile si tu veux du JSON ou du TOML.

Les cas d'usage réalistes

  • Recherche IA sur une page : L'utilisateur pose une question sur le contenu qu'il lit. Zéro données envoyées ailleurs.
  • Fil personnalisé : Classe et filtre les articles selon les préférences, tout en local.
  • Extracteur intelligent : Récupère les informations de contact d'une page, crée un événement dans le calendrier. Les extensions Chrome vont adorer.

Les limites à connaître

Il faut des prérequis matériels : 22 Go de stockage, 16 Go de RAM ou un GPU avec 4 Go de VRAM. Pas de prise en charge mobile pour l'instant (Android et iOS). L'audio en entrée nécessite un GPU. Et le modèle peut grossir à chaque mise à jour de Chrome — tu peux vérifier sa taille réelle sur chrome://on-device-internals.

Le modèle accepte l'anglais, le japonais et l'espagnol nativement. D'autres langues arrivent.

Pour les devs

Si tu fais une extension Chrome, tu as accès à plus de contrôle : tu peux définir les paramètres du modèle, gérer les AbortSignals pour annuler une requête. Pour un site web classique, c'est plus limité mais ça suffit pour 90% des cas.

Newsletters Noésis

3 minutes d'IA dans ta boîte mail, chaque matin.

Rejoins les francophones qui comprennent, essaient et progressent avec l'IA. Choisis ce que tu veux recevoir. Désabonnement en 1 clic.

Explorer les thèmes de cet article :