Aller au contenu

Glossaire

Termes et concepts clés utilisés dans Batcher.ai.


Assistant IA — Le copilote conversationnel intégré à Batcher.ai qui aide à créer des workflows par le biais d’un dialogue en langage naturel. Voir Assistant IA.

Clé API — Un jeton d’authentification unique fourni par un fournisseur d’IA (OpenAI, Anthropic, Google, etc.) qui permet à Batcher.ai d’envoyer des requêtes en votre nom. Vous ajoutez des clés API lors de la création de configurations.

Traitement par lots — L’exécution de formules IA sur toutes les lignes d’une feuille de calcul en une seule opération, plutôt que de traiter les données ligne par ligne.

Référence de cellule — Une référence à une cellule spécifique de la feuille de calcul, comme A2 ou B10. Utilisée dans les formules pour extraire dynamiquement des données de votre feuille de calcul.

CONCAT — Une fonction qui assemble plusieurs chaînes de texte et références de cellules en une seule valeur. Couramment utilisée pour construire des prompts dynamiques : =CONCAT("Translate: ", A2).

Configuration — Un ensemble enregistré de paramètres (fournisseur, modèle, clé API, température, etc.) qui définit comment un modèle IA est accessible. Référencée par nom dans les formules : =LLM(A2, "my-config").

Modèle par défaut — Le modèle IA gratuit intégré, inclus avec chaque compte Batcher.ai. Référencé comme "default" dans les formules.

Formule — Une expression commençant par = qui calcule une valeur. Dans Batcher.ai, les formules peuvent appeler des modèles IA (=LLM()), combiner du texte (=CONCAT()), ou effectuer des calculs de feuille de calcul standard.

GEO (Generative Engine Optimization) — L’optimisation du contenu pour les moteurs de recherche alimentés par l’IA et les résultats génératifs, similaire au SEO mais ciblant les réponses générées par l’IA.

Haloscan — Une intégration spécialisée pour la recherche de mots-clés SEO. Renvoie les volumes de recherche, les mots-clés associés et les données SERP au format JSON. Référencée comme "haloscan" dans les formules.

Jina — Une intégration spécialisée pour le web scraping. Convertit toute URL en contenu markdown propre. Référencée comme "jina" dans les formules.

Traitement niveau par niveau — Un mode de traitement qui respecte les dépendances entre colonnes. Si la colonne C dépend des résultats de la colonne B, toute la colonne B est traitée en premier.

LLM (Large Language Model) — Un modèle d’IA entraîné sur des données textuelles capable de générer, analyser et transformer du texte. Exemples : GPT-4, Claude et Gemini.

LLM() — La fonction principale de Batcher.ai qui envoie un prompt à un modèle IA et renvoie la réponse : =LLM(prompt, "config_name").

Max tokens — Le nombre maximum de tokens (approximativement des mots) qu’un modèle IA génèrera dans sa réponse. Des valeurs plus élevées permettent des réponses plus longues mais coûtent davantage.

Prompt — L’instruction textuelle envoyée à un modèle IA. Un bon prompt décrit clairement le résultat attendu. Dans Batcher.ai, les prompts peuvent inclure du texte statique et des références de cellules dynamiques.

Fournisseur — Une entreprise ou un service qui héberge des modèles IA (par ex., OpenAI, Anthropic, Google). Chaque fournisseur nécessite sa propre clé API.

Point de restauration — Un instantané automatique de l’état de votre feuille de calcul sauvegardé avant chaque opération d’écriture. Permet d’annuler les modifications.

SEO (Search Engine Optimization) — L’optimisation du contenu pour obtenir un meilleur classement dans les résultats des moteurs de recherche. Un cas d’usage courant des workflows Batcher.ai.

Traitement séquentiel — Un mode de traitement où les cellules sont exécutées une par une, ligne par ligne, sans tenir compte des dépendances entre colonnes.

Feuille de calcul — L’espace de travail principal dans Batcher.ai où les données sont stockées, les formules sont rédigées et le traitement IA s’effectue. Similaire à un document Excel ou Google Sheets.

Streaming — La livraison en temps réel des réponses IA, où le texte apparaît progressivement au fur et à mesure que le modèle le génère, plutôt que d’attendre la réponse complète.

Prompt système — Un ensemble d’instructions fixes définies dans une configuration, ajoutées en préfixe à chaque requête IA. Utile pour un comportement cohérent (par ex., « Toujours répondre en français »).

Plage cible — La plage de cellules où une formule doit être appliquée (par ex., C2:C150). L’Assistant IA l’utilise pour étendre un modèle de formule unique à toutes les lignes.

Température — Un paramètre qui contrôle le caractère aléatoire/créatif des réponses IA. Des valeurs basses (0-0.3) produisent des résultats ciblés et déterministes. Des valeurs élevées (0.7-1.0) produisent des résultats plus variés et créatifs.

Token — L’unité de base du texte traitée par les modèles IA. Équivaut approximativement à 3/4 d’un mot. L’entrée (votre prompt) et la sortie (la réponse) consomment des tokens.

Annuler — Rétablir la feuille de calcul à un état précédent à l’aide d’un point de restauration sauvegardé automatiquement. Plusieurs niveaux d’annulation sont pris en charge.

Vision — La capacité de certains modèles IA à analyser le contenu d’images. Lorsqu’elle est activée, Batcher.ai détecte automatiquement les URL d’images dans les prompts et les envoie en tant qu’entrée visuelle.

Workflow — Un pipeline complet de traitement de données construit dans une feuille de calcul, composé de données d’entrée, d’une ou plusieurs colonnes de formules et de résultats en sortie. Les workflows vont du plus simple (une seule formule) à des pipelines multi-étapes.