
Token Counter est une plateforme d’outils en ligne gratuite qui calcule le nombre de jetons des textes utilisés par les grands modèles linguistiques et estime les coûts des appels API, tout en offrant une comparaison expansive des tarifs et des performances des modèles.
Selon les informations du site, les fonctionnalités de comptage de jetons et d’estimation des coûts sont gratuites. Certaines fonctionnalités avancées, comme le laboratoire LLM, peuvent nécessiter un abonnement après inscription à la newsletter hebdomadaire gratuite.
L’outil suit plus de 300 modèles, couvrant les séries OpenAI GPT, Anthropic Claude, Google Gemini, Meta Llama, Mistral, DeepSeek et d’autres fournisseurs majeurs.
Selon les explications des principes de l’outil, certains outils similaires s’exécutent localement dans le navigateur et les données textuelles ne quittent pas l’appareil de l’utilisateur. Pour ce site, il est recommandé de consulter sa politique de confidentialité ou les explications de l’outil.
Les données indiquent que le site suit en continu les tarifications des modèles et les met à jour dynamiquement. Par exemple, il est mentionné qu’un mois donné, 101 modèles ont vu une variation de prix.
La fonction serveur MCP permet d’intégrer en temps réel les données de tarification LLM et de référence dans des assistants de programmation IA comme Claude Code, afin d’aider à la prise de décision côté coût dans le flux de travail, sans clé API nécessaire.

Modèle de langage de grande taille développé en interne par Alibaba Cloud, capable de générer du texte, de traduire entre plusieurs langues, d’écrire du code et de résumer des documents, offrant aux entreprises et aux développeurs un service intelligent de dialogue et de génération de contenu à coût réduit, à haute capacité de traitement et déployable en privé.
Prompt Token Counter est un compteur en ligne de jetons de prompts qui aide les utilisateurs à calculer en temps réel le nombre de jetons d'un texte lorsqu'ils utilisent de grands modèles linguistiques tels qu'OpenAI, afin de maîtriser les coûts d'utilisation et de respecter les limites de contexte.