API xAI Grok
L'API Grok permet aux développeurs d'intégrer les LLM Grok de xAI dans des applications.
Grok de xAI est le LLM développé par la société d’IA d’Elon Musk, entraîné sur les données de X (Twitter) et offrant des capacités uniques de recherche web en temps réel. Grok-3 est le modèle phare, compétitif avec les modèles de pointe pour les tâches de raisonnement et scientifiques. L’API est compatible avec OpenAI, ce qui facilite la transition. Une caractéristique particulièrement différenciante est son intégration avec les flux de données X/Twitter, ce qui le rend idéal pour l’analyse des réseaux sociaux et les tâches d’information en temps réel. Le crédit gratuit de 25 $ par mois en fait l’un des forfaits gratuits les plus généreux disponibles.
Détails de l'API
Catégories
Foire aux questions
Grok est développé par xAI d'Elon Musk et entraîné sur les données de X (Twitter), ce qui lui confère des capacités uniques pour l'analyse des réseaux sociaux et l'accès à l'information en temps réel. Grok-3 est le modèle phare et rivalise avec GPT-4o. L'API inclut un outil de recherche en direct qui peut accéder au web et aux données de X en temps réel, ce que la plupart des autres modèles ne proposent pas nativement.
Grok-3 coûte 3 $ par million de jetons en entrée et 15 $ par million de jetons en sortie. Grok-3 Mini est plus abordable à 0,30 $/0,50 $ par million de jetons. Les nouveaux comptes reçoivent 25 $ de crédits gratuits chaque mois — l'un des forfaits gratuits les plus généreux disponibles. Il existe également un forfait gratuit avec des limites de débit réduites.
Oui. L'API Grok utilise une interface compatible avec OpenAI à api.x.ai. Vous pouvez utiliser le SDK Python ou Node.js d'OpenAI en changeant simplement l'URL de base et la clé API. Les noms de modèles comme grok-3 remplacent gpt-4o dans vos requêtes. Cela rend la transition ou les tests A/B entre Grok et OpenAI très simples.
Oui. Grok dispose d'une capacité de recherche web intégrée et d'un accès aux données en temps réel de X (Twitter). Vous pouvez activer la recherche en direct via l'API en incluant l'outil de recherche dans votre requête. Cela le distingue de la plupart des autres modèles qui ont une limite de connaissances fixe et ne peuvent pas accéder aux événements actuels nativement.
