API de xAI Grok
La API de Grok permite a los desarrolladores integrar los LLMs de Grok de xAI en aplicaciones.
Grok de xAI es el LLM desarrollado por la empresa de IA de Elon Musk, entrenado con datos de X (Twitter) y que ofrece capacidades únicas de búsqueda web en tiempo real. Grok-3 es el modelo insignia, competitivo con los modelos de primer nivel en tareas de razonamiento y científicas. La API es compatible con OpenAI, lo que facilita la migración. Una característica especialmente diferenciadora es su integración con los flujos de datos de X/Twitter, lo que lo hace ideal para análisis de redes sociales y tareas de información en tiempo real. El crédito gratuito mensual de $25 lo convierte en uno de los niveles gratuitos más generosos disponibles.
Detalles de la API
Categorías
Preguntas frecuentes
Grok está desarrollado por xAI de Elon Musk y entrenado con datos de X (Twitter), lo que le otorga capacidades únicas para el análisis de redes sociales e información en tiempo real. Grok-3 es el modelo insignia y es competitivo con GPT-4o. La API incluye una herramienta de búsqueda en vivo que puede acceder a datos en tiempo real de la web y de X, algo que la mayoría de los otros modelos no tienen de forma nativa.
Grok-3 cuesta $3 por millón de tokens de entrada y $15 por millón de tokens de salida. Grok-3 Mini es más asequible, a $0.30/$0.50 por millón de tokens. Las cuentas nuevas reciben $25 en créditos gratuitos mensuales, uno de los niveles gratuitos más generosos disponibles. También hay un nivel gratuito con límites de uso reducidos.
Sí. La API de Grok utiliza una interfaz compatible con OpenAI en api.x.ai. Puedes usar el SDK de OpenAI para Python o Node.js cambiando la URL base y la clave de API. Los nombres de modelos como grok-3 reemplazan a gpt-4o en tus solicitudes. Esto hace que cambiar o hacer pruebas A/B entre Grok y OpenAI sea sencillo.
Sí. Grok tiene capacidad de búsqueda web integrada y acceso a datos en tiempo real de X (Twitter). Puedes habilitar la búsqueda en vivo a través de la API incluyendo la herramienta de búsqueda en tu solicitud. Esto lo distingue de la mayoría de los otros modelos que tienen un límite fijo de conocimiento y no pueden acceder a eventos actuales de forma nativa.
