API Qwen (Alibaba)
La série LLM multimodale d'Alibaba — texte, vision et code
La famille de modèles Qwen (通义千问) d’Alibaba, disponible via Alibaba Cloud DashScope, couvre la génération de texte, la compréhension visuelle, la génération de code et les tâches multilingues dans plus de 29 langues. La série Qwen3 comprend des modèles mixture-of-experts (MoE) qui offrent d’excellentes performances à moindre coût. Les modèles Qwen sont les meilleurs pour les tâches en langue chinoise et sont largement utilisés dans les entreprises chinoises. Les poids open source sont également disponibles sur Hugging Face pour un auto-hébergement, faisant de Qwen l’une des offres d’IA chinoises les plus polyvalentes pour les développeurs internationaux.
Détails de l'API
Catégories
Foire aux questions
Qwen est la série de grands modèles de langage d'Alibaba Cloud, accessible via l'API Dashscope d'Alibaba Cloud. Qwen2.5 est la dernière génération, disponible en tailles de 0,5B à 72B paramètres, avec des variantes adaptées à l'instruction, au codage (Coder) et spécialisées en mathématiques. C'est l'une des familles de modèles open source les plus puissantes disponibles.
Alibaba Cloud propose un essai gratuit avec des crédits API limités pour les nouveaux utilisateurs. Ensuite, la tarification de Qwen est compétitive — Qwen-Plus coûte environ 0,0008 $ par 1 000 jetons. Les prix varient selon le niveau du modèle (Turbo, Plus, Max). Les modèles open source peuvent également être auto-hébergés gratuitement via Hugging Face ou ModelScope.
Oui. Bien qu'il soit développé par une entreprise chinoise, Qwen2.5 est entraîné sur des données multilingues et offre de bonnes performances en anglais, chinois, japonais, coréen et dans de nombreuses langues européennes. C'est l'un des modèles bilingues (anglais/chinois) les plus puissants, ce qui le rend idéal pour les applications desservant les deux marchés.
Oui. Qwen2.5-Coder est une variante spécialisée pour le codage qui obtient d'excellents résultats sur les benchmarks de programmation, rivalisant avec GPT-4o sur HumanEval et des tests similaires. Il prend en charge 92 langages de programmation et est disponible en tailles de 1,5B à 72B paramètres. La version instruction 32B est particulièrement performante pour les tâches de codage agentiques.
