API de Stability AI
Stable Diffusion 3.5, génération d'images open source à grande échelle
Stability AI propose un accès API à la famille de modèles Stable Diffusion — les modèles open source de référence pour la génération d’images à partir de texte. L’API REST couvre la génération d’images à partir de texte, la transformation d’image à image, l’inpainting, l’upscaling et la génération de vidéos. Stable Diffusion 3.5 Large offre une qualité photoréaliste rivalisant avec les modèles commerciaux. La tarification basée sur les crédits est économique pour une utilisation à grand volume. La nature open source de Stable Diffusion permet également un déploiement unique sur site via des plateformes comme Automatic1111. Populaire pour les jeux, le e-commerce, le marketing et les outils de développement.
Détails de l'API
Catégories
Foire aux questions
Stability AI propose Stable Diffusion 3.5 (dernier modèle phare), SDXL 1.0 (polyvalent et puissant), SD 1.6 (léger), Stable Video Diffusion (génération vidéo) et Stable Audio (génération de musique/audio). Tous sont disponibles via l’API REST de Stability AI avec une tarification à l’image ou à la seconde.
L’API hébergée de Stability AI n’est pas gratuite — elle fonctionne avec un système de crédits que vous achetez (10 $ = 1 000 crédits ; la plupart des images coûtent 3 à 6 crédits). Cependant, les modèles Stable Diffusion eux-mêmes sont open source et gratuits à utiliser localement. Avec ComfyUI, Automatic1111 ou InvokeAI, vous pouvez générer un nombre illimité d’images sur votre propre matériel.
Stability AI offre plus de flexibilité — rapports d’aspect personnalisés, inpainting, outpainting, image à image, ControlNet et fine-tuning LoRA. DALL-E 3 a une meilleure fidélité aux prompts et une meilleure gestion du texte dans les images, mais moins de flexibilité. Stability AI est préférée pour les workflows créatifs, la cohérence des personnages et la génération en volume grâce à des coûts plus bas et à la disponibilité open source.
Oui. Stable Diffusion prend en charge le fine-tuning LoRA (Low-Rank Adaptation) et DreamBooth pour générer des images dans un style spécifique, d’une personne précise ou d’un produit personnalisé. C’est un avantage important par rapport à DALL-E 3. Le fine-tuning peut être réalisé localement ou via des services comme Replicate, RunPod ou l’API de fine-tuning de Stability AI.
