API RIFT
Intégrez l'intelligence artificielle avancée dans vos applications
Chat Completions
POST
/api/ollama/generate
Créez une réponse de chat avec les modèles d'IA disponibles.
Paramètres
| Paramètre | Type | Description |
|---|---|---|
model |
string | ID du modèle (mistral:latest, llama3:latest) |
prompt |
string | Message à traiter par l'IA |
stream |
boolean | Flux de réponse (false pour réponse complète) |
options |
object | Paramètres du modèle (temperature, max_tokens, etc.) |
messages |
array | Liste des messages dans la conversation |
max_tokens |
integer | Nombre maximum de tokens (optionnel, max: 4096) |
temperature |
float | Créativité: 0.0 à 2.0 (défaut: 1.0) |
Exemple de requête
cURL
curl -X POST "http://localhost:3000/api/ollama/generate" \
-H "Content-Type: application/json" \
-d '{\n "model": "mistral:latest",\n "prompt": "Bonjour!",\n "stream": false,\n "options": {\n "temperature": 0.7,\n "max_tokens": 500\n }\n }'
Ollama Integration
RIFT supporte nativement Ollama pour les modèles locaux. Les requêtes sont automatiquement routées vers le meilleur modèle disponible.
Modèles Ollama supportés
- Mixtral 7B
- Llama 2
- Neural Chat
- Mistral
Installation Ollama
bash
# Installer Ollama
curl https://ollama.ai/install.sh | sh
# Lancer le serveur Ollama
ollama serve
# Dans un autre terminal, télécharger un modèle
ollama pull mixtral:7b
# Vérifier les modèles disponibles
curl http://localhost:11434/api/tags
Gestion des Erreurs
| Code | Description |
|---|---|
400 |
Requête invalide |
401 |
Authentification échouée |
429 |
Trop de requêtes |
500 |
Erreur serveur |