Chat API Auth

API RIFT

Intégrez l'intelligence artificielle avancée dans vos applications

Chat Completions

POST
/api/ollama/generate

Créez une réponse de chat avec les modèles d'IA disponibles.

Paramètres

Paramètre Type Description
model string ID du modèle (mistral:latest, llama3:latest)
prompt string Message à traiter par l'IA
stream boolean Flux de réponse (false pour réponse complète)
options object Paramètres du modèle (temperature, max_tokens, etc.)
messages array Liste des messages dans la conversation
max_tokens integer Nombre maximum de tokens (optionnel, max: 4096)
temperature float Créativité: 0.0 à 2.0 (défaut: 1.0)

Exemple de requête

cURL
curl -X POST "http://localhost:3000/api/ollama/generate" \
  -H "Content-Type: application/json" \
  -d '{\n    "model": "mistral:latest",\n    "prompt": "Bonjour!",\n    "stream": false,\n    "options": {\n      "temperature": 0.7,\n      "max_tokens": 500\n    }\n  }'

Ollama Integration

RIFT supporte nativement Ollama pour les modèles locaux. Les requêtes sont automatiquement routées vers le meilleur modèle disponible.

Modèles Ollama supportés

  • Mixtral 7B
  • Llama 2
  • Neural Chat
  • Mistral

Installation Ollama

bash
# Installer Ollama
curl https://ollama.ai/install.sh | sh

# Lancer le serveur Ollama
ollama serve

# Dans un autre terminal, télécharger un modèle
ollama pull mixtral:7b

# Vérifier les modèles disponibles
curl http://localhost:11434/api/tags

Gestion des Erreurs

Code Description
400 Requête invalide
401 Authentification échouée
429 Trop de requêtes
500 Erreur serveur