AI Endpoints
Zugriff auf weltweit renommierte vortrainierte KI-Modelle.
Innovieren Sie mit einfachen und sicheren APIs auf der robusten und vertraulichen Infrastruktur von OVHcloud. Optimieren Sie Ihre Anwendungen mit skalierbaren KI-Funktionen, die keine tiefgehende Expertise erfordern. Gewinnen Sie Effizienz mit leistungsstarken KI-Endpunkten, die für Einfachheit und Zuverlässigkeit entwickelt wurden.
Entdecken Sie unsere Modelle
Durchsuchen Sie unseren Katalog von KI-Modellen, um das passende für Ihre Bedürfnisse zu finden.
Filter
Zusammenfassung
Alle
22 verfügbare Ergebnisse
Qwen3.5-9B
0.1â¬
/Mtoken(Eingabe)0.15â¬
/Mtoken(Ausgabe)Lizenz: Apache 2.0
Anzahl der Parameter: 9.7B
Quantisierung: bf16
Max. KontextgröÃe: 262K
Support: Funktionsaufruf, Multimodal
Qwen3-Embedding-8B
0.1â¬
/Mtoken(Eingabe)Qwen3Guard-Gen-8B
Kostenlos
Lizenz: Apache 2.0
Anzahl der Parameter: 8B
Quantisierung: fp16
Max. KontextgröÃe: 32K
Support: Moderation
Qwen3Guard-Gen-0.6B
Kostenlos
Lizenz: Apache 2.0
Anzahl der Parameter: 0.6B
Quantisierung: fp16
Max. KontextgröÃe: 32K
Support: Moderation
Qwen3-Coder-30B-A3B-Instruct
0.06â¬
/Mtoken(Eingabe)0.22â¬
/Mtoken(Ausgabe)Lizenz: Apache 2.0
Anzahl der Parameter: 30B
Quantisierung: fp8
Max. KontextgröÃe: 256K
Support: Funktionsaufruf, Code Assistant
gpt-oss-120b
0.08â¬
/Mtoken(Eingabe)0.4â¬
/Mtoken(Ausgabe)Lizenz: Apache 2.0
Anzahl der Parameter: 117B
Quantisierung: fp4
Max. KontextgröÃe: 131K
Support: Funktionsaufruf, Reasoning
gpt-oss-20b
0.04â¬
/Mtoken(Eingabe)0.15â¬
/Mtoken(Ausgabe)Lizenz: Apache 2.0
Anzahl der Parameter: 21B
Quantisierung: fp4
Max. KontextgröÃe: 131K
Support: Funktionsaufruf, Reasoning
whisper-large-v3-turbo
0.00001278â¬
/SekundeLizenz: Apache 2.0
Anzahl der Parameter: 0.81B
Quantisierung: fp16
Support: Automatic Speech Recognition
whisper-large-v3
0.00004083â¬
/SekundeLizenz: Apache 2.0
Anzahl der Parameter: 1.54B
Quantisierung: fp16
Support: Automatic Speech Recognition
Qwen3-32B
0.08â¬
/Mtoken(Eingabe)0.23â¬
/Mtoken(Ausgabe)Lizenz: Apache 2.0
Anzahl der Parameter: 32.8B
Quantisierung: fp8
Max. KontextgröÃe: 32K
Support: Funktionsaufruf, Reasoning
Mistral-Small-3.2-24B-Instruct-2506
0.09â¬
/Mtoken(Eingabe)0.28â¬
/Mtoken(Ausgabe)Lizenz: Apache 2.0
Anzahl der Parameter: 24B
Quantisierung: bf16
Max. KontextgröÃe: 128K
Support: Funktionsaufruf, Multimodal
Meta-Llama-3_3-70B-Instruct
0.67â¬
/Mtoken(Eingabe)0.67â¬
/Mtoken(Ausgabe)Lizenz: Llama 3.3 Community
Anzahl der Parameter: 70B
Quantisierung: fp8
Max. KontextgröÃe: 131K
Support: Funktionsaufruf
Mistral-7B-Instruct-v0.3
0.1â¬
/Mtoken(Eingabe)0.1â¬
/Mtoken(Ausgabe)Lizenz: Apache 2.0
Anzahl der Parameter: 7B
Quantisierung: fp16
Max. KontextgröÃe: 127K
Support: Funktionsaufruf
Qwen2.5-VL-72B-Instruct
0.91â¬
/Mtoken(Eingabe)0.91â¬
/Mtoken(Ausgabe)Lizenz: Qwen
Anzahl der Parameter: 72B
Quantisierung: fp8
Max. KontextgröÃe: 32K
Support: Multimodal
bge-multilingual-gemma2
0.01â¬
/Mtoken(Eingabe)Mistral-Nemo-Instruct-2407
0.13â¬
/Mtoken(Eingabe)0.13â¬
/Mtoken(Ausgabe)Lizenz: Apache 2.0
Anzahl der Parameter: 12.2B
Quantisierung: fp16
Max. KontextgröÃe: 118K
Support: Funktionsaufruf
bge-m3
0.01â¬
/Mtoken(Eingabe)stable-diffusion-xl-base-v10
Kostenlos
Lizenz: OpenRail++
Anzahl der Parameter: 3.5B
Quantisierung: fp32
Support: Image Generation
nvr-tts-es-es
Kostenlos
Lizenz: Riva license
Anzahl der Parameter: B
Quantisierung: fp32
Support: Text To Speech
nvr-tts-it-it
Kostenlos
Lizenz: Riva license
Anzahl der Parameter: B
Quantisierung: fp32
Support: Text To Speech
nvr-tts-de-de
Kostenlos
Lizenz: Riva license
Anzahl der Parameter: B
Quantisierung: fp32
Support: Text To Speech
nvr-tts-en-us
Kostenlos
Lizenz: Riva license
Anzahl der Parameter: B
Quantisierung: fp32
Support: Text To Speech