AI Endpoints
Åatwy dostÄp do Åwiatowej klasy modeli AI wstÄpnie wytrenowanych.
Innowuj z prostymi i bezpiecznymi interfejsami API na solidnej i poufnej infrastrukturze OVHcloud. Optymalizuj swoje aplikacje z skalowalnymi możliwoÅciami AI, eliminujÄ
c potrzebÄ gÅÄbokiej wiedzy eksperckiej. Zyskaj efektywnoÅÄ dziÄki potÄżnym punktom koÅcowym AI, zaprojektowanym z myÅlÄ
o prostocie i niezawodnoÅci.
Odkryj nasze modele
PrzeglÄ daj nasz katalog modeli sztucznej inteligencji, aby znaleÅºÄ ten, który odpowiada Twoim potrzebom.
Filtry
Kontekst
Wszystkie
22 wyniki dostÄpne
Qwen3.5-9B
0.1â¬
/Mtoken(wejÅcie)0.15â¬
/Mtoken(wyjÅcie)Licencja: Apache 2.0
Liczba parametrów: 9.7B
Kwantyzacja: bf16
Maks. rozmiar kontekstu: 262K
Wsparcie klienta: WywoÅywanie funkcji, Multimodal
Qwen3-Embedding-8B
0.1â¬
/Mtoken(wejÅcie)Qwen3Guard-Gen-8B
Gratis
Licencja: Apache 2.0
Liczba parametrów: 8B
Kwantyzacja: fp16
Maks. rozmiar kontekstu: 32K
Wsparcie klienta: Moderation
Qwen3Guard-Gen-0.6B
Gratis
Licencja: Apache 2.0
Liczba parametrów: 0.6B
Kwantyzacja: fp16
Maks. rozmiar kontekstu: 32K
Wsparcie klienta: Moderation
Qwen3-Coder-30B-A3B-Instruct
0.06â¬
/Mtoken(wejÅcie)0.22â¬
/Mtoken(wyjÅcie)Licencja: Apache 2.0
Liczba parametrów: 30B
Kwantyzacja: fp8
Maks. rozmiar kontekstu: 256K
Wsparcie klienta: WywoÅywanie funkcji, Code Assistant
gpt-oss-120b
0.08â¬
/Mtoken(wejÅcie)0.4â¬
/Mtoken(wyjÅcie)Licencja: Apache 2.0
Liczba parametrów: 117B
Kwantyzacja: fp4
Maks. rozmiar kontekstu: 131K
Wsparcie klienta: WywoÅywanie funkcji, Reasoning
gpt-oss-20b
0.04â¬
/Mtoken(wejÅcie)0.15â¬
/Mtoken(wyjÅcie)Licencja: Apache 2.0
Liczba parametrów: 21B
Kwantyzacja: fp4
Maks. rozmiar kontekstu: 131K
Wsparcie klienta: WywoÅywanie funkcji, Reasoning
whisper-large-v3-turbo
0.00001278â¬
/sek.Licencja: Apache 2.0
Liczba parametrów: 0.81B
Kwantyzacja: fp16
Wsparcie klienta: Automatic Speech Recognition
whisper-large-v3
0.00004083â¬
/sek.Licencja: Apache 2.0
Liczba parametrów: 1.54B
Kwantyzacja: fp16
Wsparcie klienta: Automatic Speech Recognition
Qwen3-32B
0.08â¬
/Mtoken(wejÅcie)0.23â¬
/Mtoken(wyjÅcie)Licencja: Apache 2.0
Liczba parametrów: 32.8B
Kwantyzacja: fp8
Maks. rozmiar kontekstu: 32K
Wsparcie klienta: WywoÅywanie funkcji, Reasoning
Mistral-Small-3.2-24B-Instruct-2506
0.09â¬
/Mtoken(wejÅcie)0.28â¬
/Mtoken(wyjÅcie)Licencja: Apache 2.0
Liczba parametrów: 24B
Kwantyzacja: bf16
Maks. rozmiar kontekstu: 128K
Wsparcie klienta: WywoÅywanie funkcji, Multimodal
Meta-Llama-3_3-70B-Instruct
0.67â¬
/Mtoken(wejÅcie)0.67â¬
/Mtoken(wyjÅcie)Licencja: Llama 3.3 Community
Liczba parametrów: 70B
Kwantyzacja: fp8
Maks. rozmiar kontekstu: 131K
Wsparcie klienta: WywoÅywanie funkcji
Mistral-7B-Instruct-v0.3
0.1â¬
/Mtoken(wejÅcie)0.1â¬
/Mtoken(wyjÅcie)Licencja: Apache 2.0
Liczba parametrów: 7B
Kwantyzacja: fp16
Maks. rozmiar kontekstu: 127K
Wsparcie klienta: WywoÅywanie funkcji
Qwen2.5-VL-72B-Instruct
0.91â¬
/Mtoken(wejÅcie)0.91â¬
/Mtoken(wyjÅcie)Licencja: Qwen
Liczba parametrów: 72B
Kwantyzacja: fp8
Maks. rozmiar kontekstu: 32K
Wsparcie klienta: Multimodal
bge-multilingual-gemma2
0.01â¬
/Mtoken(wejÅcie)Mistral-Nemo-Instruct-2407
0.13â¬
/Mtoken(wejÅcie)0.13â¬
/Mtoken(wyjÅcie)Licencja: Apache 2.0
Liczba parametrów: 12.2B
Kwantyzacja: fp16
Maks. rozmiar kontekstu: 118K
Wsparcie klienta: WywoÅywanie funkcji
bge-m3
0.01â¬
/Mtoken(wejÅcie)stable-diffusion-xl-base-v10
Gratis
Licencja: OpenRail++
Liczba parametrów: 3.5B
Kwantyzacja: fp32
Wsparcie klienta: Image Generation
nvr-tts-es-es
Gratis
Licencja: Riva license
Liczba parametrów: B
Kwantyzacja: fp32
Wsparcie klienta: Text To Speech
nvr-tts-it-it
Gratis
Licencja: Riva license
Liczba parametrów: B
Kwantyzacja: fp32
Wsparcie klienta: Text To Speech
nvr-tts-de-de
Gratis
Licencja: Riva license
Liczba parametrów: B
Kwantyzacja: fp32
Wsparcie klienta: Text To Speech
nvr-tts-en-us
Gratis
Licencja: Riva license
Liczba parametrów: B
Kwantyzacja: fp32
Wsparcie klienta: Text To Speech