Instances GPU H200
Accélérez vos projets IA avec les instances GPU H200
Des performances de pointe pour lâentraînement, lâinférence et les workloads data les plus exigeants dans un cloud européen, fiable et transparent.
Pourquoi choisir les GPU NVIDIA H200Â ?
Puissants
Jusquâà 1,4 à plus rapide que le H100 pour lâentraînement et lâinférence de modèles GenAI.
Performants
141 Go de mémoire HBM3e ultra rapide : 2 à plus de bande passante mémoire, lâidéal pour les modèles volumineux.
Compatibles
Compatible H100 : exploitez vos frameworks et optimisations existantes sans migration complexe.
Souverain
Disponibles dans notre Public Cloud, assurant flexibilité, transparence et conformité européenne.
Optimisé pour vos workloads IA et data
LLM à très grande échelle
Entraînez et déployez des modèles jusquâà 175 B de paramètres (GPT-3, Llama 3, Falcon 180 B) grâce à ses 141 Go de mémoire HBM3e et à une bande passante de 4,8 To/s.
IA générative avancée
Générez du texte, de lâimage, de lâaudio et de la vidéo avec des temps de réponse stables, même dans des contextes longs.
Contexte étendu et RAG
Améliorez vos assistants IA et chatbots avec de longues fenêtres contextuelles.
Spécifications
Caractéristiques techniques
GPU
8 GPU par instance. Organisés en deux groupes de 4, avec une connectivité NVLink uniquement au sein de chaque groupe.
Mémoire GPU
141 Go de HBM3 ultra rapide par GPU
Stockage performant
Passthrough NVMe local sur la majorité des instances
Réseau public et privé
Jusqu'Ã 25 Gbit/s inclus
Automatisation
Gestion via votre espace client, API, OVHcloud CLIâ¦
Sécurisé et privé
Certifications ISO27001, SOC, hébergement de données de santéâ¦
Notre gamme Cloud GPU
Maximisez votre ROI avec une infrastructure GPU flexible
Transparence tarifaire
Payez uniquement pour les ressources que vous utilisez, sans frais cachés. Vous gardez le contrôle de vos coûts tout en profitant de performances optimales.
Ãvolutivité instantanée
Augmentez ou réduisez vos ressources GPU à la demande, en quelques clics. Adaptez votre capacité à vos workloads IA et data en toute simplicité.
Souveraineté et conformité
Vos données sont hébergées sur un cloud européen certifié, garantissant sécurité, transparence et respect des réglementations (RGPD, ISO, HDS).
Accessibilité sans barrière à lâentrée
Des GPU H200 accessibles à toutes et tous : du proof of concept au déploiement en production, sans engagement de volume ni contrainte matérielle.
Comment choisir son GPU pour faire de l'inférence ?
Modèles compacts
Jusquâà 7 B de paramètres, un A100 offre un excellent ratio performance-prix.
Modèles volumineux
De 65 B+ ou fenêtres contextuelles étendues, le H200 apporte la bande passante mémoire nécessaire pour des temps de réponse stables.
Configurez vos instances GPU
Les questions que vous vous posez
Quel engagement de niveau de service (SLA) est garanti par OVHcloud sur une instance GPU ?
Lâengagement de niveau de service (SLA) est de 99,99 % de disponibilité mensuelle sur les instances GPU. Pour plus dâinformations, veuillez consulter les Conditions générales de service.
Quel est lâhyperviseur utilisé pour la virtualisation des instances ?
Tout comme les autres instances, les instances GPU sont virtualisées par lâhyperviseur KVM du noyau Linux.
Quâest-ce que le PCI Passthrough ?
Les cartes proposant des processeurs graphiques sont desservies via le bus PCI du serveur physique. Le PCI Passthrough est une fonctionnalité de lâhyperviseur qui permet de dédier un matériel à une machine virtuelle en donnant directement lâaccès au bus PCI, sans passer par la virtualisation.
Peut-on redimensionner une instance Cloud GPU ?
Oui, les instances Cloud GPU peuvent passer au modèle supérieur après un redémarrage. Toutefois, elles nâont pas la capacité dâévoluer vers un modèle inférieur.
Les instances Cloud GPU bénéficient-elles dâune protection Anti-DDoS ?
Oui, notre protection Anti-DDoS est incluse dans toutes les solutions OVHcloud sans surcoût.
Est-il possible de basculer une instance facturée mensuellement vers une facturation horaire ?
Si la facturation mensuelle est en place, il nâest pas possible de changer pour une facturation horaire. Avant le démarrage de lâinstance, sélectionnez donc soigneusement le mode de facturation le plus adapté à votre projet.
Quâest-ce quâun Cloud GPU ?
Un Cloud GPU désigne un service de calcul dans le cloud qui fournit des unités de traitement graphique (GPU) pour lâexécution de tâches nécessitant une grande puissance de calcul. Ces tâches peuvent inclure le rendu graphique, lâapprentissage automatique, lâanalyse de données et les simulations scientifiques. Contrairement aux GPU sur site, qui nécessitent un investissement important en matériel, les Cloud GPU offrent une certaine flexibilité et une évolutivité. Les utilisateurs et utilisatrices peuvent ainsi accéder à des ressources de calcul haute performance sur demande et payer uniquement pour ce quâils utilisent.
Quâest-ce quâun serveur H100 et A100 ?
Les serveurs équipés de GPU NVIDIA H100 et A100 sont des systèmes conçus pour fournir des performances exceptionnelles dans les domaines du calcul haute performance (HPC), de lâintelligence artificielle (IA) et de lâanalyse de données.
Quâest-ce que NGC ?
NVIDIA Cloud GPU (NGC) est une plateforme de cloud computing proposée par NVIDIA. Elle fournit un catalogue complet de logiciels optimisés pour lâaccélération par GPU destinés à lâintelligence artificielle (IA), au machine learning (ML) et au calcul haute performance (HPC). NGC vise à simplifier et à accélérer le déploiement des applications dâIA et de calcul scientifique en fournissant des conteneurs, des modèles pré-entraînés, des SDK et dâautres outils qui sont tous optimisés pour tirer pleinement parti des GPU NVIDIA.
Pourquoi utiliser un Cloud GPU ?
Lâutilisation dâun Cloud GPU présente de nombreux avantages, notamment pour les entreprises, les équipes de recherche et celles de développement qui évoluent dans des domaines exigeants comme lâintelligence artificielle (IA), le rendu graphique, le machine learning (ML) et le calcul haute performance (HPC).Â