Infrastructure cloud pour l'IA : comparatif praticien AWS vs GCP vs Azure vs OVHcloud
Au dernier trimestre 2025, les dépenses mondiales en services IaaS ont atteint 119,1 milliards de dollars — une croissance de 30 % sur un an, tirée quasi exclusivement par les workloads d'intelligence artificielle (IT for Business, 2026). Pour les DSI et CTO français qui doivent arbitrer entre quatre fournisseurs majeurs, le choix d'une infrastructure cloud pour l'IA ne se résume plus à comparer des tarifs horaires. Disponibilité réelle des GPU, coûts cachés du stockage vectoriel, conformité RGPD et exposition au Cloud Act : les critères de décision se sont multipliés.
Cet article est un guide de terrain. Il confronte AWS, Google Cloud Platform, Microsoft Azure et OVHcloud sur les dimensions qui comptent quand on déploie des modèles de langage, des pipelines RAG ou des agents IA en production.
TL;DR — GCP offre la tarification GPU la plus prévisible grâce aux Sustained Use Discounts automatiques. AWS reste le plus riche en services managés IA. Azure domine sur l'intégration OpenAI. OVHcloud est le seul à proposer une souveraineté européenne native avec des GPU H100 compétitifs. Le stockage vectoriel managé (Pinecone, Weaviate) coûte 10 fois moins cher que l'auto-hébergement sous 50 millions de vecteurs.
1. L'infrastructure cloud IA en 2026 : un marché en hyper-accélération
1.1 Des chiffres qui redessinent les priorités IT
Le marché français du cloud d'infrastructure représente près de 9 milliards d'euros en 2024 (Xerfi). Mais c'est la composante IA qui tire la croissance : selon Gartner, les investissements européens dans les infrastructures de cloud souverain devraient passer de 6,86 milliards de dollars en 2025 à 23,11 milliards en 2027 — un triplement en deux ans.
Cette accélération s'explique par trois facteurs convergents. D'abord, la généralisation des modèles de langage (LLM) dans les workflows métier, qui requiert une puissance GPU massive. Ensuite, l'explosion des architectures RAG (Retrieval-Augmented Generation) qui combinent stockage vectoriel et inférence en temps réel. Enfin, la pression réglementaire européenne — RGPD, Data Act, directive NIS2 — qui pousse les entreprises à reconsidérer leur dépendance aux hyperscalers américains.
1.2 Quatre profils de fournisseurs, quatre philosophies
Le marché de l'infrastructure cloud IA se structure autour de quatre approches distinctes :
| Fournisseur | Philosophie | Force principale | Limite principale |
|---|---|---|---|
| AWS | Écosystème maximal | +200 services, Bedrock, SageMaker | Complexité tarifaire (197 ajustements mensuels) |
| GCP | Simplicité et IA native | TPU propriétaires, Vertex AI, tarification prévisible | Parts de marché plus faibles en Europe |
| Azure | Intégration Microsoft + OpenAI | Accès exclusif GPT-4/GPT-5, intégration Office 365 | Dépendance à l'écosystème Microsoft |
| OVHcloud | Souveraineté européenne | SecNumCloud, datacenters FR/DE, bare-metal GPU | Catalogue de services managés plus restreint |
2. Disponibilité des GPU : le nerf de la guerre IA
2.1 Panorama des GPU disponibles par fournisseur
Le choix d'un GPU cloud pour l'IA dépend de votre cas d'usage : entraînement de modèles, fine-tuning ou inférence en production. Voici l'état des lieux début 2026.
NVIDIA H100 (80 Go HBM3) — Le standard de facto pour l'entraînement et le fine-tuning de LLM. AWS le propose via les instances p5.48xlarge (8 GPU), GCP via les A3 Mega, Azure via les ND H100 v5. OVHcloud le propose en bare-metal avec accès hardware complet.
NVIDIA H200 (141 Go HBM3e) — Jusqu'à 1,4 fois plus rapide que le H100 sur les workloads mémoire-intensifs. Disponible chez AWS, GCP et Azure. OVHcloud l'a annoncé dans sa roadmap 2026.
NVIDIA L40S (48 Go GDDR6) — Optimisé pour l'inférence à coût maîtrisé. Disponible chez les quatre fournisseurs, avec un positionnement prix attractif pour les déploiements de production.
NVIDIA Blackwell B200 — La nouvelle génération, annoncée avec des performances IA 2,5 fois supérieures au H100. AWS, GCP et Azure ont confirmé sa disponibilité courant 2026. OVHcloud a annoncé un partenariat avec NVIDIA pour les clusters Blackwell B200/B300.
2.2 Tarification GPU : le comparatif qui compte
Les prix varient considérablement selon le mode de facturation. Voici un comparatif réaliste pour un GPU H100 en mars 2026 :
| Mode de facturation | AWS | GCP | Azure | OVHcloud |
|---|---|---|---|---|
| On-demand (H100/h) | ~6,88 $ | ~5,50-6,00 $ | ~6,98 $ | ~4,50-5,00 $ |
| Spot/Préemptible | -60 à -90 % | -60 à -70 % | -60 à -80 % | Non disponible |
| Réservé 1 an | -40 à -50 % | -37 % (CUD) | -40 à -50 % | -20 à -30 % |
| Réservé 3 ans | -60 à -72 % | -55 % (CUD) | -60 à -72 % | Sur devis |
Point critique : GCP applique automatiquement un Sustained Use Discount de 30 % sans engagement dès que l'utilisation dépasse un seuil mensuel. Aucun autre fournisseur ne propose cet avantage sans action de l'utilisateur. Pour une équipe qui consomme des GPU de manière irrégulière — typique d'un projet de fine-tuning par phases — c'est un différenciateur réel.
2.3 Disponibilité réelle : au-delà des catalogues
Le catalogue ne fait pas la disponibilité. En pratique, obtenir des GPU H100 en on-demand reste difficile chez les trois hyperscalers, particulièrement en région Europe. Les files d'attente peuvent atteindre plusieurs semaines pour des clusters de 8 GPU ou plus.
OVHcloud se distingue ici par son modèle bare-metal : vous réservez un serveur physique dédié, ce qui garantit l'accès au hardware sans partage. Le compromis : moins de flexibilité à la hausse, pas d'autoscaling.
Recommandation praticienne : pour un projet d'entraînement de modèle nécessitant des GPU H100 pendant 2 à 4 semaines, réservez vos instances au moins 30 jours à l'avance chez AWS, GCP ou Azure. Chez OVHcloud, le provisionnement bare-metal se fait généralement sous 48 heures.

3. Stockage vectoriel : le coût caché des architectures RAG
3.1 Pourquoi le stockage vectoriel est devenu un poste budgétaire critique
Toute application d'IA générative en entreprise finit par avoir besoin d'un stockage vectoriel. Que vous construisiez un chatbot documentaire, un moteur de recherche sémantique ou un agent IA avec mémoire contextuelle, les embeddings doivent être stockés, indexés et interrogés en millisecondes.
Le coût de ce stockage ne se lit pas sur une seule ligne de facturation. Il combine le stockage brut des vecteurs, le coût par requête de recherche, la bande passante entre la base vectorielle et le service d'inférence, et la puissance compute nécessaire pour maintenir les index en mémoire.
3.2 Bases vectorielles managées vs auto-hébergées : le vrai comparatif
Voici un comparatif de coûts pour un cas concret : 10 millions de vecteurs en 1 536 dimensions (format OpenAI text-embedding-3-large) avec 50 Go de métadonnées.
| Solution | Type | Coût mensuel estimé | Avantage principal |
|---|---|---|---|
| Pinecone Serverless | SaaS managé | ~64 $ | Zero-ops, scaling automatique |
| Weaviate Cloud | SaaS managé | ~85 $ | Recherche hybride incluse (keyword + vectoriel) |
| Qdrant auto-hébergé (AWS) | Self-hosted sur EC2 | ~660 $ | Contrôle total, pas de vendor lock-in |
| pgvector sur RDS | Extension PostgreSQL | ~180-350 $ | Intégration native avec votre base existante |
| pgvector sur Cloud SQL (GCP) | Extension PostgreSQL | ~150-300 $ | Idem, écosystème GCP |
| Azure AI Search | Service managé Azure | ~250-500 $ | Intégration native Azure OpenAI |
Le point de bascule se situe autour de 60-80 millions de requêtes par mois ou 100 millions de vecteurs. En dessous, les solutions SaaS managées (Pinecone, Weaviate) sont drastiquement moins chères que l'auto-hébergement, car elles éliminent les coûts DevOps invisibles. Au-dessus, chaque requête supplémentaire s'ajoute à la facture SaaS alors que le coût auto-hébergé reste fixe.
3.3 Stockage vectoriel et choix du cloud : les intégrations natives
Chaque hyperscaler pousse sa propre solution de recherche vectorielle, avec des niveaux de maturité très différents :
AWS propose Amazon OpenSearch Serverless avec support vectoriel, et Amazon Bedrock Knowledge Bases qui intègre nativement un stockage vectoriel pour les pipelines RAG. L'avantage : tout reste dans l'écosystème AWS, la facturation est unifiée. L'inconvénient : vous êtes verrouillé.
GCP mise sur Vertex AI Vector Search (anciennement Matching Engine), avec une intégration directe dans Vertex AI pour les workflows d'entraînement et d'inférence. Performances excellentes sur les grands volumes, mais la courbe d'apprentissage est raide.
Azure propose Azure AI Search avec indexation vectorielle native, directement connecté à Azure OpenAI Service. C'est la solution la plus intégrée si vous utilisez déjà les modèles GPT via Azure.
OVHcloud ne propose pas de base vectorielle managée native. Vous déployez Qdrant, Weaviate ou pgvector sur des instances compute standard. C'est plus de travail opérationnel, mais aucun vendor lock-in sur la couche données.
4. Stockage objet et données d'entraînement : les coûts que personne ne lit
4.1 Tarification du stockage standard
Les projets d'IA génèrent des volumes massifs de données : datasets d'entraînement, checkpoints de modèles (un seul checkpoint de LLM 70B pèse 130-150 Go), logs d'inférence, embeddings archivés. Le stockage objet est le socle de cette infrastructure.
| Service | Prix stockage standard/Go/mois | Prix archive/Go/mois | Egress premier 10 To/Go |
|---|---|---|---|
| AWS S3 Standard | 0,023 $ | 0,00099 $ (Glacier Deep Archive) | 0,09 $ |
| GCS Standard | 0,020 $ | 0,0012 $ (Archive) | 0,12 $ |
| Azure Blob Hot | 0,0208 $ | 0,00099 $ (Archive) | 0,087 $ |
| OVHcloud Object Storage | 0,011 $ | 0,0024 $ (Archive) | Gratuit (inclus) |
4.2 Le piège de l'egress : pourquoi OVHcloud change la donne
Le coût de sortie de données (egress) est le poste le plus sous-estimé des projets IA cloud. À 100 To/mois de transfert sortant, la facture egress atteint 8 500 à 10 000 dollars chez les hyperscalers américains — souvent plus que le stockage lui-même.
OVHcloud inclut le trafic sortant dans ses offres, sans frais supplémentaires. Pour un pipeline d'IA qui transfère régulièrement des datasets entre zones de stockage et clusters de calcul, cette différence peut représenter 20 à 40 % d'économie sur le coût total d'infrastructure.
Scénario concret : une ETI française qui entraîne un modèle métier sur 5 To de données propriétaires, avec 3 cycles d'entraînement par mois et des transferts de checkpoints entre régions, économise entre 1 500 et 3 000 dollars mensuels rien que sur l'egress en choisissant OVHcloud plutôt qu'AWS ou GCP.
4.3 L'impact du Data Act européen sur votre stratégie de stockage
Le Data Act entre en application complète en septembre 2026, avec des dispositions spécifiques sur la portabilité des données cloud. Les fournisseurs devront faciliter le transfert de données entre clouds, et les frais d'egress abusifs seront encadrés.
Cette réglementation devrait entraîner une baisse des coûts de sortie chez les hyperscalers américains. Mais elle crée aussi une obligation de portabilité technique : vos données d'entraînement, vos modèles et vos index vectoriels devront être extractibles dans des formats standards. Un argument supplémentaire pour privilégier des formats ouverts (ONNX pour les modèles, Parquet pour les datasets) dès la conception de votre architecture IA.
5. Souveraineté des données : le critère que vous ne pouvez plus ignorer
5.1 Cloud Act vs RGPD : l'incompatibilité structurelle
Le Cloud Act américain (2018) autorise les autorités américaines à exiger l'accès aux données stockées par des entreprises américaines, même si ces données sont physiquement hébergées en Europe. AWS, Azure et GCP sont tous trois soumis à cette loi — héberger vos données dans un datacenter parisien d'AWS ne vous protège pas.
Le RGPD exige le contrôle et la protection des données personnelles européennes. Ces deux cadres juridiques sont structurellement incompatibles : obéir au Cloud Act revient à violer le RGPD, et inversement.
Pour les secteurs régulés (santé, finance, défense, administrations publiques), cette contradiction n'est pas théorique. Elle conditionne le choix du fournisseur cloud.
5.2 SecNumCloud : le standard français de confiance
SecNumCloud est la qualification de cybersécurité délivrée par l'ANSSI. Sa version 3.2, actuellement en vigueur, couvre près de 1 200 points de contrôle et vise explicitement à protéger contre les lois extraterritoriales.
| Fournisseur | Qualification SecNumCloud | Immunité Cloud Act | Datacenters en France |
|---|---|---|---|
| OVHcloud | En cours (Nutanix-qualified prévu) | Oui (capitaux européens) | Oui (Gravelines, Strasbourg, Roubaix) |
| AWS | Non | Non | Oui (Paris, 3 AZ) |
| GCP | Non (via S3NS/Thales) | Non (sauf S3NS) | Oui (Paris, 3 AZ) |
| Azure | Non (via Bleu/Orange-Capgemini) | Non (sauf Bleu) | Oui (Paris, Marseille) |
Les modèles hybrides émergent : S3NS (Thales + Google) propose un « cloud de confiance » avec la technologie GCP dans un environnement qualifié SecNumCloud. Bleu (Orange + Capgemini) fait de même pour les services Azure. Ces offres combinent la richesse fonctionnelle des hyperscalers avec une couche de souveraineté, mais elles sont encore en déploiement et leurs catalogues de services IA restent limités par rapport aux offres natives.
5.3 Matrice de décision souveraineté
Votre niveau d'exigence en matière de souveraineté dépend de votre secteur et de la nature des données traitées par votre IA :
Niveau 1 — Données non sensibles (données publiques, contenus marketing, documentation technique) : n'importe quel fournisseur avec hébergement en Europe suffit. AWS Paris, GCP Paris ou Azure France répondent au besoin.
Niveau 2 — Données métier confidentielles (données clients, données financières, propriété intellectuelle) : privilégiez un fournisseur avec contrôle juridique européen. OVHcloud en premier choix, ou les offres S3NS/Bleu quand leur catalogue IA sera complet.
Niveau 3 — Données régulées (santé via HDS, données de défense, administration) : SecNumCloud obligatoire. OVHcloud avec qualification SecNumCloud, ou les futures offres souveraines de S3NS et Bleu.

6. Services managés IA : l'écosystème au-delà du compute
6.1 L'offre de services IA par fournisseur
L'infrastructure cloud pour l'IA ne se limite pas aux GPU et au stockage. Les services managés — plateformes MLOps, API d'inférence, outils de fine-tuning — déterminent la vitesse à laquelle vos équipes peuvent livrer des fonctionnalités IA en production.
AWS domine par l'étendue de son catalogue : Amazon Bedrock (accès à Claude, Llama, Mistral, et d'autres fondations models), SageMaker (plateforme MLOps complète), Kendra (recherche d'entreprise), Textract, Comprehend, Rekognition. L'écosystème est le plus mature et le plus documenté.
GCP se distingue par Vertex AI, une plateforme unifiée qui couvre le cycle complet : entraînement, fine-tuning, évaluation, déploiement et monitoring. L'accès aux modèles Gemini en natif et l'intégration BigQuery pour l'analytique IA sont des atouts. Les TPU (Tensor Processing Units) propriétaires offrent un rapport performance/coût supérieur aux GPU NVIDIA pour certains workloads d'entraînement.
Azure capitalise sur son partenariat exclusif avec OpenAI : Azure OpenAI Service donne accès aux modèles GPT-4, GPT-4o et GPT-5 avec des garanties d'entreprise (SLA, conformité, isolation des données). Pour les organisations déjà engagées dans l'écosystème Microsoft 365 et Copilot, l'intégration est naturelle.
OVHcloud propose AI Deploy (déploiement de modèles) et AI Training (entraînement sur GPU) avec un catalogue plus restreint mais en croissance rapide. Le partenariat avec SambaNova pour l'inférence basse latence et le programme d'agents IA (SHAI) annoncés au Summit 2025 montrent une montée en gamme.
6.2 Comparatif des capacités MLOps
| Capacité | AWS | GCP | Azure | OVHcloud |
|---|---|---|---|---|
| Plateforme MLOps intégrée | SageMaker | Vertex AI | Azure ML | AI Training + AI Deploy |
| Modèles fondation managés | Bedrock (multi-provider) | Model Garden (Gemini, etc.) | Azure OpenAI (GPT exclusif) | Via partenariats (SambaNova) |
| Fine-tuning managé | Oui | Oui | Oui | Manuel (notebooks) |
| Feature Store | SageMaker Feature Store | Vertex AI Feature Store | Azure ML Feature Store | Non |
| Monitoring de modèles | SageMaker Model Monitor | Vertex AI Model Monitoring | Azure ML Monitoring | Non natif |
| CI/CD ML natif | SageMaker Pipelines | Vertex AI Pipelines | Azure ML Pipelines | Non natif |
7. Scénarios de décision : quel cloud pour quel projet IA
7.1 Scénario 1 — PME qui déploie un chatbot RAG interne
Contexte : 500 employés, 50 000 documents internes, chatbot basé sur un LLM avec retrieval augmenté. Budget IA : 2 000-5 000 €/mois.
Recommandation : Azure avec Azure OpenAI Service + Azure AI Search. L'intégration GPT-4 est la plus simple à mettre en oeuvre, Azure AI Search gère nativement l'indexation vectorielle, et l'intégration SharePoint/Teams facilite l'adoption.
Alternative souveraine : OVHcloud avec Mistral AI auto-hébergé + Qdrant. Coût GPU plus bas, souveraineté assurée, mais effort d'intégration supérieur.
7.2 Scénario 2 — ETI qui entraîne un modèle métier propriétaire
Contexte : entreprise industrielle, 5 To de données techniques propriétaires, fine-tuning d'un LLM 7-13B pour l'assistance technique. Budget : 10 000-20 000 €/mois.
Recommandation : GCP avec Vertex AI. Les Sustained Use Discounts réduisent automatiquement le coût des cycles d'entraînement longs, Vertex AI simplifie le pipeline MLOps, et les TPU v5 offrent un rapport prix/performance excellent pour le fine-tuning.
Alternative souveraine : OVHcloud bare-metal H100 + stack open-source (PyTorch, MLflow, Weights & Biases). L'egress gratuit réduit significativement les coûts de transfert de datasets volumineux.
7.3 Scénario 3 — Startup SaaS qui intègre l'IA dans son produit
Contexte : produit SaaS B2B, besoin d'inférence LLM à haute disponibilité, scaling variable (pics d'usage), budget optimisé. Budget : 3 000-8 000 €/mois.
Recommandation : AWS avec Bedrock. Le choix multi-modèles (Claude, Mistral, Llama) évite la dépendance à un seul fournisseur de modèle, l'autoscaling est le plus mature, et l'écosystème AWS reste le plus demandé par les clients enterprise.
7.4 Scénario 4 — Organisme public ou secteur régulé
Contexte : administration ou entreprise de santé, données sensibles sous HDS ou obligations SecNumCloud. Budget variable.
Recommandation : OVHcloud pour l'infrastructure, complété par les futures offres S3NS ou Bleu quand les services IA managés seront disponibles en environnement qualifié. À court terme, stack open-source (Mistral, Llama) déployée sur bare-metal OVHcloud avec qualification SecNumCloud.
8. Grille de décision synthétique
Pour trancher entre les quatre fournisseurs, voici les critères pondérés selon les retours terrain :
| Critère | Poids | AWS | GCP | Azure | OVHcloud |
|---|---|---|---|---|---|
| Disponibilité GPU | 25 % | ★★★★ | ★★★★ | ★★★★ | ★★★ |
| Coût GPU (TCO) | 20 % | ★★★ | ★★★★ | ★★★ | ★★★★★ |
| Services IA managés | 20 % | ★★★★★ | ★★★★ | ★★★★ | ★★ |
| Stockage vectoriel natif | 10 % | ★★★★ | ★★★★ | ★★★★★ | ★★ |
| Souveraineté données | 15 % | ★★ | ★★ | ★★ | ★★★★★ |
| Coûts egress/transfert | 10 % | ★★ | ★★ | ★★ | ★★★★★ |
Lecture : aucun fournisseur ne domine sur tous les critères. Le choix optimal dépend de votre pondération entre richesse fonctionnelle (AWS/GCP/Azure) et souveraineté + coûts maîtrisés (OVHcloud).
FAQ
Quel cloud est le moins cher pour entraîner un modèle IA en 2026 ?
En coût horaire brut sur GPU H100, OVHcloud propose les tarifs les plus bas parmi les quatre fournisseurs majeurs (~4,50-5,00 $/h en on-demand). Cependant, GCP peut se révéler plus économique grâce aux Sustained Use Discounts automatiques de 30 % et aux TPU propriétaires. Le coût total dépend aussi de l'egress et du stockage associé.
AWS, Azure ou GCP : lequel offre les meilleurs services IA managés ?
AWS offre le catalogue le plus large (Bedrock, SageMaker, 15+ services IA). Azure se distingue par l'accès exclusif aux modèles OpenAI GPT avec garanties entreprise. GCP propose la plateforme MLOps la plus intégrée avec Vertex AI. Le meilleur choix dépend de votre stack existante et du modèle de fondation que vous souhaitez utiliser.
OVHcloud est-il une alternative crédible aux hyperscalers pour l'IA ?
OVHcloud propose des GPU H100 et L40S compétitifs avec un avantage décisif sur la souveraineté et l'egress gratuit. Son catalogue de services IA managés reste plus limité, ce qui implique davantage de travail d'intégration. Pour les organisations soumises à SecNumCloud ou soucieuses de souveraineté, c'est le choix le plus direct.
Comment choisir entre une base vectorielle managée et l'auto-hébergement ?
En dessous de 50 millions de vecteurs et 60-80 millions de requêtes mensuelles, les solutions SaaS (Pinecone à ~64 $/mois pour 10M vecteurs, Weaviate à ~85 $) coûtent nettement moins cher que l'auto-hébergement (~660 $ sur EC2). Au-delà de ces seuils, le coût SaaS croît linéairement tandis que l'auto-hébergé reste fixe.
Le Cloud Act concerne-t-il mes données IA hébergées en Europe chez AWS ?
Oui. Le Cloud Act s'applique à toute entreprise américaine, indépendamment de la localisation physique des données. Héberger vos données dans la région AWS Paris ne vous protège pas d'une demande d'accès des autorités américaines. Seul un fournisseur à capitaux européens (comme OVHcloud) garantit une immunité juridique au Cloud Act.
Quelle est la meilleure stratégie multi-cloud pour l'IA ?
La stratégie la plus pragmatique combine un hyperscaler (AWS, GCP ou Azure) pour les services IA managés et l'inférence à forte volumétrie, avec OVHcloud pour le stockage des données sensibles et les workloads d'entraînement coûteux en egress. Utilisez des formats ouverts (ONNX, Parquet) et des bases vectorielles portables (pgvector, Qdrant) pour maintenir la portabilité.
AI Coder Squad : déployer votre infrastructure IA sur le bon cloud, dès le premier jour
Le choix d'une infrastructure cloud conditionne la performance, les coûts et la conformité de vos projets IA pour les années à venir. Nos équipes conçoivent des architectures IA — agents, pipelines RAG, systèmes d'automatisation — en tenant compte des contraintes réelles de chaque fournisseur cloud.
AI Coder Squad conçoit des applications sur mesure et des agents IA pour les entreprises qui veulent aller vite sans sacrifier la qualité — avec des développeurs senior et une approche propulsée par l'IA.
→ Démarrez votre projet et découvrez comment AI Coder Squad peut accélérer votre prochaine réalisation.