Anthropic, la société dirigée par Dario Amodei, a récemment signé un accord de 1,8 milliard de dollars avec Akamai Technologies pour obtenir une plus grande capacité de calcul pour ses modèles d'IA, notamment pour la plateforme Claude.
L'accord, valable sept ans, est le plus grand contrat jamais signé dans l'histoire d'Akamai et intervient à un moment où la demande en infrastructure d'IA croît à un rythme de plus en plus difficile à soutenir, même pour les grandes entreprises technologiques.
Derrière l'opération mentionnée ci-dessus, il n'y a pas seulement la croissance d'Anthropic, mais aussi un changement plus large sur l'ensemble du marché du Cloud computing.
Ces derniers mois, en effet, le secteur de l'intelligence artificielle a révélé un problème structurel de plus en plus évident.
À savoir que la construction de modèles d'IA avancés nécessite d'énormes quantités de puissance de calcul, des GPU spécialisés et des infrastructures distribuées capables de soutenir des charges de travail continues.
Ce n'est pas un hasard si, lors de la conférence Code with Claude à San Francisco, Amodei a déclaré qu'Anthropic enregistrerait une croissance de 80 % de ses revenus annualisés et de l'utilisation de ses services au premier trimestre 2026.
Une part importante de cette expansion serait liée à l'utilisation de Claude pour le codage, l'automatisation et le développement de logiciels assisté par l'IA.
Et cette croissance même oblige les entreprises d'IA à rechercher de nouvelles sources de capacité de calcul bien au-delà des hyperscalers traditionnels.
Anthropic, en effet, ne se limite pas à l'accord avec Akamai : ces derniers mois, elle a également noué des partenariats avec Google Cloud, Amazon Web Services, CoreWeave et même avec SpaceX d'Elon Musk.
Le message qui en ressort est donc très clair : la véritable bataille dans l'intelligence artificielle ne concerne plus seulement les modèles de langage, mais l'accès aux infrastructures qui les rendent possibles.
D'un autre côté, pour Akamai également, l'accord avec Anthropic représente bien plus qu'un simple partenariat commercial.
Historiquement, la société était principalement connue pour ses services de diffusion de contenu et de cybersécurité, mais l'explosion de l'intelligence artificielle ouvre de nouvelles opportunités stratégiques.
Grâce à son réseau mondial composé de plus de 4 000 points de présence répartis dans plus de 130 pays, Akamai dispose d'une infrastructure décentralisée qui peut bien s'adapter aux besoins des charges de travail modernes d'IA.
Et c'est précisément l'un des aspects les plus intéressants de l'opération. Ces dernières années, le marché du Cloud computing a été dominé principalement par quelques hyperscalers centralisés tels qu'AWS, Google Cloud et Microsoft Azure.
Cependant, l'intelligence artificielle accroît considérablement la pression sur les ressources disponibles et de nombreuses entreprises recherchent des solutions plus distribuées et flexibles.
Dans ce contexte, Anthropic semble avoir compris que s'appuyer exclusivement sur les grands fournisseurs traditionnels pourrait ne pas être suffisant à long terme.
Sans surprise, les investisseurs ont réagi avec enthousiasme à la nouvelle.
Après l'annonce, les actions d'Akamai ont augmenté d'environ 28 %, signe manifeste de la mesure dans laquelle le marché perçoit l'intelligence artificielle comme une opportunité de transformation radicale pour de nombreuses entreprises technologiques.
Selon les estimations des analystes, le contrat pourrait finir par représenter environ 6 % du chiffre d'affaires annuel d'Akamai une fois pleinement opérationnel, avec les premiers impacts économiques attendus d'ici fin 2026.
Cette évolution montre également comment le secteur de l'IA remodèle la chaîne de valeur technologique. Non seulement les entreprises qui développent des modèles de langage en bénéficient, mais aussi tous les acteurs capables de fournir des infrastructures, de l'énergie, des centres de données et de la connectivité.
Cependant, le problème est que cette « course » devient de plus en plus coûteuse. L'entraînement et la maintenance de modèles d'IA avancés nécessitent des investissements continus de plusieurs milliards de dollars, rendant le secteur de plus en plus concentré entre les mains de quelques grandes entreprises ayant accès à d'énormes capitaux.
L'accord entre Anthropic et Akamai révèle une réalité souvent sous-estimée dans le débat public sur l'intelligence artificielle : la principale limite de l'IA moderne n'est plus seulement algorithmique, mais infrastructurelle.
Ces dernières années, le secteur s'est principalement concentré sur la concurrence entre chatbots, modèles de langage et fonctionnalités avancées.
Aujourd'hui, cependant, un second problème émerge, moins visible mais peut-être encore plus important : celui de l'accès à la capacité de calcul. Les entreprises d'IA consomment en effet d'énormes quantités d'énergie, de GPU et de bande passante de données.
Chaque nouvelle génération de modèles nécessite plus de ressources que la précédente, créant une spirale d'investissement qui risque de favoriser de plus en plus uniquement les groupes disposant de ressources financières plus importantes.
Et Anthropic n'est pas la seule entreprise dans cette situation. OpenAI, Google et Meta investissent également des milliards pour sécuriser des puces, des centres de données et des infrastructures de Cloud computing suffisantes pour soutenir la croissance de l'IA générative.
Ce scénario soulève également des questions cruciales sur l'avenir du secteur. Si l'intelligence artificielle dépend de plus en plus d'investissements infrastructurels gigantesques, il y a un risque que le marché devienne progressivement moins ouvert et plus centralisé.
De plus, la pression sur les ressources de calcul pourrait également avoir des effets sur les coûts énergétiques et la durabilité environnementale.
L'expansion de l'IA nécessite en effet d'énormes quantités d'électricité et des systèmes de refroidissement avancés, transformant les centres de données en actifs stratégiques de plus en plus importants.


