Terrill Dicki
25 août 2025 23:56
Together AI présente DeepSeek-V3.1, un modèle hybride offrant des réponses rapides et des modes de raisonnement profond, garantissant efficacité et fiabilité pour diverses applications.
Together AI a dévoilé DeepSeek-V3.1, un modèle hybride avancé conçu pour répondre à la fois aux exigences de réponse rapide et aux tâches de raisonnement complexes. Le modèle, désormais disponible pour déploiement sur la plateforme de Together AI, est particulièrement remarqué pour sa fonctionnalité à double mode, permettant aux utilisateurs de choisir entre les modes non-réflexion et réflexion pour optimiser les performances en fonction de la complexité des tâches.
Caractéristiques et capacités
DeepSeek-V3.1 est conçu pour offrir une efficacité et une fiabilité améliorées, selon Together AI. Il prend en charge le déploiement sans serveur avec un SLA de 99,9%, assurant des performances robustes dans une variété de cas d'utilisation. Le mode réflexion du modèle offre une qualité comparable à son prédécesseur, DeepSeek-R1, mais avec une amélioration significative de la vitesse, le rendant adapté aux environnements de production.
Le modèle est construit sur un ensemble de données d'entraînement substantiel, avec 630 milliards de tokens pour un contexte de 32K et 209 milliards de tokens pour un contexte de 128K, améliorant sa capacité à gérer des conversations étendues et de grandes bases de code. Cela garantit que le modèle est bien équipé pour les tâches nécessitant une analyse détaillée et un raisonnement en plusieurs étapes.
Applications réelles
DeepSeek-V3.1 excelle dans diverses applications, y compris les tâches de code et d'agents de recherche. En mode non-réflexion, il gère efficacement les tâches routinières telles que la génération de points de terminaison API et les requêtes simples. En revanche, le mode réflexion est idéal pour la résolution de problèmes complexes, comme le débogage de systèmes distribués et la conception de migrations de bases de données sans temps d'arrêt.
Pour le traitement de documents, le modèle offre des capacités de non-réflexion pour l'extraction d'entités et l'analyse de base, tandis que le mode réflexion prend en charge l'analyse complète des flux de travail de conformité et le référencement croisé réglementaire.
Métriques de performance
Les tests de référence révèlent les forces du modèle dans les deux modes. Par exemple, dans le benchmark MMLU-Redux, le mode réflexion a atteint un taux de réussite de 93,7%, dépassant le mode non-réflexion de 1,9%. De même, le benchmark GPQA-Diamond a montré une amélioration de 5,2% en mode réflexion. Ces métriques soulignent la capacité du modèle à améliorer les performances dans diverses tâches.
Déploiement et intégration
DeepSeek-V3.1 est disponible via l'API sans serveur de Together AI et des points de terminaison dédiés, offrant des spécifications techniques avec 671 milliards de paramètres totaux et une licence MIT pour une application étendue. L'infrastructure est conçue pour la fiabilité, avec des centres de données nord-américains et la conformité SOC 2.
Les développeurs peuvent rapidement intégrer le modèle dans leurs applications en utilisant le SDK Python fourni, permettant une incorporation transparente des capacités de DeepSeek-V3.1 dans les systèmes existants. L'infrastructure de Together AI prend en charge les grands modèles de mélange d'experts, garantissant que les modes de réflexion et de non-réflexion fonctionnent efficacement sous des charges de travail de production.
Avec le lancement de DeepSeek-V3.1, Together AI vise à fournir une solution polyvalente pour les entreprises cherchant à améliorer leurs applications pilotées par l'IA avec des capacités de réponse rapide et d'analyse approfondie.
Source de l'image : Shutterstock
Source : https://blockchain.news/news/together-ai-launches-deepseek-v3-1-versatile-hybrid-model



