Nous sommes heureux d’annoncer la sortie de la version 1.9, pour la région EUROPE
:
2025-03-28T07:00:00Z
Cette nouvelle version apporte de nouvelles fonctionnalités telles que :
External GPU Instance Support
Vous pouvez désormais connecter à votre infrastructure LayerOps toute machine externe équipée de GPU NVIDIA. Cette fonctionnalité prend en charge les systèmes Ubuntu dont les pilotes NVIDIA sont correctement installés, ce qui facilite l’intégration de votre matériel existant équipé de GPU.
GPU-Compatible Cloud Provider Integration
LayerOps prend désormais en charge le déploiement d’instances compatibles avec le GPU par l’intermédiaire des fournisseurs de cloud configurés. Cette intégration vous permet de faire évoluer automatiquement vos charges de travail GPU en fonction de la demande, avec la prise en charge de divers types d’instances compatibles GPU provenant des principaux fournisseurs de cloud.
GPU Service Deployment
La configuration des services pour l’utilisation des GPU NVIDIA est désormais simple.
Il suffit d’activer les capacités GPU dans la section « Devices » de la configuration de votre service, et LayerOps déploiera automatiquement votre service sur des instances compatibles avec les GPU.
Cette intégration transparente garantit que vos charges de travail intensives en GPU s’exécutent sur l’infrastructure appropriée sans aucune configuration supplémentaire.
Pour plus d’informations sur la prise en charge des GPU, veuillez consulter notre site web documentation sur les GPU et les pools d’instances.
Ollama in Marketplace
Ollama est désormais disponible sur la place de marché de LayerOps, permettant le déploiement rapide de grands modèles de langage (LLM). Combiné à notre nouveau support GPU, vous pouvez exécuter efficacement ces modèles sur votre infrastructure GPU.
Key features include:
- One-click deployment of Ollama with GPU support
- Automatic resource allocation and scaling
- Seamless integration with LayerOps monitoring and logging