Lexique
Retrouvez dans ce lexique les définitions des termes clés du cloud privé et de la continuité d’activité pour mieux comprendre les enjeux et les solutions adaptées à votre entreprise.
Un serveur virtuel dédié est une machine virtuelle qui fonctionne sur un hyperviseur. Ses ressources sont attribuées exclusivement à un seul client. Il garantit des performances constantes en évitant la mutualisation des ressources.
Un hyperviseur est un logiciel permettant de créer et gérer plusieurs machines virtuelles (VM) sur un même serveur physique. Il existe deux types :
- Type 1 : installé directement sur le matériel (ex : Hyper-V de Microsoft).
- Type 2 : fonctionnant sur un système d’exploitation hôte.
La virtualisation consiste à créer plusieurs environnements à partir d’un même serveur physique. On peut ainsi optimiser l’utilisation des ressources matérielles.
Un NAS (Network Attached Storage) est un dispositif de stockage en réseau qui permet d’accéder aux fichiers à distance. Il est souvent utilisé pour stocker les données des serveurs virtuels et peut être intégré à un cluster pour garantir la disponibilité des fichiers.
Le RAID (Redundant Array of Independent Disks) est une technologie qui combine plusieurs disques durs en une seule unité pour améliorer la performance et renforcer la sécurité des données. Il est couramment utilisé dans les datacenters pour assurer la redondance en cas de panne.
Une baie de stockage est un équipement conçu pour centraliser et gérer de grandes quantités de données. Elle peut contenir des disques durs ou SSD et est généralement connectée à un cluster pour offrir un stockage rapide et sécurisé.
Un datacenter est un site physique hébergeant les infrastructures informatiques essentielles, telles que les serveurs et les équipements réseau. Il assure un environnement sécurisé et optimisé pour garantir la continuité des services.
La haute disponibilité désigne la capacité d’un système à fonctionner sans interruption, même en cas de panne. Les infrastructures en cluster sont souvent utilisées pour assurer cette continuité.
La répartition de charge consiste à distribuer le trafic entre plusieurs serveurs afin d’éviter qu’un seul ne soit surchargé. Cela garantit une meilleure performance et une réponse rapide aux utilisateurs.
Le failover est un mécanisme qui permet de basculer automatiquement les services d’un serveur défaillant vers un serveur de secours, évitant ainsi toute interruption d’activité.