Intel E10G42BTDABLK carte réseau Interne Fibre 10000 Mbit/s
- 4.5

Intel E10G42BTDABLK carte réseau Interne Fibre 10000 Mbit/s
Intel E10G42BTDABLK, Interne, Avec fil, PCI Express, Fibre, 10000 Mbit/s
Produits similaires
Information produit
iWARP/RDMA
iWARP fournit des services de matrice convergés à faible latence vers les centres de données via la technologie RDMA (Remote Direct Memory Access) sur Ethernet. Les principaux composants d'iWARP qui apportent cette faible latence sont le contournement du noyau, le placement direct de données et l'accélération du transport.
Technologie d'E/S Intel® Data Direct
La technologie d'E/S Intel® Data Direct I/O est une technologie de plate-forme qui renforce l'efficacité de traitement des données d'E/S pour la livraison et la consommation des données des périphériques d'E/S. Avec la technologie d'E/S Intel® Data Direct I/O, les cartes réseau et les contrôleurs Intel® pour serveurs communiquent directement avec la mémoire embarquée sans passer par la mémoire système : la latence est réduite, la bande passante des E/S est accrue et la consommation d'énergie baisse.
Compatible PCI-SIG* SR-IOV
La virtualisation SR-IOV (Single-Root I/O Virtualization) implique le partage en natif (directement) d'une seule ressource d'E/S entre plusieurs machines virtuelles. SR-IOV offre un mécanisme qui permet à une fonction de racine unique, par exemple un seul port Ethernet, d'apparaître comme plusieurs périphériques physiques distincts.
Gestion de la consommation Ethernet Intel®
La technologie de gestion de la consommation Intel® Ethernet Power Management apporte des solutions aux problématiques courantes de gestion énergétique par la réduction de la consommation en veille, la réduction en capacité et en énergie en fonction de la demande, le fonctionnement à l'efficacité énergétique maximale chaque fois que possible et l'activation fonctionnelle uniquement en cas de besoin.
Partitionnement flexible de port
La technologie de partitionnement flexible de port (Flexible Port Partitioning) utilise la norme industrielle PCI SIG SR-IOV pour diviser efficacement votre périphérique Ethernet physique en plusieurs périphériques virtuels, la qualité de service étant assurée par l'affectation à chaque processus d'une fonction virtuelle et d'une portion suffisante de bande passante.
Files d'attente VMDq (Virtual Machine Device Queues)
Les files d'attente de machines virtuelles VMDq (Virtual Machine Device Queues) sont une technologie conçue pour décharger le moniteur de machine virtuelle (VMM) d'une partie de la charge de commutation vers des matériels réseau conçus pour s'acquitter de cette fonction. VMDq réduit considérablement les traitements associés à la commutation des E/S dans le moniteur de machine virtuelle, ce qui améliore sensiblement le rendement et plus généralement les performances du système
Avis clients
Faites-nous part de votre avis sur le produit ou consultez les avis des autres membres.
5
4
3
2
1
J'aurais aimé que les photos de produit soient meilleures, mais j'ai reçu une carte Intel authentique avec l'étiquette YottaMark en prime. Très rapide, fonctionne comme attendu. Vendeur très rapide dans la livraison également. Achat excellent.
Pays : États-UnisJ'ai utilisé ces connecteurs SFP+ au travail avec des câbles de fibre et ils fonctionnaient bien et atteignaient 10G. J'en ai acheté un pour mon ordinateur personnel à domicile Win11 et après avoir essayé plusieurs connecteurs SFP+ en cuivre, je n'obtiens que 1,4 Gb et pas l'attendu 10G.
Pays : États-UnisJ'ai commandé ces cartes il y a 5 mois et j'ai finalement pu les tester maintenant. Je les utilise dans un ordinateur de bureau Dell Precision T7500 ainsi qu'un ordinateur personnalisé AMD Ryzen sans problème avec les cartes elles-mêmes. Lorsque j'ai commandé les cartes, je n'avais pas reçu les supports bas pour les cartes ni ceux hauteurs. Ce n'est pas un problème majeur mais j'aurais aimé tester les cartes dans un serveur qui exige l'utilisation des supports bas.
Pays : États-UnisJ'ai acheté plusieurs de ces cartes avant pour les utiliser sous ESXi 6.7. Les cartes ont fonctionné directement sans aucune configuration spéciale.
Même expérience cette fois-ci lorsqu'elles ont été utilisées pour les canaux iSCSI entre mon NAS Synology et le serveur lab Supermicro X11SSH-LN4F. Équipées de modules de transmission E10GSFPSR 10GBASE-SR SFP+ DOM Transceiver.
Je commanderai plus encore lorsque des besoins surgiront.