Sélectionner une page
Print Friendly, PDF & Email

Après vous avoir présenté en 2018 l’infrastructure 2015 de la Maison Bleue avec la fibre Orange, voici l’architecture 2020… entièrement 10 Gigabit Ethernet (GbE) avec la fibre Free !

Plusieurs points m’ont poussé à changer mon infrastructure en 2019 :

  • Pour rappel, j’utilisais la fibre Orange avec le WAN en DHCP et plusieurs VLAN (pas de mode bridge chez Orange) pour récupérer les différents flux (Internet, TV, téléphone) sur un routeur pfSense. Mais j’ai fini par rencontrer des dysfonctionnements en perdant alternativement un service, soit la TV, soit le téléphone, certainement en raison de modifications techniques de la part d’Orange. Un passage sur OPNsense, pourtant plus optimisé que pfSense concernant l’intégration de la fibre Orange, ne changea rien à mes difficultés,
  • Par ailleurs, mes 2 baies 10″ avaient atteint leurs limites : peu d’espace pour intervenir sur le matériel en cas de panne et trop peu de dissipation de chaleur en été, provoquant en 2019 des surchauffes et des pannes,
  • Et pour finir, l’envie de passer à des vitesses rêvées mais inaccessibles pour les particuliers jusqu’à présent. La lecture de ce topic sur le forum lafibre.info m’a beaucoup inspiré…

Ayant libéré de la place dans ma cave, j’ai décidé de passer à une baie 19″ pour avoir plus d’espace lors des interventions physiques et une meilleure aération, mais aussi de changer d’opérateur et passer chez Free avec la Freebox Delta S en mode bridge. Elle offre un débit de 10 Gb/s en download sur le WAN (8 Gb/s dans la pratique). Une interface SFP+ pour le LAN permet d’atteindre le 10 Gigabit Ethernet et le mode bridge facilite la mise en œuvre d’un routeur privé. Par ailleurs, j’ai demandé via l’espace abonné Free une adresse IP fixe V4 full-stack ce qui facilite l’accès aux différents serveurs Web que j’héberge.

Après une phase de réflexion sur « papier », j’ai déterminé les équipements dont j’avais besoin ainsi que la hauteur utile de la baie 19″ et rédigé un tableau Excel en plaçant tous les éléments nécessaires à mon projet :

Câblage

En 2012, j’avais installé un câblage Cat 6 dans la maison. Pour du 10 GbE, il est préconisé d’utiliser la Cat 6a ou Cat 7 mais la Cat 6 accepte le 10 GbE sur une distance max de 55 mètres :

Sur ce point, je fus fixé lors des tests effectués sur le PC le plus éloigné du répartiteur.

J’ai par contre remplacé tous les câbles RJ45 dans les étages par des câbles blindés SFTP Cat 7 achetés chez FS.com. C’est également sur ce site que j’ai acheté les câbles DAC SFP+ nécessaires pour interconnecter les switches entre eux et les serveurs aux switches.

C’est aussi chez FS.com que j’ai acquis 2 trunks de 6 câbles Cat 6a de 7 mètres de long pour connecter, sur le premier trunk, les 6 prises RJ45 du répartiteur aux différents switches situés dans la baie 19″.

Pour le second trunk, j’ai connecté aux switches les équipements présents autour de la baie, les caméras IP, la base DECT et le routeur 4G :

J’ai également utilisé une gaine électrique pour connecter en toute sécurité la fibre optique du PTO situé près du répartiteur et le câble téléphonique RJ11 de la base DECT à la Freebox Delta S située dans la baie 19″.

Les 2 trunks et la gaine voyagent eux-mêmes dans plusieurs tubes d’évacuation de 60 mm de diamètre du répartiteur en direction de la baie 19″ :

J’ai également fait installer par un professionnel deux prises électriques à proximité de la baie 19″ jusqu’au tableau électrique général sur deux disjoncteurs dédiés. J’ai veillé à bien différencier le chemin du courant fort (électrique) du chemin du courant faible (réseau).

Réseau

Concernant les switches, après avoir utilisé un switch MikroTik RB260GS dans ma précédente infra et apprécié la facilité de paramétrage, mon choix s’est donc porté sur la gamme MikroTik, notamment pour les switches SFP+ supportant le 10 GbE :

Dans les autres pièces où j’ai besoin du PoE pour les caméras IP et les points d’accès Wifi, je n’ai pas trouvé de petits switches dans la gamme MikroTik supportant la norme 802.3af. J’ai décidé alors d’utiliser les switches de la gamme Netgear, le GS105PE et le GS108PE.

J’en ai profité pour changer les points d’accès Wifi Cisco WAP371 par des UniFi UAP FlexHD d’Ubiquiti de bien meilleure qualité à l’usage.

J’utilise les modules ou câbles SFP+ suivants sur les différents switches SFP+ :

 

Stockage

J’ai aussi réfléchi au stockage car il reste un goulot d’étranglement important pour un réseau 10 Gb/s. Pour mémoire, les débits moyens en lecture sont les suivants sur les 3 technos majeures :

  • HDD SATA 2.5″ ou 3.5″ : 120 Mo/s soit environ 1 Gb/s
  • SSD SATA 2.5″ : 500 Mo/s soit 4 Gb/s
  • SSD NVMe M.2 : 3000 Mo/s soit 24 Gb/s

La solution idéale aurait été d’équiper toutes les machines uniquement en SSD NVMe M.2, mais n’existant pas ou alors coûtant un bras pour les très grandes capacités, j’ai donc choisi les disques suivants en fonction du type de machine :

  • Les 3 PC fixes : 1 SSD NVMe M.2 pour le système Windows 10 et 1 SSD SATA pour les données
  • Le serveur WMware : 1 SSD NVMe M.2 pour l’hyperviseur VMware et 4 SSD SATA 2.5″ en RAID 10 pour les données
  • Le serveur de jeux : 1 SSD NVMe M.2 pour le système Linux Debian et 1 SSD SATA 2.5″ pour les données
  • Le NAS1 : 2 SSD NVMe M.2 pour le cache et 4 HDD SATA 3.5″en RAID 10 pour le système et les données
  • Le NAS2 : 2 SSD NVMe M.2 pour le cache, 5 HDD SATA 3.5″en RAID 5 pour le système et les données du 1er volume et 1 HDD SATA 3.5″en RAID 0 pour le 2nd volume

J’ai dû acquérir une carte RAID Broadcom LSI pour le serveur VMware car malheureusement il ne reconnaissait pas le RAID proposé par la carte-mère Supermicro. J’ai alors hésité entre m’équiper de SSD NVMe M.2 et SSD SATA 2.5″. Mais là aussi VMware ESXi impose ses limites et ne reconnait pas vROC d’Intel pour le moment qui permettrait l’intégration d’un RAID NVMe M.2 à moindre coût. Il fallait s’équiper d’une carte RAID Broadcom LSI 9400-16i et de SSD NVMe U.2 prévus pour équiper les Datacenter… ce qui a fini par me conforter mon choix de rester en SSD SATA 2.5″ pour le moment.

Baie

Restait encore à trouver une baie 19″ et deux serveurs 19″, l’un pour héberger WMware et tous les serveurs virtuels et l’autre pour un serveur de jeux. Mon choix s’est finalement porté sur Cablematic, un fabricant Catalan :

Le dernier serveur rack qui équipe la baie est le NAS1, un Synology RackStation RS1619xs+, qui lui est livré quasiment tout équipé sauf disques, mémoire et carte d’extension.

Le NAS2 dédié à la sauvegarde, un Synology DiskStation DS1821+, est non rackable et livré également quasiment tout équipé sauf disques et carte d’extension.

La baie avec tous les équipements :

Rack 19 poucesTélécharger

La baie lors du montage que j’ai pu effectuer seul sauf pour 2 ou 3 manipulations :

Les parties « réseau » et « serveur » de la baie :​​

Serveurs

Pour le serveur VMware, je souhaitais un processeur Xeon assez puissant pour installer une dizaine de serveurs virtuels, 4 disques en RAID 10 et 64 Go de mémoire. J’ai donc choisi les composants suivants :

 

Le serveur de jeux est composé entre autre d’une carte-mère, d’un processeur et de la mémoire récupérés sur un PC mis à jour :

 

Le NAS Synology RS1619xs+ (NAS1) a été complété par les éléments suivants :

 

MAJ décembre 2021 : pour les sauvegardes, j’ai remplacé les Docks StarTech par un NAS Synology DS1821+ (NAS2) qui a été complété par les éléments suivants :

  • 2 x Mémoire Kingston KSM26SES8/16HA 16Go DDR4 2600MHz ECC. A la date d’achat du NAS, le site Crucial ne proposait malheureusement pas de mémoire compatible avec ce modèle. A noter que le NAS affiche un message d’alerte à chaque redémarrage sur l’utilisation de “modules mémoire non recommandés par Synology”. Toutefois, je n’ai rencontré à ce jour aucun dysfonctionnement ou plantage du NAS avec l’utilisation de mémoires Kingston
  • Carte Réseau Synology Network Card SFP+ E10G21-F2 avec les 2 ports SFP+ sur le LAN (LAG LACP)
  • 2 x SSD NVMe M.2 Crucial P2 250 Go utilisés pour le cache
  • 5 x HDD SATA 3.5″ Seagate IronWolf 8 To, dont 2 récupérés de l’ancien dock de sauvegarde du NAS Synology RS1619xs+, pour le 1er volume du NAS (RAID 5)
  • 1 x HDD SATA 3.5″ Western Digital Red NAS 10 To , récupéré de l’ancien dock de sauvegarde du serveur VMware, pour le 2nd volume du NAS (RAID 0)

 

MAJ février 2022 : j’avais deux Raspberry Pi 3 B+ en stock et, après avoir vu ce projet de cluster Raspberry Pi pour miner des Dogecoin, j’ai décidé de réaliser ce projet en lab mais sur une échelle plus petite avec trois Raspberry Pi. J’ai finalement acheté deux Raspberry Pi 4 B car l’un des deux Pi 3 B+ dysfonctionnait :

 

PC

Enfin les PC ont été mis à jour pour supporter le 10 GbE :

 

Archi 2020

Voici un schéma de principe de l’architecture 2020 :

Infra_La_Maison_Bleue_Net_2020_001Télécharger

Et quelques résultats chiffrés de tests sur le WAN réalisés avec l’app Speedtest sous Windows 10 à différentes heures de la journée, 4h, 8h, 12h, 16h, 20h et minuit :

On constate qu’à 4h du matin, quand peu de gens sont connectés, le résultat n’est pas loin du débit max qu’offre la fibre Free 10G-EPON mutualisée, soit 8 Gb/s. Quant à l’upload, il reste constant à 660 Mb/s quelle que soit l’heure de la journée, très proche du max à 700 Mb/s.

A noter que ces résultats ont été obtenus en utilisant un firewall Untangle, alors qu’avec le firewall pfSense, je ne dépassais pas les 2,4 Gb/s. J’ai changé très récemment de firewall après avoir lu ce topic sur le forum SMPFR.info, cherchant depuis des mois pourquoi je n’atteignais pas des débits supérieurs.

Sur le LAN, une lecture et écriture sur le NAS1 donnent les mêmes résultats :

Il est possible d’atteindre des pointes à 1,22 Go/s en lecture, c’est-à-dire tout proche du débit max de 10 Gb/s. Ces performances sont possibles grâce à l’utilisation du cache du NAS1 composé de deux SSD NVMe M.2 qui remplissent très bien leur rôle sur un réseau 10 GbE alors que les disques principaux ne sont que des HDD SATA. Elles sont possibles aussi grâce aux Jumbo Frames mises en œuvre sur tous les systèmes, VMware, Linux, Windows, serveurs et PC et le firewall Untangle.

Les transferts vers les serveurs virtuels VMware dans le même VLAN ou non (LAN ou DMZ) donnent une vitesse moyenne de 4 Gb/s conforme aux limites des SSD SATA installés sur le serveur VMware.

Conclusion

Le prochain article détaille l’infrastructure réseau avec le paramètrage des switches, des VLAN et des AP Wifi.