[résolu] Problème Bonding / VLAN apres redémarrage

Ju75
Messages : 9
Inscription : 31 mai 2012, 16:02

[résolu] Problème Bonding / VLAN apres redémarrage

Message par Ju75 » 14 février 2013, 11:48

Bonjour à tous,

Je viens d'installer la version 6.3 de Centos, configuré les deux cartes réseaux en bonding (mode 4, LACP) et je fais passer 3 VLAN sur cet agrégat.
J'ai réussi a faire fonctionner le tout mais lorsque l'on redémarre le serveur je n'ai plus de communication ( exemple le ping vers d'autres machines dans les VLAN ne fonctionne plus)...

La seule solution que j'ai trouvé pour l'instant c'est de faire après chaque reboot un

Code : Tout sélectionner

ifdown em1
ifdown em2
ifup em1
ifup em2


Est-ce que quelqu'un connait une solution plus propre ?

merci


Update : a priori pas besoin de redemarrer le service network, "juste" faire un ifdown et ifup
Dernière modification par Ju75 le 15 février 2013, 20:14, modifié 4 fois.

Avatar de l’utilisateur
nouvo09
Messages : 2183
Inscription : 20 octobre 2009, 08:14
Localisation : Paris, France

Re: Probleme VLAN apres redemarrage

Message par nouvo09 » 14 février 2013, 12:12

Je connais le service network, pas networking

tu n'as pas d'erreur lorsque tu lances cette commande ?
C'est pas parce que c'est difficile qu'on ose pas,
c'est parce qu'on ose pas que c'est difficile !

Ju75
Messages : 9
Inscription : 31 mai 2012, 16:02

Re: Probleme VLAN apres redemarrage

Message par Ju75 » 14 février 2013, 12:33

Me suis trompé, c'est bien entendu le service network
Et non, je n'ai pas d'erreur.

Note : si cela peut aider, les cartes réseaux ont l'option NM_CONTROLLED="no"

Avatar de l’utilisateur
nouvo09
Messages : 2183
Inscription : 20 octobre 2009, 08:14
Localisation : Paris, France

Re: Probleme VLAN apres redemarrage

Message par nouvo09 » 14 février 2013, 13:41

J'imagine que tu as vérifié ce que renvoie la commande

chkconfig --list | grep network ?

L'option NM_CONTROLLED="no" indique juste que tu n'utilises pas NetworkManager.
C'est pas parce que c'est difficile qu'on ose pas,
c'est parce qu'on ose pas que c'est difficile !

Ju75
Messages : 9
Inscription : 31 mai 2012, 16:02

Re: Probleme VLAN apres redemarrage

Message par Ju75 » 15 février 2013, 10:58

La commane retourne ce resultat :

Code : Tout sélectionner

network        	0:off	1:off	2:on	3:on	4:on	5:on	6:off

tru
Messages : 234
Inscription : 20 octobre 2009, 09:30

Re: Probleme VLAN apres redemarrage

Message par tru » 15 février 2013, 11:27

à tout hasard, désactive NetworkManager

Code : Tout sélectionner

chkconfig --list NetworkManager
chkconfig NetworkManager off

Ju75
Messages : 9
Inscription : 31 mai 2012, 16:02

Re: Probleme VLAN apres redemarrage

Message par Ju75 » 15 février 2013, 11:45

Effectivement j'ai pensé à ça aussi mais malheureusement cela ne fonctionne toujours pas.

Avatar de l’utilisateur
nouvo09
Messages : 2183
Inscription : 20 octobre 2009, 08:14
Localisation : Paris, France

Re: Probleme VLAN apres redemarrage

Message par nouvo09 » 15 février 2013, 13:38

Tu peux rechercher dans le fichier /var/log/messages ce qu'il est dit au démarrage a propos de ces interfaces ?
C'est pas parce que c'est difficile qu'on ose pas,
c'est parce qu'on ose pas que c'est difficile !

Ju75
Messages : 9
Inscription : 31 mai 2012, 16:02

Re: Probleme VLAN apres redemarrage

Message par Ju75 » 15 février 2013, 15:24

Pour coller au mieux à nos serveurs de production j'ai renommé les cartes em1 en eth0 et em2 en eth1
Depuis j'ai l'impression que je n'ai plus besoin de redemarrer le service network, "juste" besoin de faire un ifdown et ifup des deux cartes reseaux.

Lorsque je demarre le serveur (et que mes connexions reseaux ne fonctionnent pas) dans /var/log/messages j'ai :

Code : Tout sélectionner

13:53:56 test kernel: 802.1Q VLAN Support v1.8 Ben Greear <greearb@candelatech.com>
Feb 15 13:53:56 test kernel: All bugs added by David S. Miller <davem@redhat.com>
Feb 15 13:53:56 test kernel: Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)
Feb 15 13:53:56 test kernel: bonding: MII link monitoring set to 100 ms
Feb 15 13:53:56 test kernel: ADDRCONF(NETDEV_UP): bond0: link is not ready
Feb 15 13:53:56 test kernel: 8021q: adding VLAN 0 to HW filter on device bond0
Feb 15 13:53:56 test kernel: bonding: bond0: Adding slave eth0.
Feb 15 13:53:56 test kernel: bnx2 0000:02:00.0: eth0: using MSIX
Feb 15 13:53:56 test kernel: [b]bonding: bond0: enslaving eth0 as a backup interface with a down link.[/b]
Feb 15 13:53:56 test kernel: bonding: bond0: Adding slave eth1.
Feb 15 13:53:56 test kernel: bnx2 0000:02:00.1: eth1: using MSIX
Feb 15 13:53:56 test kernel: [b]bonding: bond0: enslaving eth1 as a backup interface with a down link.[/b]
Feb 15 13:53:56 test kernel: bnx2 0000:02:00.0: eth0: NIC Copper Link is Up, 1000 Mbps full duplex
Feb 15 13:53:56 test kernel: bond0: link status definitely up for interface eth0, 1000 Mbps full duplex.
Feb 15 13:53:56 test kernel: ADDRCONF(NETDEV_CHANGE): bond0: link becomes ready
Apres ifdown/ifup (et que mes connexions reseaux fonctionnent) dans /var/log/messages j'ai :

Code : Tout sélectionner

14:06:10 test kernel: bonding: bond0: Removing slave eth0
Feb 15 14:06:10 test kernel: bonding: bond0: Warning: the permanent HWaddr of eth0 - 90:b1:1c:2e:91:4b - is still in use by bond0. Set the HWa$
Feb 15 14:06:10 test kernel: bonding: bond0: releasing active interface eth0
Feb 15 14:06:13 test kernel: bonding: bond0: Removing slave eth1
Feb 15 14:06:13 test kernel: bonding: bond0: Removing an active aggregator
Feb 15 14:06:13 test kernel: bonding: bond0: releasing active interface eth1
Feb 15 14:06:13 test kernel: bonding: bond0: Warning: clearing HW address of bond0 while it still has VLANs.
Feb 15 14:06:13 test kernel: bonding: bond0: When re-adding slaves, make sure the bond's HW address matches its VLANs'.
Feb 15 14:06:23 test kernel: bonding: bond0: Adding slave eth0.
Feb 15 14:06:23 test kernel: bnx2 0000:02:00.0: eth0: using MSIX
Feb 15 14:06:23 test kernel: bonding: bond0: enslaving eth0 as a backup interface with a down link.
Feb 15 14:06:25 test kernel: bonding: bond0: Adding slave eth1.
b 15 14:06:25 test kernel: bonding: bond0: enslaving eth1 as a backup interface with a down link.
Feb 15 14:06:25 test kernel: bnx2 0000:02:00.0: eth0: NIC Copper Link is Up, 1000 Mbps full duplex
Feb 15 14:06:25 test kernel: bond0: link status definitely up for interface eth0, 1000 Mbps full duplex.
Feb 15 14:06:25 test kernel: bond0: link status definitely up for interface eth0, 1000 Mbps full duplex.
Feb 15 14:06:27 test kernel: bnx2 0000:02:00.1: eth1: NIC Copper Link is Up, 1000 Mbps full duplex
Feb 15 14:06:27 test kernel: bond0: link status definitely up for interface eth1, 1000 Mbps full dupl
Apres un service network restart (et que mes connexions reseaux ne fonctionnent pas) dans /var/log/messages j'ai :

Code : Tout sélectionner

Feb 15 14:41:07 test kernel: ADDRCONF(NETDEV_UP): bond0: link is not ready
Feb 15 14:41:07 test kernel: 8021q: adding VLAN 0 to HW filter on device bond0
Feb 15 14:41:07 test kernel: bonding: bond0: Adding slave eth0.
Feb 15 14:41:07 test kernel: bnx2 0000:02:00.0: eth0: using MSIX
Feb 15 14:41:07 test kernel: [b]bonding: bond0: enslaving eth0 as a backup interface with a down link.[/b]
Feb 15 14:41:07 test kernel: bonding: bond0: Adding slave eth1.
Feb 15 14:41:07 test kernel: bnx2 0000:02:00.1: eth1: using MSIX
Feb 15 14:41:07 test kernel: [b]bonding: bond0: enslaving eth1 as a backup interface with a down link[/b]
Dans /var/log/boot.log rien pour eth0 et eth1 (car elles sont en slave peut-etre?) par contre pour l'agregat et VLAN j'ai :

Code : Tout sélectionner

Bringing up interface bond0:  ^[[60G[^[[0;32m  OK  ^[[0;39m]
Bringing up interface bond0.20:  ^[[60G[^[[0;32m  OK  ^[[0;39m]
Bringing up interface bond0.40:  ^[[60G[^[[0;32m  OK  ^[[0;39m]
Bringing up interface bond0.60:^[[60G[^[[0;32m  OK  ^[[0;39m]
(désolé pour le pavé)

Avatar de l’utilisateur
nouvo09
Messages : 2183
Inscription : 20 octobre 2009, 08:14
Localisation : Paris, France

Re: Probleme Agregat / VLAN apres redemarrage

Message par nouvo09 » 15 février 2013, 18:12

Je ne connais rien au bonding, par conséquent je n'ai pas d'avis sur ce que je vois

mais si le seul fait de "downer" et "uper" tes interfaces permet de bien fonctionner, mets un script dans le fichier /etc/rc.d/rc.local. Ca ne résoud certes pas le problème, mais ça le contourne.
C'est pas parce que c'est difficile qu'on ose pas,
c'est parce qu'on ose pas que c'est difficile !

Répondre