Ubuntu 20.04. NIC Bonding (802.3ad) & Link Aggregation

Es gibt 10 Antworten in diesem Thema, welches 3.357 mal aufgerufen wurde. Der letzte Beitrag () ist von mdkeil.

  • Moin,


    ich versuche gerade meinen Server mit 2x1GBit an ein US-8-60W anzubinden.


    Meine Konfiguration auf den Server (mit Netplan):


    Ausgabe von cat /proc/net/bonding/bond0

    Ich bin eigentlich davon ausgegangen, dass im Controller angezeigt wird, dass Port 3+4 (Aggregation) mit 2000FDX angebunden ist.



    Vielleicht hat ja jemand bereits Erfahrungen in diesem Bereich und kann mir noch einige Tipps geben.

    My Home-Network

  • Moin mdkeil ,


    zum Thema Bonding und UniFi ist mMn Grendelbox ganz vorn mit dabei. Vielleicht nicht im Linux-Kontext, aber so grundsätzlich.


    Ich meine aber, dass der Host nicht mit 2GBit/s FDX angeschlossen ist sondern mit 2*1GBit/s FDX. Das mag in "Summe" vielleicht gleich sein, dennoch ist es physikalisch ein Unterschied. Ich kann mich erinnern, dass das hier schon Mal mit einer Autobahn verglichen wurde:

    Du hast eine Spur, auf der Du 100km/h fahren kannst / darfst / musst. jetzt brignst Du eine zweite Spur dazu, auf der Du auch 100km/h fahren kannst / darfst / musst. Damit kannst Du aber nur 2*100km/h fahren, aber nicht 1*200km/h.

    Das bedeutet, dass eine einzelne Verbindung nie schneller als 1GBit/s FDX ist.

  • Das ist natürlich nachvollziehbar.. dann teste ich mal von zwei Clients, ob ich mit iperf über 1Gbit komme..

    My Home-Network

  • das hast du sehr schön erklärt....
    das Autobahn Beispiel macht das auch schön bildlich

    Vorteil vom Teaming / Bonding / Trunking ...(egal wie sich das nun schimpft)

    Windows (Teaming), Linux & Synology DSM (Bonding), Switche (Trunking oder Aggregieren)

    ...ist halt ..


    1) die Redundanz.... man kann eine strippe ziehen ohne das was passiert

    2) wenn man 2 Copys übers Netz aufmacht werden diese im Trunk auf beide Leitungen verteilt.
    Ich hab nen durchgehenen Trunk zu meinem Fileserver und den 2 Synologys
    und kann von meiner schnellen NVMe Workload SSD 2x >850MB/s via das 2x10GbE Team unter Windows "runterschicken"

  • Joa.. der Flaschenhals beim Fileserver sind bei mir eh die HDDs, damit bekomme ich eh nicht einmal 1GBit ausgelastet.., außer wenn unterschiedliche angesprochen werde.. Der zweite Großverbraucher ist TVHeadend und ggfs. der Emby-Server.. der einzige Vorteil ist wohl wirklich die Redundanz. Ich gebe später mal Rückmeldung, ob zumindest die theoretische Bandbreitenerhöhung funktioniert.

    My Home-Network

  • ...


    2) wenn man 2 Copys übers Netz aufmacht werden diese im Trunk auf beide Leitungen verteilt.


    ...

    Da muss man meines Wissens nach aber auch aufpassen, da es unterschiedliche Verfahren der Verteilung gibt, welche Quell-MAC auf welche Ziel-MAC zugreifen soll. Da gibt es meine ich AND oder OR oder XOR. Das ist mir dann aber zu theoretisch. :grinning_squinting_face:

  • mal ein Nebenschauplatz.. seitdem ich das Bonding erstellt habe sind im "Home-Assistant Docker Container" (network_mode: host) alle Shellys offline (Timeout).. schon komisch, ich kann normal auf die zugreifen, aus dem Docker-Container heraus kann man sie ebenfalls anpingen.


    Hat wer eine Idee?

    My Home-Network

  • Da muss man meines Wissens nach aber auch aufpassen, da es unterschiedliche Verfahren der Verteilung gibt, welche Quell-MAC auf welche Ziel-MAC zugreifen soll. Da gibt es meine ich AND oder OR oder XOR. Das ist mir dann aber zu theoretisch. :grinning_squinting_face:

    Das Thema erübrigt sich im UniFiVersum derer Switche ...die machen AUSSCHLIESSLICH "LACP Dynamisch"

    bei mir funzelt alles egal wie über was und wo.....Windows, Syno DSM Linux , Proxmox , ESXi.....egal

  • Das Thema erübrigt sich im UniFiVersum derer Switche ...die machen AUSSCHLIESSLICH "LACP Dynamisch"

    bei mir funzelt alles egal wie über was und wo.....Windows, Syno DSM Linux , Proxmox , ESXi.....egal

    Alles klar. Wollte nur nicht, dass jemand die Worte auf die sprichwörtliche Goldwaage legt und sagt, dass es immer so wäre. :winking_face:

    Darauf wollte ich hinaus (aus nicht immer allwissend):

    • Roundrobin: Hier werden alle zur Verfügung stehenden Leitungen abwechselnd der Reihe nach benutzt.
    • DA-Trunking: Hier wird anhand des Modulo der Destination-MAC-Adresse die elementare Schnittstelle gewählt.
    • SA-Trunking: Hier wird anhand des Modulo der Source-MAC-Adresse die elementare Schnittstelle gewählt.
    • SA-DA-Trunking: Hier wird anhand des Modulo der Source-MAC-Adresse und der Destination-MAC-Adresse die elementare Schnittstelle gewählt.
    • Adaptives Trunking: Hier wird erst bei 100 % Auslastung der ersten elementaren Schnittstelle eine weitere zugeschaltet.
    • Dynamisches Trunking ist im Standard Link Aggregation Control Protocol (LACP) und bei proprietären Verfahren wie PAgP möglich.

    Sehr schön erklärt, sogar in deutscher Sprache.

  • Ich habe nun mal die lacp_rate auf slow zurückgesetzt und hash-policy auf layer3+4. Seitdem sind auch meine Shellies im HA wieder erreichbar.. warum auch immer. Mit aktivierter Link Aggregation auf dem Unifi Switch wird mir im ethtool nun auch 2000Mbs angezeigt.. scheint also zu funktionieren.

    My Home-Network

  • lacp_rate nun wieder auf fast und es läuft noch.. musste es dennoch vorerst wieder zurückdrehen, da ich das IPMI nicht mehr erreichen konnte, obgleich ich dafür sogar noch einen extra LAN-Port habe.. am Ende habe ich den Bond wieder aufgelöst und das IPMI war ganz normal über die bekannte IP erreichbar.. muss ich bei Gelegenheit mal genauer beleuchten.. habe aber hier noch andere Baustellen, da zwar auf allen LAN-Dosen ein Signal ankommt und die 8-Adern zumindest Durchgang haben, dennoch handeln die Geräte teilweise nur 100MBit aus.. muss ich mir nochmal die Dosen genauer anschauen, ob die sauber aufgelegt wurden sind.. und am Ende wohl nochmal die entsprechenden Keystone-Module am Patchpanel-- Hoffe nur, dass nicht beim Verlegen irgendwo ein verdeckter Schaden entstanden ist.. we will see..

    My Home-Network