PCIe Lane Sharing verstehen – Bandbreitenverluste aufdecken

Lesedauer: 13 Min – Beitrag erstellt: 23. März 2026, zuletzt aktualisiert: 23. März 2026

Das Verständnis von PCIe Lane Sharing ist entscheidend, um die Leistung von Computern und anderen Geräten optimal zu nutzen. Wenn mehrere Geräte über PCIe-Lanes verbunden sind, kann es zu Bandbreitenverlusten kommen, die die Geschwindigkeit beeinträchtigen. In diesem Artikel beleuchten wir, was PCIe Lane Sharing ist, welche Probleme auftreten können und wie man diese effektiv angeht.

Was ist PCIe Lane Sharing?

PCIe (Peripheral Component Interconnect Express) ist eine Hochgeschwindigkeitsschnittstelle, die zur Verbindung von verschiedenen Hardware-Komponenten in einem Computer verwendet wird. Jede PCIe-Verbindung kann aus mehreren Lanes bestehen, wobei jede Lane Daten parallel überträgt. Lane Sharing tritt auf, wenn mehrere Geräte auf dieselben Lanes zugreifen, was die verfügbare Bandbreite für jedes einzelne Gerät verringert.

Bewertung von Bandbreitenverlusten

Bandwidth-Loss, also der Verlust von Datenübertragungsrate, ist oft das Ergebnis von konkurrierenden Anforderungen an die verfügbaren Lanes. Hier sind einige typische Szenarien, die oft zu Bandbreitenverlusten führen:

  • Multiple Grafikkarten: Wenn zwei Grafikkarten in einem System installiert sind, die dieselben Lanes nutzen, müssen sie sich die Bandbreite teilen.
  • Zusätzliche Speichergeräte: Der Anschluss von NVMe-SSDs kann ebenfalls Bandbreitenverluste verursachen, da sie in vielen Systemen die gleichen Lanes mit anderen Geräten teilen.
  • PCIe-Switches: Diese können mehrere Verbindungen verwalten, was jedoch die Bandbreitentilgung beeinflussen kann.

Diagnose von Bandbreitenproblemen

Um Bandbreitenverluste zu diagnostizieren, gehen Sie wie folgt vor:

  1. Überprüfen Sie, welche Geräte auf welchem PCIe-Slot installiert sind.
  2. Verwenden Sie ein Monitoring-Tool, um die aktuelle Bandbreitennutzung der Lanes zu prüfen.
  3. Identifizieren Sie mögliche Engpässe durch vergleichbare Tests mit und ohne share-den Geräten.

Praxisbeispiele für PCIe Lane Sharing

Praxisbeispiel 1:

In einem Gaming-PC sind zwei GPUs installiert, die über eine PCIe-Schnittstelle verbunden sind. Die Leistung kann erheblich sinken, wenn beide GPUs dieselben Lanes verwenden. Durch den Umbau oder die Installation einer neuen Hauptplatine, die mehr Lanes bereitstellt, kann die Leistung verbessert werden.

Anleitung
1Überprüfen Sie, welche Geräte auf welchem PCIe-Slot installiert sind.
2Verwenden Sie ein Monitoring-Tool, um die aktuelle Bandbreitennutzung der Lanes zu prüfen.
3Identifizieren Sie mögliche Engpässe durch vergleichbare Tests mit und ohne share-den Geräten.

Praxisbeispiel 2:

Ein Nutzer stellt fest, dass seine NVMe-SSD wesentlich langsamer ist als erwartet, weil sie die Lanes mit einer älteren SATA-SSD teilt. Das Upgrade auf eine neue Hauptplatine oder der Wechsel zu einer anderen SSD kann hier Abhilfe schaffen.

Praxisbeispiel 3:

Ein Entwickler verwendet einen PCIe-Switch in seinem Projekt, dennoch treten sporadische Ruckler auf. Durch Optimierung der Verbindungen und eventuell der Zuweisung von Lanes kann die Stabilität erhöht werden.

Maßnahmen zur Behebung von Bandbreitenverlusten

Um Bandbreitenverluste zu reduzieren, können mehrere Maßnahmen ergriffen werden:

  • Verwenden Sie eine Hauptplatine mit mehr verfügbaren PCIe-Lanes.
  • Installieren Sie Geräte so, dass sie unterschiedliche Lanes verwenden.
  • Analysieren Sie die Notwendigkeit jedes installierten Geräts und entfernen Sie möglicherweise überflüssige Komponenten.

Zusammenspiel von CPU, Chipsatz und Lanes

Um Bandbreitenverluste richtig einordnen zu können, hilft ein Blick auf den Weg, den Daten durch den PC nehmen. Moderne Desktop-Prozessoren stellen meist einen festen Satz an direkten PCIe-Lanes zur Verfügung, die vor allem für die Grafikkarte und teilweise für M.2-NVMe-SSDs reserviert sind. Der restliche I/O-Verkehr läuft in der Regel über den Chipsatz, der wiederum über eine einzelne Verbindung mit der CPU kommuniziert. Diese Verbindung entspricht technisch gesehen ebenfalls einem PCIe-Link mit festgelegter Breite und Version.

Wer verstehen möchte, warum bestimmte Ports plötzlich ihre Geschwindigkeit teilen, sollte sich die Lane-Verteilung von CPU und Chipsatz getrennt ansehen. Auf vielen Plattformen liegen der erste PCIe-x16-Slot und ein oder zwei M.2-Steckplätze direkt an der CPU, während weitere M.2-Slots, zusätzliche PCIe-Slots, SATA-Ports, USB-Controller und Onboard-Netzwerkchips am Chipsatz hängen. Sobald mehrere dieser Komponenten gleichzeitig ausgelastet werden, konkurrieren sie um die gemeinsame Bandbreite des Chipsatz-Links zur CPU.

Im Alltag zeigt sich das daran, dass etwa eine schnelle NVMe-SSD am Chipsatz ihre nominelle Geschwindigkeit im Benchmark erreicht, aber während paralleler Transfers zu einer zweiten SSD, einem 10-Gbit-LAN-Adapter oder einer Capture-Karte spürbar einbricht. Dieser Einbruch liegt nicht immer an geteilten Lanes im engeren Sinne, sondern häufig an der Engstelle zwischen Chipsatz und Prozessor. Der Effekt ähnelt Lane Sharing aber deutlich, weil mehrere Geräte sich die verfügbare Übertragungsrate teilen müssen.

Um herauszufinden, auf welcher Seite ein Gerät angebunden ist, stehen mehrere Wege offen:

  • Im Handbuch des Mainboards eine Übersicht über Lane-Zuordnung und Anbindungspfade nachschlagen.
  • Im UEFI/BIOS-Menü nach Einträgen für PCIe-Topologie, Onboard-Geräte oder NVMe-Konfiguration suchen.
  • Unter Windows im Geräte-Manager sowie in Tools wie HWInfo oder GPU-Z die Bus- und Link-Informationen prüfen.

Sobald klar ist, welche Slots an der CPU und welche am Chipsatz hängen, lassen sich empfindliche Geräte besser platzieren. Eine stark genutzte NVMe-SSD profitiert in der Regel deutlich von direkter CPU-Anbindung, während weniger zeitkritische Geräte wie Soundkarten oder einfache SATA-Controller problemlos über den Chipsatz laufen können.

Optimale Slot-Belegung und Priorisierung der Geräte

Viele Bandbreitenprobleme entstehen schlicht durch eine ungünstige Verteilung der Erweiterungskarten. Dabei lassen sich durch eine sorgfältige Slot-Belegung oft deutliche Verbesserungen erreichen, ohne dass neue Hardware nötig ist. Als Ziel gilt, die wichtigsten Hochgeschwindigkeitsgeräte auf ungeteilte Lanes zu legen und weniger kritische Komponenten in Bereiche zu verschieben, die sich Verbindungen teilen dürfen.

Eine systematische Vorgehensweise kann so aussehen:

  1. Relevante Geräte identifizieren, deren Leistung besonders wichtig ist, etwa Grafikkarte, NVMe-SSDs für Projekte oder Spielebibliotheken, 10-Gbit-Netzwerk oder RAID-Controller.
  2. Im Mainboard-Handbuch die Zuordnung der einzelnen PCIe- und M.2-Slots zu CPU beziehungsweise Chipsatz analysieren, einschließlich Hinweise zu geteilten Lanes und Abschaltlogik.
  3. Die Grafikkarte nach Möglichkeit immer im obersten, voll angebundenen Slot betreiben, sofern der Hersteller diesen für die volle Breite vorsieht.
  4. Wichtige NVMe-Laufwerke bevorzugt in M.2-Steckplätze einsetzen, die direkt an der CPU angebunden sind und keine anderen Geräte deaktivieren oder verlangsamen.
  5. Zusatzkarten, die vor allem Verwaltungsaufgaben übernehmen oder geringe Datenraten erzeugen, in die restlichen Slots verschieben, auch wenn diese nur mit x1 oder x4 angebunden sind.

Zusätzlich lohnt es sich, darauf zu achten, wie viele physische Kontakte ein Slot hat und mit wie vielen Lanes er elektrisch tatsächlich arbeitet. Manche x16-Slots sind intern nur mit x4 verdrahtet, was für eine Grafikkarte in der Regel ungünstig wäre, für eine Capture-Karte oder eine einfache NVMe-Erweiterungskarte aber noch völlig ausreichen kann. In den Spezifikationen des Boards ist in der Regel klar ersichtlich, welche Slots auf welche Weise angebunden sind.

Sobald die Slot-Belegung angepasst wurde, empfiehlt es sich, erneut Benchmarks mit typischen eigenen Workloads durchzuführen, anstatt nur synthetische Tests zu verwenden. Ein Beispiel wäre das gleichzeitige Kopieren großer Dateien zwischen den NVMe-SSDs, das Starten eines Spiels und das Aufzeichnen eines Streams. Unterschiede zwischen vorheriger und neuer Konfiguration lassen sich so praxisnah beurteilen, ohne sich ausschließlich auf theoretische Werte zu verlassen.

Feineinstellungen im UEFI/BIOS und erweiterte Optionen

Bei vielen Mainboards ist die Standardkonfiguration auf maximale Kompatibilität ausgelegt. Dadurch bleiben bestimmte Leistungsoptionen deaktiviert oder Ressourcen werden großzügig aufgeteilt, um auch ältere Steckkarten zuverlässig zu unterstützen. Wer Bandbreitenverluste einschränken möchte, sollte sich die Einstellmöglichkeiten im UEFI/BIOS genauer ansehen und gezielt anpassen.

Typische Bereiche, die sich lohnen, sind:

  • PCIe-Link-Geschwindigkeit: In den Einstellungen zur Peripherie finden sich häufig Optionen wie Auto, Gen3, Gen4 oder Gen5. Eine feste Vorgabe für moderne Geräte kann die Aushandlung des Links stabilisieren und verhindert, dass bei Problemen auf einen geringeren Standard zurückgefallen wird.
  • Slot-Konfiguration: Viele Boards bieten Menüs, in denen sich einzelne PCIe-Slots individuell deaktivieren oder in ihrer Lane-Breite umschalten lassen, etwa x16, x8/x8 oder x8/x4/x4. Hier lässt sich gezielt festlegen, ob ein zweiter Grafikslot wirklich aktiv sein soll, wenn nur eine Karte genutzt wird.
  • Onboard-Geräte: Funktionen wie zusätzliche SATA-Controller, zusätzliche LAN-Ports oder Wi-Fi-Module nutzen oft eigene Lanes. Wer sie nicht benötigt, kann sie im UEFI/BIOS abschalten und damit Bandbreite und Ressourcen freigeben.
  • NVMe-Konfiguration: Bei manchen Plattformen lassen sich M.2-Slots zwischen PCIe- und SATA-Betrieb umschalten oder einem bestimmten Lane-Bereich zuordnen. Diese Optionen beeinflussen, welche weiteren Ports aktiv bleiben.

Eine sinnvolle Vorgehensweise beim Anpassen ist, jeweils nur eine Einstellung zu ändern und danach das Systemverhalten zu prüfen. Auf diese Weise lässt sich klar nachvollziehen, welche Option die Anbindung verbessert oder eventuell sogar verschlechtert hat. Besonders hilfreich ist ein Blick in Diagnose-Tools, die nicht nur die aktuelle Transferleistung anzeigen, sondern auch die tatsächlich ausgehandelte Link-Breite und -Geschwindigkeit auflisten.

Wer umfangreiche Änderungen am UEFI/BIOS vorgenommen hat, sollte das Ergebnis zudem in einem Profil sichern, sofern das Mainboard eine solche Funktion bietet. So lässt sich später problemlos zwischen einer sicheren Standardkonfiguration und einer auf maximale Leistung getrimmten Variante wechseln, falls bestimmte Erweiterungskarten oder ältere Betriebssysteme mit den Optimierungen nicht harmonieren.

Ressourcen gezielt freischalten

In manchen Fällen liegen Bandbreitenprobleme nicht nur an geteilten Lanes, sondern an einer starren Ressourcenverteilung zwischen Geräten. Ältere Standards wie CSM oder bestimmte Legacy-Optionen können zusätzliche Einschränkungen verursachen. Durch die Umstellung auf reinen UEFI-Boot und die Deaktivierung historischer Kompatibilitätsmodi lassen sich nicht selten zusätzliche Funktionen aktivieren, die modernere PCIe-Geräte besser nutzen.

Ein möglicher Weg umfasst die folgenden Schritte:

  1. Im UEFI/BIOS überprüfen, ob der Startmodus bereits auf UEFI-only steht und ob CSM deaktiviert ist.
  2. Falls nötig, das Betriebssystem im UEFI-Modus neu installieren oder die Systemplatte auf GPT-Partitionierung umstellen, falls dies vom Systemhersteller unterstützt wird.
  3. Nach der Umstellung alle Geräte erneut auf erkannte Link-Breiten und -Geschwindigkeiten prüfen.

Diese Anpassungen erfordern etwas Vorbereitung, können aber dazu führen, dass Mainboard-Funktionen zur flexibleren Aufteilung von Lanes oder zur Nutzung neuerer PCIe-Standards vollständig zur Verfügung stehen.

Zukunftssichere Planung und typische Fallstricke bei Aufrüstungen

Wer regelmäßig neue Komponenten verbaut, sollte das Thema Lane-Verteilung bereits bei der Auswahl der Hardware einplanen. Ein System, das anfänglich nur eine Grafikkarte und eine SSD beherbergt, reagiert anders als eine ausgebautes Setup mit mehreren NVMe-Erweiterungskarten, Capture-Devices, schnellen Netzwerkkarten und zusätzlichen SATA-Controllern. Bereits kleine Änderungen, etwa eine weitere M.2-SSD oder ein Wechsel auf eine Hochgeschwindigkeitsnetzwerkkarte, können dafür sorgen, dass frühere Reserven plötzlich fehlen.

Typische Stolperfallen sind:

  • Eine zusätzliche M.2-SSD wird eingesteckt, woraufhin mehrere SATA-Ports ausfallen, die bereits belegt waren.
  • Eine zweite Grafikkarte reduziert die Anbindung der ersten Karte, weil die CPU nur eine begrenzte Anzahl an Lanes für den Grafikbereich bereitstellt.
  • Eine NVMe-Erweiterungskarte im unteren Slot nimmt dem darüberliegenden Slot Lanes weg, sodass eine andere Erweiterungskarte plötzlich nur noch mit x1 läuft.
  • Ein günstiges Mainboard mit wenigen CPU-Lanes stößt an Grenzen, sobald mehr als eine Hochgeschwindigkeitskarte betrieben werden soll.

Um solche Effekte zu vermeiden, lohnt es sich, vor einer Aufrüstung einen Blick auf Blockdiagramme und Lane-Tabellen des Mainboards zu werfen. Wer etwa plant, mehrere NVMe-Laufwerke für Video- oder Datenbanken einzusetzen, profitiert deutlicher von einer Plattform mit vielen CPU-Lanes und ausreichenden M.2-Steckplätzen ohne starke Einschränkungen. Ebenso kann es sinnvoll sein, statt einer Vielzahl kleiner Erweiterungskarten auf wenige, gut integrierte Lösungen zu setzen, etwa ein Board mit bereits vorhandenem 2,5- oder 10-Gbit-LAN sowie mehreren performanten M.2-Slots.

Bei der langfristigen Planung helfen diese Leitlinien:

  1. Listen, welche Hochgeschwindigkeitsgeräte in den nächsten Jahren realistisch hinzukommen könnten, etwa weitere NVMe-Laufwerke, spezielle Audio- oder Videokarten oder zusätzliche Netzwerkschnittstellen.
  2. Eine Plattform auswählen, die ausreichend Lanes über die CPU und gegebenenfalls den Chipsatz bereitstellt, sodass auch zukünftige Geräte nicht dauerhaft eingebremst werden.
  3. Auf eine klare und gut dokumentierte Slot- und M.2-Verteilung achten, damit sich spätere Aufrüstungen anhand des Handbuchs problemlos planen lassen.
  4. Bereits beim Kauf auf Erfahrungsberichte achten, in denen Nutzer von geteilten Lanes, abgeschalteten Ports oder ähnlichen Einschränkungen berichten.

Wer diese Punkte berücksichtigt, hat ein deutlich geringeres Risiko, dass wichtige Komponenten später Bandbreite miteinander teilen müssen, obwohl dies vermeidbar gewesen wäre. Auf diese Weise lässt sich das volle Potenzial aktueller PCIe-Standards nutzen, und das System bleibt auch bei komplexen Konfigurationen berechenbar und leistungsfähig.

Häufige Fragen zu PCIe Lane Sharing

Wie erkenne ich im BIOS, ob Slots Lanes gemeinsam nutzen?

Viele UEFI-Oberflächen zeigen unter den Einstellungen für Onboard Devices oder PCIe Configuration an, welche Slots sich Leitungen teilen. Achte dort auf Hinweise zu geteilten Lanes, Shared Slots oder Optionen, bei denen das Aktivieren eines Steckplatzes die Bandbreite eines anderen reduziert. Wenn das Handbuch deines Mainboards verfügbar ist, lohnt sich zusätzlich ein Blick in die Diagramme zur Slot-Bestückung.

Woran merke ich in Benchmarks, dass mein System durch Lane Sharing ausgebremst wird?

Deutlich niedrigere Transferraten als in Testberichten mit vergleichbarer Hardware deuten häufig auf geteilte Lanes hin. Wenn etwa eine PCIe-SSD oder eine Grafikkarte in Tools wie 3DMark, CrystalDiskMark oder AS SSD deutlich unter den typischen Werten bleibt und andere Ursachen ausgeschlossen sind, solltest du die Slot-Aufteilung prüfen. Ein Vergleich der Ergebnisse mit und ohne bestimmte Zusatzkarten im System hilft dabei, den Einfluss geteilter Lanes sichtbar zu machen.

Kann eine moderne Grafikkarte spürbar durch PCIe x8 statt x16 ausgebremst werden?

Bei aktuellen PCIe-Generationen ist der Unterschied zwischen x16 und x8 in vielen Spielen eher gering, dennoch kann es in GPU-lastigen Szenarien zu leichten Einbußen kommen. Intensiv genutzte Workloads mit hohem Datendurchsatz, etwa professionelle Render- oder Compute-Aufgaben, reagieren sensibler auf reduzierte Lane-Zahlen. Wenn dein Board weitere Karten stark zulasten des primären Grafikkartenslots versorgt, lohnt sich eine Optimierung der Slot-Belegung.

Wie finde ich heraus, mit wie vielen Lanes eine Karte aktuell angebunden ist?

Unter Windows liefert GPU-Z beim Reiter für die Grafikkarte die effektive PCIe-Anbindung, und Tools wie HWiNFO zeigen dies ebenfalls für andere Geräte an. Unter Linux kannst du mit lspci und ergänzenden Parametern die aktuelle Lane-Breite auslesen. Vergleiche die dort angezeigte Konfiguration mit den Spezifikationen der Karte, um Engpässe aufzuspüren.

Was sollte ich bei der Auswahl eines Mainboards in Bezug auf Lane Sharing beachten?

Ein Blick auf das Blockdiagramm und die Slot-Tabelle im Handbuch verrät, welche Anschlüsse sich Lanes teilen und welche Anschlüsse direkt an der CPU hängen. Wenn du viele Erweiterungskarten oder mehrere NVMe-SSDs nutzen möchtest, wähle ein Board mit ausreichend CPU-Lanes und durchdachter Aufteilung der Chipsatz-Lanes. So verringerst du das Risiko, dass wichtige Komponenten später Bandbreite einbüßen.

Wie gehe ich vor, wenn eine neue M.2-SSD plötzlich einen PCIe-Slot deaktiviert?

Schau zuerst im Handbuch und im UEFI nach, welche M.2-Steckplätze Lanes mit bestimmten PCIe-Slots teilen und welche Umschaltoptionen es gibt. Oft kannst du durch Umstecken der SSD auf einen anders angebundenen M.2-Port oder durch das Neuverteilen von Erweiterungskarten einen besseren Kompromiss erreichen. Prüfe anschließend mit Benchmarks, ob alle benötigten Geräte wieder mit ausreichender Geschwindigkeit arbeiten.

Warum nutzen viele Mainboards Lane Sharing überhaupt, anstatt jedem Slot volle Bandbreite zu geben?

CPUs und Chipsätze stellen nur eine begrenzte Anzahl an Lanes bereit, die Hersteller müssen diese über mehrere Slots, M.2-Steckplätze und Onboard-Funktionen verteilen. Durch geteilte Lanes lassen sich mehr Anschlüsse bereitstellen, als physisch dedizierte Leitungen zur Verfügung stehen. Der Kompromiss besteht darin, dass bei Vollbestückung nicht jeder Anschluss maximale Bandbreite erreichen kann.

Hilft ein BIOS-Update bei Problemen mit geteilten PCIe-Lanes?

Ein aktuelles BIOS kann Fehler in der Lane-Zuweisung oder der PCIe-Initialisierung beheben und manchmal auch zusätzliche Einstellmöglichkeiten freischalten. erwarte allerdings keine Wunder, da die grundlegende Lane-Verteilung durch das Layout des Mainboards festgelegt wird. Aktualisiere die Firmware daher vor allem dann, wenn der Hersteller explizit Verbesserungen im Bereich PCIe oder NVMe dokumentiert.

Wie kann ich bei einem bestehenden System die Lane-Situation möglichst optimal nutzen?

Priorisiere die Slots, die direkt an der CPU hängen, für leistungshungrige Geräte wie Grafikkarten und High-End-NVMe-SSDs und verschiebe weniger zeitkritische Erweiterungskarten auf durch den Chipsatz angebundene Steckplätze. Deaktiviere im UEFI ungenutzte Onboard-Funktionen und Schnittstellen, falls sie Lanes belegen, die du für Erweiterungskarten benötigst. Durch diese Umverteilung lässt sich oft ein deutlich besseres Verhältnis von Ausstattung und effektiver Bandbreite herstellen.

Wann lohnt sich der Umstieg auf eine Plattform mit mehr PCIe-Lanes?

Wenn du mehrere schnelle NVMe-SSDs, eine leistungsstarke Grafikkarte und zusätzliche Karten für Capture, 10-Gigabit-Netzwerk oder RAID gleichzeitig nutzen möchtest, stößt eine sparsam ausgelegte Plattform schnell an Grenzen. In solchen Szenarien kann ein Wechsel auf eine CPU- und Mainboard-Kombination mit mehr nativen Lanes, etwa aus dem Workstation-Segment, dauerhaft für Entlastung sorgen. Kalkuliere dabei aber immer, welche deiner Geräte tatsächlich dauerhaft hohe Bandbreite benötigen.

Fazit

Eine sorgfältige Planung der Slot-Nutzung und ein genauer Blick in die Dokumentation des Mainboards verhindern, dass geteilte PCIe-Lanes wichtige Komponenten ausbremsen. Mit Benchmarks, Systemtools und passenden UEFI-Einstellungen lässt sich die Anbindung Schritt für Schritt überprüfen und verbessern. Wer seine Hardwarebedürfnisse realistisch einschätzt und die Lane-Verteilung im Auge behält, erhält ein ausgewogenes System mit stabiler Leistung. So bleibt auch eine stark ausgestattete Plattform effizient und zukunftssicher.

Deine Bewertung
0,0 0 Stimmen
Klicke auf einen Stern, um zu bewerten.

Unsere Redaktion

Über 15 Jahre Erfahrung mit Windows- und PC-Problemen aller Art. Wir sind Euer Technikratgeber seit 2009.

Mitarbeiter Porträt Martin Keller

Martin Keller

34, Hamburg, gelernter IT-Systemadministrator und Schachfreund. Mag außerdem gerne gutes Bier.

Mitarbeiter Porträt Daniel Cho

Daniel Cho

29, Frankfurt am Main, Data Analyst. Fotografie-begeistert und Stratege durch und durch. Kann alles.

Mitarbeiterin Porträt Sofia Mendes

Sofia Mendes

27, Köln, Projektmanagerin. Workshop-Junkie und Handy-süchtig. Sprachen-Genie mit italienischen Wurzeln.

Mitarbeiter Porträt Tobias Wagner

Tobias Wagner

36, Stuttgart, Softwareentwickler. Digital Native und PC-Freak durch und durch. Spielt perfekt Gitarre.

Mitarbeiter Porträt Enzokuhle Dlamini

Enzokuhle Dlamini

55, Düsseldorf, Personalmanagerin. Liebt ihren Garten genauso wie WordPress. Geboren in Südafrika.

Mitarbeiter Porträt Joachim Freising

Joachim Freising

52, Bergisch-Gladbach, Teamleiter IT. Technik-affin. Hat für jedes Problem eine Lösung parat. Sehr geduldig.

Unsere Redaktion:

Über 15 Jahre Erfahrung mit Windows- und PC-Problemen aller Art. Wir sind Euer Technikratgeber seit 2009.

Mitarbeiter Porträt Martin Keller

Martin Keller

Mitarbeiter Porträt Daniel Cho

Daniel Cho

Mitarbeiterin Porträt Sofia Mendes

Sofia Mendes

Mitarbeiter Porträt Tobias Wagner

Tobias Wagner

Mitarbeiter Porträt Enzokuhle Dlamini

Enzokuhle Dlamini

Mitarbeiter Porträt Joachim Freising

Joachim Freising

Schreibe einen Kommentar