Künstliche Intelligenz
USB-C-Kabel: Alle Unterschiede erklärt | heise online
Habt ihr euch schon mal gewundert, weshalb es so viele unterschiedliche USB-C-Kabel gibt? Oder wollt ihr gerade eins kaufen? Dann seid ihr hier richtig.
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Hallo, mein Name ist Christof Windeck und ich bin die Urlaubsvertretung für Keno.
Habt ihr euch schon mal gewundert, weshalb es so viele unterschiedliche USB-C-Kabel gibt? Oder wollt ihr gerade eins kaufen? Dann seid ihr hier richtig: Wir verraten, wieso es so viele verschiedene USB-C-Kabel gibt, wie ihr das passende findet und typische Probleme löst.
Unterschied USB-A und USB-C
Ein kurzer Blick zurück: Als Hardware-Redakteur beim Computermagazin c’t schreibe ich seit mehr als 25 Jahren über USB-Technik.
Damals gab es nur die eckigen Stecker und Buchsen, genannt USB-A. Die hatten auch nur vier Adern: zwei für Strom, zwei für Daten. Damals fanden wir 12 MEGA-Bit pro Sekunde schnell und 2,5 Watt Stromversorgung für die Tastatur praktisch.
Und nun USB-C im Vergleich: Die schnellste Version schafft 120 GIGA-Bit pro Sekunde, also die 10.000-fache Datentransferrate von USB 1. Und die elektrische Leistung stieg um den Faktor 96 von 2,5 auf bis zu 240 Watt.
Außerdem überträgt USB-C optional auch noch Bildsignale, Ton oder PCI Express. Und USB-C ist viel komfortabler als USB-A: Der Stecker passt ist symmetrisch und passt in beide Steckrichtungen in die Buchse. Außerdem haben Kabel an beiden Seiten denselben Stecker.
Für diese vielen Funktionen braucht USB-C viel mehr Kontakte: Obwohl der Stecker viel kleiner ist als der alte USB-A-Stecker, hat er 24 Kontakte. Damit löst er auch die alten Miniformate Mini-USB und Micro-USB ab und allmählich auch Apple Lightning. Außerdem funktioniert die Schnittstelle Thunderbolt zwar grundsätzlich anders als USB-C, verwendet aber dieselben Steckverbinder.
Obwohl er kleiner ist, ist der USB-C-Stecker übrigens für eine längere Lebensdauer ausgelegt als die alten USB-A-Stecker. Das ist aber nur die Theorie beziehungsweise Spezifikation. In der Praxis kommt es nämlich drauf an, ob der Hersteller wirklich gute Qualität produziert hat.
Mit USB-C braucht ihr jedenfalls im Prinzip nur noch ein einziges Netzteil für alle Mobilgeräte: Smartphone, Notebook, Tablet, Kopfhörer. Aber ich sage „im Prinzip“, denn natürlich ist es mal wieder nicht ganz so einfach.
Verschiedene USB-C-Varianten
Denn nicht jedes USB-C-Kabel beherrscht sämtliche Funktionen. Den wichtigsten Grund dafür erratet ihr leicht: Geld. Denn USB-C-Kabel werden über Kampfpreise verkauft, das billigste gewinnt. Damit die Hersteller trotzdem noch was verdienen, lassen sie zum Beispiel ein paar interne Adern weg. Dann könnt ihr euer Handy zwar damit laden, aber Daten fließen höchstens lahm.
Ich will aber nicht verschweigen, dass Kabel mit weniger und dünneren Adern nicht nur billiger sind, sondern auch flexibler und leichter sein können. Also wenn es wirklich nur ein simples Ladekabel sein soll, ist das vielleicht ein Vorteil.
Damit alle USB-C-Funktionen nutzbar sind, braucht Ihr ein „voll beschaltetes“ Kabel. Doch auch bei solchen gibt es Unterschiede. Die einfacheren vertragen nur 3 Ampere und damit gibt es höchstens 60 Watt Ladeleistung. Für 100 Watt braucht Ihr ein Kabel für 5 Ampere mit dickeren Adern innendrin sowie einem winzigen Chip im Stecker – ein elektronisch markiertes Kabel. Die neueste Ladetechnik USB Power Delivery mit Extended Power Range (EPR) schafft sogar 240 Watt und Ihr ahnt es schon: Die braucht wieder spezielle Kabel, die 48 Volt vertragen.
Die USB-C-Technik entwickelt sich weiter und deshalb veralten die Kabel. Früher war bei 10 Gigabit pro Sekunde Schluss, aber USB4 schafft schon 40 Gigabit/s und Thunderbolt 5 in eine Richtung sogar 120 Gbit/s.
Wenn Ihr also vor drei Jahren ein USB-C-Kabel gekauft habt, dann taugt das eben nicht mehr für die allerhöchsten Transferraten. Die gute Nachricht: Es geht nichts kaputt! Aber der Datentransfer läuft vielleicht nicht so schnell wie erhofft oder das Notebook lädt nicht so schnell.
Was kann mein Kabel?
Nun fragt ihr euch bestimmt: Woran erkenne ich denn, was das Kabel kann? Da gibt es drei Antworten: Wenn ihr Glück habt, steht das auf dem Stecker vom Kabel aufgedruckt: Etwa USB4 oder 40 Gbit/s oder 240 Watt.
Oder wenn ihr ein neues Kabel kauft, dann steht das auf der Website vom Hersteller oder vom Onlineshop. Wenn ihr ganz ordentlich seid, dann ladet ihr euch sogar das Datenblatt herunter und markiert euer Kabel, damit ihr das wiederfindet.
Und nun die schlechte Antwort: wenn ihr ein altes USB-C-Kabel ohne sinnvolle Beschriftungen rumfliegen habt, dann müsst ihr letztlich ausprobieren, was es kann.
Es gibt zwar Testadapter, die anzeigen, welche Adern das Kabel überhaupt hat. Und die sind mit 16 Euro nicht mal teuer.
Aber solche Tester können nicht feststellen, ob das Kabel für 10, 20, 40, 80 oder 120 Gigabit pro Sekunde taugt.
Und sie erkennen nicht, wie viel Strom das Kabel leiten kann. Die einfacheren Kabel vertragen nämlich nur 3 Ampere. Weil USB Power Delivery (USB-PD) maximal auf 20 Volt hochgeht, sind dann höchstens 60 Watt Ladeleistung möglich: 20 Volt x 3 Ampere = 60 Watt.
Das reicht für Smartphones locker und auch für viele Tablets, aber nur für dünne Notebooks. Für starke Notebooks gibt es USB-PD mit bis zu 100 Watt, also 20 Volt mal 5 Ampere. Das schalten die Netzteile aber nur frei, wenn sie ein Kabel mit einem E-Marker erkennen. Die haben wirklich einen winzigen Chip eingebaut, der bestätigt, dass sie 5 Ampere vertragen.
Die allerneuste Spezifikation „Extended Power Range“ (USB-PD EPR) schafft sogar bis zu 240 Watt. Aber das nur bei 48 Volt und ihr ahnt es schon: braucht Kabel mit speziellem E-Marker-Chip.
Und noch ein Tipp zum Schnellladen per USB-C: Kauft kein zu langes Kabel! Denn jedes Kabel hat unvermeidlich einen sogenannten Innenwiderstand. Je stärker der Strom ist, der durchfließt, desto mehr Energie geht als Abwärme verloren. Und je länger das Kabel, desto höher der Innenwiderstand. Die Kabel werden dann tatsächlich warm und das Laden dauert länger.
Wo wir gerade bei Länge sind: Kürzer ist besser! Die USB-Spezifikation legt keine maximale Länge fest, sondern nur bestimmte elektrische Parameter. In der Praxis bedeutet das: Spätestens ab 2 Metern wird es kritisch. Wenn es um schnelle Datentransfers und maximale Ladeleistung geht, raten wir zu Kabeln mit maximal 1 Meter. Wenn es unbedingt länger sein muss, lieber gleich nach dem Kauf ausprobieren und notfalls umtauschen oder zurücksenden.
Kauftipps
Es gibt riesige Qualitätsunterschiede bei USB-C-Kabeln. Da ist ja kaum noch Markenware im Umlauf, viele kaufen irgendwas bei Amazon oder anderen Onlineshops. Manche dieser eher unbekannten Marken verschwinden rasch wieder vom Markt, andere liefern nach ein paar Wochen Ware mit ganz anderer Qualität. Daher ist es auch schwierig, konkrete Kauftipps zu geben.
Man kann natürlich sagen: Kauf das Kabel doch als Originalzubehör bei PC-Marken wie Apple, Dell, HPE, Lenovo. Aber die nehmen teilweise irre Preise. Daher ganz pragmatischer Tipp: Wählt ein nicht zu langes und gut bewertetes Kabel, bei dem genau dabeisteht, was es kann. Also USB-PD mit 100 oder 240 Watt, 10, 40, 80 oder 120 Gigabit pro Sekunde – oder auch konkrete USB-Generationen wie USB4 oder Thunderbolt 5. Dann probiert ihr das Kabel nach Erhalt gleich aus und wenns nicht klappt, reklamieren.
Thunderbolt
Apropos Thunderbolt: Ich hatte ja schon gesagt, dass das auch USB-C-Buchsen und -Stecker verwendet. Und ein Tunderbolt-Kabel – das hat so ein Blitzsymbol und am besten auch eine Ziffer für TB3, TB4, TB5 – taugt zwar immer auch für USB-C, aber nicht umgekehrt. Über ein gutes USB-C-Kabel kann Thunderbolt auch gehen, muss aber nicht.
Vor ein paar Monaten hat Keno auch ein paar TB5-Kabel getestet und da kam raus, dass TB5 auch über viele TB4-Kabel funktioniert.
Wenn ihr euch also fragt: Was muss ich den kaufen, wenn ich alles will? Dann ist die Antwort heute: Ein Kabel für Thunderbolt 5, das ausdrücklich auch für 120 Gigabit pro Sekunde freigegeben ist und für 240 Watt. Doch in drei Jahren kommt vielleicht TB6 – man weiß es nicht.
Adapter
Zum Schluss noch etwas zu Adaptern. Dazu gibt es viele Fragen – wir machen gerne Witze wie USB-C zu Gardena.
Aber mal im Ernst: Mit einem ziemlich simplen Adapter könnt ihr zum Beispiel einen Monitor mit HDMI-Eingang an eine USB-C-Buchse anschließen, die auch Bildsignale liefern kann. Sowas gibts auch als Kabel, also USB-C auf der einen und HDMI auf der anderen Seite. Ihr müsst aber darauf achten, welche Auflösungen und Bildraten der Adapter kann. Alte schaffen bei 4K nur 30 Hertz Bildrate – man will aber 60 Hertz, sonst ruckelts.
Sehr häufig will man noch irgendwie USB-A auf USB-C koppeln. Etwa weil das Notebook nur USB-C hat und der USB-Stick aber USB-A. Oder umgekehrt will man ein Smartphone mit USB-C an einem Netzteil mit USB-A laden oder Daten auf ein altes Notebook mit USB-A ziehen. Das ist im Prinzip alles machbar, dazu gibts sowohl Adapter als auch Kabel mit unterschiedlichen Steckern an beiden Enden.
Der Klassiker bei billigen Adaptern von A auf C: Die murksigsten funktionieren nur in einer Orientierung desd USB-C-Steckers, nicht in beiden, was ja eigentlich der Witz bei USB-C ist.
Überhaupt sollte man bei Adaptern im Hinterkopf behalten, dass damit eben nicht alle Funktionen von USB-C nutzbar sind. Schnellladen mit Power Delivery geht beispielsweise nur mit einem Netzteil, das eine USB-C-Buchse hat oder ein fest angeschlossenes USB-C-Kabel. Über USB-A funktionieren nur ältere Schnellladeverfahren wie Qualcomm Quickcharge.
Manche Leute wollen USB-C-Kabel gerne verlängern. Dazu kann man aber keine seriösen Tipps geben, weil das in der Spezifikation schlichtweg nicht vorgesehen ist. Je nach Gerätekombination kann das klappen oder nicht. Es gibt jedenfalls haufenweise Verlängerungskabel im Handel sowie auch Adapter zum Zusammenstecken von zwei Kabeln.
c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(mond)
Künstliche Intelligenz
Neues Kompakt-MacBook: Das konnte das alte, das erwarten wir vom neuen
Apple scheint, so zumindest ernst zu nehmende Quellen aus der Gerüchteküche, endlich wieder ein (sehr) kompaktes MacBook zu planen. Demnach könnte das Modell bereits im vierten Quartal in die Massenproduktion gehen. Die Idee scheint zu sein, das Format des MacBook mit 12 Zoll wiederzubeleben, das Apple von 2015 bis 2019 im Programm hatte. Eigentlich galt dieses als idealer Kandidat für ein erstes Portables mit Apple-Silicon-Chip. Doch Apple hat die Idee nie umgesetzt.
Das war das MacBook mit 12 Zoll
Das MacBook mit 12 Zoll war ein ultrakompaktes und leichtes Gerät, das unter einem Kilo wog und nahezu nur aus Tastatur und Bildschirm bestand. Besonders für Reisende war es ideal: Der Bildschirm war groß genug und die Tastatur ausreichend dimensioniert, um zumindest Büroarbeiten zu erledigen. Einzig störend war der vergleichsweise langsame Intel-Chip ohne Lüfter. Videoschnitt oder andere intensivere Anwendungen wollte man mit der Maschine also nicht erledigen. Apple entwickelte in den vier Jahren der Existenz mehrere Generationen, die dann jeweils schnellere Prozessoren erhielten.
Perfekt war das MacBook mit 12 Zoll allerdings auch nicht. Neben besagtem Leistungsproblem verbaute Apple auch seine problematische Butterfly-Tastatur, was zu vielen Ausfällen führte. Einen echten Nachfolger hatte das Gerät nicht – das MacBook Air mit 13 Zoll, das jedoch deutlich schwerer und voluminöser ist, gilt als Ersatz. Warum Apple nie einen echten Nachfolger seines Kompakt-MacBooks auf den Markt brachte, ist unklar.
Geplante Hardware laut Gerüchteküche
Das neue MacBook soll nun mit 13 statt mit 12 Zoll großem Bildschirm ausgestattet sein. Es bleibt zu hoffen, dass die zusätzliche Fläche nicht dazu führt, dass die Hardware (viel) schwerer und größer wird als die alte Intel-Variante, denn dann würde es auch weniger ins Programm passen. Die Hoffnung ist ein besonders dünnes und leichtes Gerät. Ming-Chi Kuo, Analyst bei TF International Securities mit guten Kontakten in Apples Lieferkette, hatte die Spekulationen aufgebracht. Laut seinen Informationen wird das neue Modell keinen M-Chip erhalten, wie Apple sie sonst in Macs verbaut, sondern den A18 Pro aus dem iPhone 16 Pro. Gänzlich neu wäre diese Taktik nicht: Das allererste Apple-Silicon-Gerät, ein Mac mini speziell für Entwickler, kam mit dem iPad-Pro-Chip A12Z. Der A18 Pro soll gut 40 Prozent langsamer (insgesamt gerechnet) als der M4 sein. Das Niveau dürfte insgesamt etwa auf dem M1 liegen – jedoch mit besserer Grafikleistung. Das war, als Apple Silicon vor fünf Jahren eingeführt wurde, absolut ausreichend. Heutzutage würde man sich schnellere Hardware wünschen.
Allerdings soll das neue Kompakt-MacBook auch recht günstig sein, eventuell bereits bei 700 US-Dollar losgehen. Damit würde es dem MacBook Air M1 Konkurrenz machen, das bei einzelnen Händlern unter diesem Preis angeboten wird, offiziell aber von Apple nicht mehr gelistet wird. Interessant werden noch RAM-Ausstattung und SSD. Der A18 Pro nutzt aktuell im iPhone 8 GByte, doch Macs werden von Apple nun stets mit 16 GByte RAM ausgestattet. Bei der SSD könnte Apple hingegen – wie leider üblich – knausern. Das alte MacBook mit 12 Zoll war vor allem für mobile Anwender gedacht, die Büroanwendungen und Web-Apps nutzen – das dürfte auch hier so bleiben. Nur eben deutlich performanter als damals.
(bsc)
Künstliche Intelligenz
Missing Link: Freie Netze – erst erobern wir die Nachbarschaft, dann die Welt
In einer Welt, in der sich politische Gräben tiefer ziehen als je zuvor und Rufe nach „alternativen Fakten“ und nationaler Abgrenzung erschallten, scheint das digitale Zeitalter paradoxerweise beides zu versprechen: absolute Kontrolle und beispiellose Freiheit. Populisten wie Donald Trump nutzen die Macht zentralisierter Medien und sozialer Netzwerke meisterhaft, um Spaltung zu säen. Doch gleichzeitig offenbart sich ein leiser, aber mächtiger Gegenwind – nicht nur, aber auch aus dem Geist einer sozial verträglichen Kommunikationstechnik.
Armin Medoschs jetzt posthum vom Institute of Network Cultures in Amsterdam veröffentlichtes Werk The Rise of the Network Commons wirkt zunächst wie aus der Zeit gefallen. Es ist ein „Blast from the Past“, eine Erinnerung an frühe Ideen vom Internet als Ort, in dem jeder Teilnehmer als Konsument und Produzent gleichberechtigt sein und seine Meinung offen auf einer verbesserten Form der Agora kundtun können sollte.
Und doch ist der Band in diesen stürmischen Momenten überaus aktuell: Er verweist auf eine Zukunft, in der Macht nicht von oben herab diktiert, sondern von unten, in selbstorganisierten digitalen Gemeinschaften gelebt wird. Es geht um Selbstbestimmung und eine potenzielle digitale Renaissance. Das ist gerade jetzt, wo die Fundamente der Demokratie wanken, eine dringende Lektüre.
Alternative zu kommerziellen Zugangsanbietern
Medosch dürfte einigen Lesern noch als Mitbegründer und Co-Herausgeber von Telepolis bekannt sein. Der 1962 geborene Österreicher, der 2017 mit nur 55 Jahren starb, war aber auch Medienkünstler, Theoretiker, Kritiker und Pionier der Internetkultur in Europa. In seinem 2004 bei Heise erschienen Buch „Freie Netze: Geschichte, Politik und Kultur offener WLAN-Netze“ dokumentierte er die Entstehung und Entwicklung selbstorganisierter lokaler Netzwerkinitiativen. Er beschreibt darin, wie diese WLAN-Gemeinschaften als Alternative zu kommerziellen Internetanbietern entstanden sind.
Schon in dieser Publikation formt Medosch die Idee der „Netzwerk-Allmende“. Im Zentrum der Network Commons steht die gemeinschaftliche Nutzung und Verwaltung von Netzwerkinfrastrukturen als öffentlicher Ressource. Der Autor betrachtet dieses Stück Allgemeingut als exemplarisches Beispiel für ähnliche Trends in Bereichen wie freie Soft- und Hardware, die ebenfalls traditionelle Eigentumsverhältnisse in Frage stellen und genauso auf Offenheit, Kollaboration und dem Teilen von Wissen und Infrastrukturen basieren. Als Beispiele dienen ihm einschlägige Communities in London, New York, San Francisco, Seattle, Berlin, Wien, Portland und Zürich.
Zehn Jahre später machte Medosch sich an eine englischsprachige Fortsetzung, die er zunächst kapitelweise in seinem Blog The Next Layer veröffentlichte. Der letzte Eintrag war mit „Der unvollständige Paradigmenwechsel“ überschrieben und stammte vom Mai 2015.
Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
Verspätete Flaschenpost
Wieder eine Dekade später haben zwei Wegbegleiter von Medosch, sein Nachbar und Mitnetzwerker Adam Burns aus Londoner Zeiten sowie der Berliner Mediensoziologe Volker Grassmuck, die Aufzeichnungen nun gebündelt herausgebracht. Enthalten sind auch ausführliche Fallstudien zu drahtlosen Netzwerken: einmal in Form eines offenen Briefs Medoschs an Fidel und Raul Castro nach seinem Besuch in Kuba sowie ein Bericht über zwei Fälle aus Chile aus der Feder des Medienforschers Ignacio Nieto Larrain.
„Das Buch in Ihren Händen ist eine Flaschenpost, die zehn Jahre nach dem Absenden an Land gespült wurde“, geben die Herausgeber den Lesern mit auf die Reise in einer andere vernetzte Welt. Sie handelt hauptsächlich von drahtlosen Community-Netzwerkprojekten wie Freifunk in Berlin und der spanischen Variante Guifi.net, die Medosch mit Ergebnissen des EU-geförderten Forschungsvorhabens Confine kombinierte.
Modell dafür stand demnach die Bewegung Consume.net, die sich Ende des 20. Jahrhunderts in London formte. Medosch betont, dass die beiden Gründer dieses Netzwerks, James Stevens vom Kreativzentrum Backspace sowie der Designer und Unternehmer Julian Priest, keine „Techies“ waren. Er beschreibt sie als Künstler, Webdesigner, Internetpioniere und vor allem begabte Social-Networker. In diesem Sinne habe das Consume-Modell eine große Bandbreite an Menschen mit unterschiedlichem Hintergrund und Fähigkeiten angezogen. Darunter seien Hacker, Programmierer, Künstler, Ingenieure, Betriebssystementwickler, „Netzwerk-Zauberer“, Sozialunternehmer, Technologie-Aktivisten sowie Kuratoren gewesen.
„Gefühl von Netzwerkfreiheit“ griff um sich
In den Folgejahren schlossen sich Consume-Mitstreiter mit anderen internationalen Gruppen zusammen, um mit moderner Mesh-Netzwerktechnologie zu experimentieren und diese zu verbreiten. In solchen vermaschten WLAN-Zellen erkennt jeder Knoten, der dem Mesh-Netzwerk beitritt, seine eigene Netzwerkumgebung. Er vernetzt sich automatisch mit anderen offenen Routern, um das lokale Netzwerk organisch zu erweitern. Teilnehmer können lokale Ressourcen miteinander teilen und direkt untereinander kommunizieren, ohne ihre eigene Community-Infrastruktur zu verlassen. Sie nutzen das kommerzielle Internet über traditionelle Provider lediglich für die Kommunikation mit der Außenwelt.
„Das Gefühl von Netzwerkfreiheit verbreitete sich schnell“, schildern Burns und Grassmuck den sich damals breitmachenden Spirit. „Zuerst erobern wir die Nachbarschaft, dann die Welt“, habe das Motto gelautet. Medosch selbst sieht Anzeichen dafür, dass sich dieser Geist eines Tages umfangreich durchsetzen wird: „Unser Mesh-Netzwerk-Gerät deckt (noch) nicht die gesamte Gesellschaft ab“, schreibt er. Die Eigenentwicklung von Consume sei aber unter Technikern, die drahtlose Community-Netzwerke aufbauen, weit verbreitet. Ermöglicht werde dadurch nicht nur ein „diskursives Verhalten“. Dahinter steckten „auch eine Reihe von Überzeugungen und materiellen Einstellungen“.
„Dezentralisierung stand im Mittelpunkt der Idee, sowohl politisch als auch technologisch“, nennt Medosch einen der Anker der Netzwerk-Allmende. Geografisch habe sich der Ansatz des Selbstversorgerverbunds Consume binnen einiger Jahre „in ganz Großbritannien und Europa durchgesetzt“. Die Internationalisierung der Network Commons manifestierte sich vor allem 2002 auf dem BerLon-Treffen in Berlin. Auf dieser Konferenz mit dem für Consume üblichen Workshop-Charakter, an der Gleichgesinnte aus Großbritannien, Deutschland, Dänemark und Österreich teilnahmen, wurde der Grundstein für Freifunk gelegt.
Künstliche Intelligenz
iX-Workshop: Strategisches IT- und Technologie-Management
Mit fortschreitender Digitalisierung nimmt die IT eine immer wichtigere Rolle als Innovationstreiber und Wettbewerbsfaktor für Unternehmen ein. Um dieser Rolle gerecht zu werden, benötigen CIOs moderne Managementstrukturen und eine IT, die von der Strategie bis zum operativen Betrieb stark am Business ausgerichtet ist.
Im zweitägigen Online-Workshop Strategisches IT-Management: Von der Vision zur Wertschöpfung erhalten Sie einen fundierten Einblick in die Grundlagen des strategischen IT- und Technologie-Managements. Sie erwerben fundiertes Wissen und lernen Methoden und Techniken kennen, um eine IT-Strategie in Ihrem Unternehmen zu entwickeln und umzusetzen. Themen sind unter anderem Vision und Ausrichtung, Führung und Kommunikation, Erfolgskontrolle, Technologietrends, Change Management und Business Value. Darüber hinaus erfahren Sie, wie Sie Ihre IT-Strategie mit der Unternehmensstrategie verknüpfen und in die Gesamtorganisation implementieren. Diese Schulung ist anwendungsorientiert – anhand von Best-Practice-Beispielen vertiefen und festigen Sie Ihr erworbenes Wissen.
August 21.08. – 22.08.2025 |
Online-Workshop, 09:00 – 12:30 Uhr 10 % Frühbucher-Rabatt bis zum 23. Jul. 2025 |
Oktober 23.10. – 24.10.2025 |
Online-Workshop, 09:00 – 12:30 Uhr 10 % Frühbucher-Rabatt bis zum 24. Sept. 2025 |
Der nächste Workshop findet am 21. und 22. August 2025 statt und richtet sich an Führungskräfte mit einem starken Fokus auf IT und Digitalisierung. Der Workshop hat Vortragscharakter, bietet aber explizit auch die Möglichkeit zum Austausch untereinander.
Referent Adrian Peloso ist Geschäftsführer der Rewion Schweiz AG und Experte für IT-Strategie und Governance. In seiner Tätigkeit unterstützt er Unternehmen dabei, ihre IT-Organisation messbar und erfolgreich für die Zukunft auszurichten.
(ilk)
-
Online Marketing & SEOvor 3 Wochen
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 3 Wochen
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 3 Wochen
Philip Bürli › PAGE online
-
Social Mediavor 3 Wochen
Aktuelle Trends, Studien und Statistiken
-
Social Mediavor 3 Wochen
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Online Marketing & SEOvor 3 Wochen
#WantaFanta: Warum Fanta und Nico Santos der Gen Z Wünsche erfüllen
-
Social Mediavor 3 Wochen
“Wir haben doch nichts zu erzählen…” – 3 Tricks für neue Social Media Content Ideen
-
UX/UI & Webdesignvor 3 Wochen
Wie gelingt eine einwandfreie Zusammenarbeit?