Künstliche Intelligenz
40 Jahre 80386: Intels wichtigstes Produkt
Vor 40 Jahren stellte Intel seinen ersten echten 32-Bit-Prozessor vor, der damals noch keinen schicken Marketingnamen hatte. Schlicht „80386“ getauft, wurde diese CPU in zahlreichen Varianten mit erweitertem oder eingeschränktem Funktionsumfang bis zum Jahr 2007 gebaut – und zwar nicht nur von Intel. Die Anfänge der Architektur, die heute als „x86“ bekannt ist, waren allerdings holprig.
Weiterlesen nach der Anzeige
Im Jahr 1985 war Intel im PC-Boom, der vor allem die professionellen Umgebungen voll erreicht hatte, kräftig unter Druck. IBM hatte nämlich schon für den ersten PC, das Modell 5150 von 1981, vorgegeben, dass die Prozessoren von mehreren Herstellern kommen mussten. Einen einzelnen Lieferanten als „Single Source“ sah die Firma als zu riskant an. Also vergab Intel zahlreiche Lizenzen für Nachbauten, bei denen es nicht bleiben sollte. IBM selbst stellte den 8086 und dessen Nachfolger 8088 und 80286 her, ebenso andere Firmen wie Fujitsu, Mitsubishi, NEC, Siemens – und natürlich AMD.
Intel verpasst den 32-Bit-Anschluss fast
Diese Unternehmen beschränkten sich nicht nur auf Kopien der 80×86-CPUs, sondern erweiterten die Designs und steigerten die Taktfrequenzen, sodass Intel dringend eine komplett neue Architektur brauchte. Die sollte, wie bei den Motorola-CPUs der 68000-Serie, mit 32-Bit-Adressen und -Daten arbeiten können. Jene 68000er ermöglichten ab 1984 mit dem Apple Macintosh und 1985 mit dem Atari ST und Commodore Amiga eine neue Klasse von Heimcomputern, die viel billiger als PCs und dennoch leistungsfähig waren. Zwar waren die Rechenwerke (ALUs) des 68000 noch 16-bittig, doch schon 1984 machte der 68020 dieses kleine Manko wett.
Der Hoffnungsträger bei Intel war zunächst ein aus heutiger Sicht etwas krudes Design namens iAPX 432. 32-bittig war das, aber auf zwei Chips aufgeteilt, viel zu komplex und mit komplett neuem Befehlssatz. Das Hauptverkaufsargument für den PC war aber schon immer, dass alles abwärtskompatibel war. Zudem kam der 432 bei der Performance nicht aus dem Quark, parallel entwickelte Intel den 80386 als 32-Bit-Erweiterung.
Der Lückenfüller
Der 80386 kam ursprünglich als Lückenfüller und sollte die Zeit bis zum erhofften Erfolg des 432 überbrücken, wie sich einer der beiden 386er-Designer erinnert – ein gewisser Pat Gelsinger, der Jahrzehnte später CEO von Intel werden sollte, und im vergangenen Jahr in der nun größten Krise des Konzerns gegangen wurde. Ausführlich beschreibt er die 386-Entwicklung in seinem Gastbeitrag „For ever young“, (c’t 13/2003, S. 90-95).
Neben Gelsinger zeichnete John Crawford für den 386 verantwortlich. Von den beiden stammt auch das Standardwerk „Programming the 80386„, das erst 1987 erschien – praktisch, wenn die Chipdesigner sich auch gleich um die Software kümmern. Von Intel selbst gab es schon ein Jahr zuvor das „Programmer’s Reference Manual“ (PDF), das aber mehr Dokumentation aller Funktionen und weniger Praxishandbuch ist.
Weiterlesen nach der Anzeige
Crawford und Gelsinger brachten auf Basis des 80286 der Intel-Architektur nicht nur 32 Bit breite Register, Adress- und Datentypen bei, die auch als Busse nach außen geführt wurden. Damit der damals unvorstellbar große Adressraum von 4 GByte auch sinnvoll genutzt werden konnte, gab es mehrere Adressmodi sowie auch einen um ganze 54 Instruktionen erweiterten Befehlssatz. Als am cleversten sollten sich die Adressmodi erweisen, samt Speicherverwaltung in Hardware (MMU), was größere Betriebssysteme und Anwendungen ermöglichte. Und eine dreistufige Pipeline macht dem Ganzen Beine bei der Befehlsausführung.
Protected, Flat oder Real – viel RAM für jeden Zweck
Schon mit dem 80286 hatte Intel den sogenannten Protected Mode eingeführt, der Speicherbereiche von Anwendungen voneinander abschotten konnte. Der war jedoch recht umständlich zu programmieren, beim 80386 kamen dafür der Real Mode für DOS-Kompatibilität mit mehreren Instanzen und der „Flat Mode“ für große Speichermodelle hinzu. Ein bisschen Multitasking ermöglichte das schon auf Hardware-Ebene. Die Möglichkeiten des Prozessors wurden aber erst nach und nach durch DOS untergeschobene Speichermanager ausgelotet.
Die Fähigkeiten der neuen Architektur waren so verlockend, dass der erste PC mit einem 80386 nicht von PC-Erfinder IBM, sondern dem Konkurrenten Compaq erschien. Deren Modell Deskpro 386 trug auch den Namen des neuen Superchips in der Produktbezeichnung, zuvor waren PCs jenseits des 8086 als „XT“ (Extended Technology, 8088) oder „AT“ (Advanced Technology, 80286) mit diesen IBM-Bezeichnungen vermarktet worden. Der Deal mit Compaq rückte im ganzen Umfeld der Intel-Klone und Weiterentwicklungen den eigenen Prozessor ins Rampenlicht. Ein „386er“ wurde in der Folge zum Synonym für eine ganze PC-Kategorie. Die 20-MHz-Version von Compaqs Superrechner kostete übrigens 1988 schon in der Grundausstattung mit 1 MByte RAM ganze 16.000 Mark.
Der schnellste PC kommt nicht von IBM
Der erste Deskpro 386 erschien erst im September 1986, also fast ein Jahr nach Vorstellung des 80386. Der hatte anfangs mit Bugs und geringer Ausbeute bei der Chipfertigung zu kämpfen, sodass statt der erhofften 16 MHz bei einigen Chargen nur rund 12 MHz erreichbar waren. Einige Modelle waren sogar nur für 16-Bit-Software freigegeben, weil der Prozessor sich beim 32-Bit-Multiplizieren verrechnete. Anders als beim berüchtigten FDIV-Bug dokumentierte Intel das mit Aufdrucken auf den Prozessoren selbst. Diese Probleme waren knapp ein Jahr später überwunden, führten aber für die Bilanz 1986 zu den ersten roten Zahlen in der Geschichte von Intel. Der 80386 musste also unbedingt ein Erfolg werden.

Der Compaq Deskpro 386, hier ein Ausschnitt aus c’t 2/1988, war schneller als jede IBM-Maschine in den Jahren 1986 und 1987.
(Bild: c’t)
1986 sagte Compaq-CEO Rod Canion der Zeitschrift Computerworld, es mache keinen Sinn, auf IBM zu warten. Und auf ein MS-DOS, das den 386er voll unterstützt, wollte die Firma auch nicht länger warten. Also kam der Deskpro mit Microsofts Unix-Derivat Xenix auf den Markt, zunächst überwiegend als Server. Wer selbst Software entwickelte, merkte aber schnell, was mit den 386-PCs möglich war. Als 1987 endlich IBM so weit war und seine 386er als PS/2 startete – wohlgemerkt ohne die Prozessornummer im Namen – hatten längst viele andere Unternehmen den Markt besetzt. Vieles, was sich IBM für PS/2 ausdachte, wie die Microchannel-Steckkarten, konnte sich nicht lange behaupten.
Windows/386 mit DOS-Multitasking
Ende 1987 erschien dann Windows 2.0, das es samt passendem DOS auch als Windows/386 gab. Das unterstützte den Protected Mode des 80386 so weit, dass sich mehrere DOS-Instanzen aus Windows heraus aufrufen ließen. Das war zwar nicht sonderlich stabil, auch später mit Windows 3.1 und Zusatzprogrammen wie Sidekick nicht, aber: Für manche Anwendungen, etwa beim Programmieren oder der Medienerstellung, waren mehrere DOS-Programme gleichzeitig ein Game-Changer. Auch zahlreiche andere Anwendungen erschienen als 386-Version, auf IBM mussten Interessierte auch da jedoch warten. Erst 1992 erschien deren OS/2 2.0, das den 80386 voll unterstützte.
In den Jahren nach der Markteinführung des ersten voll funktionsfähigen 80386 mit 16 MHz steigerte Intel den Takt auf bis zu 33 MHz, also eine Verdopplung – heute undenkbar. Andere Hersteller wie AMD und Chips & Technologies kamen durch viel Reverse Engineering auf bis zu 40 MHz. Am Ende der 386-Ära, und vor der Einführung des 80486, kam die Konkurrenz auf einen größeren Marktanteil als Intel selbst.
Ein 386 für jeden Einsatzbereich
Der damalige Prozessorprimus blieb jedoch im riesigen Boom der 386er-PCs nicht untätig. Der erste 80386 wurde in i386DX umbenannt, weil es 1988 die Sparversion i386SX gab, die nur einen Adressbus von 24 Bit besitzt und damit 16 MByte RAM ansteuern kann. Auch der Datenbus ist nur 16 Bit breit, die Befehlsverarbeitung und die Register sind 32-bittig und damit voll kompatibel zu 386-Software. Und 1990 erschien dann der i386SL mit teils statischer Bauweise. Der war recht sparsam und konnte Teilbereiche oder den ganzen Prozessor schlafen legen, was der neue „System Management Mode“ (SMM) erlaubte – auch da brauchte es aber wieder Anpassungen der Betriebssysteme. Und der Koprozessor 80387 eroberte die technische Welt. Diese Floating Point Unit (FPU) beschleunigte Gleitkommaoperationen gleich um mehrere Faktoren, wenn die Software passte – unter anderem CAD wurde so auf Desktop-PCs erst richtig möglich.
Insgesamt hatte die PC-Branche damit in nur fünf Jahren nach schleppendem Start ein Ökosystem geschaffen, in dem 386-Prozessoren die zentrale Rolle spielten. Und zwar vom Server bis zum mobilen Computer. Am Ende sogar so mobil, dass sich eine Embedded-Version (80386EX) im „Nokia Communicator 9000 fand, jenem großen Handy zum Aufklappen mit Tastatur und Faxfunktion sowie E-Mail-Zugang – auf der Cebit 1996 eine Sensation, wohlgemerkt: elf Jahre vor dem ersten iPhone.
Aus IA-32 wird x86
Ende der 1980er- und Anfang der 1990er-Jahre wurde damit klar, dass sich PC-Prozessoren recht gut in verschiedenste Anwendungsbereiche integrieren lassen. Und dass es dafür nicht einen einzelnen Branchenriesen wie IBM brauchte – selbst Intel war dabei von seiner späteren und jetzt verlorenen Dominanz weit entfernt. Der 80386 war für Intel dennoch so wichtig, dass das Unternehmen seine Architektur später in „IA-32“ (Intel Architecture, 32 Bit) umbenannte, oder kurz x86. Auch moderne x86-Prozessoren, selbst mit 64-Bit-Erweiterungen, die zuerst von AMD kamen, basieren im Kern noch auf der IA-32. Damit ist der 386er Intels wichtigstes Produkt aller Zeiten. Heute machen x86 zunehmend verschiedenste ARM-Varianten Konkurrenz, vom Smartphone über das Notebook bis hin zum KI-Rechenzentrum.
(nie)
Künstliche Intelligenz
Python für Umsteiger – Einstieg in die KI-Sprache für Entwickler in 5 Sessions
Python gehört seit Jahren zu den Top 5 der beliebtesten Programmiersprachen und gilt als gefragteste Sprache, wenn es darum geht, das Programmieren zu lernen. Insbesondere durch die Bedeutung von maschinellem Lernen und KI in allen Berufsfeldern beschäftigen sich viele Entwicklerinnen und Entwickler mit Python. Erhalte mit diesem Classroom einen idealen Einstieg in die KI-Programmiersprache. Im Rahmen unseres Classrooms Python für Umsteiger – Einstieg in die KI-Sprache für Java- und C#/.NET-Entwickler lernen Teilnehmende mit Programmiererfahrung Python kennen. Im Vordergrund stehen Hands-on-Beispiele, die Python praxisnah einführen und mit der Programmiersprache vertraut machen.
Weiterlesen nach der Anzeige
Neben den eigentlichen Sprachgrundlagen mit ihren Besonderheiten legt dieser Classroom den Fokus auf Anwendungen und Demonstrationen. Python zeichnet sich dadurch aus, bereits mit wenigen Zeilen Code lauffähige und funktionale Programme zu erstellen. So lernen Interessierte etwa, wie sie auf Dateiformate und Datenbanken zugreifen, die Kommunikation zwischen Client- und Serversysteme herstellen, grafische Benutzeroberflächen erstellen und automatisches Testing implementieren.
Mit Leichtigkeit vom Java-Entwickler zum Python-Profi
Der Classroom richtet sich an alle Personen aus dem Softwarebereich mit Programmiererfahrung, die sich Python widmen wollen. Mit diesem Wissen sind sie in der Lage, zukünftig auch das Themenfeld der künstlichen Intelligenz zu erkunden und sich am maschinellen Lernen zu versuchen. Die Termine der einzelnen Sessions sind:
- 25.02.26: Python-Sprachgrundlagen: Kontroll- und Datenstrukturen verstehen
- 04.03.26: Python-Sprachgrundlagen: Funktionen und objektorientierte Programmierung
- 11.03.26: Dateiverarbeitung, REST-Schnittstellen und Dokumentation in Python
- 18.03.26: Datenbanken und Webserver mit Python meistern
- 25.03.26: Grafische Benutzeroberflächen (GUI) und automatisierte Tests in Python umsetzen
Praxis- und Expertenwissen – live und für später
Die Sessions haben eine Laufzeit von jeweils vier Stunden und finden von 9 bis 13 Uhr statt. Alle Teilnehmenden können sich nicht nur auf viel Praxis und Interaktion freuen, sondern haben auch die Möglichkeit, das Gelernte mit allen Aufzeichnungen und Materialien im Nachgang zu wiederholen und zu vertiefen. Fragen werden direkt im Live-Chat beantwortet und Teilnehmende können sich ebenfalls untereinander zum Thema austauschen. Der nachträgliche Zugang zu den Videos und Übungsmaterialien ist inklusive.
Weitere Informationen und Tickets finden Interessierte auf der Website des Classrooms.
Weiterlesen nach der Anzeige
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
(cbo)
Künstliche Intelligenz
Warum die Elektromobilität nur langsam abhebt
Die Ziele waren hoch: Bis 2030 sollte es in Deutschland 15 Millionen Elektroautos geben, auch Europa und die Industrie trieben die Elektrifizierung voran. Doch inzwischen zeigt sich, dass es doch nicht so schnell geht: Aktuell dürften rund 2 Millionen reine Stromer (BEVs) auf den deutschen Straßen unterwegs sein, wie sich aus Zahlen des Kraftfahrt-Bundesamtes abschätzen lässt. Das sind gerade einmal 4 Prozent des Pkw-Bestandes.
Weiterlesen nach der Anzeige
Die Stromer-Neuzulassungen steigen zwar – der bisherige Rekord von 524.219 BEVs aus dem Jahr 2023 wird dieses Jahr wohl leicht übertroffen werden – doch eine echte Wende sieht anders aus. Das gilt auch angesichts von 693.000 BEVs, die der Autoindustrieverband VDA 2026 erwartet.
Ernüchterung und Gegenwind
Der zähe Anstieg der BEV-Verkäufe hat inzwischen nicht nur für Ernüchterung, sondern sogar Gegenwind gesorgt – insbesondere für das sogenannte Verbrenner-Verbot in der EU ab 2035. Die EU-Kommission überprüft ihre entsprechende Verordnung derzeit und wird voraussichtlich kommende Woche mögliche Änderungen vorstellen. Nach derzeitigem Stand will sie empfehlen, auch nach 2035 Verbrenner zuzulassen.
Das Problem gibt es nicht nur in Deutschland: In Frankreich ist der Anteil von reinen Elektroautos im Bestand ähnlich wie hierzulande, in Italien und Spanien sogar deutlich niedriger, wie Zahlen von PwC Autofacts zeigen. Doch warum geht es mit Elektroautos nach wie vor eher zäh voran? Die Antwort ist komplex – und kommt auch darauf an, wen man fragt.
Am Anfang waren Preis und Reichweitenangst
In den Anfängen der Elektromobilität bremsten nach Ansicht des ADAC vor allem das begrenzte Modellangebot und die hohen Preise. Dazu kamen Reichweitenangst und mangelnde Ladeinfrastruktur. Doch inzwischen gibt es mehr Ladesäulen, mehr als 200 Modelle werden angeboten und die Reichweiten und Ladegeschwindigkeiten sind alltagstauglich. „Inzwischen hätten wir eigentlich ein ausreichendes Angebot an Elektroautos und auch der Preisunterschied zu den Verbrennern ist inzwischen durch höhere Rabatte weitgehend verschwunden“, sagt Branchenexperte Ferdinand Dudenhöffer.
Er sieht einen anderen Grund: „Die Kunden sind durch das Hin und Her der vergangenen Jahre verunsichert. Mit der Umwelt-Prämie hatten wir ordentliche Zuwächse, aber dann kam der Bruch durch das plötzliche Ende der Förderung“, kritisiert er. „Dazu kommen populistische Äußerungen aus der Politik und die Kampagne der Hersteller gegen das Verbrenner-Aus. Letztlich haben wir es also selbst kaputtgemacht.“
Weiterlesen nach der Anzeige
In diese Kerbe schlägt auch der Präsident des Zentralverbands Deutsches Kraftfahrzeuggewerbe (ZDK), Thomas Peckruhn. „Wer heute ein BEV kaufen soll, braucht Verlässlichkeit – bei Kosten, Förderung und Infrastruktur. Doch genau diese Verlässlichkeit fehlt“, sagt er. „Schwankende Strompreise, kurzfristig gestrichene Prämien und eine vielerorts unzureichende Ladeinfrastruktur führen dazu, dass die Gesamtbetriebskosten eines BEV für breite Zielgruppen einfach nicht attraktiv genug sind. Solange diese Rahmenbedingungen nicht planbar und bezahlbar werden, wird die Nachfrage kein nachhaltiges Marktniveau erreichen.“
VDA kritisiert Ladeinfrastruktur
Die Rahmenbedingungen stehen auch für VDA-Präsidentin Hildegard Müller im Zentrum: „Insbesondere der immer noch nicht ausreichende Auf- und Ausbau der Ladeinfrastruktur sowie die hohen Preise an den Ladesäulen sorgen bei den Verbraucherinnen und Verbrauchern weiter für Zurückhaltung.“ Auch Harald Wimmer von der Unternehmensberatung PwC kritisiert den fehlenden Willen der Politik, konsequent und stringent zu fördern.
Zudem wirkten Vorurteile aus der Anfangszeit mit teuren Produkten, die nicht den ästhetischen Ansprüchen des Marktes entsprachen, nach. Und nicht zuletzt gebe es in Deutschland kulturell „eine starke Bindung an den Verbrenner, während in China Stolz und Identifikation mit neuen, meist elektrischen Marken den Wechsel fördern“.
Der Stromer ist wirklich klimafreundlicher
Lange Zeit hatten Kritiker zudem angeführt, dass Elektroautos – unter anderem wegen eines höheren CO2-Ausstoßes bei der Produktion – angeblich gar nicht klimafreundlicher seien als moderne Verbrenner. Aktuelle Zahlen sprechen allerdings eine völlig andere Sprache: Martin Wietschel vom Fraunhofer-Institut für System- und Innovationsforschung ISI geht davon aus, dass heute in Deutschland gekaufte Mittelklasse-Stromer von der Herstellung über die Nutzung bis zur Entsorgung etwa 40 bis 50 Prozent weniger Treibhausgase verursachen. Und mehr Ökostrom und Recycling könnten dies weiter verbessern.
Das International Council on Clean Transportation kam jüngst sogar auf noch höhere Einsparungen und auch Hersteller BMW kommt beim Vergleich seiner eigenen Elektroautos mit eigenen vergleichbaren Verbrennern in Sachen Klima zu klaren Siegen für die Stromer: Mit 200.000 Kilometern in 15 Jahren kommt beispielsweise der neue elektrische ix3 50 xDrive beim europäischen Strommix auf 23 Tonnen CO2, der vergleichbare Verbrenner X3 20 xDrive auf 52,8 Tonnen.
Die Industrie hat ein Renditeproblem
Das mangelnde Interesse der Kunden ist das eine, doch auch die Industrie hat eine innere Hemmung gegen hohe Stromeranteile: Lange Zeit verdiente sie an einem verkauften Verbrenner deutlich mehr. Das soll sich zwar langsam ändern – BMW beispielsweise erwartet bei den Modellen der neuen Klasse etwa gleiche Erträge für Stromer und Verbrenner – doch das gilt noch längst nicht für alle Modelle auf dem Markt. Dennoch haben die deutschen Hersteller und Zulieferer hohe Milliardenbeträge in den Hochlauf der E-Mobilität investiert, wie der VDA betont. „Sie ist der Hauptpfad auf dem Weg in die Klimaneutralität“, sagt Müller.
Sie hofft auf ein weiteres Anziehen: „Günstige Modelle für unter 25.000 und unter 20.000 Euro sind für die kommenden Jahre bereits angekündigt.“ Wenn die politischen Rahmenbedingungen nachgebessert würden, sei sie sich sicher, „dass sich in den kommenden Jahren immer mehr Menschen bewusst und aus Überzeugung für ein E-Auto entscheiden“. Dennoch steht jetzt wohl erst einmal ein Aufweichen des Verbrenner-Aus an. Dudenhöffer warnt davor: „Das Festhalten am Verbrenner wird die Autoindustrie nicht retten. Das führt nur dazu, dass wir den Anschluss an China endgültig verlieren.“
Lesen Sie auch
(nie)
Künstliche Intelligenz
Nach EU-Zwang: Volksbanken bringen eigene iPhone-Zahlungslösung
Die Volksbanken und Raiffeisenbanken haben mit der Einführung von kontaktlosem Bezahlen per Girocard auf dem iPhone begonnen. Dies berichtet die US-Finanznachrichtenagentur Bloomberg. Die digitale Girokarte in der VR-Banking-App nutzt die NFC-Schnittstelle und funktioniert unabhängig von Apple Pay. Zunächst nehmen laut Nutzerberichten im Netz sechs Institute an der Erprobung teil: die Volksbanken Mittelhessen und Mittelfranken, die Berliner Volksbank, die Stuttgarter Volksbank, die Raiffeisen-Volksbank Aurich sowie die VR-Bank Memmingen. Weitere Banken des Verbunds sollen bis zum 15. Januar folgen.
Weiterlesen nach der Anzeige
Eigentlich sollte die Funktion bereits im September verfügbar sein. Der Bundesverband der Volks- und Raiffeisenbanken (BVR) hatte die Verzögerung im August auf LinkedIn begründet: Die Entwicklung sei demnach „weit fortgeschritten, aber noch nicht abgeschlossen“. Hintergrund sind technische Probleme bei der Einrichtung der digitalen Girokarte, die noch nicht vollständig ausgeräumt werden konnten.
Zur Einrichtung öffnen Kunden das Menü „Karten“ in der VR-Banking-App und bestellen die digitale Girokarte. Sie können entweder die Sicherheitsnummer ihrer physischen Karte übernehmen oder eine separate PIN beantragen. Nach einem doppelten Druck auf die Seitentaste lässt sich die App am Bezahlterminal nutzen.
Mehr als nur Zahlungen möglich
Die digitale Girokarte ermöglicht nicht nur kontaktloses Bezahlen an allen Girocard-Terminals. Nutzer können damit auch Bargeld an Geldautomaten abheben und Kontoauszüge an SB-Geräten abrufen. Die App sendet zudem Push-Mitteilungen zu Debitkartentransaktionen. Eine Unterstützung für die Apple Watch ist nicht vorgesehen – die NFC-Funktion der Smartwatch bleibt Apple Pay vorbehalten.
Entwickelt wurde die Lösung von der Atruvia AG, dem IT-Dienstleister der Genossenschaftsbanken. Die App ist TÜV-geprüft und nutzt verschlüsselte Datenübertragung. Im Unterschied zu Apple Pay müssen Nutzer die VR-Banking-App manuell aktivieren, da sie nicht automatisch als Standard-Wallet hinterlegt wird.
EU zwang Apple zur Öffnung
Weiterlesen nach der Anzeige
Möglich wurde die Alternative zu Apple Pay durch den Digital Markets Act (DMA) der EU. Die EU-Kommission hatte Apple 2024 Marktmissbrauch vorgeworfen, weil der Konzern die NFC-Schnittstelle exklusiv für Apple Pay reservierte. Seit 2025 müssen Drittanbieter Zugang zur Technologie erhalten. Als erster Anbieter hatte PayPal im Mai kontaktlose Zahlungen auf dem iPhone gestartet, gefolgt von Curve Pay.
Die Volksbanken-Lösung unterscheidet sich von PayPal und Curve durch ihren Fokus auf die Girocard. Während PayPal eine virtuelle Mastercard nutzt und Curve mehrere Karten bündelt, konzentriert sich die VR-Banking-App auf das in Deutschland weit verbreitete Debitkartensystem. Unter Android ist die Funktion bereits seit Jahren verfügbar.
Ob der BVR plant, künftig auch Kreditkarten in die App zu integrieren, ist nicht bekannt. Aktuell liegt der Schwerpunkt auf der Optimierung der Girocard-Funktionen. Parallel arbeitet der Verbund an der Erweiterung von Wero, dem europäischen Bezahlsystem, das ab 2026 auch für Zahlungen im stationären Handel verfügbar sein soll.
(mki)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 4 WochenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Social Mediavor 3 MonatenSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
