Künstliche Intelligenz
Missing Link: Deutschland, eine Kupfer-Geschichte
Ziemlich genau 50 Jahre ist es her, dass die „Kommission für den Ausbau des technischen Kommunikationssystems“ (KtK) klare Worte fand: „ohne Verzögerung“ solle das „öffentliche Fernschreib- und Datennetz“ aufgrund des steigenden Bedarfs ausgebaut werden. 24.500 „Datenstationen“ wurden Ende 1974 bei einer – unter Bundespostaufsicht wahrscheinlich höchst exakten Zählung – ermittelt. Ohne Verzögerung: das klappte eher nicht so – und die Langsamkeit war oft durch politische Entscheidungen beeinflusst.
Weiterlesen nach der Anzeige
1976 war ein Jahr der sich ankündigenden Umbrüche. Standard Elektronik Lorenz (SEL) brachte mit dem LO2000 den ersten von der Bundespost zugelassenen elektronischen Fernschreiber für das Telex ohne Wählscheibe, dafür mit Zehnertastatur, auf den Markt. Während am anderen Ende der Welt Seymour Crays erster Supercomputer in Los Alamos in Betrieb ging und sechs Jahre lang der schnellste der Welt blieb, nahm in der Bundesrepublik die Gebühreneinzugszentrale der Rundfunkanstalten ihre Arbeit auf. In der DDR arbeitete das Fernmeldewerk Nordhausen an der Entwicklung von Tastwahlgeräten für die dortige Deutsche Post. All das ist längst wieder Geschichte, und doch kündigte sich damals auch in der Politik deutlich an, was später Gewissheit wurde: Die Telekommunikation nimmt an Bedeutung zu – und neben dem Fernsprechen geht es zunehmend um Datenverkehr.
In dieser Woche starb der frühere Bundespostminister Christian Schwarz-Schilling – ein Mann, dessen Wirken nach wie vor spürbar ist. Denn Schwarz-Schilling, zehn Jahre lang von 1982 bis 1992 unter Helmut Kohl der vorletzte Postminister der Bundesrepublik und maßgeblicher Architekt der schrittweisen Privatisierung der Bundespost, war auch ein Mann der Kabelfragen in den frühen Zeiten der Vernetzung von Computern.

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
Die frühen 1980er-Jahre waren geprägt von, wie es Magazine damals schrieben, einer „Koaxialkupfer-Euphorie“: Die Bundespost setzte als Monopolist weitgehend auf die verfügbaren Kupferleitungen. Der Postminister, manchen Zeitgenossen voraus, wollte laut damaligen Berichten zwar dennoch auf keinen Fall die Glasfasertechnologie vernachlässigen, sah aber keine Einsatzmöglichkeit. Mit dem Hinzukommen der ersten privaten Fernsehsender, mit denen Helmut Kohl auch die Macht der Öffentlich-Rechtlichen brechen wollte, waren die aufkommenden Kabelanschlüsse gut benutzbar – doch auch hier galt: zu Beginn war die Akzeptanzrate gering. Was sollten die Bundesbürger auch mit diesem neumodischen Kram?
Die Zeit des auslaufenden Fernmeldemonopols war eine Zeit der Grundsatzfragen: Ist es richtig, dass eine staatliche Behörde die Telekommunikation operativ wie organisatorisch unter ihren Fittichen hat? Dass die Antwort darauf schon in den 1980er-Jahren „Nein“ hieß, war kaum zu übersehen angesichts der vielen Schwierigkeiten, die es gab – sowohl beim langsamen Ausbau, beim Kostenmanagement als auch bei Irrläuferprodukten wie dem Bildschirmtext (BTX), die am Markt erfolglos blieben. Der KtK-Bericht war so etwas wie ein Auftakt zu dem, was kommen sollte: Die Kommunikationsmittel wurden entstaatlicht und der Staat versilberte das, was ihm gehörte.
DDR-Post: Kein Anschluss
Doch ist das natürlich nur der westdeutsche Teil der Geschichte: In der DDR hatte nicht einmal jeder fünfte Haushalt einen Telefonanschluss, in Ost-Berlin immerhin fast jeder Dritte, im Bezirk Rostock nur 7,8 Prozent. Die Vermittlungstechnik der DDR-Post war in Teilen immer noch aus der Vorkriegszeit – was wiederum mit der Wiedervereinigung bei einigen im Westen Goldgräberstimmung auslöste.
Weiterlesen nach der Anzeige
Nicht zuletzt weil damit auch ein Anlass gefunden war, ISDN wirklich einzuführen. Große Pläne wurden im Rahmen der Postunion geschmiedet, oft auch wieder verworfen, teilweise aber auch realisiert, wie etwa der Plan „Telekom 2000“, mit dem auch experimentell die Glasfaser in den Osten gebracht werden sollte. Doch die dort teils verlegte OPAL-Technologie war nicht einfach mit dem nächsten Zwischenschritt in Einklang zu bringen: dem wieder kupferbasierten ADSL.
Freiheit beginnt am Hauptanschluss
Immer stand im Raum: Kommt eventuell eine Technologie, die noch besser, noch schneller, noch attraktiver ist? Als Schwarz-Schilling 1988 erläuterte, wie die „Neustrukturierung des Post- und Fernmeldewesens“ vonstattengehen solle, war die nächste Runde im Kampf längst im Gange. Denn die „Liberalisierung“, die Entstaatlichung, begann mit der Aufteilung der Bundespost in Post, Postbank und Telekom – und mit einer ganz wilden Idee: dass die Hoheit über das staatlich betriebene Netz mit dem Hauptanschluss endet.
Nur eine kleinere Einschränkung gab es noch: die Endgerätefreiheit endete mit dem notwendigen Siegel des Fernmeldetechnischen Zentralamts (FTZ), ab 1992 mit dem des Bundesamtes für Zulassungen in der Telekommunikation (BZT) – ohne Siegel war der Betrieb eines Telefons, Faxes oder Modems an Bundespost- bzw. Telekomnetzen verboten. Und doch war das eine Liberalisierung: vorher war nur die Miete von der Bundespost erlaubt.
Für die Bürger allerdings änderten sich zwar die Möglichkeiten – doch die tatsächliche Nutzung der Datennetze blieb vorerst gering. Denn das Einwählen in die Telefonnetze zwecks Datenfernübertragung blieb – sofern nicht im gleichen Ortsnetz verfügbar – eine kostspielige Angelegenheit. Der Nutzen erschien vielen überschaubar. Und auch die Grundvoraussetzung eines digitalen Endgerätes fehlte bis in die späten 1990er in den meisten Privathaushalten. Dazu kam: die meisten Unternehmen des frühen teilliberalisierten Telekommunikationsmarktes hatten im Privatbereich schlicht keine Ahnung, was akzeptiert würde und was nicht – Call-by-call-Vorwahlen für Telefonate und andere Ideen kamen und verschwanden im Ergebnis weitgehend wieder.
Ein Debakel zeigt den Bedarf auf
Tatsächlich war es vor allem ein historischer Unfall im Telekommunikationsmarkt, der den längst vorhandenen Bedarf nach Flatrates für Datennutzung in einem immer noch auf Sprache ausgerichteten Telekommunikationsmarkt kurz vor der Jahrtausendwende aufzeigte: das 77-Mark-Mobilcom-Flatrate-Desaster von 1998 – ab 19 Uhr sollten sich Nutzer dann bis morgens um 7 über nicht ausgelastete Telefonleitungen ins Internet einwählen können. Der Effekt: alle Einwahlports waren in Nullkommanichts belegt, die Kunden sauer – und finanziell war das ganze ein Desaster für Mobilcom und andere ebenfalls auf den Zug aufgesprungene Anbieter.
Und doch war es ein Startschuss: der Bedarf nach bezahlbaren Datennetzzugängen überstieg das marktverfügbare Angebot massiv – sodass selbst der erste Telekom-Chef Ron Sommer noch zum späten Flatrate-Freund wurde, bevor er zurücktrat. Die Always-On-Idee war dabei auch der Hauptgrund, warum DSL und Breitbandkabel plötzlich doch interessant wurden: klassische Analogleitungen waren zu langsam und bei Modemverbindung besetzt, ISDN zu wenig verbreitet und selbst bei zwei Kanälen nicht schnell.
Und doch stellte sich ein neues Problem ein: beide neuen Technologien waren relativ kostengünstig für die Betreiber – denn sie bevorteilten die Besitzer bereits vorhandener Infrastruktur. Telekom-Chefs setzten über ein Jahrzehnt lang darauf, das letzte MBit aus der Kupferleitung herauszupressen – im Tausch gegen gutes Geld. Doch das ging auch mit einer Teilrückabwicklung der Anbieterwahl einher: mit dem Schritt von ADSL zu VDSL wurden Konkurrenzanbieter wieder aus dem Hausanschluss herausgeworfen.
Während die Nachfrage immer weiter stieg, zuerst getrieben durch Filesharing, dann durch Videoplattformen und zuletzt vor allem noch einmal durch Streamingdienste, erzeugte der Markt weiter Druck: Zwar reichen vielen Kunden immer noch 100 oder 200 Megabit aus. Doch nur dann, wenn die auch tatsächlich ankommen. Was im Ergebnis dazu führte, dass die Glasfaserinfrastruktur, die im Hintergrund bei den Netzbetreibern ausgebaut werden musste, immer näher an die Häuser heranrückte. Dass sie nun auch noch in diesen ankommt, scheint da nur logisch.
Zukunft ungewiss
Die Historie der Datennetze in Deutschland zeigt einige wiederkehrende Muster: es ist nicht immer die fortschrittlichste Technologie, die sofort Akzeptanz bei Anbietern und Kunden findet. Aber tatsächlich regelt der Markt aus Angebot und Nachfrage auch bei der Telekommunikation – mit einiger Verzögerung und wenn der Staat zu Eingriffen bereit ist. Doch solange es keine klaren Anwendungsszenarien gibt, überlegen alle Beteiligten: Brauche ich das?
Auch in den aktuellen Debatten rund um den Ausbau schneller Datennetzinfrastrukturen spielt genau das eine wesentliche Rolle: Mit welchem Nutzungsverhalten lässt sich überhaupt rechnen? Wie viele Daten mit welcher Geschwindigkeit werden wo und wann benötigt werden? Wie sinnvoll ist es überhaupt, parallel zu schnellem – natürlich per Glasfaser angebundenen – Datenfunk auch tatsächlich noch Inhouse-Strukturen als Glasfaser zu verlegen? Die Antworten darauf sind immer auch eine Wette auf die Zukunft. Die aktuelle Wette lautet: Alle werden Glasfaser benötigen, weder Satelliteninternet noch Mobilfunk können mit dessen Kapazität mithalten. Weshalb nun das Telekom-Kupfernetz verschwinden soll, und vielleicht auch die Kupfernetze der Kabelbetreiber, auf jeden Fall soll die Glasfaser nun endlich ins Haus und bei den Verbrauchern ankommen.
Eine vergessene Idee
Doch noch ist nicht klar, was das im Ergebnis für die allerletzten Meter heißt: Werden nun die Vermieter Hausnetze verlegen lassen und diese an die Zugangsanbieter vermieten? Wird die Deutsche Telekom den Vermietern Angebote für eine Glasfaser-Hausverkabelung machen, die diese nicht ausschlagen können? Oder wird das Windhundprinzip dafür sorgen, dass irgendwer irgendein Haus ausbaut, weil er darin als Erstes einen Kunden gefunden hat? All das sind derzeit noch offene Fragen, über die die Bundesnetzagentur als Regulierungsbehörde und Bundesdigitalminister Karsten Wildberger als gesetzlicher Rahmengeber derzeit nachdenken müssen – im Rahmen der bereits in Brüssel eingerammten Pflöcke.
Eines, das gab Christian Schwarz-Schilling in der Wirtschaftswoche vor acht Jahren unumwunden zu, habe ihn überrascht: 1981 hatte die Vorgängerregierung unter Helmut Schmidt (SPD) einen Kabinettsbeschluss gefasst, dass systematisch Leerrohre hätten verlegt werden sollen. Als Postminister sei das überhaupt gar kein Thema gewesen, daran gearbeitet habe niemand – und er bis 2018 nie etwas davon gehört. Eine solche Vorratsinfrastruktur für kommende Zeiten, das hätte 40 Jahre später viel Arbeit erspart. Die Empfehlung dazu stammt aus dem Bericht der Kommission für den Ausbau des technischen Kommunikationssystems, der nun 50 Jahre her ist.
(nen)
Künstliche Intelligenz
Elektronische Patientenakte: Weiterer Aktensystemanbieter in der Zulassung
Bisher gibt es zwei Aktensysteme für die elektronische Patientenakte (ePA), eines vom Konsortium Rise und Bitmarck und eines von IBM. Nun befindet sich mindestens ein weiteres Aktensystem in der Zulassung, wie zwei unabhängige Quellen gegenüber heise online bestätigten.
Weiterlesen nach der Anzeige
Laut weiteren Informationen, die dem „Dienst für Gesellschaftspolitik“ (dfg) vorliegen, befindet sich seit Anfang April ein weiteres Aktensystem in der Testphase, das gemeinsam mit der Beratungsgesellschaft Ernst & Young (EY) entwickelt wird. Diese dritte ePA-Lösung ist demnach für die elf Ortskrankenkassen (AOKen) vorgesehen. Die AOK hatte bereits für seine aktuelle ePA-Implementierung EY beauftragt, wobei IBM als Subunternehmer eingebunden war. Der Vertrag mit IBM soll nun jedoch beendet werden.
Stattdessen soll dem Bericht zufolge künftig ein Konsortium aus verschiedenen Unternehmen die Leistungen übernehmen. Die bislang seitens heise online angefragten Unternehmen – darunter Krankenkassen, die Kunden von IBM sind, wie die AOK, sowie beteiligte Unternehmen wie EY – haben sich dazu bisher nicht geäußert.
Mitte April 2026 soll ein erster Connectathon stattfinden, wie aus einer vom dfg veröffentlichten Folie aus einem Gematik-Termin hervorgeht. Bei dem Termin will die Gematik die drei Lösungen für eine kommende ePA-Version vergleichen. Parallel laufen eigenverantwortliche Tests der Hersteller und Gutachterprüfungen.
Stabilität Telematikinfrastruktur
In der Vergangenheit hatte es immer wieder Kritik an der Stabilität der Telematikinfrastruktur gegeben. Besonders kritisch sind Störungen beim E-Rezept-Fachdienst, den ebenfalls IBM betreibt. Auf Presseanfragen von heise online reagierte das Unternehmen bisher nicht. Bislang ist IBM der Aktensystemhersteller für die meisten Versicherten, zu den Kunden gehören unter anderem die AOKen und die Techniker Krankenkasse sowie die Barmer. Laut Informationen von dfg haben nahezu alle betroffenen Kassen ihre Verträge zum 30. Juni 2027 gekündigt oder planen das.
Weiterlesen nach der Anzeige
Immer wieder Probleme
Bereits der Start der „ePA für alle“ am 15. Januar 2025 war IBM nur unter großem Druck gelungen. Sowohl Bitmarck als auch IBM hatten immer wieder Kompatibilitätsprobleme. Bei der AOK Bayern kam es beim Übertragen von Patientenakten bei Kassenwechseln zu Problemen. Akten wurden bei der Migration zwischen Kassen zwischenzeitlich gelöscht. Ende März hieß es von der Krankenkasse gegenüber heise online, dass der Prozess der Wiederherstellung der Akten noch laufe.
(mack)
Künstliche Intelligenz
Speicherkrise in Deutschland: Unser Abstieg in die Bedeutungslosigkeit
Ohne Speicher lungert auch der teuerste Prozessor arbeitslos im Serverrack. Eine simple Erkenntnis, die den Entscheidern entgangen sein muss. Leicht zu verstehen, ist technische Ahnungslosigkeit doch so etwas wie die Eintrittskarte in ihre Kreise. Bei der Vorstellung der deutschen Rechenzentrumsstrategie am 18. März durch zwei Bundesminister war von der Energie bis zur Gewerbesteuer alles ein Thema, nur die Hardware nicht. DRAM, SRAM, Flashspeicher und Festplatten sind teuer wie nie und schwer zu bekommen. Alternativen aus heimischer Produktion sucht man inzwischen vergeblich.
Weiterlesen nach der Anzeige

Bernd Schöne ist freier Journalist der Informationstechnik.
Das Credo der Politik: Die Industrie soll sich selbst helfen. Fragt sich nur, wie. Heimischen Unternehmen mit Hunderten Millionen Umsatz stehen US-Giganten mit Milliardenvermögen gegenüber. Sie reagieren durch Leerkauf des Angebots durch nahezu unerschöpfliche Geldpfründe. Mit genug Cash treiben sie das größte Bauprogramm der IT-Geschichte, ja vermutlich der Industriegeschichte, voran. Allein Meta will 70 Milliarden Dollar in sein Hyperion-Rechenzentrum stecken, das so groß werden soll wie der Kern von Manhattan. Die anderen Hyperscaler planen in ähnlichen Dimensionen den Turmbau zum KI-Babylon. Da wird Hardware zum Spekulationsobjekt.
Europa wird zum reinen Absatzmarkt
Die Speicherhersteller gedenken, die Nachfrageorgie maximal auszukosten. Die Produktion bleibt gedrosselt und eiskalt wechselt man in den Fabs zu den teuersten Speicherchips. Die sind maßgeschneidert für KI. Soll der Rest der Industrie doch sehen, wie er überlebt.
Zentraleuropa hat sich binnen einer Generation vom industriellen Komplettanbieter über das Ingenieurbüro der Welt zum reinen Absatzmarkt für fernöstliche Elektronikprodukte gewandelt. Nixdorf und AEG-Telefunken sind längst Industriegeschichte. Wer Zweifel ob der Sinnhaftigkeit der Selbstverzwergung anmeldete, galt als Abtrünniger der Globalisierung. Der Kunde sei König und die Preise kennen nur den Weg nach unten. Bis nur noch quersubventionierte Staatsunternehmen als Anbieter übrig sind. Als eine der letzten Fabrikationsstätten schloss Fujitsu-Siemens 2008 sein blitzsauberes und technisch hochstehendes Werk für PCs und Server in Augsburg. Ein Marktsegment zu verlassen, geht ganz schnell. Später wieder einzusteigen, ist trotz Subventionsmilliarden vom Staat nahezu unmöglich. Das zeigt der Investorenhickhack in Magdeburg und Dresden.
Kleinliche Kirchturmpolitik statt gemeinsame Anstrengung
Die neu entstandenen Abhängigkeiten erstrecken sich längst von wichtigen Rohstoffen wie hochreinem Silizium und seltenen Erden bis hin zur simplen Fähigkeit, moderne Fabrikationsstätten zu unterhalten. „Wie viele gut ausgebildete Fab-Ingenieure sind am Standort verfügbar?“, fragen höflich lächelnde Asiaten und US-Aktienprofis, wenn es um mögliche Investitionen in Deutschland geht – wohl wissend, dass wir hier blank sind. Längst geht es nicht mehr ohne Zusammenarbeit mit TSMC, Samsung und GlobalFoundries. Denn die wissen, wie man eine solche Fab betreibt. Und wir nicht. Doch ohne Fürsorge und Kapital vom Staat wäre auch TSMC in Taiwan nie zu dem geworden, was es heute darstellt. Verdient wurde das Startkapital durch Billigprodukte, hergestellt unter teilweise abenteuerlichen Umständen.
Weiterlesen nach der Anzeige
In China sitzen Ingenieure auf den Regierungsbänken, in Deutschland Juristen. Asiatische Konzerne sehen sich als Patrioten. Bei uns regiert Shareholder-Value. Japaner, Chinesen und Koreaner mögen sich nicht, halten gegen den Westen aber zusammen. In der EU grassiert dagegen der blanke Futterneid. Zwar arbeiten die Fabrikationsstätten von Intel, TSMC und Samsung mit Wafer-Steppern von ASML aus den Niederlanden mit Optiken von Zeiss aus Deutschland. Doch kleinliche Kirchturmpolitik verhindert bis heute, die vorhandenen Fähigkeiten zu einer konkurrenzfähigen Fabrikationsstätte für Prozessoren und Speicher in Europa zusammenzuführen. Dazu müsste man sich etwa auf einen Standort einigen. Stattdessen bastelt jedes Land, ja jedes Bundesland, an eigenen Zukunftsplänen, weit davon entfernt, die finanziellen oder intellektuellen Möglichkeiten zur erfolgreichen Umsetzung zu besitzen.
Chinas neuer Fünfjahresplan zu IT und KI
Anders in China. Dort formulierten die mehr als 5000 Delegierten des Nationalen Volkskongresses gerade den neuen Fünfjahresplan. Ganz oben steht die nationale Souveränität bei den Themen IT und KI. Xi Jinping setzt auf die Entwicklung „neuer Produktivkräfte“ durch KI, um der Konkurrenz Saures zu geben. Die Speicherkonzerne wollen aktuell nur das Geld der früheren Kolonialherren. China will mehr, sehr viel mehr.
Die Krise ist hausgemacht und nicht Teil einer sinistren Verschwörung. Doch für den bereits arg gebeutelten Mittelstand könnte eine lang anhaltende Speichermarktkrise eine Belastung zu viel sein, wenn der Hardwarenachschub ausbleibt oder unbezahlbar wird. Vielleicht platzt aber zwischenzeitlich der KI-Boom und große Mengen nicht mehr benötigter Hardware drücken die Preise auf ein erträgliches Niveau. Hoffen wir also auf ein Wunder.
(axk)
Künstliche Intelligenz
Digitales EU-Grenzsystem startet überall – Passstempel passé
Das digitale Ein- und Ausreisesystem für Menschen ohne EU-Pass soll ab heute an allen Grenzübergängen des europäischen Schengen-Raums funktionieren. Laut EU-Kommission erfasst das Verfahren mehr Daten als bisher und bekämpft dadurch Kriminalität sowie Terrorismus. Mehrere deutsche Flughäfen haben das System schon vor einigen Monaten eingeführt.
Weiterlesen nach der Anzeige
Das sogenannte Entry-Exit-System (EES) an den EU-Außengrenzen speichert etwa biometrische Daten, also Fingerabdrücke und Gesichtsbilder. Der Stempel im Pass entfällt dagegen. Die strengeren Vorschriften für Reisende ohne die Staatsangehörigkeit eines Mitgliedslands gelten künftig an allen Grenzübergängen von 25 EU-Staaten sowie von Island, Liechtenstein, Norwegen und der Schweiz. In Deutschland sind besonders Flughäfen sowie Seeaußengrenzen von der Umstellung betroffen.
Deutschland laut EU-Kommission „Musterschüler“
Die Mitgliedsländer haben das System seit Oktober 2025 schrittweise eingeführt. In manchen Staaten scheint es aber noch immer technische Probleme zu geben, wie die EU-Kommission einräumte. Deutschland sei dagegen ein „Musterschüler“. Besonders an den deutschen Flughäfen sind nach Angaben der EU-Kommission durch das System bisher über 2000 Reisen verweigert worden.
Im gesamten Schengen-Raum wurden demnach etwa 27.000 Reisen verwehrt, mehr als 700 Personen identifizierte das Verfahren seit Oktober demnach als Sicherheitsrisiko. EU-Innenkommissar Magnus Brunner teilte mit, die digitalen Grenzkontrollen seien ein wichtiger Meilenstein für den europäischen Außengrenzschutz.
Kritik von Fluglinien und Proteste von Lkw-Fahrern
Insbesondere Fluglinien und Flughäfen warnen zum Teil vor längeren Wartezeiten und Störungen im Ablauf durch das neue Verfahren. Zuletzt forderte Ryanair-Chef Michael O’Leary in der Londoner Zeitung The Times, das neue System erst nach der Sommersaison einzuführen.
Weiterlesen nach der Anzeige
Anfang des Jahres protestierten Lastwagenfahrer aus den südosteuropäischen Ländern mit Grenzblockaden gegen die strenger durchgesetzten EU-Aufenthaltsregeln. Sie seien mit ihrem Beruf inkompatibel.
(dmk)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 MonatCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
