Künstliche Intelligenz
KI statt Hardware: Samsungs riskantes Spiel
Weiterlesen nach der Anzeige
Mit den drei Modellen der Smartphone-Serie Galaxy S26 betreibt Samsung bei der Hardware nur sehr sanfte Modellpflege, die Neuerungen betreffen vor allem KI-Features, also Software. Diese Strategie bringt einige Risiken mit sich, denn nur wenige Menschen wählen ihr nächstes Smartphone nach der Software aus.
Zu den neuen KI-Funktionen des Galaxy S26 zählen einige wirklich praktische Helferlein. Die Spam-Erkennung könnte dafür sorgen, dass künftig keine dubiosen Gewinnspielanbieter oder Marktforscher durchklingeln. Perplexity als weiterer, ins System eingebackener Assistent kann zusammen mit Bixby die Einstellungen leichter machen und Aufgaben übernehmen. Now Nudge überwacht den Kalender im Hintergrund und sorgt für entspannte Terminplanung. Der neue Finder sucht alle Apps nach Inhalten ab, damit man nicht selbst zwischen ihnen hin und her springen muss. Alles eine feine Sache, wenn es denn im Alltag so reibungslos funktioniert wie bei den Demos auf dem Unpacked-Event.
Dabei gibt es allerdings ein Problem: Die Hoffnung der Smartphone-Hersteller und der Chipfertiger, dass die breite Masse wegen toller neuer KI-Features am Ende neue Smartphones kauft, hat sich bisher nicht erfüllt. Sicher, immer mehr Menschen verwenden KI auf dem Smartphone, doch als Zugpferd für die Verkaufszahlen hat sie sich noch nicht erwiesen. In Deutschland gingen die Absatzzahlen zuletzt leicht zurück, selbst wenn das Premium-Segment, in dem auch die Galaxy-S26-Geräte zu Hause sind, wächst.

Steffen Herget schreibt für c’t und heise online über Smartphones, Tablets und Gadgets aller Art. Hängt er nicht vor dem Bildschirm, sitzt er auf dem Rad, geht zu Fuß oder liest ein Buch – ganz analog.
Andere sind vorbeigezogen
Bei der Hardware hat Samsung unterdessen die Führungsrolle, die der Hersteller durch die Galaxy-S-Serie und vor allem das Ultra lange Zeit innehatte, so langsam verloren. Bei den Akkus sind insbesondere chinesische Hersteller wie Honor, Oppo und Xiaomi in anderen Sphären unterwegs und liefern mit Silizium-Kohlenstoff-Zellen teils 50 Prozent mehr Kapazität als Samsung im Ultra, das jetzt in der siebten (!) Generation mit dem gleichen 5000-mAh-Akku erscheint. Auch bei den Kameras gibt es kaum Fortschritte, das Galaxy S26 Ultra hat seit Jahren die gleichen Sensoren – keine schlechten, klar, aber andere Smartphones machen vielfach mindestens gleich gute, eher bessere Fotos. Den Trend zu eingebauten Magneten für Magsafe-Zubehör hat Samsung bislang ebenfalls ignoriert. Bei der langen Updateversorgung war Samsung vorbildlich früh dabei, doch EU-Regulierungen zwangen die Konkurrenz zum Nachziehen – Vorsprung ein wenig gesunken. Immerhin, beim Prozessor ist das Galaxy S26 Ultra noch spitze, doch den Qualcomm-Chip bauen auch viele andere Hersteller ein – teils mit mehr Arbeitsspeicher.

Samsung Galaxy S26
Steffen Herget / heise medien
)
Samsungs Strategie fußt also darauf, dass die Kundschaft wegen der KI-Funktionen zu einem neuen Galaxy-Smartphone greift. Doch was sagen die Kunden? Aktuellen Zahlen des Bitkom aus dem Vorjahr zufolge nutzen zwar 71 Prozent der Menschen KI auf dem Smartphone, doch gerade mal 26 Prozent geben an, dass diese ein primärer Kaufgrund für ein bestimmtes Modell sei. Mit Abstand bleiben ein robustes Display (98 Prozent) und ein starker Akku (96 Prozent) die wichtigsten Punkte. Updates (93 Prozent) und Kamera (90 Prozent) liegen knapp dahinter. Zwar mag sich der Trend mittlerweile ein wenig zugunsten der KI verschieben, doch die wichtigsten Kriterien bleiben andere. Hinzu kommt: „Ich benutze KI auf dem Smartphone“ ist für viele Menschen gleichbedeutend mit „Ich nutze ChatGPT, Perplexity, Copilot oder Gemini“ und die sind per App auf quasi allen Smartphones nutzbar, dafür braucht es kein neues High-End-Telefon.
Weiterlesen nach der Anzeige
Mutig, mutig
Zusammen mit der Tatsache, dass Smartphones immer länger verwendet werden – eine direkte Folge von robuster Hardware und langer Update-Versorgung – ergibt sich ein Dilemma für Samsung: Der Hersteller konzentriert sich auf einen weniger prominenten Aspekt des Smartphones, während er andere, für die Auswahl beim Kauf wesentlich wichtigere Punkte konsequent vernachlässigt. Ein, nun ja, mutiger Ansatz.
Es bleibt also abzuwarten, ob Samsung mit dieser Strategie zum Erfolg kommt. Sicher, die Zahlen des Herstellers zeigen eine gestiegene Bekanntheit und Nutzerbasis der Galaxy AI. Doch ob das reicht, um die Verkaufszahlen des Galaxy S26 nach oben zu treiben, bleibt fraglich.
(sht)
Künstliche Intelligenz
iX-Workshop: Active Directory Hardening – Vom Audit zur sicheren Umgebung
Das Active Directory ist das Herzstück vieler Unternehmensnetzwerke und stellt daher ein attraktives Ziel für Cyberangriffe dar.
Weiterlesen nach der Anzeige
In dem Workshop Active Directory Hardening: Vom Audit zur sicheren Umgebung erwerben Sie umfangreiches Wissen und praktische Fähigkeiten zur Absicherung Ihres Active Directory. Sie lernen, Sicherheitsrisiken zu erkennen, Fehlkonfigurationen zu beheben und Angriffe zu identifizieren und abzuwehren. Hierzu gehören der sichere Umgang mit Authentifizierungsprotokollen sowie die Implementierung von Schutzmaßnahmen wie AppLocker und der Local Administrator Password Solution (LAPS). Zudem kommen Audit-Tools wie PingCastle sowie offensive Werkzeuge wie PowerView und BloodHound zum Einsatz.
|
Mai 26.05. – 28.05.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 28. Apr. 2026 |
|
August 19.08. – 21.08.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 22. Jul. 2026 |
|
November 04.11. – 06.11.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 07. Okt. 2026 |
Härtung in einer Laborumgebung anwenden
Der Workshop beinhaltet zahlreiche technische Hands-on-Übungen, in denen Sie praxisnah in einer bereitgestellten Übungsumgebung verschiedene Fehlkonfigurationen und Schwachstellen in einem Active Directory selbst auditieren und anschließend entsprechende Schutzmaßnahmen implementieren. Dazu gehören der Umgang mit Authentifizierungsprotokollen, das Erkennen und Schließen von Sicherheitslücken sowie der Einsatz von Tools zur Überprüfung von Einstellungen und die Implementierung von Schutzmaßnahmen wie AppLocker, LAPS und dem Least-Privilege-Prinzip.
Dieser dreitägige Online-Workshop richtet sich an Administratoren, die sich intensiver mit Angriffen beschäftigen und Ihr On-Premise-Active-Directory härten wollen. In einer kleinen Gruppe von maximal 10 Teilnehmern haben Sie ausreichend Gelegenheit für intensiven Austausch mit dem Trainer und den anderen Teilnehmenden.
Der Workshop wird von Yves Kraft, Leiter der Security Academy bei Oneconsult AG, geleitet – einem erfahrenen Penetrationstester und IT-Sicherheitsberater.

(sfe)
Künstliche Intelligenz
Geigerzähler von 1977 aufgeschraubt und analysiert
Um sicherzugehen, ob mein Verdacht, es handelt sich um einen Geigerzähler, stimmt, habe ich das Gerät aufgeschraubt und entdeckte ein Geiger-Müller-Zählrohr (PDF) (ZP1400 von Mullard oder Philips).
Auch das etwaige Herstellungsdatum 1977 war schnell ausgemacht, als ob nicht schon die wunderbare orange Farbe Hinweis genug gewesen wäre … Die Ernüchterung ob des tollen Fundes folgte, als ich das Batteriefach öffnete: Jahrzehnte alte ausgelaufene Batterien, deren ehemaliger Inhalt mit viel Isopropanol und Muskelschmalz weggeputzt werden musste. Zum Glück war die Korrosion nicht auf die Elektronik übergegangen.
Nachdem sich beim ersten Test an einem radioaktiven Mineral (Torbernit, ein Uranmineral) nichts außer einem hochfrequenten Piepen rührte, fand ich eine schlechte Lötstelle auf einer der Platinen, verlötete sie wieder und der Zähler gab ein munteres Knattern von sich. Schaltet man den Schalter „O/M“ auf „M“, wird die Strahlung nur auf dem Zeigerinstrument angezeigt, LED und Lautsprecher sind dann aus.
Das war die Leseprobe unseres heise-Plus-Artikels „Geigerzähler von 1977 aufgeschraubt und analysiert“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Missing Link: Deutschland, eine Kupfer-Geschichte
Ziemlich genau 50 Jahre ist es her, dass die „Kommission für den Ausbau des technischen Kommunikationssystems“ (KtK) klare Worte fand: „ohne Verzögerung“ solle das „öffentliche Fernschreib- und Datennetz“ aufgrund des steigenden Bedarfs ausgebaut werden. 24.500 „Datenstationen“ wurden Ende 1974 bei einer – unter Bundespostaufsicht wahrscheinlich höchst exakten Zählung – ermittelt. Ohne Verzögerung: das klappte eher nicht so – und die Langsamkeit war oft durch politische Entscheidungen beeinflusst.
Weiterlesen nach der Anzeige
1976 war ein Jahr der sich ankündigenden Umbrüche. Standard Elektronik Lorenz (SEL) brachte mit dem LO2000 den ersten von der Bundespost zugelassenen elektronischen Fernschreiber für das Telex ohne Wählscheibe, dafür mit Zehnertastatur, auf den Markt. Während am anderen Ende der Welt Seymour Crays erster Supercomputer in Los Alamos in Betrieb ging und sechs Jahre lang der schnellste der Welt blieb, nahm in der Bundesrepublik die Gebühreneinzugszentrale der Rundfunkanstalten ihre Arbeit auf. In der DDR arbeitete das Fernmeldewerk Nordhausen an der Entwicklung von Tastwahlgeräten für die dortige Deutsche Post. All das ist längst wieder Geschichte, und doch kündigte sich damals auch in der Politik deutlich an, was später Gewissheit wurde: Die Telekommunikation nimmt an Bedeutung zu – und neben dem Fernsprechen geht es zunehmend um Datenverkehr.
In dieser Woche starb der frühere Bundespostminister Christian Schwarz-Schilling – ein Mann, dessen Wirken nach wie vor spürbar ist. Denn Schwarz-Schilling, zehn Jahre lang von 1982 bis 1992 unter Helmut Kohl der vorletzte Postminister der Bundesrepublik und maßgeblicher Architekt der schrittweisen Privatisierung der Bundespost, war auch ein Mann der Kabelfragen in den frühen Zeiten der Vernetzung von Computern.

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
Die frühen 1980er-Jahre waren geprägt von, wie es Magazine damals schrieben, einer „Koaxialkupfer-Euphorie“: Die Bundespost setzte als Monopolist weitgehend auf die verfügbaren Kupferleitungen. Der Postminister, manchen Zeitgenossen voraus, wollte laut damaligen Berichten zwar dennoch auf keinen Fall die Glasfasertechnologie vernachlässigen, sah aber keine Einsatzmöglichkeit. Mit dem Hinzukommen der ersten privaten Fernsehsender, mit denen Helmut Kohl auch die Macht der Öffentlich-Rechtlichen brechen wollte, waren die aufkommenden Kabelanschlüsse gut benutzbar – doch auch hier galt: zu Beginn war die Akzeptanzrate gering. Was sollten die Bundesbürger auch mit diesem neumodischen Kram?
Die Zeit des auslaufenden Fernmeldemonopols war eine Zeit der Grundsatzfragen: Ist es richtig, dass eine staatliche Behörde die Telekommunikation operativ wie organisatorisch unter ihren Fittichen hat? Dass die Antwort darauf schon in den 1980er-Jahren „Nein“ hieß, war kaum zu übersehen angesichts der vielen Schwierigkeiten, die es gab – sowohl beim langsamen Ausbau, beim Kostenmanagement als auch bei Irrläuferprodukten wie dem Bildschirmtext (BTX), die am Markt erfolglos blieben. Der KtK-Bericht war so etwas wie ein Auftakt zu dem, was kommen sollte: Die Kommunikationsmittel wurden entstaatlicht und der Staat versilberte das, was ihm gehörte.
DDR-Post: Kein Anschluss
Doch ist das natürlich nur der westdeutsche Teil der Geschichte: In der DDR hatte nicht einmal jeder fünfte Haushalt einen Telefonanschluss, in Ost-Berlin immerhin fast jeder Dritte, im Bezirk Rostock nur 7,8 Prozent. Die Vermittlungstechnik der DDR-Post war in Teilen immer noch aus der Vorkriegszeit – was wiederum mit der Wiedervereinigung bei einigen im Westen Goldgräberstimmung auslöste.
Weiterlesen nach der Anzeige
Nicht zuletzt weil damit auch ein Anlass gefunden war, ISDN wirklich einzuführen. Große Pläne wurden im Rahmen der Postunion geschmiedet, oft auch wieder verworfen, teilweise aber auch realisiert, wie etwa der Plan „Telekom 2000“, mit dem auch experimentell die Glasfaser in den Osten gebracht werden sollte. Doch die dort teils verlegte OPAL-Technologie war nicht einfach mit dem nächsten Zwischenschritt in Einklang zu bringen: dem wieder kupferbasierten ADSL.
Freiheit beginnt am Hauptanschluss
Immer stand im Raum: Kommt eventuell eine Technologie, die noch besser, noch schneller, noch attraktiver ist? Als Schwarz-Schilling 1988 erläuterte, wie die „Neustrukturierung des Post- und Fernmeldewesens“ vonstattengehen solle, war die nächste Runde im Kampf längst im Gange. Denn die „Liberalisierung“, die Entstaatlichung, begann mit der Aufteilung der Bundespost in Post, Postbank und Telekom – und mit einer ganz wilden Idee: dass die Hoheit über das staatlich betriebene Netz mit dem Hauptanschluss endet.
Nur eine kleinere Einschränkung gab es noch: die Endgerätefreiheit endete mit dem notwendigen Siegel des Fernmeldetechnischen Zentralamts (FTZ), ab 1992 mit dem des Bundesamtes für Zulassungen in der Telekommunikation (BZT) – ohne Siegel war der Betrieb eines Telefons, Faxes oder Modems an Bundespost- bzw. Telekomnetzen verboten. Und doch war das eine Liberalisierung: vorher war nur die Miete von der Bundespost erlaubt.
Für die Bürger allerdings änderten sich zwar die Möglichkeiten – doch die tatsächliche Nutzung der Datennetze blieb vorerst gering. Denn das Einwählen in die Telefonnetze zwecks Datenfernübertragung blieb – sofern nicht im gleichen Ortsnetz verfügbar – eine kostspielige Angelegenheit. Der Nutzen erschien vielen überschaubar. Und auch die Grundvoraussetzung eines digitalen Endgerätes fehlte bis in die späten 1990er in den meisten Privathaushalten. Dazu kam: die meisten Unternehmen des frühen teilliberalisierten Telekommunikationsmarktes hatten im Privatbereich schlicht keine Ahnung, was akzeptiert würde und was nicht – Call-by-call-Vorwahlen für Telefonate und andere Ideen kamen und verschwanden im Ergebnis weitgehend wieder.
Ein Debakel zeigt den Bedarf auf
Tatsächlich war es vor allem ein historischer Unfall im Telekommunikationsmarkt, der den längst vorhandenen Bedarf nach Flatrates für Datennutzung in einem immer noch auf Sprache ausgerichteten Telekommunikationsmarkt kurz vor der Jahrtausendwende aufzeigte: das 77-Mark-Mobilcom-Flatrate-Desaster von 1998 – ab 19 Uhr sollten sich Nutzer dann bis morgens um 7 über nicht ausgelastete Telefonleitungen ins Internet einwählen können. Der Effekt: alle Einwahlports waren in Nullkommanichts belegt, die Kunden sauer – und finanziell war das ganze ein Desaster für Mobilcom und andere ebenfalls auf den Zug aufgesprungene Anbieter.
Und doch war es ein Startschuss: der Bedarf nach bezahlbaren Datennetzzugängen überstieg das marktverfügbare Angebot massiv – sodass selbst der erste Telekom-Chef Ron Sommer noch zum späten Flatrate-Freund wurde, bevor er zurücktrat. Die Always-On-Idee war dabei auch der Hauptgrund, warum DSL und Breitbandkabel plötzlich doch interessant wurden: klassische Analogleitungen waren zu langsam und bei Modemverbindung besetzt, ISDN zu wenig verbreitet und selbst bei zwei Kanälen nicht schnell.
Und doch stellte sich ein neues Problem ein: beide neuen Technologien waren relativ kostengünstig für die Betreiber – denn sie bevorteilten die Besitzer bereits vorhandener Infrastruktur. Telekom-Chefs setzten über ein Jahrzehnt lang darauf, das letzte MBit aus der Kupferleitung herauszupressen – im Tausch gegen gutes Geld. Doch das ging auch mit einer Teilrückabwicklung der Anbieterwahl einher: mit dem Schritt von ADSL zu VDSL wurden Konkurrenzanbieter wieder aus dem Hausanschluss herausgeworfen.
Während die Nachfrage immer weiter stieg, zuerst getrieben durch Filesharing, dann durch Videoplattformen und zuletzt vor allem noch einmal durch Streamingdienste, erzeugte der Markt weiter Druck: Zwar reichen vielen Kunden immer noch 100 oder 200 Megabit aus. Doch nur dann, wenn die auch tatsächlich ankommen. Was im Ergebnis dazu führte, dass die Glasfaserinfrastruktur, die im Hintergrund bei den Netzbetreibern ausgebaut werden musste, immer näher an die Häuser heranrückte. Dass sie nun auch noch in diesen ankommt, scheint da nur logisch.
Zukunft ungewiss
Die Historie der Datennetze in Deutschland zeigt einige wiederkehrende Muster: es ist nicht immer die fortschrittlichste Technologie, die sofort Akzeptanz bei Anbietern und Kunden findet. Aber tatsächlich regelt der Markt aus Angebot und Nachfrage auch bei der Telekommunikation – mit einiger Verzögerung und wenn der Staat zu Eingriffen bereit ist. Doch solange es keine klaren Anwendungsszenarien gibt, überlegen alle Beteiligten: Brauche ich das?
Auch in den aktuellen Debatten rund um den Ausbau schneller Datennetzinfrastrukturen spielt genau das eine wesentliche Rolle: Mit welchem Nutzungsverhalten lässt sich überhaupt rechnen? Wie viele Daten mit welcher Geschwindigkeit werden wo und wann benötigt werden? Wie sinnvoll ist es überhaupt, parallel zu schnellem – natürlich per Glasfaser angebundenen – Datenfunk auch tatsächlich noch Inhouse-Strukturen als Glasfaser zu verlegen? Die Antworten darauf sind immer auch eine Wette auf die Zukunft. Die aktuelle Wette lautet: Alle werden Glasfaser benötigen, weder Satelliteninternet noch Mobilfunk können mit dessen Kapazität mithalten. Weshalb nun das Telekom-Kupfernetz verschwinden soll, und vielleicht auch die Kupfernetze der Kabelbetreiber, auf jeden Fall soll die Glasfaser nun endlich ins Haus und bei den Verbrauchern ankommen.
Eine vergessene Idee
Doch noch ist nicht klar, was das im Ergebnis für die allerletzten Meter heißt: Werden nun die Vermieter Hausnetze verlegen lassen und diese an die Zugangsanbieter vermieten? Wird die Deutsche Telekom den Vermietern Angebote für eine Glasfaser-Hausverkabelung machen, die diese nicht ausschlagen können? Oder wird das Windhundprinzip dafür sorgen, dass irgendwer irgendein Haus ausbaut, weil er darin als Erstes einen Kunden gefunden hat? All das sind derzeit noch offene Fragen, über die die Bundesnetzagentur als Regulierungsbehörde und Bundesdigitalminister Karsten Wildberger als gesetzlicher Rahmengeber derzeit nachdenken müssen – im Rahmen der bereits in Brüssel eingerammten Pflöcke.
Eines, das gab Christian Schwarz-Schilling in der Wirtschaftswoche vor acht Jahren unumwunden zu, habe ihn überrascht: 1981 hatte die Vorgängerregierung unter Helmut Schmidt (SPD) einen Kabinettsbeschluss gefasst, dass systematisch Leerrohre hätten verlegt werden sollen. Als Postminister sei das überhaupt gar kein Thema gewesen, daran gearbeitet habe niemand – und er bis 2018 nie etwas davon gehört. Eine solche Vorratsinfrastruktur für kommende Zeiten, das hätte 40 Jahre später viel Arbeit erspart. Die Empfehlung dazu stammt aus dem Bericht der Kommission für den Ausbau des technischen Kommunikationssystems, der nun 50 Jahre her ist.
(nen)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 MonatCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
