Connect with us

Künstliche Intelligenz

Samsung Galaxy Watch 8 Classic im Test: Robuste und große Smartwatch mit Lünette


Die edle Samsung Galaxy Watch 8 Classic bietet eine echte Lünette sowie EKG und eine neue Antioxidantien-Messung. Dafür zahlt man mit höherem Preis und Gewicht.

Mit der Galaxy Watch 8 Classic legt Samsung nach zwei Jahren wieder eine neue Version seiner Premium-Smartwatch vor – erneut mit der beliebten, drehbaren Lünette. Während die normale Galaxy Watch jährlich ein Update erhält, gönnt Samsung der Classic-Serie bewusst einen zweijährigen Zyklus.

Technisch orientiert sich die Classic stark an der Galaxy Watch 8, setzt aber auf ein Gehäuse aus Edelstahl, das größer, schwerer und robuster wirkt. Allerdings gibt es das Modell nur in einer Größe. Ob sich der Aufpreis gegenüber der Standard-Version lohnt und für wen die Classic wirklich interessant ist, zeigt unser Test.

Design & Tragekomfort

Rein optisch wirkt die Galaxy Watch 8 Classic im Vergleich zur Standardvariante wie eine gänzlich andere Uhr. Zwar erinnert das Squircle-Gehäuse entfernt an das Design der Watch 8, doch Material und Form machen sie massiver und markanter. Mit 46 mm Durchmesser und 64 g Gewicht ist sie doppelt so schwer und auch deutlich klobiger als die Watch 8. Das spürt man auch beim Tragen. Anders als bei der Watch 6 Classic gibt es nur noch eine Größe.

Vielmehr erscheint die Classic eher wie eine abgespeckte Variante der Galaxy Watch Ultra. Insgesamt richtet sich die Classic an Handgelenke ab etwa 18 cm Umfang und wirkt optisch maskuliner. Im Fitnessstudio vermittelt sie ein robustes Gefühl, beim Schlafen stört sie uns allerdings wegen der Größe und des Gewichts.

Das Edelstahlgehäuse ist hochwertig verarbeitet und schützt das Display, das von einer mechanischen, drehbaren Lünette umrahmt wird. Diese erleichtert die Navigation durch Menüs und hält das Glas frei von Fingerabdrücken – ein klassisches Markenzeichen der Classic-Reihe. Ergänzt wird die Bedienung durch zwei Buttons und eine frei belegbare Action-Taste, wie man sich schon von der Ultra her kennt.

Zum Lieferumfang gehört ein Kunstlederarmband, das edler wirkt als das sportliche Silikon der Watch 8. Die Armbänder lassen sich weiterhin unkompliziert wechseln, der überarbeitete Mechanismus macht den Tausch noch schneller. Ein Nachteil: Ältere Bänder passen nur mit Adaptern. Überdies bietet Samsung selbst Varianten aus Nylon oder Kunstleder an, zusätzlich findet man eine große Auswahl kompatibler Modelle von Drittanbietern.

Die Galaxy Watch 8 Classic ist nach IPX8 und bis 5 ATM wasserdicht – Schwimmen ist problemlos möglich, Tauchen aber nicht. Zusätzlich erfüllt sie den US-Militärstandard MIL-STD-810H und übersteht Temperaturschwankungen, Erschütterungen sowie den Salzgehalt von Schweiß.

Display

Das Display misst 1,35 Zoll in der Diagonale – damit ist es kleiner als beim 44-mm-Modell der Galaxy Watch 8 und nur minimal größer als bei deren 40-mm-Version. Grund dafür ist die mechanische Lünette, die Platz beansprucht. Trotz des größeren und schwereren Gehäuses bekommt man keine größere Anzeige.

Die Auflösung liegt bei 438 × 438 Pixeln. Das OLED-Panel überzeugt mit hoher Bildqualität und kräftigen Farben. Die maximale Helligkeit von bis zu 3000 Nits sorgt dafür, dass Inhalte auch bei direkter Sonneneinstrahlung einwandfrei ablesbar bleiben. Für Kratzfestigkeit und Schutz setzt Samsung auf Saphirglas. Ein optionales Always-On-Display ist ebenfalls integriert, mit dem das Ziffernblatt sichtbar bleibt. Allerdings geht dies zulasten der Akkulaufzeit.

Software & Bedienung

Die Galaxy Watch 8 Classic läuft mit Wear OS 6 samt One UI Watch 8. Das System ist übersichtlich, bietet eine große App-Auswahl und gehört nach wie vor zu den smartesten Smartwatch-Betriebssystemen. Mit der Uhr kann man etwa problemlos per Google Maps navigieren oder Bilder in Whatsapp ansehen sowie Spotify-Playlists speichern. Grundvoraussetzung ist ein Smartphone mit Android 11.

Neu ist das Stapeln von Widgets, um Informationen flexibler zu organisieren und schneller verfügbar zu machen. Außerdem lässt sich Gemini nun direkt auf der Uhr nutzen – dafür ist allerdings eine aktive Internetverbindung erforderlich.

Die Kopplung erfolgt über die Galaxy-Wearable-App. Auf Samsung-Smartphones ist diese bereits vorinstalliert, auf anderen Android-Geräten wird zusätzlich ein benötigtes Galaxy-Watch-Plug-in heruntergeladen. Alle Gesundheits- und Fitnessdaten fließen in die Samsung-Health-App ein, in der etwa Schlaf- und Trainingsanalysen übersichtlich aufbereitet werden.

Die Galaxy Watch 8 Classic wird per Touchscreen sowie über physische Bedienelemente gesteuert. Neben den beiden seitlichen Tasten gibt es mit dem Action-Button eine dritte Taste in der Mitte. Diese lässt sich frei belegen, zum Beispiel zum schnellen Starten von Lieblings-Apps oder Trainingsmodi.

Das charakteristische Highlight der Classic ist jedoch die mechanische, drehbare Lünette. Mit ihr scrollt man durch Menüs, Apps oder Benachrichtigungen, ohne das Display berühren zu müssen – praktisch für saubere Finger, bessere Übersicht und eine präzisere Steuerung.

Ausstattung

Die Galaxy Watch 8 Classic setzt wie die Standardversion auf den Exynos W1000, der im Alltag flott und effizient arbeitet. Unterstützt wird er von 2 GB RAM. Beim Speicher bietet die Classic einen Vorteil: 64 GB stehen standardmäßig zur Verfügung – doppelt so viel wie bei der Galaxy Watch 8. Damit gibt es reichlich Platz für Apps, Musik oder Kartenmaterial.

Erhältlich ist die Classic sowohl als Bluetooth-Version mit Wi-Fi 4 als auch in einer LTE-Variante per eSIM. Das integrierte GPS arbeitet genau und zuverlässig, etwa beim Outdoor-Training.

Zur Ausstattung gehören optische Sensoren für Puls- und Sauerstoffmessung, eine Sturzerkennung sowie die Bezahlfunktion über Google Pay. Der Vibrationsmotor ist kräftiger als bei der Watch 8 und sorgt dafür, dass man Benachrichtigungen gut am Handgelenk spürt.

Die integrierten Lautsprecher liefern eine solide Qualität – Sprachansagen und Telefonate sind gut verständlich. Ergänzend gibt es einen Flugmodus, der alle Funkverbindungen deaktiviert, sowie einen Schlafmodus, der das Display aus und Benachrichtigungen stumm schaltet – praktisch nicht nur für die Nacht, sondern auch im Kino.

Training

Die Galaxy Watch 8 Classic empfiehlt sich auch als Sportuhr: Zahlreiche Profile sind vorinstalliert, der Pulssensor misst exakt und reagiert schnell. Spaziergänge oder Radtouren erkennt die Uhr meist automatisch, beim Workout zeigt die Uhr dann Puls, Distanz oder Tempo an. Die Detailauswertung übernimmt die App Samsung Health.

Für Läufer gibt es ferner einen optionalen Trainingscoach. Dieser führt unter anderem einen Cooper-Test durch, ermittelt daraus das Fitness-Level und erstellt auf Basis der Ergebnisse einen individuellen Trainingsplan.

Schlaf & Gesundheit

Neben dem Aktivitäts-Tracking bietet die Galaxy Watch 8 Classic eine Schlafanalyse, die zwischen REM-, Leicht- und Tiefschlafphasen unterscheidet. Die Resultate wirken größtenteils plausibel, allerdings erfasst die Uhr Wachphasen im Bett nicht immer zuverlässig.

Ansonsten misst die Watch Puls, Blutsauerstoff, Stress sowie neuerdings auch die Belastung der Blutgefäße. Für ein 1-Kanal-EKG und die Blutdruckerfassung ist die App Samsung Health Monitor notwendig, die ausschließlich auf Samsung-Smartphones verfügbar ist. Auch eine Erkennung von Schlafapnoe ist vorgesehen. Diese Gesundheitsfunktionen liefern jedoch nur Orientierungswerte und ersetzen keine ärztliche Diagnose.

Interessant, aber eher Wellness: Der AGEs-Index ermittelt mögliche Risiken durch schädliche Zucker-Protein-Verbindungen. Die neue Antioxidantien-Messung soll Hinweise auf die Fähigkeit geben, freie Radikale abzuwehren. Beides liefert grobe Trends, ersetzt aber keine Laboruntersuchung.

Akku

Mit einer Kapazität von 445 mAh bringt die Galaxy Watch 8 Classic einen minimal größeren Akku mit als die Watch 8 (44 mm). Angesichts des wuchtigen Gehäuses hätte man jedoch etwas mehr erwarten dürfen. Akkulaufzeit ist ohnehin nicht die Stärke von Wear OS, da das System sehr rechenintensiv und interaktiv ist.

Im Praxistest hielt die Watch 8 Classic trotz Always-on-Display rund 1,5 Tage durch, bevor sie zurück ans Ladepad musste. Das Aufladen dauerte etwa 1 Stunde und 15 Minuten. Offiziell ist die Uhr nun auch mit anderen induktiven Ladegeräten kompatibel. Im Test funktionierte das mit Modellen von Drittanbietern aber nicht zuverlässig.

Preis

Im Vergleich zur Galaxy Watch 8 ist die Classic teurer. Die UVP liegt bei 529 Euro ohne und bei 579 Euro mit LTE. Angesichts des nahezu identischen Funktionsumfangs zahlt man also spürbar mehr – im Wesentlichen für das edlere Gehäuse. Neben der silbernen Variante mit schwarzem Armband bietet Samsung auch ein Modell mit weißem Band an. Ersatzarmbänder gibt es sowohl bei Samsung als auch Drittanbietern.

Wie üblich sind die Preise jedoch schnell gefallen: Das weiße Bluetooth-Modell ist derzeit schon ab 345 Euro erhältlich, mit schwarzem Band sind es 360 Euro. Mit LTE geht es in Weiß schon ab 370 Euro los. Das schwarze LTE-Modell ist mit 399 Euro teurer.

Fazit

Die Galaxy Watch 8 Classic richtet sich an Fans markanter und eleganter Smartwatches mit Nostalgie-Faktor. Sie bietet genaue Pulsmessung, ein EKG, Blutdruckmessung und viele Fitnessdaten, wirkt optisch edler als die Standard-Version. Eine Vielzahl an Apps macht die Uhr sehr smart.

Allerdings steht die Blutdruckmessung und das Aufzeichnen eines EKGs nur Nutzern eines Samsung-Handys zur Verfügung. Das Gehäuse ist zudem groß und schwer, die Akkulaufzeit bleibt mit 1,5 Tagen nicht übermäßig lang und der Aufpreis fällt deutlich ins Gewicht. Für die meisten Nutzer ist die Watch 8 daher die vernünftigere Wahl, während die Classic ein Modell für Liebhaber darstellt.



Source link

Künstliche Intelligenz

Warum Microsoft mit Windows 95 den modernen PC definierte


Am 24. August 1995 startete der Verkauf von Windows 95 in den USA – und wie später nur noch bei den ersten iPhones war das ein gesellschaftliches Ereignis. Manche kampierten vor den Elektronikläden, Wochen zuvor war eine Werbekampagne angelaufen, mit der „Start me up“ von den Rolling Stones aus jedem Fernseher dröhnte. Dabei war der Song damals schon 14 Jahre alt, aber er passte halt ideal zum neuen „Start“-Menü, das Windows 95 mitbrachte.

Um gleich einen der Klischee-Witze abzuräumen: Ja, man musste wirklich „Start“ anklicken, um den PC auszuschalten. Zeitgleich konnte man unter MacOS aber auch noch CDs oder Disketten in den Papierkorb werfen, um sie aus dem Laufwerk zu bekommen. Die Metaphern von Betriebssystemen waren vor 30 Jahren noch unausgereifter als heute. Und noch so ein Mythos: Die Rolling Stones haben nicht, wie 1995 sogar die c’t als Gerücht gekennzeichnet wiedergab, 12 Millionen US-Dollar für ihren Song erhalten, sondern nur drei. Das sagte Microsofts COO Bob Herold 2011, nachdem er sich zur Ruhe gesetzt hatte.

In vielen Rückblicken auf den Hype, den Microsoft um seinen ersten echten Hybrid aus DOS und grafischer Benutzeroberfläche entfachte, geht der Grund dafür verloren: 1995 hatte die Windows-Company bei professionellen Anwendern Konkurrenz, und drohte, bei PCs für daheim den Anschluss zu verpassen. Der echte Nachfolger für Windows 3.0 von 1990 ließ viel zu lange auf sich warten, die nächste große Version sollte schon 1993 erscheinen. Da kam aber nur Windows 3.11, das dem ein Jahr zuvor erschienenen Windows 3.1 zumindest etwas bessere Netzwerkfunktionen beibrachte.

In diesem Feld war jedoch OS/2 von IBM immer schon besser. Netzwerkkarten und deren Treiber ließen sich einfacher konfigurieren und mit den vielen damals üblichen proprietären Netzwerksystemen der lokalen Server verbinden. Zuerst noch zusammen mit Microsoft entwickelt, damit Windows-Programme auch unter OS/2 laufen, hatten die beiden Firmen diese Kooperation 1990 beendet. 1994 erschien dann mit „O2/2 Warp 3“ sogar eine Version, die mit schickerer Oberfläche Privatanwendern schmackhaft gemacht werden sollte.

Viele Windows- und DOS-Programme konnten auch unter OS/2 laufen, und IBM machte kräftig Werbung, in Deutschland unter anderem mit dem Slogan „Ich hab’s drauf“. Damit wurden schließlich auch bei den großen PC-Ketten Escom und Vobis Computer mit vorinstalliertem OS/2 verkauft. Mit einer neuen Generation von Spielen, die Gebrauch von Soundkarten und CD-ROM-Laufwerken machten, wurden PCs auch immer attraktiver gegenüber früheren Heimcomputern und den Konsolen. Letztere hatten zudem erst Ende 1994 einen kräftigen Schub durch die erste Playstation erhalten.

1995 war somit eine Zeit des Umbruchs, nicht zuletzt auch weil das Internet für professionelle wie private Anwender immer interessanter wurde. Für Microsoft galt es vor allem, sich auf der wachsenden Zahl der PCs in den Wohnungen zu verewigen. Daher konnte Windows 95 mit einem – teils kostenpflichtigen – Beta-Programm ab Anfang 1995 auf zehntausenden PCs von jedem getestet werden. Schon im Juli kündigte man dann an, dass das System einen Monat später verfügbar sein sollte. Zeitgleich rollte die Werbekampagne an, die 200 Millionen US-Dollar kosten sollte. Laut gängigen Inflationsrechnern wären das heute über 400 Millionen, mehr als auch die größten Hollywood-Produktionen kosten.

In der Rückschau erinnern sich viele vielleicht daran, dass man mit Windows 95 jede Menge Ärger hatte. Das Versprechen von Steckkarten, die sich durch das neue „Plug & Play“ von selbst konfigurieren sollten, das nicht immer taten, und viele Abstürze mögen vielleicht im Gedächtnis feststecken. Nicht aber, dass Windows 95 schon viele Treiber für verbreitete Geräte mitbrachte, und auch Installations-Assistenten, die zumindest versuchten, Fehler zu beheben.

Es hält sich auch, dass Windows 95 ja noch immer kein „richtiges“ Betriebssystem war, das wie das schon 1993 für Workstations und Server erschienene Windows NT 3.1 ohne DOS-Unterbau auskam. In der Tat konnte Microsoft erst mit Windows 2000 im namensgebenden Jahr die bunte Oberfläche von Windows 95 und die Technik von Windows NT vereinen – um dann mit Windows XP nur ein Jahr später wieder alles umzukrempeln.

Richtig ist dabei jedoch, dass Windows 95 die dafür entwickelte DOS-Version 7.0 mitbrachte, die umfangreich mit Windows verzahnt war. Treiber und Programme konnten, anders als bei Windows 3.11, alle 32-Bit-Funktionen von Prozessoren wie dem neuen Pentium ausreizen. Insbesondere 32-Bit-Treiber brauchten weder DOS noch BIOS, allerdings gab es sie nicht für alle Geräte. Und auch 16-Bit-Programme waren noch weit verbreitet. Mit denen war es dann oft aus für den Protected Mode samt Speicherschutz: Ein einzelnes Programm oder ein Treiber konnte den gesamten Rechner samt DOS und Windows abstürzen lassen. Reset-Knopf drücken, mehrere Minuten warten, bis von den damals lahmen Festplatten gebootet wurde, war angesagt.

Bei einem sorgsam sowohl in Hard- wie Software zusammengestellten Rechner war das jedoch die Ausnahme, nicht die Regel. Nur hatte man das vor allem privaten Anwendern nicht gesagt, die installierten sich oft fröhlich jede Software von den CD-Beigaben mancher Zeitschriften oder aus dem Internet. Das ergab dann nicht selten recht instabile Systeme. Gerade beim Internet machte Microsoft-Chef Bill Gates auch einen seiner größten Fehler, wie er später zugeben sollte.

In den USA waren um 1995 proprietäre Onlinedienste wie AOL und Compuserve die Regel, um vernetzt zu kommunizieren. Die boten zwar auch Zugang zum Internet, aber über ihre eigene Software, die massenhaft für verschiedenste Rechner verbreitet wurde. Auch ein Windows 3.11 bekam man so ohne großen Aufwand durch ein Modem online. In solchen Diensten gab es auch eigene Mail- und Forendienste, ebenso boten große Medien dort ihre Inhalte an, eine Art Parallel-Internet. Für die oft privaten Nutzer waren Dinge wie Nachrichten oder Reisetipps nicht „im Internet“, sondern beispielsweise „bei AOL“.

Diesen Markt wollte auch Microsoft erobern, also wurde mit Windows 95 auch „The Microsoft Network“ gestartet, das MSN. Das wurde mit dem neuen Windows installiert, aber nicht einmal ein eigener Browser. Der „Internet Explorer“ wurde zwar auch für Windows 95 entwickelt, war aber nur im „Plus!“-Paket enthalten, das man für 50 US-Dollar zukaufen konnte. Dass es nicht alles, was einmal geplant war, in die erste Ausgabe von Windows 95 schaffte, belegt auch DirectX: Microsofts Spiele-API erschien erst im September 1995. Ohne die Win32-Schnittstelle, die Windows 95 schon mitbrachte, wäre auch das nicht möglich gewesen.

Auch wenn die Betriebssicherheit durch die Vermischung von 16- und 32-Bit-Bestandteilen, siehe oben, nicht immer gegeben war: Das präemptive Multitasking von Windows 95, zusammen mit der einheitlichen Oberfläche, machten das System zum Erfolg. Weil, zumindest in der Theorie, bei einem sauberen 32-Bit-System, Windows die Herrschaft über die Zeitverteilung an Programme steuerte, fühlte sich alles viel schneller und intuitiver an. Zumindest, wenn man genügend Hauptspeicher hatte: 4 MByte war als Minimum empfohlen, richtig Spaß machte Windows 95 aber erst mit 16 MByte oder noch mehr. Schon damals sollte man die Hardwareempfehlungen nicht ganz ernst nehmen.

Der größte Wurf von Windows 95 war jedoch die Oberfläche: Startmenü, Installations-Assistenten, ein Desktop, den man frei belegen konnte – heute alles Minimalerwartungen an ein Betriebssystem. Und Dinge, welche unter anderem Amiga und Macintosh teils schon ganze zehn Jahre vorher konnten. Das wusste auch Microsoft, also musste man 1995 endlich kontern. Für viele Menschen wurde ein PC durch Windows 95 erstmals statt der langweiligen DOS-Bürokisten zu Gerät, mit dem man auch Spaß haben konnte. Bis Ende 1995 verkaufte Microsoft 40 Millionen Lizenzen. Bis zum Jahr 2001 wurde Windows 95 mit Updates versehen.

Wie sehr man den Umbruch wollte, zeigt der Sound, den Windows 95 beim Herunterfahren abspielt: Das ist nämlich der Startsound von Windows 3.11, wie er etwa in diesem YouTube-Video zu hören ist. Microsoft hatte vor, sich ein neues, freundliches Image zu geben. Der Windows-Startsound, eigens von Brian Eno für Microsoft komponiert, sollte den Wandel hörbar machen. Mindestens ein kleines Stückchen IT-Geschichte hat Microsoft mit Windows 95 geschrieben: 2025 wurde der „The Microsoft Sound“ als bedeutendes historisches Werk in die „Library of Congress“ der USA aufgenommen.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Bundesregierung: Deutschland ist in Technologiebereichen von US-Firmen abhängig


Nach Einschätzung der Bundesregierung gibt es „einige Technologiebereiche, in denen Deutschland von einzelnen ausländischen Anbietern abhängig ist“. Das gelte etwa bei Cloud-Infrastruktur, Betriebssystemen und Netzwerktechnik, schreibt das federführende Digitalministerium in einer jetzt veröffentlichten Antwort auf eine Anfrage der AfD-Bundestagsfraktion. Diese Abhängigkeit will die Exekutive demnach „reduzieren und europäischen Unternehmen die Chance geben, sich stärker im Wettbewerb um sichere und leistungsstarke Infrastrukturen zu positionieren“.

Die Regierung ist sich laut dem Bescheid auch bewusst, dass auf dem deutschen und dem europäischen Markt für Cloud-Lösungen einige US-Konzerne als Hyperscaler hohe Marktanteile verzeichnen. Daraus ergäben sich auch Abhängigkeiten von diesen Anbietern. Diese brächten, solange sie einseitig bestünden, „Risiken mit sich“. Daher sieht es die Exekutive als ihre Aufgabe an, diese Gefahren zu adressieren und zu vermeiden.

Selbst sind die Regierungsressorts aber eifrige Nutzer insbesondere von Cloud-Diensten von Amazon Web Services (AWS) und Microsoft, wie aus einer früheren Antwort der Exekutive auf eine Anfrage der Linksfraktion hervorgeht. Selbst sensible Bereiche wie die dem Innenministerium unterstellte Bundespolizei sind hier vertreten. Zudem hat das Beschaffungsamt erst unlängst vier Rahmenvereinbarungen mit Hyperscalern geschlossen, aus denen die Regierungsbehörden nun vereinfacht Cloud-Services von Amazon, Google und Microsoft beziehen können.

Die Sicherheit der in den Rechnerwolken gespeicherten Daten gilt bei den genannten US-Unternehmen nicht grundsätzlich als gegeben. Denn diese sind vor allem durch den Cloud Act verpflichtet, die auch im Ausland verarbeiteten Kundeninformationen auf Anfrage den US-Sicherheitsbehörden zur Verfügung zu stellen. Ein richterlicher Beschluss ist dafür nicht nötig. Erkenntnisse, ob Daten deutscher Firmen auf Speicherplätzen der Hyperscaler hierzulande liegen, unter Bezug auf den Cloud Act etwa an US-amerikanische Polizeibehörden oder Geheimdienste gingen, hat die Regierung nach eigenen Angaben nicht.

Trotz der neuen Rahmenvereinbarungen betont die Regierung: „Die Stärkung der digitalen Souveränität Deutschlands und Europas, gerade auch im Bereich der digitalen Infrastruktur, ist ein Kernanliegen des Koalitionsvertrags und der Bundesregierung.“ Das schwarz-rote Bündnis hat sich vorgenommen: „Unsere Digitalpolitik ist ausgerichtet auf Souveränität.“ Dabei gehe es um „Machtpolitik“. Gefragt sei ein „digital souveränes Deutschland“. Kanzler Friedrich Merz und Digitalminister Karsten Wildberger (beide CDU) betonten wiederholt diesen Aspekt.

Für das Haushaltsjahr 2025 sind der Antwort zufolge eine Reihe von Maßnahmen, Projekten und Investitionen vorgesehen oder bereits beauftragt, die „zur Stärkung der digitalen Souveränität geeignet sind“. Konkret verweist das Digitalministerium auf die Weiterentwicklung und Etablierung der cloudbasierten Lösung OpenDesk, die als Alternative für das Office-Paket Microsoft 365 gilt, den Grundbetrieb der Plattform OpenCode sowie eine Machbarkeitsstudie zur Integration der Deutschen Verwaltungscloud in dieses Portal zum Austausch von Open-Source-Software.

Im Zuständigkeitsbereich des Forschungsministeriums erfolgten Investitionen im Rahmen der KI-Servicezentren, der Initiative der AI Factories sowie des Ausbaus des Hoch- und Höchstleistungsrechnens, führt die Regierung weiter aus. Mittel für künftige Investitionen des Ressorts würden im Rahmen des laufenden Haushaltsaufstellungsverfahrens festgelegt. Das Wirtschaftsministerium bereite zudem ein „Vorhaben von gemeinsamem europäischem Interesse“ für Edge-Compute-Infrastruktur (IPCEI-ECI) vor, für das im laufenden Haushaltsverfahren Mittel aus dem Sondervermögen Infrastruktur und Klimaschutz bereitgestellt werden sollen. Ferner werde die Förderung im Rahmen des IPCEI-Cloud fortgesetzt. Dessen Ziel ist es, Softwarelösungen für Cloud-Infrastrukturen zu entwickeln und weitgehend als Open Source zur Verfügung zu stellen.

Die Open Source Business Alliance (OSBA) und andere deutsche Akteure fordern seit Längerem dringend Alternativen zu ausländischen IT-Diensten und -Infrastrukturen, „die wir kontrollieren und gestalten können“. Sie sehen die Bundesregierung in der Pflicht, mit Hochdruck daran zu arbeiten. Wirtschaftsprüfer verwiesen schon 2019 in einer Studie für das Innenressort auf „Schmerzpunkte bei der Bundesverwaltung“ aufgrund von Abhängigkeiten von Microsoft-Produkten.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Studie: Insider-Bedrohungen durch KI sind gefährlicher als externe Cyberangriffe


64 Prozent der Cybersicherheitsexperten sind laut einer mehrere Kontinente übergreifenden Studie mittlerweile der Ansicht, dass böswillige oder von außen gesteuerte Insider ein größeres Risiko für die IT-Security darstellen als externe Akteure. Das geht aus der Untersuchung „Von menschlichen zu hybriden Angriffen“ hervor, die das kalifornische Cybersicherheitsunternehmen Exabeam veröffentlicht hat. 53 Prozent der Teilnehmer geben demnach an, dass die Insiderbedrohungen im vergangenen Jahr zugenommen haben. 54 Prozent erwarten, dass sie in den nächsten zwölf Monaten weiter steigen werden.

Für die Studie befragte das Marktforschungsinstitut Sapio Research im Auftrag von Exabeam im Juni und Juli dieses Jahres insgesamt 1010 IT-Sicherheitsexperten inklusive Analysten, Teamleitern und Führungskräften aus Branchen wie Technologie, Finanzen, Industrie, Gesundheitswesen, Handel und dem öffentlichen Sektor. Die Teilnehmer stammten aus Nordamerika, Europa, dem Nahen Osten und dem Asien-Pazifik-Raum. Die Mehrheit arbeitet in Organisationen mit mehr als 500 Beschäftigten, was insgesamt eine gewisse Repräsentativität der Ergebnisse für die abgedeckten Gebiete nahelegt.

76 Prozent der Unternehmen berichten der Umfrage zufolge von unbefugter Nutzung von Systemen generativer Künstlicher Intelligenz (KI) wie ChatGPT, Gemini oder LLaMA durch ihre Mitarbeiter. 74 Prozent sind der Meinung, dass KI die Wirksamkeit von Insider-Bedrohungen – von Phishing und Identitätsdiebstahl bis hin zu Datenexfiltration und Betrug – bereits erhöht hat. Die Bedrohungsfläche wachse rasant, lauten geäußerte Befürchtungen. Die internen Sicherheitsteams seien oft unzureichend darauf vorbereitet.

Im Nahen Osten herrscht weltweit die größte Besorgnis über Insider: 70 Prozent der Befragten sehen dort interne Akteure als Hauptbedrohung im Bereich IT-Security. Besonders häufig wird die Kompromittierung von Anmeldeinformationen (26 Prozent) genannt. Das lässt darauf schließen, dass der Fokus auf Identitätsmissbrauch und Herausforderungen bei der Zugangskontrolle liegt. In Nordamerika und Europa ist die Besorgnis relativ gleichmäßig zwischen externen und internen Akteuren verteilt, tendiert aber mehrheitlich zu Bedrohungen durch eigene Mitarbeiter (66 beziehungswese 64 Prozent). Die EU-Kommission sucht aufgrund der Lage händeringend nach IT-Experten.

Der asiatisch-pazifische Raum und Japan bilden eine Ausnahme: 48 Prozent der Teilnehmer nennen weiterhin externe Akteure als größte Gefahr. Dies deutet laut der Auswertung auf ein regionales Bedrohungsmodell hin, das sich stärker auf klassische Cyberattacken konzentriert und potenziell zu einer langsameren Verbreitung von Angriffen mithilfe von KI oder durch Insider führt.

KI-gestütztes Phishing stellt der Studie zufolge ein globales Problem dar. Regionale Unterschiede verdeutlichen aber eine differenzierte Risikowahrnehmung: Europa (32 Prozent) und die Region Asien-Pazifik (31 Prozent) sind führend bei der Besorgnis über KI-gestützte Mails zum Abgreifen von Login-Daten und Social Engineering. Der Nahe Osten (18 Prozent) ist die einzige Region, in der solche Angriffsformen nicht ganz oben auf der Liste stehen. Stattdessen bezeichnen 31 Prozent der Befragten dort die unbefugte Nutzung von ChatGPT & Co. als größte Sorge hinsichtlich Insider-Bedrohungen. Die Befragten aus dem Nahen Osten haben zugleich ein höheres Vertrauen in ihre Abwehrfähigkeit mithilfe von KI-Systemen.

„Dieses Jahr markiert einen Wendepunkt“, heißt es in der Studie. KI werde nun als „operativer Wegbereiter für Insider-Bedrohungen“ wahrgenommen. Von Identitätsdiebstahl bis zu Deepfake-gestützter Täuschung entwickelten sich Ausmaß und Raffinesse interner Angriffe rasant. Branchenübergreifend lasse sich feststellen: 93 Prozent der Befragten beobachten bereits, dass KI die Auswirkungen von Insider-Attacken verstärkt oder erwarten dies für die nahe Zukunft. Besonders betroffen sehen sich Technologiefirmen (40 Prozent), Finanzdienstleister (32 Prozent) sowie Behörden (38 Prozent). Insgesamt glauben nur noch 5 Prozent, dass KI keinen Einfluss in diesem Bereich haben wird.

Zugleich würden KI-Agenten zunehmend mit echten Zugangsdaten in Arbeitsabläufe integriert, warnen die Autoren. Diese Tools könnten autonom agieren, Aufgaben systemübergreifend ausführen und mit eingeschränkter Kontrolle arbeiten. Dadurch entstehe eine „neue Kategorie nicht-menschlicher Insider, die Unternehmen überwachen und managen müssen“.

97 Prozent der einbezogenen Firmen nutzen KI zur Abwehr interner Risiken. Allerdings fehlt es häufig an Kontrolle von oben und operativer Reife der eingesetzten Lösungen: Über die Hälfte der Führungskräfte geht von deren vollständiger Implementierung aus. Das bestätigen aber nur 37 Prozent der Teamleiter und 40 Prozent der Analysten. KI wirke bei Insider-Bedrohungen „wie ein Brandbeschleuniger“, warnt Exabeam-Europachef Egon Kando: „Angriffe laufen schneller, unauffälliger und sind schwieriger zu stoppen.“ Unternehmen müssten ihre Verteidigungsstrategien dringend an diese neue Realität anpassen.


(nie)



Source link

Weiterlesen

Beliebt