Connect with us

Künstliche Intelligenz

DHL schränkt Paketversand in die USA ein


Wegen neuer Zollvorschriften schränkt DHL den Paketversand von Deutschland in die USA deutlich ein. Der Bonner Konzern, der im Inland auch unter der Marke Deutsche Post auftritt, teilte mit, dass dorthin vorerst nur noch Pakete befördert werden, die als Geschenk deklariert sind und deren Inhalt nur bis zu 100 US-Dollar (aktuell etwa 86 Euro) wert ist. Pakete von Privatleuten, die mehr wert sind, können ab Samstag nur noch als teurere Expresssendungen in die USA verschickt werden. Bei allen Paketen von Geschäftskunden ist dies ab Dienstag der Fall.

„Der Großteil der Privatkunden-Pakete in die USA liegt ohnehin unter dem Schwellenwert von 100 Dollar, daher sind Privatkunden von den neuen Regelungen vergleichsweise wenig betroffen“, sagte ein DHL-Sprecher. Er betonte, dass die Einschränkungen nur vorübergehend sein sollten. Wie lange, ist unklar. Zuvor hatten schon andere nationale Postfirmen gleiche Schritte unternommen, etwa die Österreichische Post, die belgische bpost und die schwedisch-dänische Postnord.

Laut einem Erlass von US-Präsident Donald Trump wird die Zollfreiheit für Warenimporte mit einem Wert unter 800 Dollar ab dem 29. August abgeschafft. Pro Artikel sollen demnach Zölle von 80 bis 200 Dollar fällig werden. In der Mitteilung von DHL hieß es, dass hierbei wesentliche Fragen noch ungeklärt seien, „insbesondere, wie und von wem die Zollgebühren künftig zu erheben sind, welche zusätzlichen Daten erforderlich sind und wie die Datenübermittlung an die amerikanische Zollbehörde erfolgen soll“.


(afl)



Source link

Künstliche Intelligenz

Warum Microsoft mit Windows 95 den modernen PC definierte


Am 24. August 1995 startete der Verkauf von Windows 95 in den USA – und wie später nur noch bei den ersten iPhones war das ein gesellschaftliches Ereignis. Manche kampierten vor den Elektronikläden, Wochen zuvor war eine Werbekampagne angelaufen, mit der „Start me up“ von den Rolling Stones aus jedem Fernseher dröhnte. Dabei war der Song damals schon 14 Jahre alt, aber er passte halt ideal zum neuen „Start“-Menü, das Windows 95 mitbrachte.

Um gleich einen der Klischee-Witze abzuräumen: Ja, man musste wirklich „Start“ anklicken, um den PC auszuschalten. Zeitgleich konnte man unter MacOS aber auch noch CDs oder Disketten in den Papierkorb werfen, um sie aus dem Laufwerk zu bekommen. Die Metaphern von Betriebssystemen waren vor 30 Jahren noch unausgereifter als heute. Und noch so ein Mythos: Die Rolling Stones haben nicht, wie 1995 sogar die c’t als Gerücht gekennzeichnet wiedergab, 12 Millionen US-Dollar für ihren Song erhalten, sondern nur drei. Das sagte Microsofts COO Bob Herold 2011, nachdem er sich zur Ruhe gesetzt hatte.

In vielen Rückblicken auf den Hype, den Microsoft um seinen ersten echten Hybrid aus DOS und grafischer Benutzeroberfläche entfachte, geht der Grund dafür verloren: 1995 hatte die Windows-Company bei professionellen Anwendern Konkurrenz, und drohte, bei PCs für daheim den Anschluss zu verpassen. Der echte Nachfolger für Windows 3.0 von 1990 ließ viel zu lange auf sich warten, die nächste große Version sollte schon 1993 erscheinen. Da kam aber nur Windows 3.11, das dem ein Jahr zuvor erschienenen Windows 3.1 zumindest etwas bessere Netzwerkfunktionen beibrachte.

In diesem Feld war jedoch OS/2 von IBM immer schon besser. Netzwerkkarten und deren Treiber ließen sich einfacher konfigurieren und mit den vielen damals üblichen proprietären Netzwerksystemen der lokalen Server verbinden. Zuerst noch zusammen mit Microsoft entwickelt, damit Windows-Programme auch unter OS/2 laufen, hatten die beiden Firmen diese Kooperation 1990 beendet. 1994 erschien dann mit „O2/2 Warp 3“ sogar eine Version, die mit schickerer Oberfläche Privatanwendern schmackhaft gemacht werden sollte.

Viele Windows- und DOS-Programme konnten auch unter OS/2 laufen, und IBM machte kräftig Werbung, in Deutschland unter anderem mit dem Slogan „Ich hab’s drauf“. Damit wurden schließlich auch bei den großen PC-Ketten Escom und Vobis Computer mit vorinstalliertem OS/2 verkauft. Mit einer neuen Generation von Spielen, die Gebrauch von Soundkarten und CD-ROM-Laufwerken machten, wurden PCs auch immer attraktiver gegenüber früheren Heimcomputern und den Konsolen. Letztere hatten zudem erst Ende 1994 einen kräftigen Schub durch die erste Playstation erhalten.

1995 war somit eine Zeit des Umbruchs, nicht zuletzt auch weil das Internet für professionelle wie private Anwender immer interessanter wurde. Für Microsoft galt es vor allem, sich auf der wachsenden Zahl der PCs in den Wohnungen zu verewigen. Daher konnte Windows 95 mit einem – teils kostenpflichtigen – Beta-Programm ab Anfang 1995 auf zehntausenden PCs von jedem getestet werden. Schon im Juli kündigte man dann an, dass das System einen Monat später verfügbar sein sollte. Zeitgleich rollte die Werbekampagne an, die 200 Millionen US-Dollar kosten sollte. Laut gängigen Inflationsrechnern wären das heute über 400 Millionen, mehr als auch die größten Hollywood-Produktionen kosten.

In der Rückschau erinnern sich viele vielleicht daran, dass man mit Windows 95 jede Menge Ärger hatte. Das Versprechen von Steckkarten, die sich durch das neue „Plug & Play“ von selbst konfigurieren sollten, das nicht immer taten, und viele Abstürze mögen vielleicht im Gedächtnis feststecken. Nicht aber, dass Windows 95 schon viele Treiber für verbreitete Geräte mitbrachte, und auch Installations-Assistenten, die zumindest versuchten, Fehler zu beheben.

Es hält sich auch, dass Windows 95 ja noch immer kein „richtiges“ Betriebssystem war, das wie das schon 1993 für Workstations und Server erschienene Windows NT 3.1 ohne DOS-Unterbau auskam. In der Tat konnte Microsoft erst mit Windows 2000 im namensgebenden Jahr die bunte Oberfläche von Windows 95 und die Technik von Windows NT vereinen – um dann mit Windows XP nur ein Jahr später wieder alles umzukrempeln.

Richtig ist dabei jedoch, dass Windows 95 die dafür entwickelte DOS-Version 7.0 mitbrachte, die umfangreich mit Windows verzahnt war. Treiber und Programme konnten, anders als bei Windows 3.11, alle 32-Bit-Funktionen von Prozessoren wie dem neuen Pentium ausreizen. Insbesondere 32-Bit-Treiber brauchten weder DOS noch BIOS, allerdings gab es sie nicht für alle Geräte. Und auch 16-Bit-Programme waren noch weit verbreitet. Mit denen war es dann oft aus für den Protected Mode samt Speicherschutz: Ein einzelnes Programm oder ein Treiber konnte den gesamten Rechner samt DOS und Windows abstürzen lassen. Reset-Knopf drücken, mehrere Minuten warten, bis von den damals lahmen Festplatten gebootet wurde, war angesagt.

Bei einem sorgsam sowohl in Hard- wie Software zusammengestellten Rechner war das jedoch die Ausnahme, nicht die Regel. Nur hatte man das vor allem privaten Anwendern nicht gesagt, die installierten sich oft fröhlich jede Software von den CD-Beigaben mancher Zeitschriften oder aus dem Internet. Das ergab dann nicht selten recht instabile Systeme. Gerade beim Internet machte Microsoft-Chef Bill Gates auch einen seiner größten Fehler, wie er später zugeben sollte.

In den USA waren um 1995 proprietäre Onlinedienste wie AOL und Compuserve die Regel, um vernetzt zu kommunizieren. Die boten zwar auch Zugang zum Internet, aber über ihre eigene Software, die massenhaft für verschiedenste Rechner verbreitet wurde. Auch ein Windows 3.11 bekam man so ohne großen Aufwand durch ein Modem online. In solchen Diensten gab es auch eigene Mail- und Forendienste, ebenso boten große Medien dort ihre Inhalte an, eine Art Parallel-Internet. Für die oft privaten Nutzer waren Dinge wie Nachrichten oder Reisetipps nicht „im Internet“, sondern beispielsweise „bei AOL“.

Diesen Markt wollte auch Microsoft erobern, also wurde mit Windows 95 auch „The Microsoft Network“ gestartet, das MSN. Das wurde mit dem neuen Windows installiert, aber nicht einmal ein eigener Browser. Der „Internet Explorer“ wurde zwar auch für Windows 95 entwickelt, war aber nur im „Plus!“-Paket enthalten, das man für 50 US-Dollar zukaufen konnte. Dass es nicht alles, was einmal geplant war, in die erste Ausgabe von Windows 95 schaffte, belegt auch DirectX: Microsofts Spiele-API erschien erst im September 1995. Ohne die Win32-Schnittstelle, die Windows 95 schon mitbrachte, wäre auch das nicht möglich gewesen.

Auch wenn die Betriebssicherheit durch die Vermischung von 16- und 32-Bit-Bestandteilen, siehe oben, nicht immer gegeben war: Das präemptive Multitasking von Windows 95, zusammen mit der einheitlichen Oberfläche, machten das System zum Erfolg. Weil, zumindest in der Theorie, bei einem sauberen 32-Bit-System, Windows die Herrschaft über die Zeitverteilung an Programme steuerte, fühlte sich alles viel schneller und intuitiver an. Zumindest, wenn man genügend Hauptspeicher hatte: 4 MByte war als Minimum empfohlen, richtig Spaß machte Windows 95 aber erst mit 16 MByte oder noch mehr. Schon damals sollte man die Hardwareempfehlungen nicht ganz ernst nehmen.

Der größte Wurf von Windows 95 war jedoch die Oberfläche: Startmenü, Installations-Assistenten, ein Desktop, den man frei belegen konnte – heute alles Minimalerwartungen an ein Betriebssystem. Und Dinge, welche unter anderem Amiga und Macintosh teils schon ganze zehn Jahre vorher konnten. Das wusste auch Microsoft, also musste man 1995 endlich kontern. Für viele Menschen wurde ein PC durch Windows 95 erstmals statt der langweiligen DOS-Bürokisten zu Gerät, mit dem man auch Spaß haben konnte. Bis Ende 1995 verkaufte Microsoft 40 Millionen Lizenzen. Bis zum Jahr 2001 wurde Windows 95 mit Updates versehen.

Wie sehr man den Umbruch wollte, zeigt der Sound, den Windows 95 beim Herunterfahren abspielt: Das ist nämlich der Startsound von Windows 3.11, wie er etwa in diesem YouTube-Video zu hören ist. Microsoft hatte vor, sich ein neues, freundliches Image zu geben. Der Windows-Startsound, eigens von Brian Eno für Microsoft komponiert, sollte den Wandel hörbar machen. Mindestens ein kleines Stückchen IT-Geschichte hat Microsoft mit Windows 95 geschrieben: 2025 wurde der „The Microsoft Sound“ als bedeutendes historisches Werk in die „Library of Congress“ der USA aufgenommen.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Bundesregierung: Deutschland ist in Technologiebereichen von US-Firmen abhängig


Nach Einschätzung der Bundesregierung gibt es „einige Technologiebereiche, in denen Deutschland von einzelnen ausländischen Anbietern abhängig ist“. Das gelte etwa bei Cloud-Infrastruktur, Betriebssystemen und Netzwerktechnik, schreibt das federführende Digitalministerium in einer jetzt veröffentlichten Antwort auf eine Anfrage der AfD-Bundestagsfraktion. Diese Abhängigkeit will die Exekutive demnach „reduzieren und europäischen Unternehmen die Chance geben, sich stärker im Wettbewerb um sichere und leistungsstarke Infrastrukturen zu positionieren“.

Die Regierung ist sich laut dem Bescheid auch bewusst, dass auf dem deutschen und dem europäischen Markt für Cloud-Lösungen einige US-Konzerne als Hyperscaler hohe Marktanteile verzeichnen. Daraus ergäben sich auch Abhängigkeiten von diesen Anbietern. Diese brächten, solange sie einseitig bestünden, „Risiken mit sich“. Daher sieht es die Exekutive als ihre Aufgabe an, diese Gefahren zu adressieren und zu vermeiden.

Selbst sind die Regierungsressorts aber eifrige Nutzer insbesondere von Cloud-Diensten von Amazon Web Services (AWS) und Microsoft, wie aus einer früheren Antwort der Exekutive auf eine Anfrage der Linksfraktion hervorgeht. Selbst sensible Bereiche wie die dem Innenministerium unterstellte Bundespolizei sind hier vertreten. Zudem hat das Beschaffungsamt erst unlängst vier Rahmenvereinbarungen mit Hyperscalern geschlossen, aus denen die Regierungsbehörden nun vereinfacht Cloud-Services von Amazon, Google und Microsoft beziehen können.

Die Sicherheit der in den Rechnerwolken gespeicherten Daten gilt bei den genannten US-Unternehmen nicht grundsätzlich als gegeben. Denn diese sind vor allem durch den Cloud Act verpflichtet, die auch im Ausland verarbeiteten Kundeninformationen auf Anfrage den US-Sicherheitsbehörden zur Verfügung zu stellen. Ein richterlicher Beschluss ist dafür nicht nötig. Erkenntnisse, ob Daten deutscher Firmen auf Speicherplätzen der Hyperscaler hierzulande liegen, unter Bezug auf den Cloud Act etwa an US-amerikanische Polizeibehörden oder Geheimdienste gingen, hat die Regierung nach eigenen Angaben nicht.

Trotz der neuen Rahmenvereinbarungen betont die Regierung: „Die Stärkung der digitalen Souveränität Deutschlands und Europas, gerade auch im Bereich der digitalen Infrastruktur, ist ein Kernanliegen des Koalitionsvertrags und der Bundesregierung.“ Das schwarz-rote Bündnis hat sich vorgenommen: „Unsere Digitalpolitik ist ausgerichtet auf Souveränität.“ Dabei gehe es um „Machtpolitik“. Gefragt sei ein „digital souveränes Deutschland“. Kanzler Friedrich Merz und Digitalminister Karsten Wildberger (beide CDU) betonten wiederholt diesen Aspekt.

Für das Haushaltsjahr 2025 sind der Antwort zufolge eine Reihe von Maßnahmen, Projekten und Investitionen vorgesehen oder bereits beauftragt, die „zur Stärkung der digitalen Souveränität geeignet sind“. Konkret verweist das Digitalministerium auf die Weiterentwicklung und Etablierung der cloudbasierten Lösung OpenDesk, die als Alternative für das Office-Paket Microsoft 365 gilt, den Grundbetrieb der Plattform OpenCode sowie eine Machbarkeitsstudie zur Integration der Deutschen Verwaltungscloud in dieses Portal zum Austausch von Open-Source-Software.

Im Zuständigkeitsbereich des Forschungsministeriums erfolgten Investitionen im Rahmen der KI-Servicezentren, der Initiative der AI Factories sowie des Ausbaus des Hoch- und Höchstleistungsrechnens, führt die Regierung weiter aus. Mittel für künftige Investitionen des Ressorts würden im Rahmen des laufenden Haushaltsaufstellungsverfahrens festgelegt. Das Wirtschaftsministerium bereite zudem ein „Vorhaben von gemeinsamem europäischem Interesse“ für Edge-Compute-Infrastruktur (IPCEI-ECI) vor, für das im laufenden Haushaltsverfahren Mittel aus dem Sondervermögen Infrastruktur und Klimaschutz bereitgestellt werden sollen. Ferner werde die Förderung im Rahmen des IPCEI-Cloud fortgesetzt. Dessen Ziel ist es, Softwarelösungen für Cloud-Infrastrukturen zu entwickeln und weitgehend als Open Source zur Verfügung zu stellen.

Die Open Source Business Alliance (OSBA) und andere deutsche Akteure fordern seit Längerem dringend Alternativen zu ausländischen IT-Diensten und -Infrastrukturen, „die wir kontrollieren und gestalten können“. Sie sehen die Bundesregierung in der Pflicht, mit Hochdruck daran zu arbeiten. Wirtschaftsprüfer verwiesen schon 2019 in einer Studie für das Innenressort auf „Schmerzpunkte bei der Bundesverwaltung“ aufgrund von Abhängigkeiten von Microsoft-Produkten.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Studie: Insider-Bedrohungen durch KI sind gefährlicher als externe Cyberangriffe


64 Prozent der Cybersicherheitsexperten sind laut einer mehrere Kontinente übergreifenden Studie mittlerweile der Ansicht, dass böswillige oder von außen gesteuerte Insider ein größeres Risiko für die IT-Security darstellen als externe Akteure. Das geht aus der Untersuchung „Von menschlichen zu hybriden Angriffen“ hervor, die das kalifornische Cybersicherheitsunternehmen Exabeam veröffentlicht hat. 53 Prozent der Teilnehmer geben demnach an, dass die Insiderbedrohungen im vergangenen Jahr zugenommen haben. 54 Prozent erwarten, dass sie in den nächsten zwölf Monaten weiter steigen werden.

Für die Studie befragte das Marktforschungsinstitut Sapio Research im Auftrag von Exabeam im Juni und Juli dieses Jahres insgesamt 1010 IT-Sicherheitsexperten inklusive Analysten, Teamleitern und Führungskräften aus Branchen wie Technologie, Finanzen, Industrie, Gesundheitswesen, Handel und dem öffentlichen Sektor. Die Teilnehmer stammten aus Nordamerika, Europa, dem Nahen Osten und dem Asien-Pazifik-Raum. Die Mehrheit arbeitet in Organisationen mit mehr als 500 Beschäftigten, was insgesamt eine gewisse Repräsentativität der Ergebnisse für die abgedeckten Gebiete nahelegt.

76 Prozent der Unternehmen berichten der Umfrage zufolge von unbefugter Nutzung von Systemen generativer Künstlicher Intelligenz (KI) wie ChatGPT, Gemini oder LLaMA durch ihre Mitarbeiter. 74 Prozent sind der Meinung, dass KI die Wirksamkeit von Insider-Bedrohungen – von Phishing und Identitätsdiebstahl bis hin zu Datenexfiltration und Betrug – bereits erhöht hat. Die Bedrohungsfläche wachse rasant, lauten geäußerte Befürchtungen. Die internen Sicherheitsteams seien oft unzureichend darauf vorbereitet.

Im Nahen Osten herrscht weltweit die größte Besorgnis über Insider: 70 Prozent der Befragten sehen dort interne Akteure als Hauptbedrohung im Bereich IT-Security. Besonders häufig wird die Kompromittierung von Anmeldeinformationen (26 Prozent) genannt. Das lässt darauf schließen, dass der Fokus auf Identitätsmissbrauch und Herausforderungen bei der Zugangskontrolle liegt. In Nordamerika und Europa ist die Besorgnis relativ gleichmäßig zwischen externen und internen Akteuren verteilt, tendiert aber mehrheitlich zu Bedrohungen durch eigene Mitarbeiter (66 beziehungswese 64 Prozent). Die EU-Kommission sucht aufgrund der Lage händeringend nach IT-Experten.

Der asiatisch-pazifische Raum und Japan bilden eine Ausnahme: 48 Prozent der Teilnehmer nennen weiterhin externe Akteure als größte Gefahr. Dies deutet laut der Auswertung auf ein regionales Bedrohungsmodell hin, das sich stärker auf klassische Cyberattacken konzentriert und potenziell zu einer langsameren Verbreitung von Angriffen mithilfe von KI oder durch Insider führt.

KI-gestütztes Phishing stellt der Studie zufolge ein globales Problem dar. Regionale Unterschiede verdeutlichen aber eine differenzierte Risikowahrnehmung: Europa (32 Prozent) und die Region Asien-Pazifik (31 Prozent) sind führend bei der Besorgnis über KI-gestützte Mails zum Abgreifen von Login-Daten und Social Engineering. Der Nahe Osten (18 Prozent) ist die einzige Region, in der solche Angriffsformen nicht ganz oben auf der Liste stehen. Stattdessen bezeichnen 31 Prozent der Befragten dort die unbefugte Nutzung von ChatGPT & Co. als größte Sorge hinsichtlich Insider-Bedrohungen. Die Befragten aus dem Nahen Osten haben zugleich ein höheres Vertrauen in ihre Abwehrfähigkeit mithilfe von KI-Systemen.

„Dieses Jahr markiert einen Wendepunkt“, heißt es in der Studie. KI werde nun als „operativer Wegbereiter für Insider-Bedrohungen“ wahrgenommen. Von Identitätsdiebstahl bis zu Deepfake-gestützter Täuschung entwickelten sich Ausmaß und Raffinesse interner Angriffe rasant. Branchenübergreifend lasse sich feststellen: 93 Prozent der Befragten beobachten bereits, dass KI die Auswirkungen von Insider-Attacken verstärkt oder erwarten dies für die nahe Zukunft. Besonders betroffen sehen sich Technologiefirmen (40 Prozent), Finanzdienstleister (32 Prozent) sowie Behörden (38 Prozent). Insgesamt glauben nur noch 5 Prozent, dass KI keinen Einfluss in diesem Bereich haben wird.

Zugleich würden KI-Agenten zunehmend mit echten Zugangsdaten in Arbeitsabläufe integriert, warnen die Autoren. Diese Tools könnten autonom agieren, Aufgaben systemübergreifend ausführen und mit eingeschränkter Kontrolle arbeiten. Dadurch entstehe eine „neue Kategorie nicht-menschlicher Insider, die Unternehmen überwachen und managen müssen“.

97 Prozent der einbezogenen Firmen nutzen KI zur Abwehr interner Risiken. Allerdings fehlt es häufig an Kontrolle von oben und operativer Reife der eingesetzten Lösungen: Über die Hälfte der Führungskräfte geht von deren vollständiger Implementierung aus. Das bestätigen aber nur 37 Prozent der Teamleiter und 40 Prozent der Analysten. KI wirke bei Insider-Bedrohungen „wie ein Brandbeschleuniger“, warnt Exabeam-Europachef Egon Kando: „Angriffe laufen schneller, unauffälliger und sind schwieriger zu stoppen.“ Unternehmen müssten ihre Verteidigungsstrategien dringend an diese neue Realität anpassen.


(nie)



Source link

Weiterlesen

Beliebt