Connect with us

Künstliche Intelligenz

40 Jahre 80386: Intels wichtigstes Produkt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Vor 40 Jahren stellte Intel seinen ersten echten 32-Bit-Prozessor vor, der damals noch keinen schicken Marketingnamen hatte. Schlicht „80386“ getauft, wurde diese CPU in zahlreichen Varianten mit erweitertem oder eingeschränktem Funktionsumfang bis zum Jahr 2007 gebaut – und zwar nicht nur von Intel. Die Anfänge der Architektur, die heute als „x86“ bekannt ist, waren allerdings holprig.

Weiterlesen nach der Anzeige

Im Jahr 1985 war Intel im PC-Boom, der vor allem die professionellen Umgebungen voll erreicht hatte, kräftig unter Druck. IBM hatte nämlich schon für den ersten PC, das Modell 5150 von 1981, vorgegeben, dass die Prozessoren von mehreren Herstellern kommen mussten. Einen einzelnen Lieferanten als „Single Source“ sah die Firma als zu riskant an. Also vergab Intel zahlreiche Lizenzen für Nachbauten, bei denen es nicht bleiben sollte. IBM selbst stellte den 8086 und dessen Nachfolger 8088 und 80286 her, ebenso andere Firmen wie Fujitsu, Mitsubishi, NEC, Siemens – und natürlich AMD.

Diese Unternehmen beschränkten sich nicht nur auf Kopien der 80×86-CPUs, sondern erweiterten die Designs und steigerten die Taktfrequenzen, sodass Intel dringend eine komplett neue Architektur brauchte. Die sollte, wie bei den Motorola-CPUs der 68000-Serie, mit 32-Bit-Adressen und -Daten arbeiten können. Jene 68000er ermöglichten ab 1984 mit dem Apple Macintosh und 1985 mit dem Atari ST und Commodore Amiga eine neue Klasse von Heimcomputern, die viel billiger als PCs und dennoch leistungsfähig waren. Zwar waren die Rechenwerke (ALUs) des 68000 noch 16-bittig, doch schon 1984 machte der 68020 dieses kleine Manko wett.

Der Hoffnungsträger bei Intel war zunächst ein aus heutiger Sicht etwas krudes Design namens iAPX 432. 32-bittig war das, aber auf zwei Chips aufgeteilt, viel zu komplex und mit komplett neuem Befehlssatz. Das Hauptverkaufsargument für den PC war aber schon immer, dass alles abwärtskompatibel war. Zudem kam der 432 bei der Performance nicht aus dem Quark, parallel entwickelte Intel den 80386 als 32-Bit-Erweiterung.

Der 80386 kam ursprünglich als Lückenfüller und sollte die Zeit bis zum erhofften Erfolg des 432 überbrücken, wie sich einer der beiden 386er-Designer erinnert – ein gewisser Pat Gelsinger, der Jahrzehnte später CEO von Intel werden sollte, und im vergangenen Jahr in der nun größten Krise des Konzerns gegangen wurde. Ausführlich beschreibt er die 386-Entwicklung in seinem Gastbeitrag „For ever young“, (c’t 13/2003, S. 90-95).

Neben Gelsinger zeichnete John Crawford für den 386 verantwortlich. Von den beiden stammt auch das Standardwerk „Programming the 80386„, das erst 1987 erschien – praktisch, wenn die Chipdesigner sich auch gleich um die Software kümmern. Von Intel selbst gab es schon ein Jahr zuvor das „Programmer’s Reference Manual“ (PDF), das aber mehr Dokumentation aller Funktionen und weniger Praxishandbuch ist.

Weiterlesen nach der Anzeige

Crawford und Gelsinger brachten auf Basis des 80286 der Intel-Architektur nicht nur 32 Bit breite Register, Adress- und Datentypen bei, die auch als Busse nach außen geführt wurden. Damit der damals unvorstellbar große Adressraum von 4 GByte auch sinnvoll genutzt werden konnte, gab es mehrere Adressmodi sowie auch einen um ganze 54 Instruktionen erweiterten Befehlssatz. Als am cleversten sollten sich die Adressmodi erweisen, samt Speicherverwaltung in Hardware (MMU), was größere Betriebssysteme und Anwendungen ermöglichte. Und eine dreistufige Pipeline macht dem Ganzen Beine bei der Befehlsausführung.

Schon mit dem 80286 hatte Intel den sogenannten Protected Mode eingeführt, der Speicherbereiche von Anwendungen voneinander abschotten konnte. Der war jedoch recht umständlich zu programmieren, beim 80386 kamen dafür der Real Mode für DOS-Kompatibilität mit mehreren Instanzen und der „Flat Mode“ für große Speichermodelle hinzu. Ein bisschen Multitasking ermöglichte das schon auf Hardware-Ebene. Die Möglichkeiten des Prozessors wurden aber erst nach und nach durch DOS untergeschobene Speichermanager ausgelotet.

Die Fähigkeiten der neuen Architektur waren so verlockend, dass der erste PC mit einem 80386 nicht von PC-Erfinder IBM, sondern dem Konkurrenten Compaq erschien. Deren Modell Deskpro 386 trug auch den Namen des neuen Superchips in der Produktbezeichnung, zuvor waren PCs jenseits des 8086 als „XT“ (Extended Technology, 8088) oder „AT“ (Advanced Technology, 80286) mit diesen IBM-Bezeichnungen vermarktet worden. Der Deal mit Compaq rückte im ganzen Umfeld der Intel-Klone und Weiterentwicklungen den eigenen Prozessor ins Rampenlicht. Ein „386er“ wurde in der Folge zum Synonym für eine ganze PC-Kategorie. Die 20-MHz-Version von Compaqs Superrechner kostete übrigens 1988 schon in der Grundausstattung mit 1 MByte RAM ganze 16.000 Mark.

Der erste Deskpro 386 erschien erst im September 1986, also fast ein Jahr nach Vorstellung des 80386. Der hatte anfangs mit Bugs und geringer Ausbeute bei der Chipfertigung zu kämpfen, sodass statt der erhofften 16 MHz bei einigen Chargen nur rund 12 MHz erreichbar waren. Einige Modelle waren sogar nur für 16-Bit-Software freigegeben, weil der Prozessor sich beim 32-Bit-Multiplizieren verrechnete. Anders als beim berüchtigten FDIV-Bug dokumentierte Intel das mit Aufdrucken auf den Prozessoren selbst. Diese Probleme waren knapp ein Jahr später überwunden, führten aber für die Bilanz 1986 zu den ersten roten Zahlen in der Geschichte von Intel. Der 80386 musste also unbedingt ein Erfolg werden.



Der Compaq Deskpro 386, hier ein Ausschnitt aus c’t 2/1988, war schneller als jede IBM-Maschine in den Jahren 1986 und 1987.

(Bild: c’t)

1986 sagte Compaq-CEO Rod Canion der Zeitschrift Computerworld, es mache keinen Sinn, auf IBM zu warten. Und auf ein MS-DOS, das den 386er voll unterstützt, wollte die Firma auch nicht länger warten. Also kam der Deskpro mit Microsofts Unix-Derivat Xenix auf den Markt, zunächst überwiegend als Server. Wer selbst Software entwickelte, merkte aber schnell, was mit den 386-PCs möglich war. Als 1987 endlich IBM so weit war und seine 386er als PS/2 startete – wohlgemerkt ohne die Prozessornummer im Namen – hatten längst viele andere Unternehmen den Markt besetzt. Vieles, was sich IBM für PS/2 ausdachte, wie die Microchannel-Steckkarten, konnte sich nicht lange behaupten.

Ende 1987 erschien dann Windows 2.0, das es samt passendem DOS auch als Windows/386 gab. Das unterstützte den Protected Mode des 80386 so weit, dass sich mehrere DOS-Instanzen aus Windows heraus aufrufen ließen. Das war zwar nicht sonderlich stabil, auch später mit Windows 3.1 und Zusatzprogrammen wie Sidekick nicht, aber: Für manche Anwendungen, etwa beim Programmieren oder der Medienerstellung, waren mehrere DOS-Programme gleichzeitig ein Game-Changer. Auch zahlreiche andere Anwendungen erschienen als 386-Version, auf IBM mussten Interessierte auch da jedoch warten. Erst 1992 erschien deren OS/2 2.0, das den 80386 voll unterstützte.

In den Jahren nach der Markteinführung des ersten voll funktionsfähigen 80386 mit 16 MHz steigerte Intel den Takt auf bis zu 33 MHz, also eine Verdopplung – heute undenkbar. Andere Hersteller wie AMD und Chips & Technologies kamen durch viel Reverse Engineering auf bis zu 40 MHz. Am Ende der 386-Ära, und vor der Einführung des 80486, kam die Konkurrenz auf einen größeren Marktanteil als Intel selbst.

Der damalige Prozessorprimus blieb jedoch im riesigen Boom der 386er-PCs nicht untätig. Der erste 80386 wurde in i386DX umbenannt, weil es 1988 die Sparversion i386SX gab, die nur einen Adressbus von 24 Bit besitzt und damit 16 MByte RAM ansteuern kann. Auch der Datenbus ist nur 16 Bit breit, die Befehlsverarbeitung und die Register sind 32-bittig und damit voll kompatibel zu 386-Software. Und 1990 erschien dann der i386SL mit teils statischer Bauweise. Der war recht sparsam und konnte Teilbereiche oder den ganzen Prozessor schlafen legen, was der neue „System Management Mode“ (SMM) erlaubte – auch da brauchte es aber wieder Anpassungen der Betriebssysteme. Und der Koprozessor 80387 eroberte die technische Welt. Diese Floating Point Unit (FPU) beschleunigte Gleitkommaoperationen gleich um mehrere Faktoren, wenn die Software passte – unter anderem CAD wurde so auf Desktop-PCs erst richtig möglich.

Insgesamt hatte die PC-Branche damit in nur fünf Jahren nach schleppendem Start ein Ökosystem geschaffen, in dem 386-Prozessoren die zentrale Rolle spielten. Und zwar vom Server bis zum mobilen Computer. Am Ende sogar so mobil, dass sich eine Embedded-Version (80386EX) im „Nokia Communicator 9000 fand, jenem großen Handy zum Aufklappen mit Tastatur und Faxfunktion sowie E-Mail-Zugang – auf der Cebit 1996 eine Sensation, wohlgemerkt: elf Jahre vor dem ersten iPhone.

Ende der 1980er- und Anfang der 1990er-Jahre wurde damit klar, dass sich PC-Prozessoren recht gut in verschiedenste Anwendungsbereiche integrieren lassen. Und dass es dafür nicht einen einzelnen Branchenriesen wie IBM brauchte – selbst Intel war dabei von seiner späteren und jetzt verlorenen Dominanz weit entfernt. Der 80386 war für Intel dennoch so wichtig, dass das Unternehmen seine Architektur später in „IA-32“ (Intel Architecture, 32 Bit) umbenannte, oder kurz x86. Auch moderne x86-Prozessoren, selbst mit 64-Bit-Erweiterungen, die zuerst von AMD kamen, basieren im Kern noch auf der IA-32. Damit ist der 386er Intels wichtigstes Produkt aller Zeiten. Heute machen x86 zunehmend verschiedenste ARM-Varianten Konkurrenz, vom Smartphone über das Notebook bis hin zum KI-Rechenzentrum.


(nie)



Source link

Künstliche Intelligenz

Gutachten: US-Behörden haben weitreichenden Zugriff auf europäische Cloud-Daten


Die Debatte um die digitale Souveränität Europas und den strategischen Einsatz US-amerikanischer Cloud-Infrastrukturen in sensiblen Bereichen erhält neuen Zündstoff. Ein bisher unveröffentlichtes Gutachten, das Rechtswissenschaftler der Uni Köln im Auftrag des Bundesinnenministeriums erstellten, ist nun im Zuge einer Anfrage nach dem Informationsfreiheitsgesetz (IFG) öffentlich zugänglich geworden. Es kommt zu dem Schluss, dass US-Behörden weitreichenden Zugriff auch auf Daten haben, die in europäischen Rechenzentren gespeichert sind.

Weiterlesen nach der Anzeige

Die Gutachter sollten klären, ob und in welchem Umfang US-Geheimdienste und andere staatliche Stellen ein rechtliches Zugriffsrecht auf Daten in der Cloud besitzen, selbst wenn die Infrastrukturen außerhalb der Vereinigten Staaten betrieben werden. Laut dem Gutachten erlauben insbesondere der Stored Communications Act (SCA), der durch den Cloud Act erweitert wurde, sowie Abschnitt 702 des Foreign Intelligence Surveillance Act (FISA) US-Behörden, Cloud-Anbieter zur Herausgabe von Daten zu verpflichten.

Ein brisanter Punkt ist die Feststellung zur Reichweite der US-Jurisdiktion. Unternehmen sind demnach angehalten, Daten auch dann herauszugeben, wenn diese außerhalb der USA gespeichert sind. Entscheidend ist demnach nicht der physikalische Speicherort der Informationen, sondern die Kontrolle darüber durch die betroffene Firma. Das impliziert, dass selbst Daten, die in Rechenzentren auf europäischem Boden liegen und über deutsche Tochtergesellschaften verwaltet werden, dem Zugriff unterliegen. Voraussetzung ist, dass die US-Muttergesellschaft die letztliche Kontrolle ausübt.

Die Reichweite der US-Gesetze endet hier jedoch nicht. Die Jurisdiktion der Vereinigten Staaten kann laut dem Gutachten nicht nur europäische Tochtergesellschaften US-amerikanischer Unternehmen erfassen. Sie hat auch das Potenzial, rein europäische Unternehmen zu treffen, sofern diese relevante geschäftliche Verbindungen in die USA unterhalten. Damit wird die Gefahr eines indirekten oder direkten Datenzugriffs auf einen weiten Kreis von Unternehmen ausgedehnt, die im europäischen Binnenmarkt operieren.

Obwohl ein Cloud-Anbieter technisch etwa durch Verschlüsselung verhindern könnte, selbst auf die Daten zuzugreifen, vermeidet dies die Herausgabepflicht nicht zwingend. Das US-Prozessrecht verlangt von Parteien, verfahrensrelevante Informationen schon vor Beginn eines Rechtsstreits zu speichern. Ein Cloud-Dienstleister, der regelmäßig mit Herausgabeverlangen konfrontiert ist, könnte daher zur Aufbewahrung von Daten verpflichtet sein. Schließt er sich durch technische Maßnahmen vom Zugang aus, riskiert er erhebliche Bußgelder oder strafrechtliche Konsequenzen.

In Europa dürfen Aufsichtsbehörden auf Basis der Datenschutz-Grundverordnung (DSGVO) Offenlegungen von Informationen an Behörden in Drittstaaten untersagen. Datenübermittlungen in die USA können derzeit auf den wackeligen Angemessenheitsbeschluss der EU-Kommission – das EU-US Data Privacy Framework – gestützt werden. Das Gutachten verdeutlicht aber die rechtlichen Spannungsfelder, die durch die globale Reichweite der US-Gesetze entstehen. Es verweist auf die Notwendigkeit, europäische Alternativen zur Stärkung der digitalen Souveränität zu entwickeln.

Weiterlesen nach der Anzeige

Die Rechtsanwälte Stefan Hessel, Christina Ziegler-Kiefer und Moritz Schneider kommen in einer aktuellen Analyse trotzdem zum Schluss, dass ein datenschutzkonformer Einsatz der cloudbasierten Lösung Microsoft 365 grundsätzlich weiterhin möglich sei. Das abstrakte Risiko, das sich aus den extraterritorialen US-Befugnissen speise, begründe allein keine automatische Unzuverlässigkeit des Auftragsverarbeiters, solange keine systematischen Verstöße gegen europäisches Recht belegt seien. Verantwortliche müssten sich auf ihre Compliance-Pflichten konzentrieren und bei hohem Risiko eine Datenschutz-Folgenabschätzung durchführen. Andere Experten sehen das nicht so.


(vbr)



Source link

Weiterlesen

Künstliche Intelligenz

Digitales Vertrauen in Gefahr: Wenn Behörden ihre alten Domains vergessen


Die Umbenennung einer Bundesbehörde erfordert nicht nur den Austausch von Schildern und Briefköpfen, sondern auch den der zugehörigen Internetadresse. Werden solche vormals staatlich genutzten Domains nach einiger Zeit aufgegeben, kann dies erhebliche Sicherheitsprobleme nach sich ziehen.

Weiterlesen nach der Anzeige

Aufgrund ihrer Historie genießen diese Adressen weiterhin ein hohes Vertrauen, werden in wissenschaftlichen Arbeiten oder von Nachrichtenmedien verlinkt und sind in Suchmaschinen leicht auffindbar. Diese Faktoren machen sie zu einem idealen Ziel für Betrüger und Verbreiter von Desinformation. Unter ehemaligen Behörden-Webadressen finden sich heute teils Werbung für illegales Glücksspiel, Online-Casinos, Wettanbieter und sogar Schadsoftware.

Ein prägnantes Beispiel dafür ist die alte Domain des heutigen Bundesamts für Migration und Flüchtlinge (BAMF), das bis 2005 noch Bundesamt für die Anerkennung ausländischer Flüchtlinge (BAFl) hieß. Nach der Umbenennung wechselte die Adresse von bafl.de zu bamf.de. Obwohl die alte URL jahrelang auf die neue weiterleitete, wurde sie schließlich aufgegeben. 2025 entdeckte der IT-Sicherheitsforscher Tim Philipp Schäfers, dass bafl.de erneut zur Registrierung frei war. Zuvor hatte dort zeitweise eine seltsame, aber scheinbar harmlose Website mit fragwürdigen Informationen über Asylthemen ihr Domizil aufgeschlagen.

Schäfers, der beim BAMF bereits skurrilen Testkonten auf die Spur gekommen war, sicherte sich laut einem jetzt veröffentlichten Bericht die Domain. Er stellte überraschend fest, dass weiterhin Anfragen aus den Netzen des Bundes an bafl.de gesendet wurden. Diese Infrastruktur verbindet Behörden und Tausende Mitarbeiter.

Das deutete darauf hin, dass interne IT-Systeme – möglicherweise aufgrund einer Fehlkonfiguration – weiterhin automatisiert auf die nicht mehr kontrollierte Adresse zugriffen. Eine solche hartnäckige Verankerung in den Systemen birgt dem Entdecker zufolge ein erhebliches Sicherheitsrisiko. Angreifer könnten durch die beständigen Anfragen Informationen über die interne IT-Infrastruktur ausspionieren und im schlimmsten Fall Systeme manipulieren.

Obwohl das Bundesamt für Sicherheit in der Informationstechnik (BSI) und das BAMF auf die Meldung des Sicherheitsexperten reagierten und die Löschung des Verweises auf bafl.de aus allen Konfigurationen beim ITZBund veranlassten, rissen die automatisierten Anfragen nicht ab. Der Vorfall unterstreicht, dass die Freigabe einer Domain erst erfolgen sollte, wenn sichergestellt ist, dass sie intern auf keinem System mehr verwendet wird. Das BAMF teilte diese Einschätzung laut Netzpolitik.org nachträglich. Es will stärker darauf achten, nicht mehr genutzte Domains aus Sicherheitsgründen weiter zu registrieren.

Weiterlesen nach der Anzeige

Dass es sich nicht um einen Einzelfall handelt, belegt eine Antwort der Bundesregierung auf eine Anfrage der Linksfraktion. Demnach wurden mehrere vormals von Ministerien oder ihren Geschäftsbereichsbehörden genutzte Domains von Dritten registriert und missbräuchlich genutzt. Ein Beispiel ist eine alte URL des Landwirtschaftsministeriums. Diese informiert heute zwar noch über Bioenergiepflanzen, aber blendet Links zu Glücksspiel- und Wettanbietern ein.

Auch das Bundesinstitut für öffentliche Gesundheit (BIÖG), ehemals Bundeszentrale für gesundheitliche Aufklärung, kämpft mit ungenutzten Domains aus früheren Aufklärungskampagnen. Diese verlinken nun ebenfalls auf illegale Online-Casinos. Eine andere, einst für Kinderlieder genutzte Domain verbreitet sogar Schadsoftware. Während einige Ministerien entsprechende Fälle meldeten, signalisierten andere nur „Fehlanzeige“. Das erscheint angesichts der Dimension staatlicher Domainverwaltung und des BAFl-Falls unglaubwürdig.

Die Linken-Abgeordnete Donata Vogtschmidt beklagt ein „Totalversagen“ bei der Sicherung vertrauenswürdiger Webauftritte. Unzureichend erscheint Vogtschmidt die Situation, weil es laut Regierung keine einheitlichen Regeln für den Umgang mit nicht mehr benötigten Domains gibt: Die Zuständigkeit liege bei der jeweiligen Behörde.

Die Regierung lehnt es ab, eine systematische Liste aller in Bundeshand befindlichen Domains und deren Kosten offenzulegen, da dies die Sicherheit der Bundesrepublik gefährden könnte. Diese Geheimhaltung erschwert ein internes Inventar-Management sowie externe Transparenz und notwendige Sicherheitsforschung. Die Schätzungen zur Anzahl der Domains mit staatlichen Inhalten gehen in die Tausende, was die Größe des potenziellen Sicherheitsproblems verdeutlicht.

Um Vertrauen zu schaffen und Missbrauch von Anfang an zu verhindern, könnte die konsequente Nutzung von Subdomains unter bund.de oder der neuen digitalen Dachmarke gov.de helfen. Letztere, die offizielle Websites kennzeichnen soll, befindet sich aber noch in der Pilotphase und ist keine Pflicht. Ein konsequentes Domain-Management, starke Authentifizierung und Kontrolle anstelle von Geheimhaltung wären laut IT-Experten effektiver, um die digitalen Auftritte des Bundes resilienter gegen Missbrauch zu machen.


(wpl)



Source link

Weiterlesen

Künstliche Intelligenz

Autonomer ID. Buzz wird Robotaxi in Oslo


Oslo bekommt einen Dienst mit autonom fahrenden Fahrzeugen. Diese stammen von der Volkswagen-Tochter Moia.

Weiterlesen nach der Anzeige

Den Dienst wird die Verkehrsgesellschaft Ruter zusammen mit Holo anbieten, einem auf den Betrieb autonomer Fahrzeuge spezialisierten Unternehmen. Er soll im kommenden Frühjahr starten, wie Ruter mitteilte. Holo wird demnach seine Erfahrungen aus dem Betrieb autonomer Mobilitätsdienste in den nordischen Ländern einbringen.

Als Fahrzeug kommt der ID. Buzz AD zum Einsatz, dem Robotaxi auf der Basis des elektrischen VW-Bus. Diese sollen zunächst in Groruddalen unterwegs sein, einem Vorort der norwegischen Hauptstadt. Dort sollen die Fahrzeuge zunächst auch unter anspruchsvollen Wetterbedingungen wie Schnee erprobt werden. Ruter will bis zu 30.000 autonome Ride-Sharing-Fahrzeuge in das öffentliche Verkehrsnetz Oslos integrieren. Das soll Staus und Emissionen reduzieren.

Für Moia sei „das Projekt ein weiterer Schritt bei Ausbau und Kommerzialisierung autonomer Mobilität in Europa“, teilte das Unternehmen mit. Bisher bietet die VW-Tochter selbst Ride-Sharing-Dienste an, bis vor kurzem in Hannover sowie in Hamburg, in Hamburg und Berlin künftig auch autonomes Ridesharing.

Im nächsten Schritt will Moia auch ein „Gesamtpaket“ aus autonomen Fahrzeugen, Software und Betriebsdienstleistungen anbieten, „das Verkehrsbetreibern ermöglicht, autonome Mobilität zu implementieren.“ Moia plant, bis 2027 eine Typgenehmigung für den ID. Buzz AD in der Europäischen Union zu erhalten.

Weiterlesen nach der Anzeige


(wpl)



Source link

Weiterlesen

Beliebt