Connect with us

Künstliche Intelligenz

40 Jahre 80386: Intels wichtigstes Produkt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Vor 40 Jahren stellte Intel seinen ersten echten 32-Bit-Prozessor vor, der damals noch keinen schicken Marketingnamen hatte. Schlicht „80386“ getauft, wurde diese CPU in zahlreichen Varianten mit erweitertem oder eingeschränktem Funktionsumfang bis zum Jahr 2007 gebaut – und zwar nicht nur von Intel. Die Anfänge der Architektur, die heute als „x86“ bekannt ist, waren allerdings holprig.

Weiterlesen nach der Anzeige

Im Jahr 1985 war Intel im PC-Boom, der vor allem die professionellen Umgebungen voll erreicht hatte, kräftig unter Druck. IBM hatte nämlich schon für den ersten PC, das Modell 5150 von 1981, vorgegeben, dass die Prozessoren von mehreren Herstellern kommen mussten. Einen einzelnen Lieferanten als „Single Source“ sah die Firma als zu riskant an. Also vergab Intel zahlreiche Lizenzen für Nachbauten, bei denen es nicht bleiben sollte. IBM selbst stellte den 8086 und dessen Nachfolger 8088 und 80286 her, ebenso andere Firmen wie Fujitsu, Mitsubishi, NEC, Siemens – und natürlich AMD.

Diese Unternehmen beschränkten sich nicht nur auf Kopien der 80×86-CPUs, sondern erweiterten die Designs und steigerten die Taktfrequenzen, sodass Intel dringend eine komplett neue Architektur brauchte. Die sollte, wie bei den Motorola-CPUs der 68000-Serie, mit 32-Bit-Adressen und -Daten arbeiten können. Jene 68000er ermöglichten ab 1984 mit dem Apple Macintosh und 1985 mit dem Atari ST und Commodore Amiga eine neue Klasse von Heimcomputern, die viel billiger als PCs und dennoch leistungsfähig waren. Zwar waren die Rechenwerke (ALUs) des 68000 noch 16-bittig, doch schon 1984 machte der 68020 dieses kleine Manko wett.

Der Hoffnungsträger bei Intel war zunächst ein aus heutiger Sicht etwas krudes Design namens iAPX 432. 32-bittig war das, aber auf zwei Chips aufgeteilt, viel zu komplex und mit komplett neuem Befehlssatz. Das Hauptverkaufsargument für den PC war aber schon immer, dass alles abwärtskompatibel war. Zudem kam der 432 bei der Performance nicht aus dem Quark, parallel entwickelte Intel den 80386 als 32-Bit-Erweiterung.

Der 80386 kam ursprünglich als Lückenfüller und sollte die Zeit bis zum erhofften Erfolg des 432 überbrücken, wie sich einer der beiden 386er-Designer erinnert – ein gewisser Pat Gelsinger, der Jahrzehnte später CEO von Intel werden sollte, und im vergangenen Jahr in der nun größten Krise des Konzerns gegangen wurde. Ausführlich beschreibt er die 386-Entwicklung in seinem Gastbeitrag „For ever young“, (c’t 13/2003, S. 90-95).

Neben Gelsinger zeichnete John Crawford für den 386 verantwortlich. Von den beiden stammt auch das Standardwerk „Programming the 80386„, das erst 1987 erschien – praktisch, wenn die Chipdesigner sich auch gleich um die Software kümmern. Von Intel selbst gab es schon ein Jahr zuvor das „Programmer’s Reference Manual“ (PDF), das aber mehr Dokumentation aller Funktionen und weniger Praxishandbuch ist.

Weiterlesen nach der Anzeige

Crawford und Gelsinger brachten auf Basis des 80286 der Intel-Architektur nicht nur 32 Bit breite Register, Adress- und Datentypen bei, die auch als Busse nach außen geführt wurden. Damit der damals unvorstellbar große Adressraum von 4 GByte auch sinnvoll genutzt werden konnte, gab es mehrere Adressmodi sowie auch einen um ganze 54 Instruktionen erweiterten Befehlssatz. Als am cleversten sollten sich die Adressmodi erweisen, samt Speicherverwaltung in Hardware (MMU), was größere Betriebssysteme und Anwendungen ermöglichte. Und eine dreistufige Pipeline macht dem Ganzen Beine bei der Befehlsausführung.

Schon mit dem 80286 hatte Intel den sogenannten Protected Mode eingeführt, der Speicherbereiche von Anwendungen voneinander abschotten konnte. Der war jedoch recht umständlich zu programmieren, beim 80386 kamen dafür der Real Mode für DOS-Kompatibilität mit mehreren Instanzen und der „Flat Mode“ für große Speichermodelle hinzu. Ein bisschen Multitasking ermöglichte das schon auf Hardware-Ebene. Die Möglichkeiten des Prozessors wurden aber erst nach und nach durch DOS untergeschobene Speichermanager ausgelotet.

Die Fähigkeiten der neuen Architektur waren so verlockend, dass der erste PC mit einem 80386 nicht von PC-Erfinder IBM, sondern dem Konkurrenten Compaq erschien. Deren Modell Deskpro 386 trug auch den Namen des neuen Superchips in der Produktbezeichnung, zuvor waren PCs jenseits des 8086 als „XT“ (Extended Technology, 8088) oder „AT“ (Advanced Technology, 80286) mit diesen IBM-Bezeichnungen vermarktet worden. Der Deal mit Compaq rückte im ganzen Umfeld der Intel-Klone und Weiterentwicklungen den eigenen Prozessor ins Rampenlicht. Ein „386er“ wurde in der Folge zum Synonym für eine ganze PC-Kategorie. Die 20-MHz-Version von Compaqs Superrechner kostete übrigens 1988 schon in der Grundausstattung mit 1 MByte RAM ganze 16.000 Mark.

Der erste Deskpro 386 erschien erst im September 1986, also fast ein Jahr nach Vorstellung des 80386. Der hatte anfangs mit Bugs und geringer Ausbeute bei der Chipfertigung zu kämpfen, sodass statt der erhofften 16 MHz bei einigen Chargen nur rund 12 MHz erreichbar waren. Einige Modelle waren sogar nur für 16-Bit-Software freigegeben, weil der Prozessor sich beim 32-Bit-Multiplizieren verrechnete. Anders als beim berüchtigten FDIV-Bug dokumentierte Intel das mit Aufdrucken auf den Prozessoren selbst. Diese Probleme waren knapp ein Jahr später überwunden, führten aber für die Bilanz 1986 zu den ersten roten Zahlen in der Geschichte von Intel. Der 80386 musste also unbedingt ein Erfolg werden.



Der Compaq Deskpro 386, hier ein Ausschnitt aus c’t 2/1988, war schneller als jede IBM-Maschine in den Jahren 1986 und 1987.

(Bild: c’t)

1986 sagte Compaq-CEO Rod Canion der Zeitschrift Computerworld, es mache keinen Sinn, auf IBM zu warten. Und auf ein MS-DOS, das den 386er voll unterstützt, wollte die Firma auch nicht länger warten. Also kam der Deskpro mit Microsofts Unix-Derivat Xenix auf den Markt, zunächst überwiegend als Server. Wer selbst Software entwickelte, merkte aber schnell, was mit den 386-PCs möglich war. Als 1987 endlich IBM so weit war und seine 386er als PS/2 startete – wohlgemerkt ohne die Prozessornummer im Namen – hatten längst viele andere Unternehmen den Markt besetzt. Vieles, was sich IBM für PS/2 ausdachte, wie die Microchannel-Steckkarten, konnte sich nicht lange behaupten.

Ende 1987 erschien dann Windows 2.0, das es samt passendem DOS auch als Windows/386 gab. Das unterstützte den Protected Mode des 80386 so weit, dass sich mehrere DOS-Instanzen aus Windows heraus aufrufen ließen. Das war zwar nicht sonderlich stabil, auch später mit Windows 3.1 und Zusatzprogrammen wie Sidekick nicht, aber: Für manche Anwendungen, etwa beim Programmieren oder der Medienerstellung, waren mehrere DOS-Programme gleichzeitig ein Game-Changer. Auch zahlreiche andere Anwendungen erschienen als 386-Version, auf IBM mussten Interessierte auch da jedoch warten. Erst 1992 erschien deren OS/2 2.0, das den 80386 voll unterstützte.

In den Jahren nach der Markteinführung des ersten voll funktionsfähigen 80386 mit 16 MHz steigerte Intel den Takt auf bis zu 33 MHz, also eine Verdopplung – heute undenkbar. Andere Hersteller wie AMD und Chips & Technologies kamen durch viel Reverse Engineering auf bis zu 40 MHz. Am Ende der 386-Ära, und vor der Einführung des 80486, kam die Konkurrenz auf einen größeren Marktanteil als Intel selbst.

Der damalige Prozessorprimus blieb jedoch im riesigen Boom der 386er-PCs nicht untätig. Der erste 80386 wurde in i386DX umbenannt, weil es 1988 die Sparversion i386SX gab, die nur einen Adressbus von 24 Bit besitzt und damit 16 MByte RAM ansteuern kann. Auch der Datenbus ist nur 16 Bit breit, die Befehlsverarbeitung und die Register sind 32-bittig und damit voll kompatibel zu 386-Software. Und 1990 erschien dann der i386SL mit teils statischer Bauweise. Der war recht sparsam und konnte Teilbereiche oder den ganzen Prozessor schlafen legen, was der neue „System Management Mode“ (SMM) erlaubte – auch da brauchte es aber wieder Anpassungen der Betriebssysteme. Und der Koprozessor 80387 eroberte die technische Welt. Diese Floating Point Unit (FPU) beschleunigte Gleitkommaoperationen gleich um mehrere Faktoren, wenn die Software passte – unter anderem CAD wurde so auf Desktop-PCs erst richtig möglich.

Insgesamt hatte die PC-Branche damit in nur fünf Jahren nach schleppendem Start ein Ökosystem geschaffen, in dem 386-Prozessoren die zentrale Rolle spielten. Und zwar vom Server bis zum mobilen Computer. Am Ende sogar so mobil, dass sich eine Embedded-Version (80386EX) im „Nokia Communicator 9000 fand, jenem großen Handy zum Aufklappen mit Tastatur und Faxfunktion sowie E-Mail-Zugang – auf der Cebit 1996 eine Sensation, wohlgemerkt: elf Jahre vor dem ersten iPhone.

Ende der 1980er- und Anfang der 1990er-Jahre wurde damit klar, dass sich PC-Prozessoren recht gut in verschiedenste Anwendungsbereiche integrieren lassen. Und dass es dafür nicht einen einzelnen Branchenriesen wie IBM brauchte – selbst Intel war dabei von seiner späteren und jetzt verlorenen Dominanz weit entfernt. Der 80386 war für Intel dennoch so wichtig, dass das Unternehmen seine Architektur später in „IA-32“ (Intel Architecture, 32 Bit) umbenannte, oder kurz x86. Auch moderne x86-Prozessoren, selbst mit 64-Bit-Erweiterungen, die zuerst von AMD kamen, basieren im Kern noch auf der IA-32. Damit ist der 386er Intels wichtigstes Produkt aller Zeiten. Heute machen x86 zunehmend verschiedenste ARM-Varianten Konkurrenz, vom Smartphone über das Notebook bis hin zum KI-Rechenzentrum.


(nie)



Source link

Künstliche Intelligenz

Pinterest ohne AI Slop – Feed fast ohne KI-Inhalte


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Laut Pinterest sind bereits 57 Prozent des Internets KI-generiert. Und die Menschen sind offenbar nicht glücklich darüber. Zumindest sollen sich bei Pinterest die Beschwerden stark gehäuft haben, sodass nun eine Funktion eingeführt wird, mit der Nutzende entscheiden können, wie viele KI-Inhalte sie sehen wollen. Gänzlich lässt sich das jedoch nicht abschalten.

Weiterlesen nach der Anzeige

Das Problem, gerade bei Pinterest suchen die Menschen Inhalte wie etwa Bastelanleitungen, Dekoration und Design oder Produkte, die man tatsächlich kaufen kann. KI-generierte Katzen aus Mandarinen oder andere unbastelbare Tipps sowie Strickmuster, Blumengestecke für Hochzeiten und Tapeten, die es gar nichts geben kann, kommen nicht gut an. Es geht Pinterest auch um Inhalte, die das Wohlbefinden der Nutzer betreffen können – nämlich beispielsweise den Bereich Beauty. Hier wird besonders viel mit KI-generierten Models gearbeitet.

Solcher AI-Slop, also KI-Müll, findet sich auf allen Plattformen im Internet. Pinterest möchte laut Blogbeitrag mit den neuen Einstellungsmöglichkeiten allerdings die Balance wahren. So ist es nicht möglich, alle KI-Inhalte auszublenden. Diese lassen sich auch gar nicht immer erkennen, eine Garantie könnte es also gar nicht geben. Wobei Pinterest bereits vor Kurzem ein KI-Label eingeführt hat, das KI-Inhalte kennzeichnen soll.

Gleichwohl will die Plattform aber auch KI-Innovation zulassen. Es gibt freilich auch KI-generierte Inhalte, die als weniger störend und sogar begeisternd gelten. Dazu gehören aktuell beispielsweise Videos, in denen Messer durch vermeintliche Glasgegenstände schneiden. Oder Babys, denen fremde Worte in den Mund gelegt werden.

Zunächst lassen sich die KI-Einstellungen auf Android-Geräten und am Desktop ändern. iOS soll in wenigen Wochen dazukommen. Um weniger KI-Inhalte zu sehen, muss man die Einstellung zu den „Vorschlägen“ ändern. Dort kann man für verschiedene Kategorien jeweils separat angeben, dass weniger KI-Inhalte angezeigt werden sollen. Alternativ kann man Änderungen auch über das Drei-Punkte-Menü bei einzelnen Bildern vornehmen.

KI-Label gibt es auch auf anderen Plattformen. Eine Möglichkeit, KI-Inhalte generell auszuschließen, gibt es jedoch noch nicht. Bei Instagram etwa wählt man Inhalte, die einen nicht interessieren, ab, so lernt der Algorithmus – im Zweifel auch, dass man manche KI-Inhalte nicht sehen möchte. Tiktok lernt eher durch das Verhalten der Nutzer.

Weiterlesen nach der Anzeige

Lesen Sie auch


(emw)



Source link

Weiterlesen

Künstliche Intelligenz

Nach „Stop Killing Games“: Ubisofts „The Crew 2“ kann offline gespielt werden


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ubisoft hat einen Offline-Modus für das Rennspiel-MMO „The Crew 2“ veröffentlicht. Spieler können jederzeit und wiederholt ihren Online-Spielstand exportieren, um ihn offline weiterzuspielen. Der Haken: Offline-Fortschritt wird nicht in den Online-Spielstand zurück synchronisiert. Zudem fehlen Multiplayer-Spielmodi und von Nutzern erstellte Inhalte.

Weiterlesen nach der Anzeige

In der Praxis dürften die meisten Nutzer also erst einmal online weiterspielen. Der Offline-Modus dürfte als Versicherung gedacht sein: Wenn die Server von „The Crew 2“ irgendwann abgeschaltet werden, können Spieler ihren Spielstand offline sichern und weiterspielen. Damit entgeht „The Crew 2“ dem Schicksal, das seinen Vorgänger so kontrovers machte: Nachdem Ubisoft die Server am 1. April 2024 abgeschaltet hatte, wurde der Titel komplett unspielbar. Einen Offline-Modus für Teil 1 gab und gibt es nicht.

Das trat mehrere Debatten los. Unter anderem kritisierte die Piratenpartei die Abschaltung. Die Praxis könnte gegen EU-Recht verstoßen, meinte der Europaabgeordnete der Piratenpartei, Patrick Breyer: „Die Abschaltung von ‚The Crew 1‘ durch Ubisoft ist ein alarmierendes Beispiel dafür, wie die Interessen der Spieler ignoriert werden. Es ist inakzeptabel und wahrscheinlich auch illegal, dass Unternehmen beliebte Spiele erst gewinnbringend verkaufen und dann kurzfristig lahmlegen“, schrieb Breyer.

Vor allem trat Ubisofts Vorgehen bei „The Crew“ die Initiative „Stop Killing Games“ los, die bei der EU als „Stop Destroying Videogames“ firmiert. Die Bürgerinitiative hat im Sommer die nötigen Stimmen erreicht – sollten ausreichend der 1,4 Millionen gesammelten Stimmen echt sein, muss sich die EU-Kommission mit der Thematik befassen. Ziel ist es, Publisher zum Weiterbetrieb von alten Videospielen zu zwingen. Die Branche befürchtet dadurch steigende Kosten.

Dass „The Crew 2“ einen Offline-Modus bekommt, hatte Ubisoft bereits im vergangenen Herbst versprochen – als direkte Reaktion auf die Kritik an „The Crew“.


(dahe)



Source link

Weiterlesen

Künstliche Intelligenz

MacBook mit OLED und Touch: Neue Details


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Apple arbeitet einem Bericht zufolge weiter an einem ersten MacBook mit zusätzlicher Touchbedienung. Das meldet der Bloomberg-Autor Mark Gurman in seinem neuesten Artikel. Das Gerät soll demnach ein MacBook Pro mit OLED-Bildschirm sein, das „Ende 2026 oder Anfang 2027“ auf den Markt kommt. Die Maschine mit dem internen Codenamen K114 und K116 kommt demnach mit dem – noch unbekannten – M6-Chip und soll einen „dünneren und leichteren Gehäuserahmen“ haben.

Weiterlesen nach der Anzeige

Stimmt der Bericht, würde Apple bereits mit seinem lange erwarteten ersten OLED-Mac auch erstmals einen Touchscreen ausliefern. Dies war bei Apple lange umstritten, wo man Macs von iPads trennt, zumal macOS nach wie vor nicht für die Bedienung per Finger angepasst ist. Apples 2011 verstorbener Mitbegründer Steve Jobs galt als Gegner von Touchscreen-Notebooks. Tastatur und Trackpad will Apple allerdings nicht weglassen: Es sollen beide Steuerungsvarianten, also Touch-Display und traditionell, erhalten bleiben.

Bislang gibt es nur das iPad Pro in seinen Varianten mit M4 und M5, in dem Apple größere OLED-Displays mit 11 und 13 Zoll einbaut. Dass diese in den Mac kommen, gilt seit Jahren als ausgemacht, doch wurde dies, so zumindest die Gerüchteküche, gleich mehrfach verschoben. Gurman geht davon aus, dass die neuen Geräte teurer werden als bisherige MacBook-Pro-Modelle, die bei 2000 US-Dollar (14 Zoll) respektive 2500 Dollar (16 Zoll, Euro-Preise jeweils teurer) beginnen.

Ob auch weitere Macs Touchscreens erhalten, ist noch nicht gesagt. Apple will offenbar beim MacBook Pro zunächst experimentieren. Dort war auch schon ein OLED-Touch-Streifen, die TouchBar, eingeführt und wieder gestrichen worden. Noch nicht kommen soll hingegen eine Face-ID-Gesichtserkennung im Mac. Diese benötige „noch Jahre“, schreibt Gurman. Allerdings soll das MacBook Pro die störende Webcam-Einkerbung (Notch) verlieren, stattdessen sei ein „Hole-Punch“-Design vorgesehen, wie man es von der aktuellen Dynamic Island im iPhone kennt.

Gurman hat weiterhin vernommen, dass Apple für das Jahr 2026 nicht nur an M5-Pro- und M5-Max-Varianten des gerade veröffentlichten MacBook Pro M5 arbeitet, sondern auch an MacBook Air M5, Mac Studio M5 und Mac mini M5. Das Design soll sich hingegen wenig verändern. Das neue Air trägt die Codenamen J813 und J815. Gurman spricht außerdem von zwei neuen Bildschirmen mit den Codenamen J427 und J527 – ob es zwei neue Studio-Displays oder ein neues Pro Display XDR sein werden, bleibt unklar.

Weiterlesen nach der Anzeige


(bsc)



Source link

Weiterlesen

Beliebt