Connect with us

Künstliche Intelligenz

Interview mit dem Hacker Andrew „bunnie“ Huang über Open Source Silicon


c’t: Sie haben in der IT-Sicherheit schon einiges geleistet, können Sie sich kurz vorstellen?

Andrew „bunnie“ Huang: Es hilft, alt zu sein, gefühlt habe ich schon ein paar Leben gelebt (lacht). Ich bin bunnie, unter dem Namen kennen mich die meisten. Schon seit ich klein war, interessiere ich mich für Hardware, und seitdem versuche ich auch, sie zu hacken. Besonders bekannt geworden bin ich für meinen Hack der originalen Xbox.

Seitdem habe ich eine Menge gemacht und auch einiges an Hardware selbst entworfen: zum Beispiel eins der ersten Open-Source-Notebooks überhaupt namens Novena. Ich habe ein paar Low-Tech-Smartphones und SD-Karten rekonstruiert, einigen Start-ups aus dem Hardwarebereich geholfen und zwischendrin das Start-up Chibitronics mitgegründet, das ist eine Art Lernplattform für Elektronik. Seit Kurzem bin ich auf dem Weg, meine eigene vertrauenswürdige Hardware zu entwickeln.


Das war die Leseprobe unseres heise-Plus-Artikels „Interview mit dem Hacker Andrew „bunnie“ Huang über Open Source Silicon“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Künstliche Intelligenz

KI-Wettrüsten: Techriesen investieren dieses Jahr 650 Milliarden US-Dollar


Das Wettrüsten um KI-Vorherrschaft nimmt epochale Ausmaße an: Alphabet, Amazon, Meta und Microsoft planen für dieses Jahr Ausgaben von insgesamt 650 Milliarden US-Dollar in die KI-Infrastruktur. Diese Investitionsausgaben vermerken die Konzerne als Capital Expenditures (Capex) aufsummiert in ihren Jahresgeschäftsberichten.

Weiterlesen nach der Anzeige

Das Niveau der Kapitaloffensive ist so hoch, dass Bloomberg Parallelen zu historischen Ereignissen wie dem Ausbau des US-Eisenbahnnetzes im 19. Jahrhundert oder den Hilfsprogrammen der New-Deal-Ära zieht. Das Wirtschaftsmagazin prognostiziert, dass die Konzerne in diesem Jahr allein so viel in KI investieren könnten wie in den letzten drei Jahren insgesamt – oder sogar noch mehr.

Auf Microsoft und Meta entfallen rund 105 Milliarden beziehungsweise 135 Milliarden US-Dollar, während Googles Muttergesellschaft Alphabet Investitionen in Höhe von bis zu 185 Milliarden US-Dollar plant. Rekordhalter ist Amazon mit angekündigten 200 Milliarden US-Dollar an prognostizierten Ausgaben. Bei den Zahlen handelt es sich um die jeweiligen Maximalangaben.

Angesichts der Investitionsspirale und der Sorge vor einer KI-Blase sind die Kurse der Techriesen eingesackt. Zusammengenommen ist ihr Börsenwert nach den Ankündigungen laut Bloomberg um 640 Milliarden US-Dollar gefallen. Eine Summe, die fast exakt den geplanten Aufwendungen entspricht.

Der Großteil dieser Mittel fließt in Rechenzentren, die KI-Dienste der nächsten Generation antreiben sollen. Hinter der Kapitaloffensive steht die Hoffnung, dass große Sprachmodelle künftig eine zentrale Rolle im Alltag und Berufsleben einnehmen werden. Die Nervosität an der Börse offenbart jedoch erhebliche Zweifel: Viele Beobachter sind skeptisch, ob und in welchem Zeitraum die immensen Investitionen der Konzerne rentable Realität werden.

Die gewaltigen Infrastrukturprojekte wirken sich derweil negativ auf andere Branchen aus: Da die Tech-Giganten essenzielle Hardware-Komponenten für ihre Rechenzentren aufkaufen oder lieber KI-Beschleuniger statt Grafikkarten produzieren, führt diese Entwicklung zu Engpässen, die sich in höheren Speicherpreisen und Produktverschiebungen von Unterhaltungselektronik niederschlagen.

Weiterlesen nach der Anzeige


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Olympische Winterspiele in Cloud: Alibaba macht Milano Cortina zum KI-Testlabor


Wenn am Freitagabend die Olympischen Winterspiele in Milano Cortina offiziell eröffnet werden, findet der wichtigste Wettbewerb für die IT-Branche hinter den Kulissen statt. Es geht um die Deutungshoheit über das, was wir sehen – und wie es verarbeitet wird. Alibaba Cloud, seit 2017 fester Partner des Internationalen Olympischen Komitees (IOC), hat seine Präsenz dieses Jahr massiv ausgebaut. Ging es früher primär um Hosting und die Ablösung teurer Satellitenstrecken, rückt 2026 die generative KI ins Zentrum. Erstmals sollen große Sprachmodelle (LLM) den gesamten Workflow von der Produktion bis zum Archiv dominieren.

Weiterlesen nach der Anzeige

Das Herzstück dieser Entwicklung ist Alibabas KI-Modellfamilie Qwen. Die Technik soll das leisten, was menschliche Redaktionen bei der Flut an Videomaterial kaum noch bewältigen können: das Erstellen von Metadaten in Echtzeit. Das System „Automatic Media Description“ (AMD) scannt die Feeds, erkennt Athleten sowie Schlüsselmomente und schreibt die passenden Beschreibungen nahezu simultan mit.

Was für Rundfunkanstalten nach einer enormen Effizienzsteigerung klingt, markiert gleichzeitig den Abschied von der rein menschlichen Einordnung des sportlichen Geschehens. Wenn Algorithmen darüber entscheiden, welche Szenen als „Highlight“ markiert werden, delegiert das IOC die redaktionelle Vorauswahl an die Software eines chinesischen Tech-Giganten.

Dass bei den Spielen in Italien ausgerechnet Qwen den Ton angibt und nicht etwa OpenAI mit GPT-4 oder Google mit Gemini, ist kein technischer Zufall, sondern das Ergebnis knallharter Sportpolitik. Alibaba sicherte sich bereits 2017 im Rahmen des Olympischen-Partner-Programms einen Platz im exklusiven Sponsoren-Olymp. Der Exklusivvertrag läuft bis 2028 und hat ein geschätztes Volumen von über 800 Millionen US-Dollar.

Das IOC bindet sich durch diese langfristigen Verträge an den Fahrplan seiner Partner. Das hat Folgen: Alibaba liefert nicht nur die Rechenpower. Der Konzern diktiert durch die Integration in die offiziellen Plattformen auch, welche KI-Standards für Rundfunksender weltweit gelten. Ein Wechsel zu potenziell leistungsfähigeren Modellen ist innerhalb der Vertragslaufzeit rechtlich und wirtschaftlich kaum darstellbar.

Weiterlesen nach der Anzeige

Auch für die Zuschauer am Bildschirm wird die KI sichtbarer. In 17 Sportarten, darunter Eishockey und Eiskunstlauf, kommen weiterentwickelte „360-Grad-Replay-Systeme“ zum Einsatz. Deren Ziel ist eine möglichst vollständige räumliche Rekonstruktion: Innerhalb von weniger als 20 Sekunden berechnet die KI aus verschiedenen Kameraperspektiven ein 3D-Modell der Szene. Neu sind die sogenannten „Spacetime Slices“, die Bewegungsabläufe stroboskopartig in einem Bild einfrieren. Technisch ist das beeindruckend, da die Algorithmen die Athleten präzise von komplexen Hintergründen wie wirbelndem Schnee oder spiegelndem Eis trennen müssen.

Mit dieser Initiative versucht das IOC, den Sport in eine Ästhetik zu überführen, die sonst eher aus High-End-Animationen bekannt ist. Doch diese Perfektion hat ihren Preis: Die Grenze zwischen realem Videomaterial und einer KI-generierten Rekonstruktion wird durchlässiger. In einer Zeit, in der Deepfakes und KI-Manipulationen zunehmen, ist das Vertrauen in das „echte“ Bild ein hohes Gut, das hier zugunsten des Show-Effekts aufs Spiel gesetzt wird.

Die Cloud-Abhängigkeit von heute ist die Endstufe einer Entwicklung, die vor Jahrzehnten begann. In der Ära von IBM – einem IOC-Partner von 1960 bis 2000 – ging es primär um die reine Datenverarbeitung. Ergebnisse wurden damals mühsam auf Großrechnern erfasst. Legendär blieb das Desaster von Atlanta 1996, als das Info-System von IBM unter der Last zusammenbrach und Journalisten falsche Ergebnisse lieferte. Danach übernahm Atos das Ruder und fokussierte sich über Jahrzehnte auf die Systemintegration und Cybersicherheit, wobei die Rechenzentren physisch vor Ort oder in regionalen Hubs betrieben wurden.

Der radikale Bruch erfolgte mit Tokio 2020 und Peking 2022. Alibaba verlagerte die Kernsysteme erstmals vollständig in die Cloud. War IT früher eine unterstützende Infrastruktur, ist sie heute das zentrale Nervensystem. Diese Zentralisierung spart zwar Kosten, macht das Weltereignis aber auch anfälliger für geopolitische Spannungen und technologische Fehler.

Die Ambitionen reichen weit über das Live-Bild hinaus. Das IOC lässt Alibaba auch an sein „Gedächtnis“. Im Olympischen Museum in Lausanne und in den internen Archiven wird Qwen als digitaler Bibliothekar eingesetzt. Über acht Petabyte an historischem Material sollen durch KI-Tagging und natürliche Sprachabfragen durchsuchbar gemacht werden. Was oberflächlich wie ein praktisches Tool für Historiker wirkt, bedeutet faktisch die vollständige algorithmische Erschließung der olympischen Geschichte.

Das System „Sports AI“ automatisiert zudem die Kategorisierung von Jahrzehnten an Videomaterial. Das wirft Fragen auf: Wenn eine KI entscheidet, welche emotionalen Reaktionen „relevant“ sind, entsteht ein gefilterter Blick auf die Vergangenheit. So könnte eine technologische Glättung stattfinden, bei der nur noch das für die Cloud optimierte, leicht konsumierbare Bildmaterial an die Oberfläche gespült wird.

Die wirtschaftliche Logik dahinter ist simpel: Das IOC will die Kosten für Rundfunkübertragungen senken. Die „Live Cloud“ ist mittlerweile der Standard für die Distribution. 39 Broadcaster greifen 2026 auf über 400 Feeds zu, ohne dass teure Satellitenkapazitäten gebucht werden müssen. Das senkt die Eintrittshürden für kleinere Sender, erhöht aber die Abhängigkeit von einer einzigen Infrastruktur. Sollte Alibabas Cloud-Infrastruktur haken, könnten die Bildschirme bei Dutzenden Rechteinhabern gleichzeitig schwarz bleiben.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

Studie: Designer-Wissen macht KI-generierte UIs deutlich besser


Wer schon mal eine KI gebeten hat, ihm ein User-Interface für eine App vorzuschlagen, dürfte vielfach die Hände über dem Kopf zusammengeschlagen haben. Obwohl es gewiss nicht an Trainingsmaterial mangelt, beweisen Large Language Models kein gutes Händchen dafür, daraus etwas Ästhetisches und zugleich gut Nutzbares zu generieren. Speist man aber das Feedback professioneller Designer ein, sieht der Fall schon ganz anders aus. Dies hat Apple in einer Studie untersucht und die Ergebnisse in seinem Machine-Learning-Blog veröffentlicht.

Weiterlesen nach der Anzeige

Das Problem mit den User-Interfaces ist demnach, dass das klassische Anlernen der KI offenbar für Design-Belange völlig unzureichend ist. Bei der herkömmlichen Methode, dem verstärkenden Lernen aus menschlichen Rückmeldungen, vergibt ein Mensch Noten für die Erzeugnisse der KI. Mit dieser Methode, die während des Finetunings in der Trainingsphase eines neuen Modells angewendet wird, soll die KI gut von schlecht unterscheiden können. Doch in der Realität funktioniert das bei Designs dann trotzdem nicht so gut.

Die Apple-Forscher haben stattdessen eine komplexere Methode angewendet, die auch dem Feedback-Prozess in Designabteilungen entspricht. Mithilfe von 21 professionellen Designern wurden Designs mit Kommentaren und mit Strichzeichnungen versehen oder direkt verändert. Dieses Trainingsmaterial – insgesamt 1500 Anmerkungen – hat das Team in die Trainingsdaten eingespeist. Auf diese Weise wusste die KI nicht nur, ob etwas gut oder schlecht ist, sondern auch, warum. Mit sichtbarem Erfolg, wie die Apple-Forscher in dem Papier darlegen: Die Ergebnisse der KI wurden erneut einer professionellen Bewertung unterzogen. Im Vergleich zu den KI-generierten Designs anderer Modelle, darunter auch GPT-5 von OpenAI, habe das speziell trainierte Modell am besten abgeschnitten.

Wofür Apple die gewonnenen Erkenntnisse verwenden möchte, bleibt – wie bei diesen Forschungspapieren üblich – offen. Neben reiner Grundlagenforschung wäre aber zum Beispiel denkbar, dass Apple sein Designteam künftig mit KI-Hilfe unterstützen möchte. Auch im Bereich der Werkzeuge für Entwickler wäre ein KI-Modell, das unerfahrene Developer beim Erstellen geeigneter User-Interfaces für ihre Apps unterstützt, eine große Hilfe.

Bei der Studie kam Qwen2.5-Coder als Basis-Modell zum Einsatz. Die 21 professionellen Designer verfügten über zwei bis 30 Jahre Berufserfahrung und kamen aus den Bereichen UI/UX, Produktdesign und Servicedesign.

Weiterlesen nach der Anzeige


(mki)



Source link

Weiterlesen

Beliebt