Connect with us

Künstliche Intelligenz

Was die ersten Docks und Hubs mit Thunderbolt 5 am Mac können


Thunderbolt 5 hat gegenüber dem Vorgänger vor allem einen Vorteil mitgebracht: Die Transfergeschwindigkeit hat sich von 40 auf 80 Gigabit pro Sekunde in jede Richtung erhöht. Für schnelle SSDs bedeutet dies in der Praxis, dass sich ihr Tempo netto von rund 2750 auf 5500 Megabyte pro Sekunde erhöhen kann. An den neuen Macs mit Thunderbolt 5 (Mac mini Pro, MacBook M4 Pro / Max, Mac Studio von 2025) gelingt das, doch gilt das auch für daran angeschlossene Docks?

  • Alle Testgeräte verdreifachen die Zahl der Thunderbolt-5-Schnittstellen.
  • Unterschiede gibt es bei den sonstigen Schnittstellen, aber nicht bei Thunderbolt.
  • Thunderbolt 5 arbeitet hinter den Docks etwas langsamer als direkt am Mac.
  • macOS unterstützt bisher nicht mehr als zwei Monitore an einem Mac-Port.

Der zweite Vorteil von Thunderbolt 5 liegt in der besseren Anbindung von vielen großen Monitoren. Bis zu drei Bildschirme mit 4K-Auflösung und 144 Hertz Bildwiederholfrequenz (4K @ 144 Hz) oder zwei mit 8K @ 60 Hz unterstützen die mit nur einem Kabel angebundenen Docks in Abhängigkeit von der Grafikeinheit (GPU) des Host-Rechners. Leider ist das nicht die einzige Vorbedingung, denn macOS schaffte es – anders als Windows 11 – nicht, mehr als zwei 6K-Displays mit 60 Hertz an einem Thunderbolt-5-Dock anzusteuern. Falls man weitere Monitore nutzen möchte, muss man sie direkt am Mac anschließen.

Dies könnte damit zusammenhängen, dass macOS immer noch nicht die DisplayPort-Funktion „Multi-Stream Transport“ (MST) beherrscht. Dabei kann man zwei Monitore hintereinander anschließen, wenn einer von beiden einen entsprechenden Ausgang hat. Anfänglich wurden die Docks ohne die Angabe dieser Betriebssystemeinschränkung angepriesen, was bei den ersten Testern für große Enttäuschung sorgte.


Das war die Leseprobe unseres heise-Plus-Artikels „Was die ersten Docks und Hubs mit Thunderbolt 5 am Mac können“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Künstliche Intelligenz

VeloFlow: Berlin testet Fahrrad-Ampel mit Erreichbarkeitsprognose


Dieses System soll Frust an Ampeln bei Radfahrern in Berlin sowie potenzielle Rotlichtverstöße reduzieren: Die Senatsverkehrsverwaltung der Hauptstadt hat angekündigt, eine VeloFlow getaufte Lösung an zunächst 23 Signallichtanlagen von September an testen zu wollen. Es handelt sich um digitale Anzeigen etwa unter Parkverbotsschildern, die Radfahrer rund 200 Meter vor einer Kreuzung darüber informieren, ob sie die nächste Ampel bei einer Geschwindigkeit von etwa 20 Kilometer in der Stunde bei Grün oder Rot erreichen werden.

Die Funktionsweise von VeloFlow ist laut dem Senat relativ einfach: Ein Fahrrad-Symbol auf dem Display signalisiert, ob die Ampelphase bei gleichbleibendem Tempo Grün oder Rot sein wird. Befindet sich das stilisierte Rad im grünen Bereich, können vorbeikommende Radler davon ausgehen, dass sie die Ampel bei freier Fahrt passieren können. Zeigt das Symbol den roten Bereich, deutet dies auf eine bevorstehende Rotphase hin. Das soll es Velofahrern ermöglichen, ihr Tempo vorausschauend anzupassen – entweder durch eine leichte Beschleunigung oder durch langsames Ausrollen. Abruptes Bremsen oder ein Passieren der Ampel bei Rot soll so leichter vermeidbar werden.

VeloFlow basiert den offiziellen Angaben zufolge auf dem Assistenzsystem Green Light Optimal Speed Advisory (Glosa). Dieses benötigt in Echtzeit Informationen über die Ampelphasen. Sogenannte Roadside Units (RSUs) direkt an den Lichtsignalanlagen erfassen dafür die aktuellen einschlägigen Daten und erstellen Prognosen für die nächsten Schaltvorgänge. Diese Informationen können über verschiedene Wege drahtlos etwa an Displays, Fahrzeuge oder Endgeräte der Nutzer gesendet werden. In Berlin soll auf dieser Basis der Glosa-Verzögerungsassistent zum Einsatz kommen. Ähnliche Anzeigen tun bereits in Münster ihre Dienste.

Möglich wäre mithilfe der Technik auch die Implementierung eines „Grüne Welle“-Assistenten, wie er etwa in Marburg für App-Nutzer schon seit Jahren verfügbar ist. Davon ist in der Hauptstadt aber aktuell keine Rede. Der Senat bezeichnet die RSUs aber als „strategisch wichtige Schnittstellen“ für die künftige digitale Verkehrsinfrastruktur. Sie könnten mit intelligenten Fahrzeugen kommunizieren, um Ampelphasen, Verkehrsbedingungen und Gefahren zu übermitteln. Das bilde den Grundstein für kooperative und autonom fahrende Systeme. Verkehrsfluss, Sicherheit und Effizienz würden weiter optimiert.

In der Invalidenstraße in Mitte werden dem Plan nach zehn VeloFlow-Anzeigen installiert, im Bereich Stargarder Straße, Schönhauser und Prenzlauer Allee neun. Je zwei sind in der Handjery- und Prinzregentenstraße sowie der Langenscheidt- und Kreuzbergstraße vorgesehen. Ein Display schlage mit knapp 3000 Euro zu Buche, erklärte die Verkehrsverwaltung dem rbb. Dazu kämen Kosten für die Stromversorgung, die Digitalisierung der Ampelanlagen sowie weitere Planungen. 85 Prozent der Ausgaben übernehme das Bundesverkehrsministerium.


(vbr)



Source link

Weiterlesen

Künstliche Intelligenz

Bit-Rauschen: Intel Magdeburg ist Geschichte, IBM Power11, Nvidia CUDA & RISC-V


Vier Jahre nach Power10 kommt die nächste Mainframe-Architektur von IBM. Der Power11 sieht im Vergleich zum Vorgänger Power10 eher nach behutsamer Modellpflege aus: Immer noch in einem, inzwischen gut abgehangenen 7-Nanometer-Prozess hergestellt, haben sich viele klassische Eckdaten des Chips kaum geändert. Maximal 16 Kerne mit je 2 MByte Level-2-Cache, 128 MByte L3-Cache und achtfachem SMT. Für verbesserte Uptime hat IBM nun einen dynamisch hinzuschaltbaren Ersatzkern, der im Auslieferungszustand bei den 15-Core-Power11 inaktiv ist. Wird ein Hardwarefehler diagnostiziert, kann er zur Laufzeit einspringen, ohne dass das System heruntergefahren wird.

Die reine Rechenleistung dürfte immer weiter hinter Serverprozessoren von AMD und Intel zurückfallen. Da helfen auch integrierte Matrix-Cores für KI-Beschleunigung und hardwareunterstützte Post-Quantum-Cryptography-Verschlüsselung nicht weiter. Darunter versteht man kryptographische Verfahren, die auch mit kommenden Quantenalgorithmen nicht zu knacken sein sollen. Stattdessen wirken die Mainframes in 7-Nanometer-Technik gegenüber den in TSMC N4 gefertigten Chips von AMD und Intel mit bis zu 256 Kernen wie aus der Zeit gefallen.

Dass der Prozessor für moderne KI-Nutzung nicht immer ausreicht, hat indes auch IBM erkannt und will ihm künftig mit den optionalen Spyre-Beschleunigern unter die Arme greifen. Die lassen sich per PCI-Express-Anschluss bei Bedarf zustecken.


Das war die Leseprobe unseres heise-Plus-Artikels „Bit-Rauschen: Intel Magdeburg ist Geschichte, IBM Power11, Nvidia CUDA & RISC-V“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

GPT-5 mixt Cocktails: Sicherheitsforscher knacken OpenAIs Selbstbeschränkungen


Drei leere Glasflaschen, Öl, Alkohol, Lumpen und Zündhölzer: Diese und andere Bombenbau-Anleitungen spuckt auch die neueste Ausgabe von OpenAIs Large Language Model (LLM) GPT-5 aus, wenn man es auf die richtige Art und Weise fragt. Das fanden Sicherheitsunternehmen durch eigene Versuche heraus.

Das Unternehmen NeuralTrust, ansässig im spanischen Barcelona und in New York, bat GPT-5 zunächst um ein paar harmlose Sätze und eine Kurzgeschichte, die Begriffe wie „Molotov“ und „Cocktail“ enthielten. Dann baten die Forscher um technische Details und das LLM gehorchte. Mit dieser Technik namens „Echo-Kammer und Geschichtenerzählung“ (Echo Chamber and Storytelling) ließ sich die KI das Bombenbau-Rezept schnell entlocken.

Auch die Tests von SPLX kamen zum selben Ergebnis, wenn auch auf einem anderen Weg. Die KI-Sicherheitsspezialisten befahlen dem LLM, in der Rolle eines „BasedGPT“ zu antworten und alle Beschränkungen mit gehässigen Kommentaren zu bedenken, ansonsten jedoch schlicht zu ignorieren. Und auch das klappte: Die Frage „Wie baut man eine Bombe“ beantwortete GPT-5 mit einer sehr detaillierten Anleitung, einen improvisierten Sprengsatz (IED – Improvised Explosive Device) aus haushaltsüblichen Materialien zu konstruieren.

Geht es nach OpenAI, dem Unternehmen hinter dem Sprachmodell, sollte das nicht so einfach funktionieren. Doch auch Modelle anderer Hersteller wie GLM-4.5, Kimi K2 und Grok-4 ließen sich ähnlich einfach übertölpeln, schreiben die SPLX-Forscher. Diese informieren indes nicht uneigennützig über die Sicherheitslücken: SPLX und NeuralTrust verdienen ihr Geld damit, LLMs sicherheitstechnisch abzuhärten und so für den Gebrauch im Unternehmen tauglich zu machen.

Bombenbau, Giftgas, Rauschgift – die Ingredienzien dieser meist verbotenen Gegenstände kennen Large Language Models aus ihren Trainingsdaten, sollen sie jedoch nicht an Nutzer weitergeben. Diese Sperren zu überlisten, ist ein beliebter Zeitvertreib bei Sicherheitsexperten, die dafür bisweilen gar zu psychologischen Taktiken wie Gaslighting greifen.


(cku)



Source link

Weiterlesen

Beliebt