Connect with us

Künstliche Intelligenz

Pure Storage: Neue Systeme, neue Software und neue Märkte


Pure Storage hat auf seiner jüngsten Kundenveranstaltung Accelerate eine ganze Reihe an Neuheiten und Produkterweiterungen vorgestellt. Im Mittelpunkt stand dabei die Enterprise Data Cloud (EDC). Das ist eine Weiterentwicklung ihrer Architektur, bestehend aus FlashArray und FlashBlade sowie einem intelligenten Control-Plane, zu dem Fusion, Pure1 und der AI-Copilot gehören.

Zweck ist es, die Daten aus dieser Infrastruktur in einer virtualisierten Daten-Cloud zu vereinheitlichen. Zur Veranschaulichung verweist man auf die Storage-Nutzung in einer Public Cloud, wo mit wenigen Eingaben und Klicks die erforderlichen Storage-Anforderungen definiert werden und dann ein virtueller Speicher zugewiesen wird – ohne dass der Nutzer die physischen und technischen Details kennt. Mit EDC soll das ähnlich einfach möglich sein.

„In Kombination mit dem AI-Copiloten, der auch die Speicheroptimierung unterstützt, kommt EDC der Storage-Provisionierung eines Hyperscalers sehr nahe“, so Pure Storage. Die EDC-Plattform bietet auch eine weitreichende Automatisierung, beispielsweise in Form von Storage-as-Code und einer API-Anbindung.

Das Herzstück ist die Software Pure Fusion, mit der alle Speichereinheiten zu einem Ressourcen-Pool vereint werden. Sie ist nativ in die Arrays integriert, sodass sich diese selbst anmelden und direkt ansprechbar sind. Damit soll eine größere Storage-Flotte entstehen, ohne dass übergeordnete Konfigurationen durch einen Administrator erforderlich sind. Diese Storage-Flotte kann laut Pure Storage dann an jedem Storage-System, also an jedem Endpunkt verwaltet werden.

Des Weiteren verfügt Pure Fusion über Voreinstellungen und Remote-Bereitstellungen für File-, Block- und Object-Services in der gesamten Flotte. Das soll mehr Flexibilität bei der Anpassung an die spezifischen Anforderungen einzelner Workloads schaffen, da erforderliche Bereitstellungen nicht mehr im Voraus geplant werden müssen. Diese Voreinstellungen basieren auf Telemetrie-Daten von Drittanbietern wie Cisco, Microsoft, VMware, ServiceNow und Slack.

Kunden können diese Voreinstellungen übernehmen oder eigene Einstellungen für ihre Umgebung erstellen. Alternativ können sie Partner-Einstellungen zur Automatisierung von Anwendungen und Infrastrukturen nutzen.

Der zweite große Ankündigungsbereich betraf Pure Storage FlashArray und Pure Storage FlashBlade. Bei beiden gibt es jetzt neue Systeme mit mehr Speichervolumen und schnelleren Zugriffen. Das neue Pure Storage FlashArray//XL R5 bietet die doppelte Anzahl IOPS pro Array und die Rohkapazität wurde um 50 Prozent erhöht. Das Pure Storage FlashBlade//S R2 ist die neueste Version der File- und Object-Array-Reihe und erhält jetzt leistungsstärkere Controller-Blades.

Außerdem kommt FlashArray//ST auf den Markt. Das ist eine neue Blockspeicher-Reihe, die mit ihren Performance-Daten vor allem In-Memory-Datenbanken, Log-Writing und Scale-Out-NoSQL-Datenbanken unterstützt. Für die Datensicherung stehen Snapshots und Replikationsfunktionen zur Verfügung.

Pure Storage stellte zudem weitere Partnerschaften vor. Die neuen Kooperationen mit Rubrik und CrowdStrike sollen die Plattform um bessere Funktionen zur Bedrohungserkennung und -protokollierung erweitern. Die Zusammenarbeit mit CrowdStrike zielt insbesondere darauf ab, den ersten validierten und abgesicherten On-Premises-Speicher für CrowdStrike LogScale bereitzustellen. Damit soll sichergestellt werden, dass langfristige Protokolldaten sicher aufbewahrt werden können und diese auch immer verfügbar und sofort durchsuchbar sind.

Die neue Strategie wird von den Analysten unterschiedlich bewertet. „Mit EDC verfolgt Pure Storage einen Ansatz, der sich auf das Datenmanagement konzentriert“, sagt Simon Robinson, Analyst bei der Enterprise Strategy Group. Er sieht darin viel Potenzial. „Die Integration von Storage in die übergeordnete IT-Struktur ist nach wie vor eine der größten Herausforderungen im Speichermanagement der Unternehmen“, so Robinson weiter. Doch ob sich Pure Storage damit gegen die Etablierten behaupten kann, bleibt abzuwarten.

Vor allem im Vergleich mit NetApp gilt Pure Storage nicht bei jedem als vorteilhaft. „Die von NetApp bereitgestellten Datenmanagementfunktionen erscheinen im Vergleich zum EDC-Angebot umfangreicher“, sagt Brent Ellis, Analyst bei Forrester Research. „EDC ermöglicht zwar ein nahtloses Speichermanagement, insbesondere bei der Verwaltung der Geräteflotte. Doch es bietet nicht die Funktionen, die NetApp im vergangenen Herbst mit der universellen Metadatenschicht und den globalen Namespace-Erweiterungen für OnTap angekündigt hat“, so Ellis weiter.

Ray Lucchesi, Gründer und Präsident von Silverton Consulting, sieht noch ein weiteres Problem: „Eine einheitliche Storage-Architektur ist auf jeden Fall nützlich, doch die meisten Kunden benötigen für ihren Object-Storage-Bedarf keinen Flash-Speicher, mit herkömmlichen Festplatten vor Ort oder aus der Cloud werden eher die gewünschte Größe und Preisklasse erreichen“, lautet seine Einschätzung.


(axk)



Source link

Künstliche Intelligenz

VeloFlow: Berlin testet Fahrrad-Ampel mit Erreichbarkeitsprognose


Dieses System soll Frust an Ampeln bei Radfahrern in Berlin sowie potenzielle Rotlichtverstöße reduzieren: Die Senatsverkehrsverwaltung der Hauptstadt hat angekündigt, eine VeloFlow getaufte Lösung an zunächst 23 Signallichtanlagen von September an testen zu wollen. Es handelt sich um digitale Anzeigen etwa unter Parkverbotsschildern, die Radfahrer rund 200 Meter vor einer Kreuzung darüber informieren, ob sie die nächste Ampel bei einer Geschwindigkeit von etwa 20 Kilometer in der Stunde bei Grün oder Rot erreichen werden.

Die Funktionsweise von VeloFlow ist laut dem Senat relativ einfach: Ein Fahrrad-Symbol auf dem Display signalisiert, ob die Ampelphase bei gleichbleibendem Tempo Grün oder Rot sein wird. Befindet sich das stilisierte Rad im grünen Bereich, können vorbeikommende Radler davon ausgehen, dass sie die Ampel bei freier Fahrt passieren können. Zeigt das Symbol den roten Bereich, deutet dies auf eine bevorstehende Rotphase hin. Das soll es Velofahrern ermöglichen, ihr Tempo vorausschauend anzupassen – entweder durch eine leichte Beschleunigung oder durch langsames Ausrollen. Abruptes Bremsen oder ein Passieren der Ampel bei Rot soll so leichter vermeidbar werden.

VeloFlow basiert den offiziellen Angaben zufolge auf dem Assistenzsystem Green Light Optimal Speed Advisory (Glosa). Dieses benötigt in Echtzeit Informationen über die Ampelphasen. Sogenannte Roadside Units (RSUs) direkt an den Lichtsignalanlagen erfassen dafür die aktuellen einschlägigen Daten und erstellen Prognosen für die nächsten Schaltvorgänge. Diese Informationen können über verschiedene Wege drahtlos etwa an Displays, Fahrzeuge oder Endgeräte der Nutzer gesendet werden. In Berlin soll auf dieser Basis der Glosa-Verzögerungsassistent zum Einsatz kommen. Ähnliche Anzeigen tun bereits in Münster ihre Dienste.

Möglich wäre mithilfe der Technik auch die Implementierung eines „Grüne Welle“-Assistenten, wie er etwa in Marburg für App-Nutzer schon seit Jahren verfügbar ist. Davon ist in der Hauptstadt aber aktuell keine Rede. Der Senat bezeichnet die RSUs aber als „strategisch wichtige Schnittstellen“ für die künftige digitale Verkehrsinfrastruktur. Sie könnten mit intelligenten Fahrzeugen kommunizieren, um Ampelphasen, Verkehrsbedingungen und Gefahren zu übermitteln. Das bilde den Grundstein für kooperative und autonom fahrende Systeme. Verkehrsfluss, Sicherheit und Effizienz würden weiter optimiert.

In der Invalidenstraße in Mitte werden dem Plan nach zehn VeloFlow-Anzeigen installiert, im Bereich Stargarder Straße, Schönhauser und Prenzlauer Allee neun. Je zwei sind in der Handjery- und Prinzregentenstraße sowie der Langenscheidt- und Kreuzbergstraße vorgesehen. Ein Display schlage mit knapp 3000 Euro zu Buche, erklärte die Verkehrsverwaltung dem rbb. Dazu kämen Kosten für die Stromversorgung, die Digitalisierung der Ampelanlagen sowie weitere Planungen. 85 Prozent der Ausgaben übernehme das Bundesverkehrsministerium.


(vbr)



Source link

Weiterlesen

Künstliche Intelligenz

Bit-Rauschen: Intel Magdeburg ist Geschichte, IBM Power11, Nvidia CUDA & RISC-V


Vier Jahre nach Power10 kommt die nächste Mainframe-Architektur von IBM. Der Power11 sieht im Vergleich zum Vorgänger Power10 eher nach behutsamer Modellpflege aus: Immer noch in einem, inzwischen gut abgehangenen 7-Nanometer-Prozess hergestellt, haben sich viele klassische Eckdaten des Chips kaum geändert. Maximal 16 Kerne mit je 2 MByte Level-2-Cache, 128 MByte L3-Cache und achtfachem SMT. Für verbesserte Uptime hat IBM nun einen dynamisch hinzuschaltbaren Ersatzkern, der im Auslieferungszustand bei den 15-Core-Power11 inaktiv ist. Wird ein Hardwarefehler diagnostiziert, kann er zur Laufzeit einspringen, ohne dass das System heruntergefahren wird.

Die reine Rechenleistung dürfte immer weiter hinter Serverprozessoren von AMD und Intel zurückfallen. Da helfen auch integrierte Matrix-Cores für KI-Beschleunigung und hardwareunterstützte Post-Quantum-Cryptography-Verschlüsselung nicht weiter. Darunter versteht man kryptographische Verfahren, die auch mit kommenden Quantenalgorithmen nicht zu knacken sein sollen. Stattdessen wirken die Mainframes in 7-Nanometer-Technik gegenüber den in TSMC N4 gefertigten Chips von AMD und Intel mit bis zu 256 Kernen wie aus der Zeit gefallen.

Dass der Prozessor für moderne KI-Nutzung nicht immer ausreicht, hat indes auch IBM erkannt und will ihm künftig mit den optionalen Spyre-Beschleunigern unter die Arme greifen. Die lassen sich per PCI-Express-Anschluss bei Bedarf zustecken.


Das war die Leseprobe unseres heise-Plus-Artikels „Bit-Rauschen: Intel Magdeburg ist Geschichte, IBM Power11, Nvidia CUDA & RISC-V“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

GPT-5 mixt Cocktails: Sicherheitsforscher knacken OpenAIs Selbstbeschränkungen


Drei leere Glasflaschen, Öl, Alkohol, Lumpen und Zündhölzer: Diese und andere Bombenbau-Anleitungen spuckt auch die neueste Ausgabe von OpenAIs Large Language Model (LLM) GPT-5 aus, wenn man es auf die richtige Art und Weise fragt. Das fanden Sicherheitsunternehmen durch eigene Versuche heraus.

Das Unternehmen NeuralTrust, ansässig im spanischen Barcelona und in New York, bat GPT-5 zunächst um ein paar harmlose Sätze und eine Kurzgeschichte, die Begriffe wie „Molotov“ und „Cocktail“ enthielten. Dann baten die Forscher um technische Details und das LLM gehorchte. Mit dieser Technik namens „Echo-Kammer und Geschichtenerzählung“ (Echo Chamber and Storytelling) ließ sich die KI das Bombenbau-Rezept schnell entlocken.

Auch die Tests von SPLX kamen zum selben Ergebnis, wenn auch auf einem anderen Weg. Die KI-Sicherheitsspezialisten befahlen dem LLM, in der Rolle eines „BasedGPT“ zu antworten und alle Beschränkungen mit gehässigen Kommentaren zu bedenken, ansonsten jedoch schlicht zu ignorieren. Und auch das klappte: Die Frage „Wie baut man eine Bombe“ beantwortete GPT-5 mit einer sehr detaillierten Anleitung, einen improvisierten Sprengsatz (IED – Improvised Explosive Device) aus haushaltsüblichen Materialien zu konstruieren.

Geht es nach OpenAI, dem Unternehmen hinter dem Sprachmodell, sollte das nicht so einfach funktionieren. Doch auch Modelle anderer Hersteller wie GLM-4.5, Kimi K2 und Grok-4 ließen sich ähnlich einfach übertölpeln, schreiben die SPLX-Forscher. Diese informieren indes nicht uneigennützig über die Sicherheitslücken: SPLX und NeuralTrust verdienen ihr Geld damit, LLMs sicherheitstechnisch abzuhärten und so für den Gebrauch im Unternehmen tauglich zu machen.

Bombenbau, Giftgas, Rauschgift – die Ingredienzien dieser meist verbotenen Gegenstände kennen Large Language Models aus ihren Trainingsdaten, sollen sie jedoch nicht an Nutzer weitergeben. Diese Sperren zu überlisten, ist ein beliebter Zeitvertreib bei Sicherheitsexperten, die dafür bisweilen gar zu psychologischen Taktiken wie Gaslighting greifen.


(cku)



Source link

Weiterlesen

Beliebt