Connect with us

Künstliche Intelligenz

Zoom: Videokonferenzsoftware ermöglicht Angreifern Rechteausweitung


In der Videokonferenzsoftware Zoom wurden mehrere Sicherheitslücken entdeckt. Sie gelten zum Teil als kritisch und erlauben unter anderem Angreifern aus dem Netz, ihre Rechte auszuweiten. Updates stehen bereit.

Weiterlesen nach der Anzeige

Eine Lücke betrifft die Mail-Funktion von Zoom Workplace für Windows, die aufgrund externer Kontrolle eines Dateinamens oder -pfads Angreifern aus dem Netz ohne vorherige Authentifizierung die Ausweitung ihrer Rechte ermöglicht (CVE-2026-30903, CVSS 9.6, Risiko „kritisch“). Unzureichendes Rechtemanagement in einigen Zoom-Clients für Windows ermöglicht angemeldeten Nutzern, ihre lokalen Zugriffsrechte auszuweiten (CVE-2026-30902, CVSS 7.8, Risiko „hoch“). Dasselbe kann aufgrund einer unzureichenden Prüfung auf eine Mindestversion in der Update-Funktion in Zoom-Clients für Windows passieren (CVE-2026-30900, CVSS 7.8, Risiko „hoch“).

Eine vierte Sicherheitslücke ermöglicht authentifizierten Angreifern mit lokalem Zugriff die Ausweitung der Rechte aufgrund unzureichender Überprüfung in Zoom Rooms für Windows im Kiosk-Modus (CVE-2026-30901, CVSS 7.0, Risiko „hoch“). Genauere Details zu den Schwachstellen nennt Zoom nicht.

Die sicherheitsrelevanten Fehler haben die Entwickler in den Versionen Zoom Workplace für Windows 6.6.11, Zoom Workplace VDI Client für Windows 6.4.17, 6.5.15 und 6.6.10, Zoom Meeting SDK for Windows 6.6.11 sowie Zoom Rooms für Windows 6.6.5 und neueren korrigiert. Die jüngsten Fassungen finden sich im Download-Portal auf der Zoom-Webseite. Aber auch der Aufruf von winget upgrade --all an der Eingabeaufforderung sollte die bereitstehenden Zoom-Updates (und weitere) in Windows finden, sie herunterladen und installieren.

Ende Januar mussten die Zoom-Entwickler Sicherheitslücken in den Zoom-Node-Servern schließen. Die hätten Angreifer als Ansatzpunkt für Schadcode-Angriffe missbrauchen können.


(dmk)



Source link

Künstliche Intelligenz

Metas KI-Beschleuniger sollen 2027 Nvidia & Co. überholen


Der KI-Beschleuniger MTIA 300 läuft bereits produktiv in Meta-Rechenzentren; jetzt stellt Meta auch MTIA 400 vor, der die Labortests abgeschlossen hat und kurz vor dem Feldeinsatz steht. Das ist noch nicht alles: Bereits 2027 will Meta zwei weitere Generationen in seine Rechenzentren bringen und in manchen Anwendungsfällen KI-Beschleuniger etwa von AMD und Nvidia abhängen.

Weiterlesen nach der Anzeige

MTIA steht zwar für „Meta Training and Inference Accelerator“, allerdings will sich Meta laut Ankündigung künftig auf Inferenz fokussieren. Dabei führen die Chips bereits trainierte KI-Modelle aus, etwa um Chatanfragen von Nutzern zu beantworten. Meta nennt Inferenz für generative KI als wichtigstes Einsatzgebiet seiner Chips. MTIA 400 soll der letzte „allgemeine“ Beschleuniger ohne diesen Fokus darstellen.

Der MTIA 400 besteht aus insgesamt fünf Chiplets plus vier Speicherstapeln vom Typ High-Bandwidth Memory (HBM; die Generation nennt Meta nicht konkret). In den zwei größten Chiplets sitzen die Rechenwerke. Ein sogenanntes Processing Element (PE) setzt auf zwei RISC-V-Kerne zur Verwaltung. Sie führen Code aus und lagern bestimmte Aufgaben über einen Command-Prozessor an spezialisierte Schaltkreise aus, können über ihre Vektoreinheiten aber auch selbst SIMD-artig (Single-Instruction-Multiple-Data) rechnen.


MTIA 300

(Bild:

Meta

)

Dazu gesellen sich Matrix-Einheiten (Dot Product Engines), Reduction Engines für die Akkumulationsrechnungen und Kommunikation mit anderen PEs, sowie DMA Engines (Direct Memory Access) für Datenbewegungen. Jede PE hat lokalen Cache, zudem teilen sich alle PEs einen gemeinsamen SRAM-Cache. In diesen Compute-Chiplets sitzen zudem die Speicher-Controller für das HBM.

In zwei weiteren Chiplets sitzen Netzwerk-Controller für insgesamt zwölf 800-Gbit/s-Verbindungen, über die Meta bis zu 72 KI-Beschleuniger aneinanderkoppelt. Ein System-on-Chip-Die enthält unter anderem PCI-Express-Controller und einen übergeordneten Control Core Processor (CCP) aus mehreren RISC-V-Kernen zur Ansteuerung des gesamten KI-Beschleunigers.

Ein MTIA 400 nimmt 1200 Watt auf, kommt mit 288 GByte HBM und schafft 12 Billiarden vierbittige Gleitkomma-Operationen pro Sekunde (12 FP4-Petaflops). Metas MX4-Angabe bezieht sich auf die sogenannten Microscaling Formats, die das Open Compute Project (OCP) aufbauend auf FP4 spezifiziert.

Weiterlesen nach der Anzeige



Spezifikationen der Meta-KI-Beschleuniger.

(Bild: Meta)

Der MTIA 450 verwendet überarbeitete Compute-Chiplets und schnelleres HBM. Die Verdoppelung der Übertragungsrate auf 18,4 TByte/s bei gleichbleibender Kapazität von 288 GByte spricht für eine neue Generation, womöglich HBM4.

Meta will hier vor allem die FP4-Geschwindigkeit steigern. Die Rede ist von 21 Petaflops, ein Plus von 75 Prozent. Die elektrische Leistungsaufnahme steigt um 17 Prozent auf 1400 Watt. Ab Anfang 2027 soll der MTIA 450 einsatzbereit sein.

Später im Jahr 2027 folgt der MTIA 500. Meta visiert ein Performance-Plus von über 40 Prozent an. Die Compute-Chiplets sind ab da vier- statt zweigeteilt. Zudem steigt die Speicherkapazität auf 384 bis 512 GByte; die Übertragungsrate auf 27,6 TByte/s. Meta visiert dafür ein Energiebudget von 1700 Watt an.



Ein kompletter Server mit 72 KI-Beschleunigern von Meta.

(Bild: Meta)

Mit dem Chiplet-Ansatz will Meta gezielt die Entwicklung neuer KI-Beschleuniger verkürzen. Auch die restliche Hardware drumherum ist auf schnelle Wechsel ausgelegt: Alle vier Generationen sollen in denselben Servern laufen. So möchte Meta den schnellen Fortschritten in der KI-Entwicklung entgegenkommen. KI-Beschleuniger anderer Firmen will der Konzern trotzdem weiterhin einsetzen.

Broadcom hilft Meta bei den Designs, wie auch vielen anderen Hyperscalern bei ihren KI-Beschleunigern. Zu den Strukturbreiten äußert sich Meta nicht; 2- oder 3-Nanometer-Fertigungstechnik von TSMC erscheint allerdings logisch.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

Marktforschung: YouTube löst Disney als weltgrößten Medienkonzern ab


YouTube löst laut einer Analyse von MoffettNathanson nun Disney als weltgrößten Medienkonzern ab, zumindest gemessen an dem jährlichen Umsatz. YouTube hat 2025 demnach einen geschätzten Jahresumsatz von 62 Milliarden US-Dollar verzeichnet, wie The Hollywood Reporter unter Berufung auf das Finanzforschungsunternehmen berichtet. The Walt Disney Company habe hingegen nur 60,9 Milliarden US-Dollar umgesetzt, die eigenen Parks und Resorts nicht eingerechnet.

Weiterlesen nach der Anzeige

Über 40 Milliarden US-Dollar hat YouTube demnach allein durch Werbeeinnahmen generiert. Die restlichen Einnahmen seien auf die Dienste YouTube Premium, YouTube Music, YouTube TV und das Sportangebot NFL Sunday Ticket zurückzuführen, erklärt The Hollywood Reporter weiter. Wäre YouTube ein eigenes Unternehmen, hätte es jetzt einen Wert von 500 bis 560 Milliarden US-Dollar. Im vergangenen Jahr hätte MoffettNathanson YouTubes Wert noch auf 475 bis 550 Milliarden US-Dollar geschätzt.

Bereits im Februar dieses Jahres hatte Alphabet – die Mutterfirma der Videoplattform – bekannt gegeben, dass YouTubes Jahresumsatz 2025 60 Milliarden US-Dollar überstiegen hätte, ohne jedoch eine genauere Zahl zu nennen.

Um den Umsatz durch Werbung weiter zu erhöhen, hatte Google seine Werbekundinnen und -kunden zudem kürzlich darüber informiert, dass in der YouTube-App auf Fernsehgeräten künftig 30-sekündige, nicht überspringbare Werbespots laufen sollen. In den USA wird YouTube auf keinem anderen Gerät so häufig konsumiert wie auf dem Fernseher.


(mho)



Source link

Weiterlesen

Künstliche Intelligenz

Interview zu PV-Speichern: Effizienzfallen und Tücken beim Laden mit Netzstrom


Die Preise für Batteriemodule sinken, weshalb Eigenheimbesitzer zunehmend Heimspeicher mit Kapazitäten von 15 bis 20 Kilowattstunden (kWh) in Betracht ziehen. Gleichzeitig verändern regulatorische Rahmenbedingungen, wie das Solarspitzengesetz und die wachsende Verbreitung dynamischer Stromtarife, die Anforderungen an die Systeme. Es geht längst nicht mehr nur darum, überschüssigen Solarstrom für die Nacht zu speichern.

Vielmehr rückt die intelligente Be- und Entladung aus dem Stromnetz in den Fokus, um von Preisschwankungen zu profitieren. Doch dabei entscheiden technische Parameter wie Teillastwirkungsgrade, Stand-by-Verbrauch und Einschwingzeiten über die tatsächliche Wirtschaftlichkeit der Anlagen.

  • Sinkende Modulpreise machen große Heimspeicher ab 15 Kilowattstunden zunehmend interessant.
  • Das Beladen des Speichers mit günstigem Netzstrom über dynamische Tarife lohnt sich nur, wenn der Gesamtwirkungsgrad des Systems hoch genug ist, um die teuren Umwandlungsverluste auszugleichen.
  • Träge Reaktionszeiten bei Lastwechseln und ein hoher Stand-by-Verbrauch können die Wirtschaftlichkeit eines Heimspeichers drücken.
  • Die Datenblätter der Hersteller sind oft nicht vergleichbar, da der Maßstab für einheitliche Kennzahlen oft noch nicht eingehalten wird. Eine neue Datenblattnorm DIN VDE V 0510-200 könnte Abhilfe schaffen.
  • Geplante Neuregelungen der Bundesnetzagentur (MiSpeL) zur Speichernutzung könnten künftig die staatliche Förderung für eingespeisten Strom pauschal deckeln, was vor allem Betreiber großer Anlagen mit geringem Eigenverbrauch benachteiligt.

Dr.-Ing. Johannes Weniger, von der HTW-Berlin-Ausgründung Aquu, ist der Initiator der Stromspeicher-Analyse, die seit 2018 die Effizienz aktueller Speichersysteme analysiert. Im Interview erklärt er, worauf Käufer bei Heimspeichern achten müssen, ab wann sich das Laden aus dem Netz rechnen kann und warum AC-gekoppelte Systeme (mit eigenem Batteriewechselrichter) für bestimmte Einsatzzwecke wieder interessant werden.


Das war die Leseprobe unseres heise-Plus-Artikels „Interview zu PV-Speichern: Effizienzfallen und Tücken beim Laden mit Netzstrom“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt