Connect with us

Künstliche Intelligenz

Meta kauft für 10 Milliarden bei Google ein


Für mindestens zehn Milliarden Dollar will Meta in den nächsten sechs Jahren Cloud-Services bei Google einkaufen. Das Der Deal ist die erste formelle Übereinkunft zwischen den beiden konkurrierenden Internet-Riesen beim Cloudcomputing und zeigt, dass es Meta im KI-Rennen vor allem um Geschwindigkeit geht. Meta betreibt schon rund zwei Dutzend Rechenzentren selbst und lässt weitere bauen, unter anderem eines mit einem Stromverbrauch von zwei Gigawatt und einer Fläche, die halb so groß ist wie Manhattan.

Doch bis das fertig ist, worüber Bloomberg und Reuters unter Berufung auf zuverlässige Quellen berichten, könnte es Mark Zuckerberg offenbar schon zu spät sein. Denn er hat sich das Ziel gesetzt, das Unternehmen zu sein, das jedem seiner KI-Experten die größte Rechenleistung zur Verfügung stellt.

Google gelingt es zunehmend, trotz eigener großer Sprachmodelle und damit in direkter Konkurrenz, dennoch als Dienstleister und Provider für Rechenleistung und Infrastruktur für die anderen Schwergewichte der KI-Welt aufzutreten. Im Mai hatte Google eine ähnliche Vereinbarung mit OpenAI geschlossen, das damit seine Abhängigkeit von Microsofts Azure-Infrastruktur reduzieren kann.

Dennoch sind solche Vereinbarungen für Google aus zwei Gründen nicht unproblematisch. Erstens bedrohen Chatbots das Suchmaschinengeschäft direkt. Website-Betreiber sind zunehmend verärgert über ausbleibenden Traffic, etwa aufgrund von Google KI-Zusammenfassung selbst oder direkter Chatbot-Abfragen. Zweitens könnte Google am Ende die Rechenleistung fehlen, um seine eigenen Gemini-Modelle weiterzuentwickeln.

Meta wiederum braucht schnelle Erfolge, denn bei Code-Entwicklung und beim Reasoning gelten die (halb)-offenen Llama-LLMs nicht mehr unbedingt als erste Wahl. Deswegen hatte der Konzern bis vor kurzem mit aggressiven Methoden und extremen Gehaltsangeboten KI-Experten bei den Mitbewerbern abgeworben. OpenAI-Chef Sam Altman beschwerte sich, dass Meta Wechselprämien von bis zu 100 Millionen Dollar biete. Jetzt wurde aber erst einmal die Reißleine gezogen und Neueinstellungen gestoppt um, die Teams zur Entwicklung einer „Superintelligenz“ zum produktiven Arbeiten zu bringen.


(ulw)



Source link

Künstliche Intelligenz

c’t-Webinar: Wärmepumpentechnik für Einsteiger | heise online


Wärmepumpen gelten als vielversprechende Alternative zu konventionellen Heizungen. Sie senken den CO2-Ausstoß und können steigende Heizkosten abfedern. Trotzdem zögern viele Hausbesitzer, auf diese Technik umzusteigen. Oft führen sie Zweifel an der Eignung für ältere Gebäude oder Bedenken hinsichtlich der Effizienz ohne Fußbodenheizung an. Die Sorge vor hohen Anschaffungskosten schreckt zudem viele abb.

Das c’t-Webinar bietet eine herstellerunabhängige Einführung in die Wärmepumpentechnik und unterstützt bei der Machbarkeitsbewertung. c’t-Redakteur Georg Schnurer erläutert, wie verschiedene Wärmepumpentypen funktionieren und welche Schritte nötig sind, um zu beurteilen, ob sich diese Heiztechnik für das eigene Haus oder die Wohnung eignet.

Die Veranstaltung richtet sich an Einsteiger ohne Vorwissen zur Wärmepumpentechnik. Schnurer geht auf gängige Vorurteile ein und beleuchtet technische Grenzen. Er erklärt, was die oft erwähnte Effizienz im Zusammenhang mit Wärmepumpen bedeutet und wie sich diese Heiztechnik gewinnbringend mit Photovoltaikanlagen verknüpfen lässt. Zudem widmet sich der Referent der Frage, welche Einbaukosten man ungefähr einplanen muss.

Das rund zweistündige Webinar vermittelt die erforderlichen Grundlagen, um Angebote von Heizungsbauern besser einordnen zu können. In einer 45-minütigen Fragerunde im Anschluss beantwortet der Referent offene Fragen. Eine individuelle Beratung durch einen Energieexperten ersetzt die Veranstaltung jedoch nicht, da die Entscheidung für oder gegen eine Wärmepumpe stets eine umfassende Gebäudeanalyse voraussetzt.

Der Crashkurs findet am 6. Oktober 2025 von 17:00 bis 20:00 Uhr online statt. Frühbucher erhalten bis zum 18. September ein vergünstigtes Ticket zum Preis von 59,00 Euro. Ein aktueller Browser reicht für den Livestream aus. Weitere Informationen zur Veranstaltung und zur Anmeldung finden Sie auf der heise academy Seite zum Webinar.


(abr)



Source link

Weiterlesen

Künstliche Intelligenz

GPT-5 im Agenten-Test | heise online


Die großen Leistungssprünge bei den großen Sprachmodellen (Large Language Models, LLMs) sind vorerst vorbei. Stattdessen verschiebt sich der Fokus vom bloßen Hochskalieren der Modelle hin zu Optimierung und Produktintegration. Sprachmodelle werden nicht mehr nur als statische Wissensspeicher verstanden, sondern entwickeln sich zu aktiven Agenten, bei der Sprachmodelle als Orchestratoren komplexe Aufgaben in Teilschritten lösen. Die LLMs sprechen gezielt Schnittstellen an, rufen Daten aus externen Quellen ab, rechnen und integrieren die Ergebnisse in ihren Antworten. Dieser Artikel stellt die Fähigkeiten von GPT-5 im Vergleich zu den bisherigen Spitzenreitern im speziell auf agentische Fähigkeiten ausgelegten tau2-Benchmark auf die Probe.

  • Der GPT-5-Release zeigt: Große Leistungssprünge weichen Optimierung und Produktintegration. GPT-5 fokussiert präzisen Tool-Use und höhere Steuerbarkeit für agentische Anwendungen.
  • Bisher galt Anthropics Sonnet 4 als bestes Modell für agentische KI-Workflows: Das saubere Einhalten von Anweisungen und eine niedrige Fehlerquote überzeugten trotz hoher Kosten.
  • Mit Kimi K2 und GPT-5 reichen zwei neue Modelle in Anbieter-Benchmarks an Sonnet 4 heran. Mit einem selbst durchgeführten Benchmark überprüft iX die Angaben.
  • Im tau2-Benchmarkt überholt GPT‑5 Sonnet 4, doch Opus 4.1 bleibt mit höchster Genauigkeit Spitzenreiter – bei den höchsten Kosten. Reasoning steigert die Erfolgsquote, erhöht aber die Kosten und die Laufzeit.

Denn bisher haben Modelle wie Anthopics Claude Sonnet 4 die Nase vorn: weniger aufgrund einer höheren Intelligenz, sondern durch präzises Einhalten von Funktionssignaturen und einer niedrigen Fehlerquote im Tool Use und der Codegenerierung. Das verschafft ihnen im Unternehmen einen klaren Vorteil, insbesondere bei der Softwareentwicklung, wo das Code-Generieren und der Einsatz von Werkzeugen in LLM-basierten Entwicklungsumgebungen Hand in Hand gehen.


Die Ergebnisse des tau2-Benchmarks (Retail) machen deutlich, dass zusätzliche Reasoning-Fähigkeiten zu einer höheren Genauigkeit führen. Insgesamt zeigt sich: GPT-5 hat Sonnet 4.1 im Agenten-Check überholt, doch Claude Opus bleibt weiterhin an der Spitze – im Reasoning-Modus mit Abstand (Abb. 3).,

Die Ergebnisse des tau2-Benchmarks (Retail) machen deutlich, dass zusätzliche Reasoning-Fähigkeiten zu einer höheren Genauigkeit führen. Insgesamt zeigt sich: GPT-5 hat Sonnet 4.1 im Agenten-Check überholt, doch Claude Opus bleibt weiterhin an der Spitze – im Reasoning-Modus mit Abstand (Abb. 3).,

Die Ergebnisse des tau2-Benchmarks (Retail) von iX machen deutlich, dass zusätzliche Reasoning-Fähigkeiten zu einer höheren Genauigkeit führen. Insgesamt zeigt sich: GPT-5 hat Sonnet 4 im Agenten-Check überholt, doch Claude Opus bleibt weiterhin an der Spitze – im Reasoning-Modus mit Abstand.

(Bild: Danny Gerst)

Ein Bericht der Venture-Capital-Gesellschaft Menlo Ventures vom Juli 2025 stützt diese Beobachtung. Demzufolge nutzen in Unternehmen 32 Prozent der API-Nutzer Modelle von Anthropic, nur 25 Prozent auf von OpenAI. Bei OpenRouter – der Anbieter ermöglicht den Zugriff auf verschiedene Sprachmodelle über eine einheitliche Schnittstelle – fällt das Bild noch deutlicher aus: Dort ist Sonnet mit großem Abstand das meistgenutzte Modell, während OpenAI in den Top Ten überhaupt nicht vertreten ist.


Das war die Leseprobe unseres heise-Plus-Artikels „GPT-5 im Agenten-Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

SSD-Ausfälle durch Windows-Update: Silicon Motion nicht betroffen


Das Schreiben großer Datenmengen soll nach dem letzten Windows-Update KB5063878 bei einigen SSDS zu Ausfällen geführt haben, schrieben einige japanische Medien. Auch Heise-Foristen berichteten von Ausfällen. Microsoft untersucht das Problem, hat sich aber bislang noch nicht näher dazu geäußert.

Nach großen Datentransfers, die Rede ist vom Schreiben von Datenmengen oberhalb von etwa 50 GByte, sollen die Datenträger häufig nicht mehr ansprechbar sein und aus der Laufwerksübersicht verschwinden. Nach einem Neustart soll das Problem in den meisten Fällen behoben sein, es gibt jedoch vereinzelte Berichte über dauerhaft unbrauchbare SSDs. Es soll zudem auch Berichte über Ausfälle von Festplatten geben.

Betroffen sind nach den Untersuchungen eines japanischen Nutzers vor allem SSDs mit Phison-Controllern sowie Modelle von Western Digital, SK Hynix, Crucial, HP und XPG/Adata, die andere Controller verwenden.

Nun meldet sich der SSD-Hersteller Silicon Motion. In einer Stellungnahme an das amerikanische Magazin Techpowerup schreibt das Unternehmen, dass bisher keiner seiner SSD-Controller vom Windows 11-Update-Fehler betroffen sei. Interessant daran ist vor allem, dass Silicon Motion das Problem als Windows-Bug bezeichnet.

Im Internet kursiert zudem eine Liste betroffener Phison-Controller. Diese stammt jedoch nicht von Phison, wie das Unternehmen mitteilte. Phison will gegen den Urhaber der Liste auch rechtliche Schritte einleiten.

Phison steht zudem mit Microsoft in Kontakt, um das Problem einzugrenzen, und will bei Bedarf Firmware-Updates zur Verfügung stellen. Weitere Details hat das Unternehmen jedoch noch nicht veröffentlicht.

Das Windows-Update behebt laut Microsoft Sicherheitsprombleme. Wir raten daher von einer Deinstallation des Updates ab. Stattdessen sollten Nutzer bis zur einer Klärung des Problems das Kopieren großer Datenmengen vermeiden.


(ll)



Source link

Weiterlesen

Beliebt