Künstliche Intelligenz
„Hey Copilot“ – Windows 11 bekommt lokale KI-Agenten
In einem aktuellen Blogbeitrag hat Microsofts Marketingchef Yusuf Mehdi angekündigt, dass künftig „jeder Windows-11-PC ein KI-PC“ werden soll. Am schnellsten soll das zwar weiterhin mit einem „Copilot+“-PC laufen, aber neuronale Rechenwerke sind nicht mehr zwingend nötig. Kern dieser neuen Strategie bleibt Copilot, mit dem Benutzer zukünftig vermehrt per Spracheingabe interagieren sollen. Für Teilnehmer am Windows-Insider-Programm sollen die neuen Funktionen demnächst in den „Copilot Labs“ verfügbar sein. Sie sollen sämtlich per Opt-In freigeschaltet werden müssen und sind auch danach noch abschaltbar.
Weiterlesen nach der Anzeige
Das gilt auch für das Zuhören per „Copilot Voice“. Hat man diese Funktion aktiviert, so wartet der PC auf „Hey Copilot“ und nimmt dann Anweisungen entgegen. Diese sollen, ebenso wie bei Prompt-Eingaben per Tastatur, in natürlicher Sprache von Windows 11 verstanden werden. Ein Mikrofon-Icon zeigt an, wann der PC lauscht, und mit dem Sprachbefehl „Goodbye“ oder einem Klick kann das Zuhören beendet werden.
Dass Windows zuhört und versteht, ist eine der drei Säulen, auf welche Mehdi die neue Strategie stellt. Die anderen beiden sehen vor, dass Copilot Zugriff auf alles bekommen soll, was der Benutzer sieht – was an Microsoft Recall erinnert – und dass Windows für den Nutzer handeln kann.
Copilot Actions für Cloud und lokale Dateien
Letzteres ist eine der größten geplanten Neuerungen: Statt nur den Browser zu bedienen, wie das schon seit Mai 2025 mit Copilot-PCs beispielsweise für Suchanfragen geht, soll die KI auch mit lokalen Dateien arbeiten können. Diese „Copilot Actions“ können das Durchsuchen, Zusammenfassen oder auch Sortieren von Dateien betreffen, schreibt Mehdi. Dabei kann Copilot dann auch Inhalte in andere Anwendungen führen, Microsoft zeigt in einem Video etwa das Prüfen von Fotos auf korrekte Ausrichtung und das Mailen dieser Bilder an eine Person. All das wird durch einige kurze Prompts ausgelöst.
Dafür kann man auch Nicht-Microsoft-Dienste mit Copilot verknüpfen. Genannt werden ausdrücklich Google Drive und Gmail. Auf deren Inhalte und auch den Versand von Dateien durch diese Dienste kann man Copilot Zugriff erlauben. All das will Microsoft unter volle Kontrolle des Nutzers stellen, der die Verknüpfungen auch wieder aufheben kann. Gerade bei der Integration von mehreren Diensten und Anwendungen sollen die Copilot Actions anfangs Fehler machen, schreibt Microsoft ausdrücklich. Daher sei es so wichtig, diese Funktionen auch in der Praxis zu testen, meint das Unternehmen.
(nie)
Künstliche Intelligenz
Broadcom legt vor: Erste Chips für Wi-Fi 8 sind da
Broadcom hat überraschend früh die branchenweit ersten Chips für Wi-Fi 8, beziehungsweise IEEE 802.11bn vorgestellt. Der neue Standard soll seinem Vorgänger gegenüber eine theoretisch gleich hohe maximale Datenrate bieten, nämlich bis zu 23 Gbit/s. Stattdessen verfolgt Wi-Fi 8 primär das Ziel, die Zuverlässigkeit, Stabilität und Effizienz im WLAN weiter zu steigern.
Weiterlesen nach der Anzeige
Konkret präsentiert Broadcom vier neue Wi-Fi-8-Chips: BCM6718 für Anwendungen im Heimumfeld, BCM43840 und BCM43820 für Unternehmenszwecke und BCM43109 für mobile Clients, darunter Smartphones, Notebooks, Tablets und Automobile. Alle sollen voll kompatibel mit dem aktuellen Stand von IEEE 802.11bn sein; komplett fertig soll der Standard bis September 2028 sein.
Lesen Sie auch
Nach Angaben des Herstellers unterstützen die Chips Coordinated Spatial Reuse (Co-SR) und Coordinated Beamforming (Co-BF). Hierbei können mehrere Access Points die Sendeleistung koordiniert dynamisch anpassen und die Ausrichtung der Antennen gemeinsam auf Zielgeräte richten. Das reduziert die Latenz und erhöht den Durchsatz. Seamless Roaming soll das Roaming von Geräten zwischen Access Points nahtlos gestalten und eine extrem niedrige Latenz auch während des Roamings bringen.
Dynamic Sub-Channel Operation (DSO), Non-Primary Channel Access (NPCA) und Dynamic Bandwidth Expansion (DBE) sollen effizientere Zugriffe auf das Wi-Fi-Frequenzspektrum mit sich bringen: Sie vermeiden Überlastungen und stellen eine Bandbreitenzuweisung in Echtzeit bereit, um den Durchsatz zu verbessern und die Latenz in anspruchsvollen Umgebungen zu reduzieren.
Extended Long Range (ELR) und Distributed Resource Units (dRu) erweitern die Abdeckung und halten Verbindungen auch in flächenmäßig größeren Umgebungen aufrecht. Verbesserte Modulationscodierungsschemata (MCS) sollen zudem höhere Durchsatzraten bei typischen Signal-Rausch-Verhältnissen (SNR) – also nicht nur unter Laborbedingungen – liefern.
Unterschiede der Chips
Der BCM6718 bringt 4×4-Antennen mit bis zu 320 MHz breiten Kanälen im 6 GHz und einem maximalen Durchsatz von 11,5 Gbit/s mit. Allerdings wird dies in Unternehmensumgebungen aufgrund des begrenzten Spektrums nur selten zum Einsatz kommen. Im 5-GHz-Band kann er noch 160 MHz und bei 2,4 GHz noch 40 MHz anbieten.
Weiterlesen nach der Anzeige
Die Modelle BCM43840 und BCM43820 sind für den Enterprise-WLAN-Zugangspunktmarkt optimiert. BCM43840 liefert 4×4- und BCM43820 2×2-Antennen, wobei das große Modell maximal 11,5 und das kleine 5,76 Gbit/s liefern soll. Sie sollen zudem einen Ökomodus mit 30 Prozent höherer Energieeffizienz mitliefern.
Der BCM43109 ist ein kombinierter Wi-Fi-8-, Bluetooth- und 802.15.4-Chip für den Einsatz in Mobiltelefonen mit 2×2-Wi-Fi-Antennen. Zudem soll er durch ELR größere Reichweiten erreichen. Für IoT-Anwendungen unterstützt er 802.15.4-Varianten, einschließlich Thread V1.4 und Zigbee Pro, sowie zusätzliche Sensorik zur Entfernungsmessung.
Ohne KI geht natürlich nichts: Zusätzlich bringen die Chips nach Angaben des Herstellers eine hardwarebeschleunigte Telemetrie-Engine mit, die KI-gesteuerte Netzwerkoptimierung ermöglichen soll.
Ausblick
Broadcoms Wi-Fi 8-Chips werden laut Ankündigung derzeit ausgewählten Partnern als Muster zur Verfügung gestellt. Bereits im Wi-Fi-7-Bereich greifen viele Hersteller auf die Chips von Broadcom für ihre Access Points zurück. Mit der Einführung der ersten Wi-Fi-8-Chips dürfte sich Broadcom einen Wettbewerbsvorteil verschaffen. Allerdings stehen bisher noch keine passenden Endgeräte zur Verfügung, erste Endprodukte (Router, Access Points, etc.) werden etwa Ende 2027 oder Anfang 2028 erwartet.
(fo)
Künstliche Intelligenz
c’t-Webinar: KI-Sprachmodelle im Arbeitsalltag effizient nutzen
Ob im Büro, in der Redaktion oder im Kundenservice – Sprachmodelle wie ChatGPT, Llama oder Mistral sind längst Teil des Arbeitsalltags. Sie fassen Texte zusammen, übersetzen Inhalte oder erstellen Transkripte in Sekunden. Das spart Zeit. Doch die neuen Werkzeuge werfen auch Fragen auf: Wie zuverlässig sind ihre Ergebnisse? Welches Modell eignet sich für welchen Zweck? Und was gilt es rechtlich zu beachten?
Weiterlesen nach der Anzeige
Wer die Grenzen und typischen Schwächen der Systeme nicht kennt, läuft Gefahr, weckt schnell überzogene Erwartungen – mit problematischen Folgen: frustrierte Mitarbeiter, höherer Aufwand und im schlimmsten Fall sogar hohe Kosten. Die vermeintliche Wunderwaffe KI wird dann schnell zum Problem.
Systematischer Einstieg
Das Webinar bietet eine kompakte, praxisnahe Einführung in den produktiven Einsatz von Sprach-KI. Die c’t-Redakteure Hartmut Gieselmann und Jo Bager erläutern, wie große Sprachmodelle funktionieren, welche Aufgaben sie übernehmen können und wo ihre Grenzen liegen. Dabei gehen sie auch auf alternative Modelle zu ChatGPT ein, etwa Llama oder Mistral. Die Referenten erklären nicht nur die technischen Grundlagen, sondern beleuchten auch den Ressourcenbedarf sowie die Kosten solcher Systeme.
Anhand konkreter Szenarien zeigen sie, wie sich Sprach-KI in verschiedenen Branchen sinnvoll einsetzen lässt.
Rechtliche Aspekte im Überblick
c’t-Redakteur Holger Bleich erläutert zudem rechtliche Rahmenbedingungen, die beim Einsatz von Sprach-KI beachtet werden müssen. Er informiert über datenschutzrechtliche Fragen, urheberrechtliche Fallstricke und die Anforderungen aus der EU-KI-Verordnung, die seit August 2025 unter anderem mehr Transparenz beim Einsatz solcher Systeme vorschreibt.
Teilnahme und Termin
Weiterlesen nach der Anzeige
Das Webinar richtet sich an alle, die KI-Anwendungen bereits in ihren Arbeitsprozessen nutzen oder dies planen. Auch wer Sprachmodelle im Alltag jenseits der Arbeitswelt nutzt und bereits erste Erfahrungen mitbringt, ist herzlich willkommen. Ziel ist es, ein realistisches Verständnis der Möglichkeiten und Grenzen aktueller Sprachmodelle zu vermitteln und Sicherheit im produktiven Umgang mit den Systemen zu schaffen.
Das Webinar findet am 6. November 2025 von 10 bis 13 Uhr statt und kostet 69,00 Euro. Weitere Informationen und die Anmeldung finden Sie auf der Seite zum c’t-Webinar von heise academy.
(abr)
Künstliche Intelligenz
APIs in KI integrieren: „Maschinen benötigen eine klare API-Beschreibung“
Erik Wilde hat jahrelange Erfahrung im API-Bereich. Als Botschafter bei der OpenAPI-Initiative setzt er sich für den Einsatz offener Standards und Best Practices in API-Design und -Management ein. Auf YouTube betreibt er den Channel Getting APIs to Work, der sich an IT-Experten, Entwicklerinnen und Produktmanager richtet. Außerdem hat Wilde zahlreiche Artikel und Bücher geschrieben, und er spricht regelmäßig auf Fachkonferenzen.
Weiterlesen nach der Anzeige
iX: Schnittstellen sind ein absolutes Grundkonzept der Softwarearchitektur; man entwirft, implementiert und überarbeitet sie ständig für die Anwendungsprogrammierung. Wann beginnt man, eine Schnittstelle als API zu bezeichnen? Die Semantik dieses Wortes geht über die reine Abkürzung hinaus.
Erik Wilde: Man bezeichnet eine Schnittstelle als API, sobald sie über ihren unmittelbaren Implementierungskontext hinaus von anderen genutzt werden soll. Eine Schnittstelle ist nur eine technische Grenze, eine API hingegen ein veröffentlichter Vertrag. Das bedeutet, dass sie absichtlich offengelegt, dokumentiert und stabil genug ist, damit andere – innerhalb oder außerhalb des Entwicklerteams oder Systems – sich darauf verlassen können. Es ist vor allem der Aspekt der Absicht und des breiteren Publikums, der eine API auszeichnet.
iX: Sind die Ansätze, die eine API für Menschen nützlich und zugänglich machen, nicht dieselben wie diejenigen, die sie für KI, also LLM-basierte Automatisierung, zugänglich machen?
Wilde: Sowohl Menschen als auch Maschinen benötigen zugängliche APIs, jedoch auf unterschiedliche Weise. Für Menschen funktioniert die Dokumentation am besten, wenn APIs einheitliche Muster aufweisen, da das nicht nur das Verständnis erleichtert, sondern auch die Wiederverwendung von Tools und Verfahren für verschiedene APIs ermöglicht. Menschen können auch einen breiteren Kontext heranziehen, ohne verwirrt zu werden. Maschinen hingegen benötigen eine klare, in sich geschlossene Beschreibung jeder API. Selbst wenn die Kontextfenster größer werden, ist mehr Kontext nicht immer hilfreich – KI hat oft Schwierigkeiten, größere Kontexte effektiv zu nutzen.
Menschen schätzen APIs, die offen, wiederverwendbar und flexibel anpassbar sind, während Maschinen mehr von einer geführten Abstraktionsebene profitieren, die den Schwerpunkt darauf legt, was erreicht werden kann und wie dies zu tun ist, anstatt jede mögliche Operation offenzulegen.
Weiterlesen nach der Anzeige
iX: Sie haben sich in der Vergangenheit in Ihrem YouTube-Channel „Getting APIs to Work“ mit dem ökologischen Fußabdruck von APIs befasst. Wenn man über Softwareeffizienz und CO2-Bewusstsein nachdenkt, passt das dann gut zu dem, was derzeit als Agentic AI beworben wird?
Wilde: Der ökologische Fußabdruck von Agentic AI ist erheblich, da die explorative Nutzung durch Agenten oft zu mehr Orchestrierung, mehr Rechenzyklen und einem höheren Energieverbrauch führt. Das scheint im Widerspruch zu den Bestrebungen nach Effizienz und CO2-Bewusstsein bei Software und APIs zu stehen.
Der Weg nach vorne besteht darin, sie als komplementär zu betrachten: Agenten können kreative Lösungen erforschen und neue Vorgehensweisen aufdecken, aber sobald ein vielversprechender Ansatz gefunden ist, sollte er in einen deterministischen, wiederholbaren Workflow kodifiziert werden, der energieeffizient, skalierbar und überprüfbar ist. Das bringt die Vorteile der Kreativität der KI mit der Notwendigkeit eines nachhaltigen und konformen Betriebs in Einklang, wobei so viel KI wie nötig, aber so wenig wie möglich eingesetzt wird.
Durch das Entwickeln von Architekturen, die einen reibungslosen und bewussten Übergang vom Experimentieren zur effizienten Ausführung ermöglichen, können wir sowohl die Unsicherheit hinsichtlich der Unvorhersehbarkeit der KI als auch die Notwendigkeit angehen, ihren erheblichen Energieverbrauch zu kontrollieren.
iX: In welcher Beziehung steht MCP zu OpenAPI? Verfolgen beide nicht dasselbe Ziel: die Standardisierung der Beschreibung von APIs und deren einfache Zugänglichkeit? Oder ähnelt es eher JSON:API, also der Standardisierung der APIs selbst?
Wilde: Bei MCP, OpenAPI und JSON:API geht es darum, Funktionen verfügbar zu machen, aber sie richten sich an unterschiedliche Nutzer. MCP wurde speziell für LLMs entwickelt und stellt ihnen Tools und Ressourcen zur Verfügung, die auf ihre Arbeitsweise zugeschnitten sind. OpenAPI hingegen richtet sich an Entwickler, die HTTP-APIs nutzen möchten, und konzentriert sich hauptsächlich darauf, Endpunkte zu strukturieren und diesen Schemata hinzuzufügen.
JSON:API fügt eine weitere Ebene hinzu, indem es standardisiert, wie die Schemata strukturiert sind und welche gemeinsamen Konzepte eine API offenlegen sollte, sodass Entwickler von bereits bekannten Konventionen profitieren und Tools wiederverwenden können, die diese unterstützen.
Es ist zwar möglich, MCP-Server automatisch aus OpenAPI zu generieren, aber das führt in der Regel nicht zu den besten Ergebnissen: Bei komplexeren APIs reicht eine Liste von Endpunkten nicht aus, da LLMs das implizite Verständnis fehlt, das Menschen beim Schreiben von Code mitbringen. Das ist der grundlegende Unterschied: OpenAPI und JSON:API gehen davon aus, dass ein menschlicher Developer die Lücken füllen kann, während MCP eine ausreichend aufgabenorientierte Struktur bereitstellen muss, damit ein LLM ohne diese menschliche Intelligenz erfolgreich sein kann.
iX: Machen LLMs bestimmte Ansätze zur Automatisierung überflüssig? Oder sind sie nur ein weiterer Anwendungsfall? Aufgrund der Nicht-Determiniertheit können sie eine zuverlässige Systemintegration vermutlich nicht wirklich ersetzen.
Wilde: Bei der Automatisierung geht es in der Regel um Zuverlässigkeit, Wiederholbarkeit und Effizienz, was LLMs nicht bieten. Sie sind nicht deterministisch, nicht zuverlässig reproduzierbar und nicht besonders effizient. Was sie jedoch bieten, ist eine neue Art von Kreativität: die Fähigkeit, Lücken zu schließen, Lösungen auszuprobieren und chaotischere Teile der Automatisierung zu bewältigen, die mit traditionellen Ansätzen nicht möglich sind.
Am besten betrachtet man sie als ein weiteres Werkzeug im Werkzeugkasten – eines, das wir selektiv einsetzen können, zum Erkunden oder für bestimmte Teile eines Prozesses, aber nicht für die Teile, die strenge Garantien erfordern. Architekturen, die LLM-gesteuerte Erkundung mit kodifizierten, deterministischen Workflows kombinieren, können das Beste aus beiden Welten vereinen: KI, wo Kreativität einen Mehrwert schafft, und traditionelle Automatisierung, wo Zuverlässigkeit unerlässlich ist.
Das Interview führte Richard Wallintin von WPS – Workplace Solutions.
(rme)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 Monaten
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Monat
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 Monat
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 3 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows