Connect with us

Künstliche Intelligenz

Drei Fragen, drei Antworten: Wie man mit Agentschwärmen Software entwickelt


Einzelne KI-Agenten können nicht nur Entwicklerteams unterstützen – ein einzelner Entwickler kann auch zum Product Owner werden und einen Agentenschwarm an die Arbeit schicken. Rüdiger Berlich, Titelautor der iX 10/2025, hat einen Blick in die mögliche Zukunft geworfen und mit dem Open-Source-Werkzeug Claude Flow eine Threadpool-Bibliothek für C++ erzeugt. Er erklärt, worauf experimentierfreudige Entwickler achten sollten.


Dr. Rüdiger Berlich

Dr. Rüdiger Berlich

Dr. Rüdiger Berlich beschäftigt sich seit 1992 mit Open Source und hat sich in seinem MBA mit dem Thema zugehöriger Geschäftsmodelle auseinandergesetzt. Er berät Firmen zu Fragen der Open- und InnerSource, zu agilen Praktiken sowie dem Change Management.

Ein Entwickler dirigiert einen Agentenschwarm – wie muss man sich diese Arbeitsweise vorstellen?

Nun, der Entwickler dirigiert nicht wirklich – es geht eher darum, den Schwarm nur in die richtige Richtung zu schicken. Claude Flow ist ja selber ein Orchestrierungsframework mit dem Ziel, möglichst große Teile der Entwicklung zu automatisieren. Hierfür wird der Schwarm durch einen oder mehrere spezialisierte KI-Agenten angeleitet. Zuvorderst steht dabei die „Queen“, die ihren „Hive“ steuert. Die Arbeit mit dem Schwarm ähnelt deshalb weniger der Zusammenarbeit mit einem einzelnen Agenten, die ja durchaus interaktiv erfolgen kann. Vielmehr möchte man möglichst große Blöcke der Entwicklung parallel abarbeiten lassen, was Interaktivität weitgehend ausschließt. Die eigentliche Arbeit des Entwicklers findet deshalb bereits statt, bevor der Schwarm seinem Ziel entgegen schwebt.

Natürlich kann man Synchronisationspunkte zwischen Mensch und Maschine einbauen. Ganz klar sollte man auch, nachdem die Queen den Erfolg verkündet hat, die Ergebnisse prüfen. Man kann aber auch die Entwicklung so strukturieren, dass sie in Phasen läuft, nach denen menschliche Interaktion gewünscht ist. So wird man sicherlich zunächst mit der Architektur beginnen, die in einem nur kleinen Schwarm entwickelt wird. Man könnte sich etwa Architekturdiagramme vorschlagen und die KI eine API entwerfen lassen. Wenn die Architektur steht, lässt man den Schwarm losfliegen.

Erfahrene Entwickler werden dadurch nicht überflüssig, sondern sind im Gegenteil als Kontroll- und Steuerinstanz besonders wichtig. Sie rutschen aber zunehmend in die Rolle eines Product Owners mit Architekturverantwortung, wenn auch für kleinere Komponenten. Das bedeutet auch, dass man die Anforderungen sehr genau analysieren sollte, bestenfalls in einem formalen Requirements Engineering. Nur wenn man selber genau weiß, was entwickelt werden soll, kann man erwarten, dass die KI auch das richtige Problem löst. Neben der Validierung spielt dann auch noch die Verifikation eine Rolle. Die Entscheidungsgewalt liegt aber weiter beim Menschen, und die Möglichkeit zur Überprüfung der Ergebnisse sollte genutzt werden.

Wenn die Agenten einander zuarbeiten, potenziert das doch auch die Halluzinationen? Wie geht man damit um?

Es stimmt, dass Agenten halluzinieren. Noch schlimmer ist aber, dass KIs eine unendliche Zahl an meist validen Lösungen vorschlagen können, sodass sich eine Entwicklung quasi verlaufen kann und man zu komplexe Lösungen erhält. Dies lässt sich durch das Requirements Engineering mit genauen Vorgaben zur „Definition of Done“ eingrenzen. Dazu gibt es inhärente Kontrollmechanismen: Denn wenn die genaue Spezifikation dessen stimmt, was entwickelt werden soll, wird die Arbeit ja zwischen Subagenten aufgeteilt.

Wenn jetzt einer davon in die Wüste galoppiert, passen die Einzellösungen nicht zueinander und Tests schlagen fehl. Agenten können hierauf reagieren und die Fehler finden. Claude Flow unterstützt übrigens auch Test Driven Development, sodass von vornherein weniger Fehler entstehen. So kontrolliert sich die Entwicklung quasi selber. Spezialisierte Quality-Assurance-Agenten könnten auch eine aktive Kontrolle ausüben und etwa regelmäßig Code Reviews durchführen, auf die die Entwickler-Agenten reagieren müssen. Am Ende liegt die Ergebnisverantwortung bei der Queen, mit der der menschliche Auftraggeber sich auch streiten kann. Ein solcher Austausch kann dann durchaus groteske Züge annehmen, weil heutigen KIs eine Art Persönlichkeit antrainiert wird.

Insgesamt ähnelt die Arbeit mit Schwärmen übrigens sehr schnell einer agilen Entwicklung. Die Aufgabe wird analysiert, strukturiert, priorisiert und in Teilpakete aufgeteilt. Die Queen kann Entwicklungsphasen vorschlagen, nach deren Ende ein bestimmtes Ziel erreicht sein muss. Man entwickelt dann in Sprints mit Sprintzielen und der Vorstellung der Ergebnisse, entweder gegenüber einer KI oder dem Menschen. Es gibt also explizite Kontrollfunktionen und Schwarm-immanente, implizite Kontrolle, die ein Auseinanderlaufen der Entwicklung verhindern. Letztlich ist Kontrolle immer notwendig, auch wenn Zeitdruck und die sich durch KIs verkürzenden Innovationszyklen dazu verleiten, Abkürzungen zu nehmen. Insgesamt beschleunigt die Nutzung von Agentenschwärmen wie Claude Flow die Entwicklung und verbessert die Erfolgsrate gegenüber Einzelagenten.

Was braucht es dafür grob gesagt an Tools, Umgebung und Sicherheitsvorkehrungen, damit der Schwarm loscoden kann?

Der Schwarm soll autonom entwickeln. Die Arbeitsumgebung ist deshalb nicht anders als das, was ein menschlicher Entwickler erwartet. Man wird ein am besten lokales git haben, Compiler, Build-Umgebungen wie etwa CMake und alles, was man für die Architekturerstellung benötigt, zum Beispiel PlantUML. Die Kommunikation kann über Markdown-Dokumente strukturiert werden, sodass sich ein entsprechender Editor empfiehlt.

Autonome Entwicklung heißt auch, dass man der KI recht weitreichenden Zugriff auf das Hostsystem geben muss. Das kann auch bedeuten, dass die KI-Agenten selbstständig benötigte Pakete nachinstallieren, was so wohl nur unter einem Linux-System möglich ist und Root-Privilegien erfordert. Ein gesundes Maß an Vorsicht ist dabei sinnvoll. Um also nicht jedes Mal das System neu aufsetzen zu müssen, nachdem die KI das Steuer in der Hand hatte, empfiehlt sich die Verwendung einer VM. Unter Ubuntu bietet sich dafür das leichtgewichtige Multipass an.

Möchte man mehr Kontrolle, so kann man die Kommunikationsmöglichkeiten der VM von Hostseite aus auf bestimmte Endpoints einschränken. Wenn man nach dem initialen Einrichten der VM einen Snapshot erstellt, kann man immer wieder auf einen bekannten Stand der VM zurücksetzen und muss die KI nicht jedes Mal neu initialisieren. Ein Docker-Container ginge dabei sicherlich auch.

Die Installation von Claude Flow und dem von ihm benötigten Claude Code erfolgt über den npm-Paketmanager. Man sollte sich dessen bewusst sein – unlängst gab es ja Berichte über kontaminierte Pakete. Das betrifft jede Umgebung, die npm verwendet und ist nicht speziell für Claude Flow und Claude Code. Wir sind heute auch noch nicht an dem Punkt, an dem man leistungsfähige Coding-KIs mit vertretbarem Aufwand lokal einsetzen kann. Ein No-Go sind also Projekte, bei denen kein Teil der Code-Basis nach außen dringen darf.

Rüdiger, danke für die Antworten! Mehr Details zum Coden mit KI-Schwarm gibt es in der neuen iX. Außerdem zeigen wir, was agentische KI eigentlich ausmacht, und werfen einen kritischen Blick darauf, welche Security-Risiken KI-Agenten mit sich bringen. All das und viele weitere Themen finden Leser im Oktober-Heft, das jetzt im heise Shop oder am Kiosk erhältlich ist.

In der Serie „Drei Fragen und Antworten“ will die iX die heutigen Herausforderungen der IT auf den Punkt bringen – egal ob es sich um den Blick des Anwenders vorm PC, die Sicht des Managers oder den Alltag eines Administrators handelt. Haben Sie Anregungen aus Ihrer tagtäglichen Praxis oder der Ihrer Nutzer? Wessen Tipps zu welchem Thema würden Sie gerne kurz und knackig lesen? Dann schreiben Sie uns gerne oder hinterlassen Sie einen Kommentar im Forum.


(axk)



Source link

Künstliche Intelligenz

Kommentar zur KI-Blase: Sam Altman mimt den Oppenheimer des 21. Jahrhunderts


Weltweit reiben sich Ökonomen und Anleger die Augen: OpenAI meldet zweistellige Milliardenverluste pro Quartal, und jeder noch so kleine YouTuber mit Anlegertipps warnt inzwischen vor dem Platzen der KI-Blase. Und doch pumpen Investoren weiter Geld in KI, während OpenAI-Chef Sam Altman erklärt, die Betriebskosten interessierten ihn nicht im Geringsten. Wie ist diese Diskrepanz zwischen Horrorzahlen und ungebrochener Investitionsfreude zu erklären?

Weiterlesen nach der Anzeige

Die Strategie des „Wachstums, koste es, was es wolle“ ist altbekannt: Amazon, Uber, Netflix – sie alle verbrannten in den ersten Jahren Kapital, um Märkte zu erobern. Aber ihre Verluste bewegten sich im einstelligen Milliardenbereich pro Jahr, nicht bei über elf Milliarden in einem einzigen Quartal. Und sie hatten Geschäftsmodelle, bei denen Skaleneffekte irgendwann die Kosten drückten.


Ein Kommentar von Hartmut Gieselmann

Ein Kommentar von Hartmut Gieselmann

Redakteur Hartmut Gieselmann, Jahrgang 1971, ist seit 2001 bei c’t. Er leitet das Ressort Anwendungen, Datenschutz & Internet und bearbeitet unter anderem aktuelle Themen rund um die Bereiche Medizin-IT, Netzpolitik und Datenschutz.

OpenAI dagegen betreibt eine Technologie, deren variable Kosten – Chips, Strom, Rechenzentren – mit jeder Generationsstufe steigen. Laut einer Analyse der Unternehmensberatung Bain wäre bis 2030 in der KI-Branche ein globaler Jahresumsatz von zwei Billionen Dollar (sic!) nötig, um die benötigte Rechenleistung zu finanzieren. Die Lücke ist so groß, dass sie mit Abomodellen schlicht nicht zu schließen ist. Sie ist ein klares Signal an alle potenziellen Konkurrenten: Ihr könnt hier nicht mitspielen, ohne euch zu ruinieren.

OpenAI geht es nicht darum, bloß ein neuer Player der globalen Plattformökonomie zu werden. Es geht vielmehr um geopolitische Machtsicherung. Die USA behandeln fortgeschrittene KI inzwischen wie ein nationales Infrastrukturprojekt. Es ist für sie das geopolitische Großprojekt des 21. Jahrhunderts, mit dem sie ihre Dominanz sichern wollen.

Palantir-Chef Alexander Karp hat eine solche nationale Großanstrengung in seinem Buch „The Technological Republic“ offen gefordert. Und Trumps Entscheidung, die leistungsfähigsten Nvidia-Chips exklusiv in den USA zu halten, zeigt das unverblümt. Das Weiße Haus hat im Herbst bereits angekündigt, den Ausbau von Rechenzentren als „kritische Infrastruktur“ zu priorisieren. Was hier entsteht, ähnelt eher dem Manhattan-Projekt als dem nächsten iPhone aus dem Silicon Valley.

Wie beim Atomprogramm der 40er Jahre entsteht eine technologisch, politisch und finanziell abgeschirmte Großstruktur, die nur unter staatlicher Protektion funktionsfähig ist. Es gelten dann andere Regeln: Nvidia, Microsoft, OpenAI und Co. werden gegen ausländische Konkurrenz abgeschirmt, rechtlich privilegiert und politisch getragen. Die Verluste sind keine betriebswirtschaftlichen Fehlplanungen, sondern Vorleistungen für ein Machtinstrument, das später kaum noch einholbar ist. Deshalb verwundert es nicht, dass Altman mit seinen nationalen Ausbauplänen und seiner demonstrativen Gleichgültigkeit gegenüber den gigantischen Kosten auftritt, als stünde er an der Spitze eines neuen Manhattan-Projekts.

Weiterlesen nach der Anzeige

Wer die technologische Infrastruktur kontrolliert, bestimmt die Standards, Protokolle und Abhängigkeiten der nächsten Jahrzehnte. Und die USA haben in ihrer Geschichte mehrfach bewiesen, dass sie zur Absicherung technologischer und wirtschaftlicher Vorherrschaft selbst vor gravierenden Kollateralschäden nicht zurückschrecken und geopolitische Prioritäten über ökologische und gesellschaftliche Folgen stellen. Die absehbaren Schäden des KI-Ausbaus für Umwelt und Klima gelten in Washington als verkraftbarer Preis.

Die offenen Anspielungen der CEOs wie Mark Zuckerberg auf das mögliche Platzen der KI-Blase sind in diesem Kontext kein Alarmruf, sondern strategisch platzierte PR. Wer öffentlich vor einer Überbewertung warnt, signalisiert Investoren, dass nur die größten Player stabil genug sind, um einen Crash zu überstehen. Das erschwert kleineren Konkurrenten die Finanzierung und senkt deren Übernahmepreis, sobald die Kurse in den Keller rauschen.

Angesichts dieses Gigantismus muss Europa einen anderen Weg einschlagen als die USA. Weder Gigawatt-Rechenzentren noch milliardenschwere Chipfabriken sind eine realistische Option; ökologisch wären sie ein Desaster. Souveränität heißt stattdessen, die Kontrolle über Standards, Schnittstellen und Zugänge zu behalten: offene Modelle, offene Daten, gemeinsame europäische Compute-Cluster, klare Interoperabilitätsvorgaben und eine demokratische Aufsicht über die KI-Systeme, die in Wirtschaft und Verwaltung eingesetzt werden.

Die Schweiz zeigt mit dem Apertus-Programm, dass ein solcher Weg möglich ist. So könnte sich Europa langfristig vom KI-Tropf der USA abnabeln, ohne den Kontinent in eine zweite Rechenzentrumswüste nach dem Vorbild Arizonas zu verwandeln.


(hag)



Source link

Weiterlesen

Künstliche Intelligenz

Amazfit T-Rex 3 Pro im Test: Robuste Sportuhr mit GPS-Navigation zum Top-Preis


Amazfit schickt mit der T‑Rex 3 Pro eine spürbar verbesserte Version seiner Outdoor-Sportuhr ins Rennen und sagt damit Konkurrenten wie Garmin den Kampf an.

Die Amazfit T‑Rex 3 überzeugte im Test bereits als robuste Sportuhr und preiswerte Alternative zu Garmin, Polar & Co., offenbarte jedoch einige Schwächen. Mit der T‑Rex 3 Pro möchte Amazfit diese ausbügeln und legt technisch wie funktional nach. Wir haben das Pro-Modell getestet und geprüft, ob sich der Aufpreis lohnt.

Design & Bedienung

Optisch unterscheidet sich die Amazfit T‑Rex 3 Pro nur geringfügig von der normalen T‑Rex 3. Beide Modelle setzen auf dieselbe achteckige Form, ein wuchtiges Gehäuse (48 × 48 × 14 mm) und ein 1,5‑Zoll‑AMOLED‑Display mit einer gestochen scharfen Auflösung von 480 × 480 Pixeln. Bei der Lünette zeigt sich jedoch ein wichtiger Unterschied: Die Pro-Version nutzt eine Titanlegierung und Saphirglas, was das Gewicht von 68 g auf 52 g reduziert. Damit ist sie deutlich leichter als etwa eine Garmin Fenix 8.

Es gibt inzwischen zudem eine etwas kompaktere Variante mit einem Durchmesser von 44 mm, die auch an schmaleren Handgelenken gut sitzt. Wir haben das größere Modell mit 48 mm getestet.

Wie schon beim Standardmodell überzeugt das Gehäuse der Pro-Variante durch eine robuste und saubere Verarbeitung. Beim Silikonarmband bleibt hingegen alles beim Alten – es wirkt etwas billig, und die Kunststoffschließe beißt sich optisch mit dem sonst hochwertigen Auftritt der Smartwatch.

Die T-Rex 3 Pro erfüllt wie ihr Schwestermodell die US-Militärnorm MIL-STD-810H und ist bis zu 10 ATM (100 Meter Wassersäule) wasserdicht. Das Saphirglas zeigt im Test eine sehr hohe Kratzfestigkeit: Weder ein Sturz aus 1,5 Metern auf Fliesen noch Kontakt mit einer Kettlebell hinterließen sichtbare Spuren.

Bei der Bedienung gibt es kaum Neuerungen. Die vier Bedientasten sind identisch angeordnet und erinnern an das Layout einer Garmin-Uhr. Wer möchte, kann die obere oder untere Taste auf der rechten Seite individuell belegen, etwa zum direkten Start eines Trainings. Auch die vom Standardmodell bekannten Wischgesten sind an Bord: Sie erlauben die Navigation durch Menüs und Widgets – im Test stets flüssig und ohne Ruckler. Selbst leicht verschmutzte oder feuchte Finger beeinträchtigen die Touch-Erkennung kaum.

App & Einrichtung

Die Einrichtung der Amazfit T‑Rex 3 Pro läuft identisch zur herkömmlichen T‑Rex 3 ab. Nach der Installation der Zepp‑App verbinden wir die Uhr per Bluetooth mit dem Smartphone. Ab jetzt stellt die App alle gesammelten Daten der Uhr übersichtlich in Diagrammen dar. Auf der Startseite erscheinen Kennzahlen zur Herzfrequenz, Training und Schlaf, für die es zusätzlich eigene Detailmenüs mit Tabellen und Verlaufsdaten gibt.

Im Bereich Training startet man Sporteinheiten manuell, ruft Workouts ab und verwaltet Trainingspläne. Ebenfalls integriert ist der kostenpflichtige Zepp‑Coach, ein KI-Assistent, der die Trainingsdaten genauer analysiert als die kostenlose App-Version. Hinzu kommt das Abo‑Feature Aura mit erweiterten Schlafanalysen, geführten Meditationen und einem KI‑Schlaftrainer.

Unter dem Menüpunkt Gerät passt man die verschiedenen Systemeinstellungen der T‑Rex 3 Pro bei Bedarf an. Dazu gehören die Konfiguration von Menüs und Widgets, Benachrichtigungen sowie die optionale Verknüpfung mit dem Google‑Kalender.

Tracking & Training

Bei den Trainings- und Trackingfunktionen unterscheiden sich die T-Rex 3 und T-Rex 3 Pro nur geringfügig. Beide messen im Schlaftracking die verschiedenen Phasen (Leicht-, Tief- und REM-Schlaf) und berechnen daraus einen Index, der den Erholungszustand widerspiegeln soll. Das Problem der ungenauen Erkennung von Wachphasen bleibt jedoch bestehen, wodurch die Aussagekraft eingeschränkt ist. Wie bei den meisten Wearables verbessert sich die Genauigkeit mit regelmäßigem Tragen.

Amazfit hat mit der T-Rex 3 Pro die Anzahl der Sportmodi auf über 180 verschiedene Profile erweitert. Über die App erstellt man eigene Trainingseinheiten und kann diese auf die Uhr übertragen, etwa im Bereich Kraftsport oder Hyrox-Training. Positiv fällt die Vielzahl zusätzlicher Daten auf, die die Uhr je nach Sportart erfasst: Beim Laufen und Radfahren werden etwa Herzfrequenz, Dauer und Strecke aufgezeichnet, beim Outdoor-Klettern zudem die Höhe. Beim Krafttraining können Sätze und Gewichte manuell gespeichert werden – ein Funktionsumfang, den kaum ein Konkurrenzprodukt bietet.

Ein Alleinstellungsmerkmal der T-Rex-Serie ist der Hyrox-Race-Modus. Er kombiniert alle Stationen eines Hyrox-Wettkampfs – vom Lauf über Ski-Ergometer, Sled-Push und Sled-Pull bis zum Ziel – in einem Profil und zeichnet die Dauer jeder Disziplin separat auf. So behält man den Überblick über den gesamten Trainingsablauf.

Wie schon bei der Standardversion nutzt auch die T-Rex 3 Pro die Auswertung von Aktivitätsdaten über die PAI (Persönliche Aktivitätsintelligenz). Dieser Wert berücksichtigt Alter, Geschlecht, Ruhepuls und Pulsverlauf der letzten sieben Tage und steigt bei intensiver Belastung entsprechend an.

Die Uhr erkennt Trainingseinheiten wie Laufen, Radfahren, Schwimmen, Crosstrainer- und Rudertraining automatisch. Die Empfindlichkeit der Erkennung kann in drei Stufen angepasst werden. Auf der höchsten Stufe registriert die T-Rex 3 Pro nahezu jede Bewegung, während Standard- und Niedrig-Einstellungen eine längere oder intensivere Aktivität erfordern. Im Praxistest funktioniert das zuverlässig.

Das Herzstück des Trackings ist die Pulsmessung, die im Test sehr präzise arbeitet. Die Abweichungen zu unseren Referenzmessungen mit Brustgurt bewegen sich im niedrigen einstelligen Prozentbereich – typisch für optische Sensoren.

Weitere Features

Neben den bereits von der T-Rex 3 bekannten Funktionen wie Zepp Pay, dem Amazfit-Sprachassistenten und integriertem Musikspeicher bietet die T-Rex 3 Pro mehrere sinnvolle Neuerungen. Besonders erfreulich: Über das integrierte Mikrofon nimmt man nun auch eingehende Anrufe entgegen. Ein eSIM-Slot fehlt allerdings weiterhin, sodass das Smartphone zum Telefonieren in Reichweite bleiben muss.

Ein wesentlicher Fortschritt gegenüber dem Standardmodell ist das auch zur Navigation nutzbare GPS. Beide Varianten verfügen zwar über ein präzises Ortungsmodul inklusive Höhenbarometer, doch die Pro-Version bringt zusätzliche Funktionen mit: Routenplanung, Round-Trip-Routing und automatische Routenanpassung. Damit gleicht Amazfit eines der größten Defizite des Vorgängers aus und schließt funktional zur deutlich teureren Garmin Fenix 8 auf. Die Uhr unterstützt sowohl GPX-Tracks als auch Navigationsziele auf der Karte und eignet sich damit hervorragend für Outdoor-Touren, Läufe und Radtouren.

Akku

Der einzige spürbare Nachteil der T-Rex 3 Pro mit 48 mm gegenüber dem Basismodell liegt in der Akkulaufzeit. Statt 27 erreicht sie laut Hersteller im typischen Alltag 25 Tage. Faktoren wie Always-on-Display und GPS-Nutzung wirken sich deutlich auf die Laufzeit aus. Im Test lag der Akkustand nach acht Tagen mit drei jeweils anderthalbstündigen GPS-Trainingseinheiten bei rund 50 Prozent – ein ordentlicher Wert.

Damit hält die T-Rex 3 Pro zwar etwas kürzer durch als ihr Vorgänger, bleibt im Vergleich zur Konkurrenz aber weiterhin ausdauernd.

Geladen wird die Smartwatch wie gewohnt über die beiliegende Ladeschale, die man per USB-C-Kabel (nicht im Lieferumfang enthalten) verbindet. Eine vollständige Ladung dauert rund drei Stunden.

Preis

Die T-Rex 3 Pro mit 48 mm kostet laut UVP offiziell 400 Euro und ist in den Farben Schwarz sowie Schwarz-Gold verfügbar. Derzeit kostet das Modell mit 48 mm in der Farbvariante Tactical Black 341 Euro bei Ebay mit dem Code PRESALE25. Die kompaktere Variante in 44 mm kostet rund 400 Euro.

Fazit

Nachdem die Amazfit T‑Rex 3 im Test bereits überzeugt hatte, legt der Hersteller mit der T‑Rex 3 Pro spürbar nach. Fast alle Schwächen des Standardmodells hat Amazfit ausgebessert – und das zu einem weiterhin fairen Preis. Das Ergebnis ist eine robuste Outdoor-Smartwatch mit starkem Preis-Leistungs-Verhältnis.

Display und Akkulaufzeit gehören weiterhin zu den größten Stärken, auch wenn der Akku beim Pro-Modell etwas kürzer durchhält. Neu hinzugekommen sind eine Telefonfunktion und eine solide Routennavigation. Lediglich die beschränkte App-Auswahl bleibt ein kleiner Wermutstropfen.

Wer eine preisgünstige Alternative zur Garmin Fenix 8 sucht und dabei nicht auf Navigation verzichten möchte, findet in der Amazfit T‑Rex 3 Pro einen echten Outdoor-Geheimtipp.



Source link

Weiterlesen

Künstliche Intelligenz

KI-Update: US-Jobless-Boom, Meta will bauen, DSGVO in Gefahr, Siri mit Gemini


Weiterlesen nach der Anzeige

Die US-Wirtschaft streicht dieses Jahr fast eine Million Jobs, während die Unternehmensgewinne sprunghaft steigen und die Aktienmärkte neue Höchststände erreichen. Experten nennen dies den „Jobless Boom“. Chen Zhao von Alpine Macro, einem Investment-Forschungshaus, macht den zunehmenden Einsatz von KI dafür verantwortlich. Die Technik steigere die Produktivität, drücke aber die Nachfrage nach Arbeitskräften. Amazon etwa entließ 14.000 Mitarbeiter trotz hoher Gewinne. Der Trend, der zunächst die Tech-Branche traf, breitet sich nun aus.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Trotz der Entlassungen bleibt die Arbeitslosenquote mit 4,3 Prozent niedrig. Zhao erklärt dies mit einer schrumpfenden Zahl verfügbarer Arbeitskräfte: Baby-Boomer scheiden aus dem Berufsleben aus, und die restriktive Einwanderungspolitik der Trump-Regierung verringert die Zuwanderung. Andere Experten sehen nicht die KI als Hauptursache, sondern eine Korrektur nach übermäßigen Einstellungen während der Pandemie.

Meta, ein Social-Media-Konzern, will 600 Milliarden Dollar investieren, um neue Rechenzentren in den USA zu bauen. Chef Mark Zuckerberg spricht von einer „persönlichen Superintelligenz für jeden“, bleibt aber vage, was das bedeuten soll. Woher die riesige Summe kommen soll, verrät Meta nicht. Im dritten Quartal 2025 erzielte der Konzern 51 Milliarden Dollar Umsatz, 26 Prozent mehr als im Vorjahr.

Vieles deutet darauf hin, dass Meta auf externe Geldgeber setzt. Im Oktober einigte sich der Konzern mit Blue Owl, einem Investmentunternehmen, auf ein 27 Milliarden Dollar teures Rechenzentrum in Louisiana, das bisher größte seiner Art. Im selben Monat kündigte Meta eine 1,5-Milliarden-Dollar-Investition in ein Rechenzentrum in Texas an.

Weiterlesen nach der Anzeige

Anthropic, ein KI-Unternehmen, das das Modell Claude entwickelt, will seinen Umsatz von 4,7 Milliarden Dollar im Jahr 2025 auf 70 Milliarden Dollar im Jahr 2028 steigern. Das wäre eine Verfünfzehnfachung in drei Jahren. Die größte Hürde: Derzeit arbeitet Anthropic mit einer Bruttomarge von minus 94 Prozent. Für jeden Dollar Umsatz entstehen fast zwei Dollar Serverkosten. Bis 2025 soll die Marge auf 50 Prozent steigen, bis 2028 auf 77 Prozent. Den Großteil seiner Einnahmen erzielt Anthropic über API-Zugänge für Unternehmen, die bis 2028 mehr als 80 Prozent des Umsatzes ausmachen sollen.

Zum Vergleich: OpenAI, ein KI-Modellhersteller, rechnet für Ende 2025 mit einem Umsatz von 20 Milliarden Dollar, fast dem Vierfachen von Anthropics Prognose für das Gesamtjahr. OpenAI will bis 2028 einen Jahresumsatz von 100 Milliarden Dollar erreichen, bei einem Verlust von 50 Milliarden Dollar. Beide Firmen müssen massiv wachsen und gleichzeitig ihre Kosten senken. Ob die Nachfrage nach KI-Diensten tatsächlich so stark steigt, bleibt offen.

Die EU-Kommission plant umfangreiche Änderungen an der Datenschutz-Grundverordnung durch den Digital-Omnibus. Das Ziel: digitale Vorschriften vereinfachen, Verwaltungsaufwand und Kosten für Unternehmen senken und so die Wettbewerbsfähigkeit Europas stärken. Kritiker befürchten, dass dies auf Kosten bestehender Datenschutzstandards geschieht. Im Fokus steht die Ausweitung des „berechtigten Interesses“ als Rechtsgrundlage für Datenverarbeitung. Mit dem neuen Entwurf könnte das Speichern und Auslesen von Tracking-Cookies bereits aufgrund unternehmerischer Ziele erfolgen. Nutzer hätten nur noch die Möglichkeit eines nachträglichen Widerspruchs, eines Opt-outs.

Die Kommission plant zudem, das Training von KI-Systemen mit personenbezogenen Daten auf Basis des berechtigten Interesses zu ermöglichen. Dies würde die oft nötige Einholung von Einwilligungen erübrigen. Die Aufsicht über KI soll in einem „AI Office“ gebündelt werden, eine zentralisierte Kontrollstruktur, von der vor allem große Online-Plattformen profitieren würden. Paul Nemitz, früherer EU-Kommissionsdirektor, warnt, dass mit dem neuen Entwurf vom Datenschutz nichts mehr übrig bleibe.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

ChatGPT verhält sich nicht einheitlich bei Nachrichtenempfehlungen. Eine Studie der Universität Hamburg und des Leibniz-Instituts für Medienforschung fand systematische Unterschiede zwischen dem Web-Interface und der API-Schnittstelle. Die Forschenden analysierten über fünf Wochen mehr als 24.000 Antworten auf nachrichtenbezogene Anfragen im deutschen Sprachraum. Im Web-Interface dominieren Medien des Axel-Springer-Verlags, mit dem OpenAI einen Lizenzvertrag hat. Die Webseiten welt.de und bild.de machten dort etwa 13 Prozent aller Quellenverweise aus. Über die API waren es nur rund 2 Prozent. Die API bevorzugt stattdessen Wikipedia und kleinere lokale Medien.

Besonders problematisch wird es, wenn Nutzer explizit nach Quellenvielfalt fragen. ChatGPT listete dann zwar mehr unterschiedliche Quellen auf, darunter aber auch stark politisch gefärbte Seiten, propagandistische Medien und sogar nicht existierende Domains. OpenAI gibt keine Informationen zu den Unterschieden zwischen Web-Interface und API preis. Nutzer müssen daher kritisch bleiben und Quellen selbst prüfen.

Apple hat laut Bloomberg einen Partner für KI gefunden: Googles Gemini. Das KI-Modell soll künftig das Herz einer kommenden LLM-Serie sein, die Fragen so gut beantworten kann wie ChatGPT, Claude oder Gemini. Mit einer Implementierung wird im kommenden Jahr gerechnet. Apple hat seit Jahren Probleme, mit seiner KI-Technik zu OpenAI, Anthropic oder Google aufzuschließen. Gemini soll angeblich auf Apples eigenen Servern laufen, eine offizielle Ankündigung ist nicht geplant.

Ein Preis für den Deal wurde ebenfalls genannt: eine Milliarde Dollar im Jahr. Apple verdient von Google bereits jetzt deutlich mehr. Rund 20 Milliarden Dollar sollen nur dafür fließen, dass Google seine Suchmaschine als Standard auf iPhone, Mac und iPad platzieren darf. Weder Google noch Apple haben sich zu dem Bericht geäußert. Vor Frühjahr 2026 ist mit offiziellen Informationen nichts zu rechnen.

Inception, ein KI-Start-up, hat 50 Millionen Dollar Kapital eingesammelt, angeführt von Menlo Ventures, einem Risikokapitalgeber. Beteiligt sind auch Microsoft, Nvidia, Databricks und Snowflake. Inception setzt auf Diffusionsmodelle für Text und Code. Diese Technik, bekannt aus der Bildgenerierung, erstellt komplette Inhalte wie Code-Blöcke oder Essays auf einmal und verfeinert sie dann stufenweise, statt sie Wort für Wort zu generieren.

Das Ergebnis: deutlich höhere Geschwindigkeit. Das hauseigene Modell Mercury schafft mehr als 1.000 Token pro Sekunde. Herkömmliche Modelle wie GPT-4 erreichen nur 40 bis 60 Token. An die Qualität dieser Modelle reicht Mercury aber nicht heran.

Fendt, ein Landmaschinenhersteller, hat auf der Agritechnica in Hannover den vollautonomen Feldroboter Xaver GT vorgestellt. Das System arbeitet komplett ohne menschliche Bedienperson und soll Landwirten helfen, den Pestizideinsatz zu reduzieren. Die mechanische Unkrautbekämpfung erlebt laut Fendt eine Renaissance. Resistenzen von Beikräutern gegen Herbizide und der gesellschaftliche Druck zur Pestizidreduktion treiben diese Entwicklung voran.

Der autonome Xaver GT nutzt Sensortechnik sowie KI-gestützte Bildverarbeitung für die Navigation. Für die exakte Reihenführung wird eine kamerabasierte Pflanzenreihenerkennung eingesetzt. Die KI des „RowPilot“ soll zwischen Kulturpflanzen und Beikräutern unterscheiden und die Hackgeräte entsprechend steuern. Das könnte vor allem für ökologisch wirtschaftende Betriebe interessant sein, da mechanische Unkrautbekämpfung dort die einzige Option darstellt. Aber auch konventionelle Betriebe nutzen zunehmend mechanische Verfahren.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(mali)



Source link

Weiterlesen

Beliebt