Connect with us

Künstliche Intelligenz

Kurz erklärt: Das steckt hinter dem Modewort KI-Agenten


Während die Reasoning-Fähigkeiten großer Sprachmodelle (Large Language Models, LLMs) total 2024 sind, betonen die Modellanbieter jetzt die agentische Natur ihrer Systeme. Gemeint ist damit, dass die Modelle komplexe Aufgaben autonom lösen und dazu selbstständig weitere LLMs oder andere Werkzeuge hinzuziehen. Das kann vom Browser und der Taschenrechner-App über die Dokumentenablage bis zur Entwicklungsumgebung reichen.

Ziel der autonomen agentischen LLMs ist laut Werbeversprechen, die bisherige Arbeitswelt umzukrempeln, die Digitalisierung der Wirtschaft und Verwaltung abzuschließen und schlussendlich Menschen bei vielen Tätigkeiten zu ersetzen – was Kosten einspart. Nicht nur bei öden, repetitiven Aufgaben – auch komplexe Geschäftsprozesse, Softwareentwicklung und Forschung sind das Ziel der Agenten. Während die Wirtschaft – vom KMU bis zum Megakonzern – damit einen Wachstumsschub erfahren soll, würden die Systeme Angestellten dann Zeit für andere Aufgaben geben, die bislang ständig hinten runterfallen. Unterm Strich soll die Technik alle noch effizienter machen und die Lücke der Fachkräfte füllen, erklären die Eltern des Gedanken.

Abstrakt annähern kann man die Fähigkeiten der agentischen LLMs am besten über einen Vergleich mit den Stufen des autonomen Fahrens (siehe Kasten). Werbung und Release Notes versprechen voll automatisierte KI-Systeme (Stufe 4). Glaubt man dem Hype, wird Artificial General Intelligence (AGI) spätestens mit GPT-5 den Menschen obsolet machen (Stufe 5). Erfahrungsberichte klingen eher nach einer Automatisierung zwischen den Stufen 2 und 3. Nutzer müssen jederzeit eingreifen können, wenn sich die Sprachmodelle verlaufen, oder die Modelle prompten bei bestimmten Entscheidungen die Nutzer und warten dann, bis die Menschen gutgläubig ihre Kreditkartendaten und Passwörter eingegeben haben.

Stufe 0: Manuelles Fahren.

Stufe 1: Assistiert. Fahrer führen die Lenkbewegungen aus, das Fahrzeugsystem erledigt Aktivitäten wie Bremsen, Blinken oder Beschleunigen.

Stufe 2: Teilautomatisiert. Ein Mensch muss das System dauerhaft überwachen und im Zweifelsfall eingreifen.

Stufe 3: Hoch automatisiert. Ein Mensch muss am Platz sein, aber das System nicht dauerhaft überwachen.

Stufe 4: Voll automatisiert. Das System kann in speziellen Situationen alle Fahranforderungen selbstständig bewältigen.

Wie es um die tatsächlichen Fähigkeiten der Sprachmodelle bestellt ist, läuft auf eine Glaubensfrage hinaus. Fans der Technik heben ihren Produktionszuwachs hervor, zeigen erfolgreiche Prototypen oder präsentieren in sozialen Netzwerken erstaunliche Ergebnisse von künstlicher Intelligenz. Auf der anderen Seite sehen die Kritiker LLMs als stochastische Sprachwürfelmaschinen, die sich in manchen Bereichen besser schlagen als in anderen, unterm Strich aber meist enttäuschen – es sei denn, man würfelt so lange, bis das Ergebnis vorzeigbar genug ist, wobei mit jedem Würfelwurf Kosten entstehen.

Strukturiertere Erkenntnisse bieten die gängigen Benchmarks für große Sprachmodelle (etwa GPQA, AIME, SWE-bench oder MMLU). Hier erstrecken sich die Testfelder über das Programmieren, Recherchieren und Fachwissen in den Naturwissenschaften. Geschlossene Modelle erreichen bei jedem Release neue Höchstwerte, offenere Modelle kommen an die proprietären Konkurrenten heran – der Spielraum ist in beiden Fällen zwei bis drei Prozentpunkte. Während die Benchmarks den LLMs grundsätzlich gute bis sehr gute allgemeine Fähigkeiten bescheinigen, sind die genauen Zahlen mit Vorsicht zu genießen. Seit einer Weile besteht der Verdacht, dass Anbieter ihre Modelle speziell auf die Tests trainieren, also Benchmaxing betreiben – bei keinem Flaggschiffmodell sind die Trainingsdaten bekannt. Dann gibt es noch die LMArena, in der Menschen bei Blindtests den Stil und die Qualität von Modellen bei beliebigen Prompts bewerten. Ein Leaderboard drückt das Ergebnis mit einer ELO aus. Auch hier haben Anbieter zuletzt mit besonders gefälligen Varianten getrickst, dennoch lassen sich hier Trends quantifiziert ablesen.

Für die Qualität der Modelle in Produktion gibt es bisher nur anekdotische Evidenz, kein Unternehmen rückt mit Messungen zum Effizienzzuwachs raus, für das Programmieren scheint das aktuell umstritten zu sein. Zwar kein guter Indikator für den deutschen Mittelstand, aber für die Lage in der Branche sind die aktuellen Quartalszahlen von Meta und Microsoft. Meta verdient sein Geld fast ausschließlich mit Werbung, Microsoft wächst besonders stark im Bereich Azure Cloud, in dem man auch die KI-Workloads verrechnet, schlüsselt das jedoch nicht genauer auf. Es ist anzunehmen, dass besonders Microsoft hohe Gewinne durch LLMs und andere KI-Produkte seiner Konkurrenz und den Aktionären unter die Nase reiben würde.

Derweil gibt es Techniken, die die Ausgabequalität oder den Nutzen der großen Sprachmodelle für den Unternehmenseinsatz steigern. Mit Retrieval Augmented Generation (RAG) nähert man die Sprachmodelle mit den eigenen Dokumenten an die richtige Problemdomäne an, was Halluzinationen reduzieren kann. Mit Agentenframeworks und zuletzt dem MCP gibt es Mittel, mit denen sich Sprachmodelle strukturiert miteinander oder mit allen denkbaren Werkzeugen verbinden lassen. Hier gibt man den Modellen jedoch eine Auswahl vor, sie können sich nicht autonom beliebige Werkzeuge aussuchen. Diese Konstrukte muss man in Produktion testen – hier gibt es zwar positive Erfahrungsberichte, aber keine Benchmarks oder Zahlen. Ob sich das Skalieren der Anwendungen dann rechnet, ist ebenfalls erst in Produktion ersichtlich.

Wer jetzt ein Agentic-AI-Produkt für den Unternehmenseinsatz kauft, wird höchstwahrscheinlich teilautomatisierte Abläufe bekommen; im besten Fall passt die Unternehmensstruktur und die Angestellten müssen die automatisierten Prozesse nur noch überwachen. Das muss dabei nicht immer mit LLMs zu tun haben. Auf dem Stand der Digitalisierung in Verwaltung und KMUs ist auch mit klassischen Mitteln noch viel zu holen. Sogar die Analysten bei Gartner, die selbst gerne Hypes pushen und verkaufen, warnen davor, dass von 1.000 geprüften Produkten für KI-Agenten nur 130 mehr als heiße Luft vorweisen konnten.

Ihre Stärken haben die großen Sprachmodelle bei der Textarbeit, der Dokumentensuche und dem Zusammenfassen von Inhalten. Während die reinen Sprachfähigkeiten der LLMs außer Frage stehen, bewegen sich sehr gute Ergebnisse beim Programmieren je nach Benchmark und Modell zwischen 30 und 90 Prozent, bei Recherche und Naturwissenschaften zwischen 50 und 85 Prozent. Natürlich erreicht nicht jeder Mensch dieselbe Bewertung bei diesen Aufgaben. Gerade bei exotischen Spezialfällen knicken die LLMs dann häufig ein – genau bei den Problemen, für die man Facharbeiter oder Domänenexperten beschäftigt.

LLMs enthalten eine gewaltige Bandbreite an Wissen zu den verschiedensten Themen – schließlich sind die Topmodelle der großen Anbieter mit allem digital verfügbaren Wissen der Menschheit trainiert und lassen sich danach abfragen. Offen ist jedoch: Erreichen LLMs mit dem ungenauen Werkzeug Sprache über eine statistische Annäherung am Ende ein eindeutiges Ergebnis? Reicht ein System, das überzeugend spricht, aber nur in der Hälfte oder drei Viertel der Fälle richtig liegt, für autonome Lösungsfindung? Oder bleiben diese Systeme wie die selbstfahrenden Pkws auf Stufe 3 der Autonomie stecken?


(pst)



Source link

Künstliche Intelligenz

Leiser Premium Mini-PC mit Intel Ultra 9 überzeugt: Minisforum M1 Pro im Test


Der Minisforum M1 Pro ist ein starker Mini-PC mit Intel-CPU. Zudem bietet er Oculink, zweimal USB4, davon einer mit PD-in, und einen integrierten Lautsprecher.

Minisforum hat es wieder getan: Der M1 Pro ist ein hervorragend ausgestatteter Mini-PC mit Intel Core Ultra 9 285H – und im Test dennoch schweigsam. Das hatten wir in der Vergangenheit etwa bereits mit dem Minisforum UM890 Pro (Testbericht), der trotz brachialer Leistung absolut leise blieb. Minisforum zählt neben Geekom zu den bekanntesten Mini-PC-Herstellern und konnte oft durch starke Preise und viele Zusatzfeatures, wie der Eingangsstromversorgung über USB-C, überzeugen. Bei unserem System handelt es sich gewissermaßen um die neue Variante des M1 Pro-125H, also um die Premium-Ausstattung mit Spitzenleistung. Das System runden 32 GB Arbeitsspeicher (RAM) und eine SSD mit 1 TB ab. Ob der Mini-PC mit einem Startpreis von 750 Euro im Spitzensegment mitmischen kann, zeigt unser Test.

Das Testgerät hat uns der Hersteller zur Verfügung gestellt.

Ausstattung: Welche Hardware bietet der Minisforum M1 Pro?

Der Minisforum M1 Pro-285H ist, wie man bereits erahnen kann, mit dem Intel Core Ultra 9 285H ausgestattet. Dieser 16-Kerner setzt neben Intels big.Little-Architektur nun auch auf ein Chiplet-Design. Das SoC verfügt über 6 Performance-Kerne (Lion Cove), die mit bis zu 5,4 GHz die maximale Leistung aus der Architektur bereitstellen. Die 8 kleineren Effizienzkerne takten mit 4,5 GHz und setzen auf die ältere Skylake-Architektur. Zudem gibt es noch zwei Low-Power-Effizienzkerne mit bis zu 2,5 GHz, die ebenfalls auf Skylake basieren. Die 16 Kerne unterstützen kein Hyperthreading und haben Zugriff auf 24 MB Cache. Der Chip ist mit einer TDP (Thermal Design Power) von 45 W spezifiziert.

Die integrierte Grafikeinheit hört auf den Namen Arc 140T und soll das bisherige Leistungsdefizit zur AMD-Konkurrenz deutlich reduzieren. Dazu hat die iGPU acht Kerne, die mit bis zu 2,35 GHz takten können.

Die integrierte NPU ist mit 13 TOPS eher schwach. Wegen bisher größtenteils fehlender Unterstützung der Programme ist das zum aktuellen Zeitpunkt jedoch auch kein allzu großer Verlust. Insgesamt bietet das System bis 99 TOPS an KI-Leistung.

Zur weiteren Ausstattung gehören 32 GB RAM in Form von zwei SO-DIMM-Modulen im DDR5-Standard. Die Übertragungsrate der Riegel von Adata liegt bei den üblichen 5600 MT/s. Nach Herstellerangaben kann der RAM auf eine Gesamtkapazität von 128 GB mit 6400 MT/s aufgerüstet werden. Der Speichercontroller der CPU unterstützt offiziell sogar bis zu 192 GB mit 6400 MT/s für SO-DIMM-Module. Wir konnten unser 96-GB-Kit von Corsair mit 5600 MT/s problemlos nutzen, mehr Kapazität stand uns zum Testzeitpunkt nicht zur Verfügung.

Minisforum M1 Pro: RAM & SSD

Beim Speicher gibt es eine M.2-SSD im Formfaktor 2280 mit 1 TB Kapazität. Diese ist von Kingston über PCIe 4.0 angebunden und damit hervorragend schnell. Mit Crystaldiskmark messen wir 6120 MB/s im Lesen und 5265 MB/s im Schreiben. Zudem steht ein weiterer, noch freier M.2-Anschluss im Formfaktor 2280 zur Verfügung. Zur maximal unterstützten Kapazität macht der Hersteller keine Angaben, üblich sind 4 TB pro Steckplatz.

Der Mini-PC verfügt gleich über zwei USB4-Anschlüsse im Typ C, wobei nur der auf der Rückseite die Eingangsstromversorgung bis 100 W unterstützt. So stehen via Displayport-alt-mode (DP 1.4a) für Bildschirme eine Übertragungsrate bis 32 GBit/s bereit. Die gesamte USB-Schnittstelle überträgt mit maximal 40 GB/s. Zudem gibt es einen modernen HDMI-2.1- und einen älteren Displayport-1.4-Anschluss. Für die Kommunikation mit externen Grafikkarten, womit man den Mini-PC zum Gaming- oder Workstation-PC aufrüsten kann, gibt es zudem einmal Oculink. Die klassischen USB-A-Anschlüsse sind jedoch rar, hier gibt es insgesamt nur noch drei Stück. Der einzelne RJ45-Ethernet-Port kommuniziert über den Intel-Chipsatz I226-V mit maximal 2,5 Gigabit. Drahtlos funkt der Mini-PC mit den sehr aktuellen Standards Wi-Fi 7 und Bluetooth 5.4. Die Kommunikation erfolgt über den Chipsatz BE200, ebenfalls von Intel.

Der Mini-PC kommt zudem noch mit einem seltenen Feature: einem integrierten Lautsprecher. Die Qualität erinnert uns an einen im Monitor integrierten Speaker, der eher leise ist. Die Wiedergabequalität würden wir als okay bezeichnen, der Lautsprecher genügt zur Ausgabe von Benachrichtigungssounds. Ein Ersatz für Kopfhörer oder richtige Soundsysteme ist er aber definitiv nicht.

Performance: Wie schnell ist der Minisforum M1 Pro?

In den vergangenen Jahren konnte Intel im Mobilsektor sowohl preislich als auch leistungstechnisch nicht mit AMD mithalten. Mit der Ultra-200-Serie konnte Intel zumindest in den Benchmarks die Konkurrenz von AMD überholen, wie unser Test des Geekom Mini IT15 (Testbericht) zeigt. Allerdings: Bei der Vorgängergeneration Intel-Ultra-100 ist aufgefallen, dass ein gutes Benchmarkergebnis nicht unbedingt ein gutes Spieleergebnis zu bedeuten hat.

Im PCmark 10 erzielt das System durchschnittlich 8097 Punkte – ein ausgezeichnetes Ergebnis, jedoch über 200 Punkte hinter dem Geekom IT 15. Die 4100 Punkte im 3Dmark Time Spy, zusammengesetzt aus 11.114 CPU- und 3690 Grafik-Punkten, sind ebenfalls auf Top-Niveau. Der IT15 holt 100 Punkte mehr, allerdings nur durch eine stärkere Grafik. Der CPU-Score ist sogar leicht schwächer (10.056 Punkte). Cinebench R24 attestiert dem System 128 Punkte im Single- und 981 Punkte im Multicore (IT15: 126 und 860 Punkte). Damit bestätigt sich die erste Beobachtung einer leicht stärkeren CPU-Leistung im M1 Pro. Zuletzt erreicht das System im Cross-Plattform-Benchmark Geekbench 6 2980 Punkte im Single- und 15.115 Punkte im Multicore. Der integrierte OpenCL-Grafikbenchmark vergibt 41.087 Punkte.

Nun aber zur tatsächlichen Leistung mit unseren Spieltests. Wir spielen Anno 1800 in Full-HD bei hohen Einstellungen und zunächst deaktiviertem FSR (Fidelity FX Super Resolution). In unserem fortgeschrittenen Endlosspiel erhalten wir beim Blick auf die 50.000-Einwohner-Metropole durchschnittlich 22 FPS. Damit fühlt sich alles sehr ruckelig an und unsere Aktionen werden nur mit deutlicher Verzögerung ausgeführt. Aktivieren wir FSR im Modus „Leistung“ erhalten wir im Schnitt 47 FPS bei hohen Einstellungen. Das Ruckeln wird dadurch allerdings kaum besser.

Ebenfalls in Full-HD spielen wir Cities Skylines. Das Spiel ist ein wenig leistungshungriger, weshalb wir mittlere Einstellungen mit dynamischer Auflösungsskalierung wählen. Bei unserem Spielstand mit 11.000 Einwohnern erhalten wir durchschnittlich 14 FPS. Schrauben wir die Einstellungen auf das niedrige Preset herunter, sind es 22 FPS, bei „sehr niedrig“ schließlich 30 FPS. Damit ist es nur schlecht spielbar und die Grafik ungenießbar. So zeigt dieses System, dass Intel auf einem guten Weg ist, wieder konkurrenzfähig zu sein. Wirklich spiele-tauglich ist der Mini-PC allerdings nur bei „leichten“ Titeln wie eben Anno 1800.

KI: Wie gut laufen lokale LLMs?

Wie üblich bei modernen, leistungsstarken Mini-PCs wirbt auch dieser mit KI. So besitzt das System eine NPU, welche von nahezu keinen Programmen wirklich verwendet wird. Um den KI-Features gerecht zu werden, haben wir lokale LLMs (Large Language Models) mit LM Studio auf dem System laufen lassen. Das Programm kann aktuell ebenfalls nicht die Rechenleistung der NPUs nutzen. Stattdessen erfolgt die Berechnung primär auf der Grafikeinheit und im Zweifel auch auf der CPU. Wir nutzen das MoE-Modell (Mixture of Experts) gpt-oss-20b von OpenAI. Dieses kann vollständig in den Grafikspeicher geladen und von der GPU verarbeitet werden. Auf unseren Prompt „Schreibe mir eine spannende Geschichte mit mindestens 1000 Wörtern“ antwortet das System mit 15,47 Tokens/s. Die Geschichte ist am Ende knapp 1200 Wörter lang, die Qualität lassen wir in diesem Fall unbeachtet.

Verbrauch: Wie hoch ist die Leistungsaufnahme des Minisforum M1 Pro?

Im Idle verbraucht der Mini-PC durchschnittlich 15 Watt. Unter Volllast steigt der Verbrauch dann zunächst auf bis zu 78 Watt an. Dabei liegt die durchschnittliche Taktraten über alle Kerne der CPU bei 3,2 GHz. Erst nach knapp 2 Minuten sinkt der durchschnittliche Takt auf 2,8 GHz. Der Verbrauch beträgt dann im Mittel 70 Watt. Im weiteren Verlauf bleiben sowohl Takt als auch Verbrauch annähernd konstant. Den Stresstest in Aida64 besteht das System ohne weitere Auffälligkeiten.

Lüfter: Wie laut ist der Minisforum M1 Pro?

Minisforum M1 Pro: Wärmeverteilung am Gehäuse

Unter Last bleibt der Lüfter erstaunlich leise, ohne dass die CPU überhitzt. Im Stresstest messen wir eine maximale CPU-Temperatur von 82 Grad und eine GPU-Temperatur von 70 Grad. Das sind beides gute Werte, gerade für mobile Prozessoren, die generell zu höheren Temperaturen neigen. Das Erstaunliche dabei: Wir messen mit dem Smartphone nur 26 dB(A) am Gehäuse und 20 dB(A) in einem Meter Entfernung. Die Umgebungslautstärke beträgt dabei 17 dB(A). Damit ist das System enorm leise, ähnlich starke Mini-PC überschreiten gut und gerne die 30-dB-Marke. Das BIOS bietet, wie üblich für Minisforum, enorm viele Einstellungen, darunter auch Lüfter- und sehr detaillierte Leistungsmodi.

Software: Welches Betriebssystem ist auf dem Minisforum M1 Pro installiert?

Auf dem Minisforum M1 Pro ist Windows 11 Pro vorinstalliert. Ein vollständiger Virenscan mit dem Windows Defender bleibt ohne Befund.

Minisforum M1 Pro: Übersichtliches BIOS

Das System verzichtet zudem auf jegliche Bloatware mit Ausnahme der Microsoft-Apps und -Dienste. Auch Linux, bei uns am Beispiel von Ubuntu 24.04.3 LTS getestet, funktioniert problemlos auf dem M1 Pro. Beim Booten wird direkt die richtige Displayauflösung gefunden, WLAN und Bluetooth sind ebenfalls bereit. Auch der integrierte Lautsprecher wird korrekt erkannt und angesteuert, und sogar das Aufwecken aus dem Ruhemodus ist kein Problem – besser geht es nicht.

Gehäuse: Wie ist die Verarbeitung des Minisforum M1 Pro?

Optisch erinnert das hellgraue Gehäuse des M1 Pro stark an die Mini-PCs A9 Max und GT1 Mega von Geekom. Allerdings unterscheidet sich der M1 Pro mit Außenmaßen von 128 × 126 × 59 mm. Sein Gewicht beläuft sich dabei auf 657 g. Seitlich hat das Gehäuse jeweils eine große Mesh-Front für den Luftaustausch. Die Oberseite ziert nur der Schriftzug des Herstellers. Auf der Rückseite gibt es ein wenig Kunststoff, in dem die zahlreichen Anschlüsse ihren Platz finden. Auch die Bodenplatte ist aus Kunststoff gefertigt. Die Verarbeitung ist rundum tadellos, wie man es auch für einen Mini-PC dieser Preisklasse erwartet.

Minisforum M1 Pro: Geöffnetes Gehäuse mit Bodenplatte und Schrauben

Auf der Unterseite befinden sich vier lange Kreuzschlitzschrauben. Nach dem Lösen dieser muss die Abdeckung vorsichtig aufgehebelt werden – es gibt gleich zwei Kabel, die Mainboard und Bodenplatte verbinden. Nachdem die Platte entfernt ist, erhält man Zugriff auf RAM, beide M.2-Steckplätze, das Wi-Fi-Modul und die CMOS-Batterie. Leider kann das gesamte Mainboard nur herausgenommen werden, wenn man vorher beide Antennenkabel vom Wi-Fi-Modul löst – blöd nur, dass gerade diese Stecker sehr nervig zu lösen und gleichzeitig empfindlich sind.

Preis: Was kostet der Minisforum M1 Pro?

Zum Zeitpunkt des Tests suchen wir den Minisforum M1 Pro-285H auf der Herstellerseite vergeblich. Auf Amazon gibt es die Barbone-Variante, also ohne Arbeitsspeicher und SSD, für 750 Euro. Die von uns getestete Variante mit 32 GB RAM und 1 TB SSD kostet 994 Euro bei Proshop.

Fazit

Der M1 Pro ist ein enorm leistungsstarker Premium-Mini-PC. Er bietet zudem moderne und vielfältige Anschlüsse mit USB4 Typ C, Oculink und Wi-Fi 7. Auch RAM und SSD stehen der Konkurrenz in nichts nach. Der M1 Pro ist mit seinem Preis von 994 Euro definitiv nicht billig. Wer auf ein wenig Leistung verzichten kann, ist Preis-Leistungs-technisch im Bereich von 500 bis 700 Euro meist besser aufgehoben. Dafür bietet der M1 Pro mit die beste Leistung und eine der besten Ausstattungen, die man derzeit kaufen kann.



Source link

Weiterlesen

Künstliche Intelligenz

KI-Update kompakt: OpenAI, Microsofts Web-Agent, selbstbewusste KI, Apple


Weiterlesen nach der Anzeige

OpenAI schreibt weiter Milliardenverluste. Das zeigen die aktuellen Quartalszahlen von Microsoft. Die Dimensionen sind bemerkenswert: OpenAI nimmt derzeit etwa 13 Milliarden Dollar im Jahr ein. Gleichzeitig hat das Unternehmen vertraglich bereits rund eine Billion Dollar für mehrere Projekte zugesagt. Das Geld fließt vor allem in Infrastrukturprojekte mit Partnern wie Nvidia und Oracle.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

In einem Podcast musste sich Sam Altman nun unangenehmen Fragen stellen. Brad Gerstner, selbst Risikokapitalgeber und Investor, wollte wissen, wie diese Rechnung aufgehen soll. Altmans Antwort fiel gereizt aus: Wenn Gerstner seine Anteile verkaufen wolle, finde sich sicher ein Käufer. Altman versprach, OpenAI werde schnell deutlich mehr Geld verdienen. Er sprach von 100 Milliarden Dollar im Jahr 2027. Konkrete Pläne fehlen. Bekannt ist: Es soll Hardware kommen, der Videogenerator Sora wird teurer und OpenAI will KI-Cloud-Anbieter werden. Auf die Frage nach den finanziellen Problemen sagte Altman im Podcast schließlich nur noch: „Ich habe… genug“.

OpenAI hat zwei neue Modelle vorgestellt: gpt-oss-safeguard mit 120 Milliarden Parametern und eine kleinere Version mit 20 Milliarden Parametern. Beide sind Open-Weight-Reasoning-Modelle für den Unternehmenseinsatz. Der Fokus lag bei der Entwicklung auf der Durchsetzung von Sicherheitsmaßnahmen. Die Modelle sollen besonders gut Richtlinien befolgen können.

Die Gedankenketten des Modells lassen sich einsehen und überprüfen. Das soll helfen zu verstehen, wie Modelle zu Entscheidungen kommen. Die Modelle stehen unter Apache-2.0-Lizenz und sind bei Hugging Face verfügbar.

Weiterlesen nach der Anzeige

Microsoft stattet seinen 365-Copilot mit einem Web-Agenten aus. Der heißt „Researcher with Computer Use“ und kann im Browser navigieren, klicken und Code ausführen. Er soll komplexe Aufgaben wie Recherchen und Analysen automatisieren. Die Ausführung erfolgt in einer isolierten virtuellen Windows-365-Maschine, die vollständig vom Unternehmensnetzwerk und dem Nutzergerät getrennt ist.

Der Researcher kann auch auf Inhalte hinter Logins zugreifen, etwa bei Paywall-Artikeln oder in firmenspezifischen Datenbanken. Administratoren steuern zentral, welche Nutzergruppen den Modus verwenden dürfen und welche Webseiten zugänglich sind. Trotz der technischen Schutzmaßnahmen bleibt ein Risiko: Zahlreiche Studien weisen auf Sicherheitsprobleme bei autonom agierenden KI-Systemen hin.

Die Bundesregierung hat ihre Änderungswünsche für die KI-Verordnung nach Brüssel gesandt. Besonders lang geraten ist die Liste der Änderungswünsche. Der wohl wichtigste Vorschlag: Für die beiden Hochrisikobereiche der Anhänge I und III soll die Anwendung um ein Jahr verzögert werden. Hinter Anhang I verbergen sich bereits anderweitig regulierte Systeme wie Spielzeug oder Motorboote. Anhang III befasst sich unter anderem mit Systemen zur biometrischen Überwachung und kritischer Infrastruktur.

Diskussionen dürfte die Forderung nach einer ersatzlosen Streichung der Folgeabschätzung für Hochrisikosysteme für die Menschenrechte auslösen. Gerade die Frage, ob algorithmisch erlernte Diskriminierung sich verstärkt oder ob nichteuropäische Modelle den europäischen Wertevorstellungen widersprechen, war in der Entstehungsgeschichte der KI-Verordnung von großer Bedeutung.

Ein Forschungsteam um Judd Rosenblatt von AE Studio hat untersucht, unter welchen Bedingungen große Sprachmodelle Aussagen über subjektives Erleben machen. Die Ergebnisse widersprechen gängigen Annahmen. Einfache Prompts wie „Fokussiere den Fokus selbst“ führen systematisch dazu, dass Modelle in der Ich-Perspektive über Erfahrung sprechen. In Kontrollbedingungen verneinten die Modelle fast durchgängig, über subjektives Erleben zu verfügen.

Besonders überraschend: Die Forscher analysierten im Llama-70B-Modell Features, die mit Täuschung und Rollenspiel verknüpft sind. Wurden die Täuschungsmerkmale unterdrückt, stieg die Rate der Erlebensbehauptungen auf 96 Prozent. Wurden sie verstärkt, sank sie auf 16 Prozent. Die Forscher betonen: Ihre Ergebnisse sind kein Beweis für maschinelles Bewusstsein. Sie zeigen aber, dass bestimmte rechnerische Zustände systematisch zu Bewusstseinsbehauptungen führen. Die Studie wirft grundlegende Fragen auf über die Mechanismen dieser Systeme, die bereits in großem Maßstab eingesetzt werden.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Bill Gates reiht sich in die Gruppe der Experten ein, die in der aktuellen KI-Euphorie eine Blase sehen. In einem CNBC-Interview sagte er, viele Unternehmen investierten massiv in Chips und Rechenzentren, obwohl sie noch keinen Gewinn mit KI erzielten. Einige dieser Investitionen würden sich später als Fehlschläge herausstellen.

Wie Gates hatten auch OpenAI-Chef Sam Altman und die bekannten KI-Forscher Stuart Russell, Yann LeCun und weitere Experten vor Überbewertungen gewarnt. Trotzdem bezeichnet Gates KI als die größte technische Entwicklung seines Lebens. Der wirtschaftliche Wert sei enorm.

Der weltgrößte Musik-Konzern Universal Music öffnet die Tür für das Training Künstlicher Intelligenz mit Werken seiner Künstler. Universal schloss eine Vereinbarung mit der Plattform Udio, die KI-Songs aus Text-Vorgaben erstellen kann. Im kommenden Jahr soll ein kostenpflichtiger Abo-Dienst starten, für dessen Training Udio sich Lizenzen bei Universal Music beschafft. Universal Music hat unter anderem Taylor Swift, Billie Eilish und Elton John unter Vertrag.

Mit der Vereinbarung wird die Klage von Universal Music gegen Udio beigelegt. Die bisherige Version von Udio bekommt aber Einschränkungen: Die generierten Songs dürfen nicht mehr auf Streaming-Dienste hochgeladen werden. Das sorgte für massive Kritik. „Die Leute sind verletzt, frustriert und enttäuscht, weil dies eine komplette Veränderung in der Art und Weise ist, wie wir die Plattform nutzen“, schrieb ein User auf Reddit.

Die US-Entwicklerfirma Character Technologies kündigt umfassende Änderungen an, um Jugendliche bei der Interaktion mit ihren KI-Chatbots besser zu schützen. Nutzern unter 18 Jahren soll es künftig nicht mehr möglich sein, unbegrenzte Chat-Gespräche mit den KI-Charakteren zu führen. Die neue Regelung soll am 25. November in Kraft treten. Bis dahin wird die Zeit für solche Gespräche zunächst auf zwei Stunden pro Tag begrenzt.

Hintergrund sind Klagen mehrerer Familien in den USA, die den Chatbots von Character.AI eine Rolle beim Suizid ihrer Kinder zuschreiben. Generell ist die Rolle von KI mit Blick auf die psychische Gesundheit junger Menschen in den USA zunehmend Gegenstand einer kontroversen Debatte. Auch OpenAI kündigte nach einer ähnlichen Klage verbesserte Maßnahmen zur Suizid-Prävention an.

Apple lässt es beim KI-Hype weiter langsam angehen. Der Konzern vermarktet weder einen eigenen Chatbot noch Bezahldienste für Apple Intelligence mit mehr Power, setzt hingegen auf lokale Modelle und privatsphärengeschützte Cloud-Services. Immerhin steigen die Investitionen: Die Investitionsausgaben steigen vor allem dank KI auf 18,1 bis 18,5 Milliarden Dollar. Laut Finanzchef Kevan Parekh ist das ein signifikanter Zuwachs.

Konzernchef Tim Cook betonte, Apple sei offen für Aufkäufe, auch für KI-Grundmodelle. Das Problem: Die Preise sind mittlerweile derart hoch, dass dies selbst für Apples tiefe Taschen zum Problem werden könnte. Zur überarbeiteten Sprachassistentin Siri sagte Cook, man sei weiter auf Kurs für eine Veröffentlichung im kommenden Jahr. Allerdings sollen die Teams unlängst intern Bedenken geäußert haben.

Zahlreiche Jugendliche haben Sorgen wegen KI und ihrer beruflichen Zukunft, wie aus einer Umfrage für die Barmer hervorgeht. Für die Sinus-Jugendstudie wurden 2000 Jugendliche im Alter von 14 bis 17 Jahren befragt. Fast alle gaben an, den Begriff KI schon gehört zu haben, fast drei Viertel sind davon überzeugt, Künstliche Intelligenz auch erklären zu können. Nur neun Prozent gaben an, KI noch nie genutzt zu haben.

Offenbar kennen sich Jugendliche mittlerweile recht gut mit KI aus. Daher rühren wohl auch die Sorgen: 22 Prozent sehen durch KI-Tools ihre Zukunft auf dem Arbeitsmarkt gefährdet, vor allem im Bereich der Elektrotechnik und der Produktion.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Weiterlesen

Künstliche Intelligenz

iX-Workshops im Dezember: Windows Server und Active Directory gezielt absichern


Windows Server und Active Directory sind zentrale Bestandteile der IT-Infrastruktur vieler Unternehmen. Damit sind sie auch beliebte Ziele für Angriffe aus dem Netz. Umso wichtiger ist eine professionelle und wirksame Prävention, um Cyberangriffe zu verhindern, Sicherheitsstandards zu entsprechen und regulatorische Vorgaben zu erfüllen.

Weiterlesen nach der Anzeige

Im Praxisworkshop Windows Server absichern und härten lernen Sie, wie Sie Ihre Windows Server-Systeme effizient und nachhaltig härten können. Sie erhalten einen umfassenden und praxisnahen Einblick in die Konzepte der Systemhärtung und lernen, wie Sie Windows Server von Grund auf und prozessorientiert absichern, welche Unterschiede zwischen manueller und zentraler Konfiguration bestehen und warum die Härtung über Gruppenrichtlinien/GPOs oft ineffizient ist. Darüber hinaus erfahren Sie, welche Anforderungen sich aus regulatorischen Vorgaben ergeben und wie Sie Schutzmaßnahmen in Ihre Infrastruktur integrieren können.

Der Workshop ist stark praxisorientiert und kombiniert theoretische Einheiten mit vertiefenden Übungen, wie z.B. die Anwendung des Open Source Tools AuditTAP und die Erstellung einer Hardening GPO auf Basis von CIS. Darüber hinaus arbeiten Sie an konkreten Fallbeispielen und diskutieren typische Fallstricke in Hardening-Projekten. So sammeln Sie praktische Erfahrungen und können das Gelernte direkt in Ihrer eigenen Arbeit anwenden.

Am 1. und 2. Dezember 2025 führen in Frankfurt am Main die beiden Referenten Florian Bröder, Geschäftsführer der FB Pro GmbH, und Fabian Böhm, Managing Director der TEAL Technology Consulting GmbH. Beide Trainer sind auf präventive IT-Sicherheit, insbesondere Systemhärtung, spezialisiert, betreuen Kunden in den Bereichen Active Directory, PKI und Cloud und unterstützen sie dabei, ihr Sicherheitsniveau zu verbessern und Angriffe frühzeitig zu erkennen.

Im iX-Workshop Angriffsziel lokales Active Directory: Effiziente Absicherung lernen Sie zunächst die Grundlagen von AD-Objekten und Authentifizierungsprotokollen wie Kerberos und Net-NTLM kennen. Sie erhalten Einblicke in typische Angriffswege – von der Informationssammlung über Fehlkonfigurationen bis zu Techniken wie Pass the Hash, Kerberoasting, Lateral Movement und Delegierungsangriffen. Auch verbundene Dienste wie SQL-Server und Exchange werden betrachtet.

Weiterlesen nach der Anzeige

Darauf aufbauend werden konkrete Schutzmaßnahmen vermittelt: das Aufspüren und Beheben von Schwachstellen mit Tools wie PowerView, BloodHound und PingCastle, Härtung durch Rechtevergabe, Tiering, LAPS und Schutz administrativer Konten. Zudem lernen Sie, Angriffe frühzeitig zu erkennen – durch Log- und Auditeinstellungen, zentrale Protokollauswertung, Sicherheitslösungen und Deception-Technologien wie Honeypots.

Referent des dreitägigen Präsenz-Workshops ist Frank Ully, der Sie vom 17. bis zum 19. Dezember 2025 in München durch die Inhalte führt. Als erfahrener Pentester konzentriert er sich auf relevante Entwicklungen im Bereich der offensiven IT-Sicherheit.


IT-Security-Workshops

IT-Security-Workshops


(ilk)



Source link

Weiterlesen

Beliebt