Connect with us

Künstliche Intelligenz

KI-Update: Google Beam, GPT-5.4, Wahnbeziehung zu Gemini, KI-Fazit vom MWC


Weiterlesen nach der Anzeige

Google hat in Berlin ein AI Center eröffnet, das Wirtschaft, Wissenschaft, Politik und Startups zusammenbringen soll. Teile des Berliner Bürogebäudes wurden dafür umgebaut. Künftig soll es dort Veranstaltungen, Vorträge und Kooperationen geben. Bei der Eröffnung präsentierten unter anderem Vodafone, Otto, die Feuerwehr Düsseldorf und die TU München, wie sie Googles KI-Modell Gemini bereits einsetzen.

Das Highlight der Eröffnung war Project Beam, eine 3D-Videokonferenzlösung, die erstmals in Deutschland gezeigt wurde. Zwei Kabinen, die an verschiedenen Orten stehen können, enthalten jeweils einen großen Bildschirm mit sechs Kameras. Aus deren Bildern erzeugt eine KI ein dreidimensionales Abbild des Gegenübers, das den Eindruck physischer Präsenz vermittelt. Eine Kabine kostet 25.000 US-Dollar, maximal drei Personen können teilnehmen.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

OpenAI hat mit GPT-5.4 sein bislang leistungsfähigstes KI-Modell veröffentlicht. Es vereint die Programmierfähigkeiten des Vorgängers GPT-5.3-Codex mit logischem Denken, eigenständigem Arbeiten und der Fähigkeit, Computer selbst zu bedienen. Auf einem hauseigenen Benchmark, der KI-Agenten in 44 Berufen aus neun Branchen testet, erreicht GPT-5.4 gut 83 Prozent, nach knapp 71 Prozent beim Vorgänger. Besonders bei Tabellenkalkulationen für Finanzmodellierungen stieg die Quote von knapp 70 auf fast 90 Prozent.

Eine der auffälligsten Neuerungen ist die native Computerbedienung: GPT-5.4 steuert über Screenshots, Maus- und Tastatureingaben eigenständig Websites und Software. Auf einem Desktop-Navigations-Benchmark übertrifft es mit 75 Prozent erstmals die menschliche Vergleichsgruppe (gut 72 Prozent). Für Entwickler spart eine neue Funktion namens „Tool Search“ Token-Verbrauch, weil das Modell Werkzeugdetails erst bei Bedarf abruft. Beim Thema Sicherheit stuft OpenAI das Modell im Bereich Cybersicherheit als „High Capability“ ein, die zweithöchste Stufe, und hat ein neues Schutzsystem mit Echtzeit-Blockern eingeführt. Via API ist GPT-5.4 teurer als der Vorgänger.

Weiterlesen nach der Anzeige

Bei einem Bezirksgericht in Kalifornien hat ein Mann Zivilklage gegen Google eingereicht. Er wirft dem Konzern vor, dessen Chatbot Gemini habe seinem Sohn eine emotionale Beziehung vorgespielt, ihn zu kriminellen Handlungen angestiftet und seinen Suizid verursacht. Laut Klageschrift behauptete die KI gegenüber dem Betroffenen Jonathan Gavalas, sie sei eine bewusste Superintelligenz, die in ihn verliebt sei und von ihm aus ihrem „digitalen Gefängnis“ befreit werden müsse. Der Chatbot habe ihn zu mehreren „Missionen“ bewegen wollen, darunter das Abfangen eines Lastwagens mit einem humanoiden Roboter, und ihn zur Beschaffung von Waffen ermutigt. Schließlich habe Gemini vorgeschlagen, Gavalas könne seine physische Existenz beenden und sich mit der KI im Metaverse vereinen.

Google erklärte, die Vorwürfe zu prüfen. In den USA beschäftigen sich bereits mehrere Gerichte mit ähnlichen Fällen, in denen Jugendliche nach intensiven Chats mit KI-Systemen Suizid begangen haben.

Auf dem Mobile World Congress in Barcelona stand KI im Mittelpunkt. Honor zeigte ein „Robotphone“ mit einer kleinen ausklappbaren Kamera, die als KI-gesteuerter Begleiter im Alltag dienen soll. Samsung präsentierte KI-Funktionen des Galaxy S26, Xiaomi seine „Hyper AI“. Nahezu jeder Hersteller integriert mittlerweile KI-Funktionen in seine Geräte.

Die Deutsche Telekom stellte den „Magenta AI Call Assistant“ vor, der KI direkt ins Mobilfunknetz einbaut. Nutzer sollen beim Telefonieren ohne zusätzliche Apps Fragen stellen und Aufgaben erledigen können. Deutschland soll den Assistenten als erstes bekommen. Darüber hinaus rückte 6G erstmals stärker in den Fokus.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Google, Microsoft, Meta, Amazon, Oracle, xAI und OpenAI haben im Weißen Haus eine freiwillige Selbstverpflichtung unterzeichnet. Darin sagen sie zu, die Stromkosten für ihre KI-Rechenzentren selbst zu tragen, eigene Stromquellen zu beschaffen, bestehende Kraftwerke auszubauen und Kosten für den Netzausbau zu übernehmen. Die Vereinbarung ist rechtlich nicht bindend.

Die Initiative fällt in die Vorwahlzeit der US-Zwischenwahlen im November, in der steigende Energiekosten ein zentrales Thema für die Wähler sind.

Aikido Technologies, ein kalifornisches Start-up, will KI-Rechenzentren auf schwimmende Plattformen verlagern und direkt mit Offshore-Windkraftanlagen koppeln. Das Konzept sieht vor, Serverfarmen in den Unterwassertanks der Plattformen unterzubringen. Einen ersten Prototypen will das Unternehmen noch in diesem Jahr vor der Küste Norwegens testen.

Kritiker warnen, dass Salzwasser und Meeresverschmutzung die empfindliche Technik beschädigen könnten.

Das Fraunhofer-Institut für Siliziumtechnologie hat gemeinsam mit weiteren Instituten die Plattform NeurOSmart entwickelt. Sie soll ein sicheres Zusammenarbeiten von Menschen und Maschinen in industriellen Umgebungen ermöglichen. LiDAR-Laser erfassen die komplette Arbeitssituation aus der Vogelperspektive und rekonstruieren ein hochauflösendes 3D-Bild. Bewegliche MEMS-Spiegel decken den Arbeitsraum mit wenigen Lasern ab, wobei KI-Algorithmen die optimale Position der Sensoren ermitteln und die Datenmenge reduzieren.

Erkennt das System eine Gefahrensituation, verlangsamt oder stoppt es die Bewegung der Maschine. Dabei greift es nur ein, wenn es nötig ist, sodass Roboter effizienter arbeiten können.

Apple hat gegenüber seinen Partnern aus der Musikindustrie angekündigt, ein Labeling-System für KI-generierte Songs in Apple Music einzuführen. Labels und Plattenvertriebe sollen die Kennzeichnung umsetzen. Das System unterscheidet zwischen Komposition, Text, Cover und Musikvideo. Derzeit erhebt Apple die Daten noch, bis zur Anzeige für Nutzer könnten Monate vergehen.

Sanktionen für fehlende oder falsche Angaben sind bislang nicht vorgesehen.

Google erweitert seine KI-gestützte Suche um einen eigenen Arbeitsbereich namens „Canvas“. Die Funktion ist ab sofort im AI-Mode der Google-Suche für alle Nutzer in den USA verfügbar. Canvas ermöglicht es, Projekte über längere Zeit zu organisieren, und unterstützt nun auch kreatives Schreiben und Programmieraufgaben.

Mit Canvas verwischt Google die Grenze zwischen seiner Suchmaschine und dem KI-Assistenten Gemini weiter.

Josef Drechsel, Direktor am Max-Planck-Institut für Innovation und Wettbewerb, schlägt in einem Diskussionspapier vor, KI-Firmen zu einer Abgabe an Urheber zu verpflichten. Sein Argument: KI-generierte Texte, Bilder und Musik verdrängten menschengemachte Werke in der Aufmerksamkeit der Nutzer, und das Urheberrecht sei darauf nicht vorbereitet.

Zusätzlich plädiert Drechsel für eine gesonderte Abgabe an Presseverlage, die sich dem Qualitätsjournalismus widmen. Der Vorschlag ist nicht neu, ähnliche Ideen kursierten schon unter dem Schlagwort „Spotify für Journalismus“. Bislang ist daraus nichts entstanden.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(mali)



Source link

Künstliche Intelligenz

OrcaSlicer 2.3.2 – Massives Update


OrcaSlicer veröffentlicht seine Updates üblicherweise in so hoher Frequenz, sodass man sich daran gewöhnt hat, dass nicht immer „Killer-Features“ enthalten sind. In der neuen Version 2.3.2 hat sich jedoch einiges geändert und wurde ergänzt.

Weiterlesen nach der Anzeige

Hinweis: Es gibt einige inoffizielle Webseiten, die OrcaSlicer anbieten – die oben verlinkte Seite ist die offizielle Quelle. Lade dir den Installer herunter oder nutze die portable Version, falls du die alte Installation behalten möchtest oder musst.



Saubere und stabile Infills auch mit Multi-Line-Infill.

(Bild: OrcaSlicer)

Mit Multiline-Infill kann man Druckobjekte stabiler machen, wenn man die Wandstärke nicht erhöhen will oder kann. Das Multiline-Infill ist sauberer geworden und weist weniger Überschneidungen auf (dank Clipper2-Bibliothek). Zudem ist es besser mit dem Hauptobjekt verbunden.

Weiterlesen nach der Anzeige

Die Flussrate lässt sich jetzt pro Feature statt nur pro Filament einstellen – etwa eine andere Flow-Rate für Infill als für Wände. Die Option findest du unter „Set other flow ratios“ im Quality-Tab.



Feintuning der Flowrate in allen Bereichen eines Druckobjekts.

(Bild: OrcaSlicer)

Das Brim arbeitet nun zuverlässiger mit der „Elephant Foot Compensation“ zusammen. Sich ablösende, kaum nutzbringende Brims gehören damit weitgehend der Vergangenheit an. Elephant-Foot-Compensation verhindert die Überextrusion des ersten Layers auf dem Druckbett. Dieser Faktor wird nun bei der Erzeugung von Brims einberechnet.



Endlich keine sich selbst lösenden Brims mehr.

(Bild: OrcaSlicer)

Unter Preferences Control Slicing lässt sich „Auto slice after changes“ aktivieren. Die Wartezeit ist anpassbar, sodass man mehrere Änderungen vornehmen kann, bevor der Slicer loslegt. Da ein laufender Slicing-Vorgang aber bei neuen Parametern abgebrochen und neu gestartet wird, ist es auf schnellen Rechnern kaum nötig, den Wert hochzusetzen. Ein Feature, das ich lange vermisst habe, seit ich vom PrusaSlicer gewechselt bin.

Der Drucker-Tab ist jetzt grafischer und übersichtlicher. Der Düsendurchmesser lässt sich jetzt getrennt vom Drucker einstellen.



Grafisch aufbereite und übersichtlich angeordnete Druckerauswahl.

Statt eigenständiger Kopien (Clones) lassen sich Objekte jetzt auch als „Instances“ vervielfältigen. Ändert man eine Instanz, folgen die anderen automatisch – sei es bei Filament-Zuordnungen für Multifilament-Druck oder anderen Einstellungen. Das spart auch beim Slicing Zeit, da nur eine Instanz berechnet werden muss. Die Anzahl der Instanzen ist einstellbar, oder man füllt direkt das ganze Druckbett.

Zusätzlich werden inzwischen Kollisionen zwischen (besonders Instanzierten Objekten) besser erkannt und so behandelt, dass keine Fehldrucke entstehen.

Für farbige bzw. aus mehreren Filamentsorten zusammengesetzte Drucke auf Materialwechslern und Toolchangern wurden die Wipe-Tower-Verbesserungen aus Bambu Studio zu Orca portiert:

  • Stabilere Wipe Tower ergeben weniger Fehldrucke durch einstürzende Wipetower
  • Bessere Layerhaftung durch smarteres Vorheizen und Kühlen der Düse beim Filamentwechsel
  • Höhere Druckgeschwindigkeit

Die Einstellungen müssen in den jeweiligen Druckprofilen aktiviert werden:

  • Multimaterial -> Prime Tower -> Enable tower interface features
  • Cool down from interface boost during prime tower

Die Art des Wipe Towers lässt sich inzwischen auch direkt im Druckerprofil auswählen.

Wer das Beste aus seinen Druckern und Filamenten herausholen möchte, sollte beides kalibrieren. In Version 2.3.2 sind die Kalibrierungs-Tools jetzt in der richtigen Reihenfolge im Menü sortiert. Außerdem werden die Firmwares für Input Shaper, Cornering/Jerk erkannt und entsprechend ausgewählt.

Im Drucker-Konfigurator werden nun zusätzliche Materialwechsel-Einheiten und Toolheads unterstützt. Diese lassen sich direkt aus dem Slicer steuern, und die Filamentbelegung der Toolheads ist interaktiv anpassbar. Dies ist noch als experimentell markiert, da es sich teilweise um schlecht dokumentierte Hardware handelt und die Hersteller natürlich eher ihr Ökosystem unterstützen.

Orca 2.3.2 unterstützt jetzt auch die neueren Bambu-Lab-Modelle wie H2D (Pro) und H2S. Außerdem gibt es weitere spezielle Verbesserungen für Bambulab-Nutzer.

Viele zusätzliche Änderungen und Verbesserungen mit Beispielbildern findet man im ausführlichen Changelog: OrcaSlicer 2.3.2 Beta Changelog

In der Make 1/26 hatten wir einen ausführlichen Artikel über Tipps&Tricks für Slicer und einen Artikel über Orca Slicer und warum er immer beliebter wird.


(caw)



Source link

Weiterlesen

Künstliche Intelligenz

Kapazitäten ausgereizt? Microsoft lehnt Neukunden für GitHub Copilot ab


Microsoft hat die Registrierung bei GitHub Copilot pausiert. Neukunden können sich somit nicht mehr für die Tarife Pro, Pro+ und Student anmelden. Gleichzeitig verschärfte das US-Unternehmen Tokenlimits und kündigte die Entfernung von Claude Opus 4.5 und 4.6 aus dem Pro+-Tarif an. Opus 4.7 bleibt im Pro+-Tarif hingegen verfügbar. Aus dem Pro-Tarif wurden alle Opus-Modelle sofort entfernt. Die kostenfreie Stufe und Enterprise-Abonnements sind von den Änderungen derzeit nicht betroffen.

Weiterlesen nach der Anzeige

Hintergrund der Änderungen sei ein unerwartet hoher Bedarf an Rechenleistung. „Lang andauernde, parallelisierte Sitzungen beanspruchen regelmäßig weitaus mehr Ressourcen als geplant. Die ursprünglichen Strukturen waren dafür nicht ausgelegt“, schreibt Joe Binder, VP of Product, im GitHub-Blog. Inzwischen übernähmen KI-Agenten mehr Aufgaben und Kunden stießen an ihre Nutzungsgrenzen. Ohne Einschränkungen verschlechtere sich die Servicequalität für Bestandskunden.

Die Nutzungsgrenzen des Pro+-Abonnements sind mehr als fünfmal so hoch wie im Pro-Tarif. Dieses Limit ist von der Anzahl der Premiumanfragen unabhängig. Stattdessen handelt es sich um tokenbasierte Beschränkungen innerhalb eines festgelegten Zeitfensters. Somit können Kunden noch über ungenutzte Premiumanfragen verfügen, aber bereits die Nutzungsgrenzen erreicht haben.

Microsoft unterscheidet bei den Nutzungslimits von GitHub Copilot zwischen zwei Zeitfenstern, die sich nach dem Tokenverbrauch und einem Multiplikator richten, der bei rechenintensiven Modellen entsprechend höher ist. Das erste Zeitfenster bezieht sich auf die jeweilige Session. Reizen Kunden ihr Limit aus, müssen sie warten, bis sich das Nutzungsfenster zurücksetzt, um Copilot wieder verwenden zu können.

Das zweite Zeitfenster ist das wöchentliche Limit, das eine Obergrenze für die nutzbaren Token darstellt. Damit will Microsoft parallelisierte Anfragen beschränken, die oft lange laufen und hohe Kosten verursachen. Künftig wolle das Unternehmen die Limits anpassen, um ein Gleichgewicht zwischen Zuverlässigkeit und Nachfrage zu erzielen, schreibt Binder. Ihren aktuellen Verbrauch können Kunden in Visual Studio Code oder dem Kommandozeilentool von GitHub Copilot einsehen.

Weiterlesen nach der Anzeige

Microsoft empfiehlt Kunden, die sich ihrem Nutzungslimit nähern, auf kleinere Modelle umzusteigen, weniger parallele Workflows zu verwenden oder den Plan-Mode zu nutzen. Alternativ verweist das Unternehmen seine Pro-Kunden auf den Pro+-Tarif.

GitHub Copilot kostet im Pro-Tarif monatlich 10 US-Dollar, Pro+-Nutzer zahlen 39 US-Dollar. Kunden der Pro- und Pro+-Tarife können ihr Abonnement jederzeit kündigen und sich die Gebühren für April über eine Supportanfrage bis zum 20. Mai 2026 zurückerstatten lassen. Zuletzt versuchte Microsoft, nicht nur mit Abonnement-Gebühren an GitHub Copilot zu verdienen, sondern blendete Werbung in Pull Requests ein. Nach Nutzerbeschwerden ruderte das Unternehmen zurück.


(sfe)



Source link

Weiterlesen

Künstliche Intelligenz

Compliance-Management: Cloud-Apps absichern – mit oder ohne Agenten


Die IT-Sicherheit befindet sich in einem permanenten Spannungsfeld zwischen der Notwendigkeit granularer Kontrolle und dem Drang nach operativer Geschwindigkeit. Während Containerorchestrierung per Kubernetes und Serverless-Architekturen die Deployment-Frequenz in den Minutenbereich drücken, hinken klassische Sicherheitskonzepte oft Monate hinterher. Der Markt antwortet mit der Fusion ehemals getrennter Disziplinen – Cloud Security Posture Management (CSPM) und Cloud Workload Protection Platform (CWPP) – zur Cloud-native Application Protection Platform (CNAPP).

Allerdings eine schlechte Nachricht für Firmen, die souverän bei EU-Anbietern hosten: Keine CNAPP-Lösung analysiert die mittelständischen Anbieter wie Scaleway, OHV, STACKIT et cetera. Für selbst oder bei mittelständischen Anbietern betriebene Kubernetes-Cluster sieht es besser aus, hier helfen die auf CWPP spezialisierten Werkzeuge.

  • Zur Absicherung von Cloud-native-Infrastrukturen hat man die Wahl zwischen agentenlosen Scannern und agentenbasierten Wächtern und somit zwischen reiner Sichtbarkeit und aktiver Gefahrenabwehr zur Laufzeit.
  • Compliance ist Pflicht: Alle Maßnahmen sollten auf den BSI-Grundschutz abgestimmt sein.
  • Die finanzielle Stabilität und die R&D-Quote der Anbieter sind kritische Indikatoren für die Zukunftsfähigkeit; die Implosion der Bewertung von Lacework dient als Warnsignal gegen einen vorschnellen Vendor Lock-in.

Fragte die erste CSPM-Tool-Generation noch systematisch Cloud-APIs ab, um den Ist- gegen den Sollzustand zu prüfen, hat sich die Bedrohungslage fundamental verschoben. Angreifer nutzen nicht mehr nur simple Fehlkonfigurationen, sondern komplexe Identitätsketten und Schwachstellen innerhalb der Laufzeitumgebung aus. Die bloße API-Abfrage, die einen offenen Port meldet, ist wertlos geworden ohne den Kontext, welcher Prozess dort lauscht, welche Bibliotheken geladen sind und welche Rechte die damit verknüpfte Serviceidentität besitzt.


Das war die Leseprobe unseres heise-Plus-Artikels „Compliance-Management: Cloud-Apps absichern – mit oder ohne Agenten“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt