Apps & Mobile Entwicklung
Amazon: KI-Coding-Bots verursachten AWS-Ausfälle – ComputerBase
Zwei Ausfälle in Amazons Cloud-Sparte AWS in den letzten Monaten sollen von internen KI-Entwicklertools ausgelöst worden sein, berichtet die Financial Times (via Golem). Intern bekräftigt das die Zweifel an den Coding-Assistenten.
Mitte Dezember kam es dem Bericht zufolge zu einer 13-stündigen Störung in einem System, weil der interne Coding-Agent Kiro AI autonom eine Umgebung gelöscht und neu erstellt hat. Laut Amazon führte der Fehler aber zu keinem großen Ausfall. Betroffen war ausschließlich ein einzelner Dienst in Teilen von China.
Bei Kiro AI handelt es sich um einen modernen Coding-Assistenten, der seit Juli in AWS verfügbar ist. Entwickler sollen diesen nutzen, um die Software-Entwicklung zu automatisieren.
Zuvor gab es bereits den Chatbot Amazon Q Developer, den Entwickler verwenden sollten, um Code zu schreiben. Dieser Assistent soll laut den Quellen der Financial Times ebenfalls einen Ausfall verursacht haben. Laut Amazon hatte der Vorfall aber keine Auswirkungen auf AWS-Kunden.
„Es waren Fehler, kein KI-Fehler“
Amazon erklärte auf Anfrage der Financial Times, in beiden Fällen habe es sich „um Fehler, nicht KI-Fehler“ gehandelt. Es sei Zufall gewesen, dass KI-Tools involviert waren. Menschliche Entwickler hätten diese Vorfälle ebenfalls verursachen können. Generell habe man bislang noch keine Hinweise, dass es mit den Coding-Assistenten mehr Fehler gebe.
Konkret bei Kiro AI sei etwa ein Problem gewesen, dass der Coding-Assistent zu weitreichende Berechtigungen hatte. Bei der Fehleranalyse gehe es also um die Zugriffsrechte, die Menschen erteilt haben und nicht um die autonom arbeitende KI.
Nach dem Dezember-Vorfall hat AWS daher weitere Sicherheitsvorgaben implementiert. Dazu zählen etwa verpflichtende Peer-Review-Verfahren und Mitarbeiterschulungen.
Big Tech forciert AI-Coding
Die Big-Tech-Konzerne arbeiten seit Monaten und Jahren daran, möglichst viel Code von den Coding-Assistenten produzieren zu lassen. Microsofts Chef Satya Nadella verkündete schon im Frühjahr 2025, dass bereits zu diesem Zeitpunkt 20 bis 30 Prozent des Microsoft-Codes KI-generiert seien – und der Wert soll seitdem nochmals deutlich gestiegen sein. Ähnlich äußerte sich Google und ebenso Meta-Chef Mark Zuckerberg.
Amazon hat laut dem Bericht das interne Ziel ausgegeben, dass 80 Prozent der Entwickler mindestens einmal pro Woche die Coding-Assistenten nutzen sollen. Laut den Quellen der Financial Times existiert aber eine gewisse Skepsis, einige Mitarbeiter sind besorgt angesichts des Fehlerpotenzials, das von den autonomen Assistenten ausgeht.
Apps & Mobile Entwicklung
Generatives Musikmodell: So erstellt man mit Lyria 3 kurze Soundtracks in Gemini
Google hat seinen KI-Musikgenerator Lyria 3 in Gemini integriert. Nutzern sollen damit durch einfache Prompt-Eingaben ansehnliche Musikstücke verschiedener Stilrichtungen erstellen können. Die Länge der generierten Stücke ist derzeit noch auf 30 Sekunden begrenzt, Google hat damit vor allem Videos im Blick.
Vom Text zur fertigen Musik
Das aus Googles DeepMind stammende Musikmodell soll nicht nur anhand einfacher, per Text eingegebener Beschreibungen wie gewünschtem Genre oder vorgegebener Stimmung entsprechende Tracks erzeugen können, sondern auch auf Basis von Bildern und Videos. Gemini erstellt daraufhin einen vollständigen, bis zu 30 Sekunden langen Track mit einer Abtastrate von bis zu 48 kHz. Im Gegensatz zu früheren Lyria-Versionen kann das Stück auf Wunsch direkt von der KI mit einem passenden Text versehen werden. Durch die Möglichkeit, Videos als beschreibende Quelle zu nutzen, soll sich das neue Modell zudem für die unkomplizierte musikalische Untermalung kurzer Videos eignen, die dafür lediglich hochgeladen werden müssen.
Größere Kontrolle und Einfluss
Mit dem neuen Modell erhalten Anwender zudem deutlich mehr Kontrolle über die Ausgabe – etwa hinsichtlich Stil, gewünschtem Tempo, Stimme und Stimmung, aber auch bei spezifischeren Parametern wie Tonart, Akkord-Progressionen oder der Frage, ob das Stück überwiegend Dur- oder Moll-Akkorde verwenden soll. Die Informationsrichtung kann dabei auch umgekehrt verlaufen: Auf Wunsch gibt Lyria 3 die verwendeten Akkorde aus, eine vollständige Partitur mit sämtlichen Noten ist jedoch nicht möglich. Gleiches gilt für die Ausgabe einzelner Spuren zur späteren Weiterverarbeitung oder besseren Abmischung. So lässt sich beispielsweise keine isolierte Gesangsspur erzeugen, die in eigenen Produktionen weiterverwendet werden kann.
Gleichzeitig wird für die erstellten Inhalte mittels Nano Banana ein individuelles Cover-Art generiert, das in kurzen Tests der Redaktion jedoch nur wenig überzeugen konnte und inhaltlich meist nur bedingt einen Bezug auf einen möglichen Text erkennen ließ.
Wie funktioniert Lyria 3 in der Praxis?
Die Redaktion hat Lyria 3 einem Kurztest unterzogen und versucht, dem KI-Modell mittels einfacher Prompts ein hörbares Stück zu entlocken. Bereits mit einer schlichten Eingabe wie
Eine Frauenstimme soll über das Wetter singen. Die Tonart soll in C-Dur gehalten werden, der Stil in Richtung Synthwave oder Retro-Wave gehen und ein höheres, treibendes Tempo besitzen. Das Stück soll eine fröhliche Grundstimmung besitzen und das erste schöne Frühlingswetter nach langen Regentagen beschreiben.
lässt sich bereits ein hörbares Ergebnis erzeugen.
Je detaillierter ein Prompt jedoch formuliert ist und je mehr Informationen dieser enthält, desto präziser kann die von Lyria 3 erstellte Ausgabe den eigenen Vorstellungen entsprechen. So konnte mittels
Eine Frauenstimme soll über das Wetter singen. Die Tonart soll in C-Dur gehalten werden, der Stil in Richtung Synthwave oder Retro-Wave gehen und ein höheres, treibendes Tempo besitzen. Als Akkordprogression soll I-V-vi-IV verwendet werden. Im Hintergrund soll ein das Musikstück umhüllendes Pad zu hören sein, der Bass sollte aber einen hohen Attack besitzen und leicht metallisch klingen. Background-Sänger sollen teile des Refrains wiederholen. Das Stück soll eine fröhliche Grundstimmung besitzen und das erste schöne Frühlingswetter nach langen Regentagen beschreiben. Es sollen zudem Wörter wie „Regen“, „Sonnenschein“ „Regenzeit“, „schlechtes Wetter“ und „Wolkenbruch“ verwendet werden.
deutlich mehr Einfluss auf das ausgegebene Musikstück genommen werden.
Dabei eignet sich Lyria 3 ebenso für die Erstellung skurriler oder humorvoller Stücke:
Eine Männerstimme soll den deutschen liebstes Fleischgericht besingen: Das Schnitzel! Die Musik soll vom Stil der stampfend sein und nach einem deftigen Wirtshaus klingen. Dementsprechend soll auch die Musik angepasst sein. Etwas Blasmusik wäre ebenfalls schön, der Hintergrund ansonsten schlagermäßig synthetisch klingen. Das Stück soll zudem ein mittleres, eher gemütliches Tempo besitzen, das zum Schunkeln einlädt.
Gerade dieses Stück zeigt, dass KI-Modelle wie Lyria 3 künftig vor allem in der Werbung stärkere Verbreitung erfahren könnten.
Nicht selten erweist es sich zudem als vorteilhaft, einen Prompt mehrfach einzugeben, da Lyria 3 bei jeder erneuten Generierung unterschiedliche Stücke präsentiert und so eine größere Auswahl zur Verfügung stellt.
Identifikation von KI-Inhalten soll einfacher werden
Google hat eigenen Angaben zufolge bei Lyria 3 nicht nur Nutzerfreundlichkeit und Qualität gesteigert, sondern zugleich erweiterte Möglichkeiten geschaffen, um mit dem KI-Modell erzeugte Inhalte leichter identifizieren zu können. So werden alle in Gemini erstellten Stücke mit dem hauseigenen SynthID-System versehen, das die Inhalte mit einem nicht sichtbaren Wasserzeichen markiert. Ein Musikstück kann dazu einfach in die Gemini-App geladen und auf SynthID überprüft werden. Google betont zudem, dass Lyria 3 auf den „künstlerischen Ausdruck ausgelegt“ sei, nicht jedoch auf das gezielte Nachahmen bestehender Künstler. Diese können in Prompts zwar genannt werden, das System nutzt sie dann jedoch lediglich als Inspiration und versucht, einen ähnlichen Track im Stil der jeweiligen Band oder des Künstlers zu erzeugen. Für eine bessere Nutzung von Prompts stellt Google Nutzern darüber hinaus zahlreiche Hilfestellungen bereit.
Creator können Lyria 3 ab sofort auch in Dream Track verwenden, dem experimentellen KI-Tool von YouTube zur klanglichen Untermalung von YouTube Shorts. Dieses war bislang ausschließlich in den USA verfügbar und wurde nun auch für weitere Länder freigeschaltet.
(Noch) Kein professionelles Werkzeug
Auch wenn die Fähigkeiten von Googles Musik-Tool deutlich erweitert wurden, ordnet es sich weiterhin klar hinter professionellen Lösungen wie Suno AI oder Udio ein. Die von Google genannten Einsatzszenarien verdeutlichen, dass sich Lyria 3 primär an normale Nutzer und Contentcreator richtet, die mit einfachen Methoden ein Musikstück für den Hintergrund ihrer Bilder oder Videos erstellen möchten und keine tiefgreifende Kontrolle benötigen.
Ab sofort verfügbar
Lyria 3 ist ab sofort in Gemini für alle Nutzer ab 18 Jahren auf Deutsch, Englisch, Französisch, Hindi, Japanisch, Koreanisch, Portugiesisch und Spanisch verfügbar. Weitere Sprachen sind Google zufolge geplant. Abonnenten von Google AI Plus, Pro und Ultra erhalten zudem höhere Nutzungslimits, zu deren konkreter Ausgestaltung Google bislang jedoch keine weiteren Informationen veröffentlicht hat.
Apps & Mobile Entwicklung
Razer Huntsman Signature Edition: 1.337 limitierte, nummerierte Tastaturen für je 550 Euro

Razer bringt mit der Huntsman Signature Edition ein weiteres Produkt in einer auf 1.337 Exemplare limitierten Sonderedition auf den Markt. Als Flaggschiff-Tastatur soll sie das gesamte Können von Razer im Bereich Switches, Akustik und Material in einer Tastatur vereinen.
Jede einzelne Tastatur entsteht laut Razer durch einen mehrstufigen Fertigungsprozess, darunter CNC‑Fräsen, Eloxieren, Handpolieren, PVD‑Veredelung sowie eine individuelle Endkontrolle.
Analog-optische Switche und 8.000 Hz
Bei der Technik setzt die Razer Huntsman Signature Edition auf Razers Analog Optical Switches Gen‑2, die eine sofortige, konsistente Auslösung mit dynamischer Kontrolle über den Auslösepunkt gewährleisten sollen. Zudem bietet die Tastatur 8.000‑Hz‑HyperPolling, um eine möglichst geringe Latenz sicherzustellen. Im Rapid‑Trigger‑Modus wird eine schnellere Auslösung und ein schnellerer Reset aktiviert, sodass wiederholte Tastenbetätigungen mit minimalem Weg möglich sind.
Aluminium, US-Layout und Chroma RGB
Die Huntsman Signature Edition verfügt über ein CNC‑gefrästes Gehäuse aus eloxiertem 6063‑Aluminium. Wesentliche äußere Elemente werden mit einer PVD‑Veredelung versehen. Diese PVD‑Oberflächen werden laut Razer anschließend von Hand poliert, um einen spiegelähnlichen Glanz zu erzielen. Zudem verfügt sie über texturierte Doubleshot‑PBT‑Tastenkappen und eine polierte metallische ESC-Tastenkappe mit Razer-Logo. Die Tastatur ohne Ziffernblock (TKL) ist ausschließlich mit US-Tastenlayout verfügbar. Für die Beleuchtung ist Razers Chroma RGB zuständig.
Im Inneren verfügt die Huntsman Signature Edition über eine geschichtete Struktur aus Schaumlagen und schalldämpfenden Materialien, so dass Tastenanschläge zu einem vollen, runden Klang führen sollen.
Preis und Verfügbarkeit
Die Razer Huntsman Signature Edition weist eine unverbindliche Preisempfehlung von 549,99 Euro auf und ist ab dem 22. Februar exklusiv bei Razer erhältlich. Die Garantie beträgt 5 Jahre.
Wie Eingangs erwähnt werden dabei nur 1.337 nummerierte Einheiten weltweit verfügbar sein.
Im Dezember gab es schon eine limitierte Maus
Im vergangenen Dezember hatte Razer bereits eine auf 1.337 Exemplare limitierte Maus, die Boomslang 20th Anniversary Edition, auf den Markt gebracht. Uhr Preis: 1.337 Euro. Sie ist ausverkauft.
Apps & Mobile Entwicklung
Samsungs KI-Assistent: Bixby wird mit neuer Beta-Version dialogorientierter

Samsung entwickelt Bixby weiter zu einem stärker dialogorientierten Geräteassistenten, der die Steuerung von Geräten für Nutzer intuitiver gestalten soll. Zeit- und Arbeitsaufwand bei der Verwaltung von Geräteeinstellungen sollen sich dadurch deutlich reduzieren. Nun ist die neue Version als Beta in One UI 8.5 erschienen.
Einfache Sprachanweisung ausreichend
Mit der aktuellen Iteration von Samsungs persönlichem digitalen Assistenten soll die Interaktion mit Galaxy-Geräten spürbar vereinfacht werden, indem Anwender ihre Anweisungen in natürlicher Sprache an das Mobilgerät richten können. Darüber hinaus erweitert die neue Version den Zugriff auf aktuelle Antworten aus dem „offenen Internet“.
Laut Won-Joon Choi, Chief Operating Officer, Mobile eXperience (MX) bei Samsung, wurde die Anwendung dafür grundlegend neu gestaltet, um „die Interaktion und Steuerung der Samsung Galaxy Geräte natürlich und intuitiv zu machen und so alltägliche Aufgaben zu vereinfachen“. Das bislang mitunter mühsame Navigieren durch Menüs soll künftig entfallen, sodass Benutzer sich weder komplexe Menüstrukturen noch bestimmte Begriffe einprägen müssen. Eine einfache sprachliche Beschreibung des gewünschten Vorgangs soll genügen.
Zudem können Besitzer eines Galaxy-Gerätes über Bixby erfragen, warum bestimmte Vorgänge auf dem Gerät stattfinden. Der KI-Assistent soll die zugrunde liegende Absicht erkennen und entsprechende Aktionen ausführen. Ob der Bildschirm während der Anzeige aktiv bleiben oder das Smartphone lautlos geschaltet werden soll, eine kurze Anweisung soll dafür ausreichen. Durch diese Neuerungen soll sich der Zeit- und Arbeitsaufwand spürbar verringern lassen.
Lösungen bei Problemen
Darüber hinaus soll Bixby bei Fragen verschiedene Lösungsvorschläge unterbreiten können, was insbesondere Nutzern zugutekommen dürfte, die mit den zahlreichen Einstellungen weniger vertraut sind. Auf die Frage „Warum ist der Bildschirm meines Telefons immer eingeschaltet, wenn es in meiner Tasche ist?“ würde Bixby demnach eine passende Erklärung liefern und mögliche Lösungsansätze aufzeigen.
In Echtzeit online suchen
Weiter kann Bixby in der neuen Beta-Version auf Live-Informationen aus der Online-Suche zugreifen. Die entsprechenden Ergebnisse werden direkt in der Benutzeroberfläche von Bixby dargestellt, ohne dass ein Wechsel in einen separaten Browser oder eine andere App erforderlich ist. Auch diese Funktion soll dazu beitragen, Zeit zu sparen.
Ab sofort in Deutschland verfügbar
Die neuesten Bixby-Updates sind mit One UI 8.5 in ausgewählten Märkten verfügbar, darunter Deutschland, Großbritannien, Indien, Korea, Polen und die USA. Eine Ausweitung auf weitere Regionen ist laut Samsung geplant. Es gilt als sehr wahrscheinlich, dass die neue Bixby-Iteration offiziell mit dem Galaxy S26 eingeführt wird.
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 1 WocheCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 2 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu


