Connect with us

Apps & Mobile Entwicklung

Samsungs KI-Assistent: Bixby wird mit neuer Beta-Version dialogorientierter


Samsungs KI-Assistent: Bixby wird mit neuer Beta-Version dialogorientierter

Bild: Samsung

Samsung entwickelt Bixby weiter zu einem stärker dialogorientierten Geräteassistenten, der die Steuerung von Geräten für Nutzer intuitiver gestalten soll. Zeit- und Arbeitsaufwand bei der Verwaltung von Geräteeinstellungen sollen sich dadurch deutlich reduzieren. Nun ist die neue Version als Beta in One UI 8.5 erschienen.

Einfache Sprachanweisung ausreichend

Mit der aktuellen Iteration von Samsungs persönlichem digitalen Assistenten soll die Interaktion mit Galaxy-Geräten spürbar vereinfacht werden, indem Anwender ihre Anweisungen in natürlicher Sprache an das Mobilgerät richten können. Darüber hinaus erweitert die neue Version den Zugriff auf aktuelle Antworten aus dem „offenen Internet“.

Laut Won-Joon Choi, Chief Operating Officer, Mobile eXperience (MX) bei Samsung, wurde die Anwendung dafür grundlegend neu gestaltet, um „die Interaktion und Steuerung der Samsung Galaxy Geräte natürlich und intuitiv zu machen und so alltägliche Aufgaben zu vereinfachen“. Das bislang mitunter mühsame Navigieren durch Menüs soll künftig entfallen, sodass Benutzer sich weder komplexe Menüstrukturen noch bestimmte Begriffe einprägen müssen. Eine einfache sprachliche Beschreibung des gewünschten Vorgangs soll genügen.

Zudem können Besitzer eines Galaxy-Gerätes über Bixby erfragen, warum bestimmte Vorgänge auf dem Gerät stattfinden. Der KI-Assistent soll die zugrunde liegende Absicht erkennen und entsprechende Aktionen ausführen. Ob der Bildschirm während der Anzeige aktiv bleiben oder das Smartphone lautlos geschaltet werden soll, eine kurze Anweisung soll dafür ausreichen. Durch diese Neuerungen soll sich der Zeit- und Arbeitsaufwand spürbar verringern lassen.

Lösungen bei Problemen

Darüber hinaus soll Bixby bei Fragen verschiedene Lösungsvorschläge unterbreiten können, was insbesondere Nutzern zugutekommen dürfte, die mit den zahlreichen Einstellungen weniger vertraut sind. Auf die Frage „Warum ist der Bildschirm meines Telefons immer eingeschaltet, wenn es in meiner Tasche ist?“ würde Bixby demnach eine passende Erklärung liefern und mögliche Lösungsansätze aufzeigen.

GIF Mit der neuen Bixby-Version lassen sich viele Funktionen mit einfacher Sprache steuern (Bild: Samsung)

In Echtzeit online suchen

Weiter kann Bixby in der neuen Beta-Version auf Live-Informationen aus der Online-Suche zugreifen. Die entsprechenden Ergebnisse werden direkt in der Benutzeroberfläche von Bixby dargestellt, ohne dass ein Wechsel in einen separaten Browser oder eine andere App erforderlich ist. Auch diese Funktion soll dazu beitragen, Zeit zu sparen.

GIF Mit dem neuen Bixby lässt sich auch Live online suchen (Bild: Samsung)

Ab sofort in Deutschland verfügbar

Die neuesten Bixby-Updates sind mit One UI 8.5 in ausgewählten Märkten verfügbar, darunter Deutschland, Großbritannien, Indien, Korea, Polen und die USA. Eine Ausweitung auf weitere Regionen ist laut Samsung geplant. Es gilt als sehr wahrscheinlich, dass die neue Bixby-Iteration offiziell mit dem Galaxy S26 eingeführt wird.



Source link

Apps & Mobile Entwicklung

Samsung-Notebooks: Galaxy Book 6 (Pro/Ultra) startet am 11. März ab 1.049 Euro


Samsung-Notebooks: Galaxy Book 6 (Pro/Ultra) startet am 11. März ab 1.049 Euro

Samsung will das im Januar zur CES vorgestellte Galaxy Book 6 ab dem 25. Februar zur Vorbestellung anbieten und am 11. März auf den Markt bringen. Technische Details waren bereits bekannt, gefehlt hatten aber noch Termin und vor allem Preise. Los geht es ab 1.049 Euro, die Varianten Pro und Ultra kosten allerdings deutlich mehr.

Für das Galaxy Book 6 Pro ruft Samsung ab 1.799 Euro auf und für das Galaxy Book 6 Ultra verlangt der Hersteller mindestens 2.199 Euro. Die Preise für die einzelnen Untervarianten sind noch nicht bekannt, Samsung hat die Notebooks noch nicht in den eigenen Shop aufgenommen. Auch im Preisvergleich sind die Laptops nicht gelistet.

Haptisches Touchpad in einem Windows-Notebook

Im Hands-on zur Messe in Las Vegas überzeugten zwei der drei Notebooks auch über ihr haptisches Touchpad. In der Windows-Welt muss man haptische Touchpads, die sich auf gesamter Fläche klicken lassen und dabei haptisches Feedback liefern, wie die Nadel im Heuhaufen suchen. Bei Apple gibt es das „Force Touch Trackpad“ hingegen bereits seit über 10 Jahren, eingeführt 2015 mit dem MacBook 12″. Jetzt bietet sie auch Samsung im Galaxy Book 6 Pro und Ultra an. Das Basismodell Galaxy Book 6 muss weiterhin mit einem klassischen Touchpad auskommen.

Galaxy Book 6 Ultra mit RTX 5060 und 5070

Samsung unterteilt die Galaxy-Book-6-Serie in drei Baureihen: Ultra, Pro und Basismodell. Das Ultra mit wahlweise diskreter Nvidia-Grafikkarte soll die höchste Leistung vor allem für Kreativschaffende zur Verfügung stellen. Einzig dieses Modell ist für die anvisierte Zielgruppe mit einem vollwertigen Cardreader ausgestattet. Alle Anschlüsse und technische Daten sind der Tabelle am Ende des Artikels zu entnehmen.

Galaxy Book 6 Ultra

Galaxy Book 6 Pro: dünn und leicht

Das Pro ist die besonders dünne und leichte Ausführung des Galaxy Book 6. Dort fallen die größten Intel Core Ultra X9 und 9 weg, geboten werden aber weiterhin Core Ultra X7 und 7 – jeweils mit integrierter GPU. Baugleich ist diese Variante zudem bezogen auf das Display, wo 14 und 16 Zoll mit identischen Eigenschaften zur Auswahl stehen. Das AMOLED-Panel bietet 2.880 × 1.800 Pixel, 30-120 Hz, 1.000 nits, Gorilla Glass 5 und Touch.

Galaxy Book 6 Pro

Basismodell ist das Galaxy Book 6

Das Basismodell bildet das Galaxy Book 6, das mit Core Ultra 7 und 5 sowie einem 14 oder 16 Zoll großen IPS-Panel angeboten wird, das mit 1.920 × 1.200 Bildpunkten und 60 Hz arbeitet. Eine Touch-Variante kann jedoch wie die AMOLED-Panels von 30 bis 120 Hz wechseln. Die Helligkeit fällt hier mit 350 nits aber merklich niedriger aus.

Galaxy Book 6



Source link

Weiterlesen

Apps & Mobile Entwicklung

Generatives Musikmodell: So erstellt man mit Lyria 3 kurze Soundtracks in Gemini


Google hat seinen KI-Musikgenerator Lyria 3 in Gemini integriert. Nutzern sollen damit durch einfache Prompt-Eingaben ansehnliche Musikstücke verschiedener Stilrichtungen erstellen können. Die Länge der generierten Stücke ist derzeit noch auf 30 Sekunden begrenzt, Google hat damit vor allem Videos im Blick.

Vom Text zur fertigen Musik

Das aus Googles DeepMind stammende Musikmodell soll nicht nur anhand einfacher, per Text eingegebener Beschreibungen wie gewünschtem Genre oder vorgegebener Stimmung entsprechende Tracks erzeugen können, sondern auch auf Basis von Bildern und Videos. Gemini erstellt daraufhin einen vollständigen, bis zu 30 Sekunden langen Track mit einer Abtastrate von bis zu 48 kHz. Im Gegensatz zu früheren Lyria-Versionen kann das Stück auf Wunsch direkt von der KI mit einem passenden Text versehen werden. Durch die Möglichkeit, Videos als beschreibende Quelle zu nutzen, soll sich das neue Modell zudem für die unkomplizierte musikalische Untermalung kurzer Videos eignen, die dafür lediglich hochgeladen werden müssen.

Größere Kontrolle und Einfluss

Mit dem neuen Modell erhalten Anwender zudem deutlich mehr Kontrolle über die Ausgabe – etwa hinsichtlich Stil, gewünschtem Tempo, Stimme und Stimmung, aber auch bei spezifischeren Parametern wie Tonart, Akkord-Progressionen oder der Frage, ob das Stück überwiegend Dur- oder Moll-Akkorde verwenden soll. Die Informationsrichtung kann dabei auch umgekehrt verlaufen: Auf Wunsch gibt Lyria 3 die verwendeten Akkorde aus, eine vollständige Partitur mit sämtlichen Noten ist jedoch nicht möglich. Gleiches gilt für die Ausgabe einzelner Spuren zur späteren Weiterverarbeitung oder besseren Abmischung. So lässt sich beispielsweise keine isolierte Gesangsspur erzeugen, die in eigenen Produktionen weiterverwendet werden kann.

Gleichzeitig wird für die erstellten Inhalte mittels Nano Banana ein individuelles Cover-Art generiert, das in kurzen Tests der Redaktion jedoch nur wenig überzeugen konnte und inhaltlich meist nur bedingt einen Bezug auf einen möglichen Text erkennen ließ.

Wie funktioniert Lyria 3 in der Praxis?

Die Redaktion hat Lyria 3 einem Kurztest unterzogen und versucht, dem KI-Modell mittels einfacher Prompts ein hörbares Stück zu entlocken. Bereits mit einer schlichten Eingabe wie

Eine Frauenstimme soll über das Wetter singen. Die Tonart soll in C-Dur gehalten werden, der Stil in Richtung Synthwave oder Retro-Wave gehen und ein höheres, treibendes Tempo besitzen. Das Stück soll eine fröhliche Grundstimmung besitzen und das erste schöne Frühlingswetter nach langen Regentagen beschreiben.

lässt sich bereits ein hörbares Ergebnis erzeugen.

Je detaillierter ein Prompt jedoch formuliert ist und je mehr Informationen dieser enthält, desto präziser kann die von Lyria 3 erstellte Ausgabe den eigenen Vorstellungen entsprechen. So konnte mittels

Eine Frauenstimme soll über das Wetter singen. Die Tonart soll in C-Dur gehalten werden, der Stil in Richtung Synthwave oder Retro-Wave gehen und ein höheres, treibendes Tempo besitzen. Als Akkordprogression soll I-V-vi-IV verwendet werden. Im Hintergrund soll ein das Musikstück umhüllendes Pad zu hören sein, der Bass sollte aber einen hohen Attack besitzen und leicht metallisch klingen. Background-Sänger sollen teile des Refrains wiederholen. Das Stück soll eine fröhliche Grundstimmung besitzen und das erste schöne Frühlingswetter nach langen Regentagen beschreiben. Es sollen zudem Wörter wie „Regen“, „Sonnenschein“ „Regenzeit“, „schlechtes Wetter“ und „Wolkenbruch“ verwendet werden.

deutlich mehr Einfluss auf das ausgegebene Musikstück genommen werden.

Dabei eignet sich Lyria 3 ebenso für die Erstellung skurriler oder humorvoller Stücke:

Eine Männerstimme soll den deutschen liebstes Fleischgericht besingen: Das Schnitzel! Die Musik soll vom Stil der stampfend sein und nach einem deftigen Wirtshaus klingen. Dementsprechend soll auch die Musik angepasst sein. Etwas Blasmusik wäre ebenfalls schön, der Hintergrund ansonsten schlagermäßig synthetisch klingen. Das Stück soll zudem ein mittleres, eher gemütliches Tempo besitzen, das zum Schunkeln einlädt.

Gerade dieses Stück zeigt, dass KI-Modelle wie Lyria 3 künftig vor allem in der Werbung stärkere Verbreitung erfahren könnten.

Nicht selten erweist es sich zudem als vorteilhaft, einen Prompt mehrfach einzugeben, da Lyria 3 bei jeder erneuten Generierung unterschiedliche Stücke präsentiert und so eine größere Auswahl zur Verfügung stellt.

Identifikation von KI-Inhalten soll einfacher werden

Google hat eigenen Angaben zufolge bei Lyria 3 nicht nur Nutzerfreundlichkeit und Qualität gesteigert, sondern zugleich erweiterte Möglichkeiten geschaffen, um mit dem KI-Modell erzeugte Inhalte leichter identifizieren zu können. So werden alle in Gemini erstellten Stücke mit dem hauseigenen SynthID-System versehen, das die Inhalte mit einem nicht sichtbaren Wasserzeichen markiert. Ein Musikstück kann dazu einfach in die Gemini-App geladen und auf SynthID überprüft werden. Google betont zudem, dass Lyria 3 auf den „künstlerischen Ausdruck ausgelegt“ sei, nicht jedoch auf das gezielte Nachahmen bestehender Künstler. Diese können in Prompts zwar genannt werden, das System nutzt sie dann jedoch lediglich als Inspiration und versucht, einen ähnlichen Track im Stil der jeweiligen Band oder des Künstlers zu erzeugen. Für eine bessere Nutzung von Prompts stellt Google Nutzern darüber hinaus zahlreiche Hilfestellungen bereit.

Creator können Lyria 3 ab sofort auch in Dream Track verwenden, dem experimentellen KI-Tool von YouTube zur klanglichen Untermalung von YouTube Shorts. Dieses war bislang ausschließlich in den USA verfügbar und wurde nun auch für weitere Länder freigeschaltet.

(Noch) Kein professionelles Werkzeug

Auch wenn die Fähigkeiten von Googles Musik-Tool deutlich erweitert wurden, ordnet es sich weiterhin klar hinter professionellen Lösungen wie Suno AI oder Udio ein. Die von Google genannten Einsatzszenarien verdeutlichen, dass sich Lyria 3 primär an normale Nutzer und Contentcreator richtet, die mit einfachen Methoden ein Musikstück für den Hintergrund ihrer Bilder oder Videos erstellen möchten und keine tiefgreifende Kontrolle benötigen.

Ab sofort verfügbar

Lyria 3 ist ab sofort in Gemini für alle Nutzer ab 18 Jahren auf Deutsch, Englisch, Französisch, Hindi, Japanisch, Koreanisch, Portugiesisch und Spanisch verfügbar. Weitere Sprachen sind Google zufolge geplant. Abonnenten von Google AI Plus, Pro und Ultra erhalten zudem höhere Nutzungslimits, zu deren konkreter Ausgestaltung Google bislang jedoch keine weiteren Informationen veröffentlicht hat.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Amazon: KI-Coding-Bots verursachten AWS-Ausfälle – ComputerBase


Zwei Ausfälle in Amazons Cloud-Sparte AWS in den letzten Monaten sollen von internen KI-Entwicklertools ausgelöst worden sein, berichtet die Financial Times (via Golem). Intern bekräftigt das die Zweifel an den Coding-Assistenten.

Mitte Dezember kam es dem Bericht zufolge zu einer 13-stündigen Störung in einem System, weil der interne Coding-Agent Kiro AI autonom eine Umgebung gelöscht und neu erstellt hat. Laut Amazon führte der Fehler aber zu keinem großen Ausfall. Betroffen war ausschließlich ein einzelner Dienst in Teilen von China.

Bei Kiro AI handelt es sich um einen modernen Coding-Assistenten, der seit Juli in AWS verfügbar ist. Entwickler sollen diesen nutzen, um die Software-Entwicklung zu automatisieren.

Zuvor gab es bereits den Chatbot Amazon Q Developer, den Entwickler verwenden sollten, um Code zu schreiben. Dieser Assistent soll laut den Quellen der Financial Times ebenfalls einen Ausfall verursacht haben. Laut Amazon hatte der Vorfall aber keine Auswirkungen auf AWS-Kunden.

„Es waren Fehler, kein KI-Fehler“

Amazon erklärte auf Anfrage der Financial Times, in beiden Fällen habe es sich „um Fehler, nicht KI-Fehler“ gehandelt. Es sei Zufall gewesen, dass KI-Tools involviert waren. Menschliche Entwickler hätten diese Vorfälle ebenfalls verursachen können. Generell habe man bislang noch keine Hinweise, dass es mit den Coding-Assistenten mehr Fehler gebe.

Konkret bei Kiro AI sei etwa ein Problem gewesen, dass der Coding-Assistent zu weitreichende Berechtigungen hatte. Bei der Fehleranalyse gehe es also um die Zugriffsrechte, die Menschen erteilt haben und nicht um die autonom arbeitende KI.

Nach dem Dezember-Vorfall hat AWS daher weitere Sicherheitsvorgaben implementiert. Dazu zählen etwa verpflichtende Peer-Review-Verfahren und Mitarbeiterschulungen.

Big Tech forciert AI-Coding

Die Big-Tech-Konzerne arbeiten seit Monaten und Jahren daran, möglichst viel Code von den Coding-Assistenten produzieren zu lassen. Microsofts Chef Satya Nadella verkündete schon im Frühjahr 2025, dass bereits zu diesem Zeitpunkt 20 bis 30 Prozent des Microsoft-Codes KI-generiert seien – und der Wert soll seitdem nochmals deutlich gestiegen sein. Ähnlich äußerte sich Google und ebenso Meta-Chef Mark Zuckerberg.

Amazon hat laut dem Bericht das interne Ziel ausgegeben, dass 80 Prozent der Entwickler mindestens einmal pro Woche die Coding-Assistenten nutzen sollen. Laut den Quellen der Financial Times existiert aber eine gewisse Skepsis, einige Mitarbeiter sind besorgt angesichts des Fehlerpotenzials, das von den autonomen Assistenten ausgeht.



Source link

Weiterlesen

Beliebt