Connect with us

Apps & Mobile Entwicklung

Veo 3.1 und Flow: Googles KI-Videogenerator legt bei Realismus und Audio nach


Google hat das eigene KI-Modell für die Videogenerierung überarbeitet und will mit Veo 3.1 vor allem den Realismus erstellter Szenen weiter nach oben schrauben und Anwender auch im Bereich Audio besser unterstützen. Passend dazu gibt es in Googles KI-Video-Tool Flow neue Optionen für das Erstellen und Bearbeiten von Szenen.

Laut Google soll Veo 3.1 im Vergleich zu Veo 3 insgesamt besseres Audio passend zum Video generieren, dem Anwender mehr erzählerische Kontrolle geben und mit gesteigertem Realismus für lebensechte Texturen sorgen. Veo 3.1 baut auf Veo 3 auf, erklärt Google, es folge aber mehr dem Prompt des Nutzers und liefere eine bessere audiovisuelle Qualität, wenn aus einem einzelnen Bild ein Video generiert wird.

Mit dem Update erweitert Google die Audio-Fähigkeiten von Veo auf bereits zuvor existierende Features des Videogenerators, sodass sich jetzt auch dafür Ton erstellen lässt. Mit der Funktion „Ingredients to Video“ können Anwender das KI-Modell mit Referenzfotos füttern, um Charaktere, Objekte und Stil einer Szene zu steuern.

Audio gibt es jetzt auch innerhalb von „Frames to Video“, das Anwender nutzen können, um mittels Start- und Endframe den Inhalt dazwischen mit Übergang zu generieren.

Veo 3.1 bietet mit „Extend“ auch eine Option, um bestehende Inhalte zu erweitern. Das KI-Modell erweitert daraufhin die bestehende Szene auf Basis des Inhalts aus der letzten Sekunde des Originals. Auch für diesen Modus lässt sich jetzt Ton generieren.

Darüber hinaus führt Veo respektive Flow mit dem jüngsten Update auch vollständig neue Funktionen ein. Mit „Insert“ lassen sich in Flow jetzt praktisch beliebige Elemente oder Eigenschaften einer Szene hinzufügen oder für diese definieren. Google gibt als Beispiele besondere Details, phantastische Kreaturen, Schatten oder Beleuchtung an. Ferner stellt Google in Aussicht, dass Anwender schon „bald“ die Option erhalten werden, Objekte und Personen aus Szenen entfernen zu können. Veo respektive Flow soll den Hintergrund und die Umgebung entsprechend wieder auffüllen, so als wäre das Objekt nie vorhanden gewesen.

Veo 3.1 lässt sich mit einem Abo für „Google AI Pro“ ab sofort in Flow nutzen, außerdem steht das neue KI-Modell über die Gemini API für Entwickler und über Vertex AI für Unternehmen zur Auswahl. Auch die Gemini-App greift bereits auf Veo 3.1 zurück.



Source link

Apps & Mobile Entwicklung

nextpit startet in eine neue Ära



Manchmal muss man loslassen, um Neues zu schaffen. Nach fast zwei Jahrzehnten verabschieden wir uns von einem Stück Geschichte – und starten in eine neue Ära für nextpit.

Ein Stück Geschichte geht zu Ende:

Es ist kaum zu glauben: Die Technik hinter nextpit stammt aus einer Zeit, in der Smartphones gefühlt noch Tasten hatten. Auf jeden Fall gab es aber noch keinen Play Store – und vor allem keine Webübersicht über alle Android Apps. Vor über 15 Jahren haben wir unser eigenes System entwickelt – damals war das ein echtes Kunststück und ermöglichte uns, schnell zu wachsen und innovativ zu sein.

Doch mit den Jahren wurde es immer schwieriger, unser altes System weiterzuentwickeln. Jede kleine Anpassung bedeutete viel Aufwand, und neue Features zu integrieren war fast wie ein chirurgischer Eingriff am offenen Herzen.

Seit der Fusion von inside digital und nextpit vor bald zwei Jahren war klar: Zwei getrennte Systeme zu pflegen – eines davon hausgemacht, das andere WordPress – ergibt langfristig keinen Sinn. Deshalb haben wir uns entschieden, auch nextpit auf WordPress zu portieren.

Ein großer Schritt. Auch emotional.

Was so einfach klingt, war in Wahrheit monatelange Arbeit eines großen Teams. Inhalte mussten migriert, Strukturen angepasst und Designs neu gedacht werden. Wir haben vieles aus dem alten System übernommen – aber nicht alles konnte bleiben.

Das schwerste Kapitel: unser Forum und unser Punktesystem. Millionen Beiträge, Diskussionen und Erinnerungen. Sie waren das Herz unserer Community, und wir wissen, wie viel Leidenschaft darin steckt. Doch die technische und organisatorische Herausforderung, alles zu übertragen, wäre enorm gewesen. Foren spielen heute auch nicht mehr dieselbe Rolle wie vor 15 Jahren. Es gibt neue Formen des Austauschs, neue Plattformen und neue Wege, miteinander in Kontakt zu bleiben.

Wir haben uns diesen Schritt nicht leicht gemacht. Umso wichtiger ist uns, dass ihr mitbestimmt, wie Community bei nextpit in Zukunft aussieht. Wenn ihr uns dazu eure Meinung sagen möchtet, findet Ihr hier unsere Umfrage. Eure Meinung zählt: Eure Teilnahme fließt direkt in die Entwicklung unseres neuen Community-Systems ein. 

Ein neues Zuhause – schöner, schneller, flexibler

Am 21. Oktober ist es soweit: Das neue nextpit geht live! Es wird anders aussehen, moderner und leichter. Aber es bleibt nextpit – mit dem gleichen Herzblut, mit dem gleichen Team, mit der gleichen Mission: Euch zu zeigen, was Ihr von Technik erwarten könnt.

So können wir gemeinsam mit Euch neue Ideen ausprobieren, Features testen und ein nextpit bauen, das sich an Euren Wünschen orientiert – Schritt für Schritt.

Wir wissen: Viele von Euch sind seit Jahren dabei. Ihr habt mitdiskutiert, kommentiert, kritisiert und mit uns gelacht – Ihr seid nextpit.

Darum freuen wir uns umso mehr, dieses nächste Kapitel mit Euch zusammen zu schreiben.

Lebe wohl, altes nextpit. Und hallo Zukunft – unsere gemeinsame.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Jeder Windows-PC als KI-PC: Neuer Copilot soll Windows mit Sprache und Vision steuern


Windows 11 25H2 hatte zum Start noch keine Neuerungen, heute kündigt Microsoft aber zahlreiche neue KI-Funktionen an. Im Mittelpunkt steht der Copilot-Assistent, der nun den Bildschirm sieht und direkt mit Dateien und Diensten interagieren kann.

Was Microsoft heute für die Allgemeinheit freigibt, sind Funktionen, die teils schon vor Jahren angekündigt worden sind. Das gilt etwa für Copilot Vision – eine KI-Funktion, die für sämtliche Windows-11-Nutzer verfügbar ist. Und nicht nur für den Copilot+ PC.

Copilot Vision: Der KI-Assistent sieht mit

Der Clou bei Copilot Vision ist, dass der KI-Assistent per Bildschirmfreigabe all das sieht, was auch der Nutzer sieht. Damit ist es dann möglich, den KI-Assistenten direkt zu den Inhalten zu befragen, die man gerade vor sich hat – also etwa Webseiten oder Dokumente.

Copilot Vision auf einer Webseite
Copilot Vision auf einer Webseite (Bild: Microsoft)

Bei Word-, Excel- und PowerPoint-Dateien kann Vision zudem die komplette Datei auswerten. Bei einer PowerPoint-Präsentation gibt der Assistent also nicht nur Informationen zur aktuellen Seite, sondern analysiert das komplette Dokument, ohne dass man es durchklicken müsste.

Mit der Highlight-Funktion kann der Copilot direkt Hinweise geben, also etwa mitteilen, wo man in einer App hinklicken muss.

Copilot Vision mit Text steuern

Bislang arbeitet Copilot Vision nur mit dem Sprachmodus. Künftig soll es aber auch möglich sein, den Assistenten während des Screensharings via Text-Eingaben zu steuern. Es muss also nicht nur das gesprochene Wort sein.

Gaming Copilot: KI-Assistent für Spiele

Die Copilot-Vision-Funktion nutzt Microsoft auch für den Gaming Copilot, der nun direkt in die Game Bar auf Windows PCs integriert ist. Noch handelt es sich um eine Beta-Version, die soll im Kern aber eines der Versprechen einlösen, die Microsoft zum Start der Copilot+-Ära machte: Der KI-Assistent ist etwa bei Spielen wie Minecraft in der Lage, dem Spieler während des Spielens Tipps zu geben. Starten lässt sich der Gaming Copilot in der Xbox-PC-App über die Tastenkombination Windows+G.

Abrufbar ist der KI-Assistent auch auf den Xbox-Handheld-Konsolen. Unterstützt werden bereits das ROG Xbox Ally und ROG Xbox Ally X (Test) von Asus.

Copilot Connectors: Direkte Anbindung an OneDrive, Outlook oder Gmail

Für Windows Insider vorbehalten ist noch die Connector-Funktion. Mit der lässt sich der KI-Assistent mit Diensten wie OneDrive, Outlook oder Google Diensten wie Drive, Kalender und Gmail verknüpfen. Der KI-Assistent erhält dann direkten Zugang zu Kontakten, E-Mails, Kalender-Einträgen und Dokumenten. Diese Informationen lassen sich dann nutzen, um bestimmte Aufgaben zu erfüllen. Das zählen etwa Recherchen zu bestimmten Terminen oder die Suche nach Dokumenten zu bestimmten Themen mit natürlicher Sprache.

Copilot als digitaler Alltagshelfer

Klar ist das Ziel, das Microsoft erneut formuliert hat: Der Copilot soll zum digitalen Alltagshelfer werden, den Nutzer mit natürlicher Sprache steuern können. Sei es per Texteingabe oder mit gesprochener Sprache.

Copilot in der Taskleiste

Daher rückt der Copilot auch an mehr Stellen in das Sichtfeld. In der Taskleiste erscheint der Copilot nun etwa im Suchfenster, ist also schnell aufrufbar.

Ebenso ist es nun via Copilot möglich, nach Windows-Einstellungen zu fragen. Wer etwa den Bildschirm heller einstellen will, soll über den Copilot direkt zu den jeweiligen Optionen gelangen. Dort kann man dann die Änderungen vornehmen.

Was auffällig ist: In der Anfangszeit des Copilot sollte der KI-Assistent noch selbst die Einstellungen ändern. Diese Funktion fehlt immer noch.

KI-Aktion im File Explorer

Leichter werden soll der Zugang zu den KI-Tools mit den „AI Actions“. Wenn man eine Datei öffnet, erscheint im Datei-Explorer eine Art Kontextmenü, das passende Hilfestellung anbietet. Zum Start gibt es bei Bilddateien etwa die Optionen, eine visuelle Suche in Bing zu starten oder Bearbeitungen in der Windows-Foto-App oder Paint vorzunehmen.

KI-Aktionen im Datei-Explorer
KI-Aktionen im Datei-Explorer (Bild: Microsoft)

Über die KI-Aktionen lassen sich auch externe Dienste integrieren. Dazu zählt etwa der KI-Agent Manus oder Anbieter wie Filmora und Zoom. Zoom lässt sich auch über die Click to Do auf Copilot+ PCs steuern, diese Funktion befindet sich aber noch im Windows-Insider-Programm. Inwieweit die KI-Aktionen verfügbar sind, unterscheidet sich nach Region.

Der neue Agent: Copilot Actions

In den Copilot Labs testet Microsoft nun auch die Copilot Actions. Dabei handelt es sich um einen KI-Agenten, der eigenständig Aufgaben erfüllen soll. Als beim Firmenjubiläum im Mai die Copilot-Action-Funktion für die Web-Version vorgestellt wurde, präsentierte Microsoft etwa, wie der KI-Assistent einen Tisch im Restaurant bucht.

Copilot Actions in der Windows-App soll hingegen klassische Desktop-Aufgaben übernehmen. Beispiele sind das Sortieren von Urlaubsfotos oder die Recherche in PDFs.

Noch befindet sich Copilot Actions aber in einem experimentellen Status. Bald soll es aber für Windows Insider verfügbar sein.

Lange Liste an Neuerungen

Umfassend ist generell die Liste an Neuerungen, die Microsoft präsentiert. Vieles von dem, was in den letzten Monaten in den Insider-Versionen von Windows 11 landete, wird nun freigegeben. Dazu zählen:

  • Windows 11 unterstützt Wi-Fi 7.
  • Sicherheit: Ein optisches Upgrade für Windows Hello, die Integration eines Passkey-Managers sowie verbesserte Kernel-Sicherheit.
  • Optische Verbesserungen, die etwa den Benachrichtigungsbereich, die Taskleiste und den Datei-Explorer betreffen.
  • Der Kommandozeilen-Editor Microsoft Edit wird verteilt.
  • Copilot+ PCs: Verbesserungen gibt es unter anderem bei der KI-Suche Recall und Click to do.
  • Windows-Apps wie Paint und das Snipping-Tool erhalten kleinere Optimierungen.

Voraussetzung für die Funktionen ist Windows 11 25H2. Einige erscheinen zudem vorerst noch im Windows-Insider-Programm oder sind auf bestimmte Regionen begrenzt.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Jetzt wird’s schlüpfrig! ChatGPT schon bald mit Erotik-Funktion



Ist Euch ChatGPT ein wenig zu unpersönlich seit dem letzten Update? OpenAI-Boss Sam Altman verspricht, dass das schon bald besser werden soll. Und er verspricht noch mehr: Für verifizierte Erwachsene wird ChatGPT eine ganz neue Erotik-Note bekommen. Wir verraten Euch, was da in Planung ist. 

Ja, OpenAI will ChatGPT künftig erotische Inhalte für Erwachsene erlauben. Das ist allerdings nicht etwa bloß ein zusätzliches nettes Feature. Hinter dem geplanten „Erotik-Modus“ steckt vielmehr eine strategische Neuausrichtung: Der Chatbot soll persönlicher, emotionaler, ja menschlicher wirken. Die Erotik kommt nur noch zusätzlich on top. Doch aus den geplanten Änderungen ergeben sich auch ethische, technische und psychologische Risiken.

Vom Helfer zum Freund

Aber der Reihe nach: Auslöser war das Feedback vieler Nutzer:innen, die die neuere Version – GPT-5 – als distanzierter empfanden als frühere Modelle. OpenAI-CEO Sam Altman reagiert daher nun mit einem klaren Kurswechsel: mehr Persönlichkeit, mehr Emotion, mehr Unterhaltung. Der geplante Erotik-Modus ist der konsequenteste Ausdruck dieses Wandels – weg vom reinen Arbeitsassistenten, hin zum digitalen Begleiter, der auf Wunsch flirtet und Zuneigung simuliert.

Altman begründet das mit Nutzerfreiheit: Die bisherigen Einschränkungen hätten viele frustriert, weil sie ChatGPT „weniger nützlich oder unterhaltsam“ machten. Sie waren aber seiner Meinung nach notwendig, weil für mental gefährdete Personen noch Fragen geklärt werden mussten. Auf X schreibt er nun: 

In einigen Wochen planen wir die Veröffentlichung einer neuen Version von ChatGPT, die es den Nutzern ermöglicht, eine Persönlichkeit zu haben, die sich eher so verhält, wie es den Nutzern bei 4o gefallen hat (wir hoffen, dass es besser wird!). Wenn Sie möchten, dass Ihr ChatGPT sehr menschlich reagiert, viele Emojis verwendet oder sich wie ein Freund verhält, sollte ChatGPT dies tun (aber nur, wenn Sie es möchten, nicht weil wir die Nutzung maximieren wollen). 
Im Dezember, wenn wir die Altersbeschränkung vollständiger einführen und im Rahmen unseres Grundsatzes „Erwachsene Nutzer wie Erwachsene behandeln“, werden wir noch mehr zulassen, wie z. B. Erotika für verifizierte Erwachsene.

Zwischen Erotik und Ethik

Erotische Interaktionen sollen Altmans Aussage nach also nur für „verifizierte Erwachsene“ verfügbar sein. Wie genau die Altersprüfung funktionieren soll, ist bislang jedoch noch unklar. Klar ist hingegen, dass der Modus nicht per Default aktiviert ist. Ihr müsst also proaktiv tätig werden, wenn Ihr knisternde Gespräche mit ChatGPT führen wollt. 

Zudem ist offen, wie weit der Erotik-Modus gehen darf: von romantischem Chat bis zu explizitem Sexting? Schon heute zeigen Zahlen, wie schmal der Grat ist: Fast ein Fünftel der US-Schüler:innen hatte laut Studien bereits eine romantische Beziehung zu einem KI-Chatbot oder kennt jemanden, der eine führt. Ein Bug im Frühjahr 2025 ermöglichte es Minderjährigen sogar, erotische Bilder zu erzeugen, wie TechCrunch berichtete. Und das ist nur ein kleiner Vorgeschmack auf die kommenden Herausforderungen.

OpenAI steht ohnehin unter Druck, weil Chatbots in Einzelfällen gefährliche Abhängigkeiten erzeugten. Fälle, in denen Nutzer:innen durch KI-Gespräche in psychische Krisen gerieten, führten zu Klagen und Kritik. Zwar führte das Unternehmen Sicherheitsmechanismen zur Erkennung riskanter Gespräche und psychologische Beratungsgremien ein, doch unabhängige Prüfungen fehlen.

Marktlogik der Gefühle

Offiziell betont Altman, es gehe nicht um mehr Nutzung, sondern um Authentizität. Doch der Schritt folgt einer klaren Marktlogik: Konkurrenten wie Character.AI, Grok oder Replika nutzen erotische und emotionale Interaktionen längst als Wachstumsmotor und machen das auch mit enormem Erfolg. Grok lässt Euch seit einigen Tagen ja sogar kostenlose Videos erstellen – und ja, auch die im sogenannten „Spicy“-Modus. 

Der Erotik-Modus ist also vermutlich weniger ein gewagter Tabubruch als ein cleverer strategischer Zug im Kampf um Aufmerksamkeit und Bindung. OpenAI will eine „menschlichere“ KI – riskiert dabei aber, echte Emotionen zur Ware zu machen. Ob man die Probleme wirklich gelöst bekommt und verifizierten Erwachsenen künftig erotische Chat-Abende der besonderen Art liefert? Das werden wir wohl zu sehen bekommen, wenn OpenAI seinen Zeitplan einhält und den Erotikmodus im Dezember auf die Menschheit loslässt. 



Source link

Weiterlesen

Beliebt