Connect with us

Apps & Mobile Entwicklung

Gemini Notebooks: Googles KI-Modell orga­ni­siert ab sofort Chats und Dateien


Google hat sein KI-Modell Gemini um eine von Nutzern lange geforderte Funktion erweitert, die in NotebookLM bereits seit Längerem verfügbar ist: Mit „Notebooks“ lassen sich ab sofort Konversationen und Dateien analysieren, strukturieren und thematisch organisieren sowie zwischen Gemini und NotebookLM synchronisieren.

Wichtige Informationen an allen Orten

Der von Google verwendete Begriff „Notebook“ ist dabei nicht im Sinne mobiler Rechner zu verstehen, sondern entspricht der eigentlichen Übersetzung als „Notizbuch“. Nachdem Google NotebookLM bereits Ende des vergangenen Jahres als Quelle in die Gemini-App integriert hatte, folgt nun mit den Notizbüchern der nächste Schritt. In NotebookLM ist es schon seit längerer Zeit möglich, Texte, Konversationen und weitere Inhalte mithilfe der KI-Plattform zu analysieren und als umfassende Wissenssammlung zu organisieren. Ziel ist es dabei, sowohl Lernprozesse als auch Arbeitsabläufe zu erleichtern. Diese Funktionen hat Google nun aus NotebookLM herausgelöst und stellt sie zusätzlich direkt in Gemini bereit.

Hilfe vor allem für größere Projekte und Aufgaben

Damit erhalten Nutzer auch innerhalb der KI-App einen eigenen Bereich, in dem sich entsprechende Daten ablegen lassen, die anschließend themenspezifisch ausgewertet werden können. Das gesammelte Wissen lässt sich jederzeit durch neue Dokumente erweitern, wodurch Gemini fortlaufend zusätzlichen Kontext erhält, der für Recherchen genutzt werden kann. Auch das Strukturieren umfangreicher Texte übernimmt die KI. Google zielt damit insbesondere darauf ab, die Qualität der generierten Antworten spürbar zu steigern. Abhängig vom gewählten Abonnement können Anwender auf eine größere Anzahl an Quellen zugreifen, um umfangreichere Aufgaben oder komplexere Projekte umzusetzen. Damit zieht Google mit der vergleichbaren ChatGPT-Funktion „Projects“ gleich.

GIF Mit Gemini Notebooks lassen sich Inhalte leicht organisieren (Bild: Google)

Den aktuellen Stand auf allen Geräten

Die erstellten Notizbücher lassen sich zwischen der Gemini-App und NotebookLM synchronisieren, sodass alle Plattformen stets auf denselben Wissensstand zugreifen. Neue Inhalte können beispielsweise unterwegs hinzugefügt werden und stehen anschließend unmittelbar auch auf Smartphone, Tablet oder dem heimischen Rechner bereit.

Start noch in dieser Woche – Europa muss warten

Die Einführung von Notebooks soll noch in dieser Woche in den USA beginnen, zunächst für Abonnenten von Google AI Ultra, Pro und Plus in der Webversion. In den darauffolgenden Wochen ist eine Ausweitung auf Mobilgeräte, weitere Länder in Europa sowie auf kostenlose Nutzer geplant. Zusätzlich weist Google darauf hin, dass Notebooks weder für Nutzer unter 18 Jahren noch für Workspace- und Education-Konten verfügbar sein werden.



Source link

Apps & Mobile Entwicklung

Zu hohe Energiekosten: OpenAI setzt „Stargate UK“ auf Pause


Zu hohe Energiekosten: OpenAI setzt „Stargate UK“ auf Pause

Bild: OpenAI

Während beim direkten Konkurrenten Anthropic derzeit eine positive Nachricht die nächste zu jagen scheint, läuft es bei OpenAI aktuell offenbar weniger rund. Nachdem bereits vor einem Monat der Ausbau des Rechenzentrums-Campus in Abilene, Texas, abgesagt wurde, wird nun auch bei „Stargate UK“ gebremst.

“Project Stargate“ nimmt keine Fahrt auf

„Stargate UK“ ist Teil des vor rund zwei Jahren vorgestellten ambitionierten Vorhabens von OpenAI, gemeinsam mit verschiedenen Partnern weltweit Rechenzentren zu errichten oder auszubauen, um Kapazitäten für eigene KI-Modelle zu schaffen. Inzwischen entsteht jedoch der Eindruck, dass sich das Unternehmen mit dem Unterfangen übernommen haben könnte. Im Juli 2025 tauchten erste Informationen auf, wonach das ursprünglich auf 500 Milliarden US-Dollar angesetzte Budget des „Stargate Project“, an dem neben OpenAI auch SoftBank, Oracle und MGX beteiligt sind, auf „lediglich“ 100 Milliarden US-Dollar zusammengestrichen wurde. Der Betrag verteilt sich zudem noch auf die folgenden vier Jahre.

Im selben Monat wurde bekannt, dass mit „Stargate Norway“ gemeinsam mit dem Hyperscaler Nscale bis Ende 2026 im norwegischen Kvandal das erste europäische Datacenter von OpenAI entstehen sollte, das vollständig mit Strom aus Wasserkraft betrieben werden soll. Im August 2025 räumte wiederum SoftBank-CEO Masayoshi Son ein, dass das KI-Infrastrukturprojekt generell mehr Zeit für die Umsetzung benötigen werde. Zudem sei bislang kein Teil des vorgesehenen Kapitals zusammengekommen, was den Bau zusätzlich verzögere.

Auch Bau in Großbritannien verzögert sich

Nun droht auch dem im September des vergangenen Jahres erstmals angekündigten Projekt in Großbritannien eine Zwangspause, wie Engadget unter Berufung auf Bloomberg berichtet. Bei „Stargate UK“ handelt es sich um ein KI-Infrastrukturprojekt von OpenAI in Zusammenarbeit mit Nvidia, das Großbritannien beim Aufbau eigener Rechenkapazitäten unterstützen will. Hierfür wurde gleichzeitig eine Partnerschaft mit der britischen Regierung geschlossen. Ziel war es, die führenden KI-Modelle des Unternehmens lokal in Rechenzentren innerhalb der Insel zu betreiben, was „insbesondere bei speziellen Anwendungsfällen, bei denen die Rechtshoheit eine Rolle spielt“, von Bedeutung sei, wie der Bericht zitiert.

Den Berichten zufolge soll OpenAI dem Projekt nun vorerst den Stecker gezogen haben. Als Gründe werden neben nicht näher benannten regulatorischen Problemen vor allem die hohen Energiekosten genannt. Das Unternehmen sieht dennoch weiterhin ein „enormes Potenzial für die KI-Zukunft Großbritanniens“ und betont, dass „KI-Rechenleistung für dieses Ziel von grundlegender Bedeutung“ sei. Die Situation solle weiter beobachtet und geprüft werden, ab wann geeignete Rahmenbedingungen wie Regulierung und Energiekosten langfristige Infrastrukturinvestitionen wieder ermöglichen.

Keine Informationen, ob auf Projekte in anderen Regionen betroffen sind

Im Laufe der Zeit hatte OpenAI mehreren europäischen Ländern angeboten, gemeinsam deren souveräne KI-Fähigkeiten auszubauen. Neben den bereits genannten Ländern zeigten auch Australien, Griechenland, die Vereinigten Arabischen Emirate, die Slowakei sowie Kasachstan Interesse an einer Zusammenarbeit. Ob diese Pläne ebenfalls durch die aktuell in vielen Ländern herrschenden hohen Energiekosten gefährdet sind, ist bislang nicht bekannt.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Weitere Galaxy-Modelle: Samsung weitet Beta-Pro­gramm von One UI 8.5 aus


Weitere Galaxy-Modelle: Samsung weitet Beta-Pro­gramm von One UI 8.5 aus

Nachdem Samsung im vergangenen März das Beta-Programm der eigenen Android-Iteration bereits ausgeweitet hatte, erweitert der Hersteller dieses nun erneut auf weitere Galaxy-Modelle, wobei erstmals auch ein Smartphone der A-Reihe einbezogen wird.

Nicht nur Galaxy-Modelle im Beta-Pool

Unter den neu aufgenommenen Galaxy-Modellen befinden sich laut Samsung unter anderem die Galaxy-S23-Serie (Test), das Galaxy Z Fold 5, das Galaxy Z Flip 5 (Test), das Galaxy S23 FE sowie nun auch das Galaxy A36 5G. Die neuen Beta-Versionen sollen nach Angaben des südkoreanischen Unternehmens schrittweise in ausgewählten Märkten wie Indien, Korea, Großbritannien und den USA eingeführt werden. Zudem soll das Beta-Programm in den kommenden Wochen nochmals auf weitere Galaxy-Geräte ausgeweitet werden. Für die Teilnahme ist eine Registrierung über die Members-App des Herstellers erforderlich.

AirDrop und Quick Share nun auch auf Samsung-Smartphones

Mit One UI 8.5 Beta will Samsung auf seinen Mobilgeräten unter anderem AirDrop über Quick Share einführen, nachdem Google bereits im November des vergangenen Jahres angekündigt hatte, dass die Funktion auf Smartphones der Pixel-10-Serie (Test) ab sofort mit Apples AirDrop kompatibel sei. Für Android insgesamt sollte die Umsetzung zu einem späteren Zeitpunkt folgen. Für Nutzer ausgewählter Galaxy-Modelle ermöglicht die Unterstützung einen nahtlosen plattformübergreifenden Dateiaustausch.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Benchmark-Debatte: Geekbench 6.7 erhält iBOT-Erkennung für Core Ultra 200 Plus


Benchmark-Debatte: Geekbench 6.7 erhält iBOT-Erkennung für Core Ultra 200 Plus

Bild: Intel

Das Intel Binary Optimization Tool (iBOT) sorgt bei CPUs der Serie Core Ultra 200 Plus für bessere Ergebnisse in der Geekbench-Datenbank. Da unklar ist, wie das genau funktioniert, hatten die Geekbench-Entwickler pauschal alle Resultate dieser CPU-Familie als „ungültig“ markiert. Mit Geekbench 6.7 gibt es eine neue Lösung.

Die jüngst erschienene Fassung Geekbench 6.7 führt eine sogenannte „Intel BOT Detection“ ein. Diese Anpassung im Code der Benchmark-Software soll also erkennen, ob auf einem System iBOT aktiv war oder nicht. Sollte die Nutzung von iBOT erkannt werden, werden die Resultate im Geekbench-Browser weiterhin als „invalid“ also „ungültig“ markiert. Sollte iBOT aber nicht erkannt werden, dann handelt es sich aus Sicht der Betreiber um valide Ergebnisse, die wie alle anderen behandelt werden.

Resultate mit Geekbench 6.6 und darunter sollen aber weiterhin als „ungültig“ markiert werden, da bei diesen die iBOT-Erkennung fehlt.

iBOT lieferte 5,5 % höhere Scores

Das Thema iBOT hat Geekbench von Anfang an sehr ernst genommen, unter anderem weil Intel diese Form der softwareseitigen Optimierung für seine Prozessoren nicht ausreichend dokumentiert habe, so der Vorwurf.

In eigenen Analysen stellten die Geekbench-Entwickler fest, dass beim Geekbench 6.3 mit aktiviertem iBOT sowohl die Single-Score- als auch die Multi-Score-Ergebnisse um 5,5 Prozent höher ausfielen. Bei bestimmten Workloads gab es aber weitaus größere Vorteile durch iBOT: Im HDR Workload gab es bis zu 30 Prozent Zuwachs. Außerdem wurde klar, dass nur bestimmte Versionen des Geekbench durch iBOT optimiert wurden.

Instruktionen komprimiert

In weiteren Messungen stellte Geekbench fest, dass iBOT „signifikante Änderungen am Code des HDR-Workload vorgenommen hat“. Dadurch sei die Anzahl der durchgeführten Befehle um 14 Prozent reduziert worden. Das erklärt den deutlichen Leistungszuwachs.

Diese Reduzierung resultiert größtenteils aus der Vektorisierung von Teilen des Workload-Codes durch BOT, wobei Befehle, die mit einem Wert arbeiten, in Befehle umgewandelt werden, die mit acht Werten arbeiten. Dies ist eine deutlich komplexere Transformation als eine einfache Code-Umordnung. Intels öffentliche Dokumentation beschreibt lediglich die einfacheren Code-Umordnungstechniken, nicht aber die hier beobachteten Vektorisierungstransformationen.

Geekbench (maschinell übersetzt)

Geekbench findet iBOT unfair

Am Ende lautete das Fazit von Geekbench, dass Intels Binary Optimization Tool „diesen vielfältigen Code durch prozessoroptimierte, vollständig optimierte Binärdateien ersetzt und die Spitzenleistung anstatt der typischen Leistung misst“. Die Optimierungstechnik sei zwar „interessant“, würde aber „ein unrealistisches Bild der tatsächlichen CPU-Leistung vermitteln“ und „Intel-Prozessoren im Vergleich zu AMD und anderen Herstellern schneller“ erscheinen lassen, „als sie es im typischen Alltagseinsatz tatsächlich wären“.

Mehr zum Thema:

  • Intel APO, iBOT, IPPP & Co erklärt: Softwaretechnologien für bis zu 24 % höhere CPU-Leistung



Source link

Weiterlesen

Beliebt