Connect with us

Künstliche Intelligenz

Video Overviews: Google bringt KI-Visualisierungen in NotebookLM


Googles Audio Overviews sind ein Recherche-Werkzeug, bei dem Informationen als eine Art Podcast aufbereitet werden. Nun wird das um visuelle Inhalte erweitert. Die Video Overviews kommen zunächst als Präsentationen, in denen Bilder, Diagramme, Illustrationen und mehr enthalten sind. Google spricht von kommentierten Folien.

Zu nutzen ist Video Overviews wie auch die Audio Overviews via NotebookLM – das ist Google Notiz-App. Die KI ist quasi ein Gastgeber, der Inhalte für den Nutzer aufbereitet. Wahlweise macht er das, indem er Informationen zu einem vorgegebenen Thema als Podcast aufbereitet oder nun eben als Präsentation. Grundlage sind eigens ausgewählte Quellen. Diese legt man in einem Notizbuch an. Daraufhin kann man auswählen, was die KI damit machen soll. Neben Audio und Video Overviews gibt es etwa auch Mindmaps, einen Zeitstrahl und FAQs, die erstellt werden können.

Obwohl der neue Modus Video Overviews heißt, gibt es noch keine KI-generierten Videos. Auf KI-Dokus zum Binge-Watchen muss man also noch eine Weile verzichten. Google verspricht jedoch, dass die Präsentationen nur ein erster Schritt seien.

Auch die Video Overviews lassen sich wie die Audio Overviews anpassen. Themen können konkretisiert, Lernziele festgehalten werden. Es gibt die Möglichkeit, eine Zielgruppe zu bestimmen. Dazu gehört auch, dass man den eigenen Wissensstand vorgeben kann und die Inhalte sowie Erklärungen an diesen angepasst werden. Somit dienen die Overviews in der Regel als Lernhilfe. Erstellte Overviews können mittels eines öffentlichen Links geteilt werden. Nun kann man unterschiedliche Berechtigungen festlegen, um gemeinsam an einem Notizbuch zu arbeiten.

Lesen Sie auch

Neu ist auch, dass man mehrere Outputs derselben Art innerhalb eines Notizbuchs anlegen kann. Zudem lassen sich Audio Overviews anhören, während man an einem Projekt arbeitet. Bisher ging das nicht gleichzeitig.

Zunächst sind die Video Overviews nur auf Englisch verfügbar, weitere Sprachen sollen bald folgen, schreibt Google im Blogbeitrag.


(emw)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Supercomputer Stargate Norwegen: 230 Megawatt zum Start, bereit für 2,3 Gigawatt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der norwegische Serverbauer Nscale zieht für OpenAI einen Supercomputer in Nord-Norwegen hoch. Die erste Phase soll bis Ende 2026 fertig sein und 100.000 KI-Beschleuniger von Nvidia einsetzen. Rund 230 Megawatt elektrische Leistung soll die erste Phase in Anspruch nehmen.

Aker ASA steigt als Investor ein. Nscale und Aker ASA teilen sich die Baukosten von etwa einer Milliarde US-Dollar, wofür sie eine gemeinsame Tochterfirma gründen wollen. Nscale, Aker und OpenAI nutzen den Supercomputer gemeinsam, unter anderem sollen dort OpenAIs KI-Modelle laufen. Die drei Firmen betonen, dass das System für europäische Kunden gedacht ist und sich zu 100 Prozent an EU-Regeln einhalten soll.

Die Beteiligten nennen das Projekt zwar „Stargate Norway“, allerdings entsteht auch dieser Standort ohne den japanischen Investor Softbank. Es gehört damit streng genommen nicht zum ursprünglich angekündigten Stargate-Projekt.


Panoramabild eines Baugrundstücks vor Wasser

Panoramabild eines Baugrundstücks vor Wasser

Der Standort für Stargate Norway.

(Bild: Nscale)

Der Supercomputer entsteht in Kvandal bei Narvik. Dort gibt es laut Ankündigung Energie aus Wasserkraft im Überschuss, sodass Nscale das gesamte System mit erneuerbarer Energie betreiben kann. Das Warmwasser aus der Wasserkühlung soll Gebäude in der Umgebung aufheizen.

Welche Hardware genau zum Einsatz kommt, verraten die Beteiligten nicht. 2026 will Nvidia seine nächste GPU-Generation Rubin und den zugehörigen ARM-Prozessor Vera vorstellen. Fraglich ist allerdings, ob Stargate Norway direkt zum Start so große Rubin-Stückzahlen bekommt. Ansonsten müsste Nscale auf die jetzt noch aktuelle Blackwell-Generation beziehungsweise Blackwell Ultra zurückgreifen.

Schon jetzt ist eine zweite Phase mit einem zusätzlichen Energiebudget von 290 Megawatt angedacht. Grundsätzlich soll sich der Standort sogar für eine Verzehnfachung der Energiekapazität eignen. Das wären 2,3 Gigawatt.

Zum Vergleich: Europas schnellster Supercomputer ist derzeit der Jülicher Jupiter Booster. Er erreicht knapp 800 FP64-Petaflops Rechenleistung bei einer elektrischen Leistungsaufnahme von 13,1 Megawatt. Zur Fertigstellung soll er ein Exaflops bei 18 Megawatt übersteigen. Stargate Norway soll das System allein in der ersten Phase energetisch um den Faktor 13 übersteigen.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

Durchaus beeindruckend: ChatGPT Agent im Test


KI-Agenten hypen zurzeit – kein Wunder, schließlich simulieren sie das Handeln echter Menschen. ChatGPT Agent, wohl das bislang meist beachtete Agenten-Produkt, erschien Mitte Juli. c’t 3003 hat die Software ausführlich getestet.

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guck mal hier, ich tippe hier ein: Ey, ich brauche Merch für unseren YouTube-Kanal. Hier hast du unser Logo. Hol mal Preise ein für 500 T-Shirts. Gerne so Fairtrade und Bio-Baumwolle und so. Und wenn ich das bestätigt habe, einfach direkt zum Verlag in die Karl-Wiechert-Allee 10 in Hannover bestellen.

Ja, das ist krass, denn das macht der dann wirklich, der ChatGPT Agent. Okay, der hat natürlich keinen Zugriff auf meine Konten. Das heißt, er kann nicht selbst bezahlen, aber die ganze Vorrecherche hat er übernommen und auch den Großteil des Bestellprozesses. Ich muss dann hier nur noch meine Bezahldaten angeben und kann selbst auf „Bestellen“ klicken.

Ist das hier schon wieder die große KI-Revolution, die alles verändern wird? Nein, so einfach ist das nicht, denn Agents und vor allem der ChatGPT Agent, die haben aktuell noch große Probleme.

Das hier ist zum Beispiel der Ballermann-Hit „Serverparty in Palma“, den der Agent für mich geschrieben hat.

In diesem Video zeige ich euch, was schon geht – und das ist auch wirklich beeindruckend –, was noch nicht geht und wo auch unklar ist, ob es jemals gehen wird. Bleibt dran.

Liebe Hackerinnen, liebe Internet-Surfer, herzlich willkommen hier bei …

Ja, also ChatGPT Agent. Aber lass uns erst mal definieren, was überhaupt so ein Agent ist. Denn der Begriff ist ja, sag ich mal, ziemlich unkonkret. Aber man hört zurzeit immer häufiger davon. Gerade neulich bei der Meldung, dass der Softbank-Manager Masayoshi Son gesagt hat, seine Firma werde Billionen von KI-Agenten einstellen, um echte Menschen rauswerfen zu können. Und Softbank ist laut Forbes immerhin die 130. größte Firma der Welt.

Ja, aber Agenten – ja, was ist das? Also man kann erst mal sagen, dass KI-Agenten Software sind, die mit vorhandenen großen Sprachmodellen arbeiten. Also z. B. der ChatGPT Agent mit GPT-4o. GPT-4o ist einfach das, was voreingestellt ist, wenn ihr ganz normal ChatGPT verwendet.

Und ihr kennt das ja wahrscheinlich, dass sich ChatGPT oder auch Claude oder Grok oder DeepSeek oder LLaMA sich weigern, Dinge wirklich durchzuziehen, also konkrete Dinge zu tun, z. B. irgendwie eine direkte, ausführbare Datei von eurem Programmierprojekt zu erstellen. Die sagen dann immer nur: „Ich kann dir Tipps geben, wie du das hinbekommst.“ Aber das war’s dann halt auch.

Mit Agenten ist das nun anders. Die sollen nämlich einmal die Autonomie von LLMs steigern – also dass die Sachen selbstständig machen und entscheiden können –, aber auch die Fähigkeiten ganz konkret verbessern.

Und wenn ihr jetzt sagt: „Ja, wieso, ChatGPT kann aber doch jetzt schon Python-Code ausführen oder auch Bildgenerierung anschmeißen, wenn ChatGPT das für sinnvoll hält?“ Ja, das stimmt. Das ist auch tatsächlich schon agentenähnliches Verhalten – also dass ChatGPT sich selbst überlegt, was es für Tools verwenden kann. Aber ein richtiger Agent ist nochmal autonomer unterwegs, und vor allem geht das dann auch über mehrere Schritte.

Also, wenn ich zu einem KI-Agenten sage: „Plan mir mal meinen Urlaub, dann und dann, da und da“, dann fängt der an zu überlegen: Wie kommt man denn da jetzt überhaupt hin? Muss ich da irgendwie einen Flug buchen oder einen Zug, Hotels buchen und so weiter? Und Stichwort „buchen“ – der bucht das dann auch wirklich. Zumindest Stand heute: anfangen, die Websites aufzurufen und da meine Daten einzutragen.

Wenn ich im normalen ChatGPT sage: „Plan mir mal meinen Urlaub“, dann gibt er mir halt einfach nur so eine Tagesablaufliste raus, was ich so machen kann. Ums Buchen muss ich mich dann selbst kümmern.

Zusammengefasst: Ein KI-Agent – und in dem Fall ganz konkret ChatGPT Agent – versucht, sich wie ein Mensch zu verhalten. Also eine Person, die mitdenkt und versucht, Entscheidungen in meinem Sinne selbst zu treffen.

Also, das war jetzt die nicht-technische Erklärung. Ich als Nerd finde das oft ein bisschen anschaulicher, wenn man das nochmal technisch erklärt. Der ChatGPT Agent hat Zugriff auf seinen eigenen Linux-Rechner. Also, ist natürlich ein virtueller Rechner, klar, aber darauf kann er halt Dinge tun. Also zum Beispiel ein Terminal oder einen Browser ausführen oder einfach ein Bildanzeige-Programm. Er kann dann einfach direkt mit Dateien arbeiten, die ich ihm schicke, oder er kann Dateien generieren, die er mir schickt.

Aber vor allem der Browser macht das Ding natürlich supermächtig, weil ja sehr vieles in einem Browser gemacht werden kann – zum Beispiel T-Shirts bestellen, also ein Beispiel vom Anfang.

Ja, das war jetzt die Theorie. Kommen wir jetzt endlich zur Praxis. Erst mal mit dem Positivbeispiel, was ich wirklich extrem beeindruckend fand. Ich habe nämlich einfach gesagt: Ich möchte ein Spiel programmiert haben, was richtig doll Spaß macht, aber auch beeindruckend gut aussieht. Bitte frag mich nichts, denk dir einfach irgendwas aus. Ich möchte gleich einfach ein wirklich tolles Spiel spielen. Okay, lass dir so lange Zeit, wie du willst.

Ja, und dann hat es vier Minuten gedauert, und ich habe eine ZIP-Datei bekommen. Und die habe ich ausgepackt und das gestartet, und das lief auf Anhieb. Und ich habe ja schon viel mit Vibe-Coding und irgendwelchen Coding-Tools rumhantiert, aber so ein One-Shot – also dass das wirklich alles auf Anhieb funktioniert, auch wirklich alles, ohne irgendwelche Fehler oder so –, das habe ich, glaube ich, wirklich noch nie gehabt.

Also ich musste immer erst mal: funktioniert nicht, bisschen hin und her. Aber so, zack – das habe ich wirklich noch nicht gesehen. Das Spiel war halt nur ein bisschen langweilig. Ich habe dann gesagt: Kannst du noch ein bisschen Sound und vielleicht so Extra-Waffen dazu bauen oder so? Bisschen simpel alles gerade. Das hat dann nochmal neun Minuten gedauert – also war offenbar schwieriger, als das Grundspiel zu bauen. Aber das hat dann auch auf Anhieb funktioniert, und das hatte dann Sound und es hatte Extra-Waffen und hatte aufsammelbare Extras, und Spaß hat das vielleicht für eine Minute gemacht. Aber immerhin: hat Spaß gemacht für eine Minute.

Aber gerade bei solchen Extrawünschen, nachdem das Ganze fertig ist, da haben laut meiner Erfahrung bisherige Coding-Tools immer gerne zusätzliche Fehler eingebaut. Hier halt nicht.

Und dann dachte ich mir: War das jetzt einfach Glück? Und dann habe ich mir noch einen Minesweeper-Klon mit c’t-3003-Grafik rausgelassen. Vielleicht erinnert sich noch jemand: Minesweeper war bei fast allen Windows bis Windows 8 vorinstalliert. Ja, und hier hat der erste Versuch dann zu einer Fehlermeldung geführt. Ich habe dann einfach die Fehlermeldung weitergegeben – also Screenshot gemacht, hingeschickt, „hier, Fehlermeldung“ – und kurz darauf hat es dann geklappt. Das Titelbild war ein bisschen kaputt, aber das Spiel hat funktioniert. Und ich sag mal: Die Sound-Effekt-Auswahl, die ist … interessant.

Ja, ich habe zwar gesagt, die Soundeffekte dürfen ruhig lustig sein – also so „oh nein, ein Bombe“ –, aber das Sample, was er da ausgesucht hat, ist dann doch unangenehm.

Und dann wollte ich mal gucken, wie der Agent so mit Dateien umgehen kann, zum Beispiel mit Bildern. Weil ich habe das schon ziemlich oft gehabt, dass ich ganz viele falsch gedrehte Bilder richtig drehen musste. Und das war dann immer ziemlich frickelig und ein großer manueller Aufwand. Deshalb habe ich jetzt einfach mal ein paar unterschiedlich gedrehte Bilder in eine ZIP-Datei geschmissen und gesagt: „Dreh mir die mal korrekt hin und benenne mir die direkt irgendwie sinnvoll.“ Und das Benennen hat gut funktioniert, aber das Drehen nur bei vier von sechs Bildern. Und genau diese kleinen Fehler, die sind ein großes Problem.

Guck mal hier: Ich habe den Agenten zum Beispiel gebeten, die Linux-Gaming-Benchmark-Ergebnisse aus diesem YouTube-Video hier in eine Tabelle reinzuschreiben – einfach, weil ich das Video interessant finde und alle Ergebnisse gerne mal an einem Ort sehen wollte, statt mich so durch das Video skippen zu müssen.

Ja, und das hat auch erst mal funktioniert – also nachdem der Agent erst mal daran gescheitert ist, das Video auf YouTube überhaupt aufzurufen und dann Dinge gemacht hat, die ziemlich sicher gegen die YouTube-Nutzungsbedingungen verstoßen, was ich auch deshalb hier nicht im Detail zeigen will, weil mir YouTube sonst womöglich das Video sperrt. Das sollen OpenAI und Google mal schön unter sich ausmachen. Da habe ich nichts mit zu tun.

Am Ende hat der Agent es jedenfalls irgendwie hinbekommen, die Benchmark-Daten aus dem Video zu extrahieren. Aber da waren dann einfach stumpf Fehler drin. Ich vermute, dass der da intern mit einer zu geringen Auflösung gearbeitet hat und deshalb die Texterkennung hier einmal 8 als 3 erkannt hat. Dass ich das gemerkt habe bei den ganzen Zahlen in der Tabelle, die größtenteils richtig waren – das war eher so Glückssache.

Aber sowas kann natürlich doll ins Auge gehen, wenn man sich darauf verlässt und das für wichtige Dinge verwendet.

Beim anderen YouTube-Video mit Zahlen drin hat der Agent einfach den größten Teil ausgelassen, ohne mir das von sich aus mitzuteilen. Also er hat zwar gesagt, dass einige Zahlen schwer zu lesen waren – was nicht stimmt, also zumindest meine Mensch-Augen konnten die sehr gut lesen –, aber er hat halt einfach einen Großteil überhaupt ausgelassen der Informationen.

Und darauf habe ich dann den Agent angesprochen, und er hat dann so ein bisschen wie ein Schüler reagiert, der die Hausaufgaben nicht gemacht hat. Ja, nee, da war halt irgendwie so viel. Also O-Ton, was der Agent geantwortet hat: „Für eine vollständige Tabelle müssten alle Benchmark-Screenshots manuell und in Ruhe ausgewertet werden, was in dieser Umgebung leider nicht machbar ist.“ Also so irgendwie zu laut oder so. Ich weiß nicht, hat mich nicht überzeugt. Die Ausrede auf jeden Fall.

Vielleicht klappt es ja besser mit Business-Sachen. Ich habe dann gesagt: „Mach mir mal eine Präsentation, womit ich die heise-Geschäftsführung beeindrucken kann, wie doll c’t 3003 ist.“ Ja, und was da dann rauskam – das ist halt wirklich, kann’s nicht anders sagen: Das ist so total generische KI-Plörre. Also etwas, was die meisten Leute, die schon mal mit KI gearbeitet haben, auch als KI-generiert erkennen würden.
Also schon dieses hässliche Bild hier. Da hätte man ja auch einfach das Logo nehmen können. Das findet man ja im Netz.

Dann hier die Kurve mit dem Abo-Wachstum. Ja, okay, die Zahlen stimmen. Aber die Legende hier rechts, das ist schon ziemlich Larifari. Und es sind da halt auch Fehler drin. Also pro Video bis zu 200K. Ich habe gerade mal geguckt, wir hatten schon 37 Videos, die deutlich über 200K lagen. Das ging hoch bis 800.000 oder so.

Und wenn ich sage, ich will mit einer Präsentation Leute beeindrucken, dann sollte man solche Sachen vielleicht richtig machen. Also gerade, wenn es um hohe Zahlen geht. Und dann halt so random Zeug wie: 67 % wollen Hintergründe verstehen. Ja klar, wollt ihr da draußen Hintergründe verstehen. Für mich jetzt nicht so eine interessante Information. Und 82 % waren gestern schon auf YouTube. Okay, ja, ist das wichtig in dieser Präsentation?

Ja, und dieses Balkendiagramm hier ergibt irgendwie gar keinen Sinn. Da sind dann auch nochmal richtige Fehler drin. Denn c’t 3003 hat keinen WhatsApp-Kanal. Und auch hier steht wieder die völlig weirde Info, dass 82 % der Leute, die c’t 3003 gucken, auch schon gestern auf YouTube waren.

Ja, und dann zum Schluss so stumpf: Unterstützt c’t 3003. Und dann aber auch am Ende nochmal viel zu doll in die Superlativ-Kiste gegriffen. Wir sind sicherlich nicht Europas führender Tech-Channel. Das wäre auch ziemlich peinlich, wenn ich das sagen würde zu irgendwem.

Also ich kann aus dieser Präsentation, weiß nicht, vielleicht 20 % verwenden, wenn ich die wirklich vor Leuten halten würde. Der Rest ist Schund. Und ganz ehrlich: Wenn mir so eine Präsentation gezeigt werden würde, mit diesen Quatschfolien und den offensichtlichen Fehlern, und wo man auch deutlich erkennen kann, dass das KI-generiert ist – also diese Person würde bei mir jetzt nicht unbedingt Pluspunkte sammeln.

Und als Letztes wollte ich nochmal wissen, wie der Agent eigentlich Websites bedient, die ein Login brauchen – wie so gut wie alle Musikgenerierungsdienste.

Ich habe also den Agenten gefragt, dass er mir drei Ballermann-Party-Songs mit Technikthemen machen soll. Was mit UDIO oder ZUNO – hatten wir schon mal ein Video dazu gemacht – und wie die alle heißen, ziemlich unproblematisch klappt. Hat der Agent aber nicht gemacht, sondern irgendwelche anderen komischen Dienste verwendet.

Und ja, dann kamen dann die drei Songs: „Techno auf Mallorca“, „Serverparty in Palma“, „Schaltkreis im Strand“ und darunter dann: „Dieses Lied erzählt von einem Schaltkreis, der am Strand zwischen Liegestühlen zur Partydeko wird.“ Das ist schon ziemlich schlimm, aber das klingt noch viel schlimmer. Möchte ich eigentlich gar nichts zu sagen.

Ja, ich habe dann aber auf jeden Fall zum Agenten gesagt, er soll ZUNO oder UDIO verwenden. Ja, und dann hat er gesagt: Ja, ich habe ja keinen Account. Ich übergebe dir mal das Browser-Fenster und du kannst dich einloggen. Und da steht auch: OpenAI kann nicht mitlesen, wenn du hier Logins eingibst und so.

Ich rate euch aber ganz deutlich davon ab, irgendwelche wichtigen Logins oder womöglich sogar Geldsachen in dieses ChatGPT Agent-Browser-Fenster einzugeben, das auf irgendeiner virtuellen Maschine sonst wo läuft und niemand so richtig weiß, was damit eigentlich passiert. Also das nur kurz als Warnung.

Ich habe das mit einem wertlosen Test-Account versucht, der keinerlei persönliche Daten verknüpft hat. Aber das ging auch gar nicht, weil Google beim Login direkt sagt: Dieser Browser ist nicht sicher. Das könnte noch ein größeres Problem für den ChatGPT Agent werden, wenn nämlich Webdienste ihn erkennen und direkt ausschließen.

Ja, und ganz wichtig natürlich noch: Wie kommt man denn überhaupt an den ChatGPT Agent? Ja, dafür braucht man bislang einen der kostenpflichtigen ChatGPT-Tarife, also Plus, Pro oder Team. Ich habe es mit einem Plus-Account getestet und hatte damit 40 Agent-Benutzungen drin – wurde mir zumindest angezeigt. Letztendlich war mein Kontingent aber schon nach weniger als der Hälfte der Benutzung leer. Das ist also ziemlich intransparent und womöglich auch buggy.

Ich hatte das nämlich im Test mehrfach, dass der Agent sich in einer Aufgabe deaktiviert hat und er dann mit dem normalen ChatGPT-Modus weitergemacht hat. Also da ist auf jeden Fall noch Verbesserungspotenzial.

Also ihr werdet jetzt nicht von mir hören: KI-Agenten werden alles verändern! Rette sich, wer kann! Milliarden Menschen werden arbeitslos! Auf jeden Fall werden mit dieser Version des ChatGPT Agent wenig bis gar keine Menschen arbeitslos, weil es dafür noch nicht gut genug funktioniert.

Also ich fand einige Dinge beeindruckend, wie gesagt – also diese One-Shot-Programmiersachen oder auch, dass so Bestell-Websites schon ganz gut bedient werden konnten. Man sieht aber deutlich, wenn man dem Agent da so zuguckt, was er so macht: Das ist alles sehr, sehr umständlich und sehr, sehr Brute-Force-mäßig. Und der Agent auch einfach oft daneben klickt und überhaupt nicht richtig versteht, was er da tut.

Mich hat das ein bisschen an diese Infinite-Monkey-Theorie erinnert, also dass ein Affe, der irgendwas auf einer Tastatur tippt, irgendwann jeden beliebigen Text geschrieben haben wird. Also so schlimm ist es natürlich nicht, aber es ist halt nicht elegant, sagen wir mal so, sondern sehr Trial-and-Error. Aber das wird mit der Zeit sicherlich besser werden, da bin ich mir einigermaßen sicher.

Aber das große Problem mit den Fehlern – also den Halluzinationen, die halt bei LLMs immer auftreten –, das kann wohl niemand Seriöses voraussehen, wann und vor allem, ob dieses Problem behoben wird. Stand heute tauchen jedenfalls beim ChatGPT Agent bei meinen Tests regelmäßig solche Fehler auf – also falsch erkannte Zahlen oder dass c’t 3000 ein WhatsApp-Kanal hat und alles so einfach halluzinierte Dinge.

Und das habe ich dann davon, wenn ich die Ergebnisse dann fummelig und mühselig selbst überprüfen muss. Da habe ich dann nicht wirklich viel Zeit gespart.

Also ich werde jetzt auch nicht den KI-Super-Pessimisten spielen, denn da ist schon ein großes Potenzial zu spüren. Es ist auch wirklich deutlich besser als die Agenten, die ich bisher gesehen habe. Aber es wäre unseriös zu sagen: Das wird sich so und so entwickeln und bis dahin sind die und die Probleme gelöst.

Und ich weiß halt auch nicht, was passieren würde, wenn die Probleme gelöst werden und KI-Agenten tatsächlich einen Großteil der berufstätigen Menschen ersetzen, wenn diese Agenten fehlerfrei arbeiten würden und das alles noch ein bisschen besser hinbekommen würden. Dann ist da auf jeden Fall das Potenzial, viele Stellen zu ersetzen.

Was ich auf jeden Fall sicher weiß: Dass der ChatGPT Agent aktuell oft mit sehr hohem Energieeinsatz, sprich Serverlast, irgendwelche Dinge versucht, mit Gewalt zu lösen – also viel Energie reinsteckt, um einen Mausklick oder so hinzubekommen. Also Dinge, die Menschen mit deutlich weniger Energie bewerkstelligen können.

Ja, was meint ihr? Wie geht das weiter mit den KI-Agenten? Gerne in die Kommentare schreiben. Ich lese wirklich alles und beantworte auch eure Fragen, zumindest an den ersten Tagen nach der Veröffentlichung. Tschüss!


c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


(jkj)



Source link

Weiterlesen

Künstliche Intelligenz

iPhone 17 Pro: Infos zu Spezialfarbe und großem Kamerarücken


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

In gut sechs Wochen ist es so weit: Dann stellt Apple seine neuen iPhone-Modelle vor. Zuletzt gab es vermehrt Gerüchte über die Themen Kamera bei den Pro-Modellen des iPhone 17, zur vermuteten Preiserhöhung sowie dem Design des Gehäuses. Nun kommen einmal mehr Infos zur möglichen Farbgebung sowie zur Gestaltung des Kamerarückens hinzu – und warum letzterer nun anders aussehen dürfte als zuvor.

Dass es iPhone 17 Pro und 17 Pro Max in einem neuen, orange-artigen Kupferton geben soll, ist bereits bekannt. Nun sind bei Leakern erste Dummy-Modelle aus China eingegangen, die den neuen Look wiedergeben sollen. Sollten diese der Realität entsprechen – was bei Dummys nicht unbedingt der Fall sein muss –, wäre das Design deutlich auffälliger als bislang erwartet. So kommentiert Sonny Dickson, seit Jahren bekannter Apple-Gerüchtekoch, dass das neue Orange „definitiv eine kühne Ergänzung“ sei. Die anderen Farbtöne für die Pro-Modelle, Schwarz, Weiß und ein dunkler Blauton, sind deutlich zurückgenommener.

Von einer schillernden Speziallackierung, die Apple angeblich zusätzlich plant und die Bezug auf Liquid Glass nehmen soll, weiß Dickson aber nichts. Die anderen Farben sind allesamt recht zurückhaltend. Beim dünnen iPhone 17 Air zeigen die Dummys Pastelltöne in Hellblau, „Stahlgrau“, Weiß (fast Eierschale) und Schwarz, beim iPhone 17 sind sie mit zusätzlich Violett (bis Pink) und Grün etwas kecker. Wer, was zur Vermeidung von Fallunglücken empfehlenswert ist, sein iPhone in einem Gehäuse betreibt, sieht den Look womöglich nur selten.

Weiterhin gibt es frische Spekulationen über den die gesamte Gehäusebreite einnehmenden Kamera-Bereich bei den Pro-Modellen. Diese Entscheidung geht angeblich nicht nur auf Designaspekte zurück, sondern hat mit einem neuen Zoom-Bildsensor zu tun, behauptet Macrumors. Künftig soll es optisch bis zu achtfach ins Bild hineingehen, statt wie bislang nur fünffach. Sensor-Cropping wird dabei angeblich nicht verwendet.

Auch verschiedene Brennweiten sind angeblich vorgesehen, statt nur die fixen 120 mm aus dem iPhone 16 Pro. Um dies zu implementieren, braucht Apple angeblich mehr Platz, wobei die Sensoren in den bisherigen Dummy-Modellen weiterhin genauso angeordnet sind wie im iPhone 16 Pro. Nur LIDAR und Blitz sind nach rechts gerückt. Aber eventuell stopft Apple Teile der Elektronik in den mittleren Bereich. Ob dem wirklich so ist, müssen erste Teardowns zeigen, wenn die Geräte verfügbar sind. Damit ist bis Mitte September zu rechnen.


(bsc)



Source link

Weiterlesen

Beliebt