Connect with us

Künstliche Intelligenz

Durchaus beeindruckend: ChatGPT Agent im Test


KI-Agenten hypen zurzeit – kein Wunder, schließlich simulieren sie das Handeln echter Menschen. ChatGPT Agent, wohl das bislang meist beachtete Agenten-Produkt, erschien Mitte Juli. c’t 3003 hat die Software ausführlich getestet.

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guck mal hier, ich tippe hier ein: Ey, ich brauche Merch für unseren YouTube-Kanal. Hier hast du unser Logo. Hol mal Preise ein für 500 T-Shirts. Gerne so Fairtrade und Bio-Baumwolle und so. Und wenn ich das bestätigt habe, einfach direkt zum Verlag in die Karl-Wiechert-Allee 10 in Hannover bestellen.

Ja, das ist krass, denn das macht der dann wirklich, der ChatGPT Agent. Okay, der hat natürlich keinen Zugriff auf meine Konten. Das heißt, er kann nicht selbst bezahlen, aber die ganze Vorrecherche hat er übernommen und auch den Großteil des Bestellprozesses. Ich muss dann hier nur noch meine Bezahldaten angeben und kann selbst auf „Bestellen“ klicken.

Ist das hier schon wieder die große KI-Revolution, die alles verändern wird? Nein, so einfach ist das nicht, denn Agents und vor allem der ChatGPT Agent, die haben aktuell noch große Probleme.

Das hier ist zum Beispiel der Ballermann-Hit „Serverparty in Palma“, den der Agent für mich geschrieben hat.

In diesem Video zeige ich euch, was schon geht – und das ist auch wirklich beeindruckend –, was noch nicht geht und wo auch unklar ist, ob es jemals gehen wird. Bleibt dran.

Liebe Hackerinnen, liebe Internet-Surfer, herzlich willkommen hier bei …

Ja, also ChatGPT Agent. Aber lass uns erst mal definieren, was überhaupt so ein Agent ist. Denn der Begriff ist ja, sag ich mal, ziemlich unkonkret. Aber man hört zurzeit immer häufiger davon. Gerade neulich bei der Meldung, dass der Softbank-Manager Masayoshi Son gesagt hat, seine Firma werde Billionen von KI-Agenten einstellen, um echte Menschen rauswerfen zu können. Und Softbank ist laut Forbes immerhin die 130. größte Firma der Welt.

Ja, aber Agenten – ja, was ist das? Also man kann erst mal sagen, dass KI-Agenten Software sind, die mit vorhandenen großen Sprachmodellen arbeiten. Also z. B. der ChatGPT Agent mit GPT-4o. GPT-4o ist einfach das, was voreingestellt ist, wenn ihr ganz normal ChatGPT verwendet.

Und ihr kennt das ja wahrscheinlich, dass sich ChatGPT oder auch Claude oder Grok oder DeepSeek oder LLaMA sich weigern, Dinge wirklich durchzuziehen, also konkrete Dinge zu tun, z. B. irgendwie eine direkte, ausführbare Datei von eurem Programmierprojekt zu erstellen. Die sagen dann immer nur: „Ich kann dir Tipps geben, wie du das hinbekommst.“ Aber das war’s dann halt auch.

Mit Agenten ist das nun anders. Die sollen nämlich einmal die Autonomie von LLMs steigern – also dass die Sachen selbstständig machen und entscheiden können –, aber auch die Fähigkeiten ganz konkret verbessern.

Und wenn ihr jetzt sagt: „Ja, wieso, ChatGPT kann aber doch jetzt schon Python-Code ausführen oder auch Bildgenerierung anschmeißen, wenn ChatGPT das für sinnvoll hält?“ Ja, das stimmt. Das ist auch tatsächlich schon agentenähnliches Verhalten – also dass ChatGPT sich selbst überlegt, was es für Tools verwenden kann. Aber ein richtiger Agent ist nochmal autonomer unterwegs, und vor allem geht das dann auch über mehrere Schritte.

Also, wenn ich zu einem KI-Agenten sage: „Plan mir mal meinen Urlaub, dann und dann, da und da“, dann fängt der an zu überlegen: Wie kommt man denn da jetzt überhaupt hin? Muss ich da irgendwie einen Flug buchen oder einen Zug, Hotels buchen und so weiter? Und Stichwort „buchen“ – der bucht das dann auch wirklich. Zumindest Stand heute: anfangen, die Websites aufzurufen und da meine Daten einzutragen.

Wenn ich im normalen ChatGPT sage: „Plan mir mal meinen Urlaub“, dann gibt er mir halt einfach nur so eine Tagesablaufliste raus, was ich so machen kann. Ums Buchen muss ich mich dann selbst kümmern.

Zusammengefasst: Ein KI-Agent – und in dem Fall ganz konkret ChatGPT Agent – versucht, sich wie ein Mensch zu verhalten. Also eine Person, die mitdenkt und versucht, Entscheidungen in meinem Sinne selbst zu treffen.

Also, das war jetzt die nicht-technische Erklärung. Ich als Nerd finde das oft ein bisschen anschaulicher, wenn man das nochmal technisch erklärt. Der ChatGPT Agent hat Zugriff auf seinen eigenen Linux-Rechner. Also, ist natürlich ein virtueller Rechner, klar, aber darauf kann er halt Dinge tun. Also zum Beispiel ein Terminal oder einen Browser ausführen oder einfach ein Bildanzeige-Programm. Er kann dann einfach direkt mit Dateien arbeiten, die ich ihm schicke, oder er kann Dateien generieren, die er mir schickt.

Aber vor allem der Browser macht das Ding natürlich supermächtig, weil ja sehr vieles in einem Browser gemacht werden kann – zum Beispiel T-Shirts bestellen, also ein Beispiel vom Anfang.

Ja, das war jetzt die Theorie. Kommen wir jetzt endlich zur Praxis. Erst mal mit dem Positivbeispiel, was ich wirklich extrem beeindruckend fand. Ich habe nämlich einfach gesagt: Ich möchte ein Spiel programmiert haben, was richtig doll Spaß macht, aber auch beeindruckend gut aussieht. Bitte frag mich nichts, denk dir einfach irgendwas aus. Ich möchte gleich einfach ein wirklich tolles Spiel spielen. Okay, lass dir so lange Zeit, wie du willst.

Ja, und dann hat es vier Minuten gedauert, und ich habe eine ZIP-Datei bekommen. Und die habe ich ausgepackt und das gestartet, und das lief auf Anhieb. Und ich habe ja schon viel mit Vibe-Coding und irgendwelchen Coding-Tools rumhantiert, aber so ein One-Shot – also dass das wirklich alles auf Anhieb funktioniert, auch wirklich alles, ohne irgendwelche Fehler oder so –, das habe ich, glaube ich, wirklich noch nie gehabt.

Also ich musste immer erst mal: funktioniert nicht, bisschen hin und her. Aber so, zack – das habe ich wirklich noch nicht gesehen. Das Spiel war halt nur ein bisschen langweilig. Ich habe dann gesagt: Kannst du noch ein bisschen Sound und vielleicht so Extra-Waffen dazu bauen oder so? Bisschen simpel alles gerade. Das hat dann nochmal neun Minuten gedauert – also war offenbar schwieriger, als das Grundspiel zu bauen. Aber das hat dann auch auf Anhieb funktioniert, und das hatte dann Sound und es hatte Extra-Waffen und hatte aufsammelbare Extras, und Spaß hat das vielleicht für eine Minute gemacht. Aber immerhin: hat Spaß gemacht für eine Minute.

Aber gerade bei solchen Extrawünschen, nachdem das Ganze fertig ist, da haben laut meiner Erfahrung bisherige Coding-Tools immer gerne zusätzliche Fehler eingebaut. Hier halt nicht.

Und dann dachte ich mir: War das jetzt einfach Glück? Und dann habe ich mir noch einen Minesweeper-Klon mit c’t-3003-Grafik rausgelassen. Vielleicht erinnert sich noch jemand: Minesweeper war bei fast allen Windows bis Windows 8 vorinstalliert. Ja, und hier hat der erste Versuch dann zu einer Fehlermeldung geführt. Ich habe dann einfach die Fehlermeldung weitergegeben – also Screenshot gemacht, hingeschickt, „hier, Fehlermeldung“ – und kurz darauf hat es dann geklappt. Das Titelbild war ein bisschen kaputt, aber das Spiel hat funktioniert. Und ich sag mal: Die Sound-Effekt-Auswahl, die ist … interessant.

Ja, ich habe zwar gesagt, die Soundeffekte dürfen ruhig lustig sein – also so „oh nein, ein Bombe“ –, aber das Sample, was er da ausgesucht hat, ist dann doch unangenehm.

Und dann wollte ich mal gucken, wie der Agent so mit Dateien umgehen kann, zum Beispiel mit Bildern. Weil ich habe das schon ziemlich oft gehabt, dass ich ganz viele falsch gedrehte Bilder richtig drehen musste. Und das war dann immer ziemlich frickelig und ein großer manueller Aufwand. Deshalb habe ich jetzt einfach mal ein paar unterschiedlich gedrehte Bilder in eine ZIP-Datei geschmissen und gesagt: „Dreh mir die mal korrekt hin und benenne mir die direkt irgendwie sinnvoll.“ Und das Benennen hat gut funktioniert, aber das Drehen nur bei vier von sechs Bildern. Und genau diese kleinen Fehler, die sind ein großes Problem.

Guck mal hier: Ich habe den Agenten zum Beispiel gebeten, die Linux-Gaming-Benchmark-Ergebnisse aus diesem YouTube-Video hier in eine Tabelle reinzuschreiben – einfach, weil ich das Video interessant finde und alle Ergebnisse gerne mal an einem Ort sehen wollte, statt mich so durch das Video skippen zu müssen.

Ja, und das hat auch erst mal funktioniert – also nachdem der Agent erst mal daran gescheitert ist, das Video auf YouTube überhaupt aufzurufen und dann Dinge gemacht hat, die ziemlich sicher gegen die YouTube-Nutzungsbedingungen verstoßen, was ich auch deshalb hier nicht im Detail zeigen will, weil mir YouTube sonst womöglich das Video sperrt. Das sollen OpenAI und Google mal schön unter sich ausmachen. Da habe ich nichts mit zu tun.

Am Ende hat der Agent es jedenfalls irgendwie hinbekommen, die Benchmark-Daten aus dem Video zu extrahieren. Aber da waren dann einfach stumpf Fehler drin. Ich vermute, dass der da intern mit einer zu geringen Auflösung gearbeitet hat und deshalb die Texterkennung hier einmal 8 als 3 erkannt hat. Dass ich das gemerkt habe bei den ganzen Zahlen in der Tabelle, die größtenteils richtig waren – das war eher so Glückssache.

Aber sowas kann natürlich doll ins Auge gehen, wenn man sich darauf verlässt und das für wichtige Dinge verwendet.

Beim anderen YouTube-Video mit Zahlen drin hat der Agent einfach den größten Teil ausgelassen, ohne mir das von sich aus mitzuteilen. Also er hat zwar gesagt, dass einige Zahlen schwer zu lesen waren – was nicht stimmt, also zumindest meine Mensch-Augen konnten die sehr gut lesen –, aber er hat halt einfach einen Großteil überhaupt ausgelassen der Informationen.

Und darauf habe ich dann den Agent angesprochen, und er hat dann so ein bisschen wie ein Schüler reagiert, der die Hausaufgaben nicht gemacht hat. Ja, nee, da war halt irgendwie so viel. Also O-Ton, was der Agent geantwortet hat: „Für eine vollständige Tabelle müssten alle Benchmark-Screenshots manuell und in Ruhe ausgewertet werden, was in dieser Umgebung leider nicht machbar ist.“ Also so irgendwie zu laut oder so. Ich weiß nicht, hat mich nicht überzeugt. Die Ausrede auf jeden Fall.

Vielleicht klappt es ja besser mit Business-Sachen. Ich habe dann gesagt: „Mach mir mal eine Präsentation, womit ich die heise-Geschäftsführung beeindrucken kann, wie doll c’t 3003 ist.“ Ja, und was da dann rauskam – das ist halt wirklich, kann’s nicht anders sagen: Das ist so total generische KI-Plörre. Also etwas, was die meisten Leute, die schon mal mit KI gearbeitet haben, auch als KI-generiert erkennen würden.
Also schon dieses hässliche Bild hier. Da hätte man ja auch einfach das Logo nehmen können. Das findet man ja im Netz.

Dann hier die Kurve mit dem Abo-Wachstum. Ja, okay, die Zahlen stimmen. Aber die Legende hier rechts, das ist schon ziemlich Larifari. Und es sind da halt auch Fehler drin. Also pro Video bis zu 200K. Ich habe gerade mal geguckt, wir hatten schon 37 Videos, die deutlich über 200K lagen. Das ging hoch bis 800.000 oder so.

Und wenn ich sage, ich will mit einer Präsentation Leute beeindrucken, dann sollte man solche Sachen vielleicht richtig machen. Also gerade, wenn es um hohe Zahlen geht. Und dann halt so random Zeug wie: 67 % wollen Hintergründe verstehen. Ja klar, wollt ihr da draußen Hintergründe verstehen. Für mich jetzt nicht so eine interessante Information. Und 82 % waren gestern schon auf YouTube. Okay, ja, ist das wichtig in dieser Präsentation?

Ja, und dieses Balkendiagramm hier ergibt irgendwie gar keinen Sinn. Da sind dann auch nochmal richtige Fehler drin. Denn c’t 3003 hat keinen WhatsApp-Kanal. Und auch hier steht wieder die völlig weirde Info, dass 82 % der Leute, die c’t 3003 gucken, auch schon gestern auf YouTube waren.

Ja, und dann zum Schluss so stumpf: Unterstützt c’t 3003. Und dann aber auch am Ende nochmal viel zu doll in die Superlativ-Kiste gegriffen. Wir sind sicherlich nicht Europas führender Tech-Channel. Das wäre auch ziemlich peinlich, wenn ich das sagen würde zu irgendwem.

Also ich kann aus dieser Präsentation, weiß nicht, vielleicht 20 % verwenden, wenn ich die wirklich vor Leuten halten würde. Der Rest ist Schund. Und ganz ehrlich: Wenn mir so eine Präsentation gezeigt werden würde, mit diesen Quatschfolien und den offensichtlichen Fehlern, und wo man auch deutlich erkennen kann, dass das KI-generiert ist – also diese Person würde bei mir jetzt nicht unbedingt Pluspunkte sammeln.

Und als Letztes wollte ich nochmal wissen, wie der Agent eigentlich Websites bedient, die ein Login brauchen – wie so gut wie alle Musikgenerierungsdienste.

Ich habe also den Agenten gefragt, dass er mir drei Ballermann-Party-Songs mit Technikthemen machen soll. Was mit UDIO oder ZUNO – hatten wir schon mal ein Video dazu gemacht – und wie die alle heißen, ziemlich unproblematisch klappt. Hat der Agent aber nicht gemacht, sondern irgendwelche anderen komischen Dienste verwendet.

Und ja, dann kamen dann die drei Songs: „Techno auf Mallorca“, „Serverparty in Palma“, „Schaltkreis im Strand“ und darunter dann: „Dieses Lied erzählt von einem Schaltkreis, der am Strand zwischen Liegestühlen zur Partydeko wird.“ Das ist schon ziemlich schlimm, aber das klingt noch viel schlimmer. Möchte ich eigentlich gar nichts zu sagen.

Ja, ich habe dann aber auf jeden Fall zum Agenten gesagt, er soll ZUNO oder UDIO verwenden. Ja, und dann hat er gesagt: Ja, ich habe ja keinen Account. Ich übergebe dir mal das Browser-Fenster und du kannst dich einloggen. Und da steht auch: OpenAI kann nicht mitlesen, wenn du hier Logins eingibst und so.

Ich rate euch aber ganz deutlich davon ab, irgendwelche wichtigen Logins oder womöglich sogar Geldsachen in dieses ChatGPT Agent-Browser-Fenster einzugeben, das auf irgendeiner virtuellen Maschine sonst wo läuft und niemand so richtig weiß, was damit eigentlich passiert. Also das nur kurz als Warnung.

Ich habe das mit einem wertlosen Test-Account versucht, der keinerlei persönliche Daten verknüpft hat. Aber das ging auch gar nicht, weil Google beim Login direkt sagt: Dieser Browser ist nicht sicher. Das könnte noch ein größeres Problem für den ChatGPT Agent werden, wenn nämlich Webdienste ihn erkennen und direkt ausschließen.

Ja, und ganz wichtig natürlich noch: Wie kommt man denn überhaupt an den ChatGPT Agent? Ja, dafür braucht man bislang einen der kostenpflichtigen ChatGPT-Tarife, also Plus, Pro oder Team. Ich habe es mit einem Plus-Account getestet und hatte damit 40 Agent-Benutzungen drin – wurde mir zumindest angezeigt. Letztendlich war mein Kontingent aber schon nach weniger als der Hälfte der Benutzung leer. Das ist also ziemlich intransparent und womöglich auch buggy.

Ich hatte das nämlich im Test mehrfach, dass der Agent sich in einer Aufgabe deaktiviert hat und er dann mit dem normalen ChatGPT-Modus weitergemacht hat. Also da ist auf jeden Fall noch Verbesserungspotenzial.

Also ihr werdet jetzt nicht von mir hören: KI-Agenten werden alles verändern! Rette sich, wer kann! Milliarden Menschen werden arbeitslos! Auf jeden Fall werden mit dieser Version des ChatGPT Agent wenig bis gar keine Menschen arbeitslos, weil es dafür noch nicht gut genug funktioniert.

Also ich fand einige Dinge beeindruckend, wie gesagt – also diese One-Shot-Programmiersachen oder auch, dass so Bestell-Websites schon ganz gut bedient werden konnten. Man sieht aber deutlich, wenn man dem Agent da so zuguckt, was er so macht: Das ist alles sehr, sehr umständlich und sehr, sehr Brute-Force-mäßig. Und der Agent auch einfach oft daneben klickt und überhaupt nicht richtig versteht, was er da tut.

Mich hat das ein bisschen an diese Infinite-Monkey-Theorie erinnert, also dass ein Affe, der irgendwas auf einer Tastatur tippt, irgendwann jeden beliebigen Text geschrieben haben wird. Also so schlimm ist es natürlich nicht, aber es ist halt nicht elegant, sagen wir mal so, sondern sehr Trial-and-Error. Aber das wird mit der Zeit sicherlich besser werden, da bin ich mir einigermaßen sicher.

Aber das große Problem mit den Fehlern – also den Halluzinationen, die halt bei LLMs immer auftreten –, das kann wohl niemand Seriöses voraussehen, wann und vor allem, ob dieses Problem behoben wird. Stand heute tauchen jedenfalls beim ChatGPT Agent bei meinen Tests regelmäßig solche Fehler auf – also falsch erkannte Zahlen oder dass c’t 3000 ein WhatsApp-Kanal hat und alles so einfach halluzinierte Dinge.

Und das habe ich dann davon, wenn ich die Ergebnisse dann fummelig und mühselig selbst überprüfen muss. Da habe ich dann nicht wirklich viel Zeit gespart.

Also ich werde jetzt auch nicht den KI-Super-Pessimisten spielen, denn da ist schon ein großes Potenzial zu spüren. Es ist auch wirklich deutlich besser als die Agenten, die ich bisher gesehen habe. Aber es wäre unseriös zu sagen: Das wird sich so und so entwickeln und bis dahin sind die und die Probleme gelöst.

Und ich weiß halt auch nicht, was passieren würde, wenn die Probleme gelöst werden und KI-Agenten tatsächlich einen Großteil der berufstätigen Menschen ersetzen, wenn diese Agenten fehlerfrei arbeiten würden und das alles noch ein bisschen besser hinbekommen würden. Dann ist da auf jeden Fall das Potenzial, viele Stellen zu ersetzen.

Was ich auf jeden Fall sicher weiß: Dass der ChatGPT Agent aktuell oft mit sehr hohem Energieeinsatz, sprich Serverlast, irgendwelche Dinge versucht, mit Gewalt zu lösen – also viel Energie reinsteckt, um einen Mausklick oder so hinzubekommen. Also Dinge, die Menschen mit deutlich weniger Energie bewerkstelligen können.

Ja, was meint ihr? Wie geht das weiter mit den KI-Agenten? Gerne in die Kommentare schreiben. Ich lese wirklich alles und beantworte auch eure Fragen, zumindest an den ersten Tagen nach der Veröffentlichung. Tschüss!


c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


(jkj)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Titanic: VR-Erfahrung zeigt Untergang aus Passagiersicht


Auf dem Bootsdeck drängen sich Passagiere der 1. Klasse. Es ist 1:10 Uhr und die Evakuierung verläuft nur schleppend. Ein Crewmitglied beruhigt einen besorgten Passagier mit dem Hinweis, es handle sich lediglich um eine Übung. Doch die Anspannung ist greifbar.

Direkt vor einem spielen sich dramatische Szenen ab: Beim Besteigen der Rettungsboote wird eine Familie getrennt. Nur Frauen und Kinder dürfen an Bord, sagt ein Offizier. Der Vater und der 16-jährige Sohn müssen zurückbleiben, während die Tochter weinend ins Rettungsboot 6 gehoben wird.


VR-Szene: Offizier hebt Kind in rotem Mantel ins Rettungsboot, Passagiere und Crew auf nächtlichem Titanic-Deck.

VR-Szene: Offizier hebt Kind in rotem Mantel ins Rettungsboot, Passagiere und Crew auf nächtlichem Titanic-Deck.

Ein Bild aus der älteren PC-VR-Fassung.

(Bild: Engage XR)

Wenige Momente später sitzt man bei jenen, die als Erste ins Wasser gelassen werden. Der Ernst der Lage ist vielen nicht klar: Einige Passagiere beklagen sich, dass sie mitten in der Nacht aus den Betten geholt wurden, andere sprechen scherzhaft von einem „Abenteuer“. Beim Herablassen des Boots wird die Größe des Schiffes erkennbar – und die Panik, die auf den unteren Decks herrscht.

Als sich das Rettungsboot langsam von der Titanic entfernt, hat das Schiff bereits Schlagseite. „Das ist unmöglich“, sagt eine Frau. „Die Titanic ist unsinkbar.“ Wenige Minuten später geschieht das Undenkbare. Margaret Brown, die direkt neben einem sitzt und als „die Unsinkbare“ in die Geschichte eingehen sollte, fordert den Steuermann Robert Hichens auf, zurückzurudern und Ertrinkende aufzunehmen. Doch er weigert sich, wie vielfach überliefert.

Die 15-minütige VR-Erfahrung stützt sich auf Augenzeugenberichte und historische Recherchen. Freiheiten nahm sich das Studio bei der zeitlichen Gestaltung: Die dargestellten Ereignisse dauerten in Wirklichkeit rund 70 Minuten. Man kann sich in der Simulation frei bewegen, aber echte Interaktionen gibt es nicht. Das VR-Erlebnis ist ein historisches Schauspiel, keine Überlebenssimulation. Das tut der Eindringlichkeit der VR-Erfahrung allerdings keinen Abbruch, im Gegenteil. Die Ohnmacht der Passagiere wird dadurch umso spürbarer.

Die „Lifeboat Experience“ ist Teil des umfangreicheren VR-Spiels „Titanic VR“, in dem man in der Rolle eines Tiefseeforschers und U-Boot-Piloten das Wrack der Titanic erkundet, dieses fotografiert und Gegenstände daraus birgt. Neben dieser narrativen Kampagne enthält das Spiel geführte Wracktouren sowie die Möglichkeit, eine virtuelle Gedenkstätte mit Überresten des verunglückten Titan-Tauchboots in der Nähe der Titanic aufzusuchen.

Titanic VR erschien erstmals 2018 für PC-VR-Brillen und geriet seither weitgehend in Vergessenheit. Mit der Veröffentlichung für Meta Quest 3 und 3S im April wurde es einer neuen Generation und einem breiteren Publikum zugänglich gemacht.

Die Lifeboat Experience erschien diese Woche mit mehrmonatiger Verspätung, weil die Entwickler sie zuerst für die Standalone-Headsets optimieren mussten. Ältere Quest-Geräte werden von Titanic VR nicht unterstützt: Sie können die grafisch anspruchsvollen Szenen mit ihren zahlreichen menschlichen Figuren sowie dynamischen Licht- und Schatteneffekten nicht flüssig darstellen. Das Gleiche gilt für die virtuellen Tauchfahrten zum Wrack.

Titanic VR wurde vom Studio Immersive VR Education entwickelt, das Geschichte mit Virtual Reality erlebbar machen möchte und mit „Apollo 11“ sowie „1943: Berlin Blitz“ zwei weitere sehenswerte VR-Erfahrungen schuf. Das Studio firmiert seit 2021 unter neuem Namen und betreibt die VR-Lernplattform Engage.


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Zwischen Stille, Struktur und Sternen: Die Bilder der Woche 31


Die Woche beginnt mit einer stillen Gartenszene, in der zwei leere Stühle mehr andeuten als zeigen. Es folgen Nahaufnahmen aus der Natur, architektonische Perspektiven und atmosphärische Lichtstimmungen. Jedes Bild fängt auf eigene Weise einen Moment ein – mal sachlich, mal poetisch, mal überraschend direkt. Gemeinsam ergeben sie eine abwechslungsreiche fotografische Serie zwischen Alltag, Struktur und Detail.



Im Garten

(Bild: Addi Beck)

Zwei leere Plastikstühle stehen nebeneinander auf einer Wiese, vor dunklem Gebüsch. Die Umsetzung in Schwarz-Weiß betont die Spuren von Wetter und Zeit auf der Stuhloberfläche. „Das Bild ist Teil einer Serie mit dem Titel Triviale Umgebung, an der ich zurzeit arbeite“, berichtet Adolf Beck. „Es ist das Jahresthema im Fotoclub. Für die Serie arbeite ich mit einem alten, mechanischen Pentacon 30-mm-Objektiv. Die Bearbeitung und SW-Umwandlung erfolgten in Photoshop“, so Beck über sein Vorgehen. Eine stille Szene, die Fragen stellt, ohne Antworten zu geben.



Bockkäfer (Vierbindiger Schmalbock)

(Bild: KT808)

Mitten im satten Gelb der Blüten sitzt der Vierbindige Schmalbock wie auf einer Bühne. Die Perspektive auf Augenhöhe und die langen, schwarzen Fühler verleihen dem kleinen Tier eine fast bedrohliche Präsenz. Der Panzer wirkt robust, fein strukturiert in dunklem Braun und Grau. Die Beine klammern sich fest an das Blütenkissen, als würde das Insekt sein Terrain verteidigen. Eine Nahaufnahme von KT808, welche die Welt der Insekten eindrucksvoll greifbar macht.



Turm und Türmchen…. GI – Turm

(Bild: claus-labenz)

Der wuchtige Kirchturm der St. Jacobi Kirche erhebt sich über den Dächern der Stadt Lübeck. Die kupfergrüne Spitze glänzt im Sonnenlicht, während im Hintergrund eine zweite, filigrane Turmspitze das Kirchenbild ergänzt. Der Kontrast, den claus-labenz zwischen massiver Backsteinarchitektur und dem wolkenbewegten Himmel einfing, verleiht der Szene eine fröhliche Ruhe.



Taglilie im Regen

(Bild: Lena-13)

Einzelne Regentropfen glitzern auf den samtigen Blütenblättern dieser Taglilie, deren Farbverlauf von intensivem Violett bis in flammendes Orange reicht. Der weiche Hintergrund in frischem Grün lässt die leuchtende Blume fast schweben. Fotografin Christiane Landgraf berichtet: „Blumen und Blüten sind schon lange meine Lieblingsmotive. Nach einem Regenschauer streifte ich durch den Garten, um die frische Luft zu genießen. Die satten Farben der Taglilie, verziert mit glitzernden Regentropfen und dem grünen Blattwerk, fesselten meine Aufmerksamkeit. Ein Motiv, das ich unbedingt festhalten wollte.“


Das Titelbild der Ausgabe 04 2025 des Foto-Magazins c't Fotografie

Das Titelbild der Ausgabe 04 2025 des Foto-Magazins c't Fotografie



Leitstern (GI – Turm)

(Bild: Luckyguy)

Ein rot-weißer Leuchtturm strahlt sein Licht über die Baumwipfel der einbrechenden Nacht auf Sylt. Der Himmel schimmert in kühlem Violett. Das Licht der Turmspitze dagegen ist warm und bildet das hellste Element der Aufnahme. Die Silhouetten der dunklen Bäume im Vordergrund rahmen das Motiv stimmungsvoll ein. Diese Aufnahme von Luckyguy vermittelt eine ruhige und geradezu kontemplative Atmosphäre.



Bauhaus- Ästhetik 1

(Bild: Braveman1954)

Weniger ist mehr – Linien, Flächen, Schatten – im Bauhaus Dessau erzählt jede Wand von der Vision einer neuen Welt. Die Fassade zeigt ein präzises Raster aus Fenstern und Balkonen. Jedes Element passt wie gesetzt, doch das Spiel aus Licht, Reflexion und Schatten bringt auch Bewegung in die starre Ordnung. Eine minimalistische Komposition von Braveman1954, die Struktur zur Poesie erhebt.



Blick zum Himmel

(Bild: uschi1956)

Unter einem wolkengetupften Himmel erhebt sich eine Gruppe futuristischer Satellitenschüsseln auf einem goldgelben Feld. Die kühle Technik der Antennen steht im spannenden Kontrast zur natürlichen Struktur der Landschaft. Eine eindrucksvolle Fotografie von uschi1956, die Natur und Technik miteinander verbindet.

Alle Bilder der Woche finden Sie hier noch einmal im Überblick:


Samstag: Im Garten (Bild:

Addi Beck

)


(caru)



Source link

Weiterlesen

Künstliche Intelligenz

SoftwareArchitekTOUR – Episode 106: Konfliktzone Softwarearchitektur


In dieser Folge spricht Patrick Roos mit Cosima Laube darüber, warum Konflikte im Alltag der Softwarearchitektur normal sind – und warum es wichtig ist, angemessen mit ihnen umzugehen. Architekturarbeit bringt verschiedene Perspektiven, Rollen und Interessen an einen Tisch. Wo viele Meinungen und Menschen aufeinandertreffen, bleiben Konflikte nicht aus.

Cosima teilt ihre Erfahrungen als Coach und Communicating Architect, und sie zeigt, welche Arten von Konflikten in der Architekturpraxis besonders häufig auftreten. Gemeinsam diskutieren Patrick und Cosima, woran Architektinnen und Architekten erkennen, dass ein Konflikt zu eskalieren droht, und wie sie frühzeitig dagegen steuern.

Um Konfliktsituationen besser zu verstehen und einzuordnen, hilft als zentrales Werkzeug das Modell der Konflikteskalation nach Glasl mit seinen neun Stufen. Die beiden diskutieren ferner viele praxisnahe Tipps, wie man Konflikte in der Architekturarbeit konstruktiv angehen kann, zum Beispiel mit klaren Zielen, guter Moderation, Architekturhypothesen und regelmäßiger Reflexion im Team.


Aufmacher Sonderheft

Aufmacher Sonderheft

(Bild: iX)

Im iX/Developer-Sonderheft gibt es neben den klassischen Architekturinhalten zu Methoden und Pattern Artikel über Soziotechnische Systeme, Qualitätssicherung oder Architektur und Gesellschaft. Domain Driven Design ist ebenso ein Thema wie Team Topologies, KI und Sicherheit.

Als Autoren konnten wir bekannte Experten gewinnen – darunter auch viele Betreiber dieses Podcasts – die ihr Wissen in vielen spannenden Artikeln sowohl für Architektureinsteiger als auch Spezialisten weitergeben.


(who)



Source link

Weiterlesen

Beliebt