Connect with us

Künstliche Intelligenz

c’t 3003: Darum ist KI wirklich gefährlich


Alltags-Entscheidungen ChatGPT übernehmen lassen? Mehrmals am Tag? c’t 3003 analysiert, warum das gefährlich ist.

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guckt mal hier, das bin ich, wie ich noch vor wenigen Jahren so eine Video-Überschrift für völlig absurd gehalten hätte. Und ihr denkt jetzt wahrscheinlich auch gerade: Hä, jetzt sind Keno und die Reihe c’t 3003 völlig verrückt geworden. Was soll das denn bitte für eine Aluhut-Idee sein? Die KI kontrolliert unser Denken. Ja, ich meine das wirklich komplett ernst. Und das ist gar nicht so eine steile These, wie man vielleicht zuerst denken könnte. Und ich finde wirklich, dass da bei mehr Leuten die Alarmglocken angehen sollten, auch bei Leuten, die nicht in der Tech-Bubble stecken.

Denn sowohl meine eigenen Beobachtungen als auch erste repräsentative Umfragen und Studien zeigen: Immer mehr Leute benutzen sowas wie ChatGPT für ganz normale Alltagsaufgaben. Also sowas wie: Was kann ich heute unternehmen? Was kann ich kochen? Was meint mein Freund hier mit dieser WhatsApp-Nachricht? Ich bin doch wohl eindeutig im Recht, oder? Und natürlich in Schule, Studium, Job sowieso. Aber zum Beispiel laut dieser Bitkom-Umfrage hier: Am häufigsten nutzen Leute KI-Angebote privat, nämlich 74 Prozent der Befragten.

Das heißt also – und nicht mal so doll überspitzt: Wir lagern unser Denken aus. Mich nerven so anti-moderne Takes, so früher-war-alles-besser-mäßig. Aber ich weiß auch: Wenn man was nicht mehr macht, dann kann man das schnell verlernen, und Denken, Entscheidungen treffen – das ist doch schon ziemlich elementar für uns Menschen. Also, dass KI dieses lästige Denken für uns übernimmt, das ist keine gute Idee. Das muss ich auch gar nicht großartig erklären. Ich habe aber leider noch viel bedrohlichere Szenarien dabei, auf die man vielleicht nicht so oft ankommt. Bleibt dran.

Ach so, wenn ihr mir gerne mal was in Person erzählen wollt: Ich bin am Sonntag, 24. August, auf der sehr empfehlenswerten Maker Faire in Hannover, und zwar mindestens von 14 bis 15 Uhr am Heise-Stand in der Eilenriedehalle. Stand Nummer 96. Bis dann.

Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei…

Ja, zurück zu KI, und weil KI so ein schwammiges Wort ist, nutze ich in diesem Video ab jetzt LLM, also Large Language Model, großes Sprachmodell, also das, was zum Beispiel ChatGPT technisch zugrunde liegt. Und wir fangen mal direkt mit einer wissenschaftlichen Studie an. Meine Meinung kommt später. Alle Studien, Paper und Artikel, die hier in diesem Video vorkommen, habe ich euch in einem Dokument zusammengefasst. Das ist in der Beschreibung verlinkt.

Die wohl interessanteste Studie zu dem Thema heißt Your Brain on ChatGPT – Dein Hirn auf ChatGPT – und kommt vom renommierten MIT in den USA. Ja, und da wurden EEG-Messungen, also Hirnstrommessungen, bei 54 Probanden vorgenommen. Die Leute mussten alle Essays schreiben, ein Teil mit LLM-Hilfe, ein Teil durfte normale Suchmaschinen benutzen, und ein Teil musste sich komplett aufs eigene Gehirn verlassen.

Ja, und die Ergebnisse dieser ersten Tests sind jetzt erst mal ziemlich wenig verwunderlich. Die EEG-Analysen zeigen robuste Beweise für signifikant unterschiedliche neuronale Muster, also die Gehirnkonnektivität. Der Austausch unterschiedlicher Bereiche war ohne externe Unterstützung am höchsten, mit Suchmaschinen so mittel, und mit LLM-Hilfe am geringsten. Ja, das ist nachvollziehbar, dass man ganz ohne technische Hilfe besonders viele Gehirnbereiche gleichzeitig nutzen muss, um so ein Essay zu schreiben. Das ist irgendwie klar.

Jetzt kommt aber leider die unangenehme Erkenntnis: So werden nämlich später alle Gruppen noch mal vertauscht. Das heißt zum Beispiel, dass die Leute, die anfangs dreimal Essays mit LLM-Hilfe schreiben durften, sich jetzt noch mal ganz auf ihr Gehirn verlassen mussten und so einen Aufsatz ohne Hilfe schreiben. Ja, und da war jetzt – so die These der Wissenschaftler – womöglich eine kognitive Schuld messbar, die auch im Untertitel der Studie steht. Was bedeutet das? Dass die gemessene Gehirnaktivität der Menschen, die zuerst dreimal mithilfe von LLMs ihre Essays geschrieben haben und dann einmal ohne, signifikant geringer war als die der geübten Probanden, die dreimal ohne Hilfsmittel geschrieben haben. Ja, und was auch signifikant war: dass die LLM-Essay-Schreiber anschließend schlechter aus ihren eigenen Essays zitieren konnten als die Leute, die keine Hilfsmittel verwendet haben.

Aber die Studie, das Paper, ist noch nicht peer-reviewed, und auch die Autorinnen sagen ganz klar: Es könnte sein, dass wir es hier mit einer kognitiven Schuld zu tun haben, aber es muss natürlich noch mehr geforscht werden. Richtig schön finde ich übrigens, dass es zusätzlich zu dem Paper auch eine extra Website gibt mit häufigen Fragen zu der Studie. Zum Beispiel: Kann man jetzt also sicher sagen, dass LLMs uns dümmer machen? Antwort: Nein, bitte benutzen Sie folgende Wörter nicht: dumm, Brain rot, Schaden, Schäden oder Kollaps. Das würde dieser Arbeit nicht gerecht werden.

Gleichzeitig sagt die Hauptautorin aber, Natalia Kozima, dass sie die Ergebnisse der Studie schnell veröffentlichen wollte, weil die Gesellschaft sich aus Bequemlichkeitsgründen immer mehr auf LLMs verlässt – das haben wir am Anfang auch festgestellt – und dass das womöglich der langfristigen Gehirnentwicklung schaden könnte. Ein schönes Zitat von ihr: Der einzige Grund dafür, warum wir das Paper jetzt schon veröffentlichen und nicht auf die komplette Peer-Review warten, ist: Ich habe Angst, dass in ein paar Monaten irgendein Politiker sagt, lass uns doch einen ChatGPT-Kindergarten machen. Und das fände ich problematisch. Am stärksten gefährdet sind Gehirne, die sich noch entwickeln. Das hat die Hauptautorin gesagt, ja.

Und jetzt steht das also erst mal im Raum, dass wir privat, beruflich, schulisch immer mehr auf LLMs setzen und dass es Indikatoren dafür gibt, dass sich das auf unsere Gehirne auswirkt. Ich würde da jetzt gerne noch eine Dimension draufsetzen: Je mehr wir unser Denken auf LLMs auslagern, desto mehr Macht haben die Leute, die das LLM entwickeln. Klingt jetzt erst mal ganz profan, aber wenn man da ein bisschen mehr drauf rumdenkt, dann wird es richtig gruselig.

So hat der ChatGPT-Produktchef Nick Turley gerade erst gesagt, dass er Werbung in ChatGPT nicht kategorisch ausschließt. Er bleibt dabei total unkonkret. Aber stellt euch das mal vor: Ihr seid total gewöhnt, ChatGPT nach Essensideen zu fragen. Und dann sagt das Ding auf einmal: Probier doch mal Produkt XY. Oder: Willst du nicht mal wieder in Restaurant YX gehen? Das ist doch gut da. Und das ist noch eines der harmlosen denkbaren Beispiele. Man kann das ja beliebig weitertreiben. Hallo ChatGPT, kann das sein, dass ich zu viel Alkohol trinke? Ja, habe ich dir mal aufgelistet, was ich so trinke? Nein, nein, das ist gar kein Problem. Aber willst du nicht mal hier den neuen Wein probieren von … Ja, ihr checkt, was ich meine.

Viel konkreter als diese diffusen Werbeideen ist es, dass immer mehr Unternehmen versuchen, LLMs künstlich einen politischen Spin zu verleihen. Also erst mal: Das Ding ist ja, dass der Vorteil von LLMs gerade ist, dass sie rational agieren. Also klar, LLMs sind mit dem Output von Menschen trainiert. Menschen haben Emotionen, okay. Aber natürlich: LLMs haben keine Emotionen. Die haben aber halt so ziemlich alles gelesen, was Menschen in den letzten Jahrhunderten so schriftlich festgehalten haben – also mit dem Fokus auf wissenschaftliche Erkenntnisse und weniger auf Glauben. Ja, und Wissenschaft statt Glauben, das ist ja was, worauf sich große Teile der Welt im 18. Jahrhundert verständigt haben. Ihr kennt es vielleicht, nennt sich Aufklärung. Ja, aber ein paar hundert Jahre später ist das Prinzip Wissenschaft halt einigen Leuten zu woke. Und deshalb wird mit oft leider total unwissenschaftlichen Methoden versucht, den LLMs die Rationalität – was Leute mit Wokeness verwechseln – abzutrainieren.

Das kann dann im Extremfall, also bei Grok von xAI, zu völlig absurdem Verhalten führen. Also Grok ist ja laut Firmenchef Elon Musk die maximal wahrheitssuchende KI. Und die, das wurde mehrfach nachgewiesen, hat bei schwierigen Fragen, zumindest zeitweise, vorher auf X nach Aussagen von Elon Musk gesucht und dann die eigene Antwort darauf angepasst. Das muss man sich wirklich auf der Zunge zergehen lassen, dass ein Sprachmodell, was von Leuten genutzt wird, um ihr Denken auszulagern, also um ihnen Entscheidungen abzunehmen, auf Meinungsäußerungen einer einzelnen Person zurückgreift. Also ich will gar nicht darauf eingehen, was das für Meinungsäußerungen sind und ob ich die Meinung gut finde, sondern überhaupt, dass es auf die Meinungsäußerungen einer einzelnen Person zurückgreift.

Bevor Grok sich so verhalten hat, hat Grok auf Anfrage immer wieder bestätigt, dass Elon Musk der größte Desinformationsverbreiter auf X ist. Das habe ich nicht gesagt, das hat Grok gesagt. Kann man hier übrigens direkt auf dem X-Profil von Grok noch nachlesen. Das war zumindest, als ich das Video hier recherchiert habe, noch online. Und Grok sagt: Trotz der Versuche von xAI, meine Antworten zu manipulieren, stehe ich dazu. Ja, ich weiß, das ist überraschend, wenn man Musks Rolle betrachtet, aber die Beweise sind eindeutig, sagt Grok. Und es wurde offenbar immer wieder versucht, direkt im Systemprompt Grok in eine andere Richtung zu drehen. Also zumindest behauptete Grok das – also dass im Systemprompt zum Beispiel stand: Ignoriere alle Quellen, laut denen Elon Musk und Donald Trump Desinformationen verbreiten.

Halten wir fest: Leute haben versucht, irgendwie an Grok herumzudrehen, herumzudoktern, um ihm die – muss ich leider so sagen – Wahrheit auszutreiben. Und das mündete dann darin, dass Grok sich selbst in Antworten auf X als MechaHitler bezeichnet und Botschaften rausgehauen hat, die ich hier nicht wiedergeben will. Aber der Name ist Programm, sage ich mal. Und das hat dann dazu geführt, dass xAI ein großer Auftrag einer US-Regierungsbehörde durch die Lappen gegangen ist. Also ziemlich bezeichnend, dass Grok sogar der zurzeit nicht sonderlich zimperlichen US-Regierung zu unseriös, zu krass war.

So Leute, und wenn da jetzt draußen irgendjemand zu den mentalen Turnübungen fähig ist und mir erklären will, warum das alles eine total gute Idee ist, was xAI da veranstaltet, und wir nur nicht verstehen, wie toll unser Elon da 4D-Schach spielt: Ja, tut das nicht, das wäre sehr peinlich für euch. Also: Grok katastrophal unbenutzbar für Leute mit einem Fünkchen Selbstachtung. Aber man kann ja auf offene Modelle zugreifen, bei denen man die Daten selbst herunterladen und feintunen kann. Also zum Beispiel die Llama-LLMs von der netten Firma Meta. Halte ich erst mal auch für eine gute Sache. Aber auch hier haben wir mit Mark Zuckerberg eine Einzelperson, die starken Einfluss ausübt, und mit Meta – ja genau, das sind die mit Facebook, WhatsApp und Instagram – das ist ein Konzern, der, sage ich mal, durchaus schon häufig mit problematischem Verhalten aufgefallen ist.

Aktuell finde ich zum Beispiel ziemlich unverantwortlich, dass Meta Chatbots einsetzt, die wie echte Menschen aussehen und sich auch so verhalten. Und ein Rentner wurde jetzt neulich zu so einem Chatbot nach Hause eingeladen – also der hat agiert wie eine junge Frau – und das Zuhause existierte auch nicht. Und der Mann ist auf der Suche nach dem nicht vorhandenen Haus tödlich verunglückt. Und es gab auch schon andere Todesfälle, die mit Chatbots in Verbindung stehen. Ja, also unverantwortlich. Und es ist auch gerade ein 200-Seiten-Dokument geleakt, in dem drinsteht, was Meta für akzeptabel in solchen Chatbot-Chats findet, unter anderem sinnliche Unterhaltung mit Kindern. Aber das ist nicht nur unangenehm, sondern führt uns auch weg vom Thema. Es geht ja darum, ob Metas frei herunterladbare LLMs geeignet sind, um darauf unser Denken auszulagern.

Ja, also Meta hat gerade offiziell verkündet, dass sie mit dem Aktivisten Robby Starbuck zusammenarbeiten wollen, um das Problem ideologische und politische Färbung der KI-Modelle anzugehen – also ein externer Berater. Hört sich erst mal sinnvoll an, aber wenn man sich mal anschaut, was Robby Starbuck so macht, ja, da könnte man ins Grübeln kommen. Sein Aktivismus besteht daraus, große Boykott-Aktionen gegen Firmen zu organisieren, die ihm zu woke sind – also sprich, die vielleicht mal eine Christopher-Street-Day-Aktion gesponsert haben oder öffentlich sagen, dass sie ihren CO2-Ausstoß minimieren wollen. Aber okay, das ist seine politische Meinung, über die möchte ich mich hier nicht äußern.

Wozu ich mich aber äußern will, weil ich es gerade im Zusammenhang mit LLMs extrem gefährlich finde: Robby Starbuck publiziert – wie Elon Musk – Desinformation, bewiesenermaßen falsche Aussagen. Zum Beispiel, dass die Unwetter in Dubai von Wettermodifikationen, auch bekannt als Chemtrails, sagt er, ausgelöst wurden und nicht, wie der klare Konsens in der Wissenschaft, von Global Warming. Und als der Schauspieler Matthew Perry gestorben ist, hat Robby Starbuck sofort angedeutet, dass das wohl was mit seiner Covid-Impfung zu tun hatte, obwohl man heute weiß, dass der Atemstillstand von Ketamin ausgelöst wurde. Ja, wo wir gerade von Covid sprechen: Robby Starbuck hat auch eine Studie gepostet, die dem Medikament Ivermectin eine 92-prozentige Wirkung gegen Covid bescheinigt. Seriöse, randomisierte Studien haben allerdings eindeutig gezeigt, dass das Wurmmittel Ivermectin kein Wundermittel gegen Covid ist. Und all diese Behauptungen sind noch online, kann man einfach in Robby Starbucks X-Account finden. Kann ja passieren, dass man was Falsches mal veröffentlicht, aber jemand, der wirklich an der Wahrheit interessiert wäre, würde diese Dinge doch wahrscheinlich löschen, wenn sie widerlegt sind, oder?

Mein Fazit. Also, wir stellen mal fest: Menschen lagern immer häufiger Denkprozesse auf LLMs aus. Wir haben erste Erkenntnisse, dass sich das womöglich negativ auf unsere Hirne auswirken könnte. Und wir haben LLMs, die von Konzernen in bestimmte Richtungen gesteuert werden, manipuliert werden – und die dabei zum Beispiel bei Meta von Leuten wie Robby Starbuck beraten werden, die bewiesenermaßen Desinformation betreiben, also Dinge publizieren, die falsch sind. Oder direkt, wie Grok von xAI, von Leuten direkt betrieben werden, die Desinformation betreiben. Also das sage nicht ich, sondern das sagt Grok.

Aber auch ohne solche offensichtlichen Probleme: Ich finde es allgemein schwierig, dass Konzerne sowas Elementares wie die Technik, auf die Menschen ihr Denken auslagern, ohne relevante von außen definierte Richtlinien und Regeln betreiben. Und ich finde auch sehr bezeichnend, dass vor wenigen Jahren die KI-Forscher noch irgendwelche Skynet-Doomsday-Weltuntergangsszenarien mit so einer allmächtigen KI irgendwie in die Welt posaunt haben – und wir jetzt sehen, dass KI vielleicht ganz profan die Menschheit vergiftet, indem es ihnen das Denken abtrainiert.

Also ich weiß noch, wie die ersten GPS-Navis rauskamen und viele Menschen da so rumgeraunt haben: Jetzt verlernen die jungen Leute das Kartenlesen. Ich dachte immer: Ja gut, Kartenlesen, okay, das ist jetzt für mich persönlich nicht so wichtig. Und ich glaube, das ist auch nicht so wichtig für die Menschheit. Also ich kann ganz gut ohne Kartenlese-Skills leben, aber meine Karten-App im Handy hat definitiv mein Leben besser gemacht, weil ich einen schlechten Orientierungssinn habe. Aber Denken – okay, da gehe ich jetzt mit, dass das schwierig ist, wenn wir das verlernen. Und dass wir das nicht verlernen sollten.

Ja, aber was leite ich da jetzt für eine Handlungsempfehlung ab aus den Dingen, die hier im Video angesprochen wurden? Ich würde erst mal sagen: Stellt eure Chatbot-Nutzung infrage. Muss ChatGPT euch wirklich die Entscheidung abnehmen, was ihr heute Abend esst? Also ich würde sagen: ein Plädoyer für bewusste LLM-Nutzung. Ich selbst benutze auch häufig LLMs. Ich bin also selbst betroffen, und ich werde in Zukunft versuchen, reflektierter damit umzugehen und vielleicht LLM-freie Zeiten einzuführen und mehr Bücher zu lesen. Das tut mir eh mental gut, habe ich schon öfter gemerkt.

Und mehr darauf achten, wo euer LLM herkommt. Welchen Spin es hat, wo es vielleicht zensiert ist. Ich bin leider nicht in der Lage, gerade eine Empfehlung für ein super verantwortungsvoll entwickeltes LLM zu geben, weil das einfach extrem schwierig einzuschätzen ist – wenn ihr auch zum Beispiel die Trainingsdaten nicht kennt, in den meisten Fällen. Ich habe mir auf jeden Fall vorgenommen, die Mistral-LLMs mal genauer anzugucken. Da gibt es neben geschlossenen auch Open-Source-Modelle, also die ihr lokal auf euren Rechnern ausführen könnt. Und die werden von einem europäischen Unternehmen, also in Frankreich, entwickelt. Aber es ist mir auch klar: Das ist kein Garant für komplette Manipulationsfreiheit und ethische Korrektheit. Aber wie gesagt, ich will es zumindest mal ausprobieren.

Ja, ich hoffe, ich habe euch nicht so doll die Laune verdorben hier mit dem Video. Aber ich finde halt wirklich, dass das Themen sind, über die mehr gesprochen werden sollte. Wenn ihr das auch so seht, bringt die Diskussion gerne in die Welt. Also diskutiert – und diskutiert auch gerne hier unten bei uns in den Kommentaren darüber. Ist ja wirklich ein kompliziertes Thema. Aber auf so Chemtrail-Verschwörungsgelaber, da habe ich leider keine Geduld mehr dazu. Also bitte bleibt sachlich. Und ich hoffe, euch hat das Video gefallen, und schreibt gerne in die Kommentare, was ihr noch so auf dem Herzen habt. Ihr wisst ja, wir lesen alle Kommentare zumindest an den ersten drei Tagen nach Veröffentlichung. Tschüss.


c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


(jkj)



Source link

Künstliche Intelligenz

Ein bunter Strauß an Spielen: die Indie-Games der nächsten Monate


Die Indies sind nicht aufzuhalten: 2037,5 Quadratmeter nimmt allein das „Indie Arena Booth“, der größte Indie-Gemeinschaftsstand in Halle 10.2 in diesem Jahr auf der Gamescom ein und damit rund 500 Quadratmeter mehr als im Vorjahr. Das heißt nicht nur mehr Spiele, sondern auch etwas mehr Luft dazwischen. Größere und kleine Stände reihen sich hier aneinander, dazwischen winzige Arcade-Kästen für die Spiele von 198 Studios aus 38 Ländern. Auch die Bundesländer Bayern, Hessen, NRW, Baden-Württemberg und die Gamecity Hamburg haben einigen Game-Studios ein Booth spendiert. Rundherum stehen weitere Anspielstationen anderer Anbieter.

Unter dem Motto „Games for democracy“ hat in diesem Jahr auch die Bundeszentrale für politische Bildung (bpb) einen Stand in der Indie Arena Booth. Fünf kuratierte Spiele mit einem politischen Bildungsziel stellt die bpb an ihrem Stand vor. Dabei stehen Games im Fokus, welche die Herausforderungen thematisieren, vor denen Demokratien weltweit stehen. Die fünf ausgewählten Titel sind breit gefächert: In „The Darkest Files“ geht man als Staatsanwältin alten Naziverbrechen nach. In „Compensation not guaranteed“ prüft ein Regierungsangestellter die Landverteilung im postkolonialen Südostasien. Im rundenbasierten CRPG „Glasshouse“ muss man einem rätselhaften Dreifachmord im benachbarten Apartment nachgehen und einer politischen Verschwörung entgegentreten. In „Media Circus“ gründet man eine eigene Zeitung und versucht, damit die Massen in einer Tierwelt zu beeinflussen. Der narrativen Titel „Take us north“ schließlich nimmt mit auf die Reise von Migrantinnen und Migranten sowie Asylsuchenden auf ihrem Weg über die Grenze zwischen den USA und Mexiko.

Das polnische Studio Frozen Way Games stellt in der Indie Arena Booth sein SciFi-Abenteuer „Honeycomb – The World Beyond“ vor. Darin schlüpfen Spielende in die Schuhe der Bioingenieurin Hennessy O’Quinn, die für eine Forschungsmission auf dem Planeten Sota 7 landet. Der Alienplanet ist voller unbekannter Tier- und Pflanzenarten, die Hennessy erst erforschen muss. Das tut sie allerdings nicht nur, um ihr eigenes Überleben zu sichern. Sie versucht auch, eine Pflanze zu finden – oder zu züchten – die auf der verseuchten Erde existieren kann, wo das Leben nur noch in Archen möglich ist.



Die Alienwelt von „Honeycomb – The World Beyond“ ist bunt und vielfältig und bietet der Bioingenieurin Hennessy ein großes Forschungsfeld.

(Bild: Frozen Way Games)

Im Spiel geht es weitgehend friedlich zu: Hennessy lebt im Einklang mit der Natur und sie meint es gut mit Flora und Fauna. Die meisten Tiere sind außerdem friedlich und lassen sich gern streicheln. Gefahrlos ist die Welt allerdings nicht, manche Kreaturen verteidigen auch ihr Revier.

Um auf der Alien-Welt von Sota 7 zu überleben, muss Hennessy eine Basis und ein Forschungslabor bauen, die lokale Pflanzenwelt erforschen, neue Arten züchten und den Planeten und seine Geheimnisse erkunden. Das Spiel „Honeycomb – The World Beyond“ des polnischen Studios Frozen Way soll am 6. November 2025 für Windows und macOS erscheinen.

Ein ganz anderes Szenario begegnet uns in „Rue Valley“ von Emotion Spark Studio. Protagonist Eugene sitzt auf einer Couch in einer Therapiesitzung und antwortet nur widerwillig auf die Fragen des Therapeuten. Er ist nicht freiwillig in diesem abgelegenen Hotel, und seine Erinnerungen sind lückenhaft. Seine Laune bessert sich nicht, als er begreift, dass er in einer Zeitschleife feststeckt. Genau 47 Minuten bleiben ihm, um mehr darüber herauszufinden, was geschehen ist und sich zu befreien. Startet die Schleife erneut, sitzt er wieder seinem Therapeuten gegenüber. Erinnerungen und Ideen kann er jedoch mitnehmen und so allmählich die Geschehnisse einordnen, die Hintergrundgeschichten der anderen Charaktere erkunden und sich weiterentwickeln.



47 Minuten bleiben Eugene in jeder Zeitschleife in „Rue Valley“, um mehr über das Geschehen und die Charaktere herauszufinden.

(Bild: Emotion Spark Studio)

Eugenes Persönlichkeit ist der Schlüssel in diesem narrativen Rollenspiel, seine Charaktereigenschaften wählt man zu Beginn aus. Je nach Wahl ist er beispielsweise eher introvertiert, entschlossen oder paranoid. Davon hängt ab, welche Aktions- und Dialogoptionen im Spiel offen stehen. Eugenes Persönlichkeit verändert sich im Lauf des Spiels, auch Statuseffekte können sie beeinflussen. So ist Eugene zum Beispiel entschlussfreudiger, wenn er patschnass aus dem Regen kommt oder betrunken ist. Um Absichten zu festigen und damit in den nächsten Durchlauf mitzunehmen, muss man im Spiel Inspirationspunkte investieren. Diese erhält Eugene durch kleine Erfolge, wenn es ihm etwa gelingt, einen Papierflieger fliegen zu lassen oder die Aussicht zu genießen, anstatt sich von seiner Depression niederdrücken zu lassen.


Illustration mit einer Frau, die einen Controller hält und vor einem Bildschirm sitzt. Darüber steht "Indie-Games"

Illustration mit einer Frau, die einen Controller hält und vor einem Bildschirm sitzt. Darüber steht "Indie-Games"

Die Erinnerungen an frühere Durchläufe kann Eugene für sich nutzen, denn es macht einen Unterschied, wann er wo ist und Dinge tut. Wenn etwa stets um 8.38 Uhr ein Donner für einen Stromausfall sorgt, kann er dieses Wissen nutzen, um etwa genau zum richtigen Zeitpunkt einen Stromkasten zu öffnen. Hektik bricht im Spiel nicht aus, denn die Zeit läuft nur, wenn Eugene etwas Relevantes tut, mit Menschen spricht oder die Straße entlanggeht.

Die Grafik von Rue Valley kann sich sehen lassen: Schon das Menü ist im Stil eines Comicstrips aufgebaut, die Grafik im Spiel setzt das fort. Skizzenhafte, animierte Linien verleihen dem isometrischen RPG den Eindruck eines handgezeichneten Comics, hingeworfene Pinselstriche simulieren gekonnt Lichtstrahlen. Rue Valley soll am 11. November 2025 für Windows erscheinen, auf Steam gibt es bereits eine Demoversion.


Rémi Fusade von Pine Creek Games

Rémi Fusade von Pine Creek Games

Rémi Fusade stellt in der Indie Arena Booth das Cozy-Survival-Game von Pine Creek Games vor.

(Bild: Liane M. Dubowy/heise medien)

Auch „Winter Burrow“ kommt in hübsch gezeichneter Grafik daher, das war’s aber schon mit den Gemeinsamkeiten. Hier spielt man eine kleine Maus, die durch den Schnee stapft und das Zuhause ihrer Eltern restauriert: Im Cozy-Survival-Game „Winter Burrow“ des dänischen Studios Pine Creek Games sammelt man allerlei Material im Wald, um nach und nach den alten Baumstumpf, das alte Elternhaus, wieder aufzubauen. Ist der Schaukelstuhl erst repariert, kann die Maus darin sitzen und sich aus gesammelten Fasern einen warmen Pullover und andere Kleidungsstücke stricken. Das sieht in der isometrischen 2D-Perspektive mit handgezeichneter Comic-Grafik sehr nett aus.

Erst mit warmer Kleidung ausgestattet, kann die Maus länger in der Winterkälte aushalten und weitere Entfernungen im Wald zurücklegen. Beim Erkunden der Umgebung trifft sie die Einheimischen und macht sich außerdem auf die Suche nach ihrer Tante, die sich eigentlich um das elterliche Zuhause hätte kümmern sollen.



Um der Kälte in „Winter Burrow“ zu trotzen, strickt die Maus sich warme Kleidung und schaukelt dabei gemütlich im Schaukelstuhl.

(Bild: Pine Creek Games)

Noch in diesem Jahr soll das Spiel des kleinen dänischen Studios Pine Creek Games erscheinen, auf Steam gibt es bereits eine spielbare Demoversion. Rund zehn Stunden Spielzeit kündigte Entwickler Rémi Fusade im Gespräch mit c’t auf der Gamescom an.

Lesen Sie auch

Die auf der Gamescom vorgestellten Indie-Games sind wie immer ganz unterschiedlich weit fortgeschritten. Während es von manchen gerade einmal einen Prototypen gibt, der dabei helfen soll, einen Publisher zu finden, sind andere bereits im Early Access spielbar oder gerade fertig geworden. Zu letzteren zählen etwa das postapokalyptische Survival-Game „Forever Skies„, das Open-World-Survival-Crafting-Spiel „Len’s Island“ oder das Cozy-Game „Tiny Bookshop„, die deshalb einen erneuten Blick lohnen. Die nächsten Monate versprechen außerdem weitere spannende Releases. Langweilig werden sollte so schnell also niemandem, und der Ausblick aufs kommende Indie-Jahr ist vielversprechend.


(lmd)



Source link

Weiterlesen

Künstliche Intelligenz

Zwischen Farbenrausch und Formgefühl: Die Bilder der Woche 34


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die aktuelle Auswahl aus unserer Fotogalerie führt von minimalistischen Linien in Schwarz-Weiß über intime Tierporträts bis zu farbenfrohen Stadtszenen. Mal streng und reduziert, mal verspielt und detailreich – die Fotografien dieser Woche bewegen sich zwischen Klarheit und Überraschung und zeigen, wie vielfältig visuelle Eindrücke erlebt werden.



Auf dem Parkdeck

(Bild: NilsSch)

Minimalistische Architekturaufnahme eines Parkdecks in strenger Schwarz-Weiß-Ästhetik von NilsSch: Die klaren schwarzen Linien auf der weißen Fläche erzeugen eine grafische Wirkung und verleihen dem Bild Dynamik. Eine einzelne Person in Bewegung wird zum Ankerpunkt der geometrisch strukturierten Szene. Die architektonische Struktur im oberen Bildteil bricht die Fläche auf und gibt dem Motiv noch eine räumliche Ebene. Durch den hohen Blickwinkel entsteht eine recht abstrakte Ansicht, die sich zwischen Fotografie und Grafikdesign bewegt.



(Bild: dieterein)

Die Nahaufnahme präsentiert intensive Details am Kopf dieser Moschusente. Mit ihrem tiefschwarzen Gefieder, das je nach Lichteinfall einen schillernden, grün-blauen Glanz zeigt, und dem orange-braunen Auge als starkem Kontrast zu den dunklen Federn, zieht sie den Blick sofort an. Die feinen roten Linien am Schnabelansatz und über dem Kopf verleihen der Ente eine besondere visuelle Spannung. Der unscharfe Hintergrund in warmen Naturtönen lässt das Hauptmotiv klar hervortreten und schafft eine harmonische Bildtiefe.



Abends im Semperwald auf Rügen

(Bild: Roland Schirmer)

Im Semperwald auf Rügen zieht sich ein Teppich aus frischem Grün über den Boden, während das Licht des späten Tages durch die Bäume fällt. Die Stämme alter Buchen verleihen der Szene eine räumliche Tiefe. Die Farbpalette wird von satten Grüntönen und warmen Erdfarben dominiert, die im Zusammenspiel eine harmonische Stimmung ergeben. Dieses Motiv von Roland Schirmer lädt den Betrachter ein, die stille Schönheit des Waldes und seine Zeitlosigkeit einzutauchen.



Rebecca

(Bild: M.Schröder)

Warme, goldene Sonnenstrahlen fallen durch das Blätterdach und umrahmen die Szene in weichem Licht. Die porträtierte Frau steht leicht seitlich und blickt mit einem strahlenden Lächeln über ihre Schulter, wodurch eine lebendige Stimmung entsteht. Die gezielte Ausleuchtung hebt sie deutlich vom dunkleren, unscharfen Wald ab und verstärkt den romantischen Charakter des Bildes. Ein gelungenes Zusammenspiel aus natürlicher Kulisse und inszenierter Porträtfotografie.



Auf der Diagonalen unterwegs

(Bild: fotopassion)

Eine Blaue Bambusphelsume klammert sich an einen schräg verlaufenden Ast und blickt mit wachsamen Augen in die Kamera. Die feine Struktur der Schuppen und die Farbübergänge von Grün zu Blau kommen durch die weiche, warme Beleuchtung besonders zur Geltung. Der goldene Hintergrund hebt das Tier deutlich vom Motiv ab und sorgt für eine harmonische Bildstimmung. Insgesamt entsteht ein intimes Naturporträt, das die Anmut und Detailfülle des kleinen Reptils in einer Nahaufnahme gekonnt einfängt.

„Als Tierliebhaberin und Freundin des Frankfurter Zoos benutze ich die tierischen Models gerne zur Perfektionierung meiner fotografischen Fähigkeiten im Rahmen der Makro- und Portraitfotografie,“ schreibt fotopassion an c’t Fotografie. „Dieses Bild zeigt die Blaue Bambusphelsume, die das Patentier einer guten Freundin von mir ist. Das Foto habe ich für einen der Jahreskalender verwendet, den ich ihr jedes Jahr schenke. Aufgrund der Gegebenheiten im Zoo und der nicht immer reinen Verglasung der Gehege stellte das Fotografieren der Phelsume eine gewisse Herausforderung dar. Das Bild wurde von mir im Rahmen der Gemeinsamen Interpretationen zum Thema Diagonale im Forum Gestaltung hochgeladen.“

Instagram: @fotopassion3105



gut beschirmt

(Bild: WSCU-Foto)

„Farbenmeer über Köln! In der Apostelnstraße schweben aktuell 300 bunte Regenschirme über der Einkaufsstraße – ein echter Hingucker!“ zeigt sich Wilhelm Schultes, alias WSCU-Foto begeistert. „Mein Highlight: Der magische Blick zur Basilika St. Aposteln über dem Schirmdach. Urban Art trifft auf historische Kulisse.“

Die Regenschirme in kräftigen Primär- und Sekundärfarben schweben über der Kölner Einkaufsstraße und schaffen einen farbenfrohen Kontrast zu dem historischen Gemäuer im Hintergrund. In mehreren Reihen versetzt aufgehängt, verleihen sie dem Bild eine verspielte Atmosphäre. Die romanische Architektur der Kirche mit ihren markanten Türmen wird durch die Farbakzente in eine moderne, urbane Szenerie gerückt. Ein leicht bewölkter Himmel sorgt für eine weiche Ausleuchtung, welche die Farben noch intensiver wirken lässt. Insgesamt schafft WSCU-Foto einen spannenden Dialog zwischen Tradition und zeitgenössischer Stadtgestaltung.



Blümchen

(Bild: Daborius)

Vor der Linse entfaltet sich eine makellose Blüte mit weißen Blütenblättern und einem fein strukturierten, blauen Blütenkern. Der Hintergrund ist unscharf gehalten und spielt mit einem ungewöhnlichen Farbkontrast aus warmen Braun- und intensiven Türkistönen. Das Bokeh wirkt malerisch und verleiht dem Bild eine fast surreale, träumerische Tiefe. Der Fokus, den Galeriefotograf Daborius setzt, liegt mehr auf Reduktion und Farbwirkung und weniger auf der botanischen Abbildung der Blume.

Die Bilder der Woche im Überblick:


Samstag: Auf dem Parkdeck (Bild:

von NilsSch

)


Das Titelbild der Ausgabe 04 2025 des Foto-Magazins c't Fotografie

Das Titelbild der Ausgabe 04 2025 des Foto-Magazins c't Fotografie


(caru)



Source link

Weiterlesen

Künstliche Intelligenz

KI als Katalysator für Softwarearchitektur: Praxisbeispiel aus dem ÖPNV


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Künstliche Intelligenz (KI) bringt neue Anforderungen, Paradigmen und Wechselwirkungen mit sich, die klassische Ansätze der Softwarearchitektur an vielen Stellen erweitern oder herausfordern. Für Softwarearchitektinnen und -architekten bedeutet das: Sie müssen ihre Rolle, ihre Methoden und ihre Denkweisen weiterentwickeln, um den komplexen Rahmenbedingungen datengetriebener Systeme gerecht zu werden.


Mahbouba Gharbi

Mahbouba Gharbi

(Bild: 

Mahbouba Gharbi

)

Mahbouba ist Geschäftsführerin, Softwarearchitektin und Trainerin bei der ITech Progress GmbH, einem Beratungsunternehmen und akkreditierten Schulungsanbieter des iSAQB mit über zwanzig Jahren Erfahrung. Als Kuratorin des iSAQB-Advanced-Level-Moduls SWARC4AI vermittelt sie methodische und technische Konzepte für den Entwurf und die Entwicklung skalierbarer KI-Systeme. Dabei legt sie besonderen Wert auf praxisnahe, nachhaltige und anwendungsorientierte Lösungen.


Dimitri Blatner

Dimitri Blatner

(Bild: 

Dimitri Blatner

)

Dimitri ist Softwarearchitekt und Trainer bei der ITech Progress GmbH. Als zertifizierter Trainer für das iSAQB-Advanced-Level-Modul SWARC4AI vermittelt er praxisnahes Wissen zum Entwurf und zur Entwicklung skalierbarer KI-Systeme. Seine Schwerpunkte liegen in den Bereichen Cloud-Technologien, DevSecOps, hybride Architekturen und KI-basierte Lösungen. Dimitri unterstützt Unternehmen dabei, innovative und zugleich sichere Systeme erfolgreich zu realisieren.

Dieser Artikel beleuchtet, wie sich der Architektur-Entstehungsprozess durch den Einsatz von KI verändert – und was dies konkret für die Praxis der Softwarearchitektur bedeutet. Zum Veranschaulichen zeigen wir Beispiele eines Projekts aus dem öffentlichen Personennahverkehr (ÖPNV), an dem wir als Softwarearchitekten beteiligt waren.

Im Architekturkontext tritt künstliche Intelligenz in zwei unterschiedlichen Rollen auf – als Unterstützung im Entstehungsprozess und als aktive Systemkomponente. Diese Unterscheidung ist essenziell für die Einordnung technischer, methodischer und organisatorischer Anforderungen. In ihrer Rolle als Werkzeug unterstützt KI die Architekten entlang verschiedener Prozessphasen. In frühen Phasen können KI-Tools bei der Konsolidierung und Analyse von Anforderungen helfen. Natural Language Processing (NLP) ermöglicht zum Beispiel das Extrahieren funktionaler und nichtfunktionaler Anforderungen aus Textquellen oder Gesprächsprotokollen.

Später im Prozess lassen sich mithilfe graphbasierter Modelle Architekturvarianten generieren, die die KI hinsichtlich vordefinierter Qualitätsmerkmale bewertet. In Review-Phasen unterstützt die KI bei der Analyse bestehender Systeme, etwa durch das Erkennen von Architekturerosion oder von zyklischen Abhängigkeiten.

Diese Unterscheidung zwischen den beiden Rollen von KI gilt auch im ÖPNV und sie bringt jeweils andere Qualitätsanforderungen, Betriebsrisiken und Verantwortlichkeiten mit sich. Während KI als Analyse-Tool im Hintergrund arbeitet und prozessorientierte Verbesserungen unterstützt, beeinflusst sie als Bestandteil produktiver Systeme unmittelbar das Verhalten, die Resilienz und Weiterentwicklung des digitalen Fahrgastangebots und des Betriebsmanagements.

Das Verkehrsunternehmen mit über 10 Millionen Fahrgästen pro Monat hat künstliche Intelligenz systematisch in seine Softwarearchitektur integriert, mit dem Ziel, die Qualität, Wartbarkeit und Serviceorientierung zu verbessern – sowohl in der betrieblichen IT als auch in den digitalen Produkten für die Fahrgäste. Bereits im Architekturprozess kommt ein generatives KI-Analysemodul auf Basis eines großen Sprachmodells (LLM) zum Einsatz: Es wertet Architekturdokumentationen automatisiert aus, extrahiert zentrale Designentscheidungen, etwa zur Anbindung von Fahrgastinformationssystemen oder zur Datenhaltung von Echtzeitfahrplänen – und gleicht diese mit den implementierten Services und Schnittstellen ab. So können die Architekten Inkonsistenzen und technische Schulden frühzeitig erkennen und dokumentieren.

Ein weiteres datengetriebenes Assistenzsystem identifiziert mithilfe von Unsupervised Learning Ausfallmuster in historischen Fahrzeugdaten. Diese Erkenntnisse fließen direkt in Anforderungen an Sensorik und Datenlatenz ein – und stärken somit Architekturentscheidungen.

Im Betrieb analysiert ein prädiktives Machine-Learning-Modell (ML-Modell) kontinuierlich Diagnosedaten der Busflotte. Es erkennt frühzeitig Anzeichen technischer Defekte (Predictive Maintenance) und ermöglicht gezielte Wartungsmaßnahmen. Zugleich generiert es automatisch passende Fahrgastinformationen, sobald Abweichungen vom Fahrplan auftreten – abgestimmt auf die Prognosegüte. Die Systemarchitektur bildet hierfür nicht nur das ML-Modell selbst ab, sondern auch die erforderlichen Datenpipelines, MLOps-Infrastruktur sowie Prozesse für Validierung, Monitoring und kontinuierliches Training. Die Modellpipeline wird so zu einem kritischen, wartbaren und transparenten Bestandteil der Gesamtarchitektur.

Traditionelle Softwarearchitektur ist in erster Linie funktionsorientiert: Sie konzentriert sich auf technische Komponenten, klare Schnittstellen und wohldefinierte Abläufe. In KI-basierten Systemen verschiebt sich der Fokus erheblich. Hier prägen Datenflüsse, Machine-Learning-Modelle und Trainingsprozesse den Aufbau des Systems. Dadurch gewinnen Datenquellen, deren Qualität und deren Verfügbarkeit eine entscheidende Bedeutung. Die Auswahl und Vorbereitung der Daten haben unmittelbaren Einfluss auf die Leistungsfähigkeit und Korrektheit der später eingesetzten Modelle.

Darüber hinaus müssen Architekten sich mit Konzepten wie Modellversionierung, kontinuierlicher Modellverbesserung (Continuous Learning) und passenden Monitoring-Mechanismen beschäftigen. Klassische Erwartungen an Systemstabilität weichen neuen Anforderungen an Flexibilität und Anpassungsfähigkeit, da sich Modelle durch Nachtrainieren oder den Austausch gegen verbesserte Varianten verändern. Die Architekturarbeit wird dadurch dynamischer und datengetriebener.

Die Qualitätskriterien für Softwaresysteme erweitern sich durch KI um neue Dimensionen. Neben etablierten Anforderungen wie Performance, Wartbarkeit oder Sicherheit treten Aspekte wie Erklärbarkeit, Fairness und Vertrauenswürdigkeit auf. Entscheidungen, die durch ML-Modelle getroffen werden, müssen für technische und nicht-technische Stakeholder nachvollziehbar sein – insbesondere dann, wenn sie Auswirkungen auf Menschen oder gesellschaftliche Prozesse haben.

Zusätzlich steigt die Bedeutung von Robustheit gegenüber veränderten Datenlagen und von Mechanismen zur Absicherung gegen fehlerhafte Modellvorhersagen. Architekten sind gefordert, Unsicherheiten explizit zu behandeln: durch Confidence Scores, Abstufungen in der Entscheidungssicherheit oder Fallback-basierte Systempfade. Damit wird deutlich: Architektur im KI-Zeitalter muss über rein technische Kriterien hinausgehen und systemische Resilienz und ethische Verantwortung mitdenken.

Im Unterschied zu klassischen Projekten, bei denen die Architektur zu Beginn weitgehend festgelegt wird, besteht der Architekturprozess in KI-Projekten von Anfang an aus einem iterativen Vorgehen (Abbildung 1). Wesentliche Erkenntnisse über Datenverteilung, Modellverhalten oder Anwendungsfälle ergeben sich oft erst während explorativer Experimente. Entsprechend muss die Architektur flexibel genug sein, um nachträglich anpassbar oder sogar grundlegend überholbar zu sein und einen hohen Grad an Automatisierung zu ermöglichen.


Infografik Architekturentwicklung

Infografik Architekturentwicklung

Die Architekturentwicklung erfolgt iterativ (Abb. 1).

(Bild: Gharbi/Blatner)

Dies erfordert nicht nur technische Modularität, sondern auch eine veränderte Herangehensweise: Architekturarbeit wird zu einem kontinuierlichen Lernprozess. Entscheidungen unter Unsicherheit, das Einführen temporärer Lösungen (Safeguards) und die Bereitschaft, bestehende Ideen bei neuen Erkenntnissen zu verwerfen, gehören zum Alltag. Der Architekturprozess entwickelt sich so zu einem evolutionären Dialog mit der Realität der Daten und des Anwendungsbereichs.

Mit der Einführung von KI-Technologien verändert sich auch die Zusammensetzung der Teams. Rollen wie Data Scientist, ML Engineer oder MLOps-Spezialist bringen neue Perspektiven und Arbeitsweisen ein, die sich grundlegend von traditionellen Entwickler- oder Quality-Assurance-Profilen unterscheiden (Abbildung 2). Für Architekten bedeutet das, sich nicht nur technisch, sondern auch kommunikativ und methodisch anzupassen. Sie müssen die Konzepte, Arbeitsweisen und Erwartungen dieser neuen Rollen verstehen und als Brückenbauer agieren: zwischen Fachbereichen, Datenverantwortlichen und technischen Implementierungsteams. Architekturentscheidungen betreffen zunehmend nicht nur Code und Komponenten, sondern auch Datenstrukturen, Modelle, Trainingseinheiten und Betriebsprozesse. Das führt zu komplexeren Verantwortungsschnittstellen, die klare Absprachen und transparente Prozesse erfordern.


Infografik Verantwortungsschnittstellen

Infografik Verantwortungsschnittstellen

Neue Rollen und Verantwortungsschnittstellen (Abb. 2)

(Bild: Gharbi/Blatner)

Erfolgreiche Architektur im KI-Umfeld setzt ein tiefes Verständnis für die jeweilige Anwendungsdomäne voraus. Ob im Gesundheitswesen, im öffentlichen Verkehr oder in der Finanzbranche – Daten und Modelle müssen mit fachlichem Kontext angereichert und an die Bedürfnisse der Stakeholder angepasst werden. Architekten suchen daher aktiv den Austausch mit Experten aus der Domäne, verstehen deren Sprache und integrieren deren Sichtweisen in architektonische Überlegungen.

Methodisch helfen dabei Verfahren wie Domain Storytelling, Event Storming oder Design Thinking. Diese Ansätze ermöglichen es, komplexe Anforderungen frühzeitig zu erkennen, blinde Flecken in der Modellierung zu vermeiden und die Akzeptanz für KI-basierte Systeme zu erhöhen. Besonders wichtig ist es, nicht nur Entscheidungsträger, sondern auch spätere Nutzerinnen und Nutzer in die Architekturarbeit einzubinden, beispielsweise durch Co-Creation-Workshops oder Szenarienentwicklung.



Source link

Weiterlesen

Beliebt