Connect with us

Künstliche Intelligenz

KI als Katalysator für Softwarearchitektur: Praxisbeispiel aus dem ÖPNV


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Künstliche Intelligenz (KI) bringt neue Anforderungen, Paradigmen und Wechselwirkungen mit sich, die klassische Ansätze der Softwarearchitektur an vielen Stellen erweitern oder herausfordern. Für Softwarearchitektinnen und -architekten bedeutet das: Sie müssen ihre Rolle, ihre Methoden und ihre Denkweisen weiterentwickeln, um den komplexen Rahmenbedingungen datengetriebener Systeme gerecht zu werden.


Mahbouba Gharbi

Mahbouba Gharbi

(Bild: 

Mahbouba Gharbi

)

Mahbouba ist Geschäftsführerin, Softwarearchitektin und Trainerin bei der ITech Progress GmbH, einem Beratungsunternehmen und akkreditierten Schulungsanbieter des iSAQB mit über zwanzig Jahren Erfahrung. Als Kuratorin des iSAQB-Advanced-Level-Moduls SWARC4AI vermittelt sie methodische und technische Konzepte für den Entwurf und die Entwicklung skalierbarer KI-Systeme. Dabei legt sie besonderen Wert auf praxisnahe, nachhaltige und anwendungsorientierte Lösungen.


Dimitri Blatner

Dimitri Blatner

(Bild: 

Dimitri Blatner

)

Dimitri ist Softwarearchitekt und Trainer bei der ITech Progress GmbH. Als zertifizierter Trainer für das iSAQB-Advanced-Level-Modul SWARC4AI vermittelt er praxisnahes Wissen zum Entwurf und zur Entwicklung skalierbarer KI-Systeme. Seine Schwerpunkte liegen in den Bereichen Cloud-Technologien, DevSecOps, hybride Architekturen und KI-basierte Lösungen. Dimitri unterstützt Unternehmen dabei, innovative und zugleich sichere Systeme erfolgreich zu realisieren.

Dieser Artikel beleuchtet, wie sich der Architektur-Entstehungsprozess durch den Einsatz von KI verändert – und was dies konkret für die Praxis der Softwarearchitektur bedeutet. Zum Veranschaulichen zeigen wir Beispiele eines Projekts aus dem öffentlichen Personennahverkehr (ÖPNV), an dem wir als Softwarearchitekten beteiligt waren.

Im Architekturkontext tritt künstliche Intelligenz in zwei unterschiedlichen Rollen auf – als Unterstützung im Entstehungsprozess und als aktive Systemkomponente. Diese Unterscheidung ist essenziell für die Einordnung technischer, methodischer und organisatorischer Anforderungen. In ihrer Rolle als Werkzeug unterstützt KI die Architekten entlang verschiedener Prozessphasen. In frühen Phasen können KI-Tools bei der Konsolidierung und Analyse von Anforderungen helfen. Natural Language Processing (NLP) ermöglicht zum Beispiel das Extrahieren funktionaler und nichtfunktionaler Anforderungen aus Textquellen oder Gesprächsprotokollen.

Später im Prozess lassen sich mithilfe graphbasierter Modelle Architekturvarianten generieren, die die KI hinsichtlich vordefinierter Qualitätsmerkmale bewertet. In Review-Phasen unterstützt die KI bei der Analyse bestehender Systeme, etwa durch das Erkennen von Architekturerosion oder von zyklischen Abhängigkeiten.

Diese Unterscheidung zwischen den beiden Rollen von KI gilt auch im ÖPNV und sie bringt jeweils andere Qualitätsanforderungen, Betriebsrisiken und Verantwortlichkeiten mit sich. Während KI als Analyse-Tool im Hintergrund arbeitet und prozessorientierte Verbesserungen unterstützt, beeinflusst sie als Bestandteil produktiver Systeme unmittelbar das Verhalten, die Resilienz und Weiterentwicklung des digitalen Fahrgastangebots und des Betriebsmanagements.

Das Verkehrsunternehmen mit über 10 Millionen Fahrgästen pro Monat hat künstliche Intelligenz systematisch in seine Softwarearchitektur integriert, mit dem Ziel, die Qualität, Wartbarkeit und Serviceorientierung zu verbessern – sowohl in der betrieblichen IT als auch in den digitalen Produkten für die Fahrgäste. Bereits im Architekturprozess kommt ein generatives KI-Analysemodul auf Basis eines großen Sprachmodells (LLM) zum Einsatz: Es wertet Architekturdokumentationen automatisiert aus, extrahiert zentrale Designentscheidungen, etwa zur Anbindung von Fahrgastinformationssystemen oder zur Datenhaltung von Echtzeitfahrplänen – und gleicht diese mit den implementierten Services und Schnittstellen ab. So können die Architekten Inkonsistenzen und technische Schulden frühzeitig erkennen und dokumentieren.

Ein weiteres datengetriebenes Assistenzsystem identifiziert mithilfe von Unsupervised Learning Ausfallmuster in historischen Fahrzeugdaten. Diese Erkenntnisse fließen direkt in Anforderungen an Sensorik und Datenlatenz ein – und stärken somit Architekturentscheidungen.

Im Betrieb analysiert ein prädiktives Machine-Learning-Modell (ML-Modell) kontinuierlich Diagnosedaten der Busflotte. Es erkennt frühzeitig Anzeichen technischer Defekte (Predictive Maintenance) und ermöglicht gezielte Wartungsmaßnahmen. Zugleich generiert es automatisch passende Fahrgastinformationen, sobald Abweichungen vom Fahrplan auftreten – abgestimmt auf die Prognosegüte. Die Systemarchitektur bildet hierfür nicht nur das ML-Modell selbst ab, sondern auch die erforderlichen Datenpipelines, MLOps-Infrastruktur sowie Prozesse für Validierung, Monitoring und kontinuierliches Training. Die Modellpipeline wird so zu einem kritischen, wartbaren und transparenten Bestandteil der Gesamtarchitektur.

Traditionelle Softwarearchitektur ist in erster Linie funktionsorientiert: Sie konzentriert sich auf technische Komponenten, klare Schnittstellen und wohldefinierte Abläufe. In KI-basierten Systemen verschiebt sich der Fokus erheblich. Hier prägen Datenflüsse, Machine-Learning-Modelle und Trainingsprozesse den Aufbau des Systems. Dadurch gewinnen Datenquellen, deren Qualität und deren Verfügbarkeit eine entscheidende Bedeutung. Die Auswahl und Vorbereitung der Daten haben unmittelbaren Einfluss auf die Leistungsfähigkeit und Korrektheit der später eingesetzten Modelle.

Darüber hinaus müssen Architekten sich mit Konzepten wie Modellversionierung, kontinuierlicher Modellverbesserung (Continuous Learning) und passenden Monitoring-Mechanismen beschäftigen. Klassische Erwartungen an Systemstabilität weichen neuen Anforderungen an Flexibilität und Anpassungsfähigkeit, da sich Modelle durch Nachtrainieren oder den Austausch gegen verbesserte Varianten verändern. Die Architekturarbeit wird dadurch dynamischer und datengetriebener.

Die Qualitätskriterien für Softwaresysteme erweitern sich durch KI um neue Dimensionen. Neben etablierten Anforderungen wie Performance, Wartbarkeit oder Sicherheit treten Aspekte wie Erklärbarkeit, Fairness und Vertrauenswürdigkeit auf. Entscheidungen, die durch ML-Modelle getroffen werden, müssen für technische und nicht-technische Stakeholder nachvollziehbar sein – insbesondere dann, wenn sie Auswirkungen auf Menschen oder gesellschaftliche Prozesse haben.

Zusätzlich steigt die Bedeutung von Robustheit gegenüber veränderten Datenlagen und von Mechanismen zur Absicherung gegen fehlerhafte Modellvorhersagen. Architekten sind gefordert, Unsicherheiten explizit zu behandeln: durch Confidence Scores, Abstufungen in der Entscheidungssicherheit oder Fallback-basierte Systempfade. Damit wird deutlich: Architektur im KI-Zeitalter muss über rein technische Kriterien hinausgehen und systemische Resilienz und ethische Verantwortung mitdenken.

Im Unterschied zu klassischen Projekten, bei denen die Architektur zu Beginn weitgehend festgelegt wird, besteht der Architekturprozess in KI-Projekten von Anfang an aus einem iterativen Vorgehen (Abbildung 1). Wesentliche Erkenntnisse über Datenverteilung, Modellverhalten oder Anwendungsfälle ergeben sich oft erst während explorativer Experimente. Entsprechend muss die Architektur flexibel genug sein, um nachträglich anpassbar oder sogar grundlegend überholbar zu sein und einen hohen Grad an Automatisierung zu ermöglichen.


Infografik Architekturentwicklung

Infografik Architekturentwicklung

Die Architekturentwicklung erfolgt iterativ (Abb. 1).

(Bild: Gharbi/Blatner)

Dies erfordert nicht nur technische Modularität, sondern auch eine veränderte Herangehensweise: Architekturarbeit wird zu einem kontinuierlichen Lernprozess. Entscheidungen unter Unsicherheit, das Einführen temporärer Lösungen (Safeguards) und die Bereitschaft, bestehende Ideen bei neuen Erkenntnissen zu verwerfen, gehören zum Alltag. Der Architekturprozess entwickelt sich so zu einem evolutionären Dialog mit der Realität der Daten und des Anwendungsbereichs.

Mit der Einführung von KI-Technologien verändert sich auch die Zusammensetzung der Teams. Rollen wie Data Scientist, ML Engineer oder MLOps-Spezialist bringen neue Perspektiven und Arbeitsweisen ein, die sich grundlegend von traditionellen Entwickler- oder Quality-Assurance-Profilen unterscheiden (Abbildung 2). Für Architekten bedeutet das, sich nicht nur technisch, sondern auch kommunikativ und methodisch anzupassen. Sie müssen die Konzepte, Arbeitsweisen und Erwartungen dieser neuen Rollen verstehen und als Brückenbauer agieren: zwischen Fachbereichen, Datenverantwortlichen und technischen Implementierungsteams. Architekturentscheidungen betreffen zunehmend nicht nur Code und Komponenten, sondern auch Datenstrukturen, Modelle, Trainingseinheiten und Betriebsprozesse. Das führt zu komplexeren Verantwortungsschnittstellen, die klare Absprachen und transparente Prozesse erfordern.


Infografik Verantwortungsschnittstellen

Infografik Verantwortungsschnittstellen

Neue Rollen und Verantwortungsschnittstellen (Abb. 2)

(Bild: Gharbi/Blatner)

Erfolgreiche Architektur im KI-Umfeld setzt ein tiefes Verständnis für die jeweilige Anwendungsdomäne voraus. Ob im Gesundheitswesen, im öffentlichen Verkehr oder in der Finanzbranche – Daten und Modelle müssen mit fachlichem Kontext angereichert und an die Bedürfnisse der Stakeholder angepasst werden. Architekten suchen daher aktiv den Austausch mit Experten aus der Domäne, verstehen deren Sprache und integrieren deren Sichtweisen in architektonische Überlegungen.

Methodisch helfen dabei Verfahren wie Domain Storytelling, Event Storming oder Design Thinking. Diese Ansätze ermöglichen es, komplexe Anforderungen frühzeitig zu erkennen, blinde Flecken in der Modellierung zu vermeiden und die Akzeptanz für KI-basierte Systeme zu erhöhen. Besonders wichtig ist es, nicht nur Entscheidungsträger, sondern auch spätere Nutzerinnen und Nutzer in die Architekturarbeit einzubinden, beispielsweise durch Co-Creation-Workshops oder Szenarienentwicklung.



Source link

Künstliche Intelligenz

Mittwoch: AI Mode von Google auf Deutsch, Dänemarks Social-Media-Verbot unter 15


In der Google-Suche gibt es künftig den AI Mode zur Auswahl. Er ist deutlich umfassender als die KI-Übersichten oder Linklisten. Von der ersten Antwort kann man weiterführende Fragen stellen und eine Art Konversation führen. Das ähnelt stark einem KI-Chatbot. Anders als Googles Chatbot Gemini ist der AI Mode aber für die Suche optimiert. Derweil sagt die dänische Ministerpräsidentin: „Smartphones und soziale Netzwerke stehlen unseren Kindern die Kindheit“. Sie verlangt im Parlament des Landes ein Verbot sozialer Medien für unter 15-Jährige. Einen Gesetzentwurf hat sie aber bislang nicht vorgelegt. Zudem gibt es einen EU-weiten Streit um Alterskontrollen. In den USA sind laute Werbespots beim Fernsehen verboten, wenn sie deutlich lauter sind als das übliche Programm. Kalifornien zieht das für Videostreaming nach und verbietet dies nun auch den Streaming-Plattformen. Die Nutzer hoffen, dass sich das auch auf andere US-Bundesstaaten auswirkt – die wichtigsten Meldungen im kurzen Überblick.

Wer eine besonders komplexe Frage beantwortet haben möchte, sollte künftig den AI Mode in der Google-Suche auswählen. Das dahintersteckende KI-Modell Gemini 2.5 ist speziell auf Suchanfragen abgestimmt. Das bedeutet, dass sowohl die Echtzeitsuche als auch die gigantische Datenbank, der Knowledge Graph, damit verknüpft sind. Sowohl Fragen als auch Antworten müssen nicht in Textform sein. Es sind also beispielsweise auch Fragen zu einem Bild möglich. Der AI Mode liefert keine Linklisten. Auch die AI Overviews oder KI-Übersichten liefern bereits oberhalb der Links eine KI-generierte Antwort auf eine Frage, wenn Google meint, eine solche Beantwortung sei sinnvoll. Der AI Mode ist in den USA und anderen Ländern bereits verfügbar, nun kommt Googles AI Mode auch nach Deutschland.

Die dänische Regierung plant ein Verbot sozialer Netzwerke für Kinder unter 15 Jahren. Das erklärte Ministerpräsidentin Mette Frederiksen gestern im Folketing, dem dänischen Parlament. Allerdings ist bislang offen, welche Plattformen das Verbot betrifft und wann diese Altersgrenze verabschiedet und in Kraft treten wird. Zudem sollen Eltern ihren Kindern ab 13 Jahren erlauben können, soziale Netze nutzen zu dürfen. Das derzeitige Mindestalter für die Nutzung sozialer Netzwerke im Internet ist 13 Jahre. Doch Frederiksen verwies darauf, dass 94 Prozent der dänischen Kinder in der 7. Klasse bereits vor ihrem 13. Geburtstag ein Profil auf einer Social-Media-Seite hatten: Dänemarks Regierung plädiert für Social-Media-Verbot für Kinder unter 15 Jahren.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Werbespots, die deutlich lauter sind als das vorhergehende inhaltliche Programm, nerven, können gesundheitsschädlich sein und Dritte aufwecken. In Nordamerika sind überlaute Reklamespots im Fernsehen daher seit 2012 verboten. Für Streamingdienste gelten diese Regeln nicht, manche von ihnen setzen daher weiter auf die verhasste Methode. Kalifornien verbietet ihnen das jetzt. Da Kalifornien der bevölkerungsreichste Staat der USA ist, wirken Vorschriften oft über die Grenzen des Staates hinaus, wenn Unternehmen den Aufwand scheuen, unterschiedliche Versionen ihres Angebots für unterschiedliche Landesteile aufzusetzen. Entsprechend hoffen US-Konsumenten außerhalb Kaliforniens, dass auch sie ab Juli 2026 nicht länger von überlauter Reklame belästigt werden: Kalifornien verbietet überlaute Werbung beim Streaming.

Leiterplatten für elektronische Geräte bestehen in aller Regel aus glasfaserverstärktem Epoxidharz. Ein großer Vorteil ist, dass es praktisch ewig hält. Ein großer Nachteil ist, dass es praktisch ewig hält. Ein Schweizer Institut präsentiert nun eine biologisch abbaubare Alternative: „Bräunliche Lignocellulose, für die es bisher keine Verwendung gab“, wie es ein Materialforscher beschreibt. Durch einen Prozess, den die Forscher „Hornifizierung“ nennen, entsteht eine „hornifizierte Platte“, die nahezu so widerstandsfähig sei wie eine konventionelle Leiterplatte. Aber eben nur nahezu, was zielführend ist. Denn die Platte soll ja kompostierbar sein. In Zeiten kurzlebiger Wegwerfelektronik sollte es genügend Anwendungsfälle geben: Biologisch abbaubare Leiterplatte aus Cellulose.

Die schleswig-holsteinische Landesverwaltung hat einen wichtigen Schritt in Richtung digitale Souveränität vollzogen: Nach einem sechsmonatigen Umstellungsprozess hat das Digitalministerium Anfang Oktober die Migration des gesamten E-Mail-Systems der Landesverwaltung von Microsoft Exchange und Outlook auf die Open-Source-Lösungen Open-Xchange und Thunderbird erfolgreich abgeschlossen. Das Digitalressort spricht von einem Meilenstein nach einem Kraftakt, der die Umstellung über 40.000 Postfächer mit insgesamt deutlich über 100 Millionen E-Mails und Kalendereinträgen umfasst habe. Rund 30.000 Mitarbeiter der Landesverwaltung seien nun in der Welt freier Software angekommen: Schleswig-Holsteins Verwaltung mit E-Mail-Migration auf Open Source fertig.

Field Programmable Gate Arrays (FPGA) gibt es schon seit mehr als 40 Jahren. Man nennt solche Halbleiterbauelemente auch rekonfigurierbare Logik. Obwohl der Markt weiter wächst, haben die Chip-Chamäleons eine etwas exotische Aura. Die c’t-Redakteure Carsten Spille und Christof Windeck schauen hinter die Kulissen: Wie gängige FPGA-Bauelemente funktionieren, wozu sie verwendet werden, wie man sie programmiert und vieles mehr. Das ist das Thema der Folge 2025/21 vom Bit-Rauschen, dem Prozessor-Podcast: Das leisten FPGA-Chips.

Auch noch wichtig:


(fds)



Source link

Weiterlesen

Künstliche Intelligenz

Streaming: Kalifornien verbietet überlaute Werbung


Werbespots, die deutlich lauter sind als das vorhergehende inhaltliche Programm, nerven, können gesundheitsschädlich sein und Dritte aufwecken. In Nordamerika sind überlaute Reklamespots im Fernsehen daher seit 2012 verboten: in den USA durch ein als CALM Act bekanntes Gesetz, in Kanada durch eine Verordnung der Regulierungsbehörde CRTC. Für Streamingdienste gelten diese Regeln nicht, manche von ihnen setzen daher weiter auf die verhasste Methode. Kalifornien verbietet ihnen das jetzt.

Eine entsprechende Novelle des kalifornischen Business and Professions Code hat Governor Gavin Newsom am Montag unterzeichnet. Sie tritt zum 1. Juli 2026 in Kraft und ist ausnehmend kurz gehalten. Der neue Paragraph 22776 erklärt kurzerhand die auf Grundlage des CALM Act (Commercial Advertisement Loudness Mitigation) erlassene Verordnung der US-Regulierungsbehörde FCC für anwendbar auf alle Videostreaming-Dienste, die Kaliforniern Werbung vorsetzen. Und die FCC-Verordnung wiederum erklärt die Empfehlung A/85 des internationalen Standardisierungsgremiums ATSC (Advanced Television Systems Committee) für rechtsverbindlich. ATSC A/85 RP regelt die technischen Parameter.

Kalifornien ist der bevölkerungsreichste Staat der USA. Daher wirken Vorschriften oft über die Grenzen des Staates hinaus, wenn Unternehmen den Aufwand scheuen, unterschiedliche Versionen ihres Angebots für unterschiedliche Landesteile aufzusetzen. Entsprechend hoffen US-Konsumenten außerhalb Kaliforniens, dass auch sie ab Juli 2026 nicht länger von überlauter Reklame belästigt werden. Die Streamingbranche konnte allerdings eine Verwässerung durchsetzen: Betroffene können sich nicht wehren, nur die Staatsanwaltschaft Kaliforniens kann die neue Vorschrift durchsetzen.

Die Novelle geht auf die Pein eines Mitarbeiters eines kalifornischen Senators zurück. Der Mitarbeiter hatte seine Tochter namens Samantha endlich in den Schlaf gewogen, als sie von überlauter Werbung eines Streamingdienstes wieder aufgeweckt wurde. „Dieser Gesetzesantrag ist inspiriert vom Baby Samantha und jedem erschöpften Elternteil, der ein Baby endlich zum Schlafen gebracht hat, nur damit eine schreiende Streamingwerbung die ganze harte Arbeit zunichtemacht“, berichtet der Senator, Thomas Umberg. Warum Kalifornien überlaute Werbung nicht auch gleich für Audiostreamer untersagt, bleibt offen.


(ds)



Source link

Weiterlesen

Künstliche Intelligenz

Maker Bits: Software, Hardware und Infos für Maker


Der beliebte Open-Source-Slicer OrcaSlicer ist in Version 2.3.1 erschienen und bringt zahlreiche Detailverbesserungen sowie Fixes mit. Neben einem überarbeiteten Updater und optimierten Build-Prozessen wurden diverse neue Druckerprofile integriert, darunter Modelle von Flyingbear, Sovol (SV08 MAX, SV01) und Rolohaun. Auch bestehende Profile, etwa für den Anycubic Kobra oder Ender 3 V3 KE, erhielten Feintuning.

Für eine stabilere Druckqualität sorgen Verbesserungen beim Input Shaping und bei der G-Code-Verarbeitung, speziell bei Z-Achsen-Bewegungen. Zudem behebt die neue Version einen Bug, der bei bestimmten Prusa-Modellen falsche Druckereinstellungen auswählte, sowie einen Importfehler bei 3MF-Dateien aus älteren Alpha-Versionen. Neue Komfortfunktionen wie die Erinnerung an die Slider-Position im Einzel-Layer-Modus, überarbeitete Übersetzungen und ein Warnsystem für die „Infill Rotation“-Templates runden das Update ab.

Praktisch wird es in einem YouTube-Video von YouTuber Teaching Tech: Stabile und doch schnell zu druckende Objekte können durch rotierbare Infills (per Listen auch für mehrere Abschnitte im Modell), Multiline-Infill und extra komplett gefüllten Zwischenlagen erzeugt werden.

Fuzzy-Skin erzeugt wie bisher auch künstlich angeraute Oberflächen auf den Drucken, sei es zu dekorativen Zwecken oder um die Griffigkeit zu erhöhen. Die kann entweder durch kleine Bewegungen des Druckkopfes und(!)/oder neu auch durch Variation der Flussrate geschehen. Neu ist auch, dass man die Stellen, wo dies geschehen soll, per Aufmalen mit der Maus steuern kann.

Das Optimieren des Input-Shapings wird mit neuen Druckvorlagen noch einfacher und schneller, und man kann nun auch Bereiche für Resonanzvermeidung angeben.

Für Multifarb-Drucke ist es jetzt möglich, Filamente komplett zu tauschen, ohne eine umständliche Auswahl mit der Maus machen zu müssen, ideal für Multi-Color-Objekte, die man nicht selbst gesliced hat.

Zum Download sollte man übrigens nur das offizielle Softfever-Github oder neu die offizielle Website orcaslicer.com nutzen! Alle anderen Adressen, die in einer Suche auftauchen, könnten potenzielle Phising-Fallen werden, auch wenn sie jetzt noch auf das offizielle Repository zeigen. Die Dokumentation ist wie gehabt auf dem GitHub-Wiki zu finden.

Raspberry Pi hat eine neue Version seines Betriebssystems für die Raspberry-Pi-Boards veröffentlicht. Die neue Version von Raspberry Pi OS aktualisiert das Basis-Betriebssystem von Debian 12 auf Debian 13 („Trixie“). Es gibt ein neues Design mit neuen Symbolen und einem neuen Hintergrundbild sowie ein brandneues Kontrollzentrum zum Konfigurieren von Elementen wie Tastatur, Bildschirmen, Hinzufügen von Druckern usw. Die Release-Logs sind lang und im GitHub einzusehen.



Am einfachsten ist die Installation auf eine Speicherkarte mit dem Raspberry Pi Imager, mit dem auch schon einige wichtige Einstellungen für das System (Netzwerk, ssh, etc.) direkt erledigt werden können.

Mit Blender 5.0 steht ein großer Versionssprung für die Open-Source-3D-Suite bevor. Neben massiven Leistungsverbesserungen bringt das Update zahlreiche Komfortfunktionen und eine runderneuerte Oberfläche. Die finale Veröffentlichung ist für den 11. November 2025 geplant, die Beta startete am 1. Oktober (auch wenn sie sich als Alpha ausgibt), der Release Candidate am 5. November.



(Bild: Blender.org)

Das Releasedatum ist bisher nicht 100-prozentig fix, denn mit der aktuellen Beta-Version von Blender 5.0 könnten noch Fehler gemeldet werden, die das Release verzögern. Die aktuellen Release Notes geben einiges an Lesestoff. Aufregend finde ich persönlich die weiteren Verbesserungen am Sequencer, der immer mehr zum Videoeditor wird und nun auch den Compositor besser einbindet.

Massive Geometrie & neue Limits: Die neue Version kann inzwischen mit großen Meshes umgehen – ideal für aufwendige 3D-Scans, High-Poly-Modelle und riesige Szenen. Dateien aus Blender 5.0 lassen sich allerdings nicht mehr in älteren Versionen (unter 4.5) öffnen, umgekehrt funktioniert das aber weiterhin.

Grease Pencil mit Motion Blur: Ein Highlight für 2D/3D-Hybride: Das Grease-Pencil-Tool bekommt erstmals Motion-Blur-Unterstützung beim Rendern. Animierte Zeichnungen sollen damit flüssiger und filmischer wirken.

Feinschliff an der Oberfläche: Blenders UI wird weiter poliert – mit verbessertem Drag-and-drop, klareren Outliner-Rückmeldungen, einheitlicheren Widgets und kleineren Layoutanpassungen. Auch der Video-Sequencer wurde überarbeitet: Neue Clips erscheinen jetzt direkt unter dem Mauszeiger statt irgendwo in der Timeline.

Work-in-Progress: Cycles, Geometry Nodes und mehr: Viele zentrale Bereiche, von den Geometry Nodes über Sculpting bis zum Compositing, sind noch in Arbeit. Spekuliert wird über Animation Layers und eine überarbeitete UV-Sync-Selection – lang ersehnte Features der Community.

Für Add-on-Entwickler und Studios heißt das: rechtzeitig testen. Blender 5.0 könnte nicht nur größer, sondern auch wegweisend für die kommenden Jahre in der 3D-Open-Source-Welt werden.


(caw)



Source link

Weiterlesen

Beliebt