Künstliche Intelligenz
Gebäude-integrierte PV im Realitätscheck: Was Solarfassaden wirklich leisten
Wer eine PV-Anlage plant, denkt oft in Jahreserträgen. In Zeiten, in denen aber maßgeblich der Eigenverbrauch über Wirtschaftlichkeit entscheidet, lautet die wichtigere Frage: Wann kommt der Strom tatsächlich an? Klassische Aufdach-Anlagen liefern viel – vorwiegend in der Mittagszeit und im Sommer.

Module an der Fassade können dagegen genau dann Strom liefern, wenn er womöglich stärker gebraucht wird – morgens, am frühen Abend und zu den Jahresrandzeiten. Wer also ohnehin vor einer umfassenden Sanierung steht, kommt schnell auf ein reizvolles Gedankenspiel: Warum die PV-Module nur nachträglich vor die Fassade schrauben, wenn man sie auch direkt als neue, schützende Gebäudehülle integrieren kann?
- In die Fassade integrierte PV liefert pro Quadratmeter deutlich weniger Strom als Aufdach-PV – erzeugt ihn aber zu haushaltsfreundlichen Zeiten.
- Süd- und Westfassaden ergänzen sich zeitlich: Die Südseite punktet in den Übergangsmonaten, die Westseite am Nachmittag und frühen Abend.
- Regulatorik – besonders Brandschutz und baurechtliche Zulassungen – ist in Deutschland ein Hemmschuh, während Länder wie die Schweiz pragmatischer agieren.
- Für Privatanwender ist echte Gebäudeintegration oft noch unwirtschaftlich; aufgesetzte Fassaden-PV (BAPV) kann dieselben Timing-Vorteile liefern.
In der Theorie klingt das vielversprechend – in der Praxis ist Gebäude-integrierte Photovoltaik (Building-Integrated Photovoltaics – BIPV) jedoch kein Selbstläufer. Dieser Artikel zeigt, welche Fassaden-Ausrichtungen die besten Erträge liefern und wo letztlich die größten Fallstricke liegen.
Das war die Leseprobe unseres heise-Plus-Artikels „Gebäude-integrierte PV im Realitätscheck: Was Solarfassaden wirklich leisten“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Visual Studio Code 1.117: Unternehmenskunden können eigene LLM-Keys nutzen
Visual Studio Code 1.117 steht zum Download bereit. Das neue Release von Microsofts Sourcecode-Editor erweitert die KI-Fähigkeiten des Chats, bringt ein experimentelles neues Chat-Rendering und aktualisiert die App „Visual Studio Code Agents“, die derzeit nur Teilnehmende des Insider-Programms verwenden können.
Weiterlesen nach der Anzeige
Flexiblere LLM-Anbindung für Business- und Enterprise-Kunden
Nutzerinnen und Nutzer von GitHub Copilot in einer Business- oder Enterprise-Edition können nun ihre eigenen API-Keys für Sprachmodelle einsetzen, bekannt als „Bring your own language model key (BYOK)“. Somit lassen sich Anbieter wie OpenRouter, Ollama, Google oder OpenAI einbinden, um deren Large Language Models im VS-Code-Chat zu nutzen.
Standardmäßig deaktiviert, können Admins BYOK mit der „Bring Your Own Language Model Key“-Richtlinie in den Copilot-Richtlinieneinstellungen aktivieren. Dabei können sie festlegen, welche Modellanbieter in ihrem Unternehmen zulässig sind. Anschließend können Organisationsmitglieder Modelle von integrierten Anbietern direkt in VS Code auswählen oder Extensions von Anbietern aus dem Visual Studio Code Marketplace installieren.
Die Vorteile liegen nicht nur in der größeren Modellauswahl, die über die integrierten Modelle hinausgeht, sondern auch darin, dass die integrierten Modelle dann nicht den Standard-Rate-Limits unterliegen. Dabei ist zu beachten, dass sich die „mitgebrachten“ Modelle lediglich auf den Chat auswirken, nicht auf Inline-Vorschläge oder andere KI-gestützte Features in VS Code.
Experimentelle und Insider-Features
Weiterlesen nach der Anzeige
Als ein experimentelles Feature kann der VS-Code-Chat nun inkrementell rendern. Dadurch sollen die Chat-Antworten flüssiger und natürlicher wirken. Die Inhalte erscheinen blockweise mit optionalen Animationen, etwa fade, blur oder slide.
Darüber hinaus hat die App „Visual Studio Code Agents“ ein Update erhalten. Diese befindet sich noch im Preview-Status und ist VS-Code-Insidern vorbehalten. Die App bietet eine Agent-native Umgebung, in der sich parallele Sessions über Repos hinweg ausführen, Diffs inline betrachten und mehrschrittige Coding-Aufgaben durchführen lassen. Im neuen Release können Entwicklerinnen und Entwickler Sub-Sessions aus aktuellen Sessions erstellen. Neben weiteren Updates wurde auch die User Experience in der App überarbeitet.
Die offizielle Ankündigung informiert über diese und weitere neue Features in Visual Studio Code 1.117.
(mai)
Künstliche Intelligenz
Webanalyse ohne Google: Umami 3.1 bringt Replays und eigene Dashboards
Mit Version 3.1.0 erhält die Open-Source-Webanalyse Umami mehrere größere Funktionen für Auswertung, Debugging und Performance-Monitoring. Im Mittelpunkt stehen frei konfigurierbare Dashboards namens „Boards“ sowie Session Replays, mit denen sich echte Nutzersitzungen nachvollziehen lassen. Hinzu kommen ein integriertes Tracking der Core Web Vitals, deutlich erweiterte Filter- und Segmentfunktionen sowie überarbeitete Sharing-Optionen. Außerdem schließt das Release mehrere Sicherheitslücken, führt Schema-Migrationen aus und hebt die Mindestanforderungen an die Plattform an.
Weiterlesen nach der Anzeige
Umami ist eine datenschutzfreundliche, selbst hostbare Alternative zu klassischen Webanalyse-Diensten wie Google Analytics. Die Software erfasst Seitenaufrufe und Events ohne Third-Party-Tracking und richtet sich vor allem an Entwickler und Unternehmen, die ihre Analyse selbst kontrollieren wollen.
Die neuen Boards bringen ein flexibles Dashboard-System. Anwender stellen Auswertungen aus Diagrammen, Tabellen und Kennzahlen in einem frei gestaltbaren Raster zusammen. Einzelne Komponenten lassen sich verschiedenen Websites zuordnen, live anpassen und anschließend im Team teilen oder duplizieren. Damit nähert sich Umami funktional spezialisierten Monitoring- und BI-Tools an. Ein Marketing-Team kann so etwa ein Board für Kampagnenkennzahlen pflegen, während das Produktteam parallel eines für Feature-Nutzung und Conversions führt.
Ebenfalls neu ist Session Replay. Die Funktion spielt reale Nutzersitzungen im Browser nach und basiert auf der Bibliothek rrweb. Session Replay zeichnet Klicks, Scrollbewegungen und Eingaben auf. Über konfigurierbare Maskierungsstufen lassen sich sensible Inhalte ausblenden. Die Aufzeichnungen sind pro Besuch segmentiert und nach Events filterbar. Das hilft etwa dabei, Abbrüche in Formularen oder Checkout-Prozessen zu analysieren.
Performance-Monitoring und feinere Auswertungen
Im Bereich Performance erfasst Umami nun die Core Web Vitals direkt im Browser der Besucher, darunter Largest Contentful Paint (LCP), Interaction to Next Paint (INP), Cumulative Layout Shift (CLS), First Contentful Paint (FCP) und Time to First Byte (TTFB). Eine überarbeitete Performance-Ansicht stellt die Werte dar und bewertet sie anhand gängiger Schwellenwerte. So lässt sich zum Beispiel erkennen, ob blockierendes JavaScript Interaktionen auf Mobilgeräten verzögert.
Auch die Filter- und Segmentlogik wächst spürbar. Neu sind ODER-Verknüpfungen zwischen Bedingungen, Regex-Operatoren und Mehrfachauswahl bei Vergleichsoperatoren. UTM-Parameter stehen jetzt systemweit zur Verfügung. Damit lassen sich komplexere Auswertungen formulieren, etwa Nutzersegmente über mehrere Kampagnen oder Regionen hinweg. Funnels unterstützen außerdem Filter auf Event-Eigenschaften pro Schritt sowie Wildcards in Zieldefinitionen.
Die überarbeitete Share-Funktion erlaubt eine feinere Steuerung freigegebener Inhalte. Einzelne Bereiche wie Übersichten oder Events lassen sich ein- oder ausblenden, Share-Links können einen Namen erhalten. Die Darstellung ist vollständig für Mobilgeräte optimiert.
Weiterlesen nach der Anzeige
Administration, Internationalisierung und kleinere Verbesserungen
Weitere Neuerungen sind unter anderem die zusätzliche Filterdimension „Distinct ID“, eine flexible Zeitaggregation nach Stunde, Tag oder Monat, ein Download für Berichte sowie Performance-Optimierungen durch Pagination-Limits und Cache-Control-Header. Hinzu kommen Geolocation-Header für EdgeOne und zusätzliche Konfigurationsoptionen über Umgebungsvariablen.
Im Administrationsbereich wechselt Umami von react-intl zu next-intl und liefert vollständige Übersetzungen für 51 Sprachen. Mit „react-zen“ führt das Projekt zudem ein einheitliches Design-System ein und überarbeitet die Navigation. Die Teamfunktionen sind nun konsolidiert und um eine Redis-basierte Feature-Steuerung ergänzt.
Sicherheit, Migrationen und Bugfixes
Auf der Sicherheitsseite schließt das Release IDOR-Schwachstellen in Berichten und Segmenten und schränkt Share-Tokens stärker ein. Zusätzlich aktualisiert es mehrere Abhängigkeiten mit bekannten Lücken.
Für die neuen Funktionen führt Umami automatisch Schema-Migrationen aus, etwa für Boards, Session Replay und die Sharing-Mechanismen. Die Mindestanforderung steigt auf Node.js 22, weil das Release auf Prisma 7 setzt.
Daneben behebt Version 3.1.0 zahlreiche Bugs, vor allem bei der PostgreSQL-Kompatibilität, in SQL-Abfragen, bei der Zeitzonenverarbeitung sowie im Tracker und in der Oberfläche. Details zu allen Änderungen finden sich in den Release Notes auf der GitHub-Projektseite von Umami. Version 3.0 erschien im November 2025 und fügte in Umami neue Tracking-Features hinzu.
(fo)
Künstliche Intelligenz
Samsung vor langem Streik: Zehntausende protestieren für hohe Bonuszahlungen
Weniger als einen Monat vor Beginn eines mehrwöchigen Streiks haben in Südkorea mehrere Zehntausend Angestellte von Samsung für deutliche Bonuszahlungen demonstriert, um die Gewinne aus dem KI-Boom zu verteilen. Das berichtet die Korea Times, die von etwa 40.000 Demonstrierenden (laut den Gewerkschaften) beziehungsweise etwa 30.000 (laut Polizei) spricht. Etwa 20 Aktionäre haben laut Medienberichten zeitgleich einen Gegenprotest abgehalten und die Forderungen kritisiert. Uneinigkeit herrscht demnach auch über die wirtschaftlichen Folgen und Kosten, sollte tatsächlich ab dem 21. Mai für 18 Tage gestreikt werden. Die Halbleiterproduktion müsste dann gestoppt werden.
Weiterlesen nach der Anzeige
Historischer Streik rückt näher
Laut der Tageszeitung fordern die Gewerkschaften, dass 15 Prozent des Jahresgewinns für Boni reserviert werden. Das wären etwa 23 Milliarden Euro und im Schnitt über 340.000 Euro pro Mitarbeiter beziehungsweise Mitarbeiterin, hat Bloomberg errechnet. Samsungs Geschäftsführung hat demnach angeboten, 10 Prozent des operativen Gewinns für Bonuszahlungen zu verwenden und die Löhne um 6,2 Prozent zu erhöhen. Das hätten die Gewerkschaften abgelehnt, und noch ist unklar, ob eine rechtzeitige Einigung den historischen Ausstand verhindern kann. Der wäre erst der zweite in der Geschichte von Samsung. Im März haben die Gewerkschaftsmitglieder für den Streik gestimmt, sollten die Verhandlungen scheitern.
Bei dem Konflikt geht es um eine wachsende Einkommensschere zu konkurrierenden Firmen wie SK Hynix. Der Halbleiterhersteller hat im Herbst eine gewerkschaftliche Forderung nach einer Vergütungsreform akzeptiert, die unter anderem höhere Boni vorsieht. In der Folge sei die Zahl der Samsung-Angestellten, die einer Gewerkschaft angehören, sprunghaft angestiegen. Innerhalb von drei Monaten haben danach laut Medienberichten 100 Gewerkschaftsangehörige Samsung verlassen, um unter anderem bei SK Hynix anzuheuern. Samsung hat demnach jetzt vor den Folgen des angedrohten Streiks gewarnt und gleichzeitig versichert, weiterhin „aufrichtig“ mit den Angestellten sprechen zu wollen. Gleichzeitig geht der Konzern juristisch gegen die Streikpläne vor.
(mho)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
