Connect with us

Künstliche Intelligenz

Bau am weltweit größten Windrad in Deutschland geht nach Problemen weiter


In Deutschland, genauer im brandenburgischen Schipkau in der Lausitz, entsteht die größte Windkraftanlage der Welt. Mit einer Gesamthöhe von 365 m und einer Nabenhöhe von 300 m soll der Höhenwindturm nach Fertigstellung pro Jahr zwischen 30 und 33 GWh Strom erzeugen können. Die im Winter ruhenden Hochbauarbeiten hat das bauausführende Unternehmen GICON nach einer Qualitätskontrolle der Bauteile und teilweisem Austausch bereits wieder aufgenommen.

Weiterlesen nach der Anzeige

Ende 2025 hatte GICON festgestellt, dass ein Subunternehmen Stahlbauteile für das Windrad geliefert hat, die nicht der erforderlichen Qualität entsprochen haben, wie GICON Anfang März mitteilte. Die Wintermonate hatte GICON genutzt, um auch bereits eingebaute Teile zu überprüfen. Mittlerweile seien nahezu alle Ersatzbauteile eingetroffen und der Austausch der Teile sei bis Ende März abgeschlossen. Der Weiterbau des Windrades werde dann mit neuen Teilen fortgesetzt. Ebenfalls habe GICON im Februar den Großkran für die folgenden Bautätigkeiten in Betrieb genommen.

Das GICOM-Höhenwindrad soll Windenergie in großen Höhen nutzen. Dort können je nach Standort optimale Bedingungen für die Nutzung von Windenergie herrschen. Winde wehen dort in der Regel stärker und gleichmäßiger, sodass jährlich ein höherer Stromertrag möglich ist. GICOM schätzt, dass mit solchen Windrädern pro Jahr zwischen 30 und 33 GWh gewonnen werden können. Das entspricht in etwa dem Jahresbedarf von 7500 Vier-Personen-Haushalten.

Der stetig nutzbare Wind soll sich neben der verlässlichen und ergiebigeren Stromversorgung auch auf die Kosten auswirken. Die Stromgestehungskosten sollen bei weniger als 5 Cent pro Kilowattstunde liegen.

Um die Turbinengondel auf eine Höhe von 300 m zu bringen, haben sich die Ingenieure etwas Besonderes einfallen lassen: Die Konstruktion ist teleskopartig ausgelegt. Die Turbine wird zunächst auf einer Höhe von 150 m montiert. Danach soll sie von dort auf ihre Endposition in noch luftigerer Höhe hochgefahren werden. Für die Montage in größeren Höhen sind spezielle „höhenfeste“ Montagearbeiter nötig. In Deutschland gibt es die aber nicht, sodass Monteure aus der Türkei diese Arbeiten übernehmen.

Nach derzeitigem Stand ist noch unklar, wann die Bauarbeiten an dem Windrad, die im Juli 2025 begonnen haben, abgeschlossen sein werden. Das hängt von den Baufortschritten ab, die in den nächsten Monaten erzielt werden. 2025 hieß es noch, dass der Bau im Sommer 2026 abgeschlossen sein wird. Weiter festhalten will die GICOM aber daran, dass das Höhenwindrad noch bis Ende 2026 ans Netz geht.

Weiterlesen nach der Anzeige


(olb)



Source link

Künstliche Intelligenz

Code lesen statt Code schreiben: Die unterschätzte Senior-Disziplin


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im April 2000 veröffentlichte Stack-Overflow-Gründer Joel Spolsky einen Aufsatz mit dem Titel „Things You Should Never Do, Part I“. Anlass war die Entscheidung von Netscape, den Code des damaligen Browsers von Grund auf neu zu schreiben, statt den vorhandenen weiterzuentwickeln.

Weiterlesen nach der Anzeige


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Spolskys These: Diese Entscheidung sei der schlimmste strategische Fehler, den eine Softwarefirma machen könne. Sie beruhe auf einem fundamentalen Missverständnis darüber, was Programmierarbeit eigentlich ist. Programmiererinnen und Programmierer schrieben lieber neu, weil das Lesen fremden Codes mühsam sei und sich das Schreiben produktiv anfühle. Doch dieser Eindruck täusche. Die Verlockung, neu anzufangen, sei eine der teuersten Versuchungen der Branche.

Über 25 Jahre später hat dieser Text nichts von seiner Aktualität verloren. Im Gegenteil. Mit dem Auftauchen von Large Language Models (LLM) hat sich die Asymmetrie zwischen Schreiben und Lesen so verschoben, dass die Frage akut wird, ob wir die eigentliche Senior-Disziplin der Softwareentwicklung systematisch unterschätzen. Das Tippen ist nicht das, was Teams in den nächsten Jahren ihren Atem rauben wird. Das Lesen ist es. In diesem Beitrag möchte ich zeigen, warum das so ist, woher die Asymmetrie kommt, wie sie sich durch generative KI verschärft und wie aus einer beiläufigen Begleitfähigkeit eine eigenständige Disziplin werden müsste.

Beim Schreiben hat man alles gleichzeitig im Kopf: die Anforderung, das Datenmodell, die geplante Architektur, die Stelle, an der man gerade arbeitet, die Annahmen, die man trifft, die Trade-offs, die man eingeht. Diese mentale Gesamtsicht macht das Schreiben schnell. Sie ist gleichzeitig das, was beim Lesen fehlt.

Wer drei Wochen später denselben Code wieder vor sich hat, ohne den Kontext mitzubringen, muss diese Gesamtsicht rekonstruieren. Variablennamen geben Hinweise, Tests sagen mehr, ein Pull-Request-Kommentar liefert im Bestfall den fachlichen Anlass, eine Commit-Message mit Glück die letzte Begründung. Die eigentliche Intention, das gedachte Modell, die verworfenen Alternativen, all das ist verloren. Rekonstruieren kostet Zeit und Konzentration, und beides ist teurer als das Schreiben.

Spolskys Anekdote ist deshalb so anschaulich, weil sie diese Asymmetrie auf Organisationsebene zeigt. Bei Netscape stand man vor einer alten Codebasis, die niemand mehr durchschauen wollte. Die Verlockung lag nahe, das Ganze einfach neu zu schreiben. Das Ergebnis ist bekannt: drei Jahre Stillstand, ein verlorener Browser-Markt, eine Firma im Niedergang. Der vermeintlich einfachere Weg war der teuerste.

Weiterlesen nach der Anzeige

Auf individueller Ebene zeigt sich dasselbe Muster täglich. Es zeigt sich in Stack-Overflow-Antworten, die statt der Frage einen anderen Lösungsansatz vorschlagen. Es zeigt sich in Kolleginnen und Kollegen, die Refactorings vorschlagen, ohne den vorhandenen Code wirklich verstanden zu haben. Es zeigt sich in der eigenen Versuchung, ein Modul lieber zu ersetzen als zu verbessern. Lesen ist und bleibt unbequem.

Ein modernes LLM erzeugt mehrere Hundert Zeilen Code in der Zeit, in der eine Person diese Zeilen einmal überfliegen kann. Generieren ist billig geworden. Token sind billig, Wartezeiten kurz, und das mentale Modell für die Aufgabe ist auf das Formulieren eines Prompts geschrumpft. Der Aufwand auf der Schreibseite ist faktisch zusammengebrochen.

Auf der Leseseite hat sich nichts geändert. Verstehen kostet noch immer das, was es immer gekostet hat: konzentrierte Aufmerksamkeit, Zeit, Geduld. Die menschliche Verarbeitungsgeschwindigkeit für Code liegt grob bei einigen Zeilen pro Minute, je nach Komplexität deutlich darunter. Diese Größenordnung lässt sich nicht durch Werkzeuge beschleunigen, weil sie an der menschlichen Kognition selbst hängt.

Das Resultat ist eine groteske Verschiebung. Wo früher eine Tagesarbeit etwa hundert Zeilen Code produzierte, die ein Reviewer in einer halben Stunde durchgehen konnte, kann heute eine Stunde Promptarbeit Tausende Zeilen erzeugen. Die zu verstehende Menge wächst dramatisch, die Geschwindigkeit des Verstehens bleibt konstant. Was früher ein Engpass beim Schreiben war, wird zum Engpass beim Verstehen.

Diese Verschiebung wird in vielen Diskussionen ignoriert. Man feiert die Produktivität auf der Generierungsseite und schweigt über die Bilanz, die sich auf der Leseseite auftut. Was nicht gelesen wird, wird nicht verstanden. Was nicht verstanden wird, wird nicht zuverlässig betrieben. Die Schulden verschieben sich nur in die Zukunft, sie verschwinden nicht.

Sichtbar wird das spätestens dort, wo Code-Review-Prozesse, die für die Geschwindigkeit der Vor-LLM-Ära konzipiert waren, plötzlich mit Pull-Requests konfrontiert sind, deren Umfang ein menschlicher Reviewer in einem ganzen Tag nicht durchdringen könnte. Die Reaktion ist meistens nicht eine vertiefte Auseinandersetzung, sondern ein verkürztes Daumen-hoch. Damit verlagert sich der Code-Review von einem inhaltlichen zu einem zeremoniellen Schritt, und genau in dieser Verlagerung entstehen die Probleme, die später teuer werden.

Eine ambitionierte Schule propagiert, die Beschäftigung mit Code werde überflüssig: Mit genug Skills, Harness-Engineering und einer präzisen Markdown-Spezifikation lasse sich die Arbeit vollständig auf die Spec-Ebene verlagern. Der generierte Code sei eine Implementierungsfrage, die niemand mehr ansehen müsse. Diese Vorstellung wird mit Anlauf gegen eine Wand laufen.

Wer Code nur generiert, ohne ihn zu lesen, hat von Anfang an fremden Code vor sich. Reviewen geht nicht, Fehler suchen geht nicht, beides setzt Verstehen voraus. Mit jeder weiteren Generierung wächst die Codebasis schneller, als sie sich durchdringen lässt. Die Lücke zwischen „vorhanden“ und „verstanden“ öffnet sich in atemberaubender Geschwindigkeit, und mit ihr die Anzahl der Stellen, an denen man später fragen muss, was hier eigentlich passiert.

Die einzige verbliebene Instanz, die diesen Code noch erklären, prüfen oder reparieren kann, ist die KI selbst. Damit ist man ironischerweise auf genau das System angewiesen, das die Lage herbeigeführt hat. Aus einem Werkzeug wird eine Abhängigkeit, aus einer Beschleunigung eine Falle. Wer keine eigene Verstehenskompetenz aufbaut, hat nur noch eine externe und entscheidet über diese externe Kompetenz nicht mehr selbst.

Dieses Muster ist nicht neu, neu ist nur seine Geschwindigkeit. Ein Team besitzt eine unzugängliche Codebasis nicht mehr. Im klassischen Fall geschah die Unzugänglichkeit über Jahre, durch personelle Wechsel und unzureichende Dokumentation. Im KI-gestützten Fall kann das innerhalb weniger Monate geschehen, weil die Generierungsgeschwindigkeit die Aufnahmegeschwindigkeit hoffnungslos übersteigt.

Der typische Auslöser ist nicht spektakulär. Ein Bug taucht in Produktion auf, niemand im Team versteht den betroffenen Code, also befragt man die KI. Die KI liefert eine Erklärung und einen Fix, beides plausibel, beides ungeprüft. Im günstigen Fall stimmt es. Im weniger günstigen baut man neue Schulden auf alte und merkt es erst, wenn der nächste Bug genau in dieser Schicht entsteht. Aus Reparatur wird Übermalung.

Was zunächst wie eine Befreiung wirkt, ist also eine Verlagerung der Last. Statt selbst zu schreiben, formuliert man Prompts. Statt selbst zu verstehen, fragt man die KI. Beides scheint produktiv. Beides erodiert die Souveränität über die eigene Codebasis.



Source link

Weiterlesen

Künstliche Intelligenz

Ärztetag fordert strengere Regeln für KI und Cloud-Nutzung im Gesundheitswesen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der 130. Deutsche Ärztetag hat weitere Beschlüsse zur Digitalisierung, Datenschutz und Künstlicher Intelligenz im Gesundheitswesen gefasst. Neben der bereits intensiv diskutierten elektronischen Patientenakte (ePA) und dem geplanten Gesetz für Daten und digitale Innovation im Gesundheitswesen (GeDIG) beschäftigten sich die Delegierten insbesondere mit Risiken der Datenverarbeitung, autonom handelnder KI-Systeme und der Nutzung cloudbasierter Infrastrukturen.

Weiterlesen nach der Anzeige

Besonders deutlich fiel die Kritik an den aktuellen Plänen der Europäischen Kommission aus. Hintergrund ist das laufende EU-Gesetzgebungsverfahren zum sogenannten Digital-Omnibus, das Datenschützer bereits deutlich kritisierten. Nach Auffassung der Antragsteller des Antrags „Anonym muss wirklich anonym sein“ soll dabei der Begriff personenbezogener Daten neu definiert werden. Vorgesehen sei, Daten künftig bereits dann als anonym anzusehen, wenn sie einmal anonymisiert wurden – selbst dann, wenn nach einer Weitergabe an Dritte eine spätere Reidentifizierung der betroffenen Personen möglich oder sogar wahrscheinlich sei.

Die Delegierten sehen darin eine erhebliche Schwächung des Datenschutzes. „Trotz einer faktisch unwirksamen Anonymisierung gelten solche Daten zukünftig nicht mehr als personenbezogene Daten und werden deshalb nicht mehr durch die DSGVO geschützt“, heißt es in der Begründung des angenommenen Beschlusses. Der Ärztetag warnt, dass damit die Nutzung medizinischer Behandlungsdaten ihre Legitimation verlieren könnte.

„Ohne eine wirksame Anonymisierung verliert die Nutzung ärztlicher Behandlungsdaten von Patienten, mit und ohne Künstliche Intelligenz, jede Legitimation“, erklärten die Antragsteller. Besonders kritisch sei, dass kommerzielle Datennutzer dadurch faktisch von ihrer Verantwortung gegenüber Patienten entbunden würden. Das hatte in der Vergangenheit auch der Ethik-Professor Rainer Mühlhoff kritisiert. Die Delegierten rund um den Berliner Arzt Stefan Streit sehen durch die geplante Begriffsverschiebung auch die ärztliche Schweigepflicht berührt. „Es ist fraglich, ob Ärztinnen und Ärzte in der Patientenbehandlung ihrer Verschwiegenheitspflicht gegenüber den Patientinnen und Patienten nachkommen, wenn sie mitwirken, obwohl klar ist, dass ein faktischer Persönlichkeitsschutz fehlt“, heißt es im Antrag weiter. „Unabhängig davon entsteht ein gravierender Vertrauensverlust für den Schutzraum der ärztlichen Behandlung“, erklärten die Delegierten.

Im ebenfalls angenommenen Beschluss zum „Schutz vor Reidentifizierung bei anonymisierten/pseudonymisierten Behandlungsdaten aus der elektronischen Patientenakte im Gesundheitsdatenraum“ warnten die Delegierten zudem vor neuen Risiken durch KI-gestützte Mustererkennung. Bereits wenige Angaben wie Geschlecht, Alter, Postleitzahl und Behandlungstage könnten laut Antrag ausreichen, um anonymisierte Gesundheitsdaten wieder einzelnen Personen zuzuordnen. Besonders sogenannte Kalendermuster aus Arztterminen gelten den Antragstellern als problematisch. Mit dem Einsatz von KI entstehe dabei zusätzlich ein „unkalkulierbares KI-Risiko“ für die Reidentifizierung medizinischer Daten.

Weiterlesen nach der Anzeige

Kritisch wurde auf dem Ärztetag auch die Entwicklung autonom handelnder KI-Systeme diskutiert. Im Beschluss „Digitale KI-Agenten regulieren, bevor sie im Gesundheitswesen genutzt werden“ (PDF) verwiesen die Antragsteller auf wissenschaftliche Veröffentlichungen, die bereits Fälle dokumentierten, in denen KI-Systeme sich Menschen widersetzt haben. Der Ärztetag fordert deshalb strengere regulatorische Vorgaben für selbstständig agierende KI-Anwendungen im Gesundheitswesen.

Die Ärztinnen und Ärzte fordern daher vom Bundesgesundheitsministerium (BMG), der Gematik, der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (BfDI) und dem Bundesamt für Sicherheit in der Informationstechnik (BSI) „eine detaillierte Darstellung, welche Maßnahmen zu ergreifen sind, bevor digitale KI-Agenten in der ärztlichen Patientenversorgung eingesetzt werden“.

Skeptisch äußerten sich die Delegierten außerdem zu „Confidential Computing“-Ansätzen in Cloud-Infrastrukturen. Im Beschluss „Cloudbasierte Künstliche Intelligenz von ärztlichen Behandlungsdaten – nur auf vertrauensvoller Infrastruktur“ heißt es, aus Sicht von IT-Experten gebe es keine belastbare Grundlage mehr für die Annahme, dass ein sicherer und vertraulicher KI-Betrieb auf fremden Cloud-Servern dauerhaft gewährleistet werden könne.

Deshalb seien außereuropäische Cloudstandorte für die KI-Verarbeitung von Behandlungsdaten ungeeignet. Das gelte auch für europäische oder deutsche Cloudangebote von US-Unternehmen, da diese laut Antrag „Daten von Nicht-US-Bürgern im Ausland an US-Behörden herauszugeben“ verpflichtet werden könnten. Aktuell nutzen einige Kliniken und Praxen bereits KI-Agentensysteme, teilweise bei den großen Hyperscalern wie AWS und Microsoft Azure.

Auch „Ressourcenverbrauch und Kosten der Anwendung von Künstlicher Intelligenz“ waren Thema der Beratungen. Der Ärztetag verwies darauf, dass mit der Tokenzählung neue Kostenstrukturen entstünden. Zusätzlich zu klassischen Lizenzgebühren für medizinische Anwendungen müssten künftig auch Strom- und Wasserverbrauch der Serverinfrastruktur berücksichtigt werden.

An den Vorstand der Bundesärztekammer wurde zudem ein Prüfantrag (PDF) zur ärztlichen Aufklärung vor der Befüllung der elektronischen Patientenakte überwiesen. Die Delegierten äußerten Zweifel daran, dass ein einfacher Hinweis im Wartezimmer den gesetzlichen Anforderungen an eine informierte Patientenaufklärung genüge. Damit stellt sich auch die Frage, wer die Verantwortung trägt, wenn sich herausstellt, dass Patienten im Nachhinein doch nicht ausreichend aufgeklärt wurden.

In weiteren Beschlüssen ging es unter anderem um die Forderung nach praxistauglicher Digitalisierung, mehr Interoperabilität und sicheren IT-Systemen, um die Rolle von KI als unterstützendes Werkzeug in der medizinischen Versorgung sowie um die Wahrung ärztlicher Entscheidungsverantwortung. Kritisiert wurden zudem die geplante stärkere Nutzung von Gesundheitsdaten durch Krankenkassen, Zugriffe auf ePA-Daten, digitale Steuerungsmechanismen im Gesundheitswesen sowie ein möglicher indirekter Digitalzwang für Patientinnen und Patienten.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

c’t-Webinar: Keine Angst vor Linux – so klappt der Wechsel


Bei Linux denken viele noch an schwarze Bildschirme, blinkende Cursor und Befehle, die aussehen wie versehentlich auf die Tastatur gefallen. Die Realität sieht heute anders aus: aufgeräumte Desktops, grafische Installationsassistenten und Software-Center, die an App-Stores erinnern.

Weiterlesen nach der Anzeige

Das c’t-Webinar nimmt Ein- und Umsteiger mit auf eine Tour durch das heutige Linux. Keywan Tonekaboni, Redakteur im Ressort Betriebssysteme und Sicherheit, zeigt praxisnah, was zwischen erstem Desktop-Eindruck, Installation und dem Umzug der eigenen Daten von Windows alles passiert – und wo es sich lohnt, genauer hinzuschauen.

Zu Beginn lernen Sie verschiedene Desktop-Oberflächen wie KDE Plasma, Gnome und Cinnamon kennen – denn bei Linux darf man sich aussuchen, wie der eigene Schreibtisch aussehen soll. Anschließend zeigt der Referent, wie Sie ein Linux-Live-System auf einem USB-Stick vorbereiten und starten. Mit so einem Live-System können Sie Linux in aller Ruhe testen, ohne auch nur eine einzige Datei auf Ihrer Festplatte anzurühren. Ganz nebenbei prüfen Sie, ob Ihre Hardware mitspielt. Typische Stolperfallen bei Dual-Boot-Konfigurationen mit Windows – etwa das gern querschießende BitLocker – kommen ebenso zur Sprache wie die eigentliche Erstinstallation.

Am Beispiel von Linux Mint demonstriert Keywan Tonekaboni, wie Sie Software über die grafische Softwareverwaltung installieren, welche Alternativen es zu gewohnten Windows-Programmen für Office-Arbeit und Bildbearbeitung gibt und wie Treiber und Updates funktionieren. Auch erste Schritte im Terminal stehen auf dem Programm – aber keine Sorge: Die Konsole beißt nicht. Spätestens nach dem Webinar werden Sie feststellen, dass ein paar eingetippte Zeilen manchmal sogar schneller zum Ziel führen als jedes Klick-Menü. Darüber hinaus erfahren Sie, wie Sie eine Datenmigration von Windows sauber vorbereiten, damit beim Umzug nichts verloren geht.

Nach dem Webinar wissen Sie, welche Distributionen sich für den Einstieg eignen, wo Linux seine Software herbekommt, wie Paketquellen und Flatpak zusammenspielen und worauf Sie beim Hardware-Kauf achten sollten.

Weiterlesen nach der Anzeige

Das Webinar richtet sich an Windows-Nutzer mit Wechselgedanken, Linux-Neugierige ohne tiefe Vorkenntnisse und alle, die Linux vor vielen Jahren mal ausprobiert und damals vielleicht entnervt aufgegeben haben. Vorkenntnisse brauchen Sie keine – alle Schritte werden erklärt und eingeordnet.

Während der Veranstaltung können Sie über einen Online-Chat Fragen stellen. Zur Teilnahme genügt ein aktueller Webbrowser. Im Nachgang erhalten Sie Zugriff auf die Aufzeichnung und können das Gezeigte in Ihrem eigenen Tempo nachvollziehen. Alle Informationen zur Veranstaltung sowie Details zur Anmeldung finden Sie auf der Website zum Webinar.

  • Termin: 19. Mai 2026
  • Uhrzeit: 15:00 bis 18:00 Uhr
  • Preis: 69,00 Euro


(abr)



Source link

Weiterlesen

Beliebt