Künstliche Intelligenz
Ein Laser aus Pfauenfedern | heise online
Dass Pfauenfedern im Licht aufregend schimmern, ist vielen bekannt. Doch dass die Federn nach einer gezielten Anregung Laserlicht ausstrahlen, ist eine Neuheit. Ein Team um Forscher der Florida Polytechnic University demonstrierte, dass winzige, reflektierende Strukturen im Auge von Pfauenfedern Licht zu einem Laserstrahl bündeln können. Die Ergebnisse erschienen im Fachmagazin Scientific Reports.
Grundbausteine eines Lasers
Grundbaustein für einen Laser ist ein sogenanntes optisch aktives Medium, also ein Material, dessen Atome oder Moleküle durch Licht in einen energetisch höheren Zustand angeregt werden können. Bei sogenannten Farbstofflasern sind das meist fluoreszierende Farbstoffe.
Das aktive Medium wird mithilfe einer geeigneten Lichtquelle angeregt: Die Elektronen wechseln dabei gezielt von einem energiearmen in einen energiereicheren Zustand. Ziel ist die sogenannte Besetzungsinversion – ein Zustand, in dem sich mehr Elektronen auf dem höheren Energieniveau befinden als auf dem niedrigeren.
Kehren die Teilchen in ihren energetisch günstigeren Zustand zurück, geben sie die überschüssige Energie in Form von Photonen ab. Diese regen weitere Teilchen dazu an, ebenfalls Photonen auszusenden. Ein Resonator verstärkt diesen Prozess und bündelt die entstehende Lichtlawine zu einem fokussierten Laserstrahl.
Ein Resonator der Natur
In einem herkömmlichen Laser besteht der Resonator aus gezielt angeordneten Spiegeln. In der Natur können jedoch auch mikroskopische Strukturen einen ähnlichen Effekt hervorrufen. Das ist der Fall in Pfauenfedern. Schillernde Farbtöne werden hier nicht mithilfe von Pigmenten erzeugt, sondern entstehen aufgrund geordneter Mikrostrukturen im Innern der Feder, die das Licht auf bestimmte Weise reflektieren. So entstehen leuchtende Blau- und Grüntöne.
Nur männliche Pfauen tragen ein schillerndes Federkleid. Die Federn bekommen ihre Farbe durch Interferenz des Lichts in mikroskopisch kleinen Kammern.
(Bild: Pixabay / Desertrose7)
Das Forschungsteam färbte die Federn mehrfach mit dem Farbstoff Rhodamin 6G ein – einem bekannten Lasermedium für Farbstofflaser – und regte sie anschließend mit einem Festkörperlaser an.
Die Forscher konnten beobachten, dass verschiedenfarbige Regionen der Feder Laserstrahlung in zwei Wellenlängen emittieren und so einen gelb-grünlichen Laserstrahl erzeugen. Dieser war zwar nicht mit bloßem Auge erkennbar, konnte aber mit Messgeräten detektiert werden.
Mechanismus unklar
Obwohl die verschiedenen Stellen der Feder in unterschiedlichen Farben schillerten und sich daher vermutlich in ihrer Mikrostruktur unterschieden, strahlten sie Laserlicht der gleichen Wellenlänge aus. „Die Ergebnisse deuten auf eine kritische Struktur im Inneren der Federn hin, die über verschiedene Farbregionen des Augenflecks fortbesteht“, schreiben die Autoren in der Studie. Das seien vermutlich nicht dieselben Strukturen, die für die schillernden Farben im Pfauenauge verantwortlich sind.
Wie die Makrostrukturen genau aussehen, die als Laserresonator agieren, konnte das Team nicht identifizieren. Somit fehlt bislang eine schlüssige Erklärung für den beobachteten Effekt. Nathan Dawson, Mitautor der Studie, schlug gegenüber Science vor, dass Proteinkörnchen oder ähnliche kleine Strukturen im Inneren der Federn als Laserhohlraum fungieren könnten.
Matjaž Humar, Biophotonik-Forscher an der Universität Ljubljana, sagte ebenfalls in Science, das Experiment sei „ein faszinierendes und elegantes Beispiel dafür, wie komplexe biologische Strukturen die Erzeugung von kohärentem Licht unterstützen können.“
Dawson und sein Kollege glauben, dass ihre Arbeit eines Tages zur Entwicklung von biokompatiblen Lasern führen könnte, die sicher in den menschlichen Körper für Sensor-, Bildgebungs- und Therapiezwecke eingebaut werden könnten.
(spa)
Künstliche Intelligenz
SoftwareArchitekTOUR – Episode 106: Konfliktzone Softwarearchitektur
In dieser Folge spricht Patrick Roos mit Cosima Laube darüber, warum Konflikte im Alltag der Softwarearchitektur normal sind – und warum es wichtig ist, angemessen mit ihnen umzugehen. Architekturarbeit bringt verschiedene Perspektiven, Rollen und Interessen an einen Tisch. Wo viele Meinungen und Menschen aufeinandertreffen, bleiben Konflikte nicht aus.
Cosima teilt ihre Erfahrungen als Coach und Communicating Architect, und sie zeigt, welche Arten von Konflikten in der Architekturpraxis besonders häufig auftreten. Gemeinsam diskutieren Patrick und Cosima, woran Architektinnen und Architekten erkennen, dass ein Konflikt zu eskalieren droht, und wie sie frühzeitig dagegen steuern.
Um Konfliktsituationen besser zu verstehen und einzuordnen, hilft als zentrales Werkzeug das Modell der Konflikteskalation nach Glasl mit seinen neun Stufen. Die beiden diskutieren ferner viele praxisnahe Tipps, wie man Konflikte in der Architekturarbeit konstruktiv angehen kann, zum Beispiel mit klaren Zielen, guter Moderation, Architekturhypothesen und regelmäßiger Reflexion im Team.
Shownotes
(Bild: iX)
Im iX/Developer-Sonderheft gibt es neben den klassischen Architekturinhalten zu Methoden und Pattern Artikel über Soziotechnische Systeme, Qualitätssicherung oder Architektur und Gesellschaft. Domain Driven Design ist ebenso ein Thema wie Team Topologies, KI und Sicherheit.
Als Autoren konnten wir bekannte Experten gewinnen – darunter auch viele Betreiber dieses Podcasts – die ihr Wissen in vielen spannenden Artikeln sowohl für Architektureinsteiger als auch Spezialisten weitergeben.
(who)
Künstliche Intelligenz
GLM-4.5: Offenes Sprachmodell für schlanke Hardware
Ein neues Sprachmodell aus China ist da: Das jüngst unter der MIT-Lizenz veröffentlichte Modell GLM-4.5 vom Anbieter Z.ai (ehemals Zhipu) funktioniert richtig gut und lässt sich auch in der kleineren Version auf moderater Hardware flott betreiben. Es handelt sich um ein hybrides Modell, das sowohl Reasoning beherrscht – also den Weg zu seinen Schlussfolgerungen zeigt –, aber auch als Non-Reasoning-Modell agieren kann. Interessanterweise geht Qwen, das Sprachmodell von Alibaba, genau den umgekehrten Weg und hat aus den hybriden Modellen wieder zwei unterschiedliche (Instruct, Thinking) gebaut.
Architektur
GLM-4.5 ist ein großes Modell mit 335 Milliarden Parametern. Die genutzte Mixture-of-Experts-Architektur führt dazu, dass bei der Inferenz immer nur 32 Milliarden Parameter aktiv sind. Die somit kleinere Anzahl von Berechnungen erlaubt eine Beschleunigung in der Generierung der Tokens. Das Modell hat 160 Experten, davon werden jeweils immer acht (und ein Shared Expert, der immer gefragt wird) gleichzeitig verwendet. Es verfügt über 96 Attention-Heads und 92 Transformer-Schichten – und ist damit deutlich tiefer als etwa DeepSeek R1 oder Kimi K2. Obwohl Z.ai die Gewichte auch als FP8-Werte bereitstellt, ist GLM-4.5 trotzdem ein riesiges Modell, das man nicht einfach auf Consumer-GPUs betreiben kann, auch in einer quantisierten Version ist es für die meisten CPUs zu groß.
Deswegen hat Z.ai noch eine kleinere Version des Modells in petto und nennt es GLM-4.5-Air. Es ist in fast allen Belangen dem GLM-4.5-Modell unterlegen, aber nicht drastisch. Dafür ist es mit 106 Milliarden Parametern (12 Milliarden aktiv) viel kleiner und kann zum Beispiel mit 64 GByte RAM auf CPUs in einer Vier-Bit-Quantisierung betrieben werden – oder auch auf einer A100-GPU. Die Architektur ist sehr ähnlich, nur in vielen Dimensionen kleiner (128 Experten, 46 Layer). Leider schweigt sich Z.ai über die genauen Verwandtschaftsverhältnisse von GLM-4.5 und GLM-4.5-Air aus. Auch sonst sind technische Informationen auf dem Blog eher spärlich zu finden.
Training per slime
Relativ genau beschreibt Z.ai den Trainingsprozess und hat dazu die neue Methode „slime“ entwickelt und als Open-Source-Software zur Verfügung gestellt. Das Verfahren legt besonderen Wert auf agentenorientiertes Design, was sich auch in den Ergebnissen widerspiegelt. Dazu nutzt man unterschiedliche Phasen des Reinforcement Learnings, die von Reasoning über agentisches bis zum allgemeinen Training reichen. Z.ai konzentriert sich auf die möglichst flexible Nutzung von Infrastruktur, das Training kann auch asynchron stattfinden und stellt sicher, dass alle GPUs immer optimal genutzt werden.
Benchmarks zu den Modellen gibt es noch wenige, in der LMarena ist es noch nicht zu finden. Die Informationen im Blog-Artikel von Z.ai sehen vielversprechend aus, besonders im Bereich der Agenten-KI scheint es den (viel größeren) State-of-the-Art-Modellen nicht sehr unterlegen zu sein.
Wegen der frei verfügbaren Gewichte kann man das Modell auch selbst ausprobieren. Einen Dialog des Autors mit GLM-4.5-Air finden interessierte Leser hier. Leider nicht ganz so einfach kann man die Funktion testen, mit der GLM-4.5 Folien erstellen kann. Das geht auf der Website von Z.ai selbst und ist beeindruckend.
Fazit
GLM-4.5 ist ein richtig starkes Modell. Ob es wirklich die entsprechende Wertschätzung erfährt, bleibt abzuwarten. Denn: Aktuell ist es nicht ganz einfach, bei der Flut von neu veröffentlichten Modellen den Überblick zu bewahren. Alleine Qwen hat innerhalb weniger Tage viele Modelle veröffentlicht, darunter Qwen3-Coder-30B-A3B, das mit nur drei Milliarden aktiven Parametern lokal beim Programmieren unterstützen kann. Dabei scheint es eine ausgezeichnete Figur zu machen – die zwar sicher nicht an das nur zehn Tage früher veröffentlichte Qwen3-Coder-480B-A35B-Instruct herankommt, aber das hat auch 16-mal so viele Parameter. Spannend daran ist, dass es sich bei diesen Modellen nicht um Reasoning-Modelle handelt, die aber dennoch in der gleichen Liga spielen, die bisher den reinen Reasoning-Modellen vorbehalten war. Die deutlich schnelleren Antworten (durch viel weniger generierte Tokens wegen des nicht notwendigen Reasonings) führen zu deutlichen Effizienzgewinnen bei der Programmierung.
Aber auch methodisch hat sich in wenigen Tagen viel getan. Der neue „slime“-Trainingsprozess kann als Open-Source-Software auch von anderen Anbietern genutzt werden. Qwen hat das GRPO-Verfahren verfeinert und GSPO genannt. Kimi K2 nutzt zur Optimierung der Gewichte nicht AdamW, sondern Muon und erreicht damit eine schnellere Konvergenz. Fügt man all diese Puzzlestücke zusammen, kann man erwarten, dass sich die Frequenz der neu verfügbaren und besseren Modelle bald sicher noch erhöht.
(fo)
Künstliche Intelligenz
Supercomputer Stargate Norwegen: 230 Megawatt zum Start, bereit für 2,3 Gigawatt
Der norwegische Serverbauer Nscale zieht für OpenAI einen Supercomputer in Nord-Norwegen hoch. Die erste Phase soll bis Ende 2026 fertig sein und 100.000 KI-Beschleuniger von Nvidia einsetzen. Rund 230 Megawatt elektrische Leistung soll die erste Phase in Anspruch nehmen.
Aker ASA steigt als Investor ein. Nscale und Aker ASA teilen sich die Baukosten von etwa einer Milliarde US-Dollar, wofür sie eine gemeinsame Tochterfirma gründen wollen. Nscale, Aker und OpenAI nutzen den Supercomputer gemeinsam, unter anderem sollen dort OpenAIs KI-Modelle laufen. Die drei Firmen betonen, dass das System für europäische Kunden gedacht ist und sich zu 100 Prozent an EU-Regeln einhalten soll.
Die Beteiligten nennen das Projekt zwar „Stargate Norway“, allerdings entsteht auch dieser Standort ohne den japanischen Investor Softbank. Es gehört damit streng genommen nicht zum ursprünglich angekündigten Stargate-Projekt.
Der Standort für Stargate Norway.
(Bild: Nscale)
Mit Wasserkraft angetrieben
Der Supercomputer entsteht in Kvandal bei Narvik. Dort gibt es laut Ankündigung Energie aus Wasserkraft im Überschuss, sodass Nscale das gesamte System mit erneuerbarer Energie betreiben kann. Das Warmwasser aus der Wasserkühlung soll Gebäude in der Umgebung aufheizen.
Welche Hardware genau zum Einsatz kommt, verraten die Beteiligten nicht. 2026 will Nvidia seine nächste GPU-Generation Rubin und den zugehörigen ARM-Prozessor Vera vorstellen. Fraglich ist allerdings, ob Stargate Norway direkt zum Start so große Rubin-Stückzahlen bekommt. Ansonsten müsste Nscale auf die jetzt noch aktuelle Blackwell-Generation beziehungsweise Blackwell Ultra zurückgreifen.
Über zwei Gigawatt möglich
Schon jetzt ist eine zweite Phase mit einem zusätzlichen Energiebudget von 290 Megawatt angedacht. Grundsätzlich soll sich der Standort sogar für eine Verzehnfachung der Energiekapazität eignen. Das wären 2,3 Gigawatt.
Zum Vergleich: Europas schnellster Supercomputer ist derzeit der Jülicher Jupiter Booster. Er erreicht knapp 800 FP64-Petaflops Rechenleistung bei einer elektrischen Leistungsaufnahme von 13,1 Megawatt. Zur Fertigstellung soll er ein Exaflops bei 18 Megawatt übersteigen. Stargate Norway soll das System allein in der ersten Phase energetisch um den Faktor 13 übersteigen.
(mma)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 1 Monat
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Apps & Mobile Entwicklungvor 1 Monat
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen
-
Social Mediavor 2 Monaten
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken