Connect with us

Künstliche Intelligenz

Vera C. Rubin Observatory: Erste Aufnahmen beweisen große Leistungsfähigkeit


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Verantwortlichen des neuen Vera C. Rubin Observatorys haben nach monatelangen Tests und Kalibrierungen die ersten spektakulären Aufnahmen des Sternenhimmels gemacht und jetzt veröffentlicht. Die Bilder zeigen unter anderem den Trifidnebel und den Lagunennebel in der Milchstraße und eine gigantische Aufnahme mit insgesamt etwa 10 Millionen einzelnen Galaxien. Außerdem hat das hochmoderne Instrument alleine in den ersten Tagen seines Forschungsbetriebs mehr als 2100 neue Asteroiden und zahlreiche Himmelskörper entdeckt, die ihre Helligkeit ändern.



Eine Aufnahme mit zahlreichen Galaxien, die ohne Beschriftung bislang noch nicht einmal eine Bezeichnung.

(Bild: NSF–DOE Vera C. Rubin Observatory)

Damit weisen die ersten Forschungsaufnahmen des neuen Observatoriums bereits auf die besonderen Stärken des Instruments. Das Teleskop kann von seinem besonders günstigen Standort aus mit hoher Geschwindigkeit große Bereiche des Nachthimmels in bislang unerreichter Auflösung ablichten und damit im zeitlichen Verlauf Veränderungen sichtbar machen. Damit soll es nicht nur bei der Beobachtung kurzlebiger Phänomene wie Sternenexplosionen und der Suche nach Asteroiden helfen, sondern auch die Erforschung der Dunklen Materie und der Dunklen Energie voranbringen, sowie eine genauere Kartierung der Milchstraße ermöglichen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes Video (TargetVideo GmbH) geladen.

Die ersten von dem neuen Teleskop entdeckten Asteroiden


(Quelle: NSF–DOE Vera C. Rubin Observatory)

Das Rubin-Observatorium ist ein gemeinsames Projekt der National Science Foundation und des Energieministeriums der USA. Bei der Vorstellung der ersten Aufnahmen sprach dann auch Michael Kratsios, der im Weißen Haus für Wissenschaft und Technologie verantwortlich ist. Er nannte das Instrument einen „Triumph der Fähigkeiten und des Erfindungsgeists“ der Vereinigten Staaten. Nachdem die neue US-Regierung bislang vor allem mit massiven Sparprogrammen, auch im Bereich der Wissenschaftsförderung, aufgefallen ist, bezeichnete er das Observatorium als Investition in die Zukunft, das amerikanische Kinder inspirieren werde und in einer langen Tradition von US-Forschungsprojekten stehe.

Das Vera C. Rubin Observatory steht in Chile und hat im Frühjahr sein Herzstück erhalten, als die größte Digitalkamera der Welt an dem Teleskop angebracht wurde. Die heißt Legacy Survey of Space and Time (LSST) und hat ein Sensorfeld aus 201 individuellen CCD-Sensoren mit jeweils 16 Megapixeln. In ihrem Observatorium wird die gigantische Digitalkamera von einem Spiegel mit einem Durchmesser von 8,4 Metern und einem besonders großen Sichtfeld profitieren. So wird sie den kompletten Nachthimmel alle drei bis vier Nächte komplett abfotografieren und innerhalb von zehn Jahren den größten Zeitraffer des Sternenhimmels erstellen, den es je gegeben hat.

Auch in Deutschland erwartet man grundlegende Entdeckungen durch das neue Observatorium. Esra Bulbul vom Max-Planck-Institut für extraterrestrische Physik sieht es als Teil einer Transformation der Astronomie in dieser Dekade. Grund sei auch die enorme Datenmenge, die das Teleskop liefert. Jede Nacht können von der dort installierten Infrastruktur 20 Terabyte verarbeitet werden. „Die Menge an Daten und ihre immer höhere Präzision und Qualität wird uns wohl erlauben, ganz neue Physik zu entdecken“, meint die Astronomin. Die Forschungsschwerpunkte des Instruments decken sich mit jenen mehrerer Max-Planck-Institute, schreiben die Verantwortlichen noch.

Benannt ist das neue Observatorium nach der Astronomin Vera C. Rubin, die unser Verständnis von Galaxien revolutioniert und entscheidend zur Beschreibung der sogenannten Dunklen Materie beigetragen hat. Sie gehört zu den bedeutendsten Forscherinnen des vergangenen Jahrhunderts, erklärt die Max-Planck-Gesellschaft. Zudem setzte sie sich entschieden für die Gleichstellung von Frauen in der Wissenschaft ein. Die 2019 verstorbene Astronomin hat eine Reihe renommierter Auszeichnungen bekommen, der Nobelpreis blieb ihr aber verwehrt. Nun lebt ihr Name an einem der wichtigsten Forschungsinstrumente überhaupt weiter.


(mho)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Deepseek soll heimlich Chinas Volksarmee helfen


Die Chatbots des chinesischen Start-ups Deepseek mögen gebührenfrei sein, doch das kommt zu einem hohen Preis, wie ein führender US-Beamte Reuters erzählt hat. Demnach unterstützt Deepseek Militär und Geheimdienste der Volksrepublik China. Das soll über Zugang zu Künstlicher Intelligenz weit hinaus gehen.

Einerseits versucht Deepseek laut dem Bericht, über Briefkastenfirmen im Ausland US-Sanktionen gegen die Volksrepublik zu umgehen. Andererseits reiche Deepseek Daten über seine Nutzer sowie Statistiken freizügig an chinesische Geheimdienste weiter. „Nach unserem Wissensstand hat Deepseek willentlich Chinas Militär- und Geheimdienstunterfangen unterstützt und wird das wahrscheinlich auch weiter tun“, zitiert die Nachrichtenagentur den Beamten aus dem US-Außenministerium, ohne seinen Namen zu nennen.

Er wirft Deepseek vor, sich große Mengen Nvidia-Prozessoren vom Typ H100 besorgt zu haben, obwohl deren Export nach China seit 2022 verboten ist. Diesen Vorwurf hat Reuters nach eigenen Angaben durch andere Quellen bestätigen können, wobei jedoch die Zahl der verbotenen Chips unklar blieb. Nvidia gibt ab, dass Deepseek lediglich leistungsschwächere H800-Chips nutze, was legal ist. Dennoch steht der Verdacht im Raum, dass Deepseek weiterhin versucht, verbotene Nvidia-Chips über Briefkastenfirmen in Drittländern zu beziehen.

Zusätzlich gibt es einen deutlich einfacheren, wahrscheinlich legalen Weg, dasselbe Ziel zu erreichen: Chinesische Firmen nutzen offenbar Rechenzentren in Drittländern, um aus der Distanz Zugriff auf Nvidia-Chips zu erhalten, die nicht nach China exportiert werden dürften. Schließlich ist die Hardware selbst ja nicht so wichtig, wie die damit errechenbaren Ergebnisse. Beispielsweise untersucht Malaysia gerade, ob dieses Vorgehen gegen bestehende Vorschriften verstößt. Laut Reuters‘ Informanten soll auch Deepseek solche Rechenzentren in Südostasien zu nutzen suchen.

heise online hat Deepseek zu einer Stellungnahme eingeladen. Das Unternehmen hat Anfang des Jahres für weltweites Aufsehen und fallende Nvidia-Aktienkurse gesorgt. Deepseeks Large Language Model R1 hat in anspruchsvollen Reasoning- und Mathematiktests besser abgeschnitten als ChatGPT-o1 – und das bei angeblich deutlich schonenderem Umgang mit menschlichen, technischen und monetären Ressourcen.

Zusätzlich hat Deepseek seine KI-Modelle unter MIT-Lizenz veröffentlicht. Das erlaubt jedermann den Einsatz destillierter Versionen lokal auf relativ bescheidener Hardware oder in eigenen Cloudinstanzen. Um chinesische Zensoren nicht zu verärgern, verweigern Deepseeks Modelle in politischen Fragen bisweilen Auskunft.


(ds)



Source link

Weiterlesen

Künstliche Intelligenz

„Kryptokalypse“: EU verlangt quantensichere Verschlüsselung – teils bis 2030


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die EU-Mitgliedstaaten haben mit Unterstützung der Kommission einen Fahrplan aufgestellt, mit dem sie den Übergang zur quantensicheren Verschlüsselung vorantreiben wollen. Hintergrund ist, dass leistungsfähige Quantenrechner gängige Verschlüsselungsverfahren im Handstreich überwinden könnten („Kryptokalypse“). Laut der Agenda der EU-Kooperationsgruppe für Netzwerk- und Informationssicherheit (NIS) sollen alle Mitgliedsstaaten bis Ende 2026 zumindest mit der Umstellung auf Post-Quanten-Kryptografie (PQK) starten. Die Experten mahnen zudem: Im Bereich kritischer Infrastrukturen (Kritis) wie dem Energie- oder Telekommunikationsbereich sollte „so schnell wie möglich, spätestens jedoch bis Ende 2030“, PQK verwendet werden.

Die NIS-Gruppe reagiert mit dem Zeitplan auf eine Empfehlung der Kommission von 2024. Sie unterstreicht, dass Europa angesichts der rasanten Entwicklung von Quantencomputern jetzt handeln müsse. Dabei warnen die Experten insbesondere vor dem wachsenden Risiko der Angriffsstrategie: „Jetzt speichern – später entschlüsseln“ („Store now – decrypt later“): Böswillige Akteure könnten demnach heute konventionell verschlüsselte Daten sammeln, um sie später mithilfe von Quantenrechnern zu entschlüsseln. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) nimmt – ohne unerwartete technologische Durchbrüche – an, dass die gängige Verschlüsselung noch zehn bis 20 Jahre hält. Europol geht von bis zu 15 Jahren aus. Die Suche nach einem Ersatz für aktuell genutzte Algorithmen für die Public-Key-Kryptografie läuft daher auf Hochtouren, um weiterhin etwa E-Mails, Online-Banking, medizinische Daten, den Zugang zu Kontrollsystemen und nationale Sicherheitsaufgaben absichern zu können.

PQK nutzt spezielle Verschlüsselungsalgorithmen, die deutlich komplexer sind als die gängigen Programmroutinen. Die NIS-Gruppe bezeichnet diese Technologie als „wichtigen Meilenstein zur Abwehr komplexer Cyberbedrohungen“. Die EU-Länder sollen daher mit den ersten Schritten etwa Risikoanalysen vornehmen, nationale Aufmerksamkeits- und Kommunikationsprogramme aufstellen und die Lieferketten nicht vergessen. Spätere Ziele lauten, eine „kryptografische Agilität“ sowie und einen „quantensicheren Upgrade-Pfad“ zu unterstützen, also etwa Algorithmen austauschbar zu machen. Die Mitgliedsstaaten sollen ferner die nötigen Ressourcen für die Migration bereitstellen, Zertifikationsverfahren entwickeln sowie Pilotprojekte aufsetzen.

PQK hält die NIS-Gruppe für „die vielversprechendste Lösung“. Der Elektrotechnik- und IT-Verband VDE wirbt dagegen für die alternative Quantenschlüsselverteilung (Quantum Key Distribution – QKD). Bei diesem Austausch geht es darum, Quanteneffekte zu nutzen, damit sich zwei entfernte Parteien über einen unsicheren Kanal auf einen geheimen Schlüssel einigen können. Forscher vom Fraunhofer-Institut für System- und Innovationsforschung (ISI) haben diese Technik in einer Studie im Rahmen des Projekts Quantenkommunikation Deutschland (SQuaD) beleuchtet. QKD bietet demnach das Potenzial langfristiger Sicherheit in vielen Bereichen wie der öffentlichen Verwaltung, dem Finanz- und Medizinsektor, bei Kritis sowie in der Industrie. Trotz „vielversprechender Eigenschaften“ müssten vor einer möglichen breiten Markteinführung aber „noch einige Herausforderungen“ bewältigt werden.

So ist laut der Analyse glasfaserbasierte QKD derzeit auf Entfernungen von rund 100 Kilometer begrenzt. Diese ließe sich zwar durch vertrauenswürdige Knoten („trusted nodes“) vergrößern, was aber neue Sicherheitsrisiken mit sich bringen dürfte. Künftig könnten hier Quantenrepeater eine wichtige Rolle spielen, die längere Reichweiten bei gleichem Sicherheitsprofil versprechen. Weitere Hürden seien die noch nicht ausreichende Stabilität und Robustheit vieler QKD-Systeme, zu schließende Schwachstellen für externe Angriffe, Schwierigkeiten bei der Integration in bestehende IT-Infrastrukturen und hohe Kosten. Auch das Fehlen von Standards sowie zertifizierten und zugelassenen QKD-Systemen hemme die Verbreitung. Es brauche erhebliche Anstrengungen in Politik, Forschung und Industrie, um die Hindernisse zu überwinden.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

Japanischer Supercomputer: FugakuNEXT mit neuen Fujitsu-Monaka-X-Prozessoren


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der japanische Supercomputer Fugaku ist auch fünf Jahre nach seiner Indienststellung noch in den Top Ten der 500 schnellsten Supercomputer weltweit vertreten und belegt in der HPCG-Rangliste Platz 2. Doch das genügt den Verantwortlichen in Japan nicht mehr.

Das Komitee der High Performance Computing Infrastructure (HPCI) hat nun Fujitsu beauftragt, die Technik für die nächste Generation nationaler Supercomputer in Form des FugakuNEXT zu entwerfen. Die primäre Entwicklungsphase soll bis zum 27. Februar 2026 dauern.

Fujitsu baut bereits die 48-kernigen A64FX-Prozessoren, die im aktuellen Top7-Supercomputer Fugaku zum Einsatz kommen.

Grundlage für FugakuNEXT soll der Monaka-X sein, eine Weiterentwicklung von Fujitsus Monaka-CPU, die auch mit KI-Beschleunigern wie GPUs eng verzahnt arbeiten wird. Konkret weist Fujitsu auf Nvidias derzeit dominante KI-Beschleuniger und deren kürzlich für andere Hersteller geöffnete Schnittstelle NVLink hin.

Erfüllt Fujitsu die Versprechen der Monaka-Architektur, könnte FugakuNEXT wieder ein heißer Kandidat für eine Top-Platzierung in der Supercomputer-Liste werden. Bei seinem Erscheinen 2020 war schon sein Vorgänger sehr effizient. Er zeigte seine Leistung nicht nur auf dem Papier und beim Lösen gigantischer linearer Gleichungssysteme im HP-Linkpack, sondern auch bei Anwendungen wie dem HPCG-Benchmark (High Performance Conjugate Gradient, derzeit knapp hinter El Capitan auf Platz 2) oder bei Berechnungen mit gemischter Präzision (HPL-MxP, derzeit Platz 6).



Fujitsu Monaka im Überblick.

(Bild: Fujitsu)

Die Monaka-CPU hat wie schon die A64FX-Prozessoren die verbreitete ARM-Archiktektur zur Basis und soll 2027 auf den Markt kommen – sie wird also nicht nur für Supercomputer entwickelt. Konkret kommt ARMv9-A zum Einsatz im Verbund mit 256-bittigen SVE2-Vektoreinheiten, deren SIMD-Rechenwerke sich für KI- und HPC-Anwendungen gleichermaßen eignen sollen.

Anders als zur Vorstellung von Monaka sind nun Rack-Einschübe geplant, die auf 2U-Bauhöhe dank direkter Flüssigkühlung acht CPUs mit insgesamt 1152 Kernen vereinen. Luftgekühlte Versionen kommen mit höchstens 288 Kernen verteilt auf zwei Fassungen.

Fujitsu ändert einiges im Vergleich zu den A64FX-CPUs. So wird Monaka herkömmliche DDR5-RDIMM-Speicherriegel anbinden und keine teuren und nicht allzu großen HBM2-Stapelspeicher. Mit 12 Speicherkanälen und 24 RDIMMs sind bis zu 21 GByte pro Prozessorkern möglich bei insgesamt 6 TByte Speicherausbau, den auch aktuelle Epyc- und Xeon-Prozessoren von AMD und Intel bieten.

3D-Stacking verbindet vier Compute-Dies mit je 36 Kernen, Cache-Dies und ein I/O-Die miteinander. Die Chiplet-Technik ermöglicht angepasste, kostengünstige Fertigungsprozesse im I/O-Die mit 2-Nanometer-Technik mit Gate-All-Around-Transistoren zu vereinen.



Mit speziellen Ultra-Low-Voltage-Optimierungen soll Monaka besonders energieeffizient sein.

(Bild: Fujitsu)

Fujitsu will darüber hinaus mit speziellen Optimierungen für den Betrieb bei besonders geringen Spannungen für den Monaka bis zu 2x so energieeffizient sein wie die (CPU-)Konkurrenz 2027. Den Nutzen der Technik beziffert man mit dem Äquivalent einer neuen Stufe in der Prozesstechnik. Damit sollen die 2-nm-Prozessoren mit Sub-2-nm-Designs auf einer Stufe stehen. Offenbar strebt man aber keine geringere Leistungsaufnahme per se an, sondern will diesen Vorsprung in eine höhere Anwendungsleistung umsetzen.



Vergleich der Monaka-Architektur mit dem Vorgänger A64FX.

(Bild: Fujitsu)

Außerdem ist der in die A64FX-Packages integrierte TofuD-Netzwerkanschluss Geschichte, die ihn besonders bei HPC-Anwendungen abseits des HP-Linkpack nutzte. Monaka nutzt wie die meisten anderen Prozessoren hingegen Infiniband und Ethernet zur Verbindung der einzelnen Knoten untereinander.

Zu Monaka-X ist dagegen kaum etwas bekannt, außer, dass er auf Monaka-Technik aufsetzen soll und wie beschrieben KI- und andere Beschleunigertechnik effizient einbinden soll.


(csp)



Source link

Weiterlesen

Beliebt