Connect with us

Künstliche Intelligenz

Neutrino mit Energierekord könnte von explodiertem Schwarzen Loch stammen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ein vor zweieinhalb Jahren entdecktes Neutrino, das den damaligen Energierekord regelrecht pulverisiert hat, könnte von einem explodierenden Schwarzen Loch stammen. Das meinen zumindest eine Physikerin und ein Physiker des Massachusetts Institute of Technology (MIT) und erklären, dass das gleich mehrere grundlegende Fragen der Physik beantworten könnte. Damit hätten wir den ersten experimentellen Nachweis für sogenannte primordiale Schwarze Löcher, die erste Messung der Hawking-Strahlung und einen gewichtigen Hinweis darauf, dass die sogenannte Dunkle Materie größtenteils auf Schwarze Löcher zurückgeht. Erst vor wenigen Tagen hat eine andere Forschungsgruppe behauptet, dass eine Explosion eines winzigen Schwarzen Lochs längst nachweisbar sein sollte.

Gefunden wurde das Rekordteilchen mit dem europäischen Observatorium Cubic Kilometre Neutrino Telescope (KM3NeT) am 13. Februar 2023. Es hatte eine Energie von 220 Petaelektronenvolt, das war mehr als das Zwanzigfache des bis dahin energiereichsten Neutrinos. Diese elektrisch neutralen, weitgehend masselosen Teilchen werden bei besonders energiereichen Ereignissen im All freigesetzt, über die sie mehr verraten sollen. Ihr Nachweis ist aber extrem schwierig, weil sie sich beinahe mit Lichtgeschwindigkeit bewegen und fast nie eine Wechselwirkung mit Atomen eingehen. Deshalb können sie sogar die Erde mehr oder weniger ungehindert durchqueren. Nur ganz spezielle Observatorien können sie überhaupt nachweisen und ihre Eigenschaften ermitteln.

Das Forschungsteam vom MIT meint nun, dass das Rekordteilchen beim explosiven Ende eines winzigen Schwarzen Lochs entstanden sein könnte. Dabei beziehen sie sich auf sogenannte primordiale Schwarze Löcher. Diese winzigen Objekte sind laut den zugehörigen Theorien direkt nach dem Urknall aus der vorhandenen Materie entstanden und nicht wie die anderen aus dem Kollaps von Sternen. Der Begriff leitet sich vom lateinischen Wort „primordium“ („erster Anfang“) ab. Bislang wurden diese PBH (Abkürzung der englischen Bezeichnung) nur theoretisch beschrieben, es ist unklar, ob es sie wirklich gibt. Bislang ist man zudem davon ausgegangen, dass sie vergleichsweise selten explodieren sollten, ein Nachweis wäre dann extrem unwahrscheinlich.

Dass Schwarze Löcher nicht komplett unsichtbar sind, sondern Teilchen ausstrahlen sollten, hat der britische Physiker Stephen Hawking erkannt. Nach ihm wurde diese Hawking-Strahlung benannt, aber weil es sich um extrem niedrige Mengen handelt und die großen oder supermassereichen Schwarzen Löcher sehr weit entfernt sind, galt es bisher als ausgeschlossen, sie nachweisen zu können. Sollte es primordiale Schwarze Löcher geben, wäre das aber anders. Die winzigen Objekte sollten durch die Abgabe der Teilchen nicht nur schrumpfen, sondern auch immer heißer werden. Wenn es am Ende kleiner ist als ein Atom, sollte es in einer finalen Explosion vergehen, erklärt das MIT.

Alexandra Klipfel und David Kaiser haben nun errechnet, welche Teilchen bei solchen Explosionen freigesetzt werden sollten. Unter anderem wären das 1020 Neutrinos, die jeweils auf etwa 100 Petaelektronenvolt an Energie kommen. Das ist genau in dem Bereich des Rekordteilchens vom KM3NeT. Die Explosion hätte sich demnach in einer Entfernung von 2000 AE ereignet, das ist die zweitausendfache Distanz zwischen Erde und Sonne. Darüber hinaus haben die beiden errechnet, wie viele primordiale Schwarze Löcher in einem bestimmten Gebiet explodieren müssten, um ähnliche Neutrinonachweise des Detektors IceCube im Eis der Antarktis zu erklären. Pro Jahr müssten demnach in einem Würfel mit der Kantenlänge von einem Parsec (3,26 Lichtjahre) in unserem Teil der Milchstraße 1000 PBH explodieren.

Noch handele es sich aber um eine Theorie; um sie zu bestätigen, brauche es deutlich mehr Funde derart energiereicher Neutrinos. Erst vor wenigen Tagen hat ein Forschungsteam von der nicht weit entfernten University of Massachusetts seine Forschungsarbeit vorgestellt, in der es ebenfalls um die finalen Explosionen primordialer Schwarzer Löcher geht. Diese würden unter bestimmten Umständen viel häufiger explodieren, als bislang angenommen, hieß es darin. Sollte das stimmen, läge die Wahrscheinlichkeit, solch eine in den nächsten zehn Jahren beobachten zu können, bei über 90 Prozent, hieß es dazu. Die zeitgleich am MIT erstellte Forschungsarbeit zu den Neutrinofunden wurde jetzt in den Physical Review Letters veröffentlicht.


(mho)



Source link

Künstliche Intelligenz

Samsung liefert One UI 8 für ältere Galaxy-Watches


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Samsung stattet nun auch ältere Galaxy-Watches mit dem jüngsten One-UI-Stand 8 aus. Entgegen ursprünglichen Annahmen kommen auch Besitzerinnen und Besitzer der Galaxy-Watch-4-Reihe in den Genuss der aktuellen Android-Fassung. Allerdings wohl zum letzten Mal.

Weiterlesen nach der Anzeige

Mitte Juni wurden Samsungs Pläne für das Update auf One UI 8 Watch bekannt, als erste Beta-Versionen für jüngere Smartwatches verteilt wurden. So können die Uhren mit One UI 8 nun helfen, eine optimale Schlafenszeit zu finden, um am Folgetag die Wachphase zu maximieren. Neuere Galaxy-Watches sollen zudem „Belastung des Gefäßsystems“ erfassen. Der Laufcoach soll insbesondere Einsteigern helfen, „abgestimmtes Intensitätstraining und verletzungsvorbeugende Übungen“ zu betreiben.

One UI 8 basiert auf Googles Wear OS 6, das im Oktober auf den Pixel-Smartwatches des Herstellers gelandet ist. Es bringt eine deutlich frischere Optik mit, „Material 3 Expressive“. Besonders beim Ladevorgang fällt die ins Auge, anstatt einer spartanischen Anzeige gibt es nun den vom Smartphone bekannten bunten Fortschrittsbalken. Auf- oder Herab-Scrollen durch Benachrichtigungen oder Menüs ist nun mit einem hübsch anzusehenden Lupeneffekt versehen. Der Stromverbrauch soll optimiert sein, Google verspricht für Pixel-Smartwatches zehn Prozent mehr Laufzeit.


Softwareversionen von One UI 8 auf Watch 5

Softwareversionen von One UI 8 auf Watch 5

Die einzelnen Softwarestände auf Samungs Galaxy Watch 5 nach Update auf One UI 8.

(Bild: heise medien)

Googles Wear OS 6 basiert wiederum auf dem aktuellen Android 16. Auch wenn das Update kurz vor Weihnachten verfügbar wurde – die Sicherheitspatches sind auf dem Stand 1. Oktober 2025.

Während dieses große Versionsupdate offenbar das letzte ist, das der Hersteller für die Reihe-4-Galaxy-Watches herausgeben wird – die erschienen immerhin im Jahr 2021, mit dem Update-Versprechen für vier Jahre –, dürften Sicherheitsupdates gegebenenfalls für ein weiteres Jahr folgen.

Weiterlesen nach der Anzeige

Ein aktuellerer Patchlevel wäre sicher wünschenswert, jedoch haben Angriffe auf Smartwatches bislang noch nicht für größeres Aufsehen gesorgt. Vielleicht ist das für Samsung Grund genug, hier nicht auf die jüngsten Sicherheitsaktualisierungen zu setzen.


(dmk)



Source link

Weiterlesen

Künstliche Intelligenz

c’t-Webinar – Wärmepumpentechnik verstehen | heise online


Wärmepumpen senken den CO₂-Ausstoß im Vergleich zu herkömmlichen Heizsystemen und dämpfen steigende Heizkosten. Damit spielen sie eine zentrale Rolle in der klimafreundlichen Wärmeversorgung. Dennoch zögern viele Hausbesitzer: Lohnt sich der Einbau auch in älteren Gebäuden? Funktionieren Wärmepumpen ohne Fußbodenheizung? Und rechtfertigen die Anschaffungskosten den Nutzen?

Weiterlesen nach der Anzeige

Im Webinar erhalten Sie eine herstellerunabhängige Einführung in die Wärmepumpentechnik. c’t-Redakteur Georg Schnurer erklärt, wie verschiedene Wärmepumpentypen arbeiten und welche Schritte nötig sind, um ihre Eignung für das eigene Haus oder die Wohnung realistisch einzuschätzen.

Die Veranstaltung richtet sich an Einsteiger ohne Vorkenntnisse. Schnurer nimmt gängige Vorurteile unter die Lupe, zeigt technische Grenzen auf und erklärt, was hinter dem Schlagwort Effizienz im Zusammenhang mit Wärmepumpen steckt. Sie erfahren außerdem, wie Wärmepumpen mit Photovoltaikanlagen zusammenspielen und welche Investitionskosten Sie grob einkalkulieren sollten.

Das Webinar ersetzt zwar keine persönliche Energieberatung, da eine fundierte Entscheidung stets eine detaillierte Gebäudeanalyse erfordert. Dennoch vermittelt das rund zweistündige Webinar Ihnen das nötige Wissen, um Angebote von Heizungsbauern besser beurteilen zu können. Im Anschluss bleibt in einer 45-minütigen Fragerunde Raum für individuelle Fragen.

Der Crashkurs findet am 29. Januar 2026 von 17:00 bis 20:00 Uhr online statt. Wer bereits jetzt bucht, sichert sich den Frühbucherpreis und zahlt nur 59,00 Euro. Ein aktueller Browser reicht für den Livestream aus. Weitere Informationen zur Veranstaltung und zur Anmeldung finden Sie auf der heise-academy-Seite zum Webinar.


(abr)



Source link

Weiterlesen

Künstliche Intelligenz

Cloud-Markt: Gartner prognostiziert Billion US-Dollar bis 2027


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Gartner sieht den weltweiten Cloud-Markt weiter im Aufwind. Bis 2027 soll er auf eine Billion US-Dollar ansteigen. Allerdings wird es massive Änderungen geben, die auf eine zunehmende KI-Nutzung zurückzuführen sind. So soll bis 2030 KI in über 90 Prozent der Cloud-Strategien integriert sein, gegenüber weniger als zehn Prozent heute.

Weiterlesen nach der Anzeige

Gartner-Analyst Milind Govekar sieht hierbei zwei Entwicklungen: „Es wird bei den Cloud-Providern zwei unterschiedliche Investitionsmodelle geben. Das eine setzt auf einen stark vertikal integrierten Stack, wie bei Google, also von der CPUs bis hin zur KI-Ebene. Der andere ist modular und partnerorientiert.“ Als Beispiel verweist er auf die Kooperation von Microsoft mit OpenAI, um eine breite Palette an KI-Funktionen abzudecken: von den GPUs und CPUs bis hin zu den KI-Features. Diese unterschiedlichen Modelle haben weitreichende Konsequenzen für die KI-Nutzung aus der Cloud. Der vertikal integrierte Technologie-Stack bietet hohe Kosteneffizienz, eine gute Leistungsoptimierung und die Kontrolle über den gesamten Technologie-Stack. Oder besser gesagt: Der Anbieter hat die Kontrolle. Der modulare, partnerorientierte Ansatz bietet dagegen mehr Flexibilität, verkürzt die Markteinführung und ermöglicht mehr Innovationen.

Govekar ging dabei der Frage nach, um welche Innovationen es sich hierbei handelt. „Im Wesentlichen sind das paketbasierte Komponenten mit branchenspezifischen Lösungen“, lautet seine Einschätzung. Folglich meint er, dass es einen deutlichen Anstieg von Cloud-Services geben wird, die in traditionelle Branchen expandieren. Hierzu verweist er auf den Banking-Service von AWS in den USA und die HealthCare-Services von Google.
Das alles basiert auf drei umfangreichen Ressourcen: Erstens, einer komplexen Kerninfrastruktur aus Netzwerk, Rechenleistung, Speicher, KI-Modellen und der entsprechenden Support-Software. Dazu gehört auch eine leistungsstarke Dateninfrastruktur, die es ermöglicht, riesige Datenmengen aus verschiedenen Bereichen zu erfassen und für Training und Inferenz zu nutzen. Zweitens, die Kompositionsmöglichkeiten mit Cloud-nativen Technologien, wie Containern, die für die Entwicklung und den Einsatz von KI-Agenten verwendet werden. Und drittens, die Fähigkeit, schnell paketbasierte Komponenten (PBCs) zu erstellen, Marktplätze und Branchen-Clouds zu schaffen und branchenspezifische Funktionen bereitzustellen, die von anderen Anbietern und Nutzern kombiniert und zu eigenen Diensten erweitert werden können.

Viele Cloud-Provider würden massiv in diese Bereiche investieren. Als Beispiel dafür sieht Govekar die Automotive-Cloud-Lösungen in Deutschland. Diese Entwicklung wird sich auch im Markt widerspiegeln: „Wir gehen davon aus, dass der Anteil branchenspezifischer KI-Systeme zur Unterstützung kritischer Geschäftsziele bis 2030 auf etwa 80 Prozent ansteigen wird – von derzeit unter zehn Prozent“, so seine Prognose. Govekar meint auch, dass diese KI-Systeme autonome Entscheidungen treffen und Aufgaben orchestrieren. Wobei sich die Skalierbarkeit der Rechenressourcen in der Cloud als äußerst nützlich erweist, da hierbei große Mengen unternehmensweiter Daten erfasst und für die autonomen Entscheidungen bereitgestellt werden müssen.

Diese Entwicklungen haben aber auch eine Reihe an Problemen – beispielsweise bei den Cloud-Kosten: „Die meisten agentenbasierten KI-Workloads werden mithilfe von Containern bereitgestellt. Ich habe oft gesehen, dass diese Container um bis zu 70 Prozent überdimensioniert sind – was viel Geld kostet“, weiß Govekar aus seinen Kundenkontakten zu berichten. Sein Fazit: „Unternehmen, die ihre zugrunde liegende KI-Computerumgebung nicht optimieren, werden bis 2030 50 Prozent mehr bezahlen als die Konkurrenz.“

Ein weiteres Problem ist der Energiebedarf für KI. Lineare Extrapolationen, die einen extremen Energiebedarf vorhersagen, gibt es viele. Doch Govekar ist skeptisch: „Die Umsätze mit traditionellen Servern verlaufen flach, wogegen sich die Umsätze von KI-optimierten Servern vervielfachen, was eine deutlich höhere Energie-Effizienz bedeutet“, so seine Einschätzung. Trotzdem geht auch er davon aus, dass sich der Energiebedarf bis 2030 mehr als verdreifachen wird. Das könnte seiner Ansicht nach zu größeren politischen Verwerfungen führen. „In den Niederlanden, Großbritannien und anderen Ländern weigern sich die Wasserversorger bereits, die Rechenzentren mit Kühlung zu versorgen. Viele Bürger in der EMEA-Region sagen: ‚Ich will dieses Rechenzentrum nicht, weil es den Strom für die Neubauten verbraucht.‘“ Das hat direkte Folgen für die Energieplanung der IT. „Bis 2030 werden die Unternehmen, denen es nicht gelingt, die zugrunde liegende KI-Rechenumgebung zu optimieren, 50 Prozent mehr bezahlen als diejenigen, die dies tun“, lautet die entsprechende Gartner-Prognose.

Weiterlesen nach der Anzeige

Ein besonders großer Unsicherheitsfaktor bei der weiteren Cloud-Entwicklung ist das Thema digitale Souveränität. Govekar bestätigt das: „Digitale Souveränität ist in Europa ein äußerst brisantes Thema, viele Unternehmen sind besorgt um ihre Datensouveränität und fragen: Wo werden meine Daten gespeichert und wer hat darauf Zugriff?“ Das sei insbesondere bei Rüstungsunternehmen zu beobachten. In vielen Fällen nutzen diese zwar die Kerninfrastruktur eines Cloud-Providers, setzen aber zusätzlich auch einen lokalen TK-Anbieter ein, über den eine souveräne Datenverwaltungsschicht implementiert wird. Häufig würde anstelle von Internet- oder WLAN-Technologie die Mobilfunktechnologie genutzt, da sie sicherer sei als das Internet. Und im Zuge des 5G-Ausbaus würde diese Kommunikation zunehmend an Bedeutung gewinnen.

Insgesamt sind sich die Gartner-Analysten uneins, wie sie mit dem Thema digitale Souveränität umgehen sollen. Während Govekar eine pragmatische Einschätzung hat, die sich vor allem auf besonders sensitive Bereiche wie die Rüstungsindustrie beschränkt, ist sein Kollege René Büst sehr skeptisch. „Bei der Cloud-Nutzung ist die geopolitische Lage eine der größten Sorgen der IT-Entscheider“ sagte er in einer Pressekonferenz. Viele CIOs und IT-Leiter wollen aufgrund der geopolitischen Situation künftig verstärkt lokale oder regionale Cloud-Anbieter nutzen. Namentlich werden hier OVH, Telekom, noris network, StackIT und Ionos genannt.

Was Deutschland betrifft, so ergab eine Gartner-Umfrage in sieben großen europäischen Ländern, dass das Thema in Deutschland nicht so hoch wie erwartet angesiedelt ist. Die Frage „Geopolitische Faktoren werden die zukünftige Nutzung lokaler/regionaler Cloud-Anbieter durch unsere Organisationen erhöhen“, wurde in UK und Frankreich zu 69 Prozent mit Ja beantwortet. Deutschland landete mit 51 Prozent nur auf Platz fünf. Auch die vielzitierte Präferenz für Open Source ist in Deutschland vergleichsweise gering. Die Frage „Geopolitische Bedenken haben Open Source zu einem wichtigeren Kriterium bei der Auswahl neuer Cloud-Lösungen gemacht“, wurde in Uk und Frankreich zu 63 Prozent mit Ja beantwortet – Deutschland lag mit 35 Prozent auf dem letzten Platz der Skala.

Auch andere Untersuchungen ergeben ein uneinheitliches Bild. IDC kommt in einer Studie zu dem Ergebnis, dass 60 Prozent der europäischen Unternehmen eher souveräne Cloud-Lösungen einsetzen wollen. Doch das bezieht sich ausschließlich auf „KI-Workloads“ – nicht auf die Cloud-Nutzung als Ganzes. Interessant ist hierzu auch eine Bitkom-Untersuchung. Darin geben 97 Prozent der befragten Unternehmen an, dass das Herkunftsland bei der Auswahl des Cloud-Anbieters eine Rolle spielt. Doch diese Zustimmungen schwinden, wenn es um die Leistung des Providers geht. Sollte die Nutzung eines lokalen Providers Einbußen bei der Responsezeit, bei der Funktionsvielfalt, beim Preis oder beim Service bewirken, so würden sich 65 Prozent nicht dafür entscheiden.

Und letztlich gibt auch ein Blick auf die Cloud-Umsätze keine verlässlichen Hinweise. Zwar steigen diese in Europa an – aber das gilt für die gesamte Welt. Wie viel von diesem Plus auf den Wechsel von US-Providern zurückzuführen ist, bleibt unklar. „Marktseitig dominieren in Europa weiterhin Hyperscaler aus den USA“, lautet die Einschätzung des eco-Verbandes. „Die EU-Anbieter halten seit Jahren einen konstanten Anteil von 15 Prozent“, so der Verband weiter.

Im engen Zusammenhang mit der Souveränität wird häufig der Trend zur Repatriierung gesehen. Wobei sich das auch auf andere Cloud-Probleme wie Kosten, proprietäre Nutzungsformen oder Antwortzeiten beziehen kann. Hierzu haben die Gartner-Analysten eine klare Meinung: „Cloud Repatriierung ist kein Makrotrend“, sagte Ted McHugh gleich zu Beginn seiner Präsentation. Seiner Ansicht nach ist das ein Marketing-Gag der On-Premises-Infrastruktur-Anbieter, der von den Medien aufgegriffen wurde und überproportional dargestellt wird.

Zwar bestätigt McHugh, dass es viele solcher Fälle gibt, doch die Gründe dafür sind kein generelles Cloud-Problem – und schon gar kein Problem der Souveränität. „Die häufigsten Gründe für eine Rückführung von Anwendungen seien ähnlich zum Edge Computing: Autonomie, Latenz, effizientes Datenmanagement oder Anwendungen, die nicht für die Cloud entwickelt wurden“, so seine Einschätzung.

Zu guter Letzt gaben die Gartner-Analysten auch ein paar Ratschläge, wie die IT-Verantwortlichen ihre Infrastruktur verbessern können: Erstens, Erstellen einer Kosten-Nutzen-Analyse der aktuellen Infrastrukturoptionen. Zweitens, Identifikation von den Bereichen, in denen Änderungen der Bereitstellungsstile und der Infrastruktur die Rendite verbessern würden. Drittens: Den Einsatz von FinOps- und Kostenoptimierungstools prüfen und Business Cases für die erforderlichen Änderungen erstellen. Viertens, alle Risiken und Kosten berücksichtigen, die im Zusammenhang mit Geolocation- und Souveränitätsanforderungen stehen. Das Ergebnis sollte ein Konzept für eine Unternehmens-optimale Infrastruktur sein, die alle Einsatzmöglichkeiten von Cloud- über Edge-Computing bis hin zu Colocation, diversen Services sowie traditionelle On-Premises-Lösungen berücksichtigt.


(fo)



Source link

Weiterlesen

Beliebt