Künstliche Intelligenz
Die ersten 30-TByte-Festplatten sind verfügbar
Die ersten Festplatten mit einer Kapazität von 30 TByte sind bei deutschen Händlern verfügbar. Seagate bietet sie in zwei Varianten an: einmal als Exos M 30TB (ab 586,88 €) und einmal als Ironwolf Pro 30TB (ab 641,83 €). Beide Varianten setzen auf die gleiche Technik und werden bloß unterschiedlich vermarktet.
Die Exos M ist primär für Server gedacht und die Ironwolf Pro für Netzwerkspeicher (NAS). Beide Modelle können Interessierte aber auch etwa in Desktop-PCs einbauen. Und spätestens mit einer Herstellerzertifizierung spricht auch nichts gegen eine Servervariante in einem NAS. Die Ironwolf Pro enthält lediglich einen Datenrettungsdienst für drei Jahre, womit Seagate den etwas höheren Preis rechtfertigt. Wir haben beide Festplatten kürzlich getestet.
Preis pro TByte bleibt im Rahmen
Insbesondere im Falle der Exos M 30TB ist der Preis erfreulich. Obwohl sie modernes Heat Assisted Magnetic Recording (HAMR) verwendet, verlangt Seagate keinen exorbitanten Aufpreis. Die veranschlagten 590 Euro entsprechen knapp 20 Euro pro TByte Kapazität. Die Ironwolf Pro kostet gut 21 Euro pro TByte.
Zum Vergleich: Das beste Preis-Leistungs-Verhältnis aus Euro pro TByte bieten derzeit Festplatten mit 16 bis 24 TByte. Sie kosten zwischen 13,43 Euro/TByte (Seagate Barracuda 24TB (ab 312,65 €)) und 14,74 Euro/TByte (Seagate Barracuda 16TB (ab 235,77 €)), wiederaufbereitete Modelle ausgeschlossen. Toshiba und Western Digital verlangen etwas mehr.
Mini-Laser ermöglicht höhere Speicherdichte
Beim Heat Assisted Magnetic Recording heizt ein Mini-Laser in jedem Kopf die Plattenoberfläche kurz vor dem Beschreiben auf über 420 °C auf. Dadurch kann Seagate mit einem kompakteren Schreibkopf kleinere Punkte magnetisieren. In Folge steigt die Datendichte, was die 30 TByte verteilt auf zehn Scheiben innerhalb eines 3,5-Zoll-Gehäuses ermöglicht. Seagate setzt hier auf konventionelle Beschreibung der Daten auf den Scheiben (Conventional Magnetic Recording, CMR), ohne überlappende Datenspuren.
Alternativ zu den 30-TByte-Modellen bietet Seagate Varianten mit 28 TByte und der gleichen HAMR-Technik an. Zumindest derzeit sind diese preislich im Vergleich zu den 30er-HDDs aber nicht attraktiv. Die Exos M 28TB (ab 791,50 €) ist aktuell noch überteuert und die Ironwolf Pro 28TB (ab 613,89 €) kaum günstiger als die 30er.
(mma)
Künstliche Intelligenz
KYAML: Kubernetes 1.34 bekommt neues Datenformat
Version 1.34 des Container-Orchestrators Kubernetes ist erschienen. Die am heißesten diskutierte Neuerung trägt den Namen KYAML, eine Wortneuschöpfung aus Kubernetes und YAML.
KYAML ist ein neuer Dialekt des Datenformats YAML, in dem Kubernetes-Objekte üblicherweise beschrieben werden. KYAML soll Probleme mit YAML abstellen, ohne komplett bei null anzufangen. Weniger Fehler bei vollständiger Abwärtskompatibilität, so das Ziel.
In klassischem YAML nutzt man Einrückungen, um die Ebenen verschachtelter Objekte zu kennzeichnen, und der Standard verzichtet zugunsten einfacher Lesbarkeit auf verpflichtende Anführungszeichen rund um Strings – mit teils unerwarteten Folgen. Eine solche Folge ist als Norway-Bug in die Geschichte eingegangen: Eine Webentwicklungsfirma musste mit einer abgestürzten Anwendung kämpfen, nachdem sie auf den norwegischen Markt expandiert war.
Das war die Leseprobe unseres heise-Plus-Artikels „KYAML: Kubernetes 1.34 bekommt neues Datenformat“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
KI-Update DeepDive: DeepLs Erfolgsrezept gegen KI-Giganten
Der fokussierte Mittelweg
Der Übersetzungsdienst DeepL ist für viele Nutzer seit Jahren ein fester Bestandteil des digitalen Alltags, lange bevor generative KI durch ChatGPT in den Fokus rückte. Das Kölner Unternehmen hat sich dabei eine eigene Nische im Wettbewerb mit den großen Technologiekonzernen erarbeitet. Stefan Mesken, Chief Scientist bei DeepL, erläutert die Strategie des Unternehmens.
Während einige Firmen KI-Produkte auf bestehender Technologie anderer Anbieter aufbauen und andere wie OpenAI „mit Einsatz aller erdenklichen Ressourcen versuchen, die Technologie so schnell und so breit wie möglich voranzupuschen“, wählt DeepL einen Mittelweg, sagt Mesken. „Es erlaubt uns, mit einem Bruchteil des Einsatzes von Ressourcen, klassenbeste Resultate zu erzielen – allerdings spezialisiert auf die tatsächlichen Anwendungen, die wir uns auf die Fahnen schreiben.“
Dieser Ansatz bedeutet, nicht nach einer allgemeinen künstlichen Intelligenz (AGI) zu streben, sondern sich auf die spezifischen Bedürfnisse der Nutzer zu konzentrieren. „Das Ziel von DeepL ist nicht unbedingt eine AGI, nein“, bestätigt Mesken. Vielmehr gehe es darum, Produkte zu entwickeln, die ein konkretes Problem lösen. Und ganz offenbar kann man damit auch sehr gut als KI-Unternehmen aus Deutschland bestehen.
Vertikal integriert und nah am Nutzer
Ein wesentlicher Faktor für den Erfolg von DeepL ist laut Mesken die Verzahnung von Forschung und Produktentwicklung sowie die Kontrolle über die eigene Technologie. „Wir sind tatsächlich vertikal integriert. Das heißt, von den Daten über die Modelle bis zur Produktentwicklung findet alles bei DeepL statt“, erklärt der Chefwissenschaftler. Die Modelle, die in den Produkten wie dem Übersetzer oder dem Schreibassistenten DeepL Write zum Einsatz kommen, seien reine Eigenentwicklungen.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Mehr als 1000 Personen arbeiten inzwischen weltweit bei DeepL, 400 davon etwa in der Forschung. „Wir wollen die besten Köpfe der Welt an Problemen arbeiten lassen, die für unsere Nutzer heute, in einem Jahr und in fünf Jahren den größten möglichen Unterschied machen“, sagt Mesken. Freilich sei die Konkurrenz groß, KI-Experten sind derzeit enorm gefragt. Intern geht es dann immer wieder um die Frage, sind es die kleinen Stellschrauben, an denen man arbeitet oder soll es „der ganz große Wurf sein, für den man ein Prozedere komplett über den Haufen werfen muss“. Die Entscheidung dazu falle unentwegt, immer mit Blick darauf, welches Problem gelöst werden soll.
Feinheiten der Sprache statt starrer Regeln
„Der Versuch, die Welt in Regeln zu fassen, wurde oft unternommen und ist ausnahmslos gescheitert“, stellt Mesken fest. Aktuelle KI-Modelle lernen deshalb anders. Bei DeepL geht es auch nicht darum, Sprache einfach zu übersetzen. Es geht auch um menschliche Vorlieben in einem bestimmten Kontext. „Bevorzugen Menschen die eine Art, etwas zu übersetzen, oder die andere Art? Sollten wir eher mit kurzen, sehr prägnanten Sätzen arbeiten? Ist das Ganze eher etwas ausgeschmückt und indirekter?“
Diese Feinheiten zu verstehen und für den Nutzer steuerbar zu machen, sei eine der großen Herausforderungen. Der Entwicklungsprozess sei dabei nie vollständig planbar. „Am Ende des Tages baut man das beste Modell, das man mit dem Wissen, das man zu dem Zeitpunkt hat, bauen kann, bringt es an möglichst viele Nutzer, sammelt Feedback ein, sowohl intern als auch extern, um herauszufinden, was gut funktioniert und was nicht funktioniert und leitet daraus dann die Forschungsagenda für die nächste Iteration ab.“
Als nächste große Aufgabe sieht Mesken die Übersetzung von gesprochener Sprache. Hier gebe es noch viele Hürden, etwa die Echtzeit-Verarbeitung und die Tatsache, dass man einen einmal begonnenen Satz nicht einfach editieren kann. Gesprochene Sprache sei etwas völlig anderes, als niedergeschriebene Sprache. Sein persönliches Ziel sei es, eine Technologie mitzugestalten, die es ihm ermöglicht, überall in der Welt einfach auf lokalen Märkten mit den Händlern sprechen und sogar verhandeln zu können. Ein Ziel, von dem er glaubt, es erreichen zu können.
(emw)
Künstliche Intelligenz
Tag des offenen Rechenzentrums am 7. November 2025
Unter der seltsamen Abkürzung TdoRZ rief die German Datacenter Association (GDA) 2023 erstmals den Tag des offenen Rechenzentrums aus. 2024 öffneten bereits 26 Rechenzentren in 16 deutschen Städten ihre Türen für Besucher.
Welche Rechenzentren in diesem Jahr dabei sein werden, ist noch nicht bekannt. Wer hinter die Kulissen blicken möchte, sollte sich aber Freitag, 7. November vormerken und in den kommenden Wochen häufiger auf der Website TdoRZ.de vorbeischauen.
2024 waren gleich 11 Rechenzentren am oder beim wichtigsten deutschen Standort Frankfurt dabei, außerdem welche in Berlin, Hamburg, München, Hannover, Augsburg, Mannheim, Heidelberg und Saarwellingen.
Der Eintritt ist zwar kostenlos, allerdings müssen die begrenzten Teilnehmerplätze vorher gebucht werden. Einige Rechenzentren haben hohe Sicherheitsauflagen und verlangen daher eine Registrierung mit Namen und Adresse sowie die Vorlage des Personalausweises.
(ciw)
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 3 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Social Mediavor 3 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 1 Woche
Adobe Firefly Boards › PAGE online
-
Entwicklung & Codevor 2 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 4 Tagen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events