Connect with us

Künstliche Intelligenz

Mikroelektronik-Strategie: Deutschland strebt nach Chip-Dominanz


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die schwarz-rote Bundesregierung hat sich eine neue Strategie zur Mikroelektronik gegeben. Nach dem Debakel um die gescheiterte Intel-Ansiedlung in Magdeburg und die Umverteilung eingeplanter Chipmilliarden in andere Bereiche will die Bundesregierung Deutschlands Rolle als Chipstandort verbessern.

Weiterlesen nach der Anzeige

Das Bundeskabinett verabschiedete daher eine Mikroelektronik-Strategie, die nach den großen, aber zum Großteil unerfüllt gebliebenen Plänen der Ampel vergleichsweise klein wirkt und sich auf Schlüsselbereiche konzentriert. Bundesforschungsministerin Dorothee Bär (CSU) sagte: „Wir wollen Deutschland zum europäischen Zentrum für Chipdesign machen und gezielt den Transfer von der Wissenschaft in die Wirtschaft stärken.“ Die Bundeswirtschaftsministerin Katherina Reiche (CDU) sieht als Ziel, „dass Deutschland nicht nur Anwender, sondern auch Entwickler und Hersteller bleibt“.

Als Maßnahmen sieht die Strategie vor allem eine Stärkung der Chipdesign-Tätigkeiten vor, außerdem soll der Transfer aus der Halbleiter- und Mikroelektronikforschung hin zur Fertigung beschleunigt werden. So sollen etwa Pilotproduktionslinien für Quanten-Chips aufgebaut werden. Neben einer besseren Fachkräftegewinnung und anderen altbekannten Zielbeschreibungen hat die Bundesregierung vor allem die Finanzierungsseite der kapitalintensiven Branche im Blick: Hier sollen Vereinfachungen stattfinden, um etwa private Kapitalgeber zu Investitionen zu bewegen. Kleine Unternehmen sollen einfacher staatlich gestützte Finanzierungen in Anspruch nehmen können.

Passend dazu veröffentlichte der Branchenverband Bitkom eine Umfrage, laut der 92 Prozent der Unternehmen die Gefahr einer Eskalation zwischen der Volksrepublik China und Taiwans mit Sorgen sehen würden. Taiwan spielt eine wesentliche Rolle im globalen Chip-Ökosystem. Die Ausdifferenzierung der Chipmärkte sieht die Bundesregierung dabei als Chance. Der Bedarf solle möglichst aus EU-Produktion gedeckt werden, heißt es in dem Papier: „Einen entscheidenden Beitrag leisten Maßnahmen, die sich auf Schlüsselpositionen in der globalen Halbleiterwertschöpfung (vom Chipdesign bis zur Fertigung) konzentrieren und Abhängigkeiten in wichtigen Sektoren (Automobil, Kommunikation, Digitalisierung, Medizintechnik, KI, Verteidigung) verringern.“

Deutschland gehört dabei zu den EU-Staaten, die zuletzt öffentlich Abstand vom bisherigen und von Fachleuten von vornherein als unrealistisch eingeschätzten EU-Ziel „20 Prozent Marktanteil 2030“ genommen haben, wie es im European Chips Act hinterlegt war. Das zentrale rechtliche Förderinstrument für die Förderung von Chipfabriken und Halbleiter-Ökosystem soll 2026 überarbeitet werden – die Mikroelektronikstrategie der Bundesregierung nimmt hier die Prioritäten Berlins vorweg.


(dahe)



Source link

Künstliche Intelligenz

Apple Fitness+ künftig mit synchronisierten Tonspuren in Deutsch und Spanisch


Apple will seinen Dienst Fitness+ durch synchronisierte Tonspuren attraktiver für Nutzer in nicht-englischsprachigen Ländern machen. Bislang gibt es zwar schon Untertitel, wer sich während eines Trainings anfeuern lassen möchte und nur zuhören kann, muss jedoch der englischen Sprache mächtig sein. Der iPhone-Hersteller kündigte an, dass der Fitness- und Wellness-Service ab Montag, 15. Dezember, eine Synchronisation in Deutsch und Spanisch anbietet. Außerdem wird die Verfügbarkeit von Fitness+ auf zusätzliche Länder erweitert.

Weiterlesen nach der Anzeige

Bei der Synchronisation der englischsprachigen Anleitungen setzt Apple auf Künstliche Intelligenz. Die Übersetzung erfolge mit digital synchronisierten Sprachen, heißt es in der Medienmitteilung. Es sei die größte Erweiterung des Services seit seiner Einführung vor fünf Jahren. Nach Deutschland kam der Dienst im Jahr 2021. Für den Start der Übersetzungen seien bereits Hunderte von Fitness+-Trainings und Meditationen mit einer computergenerierten Stimme auf Deutsch und Spanisch digital synchronisiert worden, wobei jede Woche weitere synchronisierte Episoden hinzukommen sollen.

Die synchronisierten Trainings und Meditationen verfügen laut Apple über eine computergenerierte Stimme, die auf den Stimmen der 28 Fitness+-Trainer basiert. Die Trainings und Meditationen bieten zusätzlich auch Untertitel. Anfang nächsten Jahres folgt Japanisch als weitere übersetzte Sprache.

Nutzer können die Audiosprache auswählen, nachdem sie ein synchronisiertes Training oder eine Meditation gestartet haben. Wenn man in den Einstellungen der Fitness App Deutsch, Japanisch oder Spanisch auswählt, wird die Episode automatisch in dieser Sprache abgespielt, sofern eine synchronisierte Version verfügbar ist. Für das Abrufen der Synchronisation sind iOS 26.1, iPadOS 26.1 oder tvOS 26.1 nötig.

Weiterlesen nach der Anzeige

Apple Fitness+ ist als Abonnement für 9,99 Euro pro Monat oder 79,99 Euro pro Jahr verfügbar. Aktuell ist der Dienst in Australien, Brasilien, Deutschland, Frankreich, Großbritannien, Indonesien, Irland, Italien, Kanada, Kolumbien, Malaysia, Mexiko, Neuseeland, Österreich, Portugal, Russland, Saudi-Arabien, der Schweiz, Spanien, den USA und den Vereinigten Arabischen Emiraten verfügbar. Ab dem 15. Dezember kommen Chile, Hongkong, Indien, die Niederlande, Norwegen, die Philippinen, Polen, Schweden, Singapur, Taiwan, Vietnam und 17 weitere Länder und Regionen hinzu.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

Anthropic-Philosophin erklärt: So schreiben sie wirklich gute Prompts


Gute Kommunikation ist der Schlüssel zu guten Ergebnissen – das gilt auch im Umgang mit KI-Tools. Amanda Askell, die als Philosophin und KI-Forscherin bei Anthropic tätig ist, hat im „Ask Me Anything“-Podcast des Unternehmens ihren Ansatz für effektives KI-Prompting vorgestellt. Sie sagt, dass ein ausgewogenes Verhältnis zwischen mehreren Faktoren erforderlich sei. Ein Grundpfeiler bestehe beispielsweise darin, Ideen klar und präzise zu kommunizieren.

Weiterlesen nach der Anzeige

Askell hat an der New York University zu „Unendlicher Ethik“ promoviert. Zuvor hatte sie ihr Philosophiestudium an der University of Oxford abgeschlossen. Seit 2021 ist sie bei Anthropic tätig, wo sie sich mit der Entwicklung und Bewertung von KI-Systemen, insbesondere großen Sprachmodellen, befasst. Sie leitet ein Team, das Modelle so trainiert, dass sie ehrlicher werden und positive Charaktereigenschaften entwickeln. Zuvor war sie knapp zweieinhalb Jahre als Forscherin bei OpenAI tätig, wo sie sich vor allem mit dem Thema KI-Sicherheit befasste. In Anthropics Podcast hat sie jetzt versucht, ihren Denkprozess zu erklären, den sie beim Erstellen guter Prompts anwendet.

„Es ist wirklich schwer, das Wesentliche auf den Punkt zu bringen, denn es geht zum einen darum, bereit zu sein, viel mit den Modellen zu interagieren und sich wirklich jedes einzelne Ergebnis anzuschauen“, sagte sie. Um einen guten Prompt zu erstellen, müsse man experimentierfreudig sein. Aber das Prompting ginge noch weit über einfaches Experimentieren hinaus. „Hier denke ich tatsächlich, dass Philosophie in gewisser Weise für das Prompting nützlich sein kann, denn ein Großteil meiner Arbeit besteht darin, dem Modell bestimmte Probleme, Bedenken oder Gedanken so klar wie möglich zu erklären.“

Der Fokus auf klare Kommunikation sei nicht nur wichtig, um Menschen dabei zu helfen, ihre eigenen Prompts zu verfeinern – sondern auch, um die KI selbst besser zu verstehen. In einer „Prompt Engineering Overview“, die Anthropic im Juli veröffentlichte, erklärte das Unternehmen, dass Nutzer KI-Tools wie neue Mitarbeiter behandeln sollten, die klare Anweisungen benötigen. Da Claude kein Wissen über die internen Richtlinien und bevorzugten Arbeitsweisen hat, muss ihm genau erklärt werden, wie er seine Aufgaben ausführen soll, um gute Ergebnisse erzielen zu können.

Die Arbeit von Askell zeigt: Der Beruf des Prompt Engineerings ist noch lange nicht ausgestorben. Mit der Veröffentlichung von ChatGPT und dem dadurch ausgelösten KI-Hype wurden Prompt Engineers innerhalb kürzester Zeit zu gefragten Fachkräften, die nicht selten ein sechsstelliges Gehalt verdienten. Zwar ist der Bedarf inzwischen zurückgegangen, trotzdem haben Experten in diesem Bereich noch immer nicht an Relevanz verloren. Zwar ist die Nutzung großer Sprachmodelle deutlich einfacher geworden, aber die Empfehlungen der Anthropic-Philosophin legen nahe, dass nicht jeder Prompt zum gewünschten Ergebnis führt. Damit Claude und Co. ihr Potenzial entfalten können, braucht es vor allem präzise formulierte Anweisungen.

Weiterlesen nach der Anzeige

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Weiterlesen

Künstliche Intelligenz

DGX Spark: Nvidias Desktop-KI-Computer im Test


Um es direkt vorwegzunehmen: Der DGX Spark ist kein No-Brainer. Als Nvidia das Gerät als „Supercomputer auf dem Schreibtisch“ vorstellte, suggerierte das eine kompakte, universell einsetzbare KI-Workstation. Doch wer hohe Inferenzleistung oder ein System für das Training großer Sprachmodelle sucht, wird mit dem Spark nicht glücklich. Die ersten praxisnahen Messungen zeichnen ein klares Bild: Für Anwender, die primär GPU-Leistung benötigen, führt an klassischen Workstations mit dedizierten Karten wie der RTX Pro 6000 Blackwell mit 96 GByte kein Weg vorbei.

Der Spark verfolgt ein neues Konzept und scheitert gerade deshalb in vielen traditionellen Disziplinen. Die entscheidende Limitierung liegt nicht in der Rechenleistung des GB10-GPU-Chips, sondern in der geringen Speicherbandbreite des verbauten LPDDR5X-Speichers. Das macht ihn in klassischen Inferenz- oder Trainings-Workloads unweigerlich zum Memory-bound-System – die Speichergeschwindigkeit wird hier zum Engpass.

  • Der DGX Spark ist keine universelle KI-Workstation, sondern besetzt eine Nische für energieeffiziente 24/7-Batchprozesse und Aufgaben mit großen Eingaben und kleinen Ausgaben wie RAG-Pipelines, Dokumentenanalyse und Klassifikationsaufgaben.
  • Die Hauptlimitierung liegt in der geringen Speicherbandbreite (273 GByte/s LPDDR5X), nicht in der Rechenleistung des GB10-Chips.
  • Mit 128 GByte Unified Memory kann der DGX Spark Modelle vollständig im Speicher halten, die bisher zu groß für Desktop-GPUs sind, zum Beispiel GPT-OSS-120B, Falcon 180B und diverse 70B-Modelle.
  • Der eigentliche Mehrwert liegt im ausgereiften CUDA-Ökosystem mit nahtloser Übertragbarkeit auf größere DGX-Systeme.


Danny Gerst

Danny Gerst

Danny Gerst bringt 30 Jahre Erfahrung in der Softwareentwicklung mit. Als Strategieberater und Visionär für den Mittelstand ist er auf das Automatisieren von Prozessen mit und ohne KI spezialisiert.

Statt eine universelle KI-Workstation zu sein, besetzt der DGX Spark eine eng umrissene, technisch interessante Nische. Das Gerät eignet sich für energieeffiziente 24/7-Batchprozesse, reproduzierbare CUDA-Umgebungen vor Ort oder Aufgaben mit großen Eingaben und kleinen Ausgaben wie in RAG-Pipelines, der Dokumentenanalyse oder bei Klassifikationsaufgaben.


Das war die Leseprobe unseres heise-Plus-Artikels „DGX Spark: Nvidias Desktop-KI-Computer im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt