Connect with us

Künstliche Intelligenz

Microsoft kündigt erste eigene KI-Modelle an


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Microsofts KI-Abteilung hat am Donnerstag ihre ersten selbst entwickelten KI-Modelle vorgestellt: MAI-Voice-1 AI und MAI-1-Preview. Laut dem US-Unternehmen soll das neue Sprachmodell MAI-Voice-1 mit nur einer GPU in weniger als einer Sekunde eine Minute Audio generieren können. Das Modell MAI-1-Preview soll derweil „einen Einblick in zukünftige Angebote innerhalb von Copilot“ bieten.

Der Softwarekonzern beschreibt MAI-Voice-1 als sein erstes „ausdrucksstarkes und natürliches Sprachgenerierungsmodell“. Es werde bereits in der Funktion „Copilot Daily“ und Podcasts eingesetzt. Microsoft betrachtet die Stimme als „die Schnittstelle der Zukunft für KI-Begleiter“; das KI-Modell MAI-Voice-1 liefere in Szenarien mit einem als auch mit mehreren Sprechern „hochauflösende, ausdrucksstarke Audioqualität“, so das Unternehmen.

Interessierte können das Sprachmodell in Copilot-Labs ausprobieren. Hier können Nutzer eingeben, was die KI sagen soll. Zudem können sie sowohl die Stimme als auch den Sprachstil ändern.

Das zweite KI-Modell MAI-1-Preview steht derweil zum öffentlichen Testen auf der Plattform LMArena bereit. LM Arena ist eine öffentliche, webbasierte Plattform, die große Sprachmodelle (LLMs) durch anonyme, crowdgesourcte paarweise Vergleiche bewertet. MAI-1-Preview ist laut Microsoft das erste „End-to-End-trainierte Basismodell von MAI“, das eigenen Angaben zufolge auf rund 15.000 Nvidia H100-GPUs trainiert wurde. Microsoft sagt, das Modell wurde für Nutzer entwickelt, die ein KI-Modell benötigen, das Anweisungen befolgen und „hilfreiche Antworten auf alltägliche Fragen geben kann“.

Microsoft AI plant die Einführung von MAI-1-Preview für bestimmte Textanwendungsfälle in seinem Copilot-KI-Assistenten. Dieser basiert derzeit auf den großen Sprachmodellen von OpenAI.

„Wir haben große Ambitionen für die Zukunft“, schreibt Microsoft AI in seinem Blogbeitrag. „Wir werden nicht nur weitere Fortschritte in diesem Bereich anstreben, sondern sind auch davon überzeugt, dass die Koordinierung einer Reihe spezialisierter Modelle für unterschiedliche Nutzerabsichten und Anwendungsfälle einen immensen Mehrwert schaffen wird.“

Die milliardenschwere Partnerschaft zwischen Microsoft und OpenAI ist kompliziert, um es vereinfacht auszudrücken. Denn OpenAI will seine Unternehmensstruktur von einem Non-Profit in ein gewinnorientiertes Unternehmen umwandeln und eigenständiger werden. Durch diese Umstrukturierungen und die damit einhergehenden Veränderungen der Beteiligung von Microsoft an OpenAI soll es Streit geben. Insgesamt hat Microsoft etwa 13 Milliarden US-Dollar in OpenAI investiert – die Frage ist, wie viele Unternehmensanteile sie dafür bei einer Umwandlung bekämen.

Zudem näher OpenAI sich an Softbank an, die zusammen am „Projekt Stargate“ arbeiten. Außerdem denkt OpenAI über den Verzicht von Serverkapazitäten von Microsoft nach. Überdies gehe es auch darum, dass Microsoft nicht auf das geistige Eigentum von OpenAI nach Belieben zugreifen können soll. Mit den ersten eigenen KI-Modellen sieht Microsoft offenbar allmählich zu, sich weniger abhängig von OpenAI zu machen. Der Vertrag zwischen den beiden Unternehmen läuft offiziell 2030 aus.


(afl)



Source link

Künstliche Intelligenz

KI und Data Science im Unternehmen – von Rohdaten zu verwertbaren Erkenntnissen


Viele Unternehmen verfügen über einen immensen Datenschatz zu eigenen Produkten, Userinnen und Usern, internen Arbeitsabläufen und mehr. Lange Zeit galt als Maxime, so viele Daten wie möglich zu sammeln, irgendwann könnten sie schließlich hilfreich werden. Diese Datensammlungen sind aber derart umfangreich, dass eine händische Analyse außerordentlich zeitintensiv wäre. Künstliche Intelligenz kann hier helfen, Muster erkennen und Rohdaten vorstrukturieren, um daraus Strategien abzuleiten. Unser Classroom KI und Data Science im Unternehmen – von Rohdaten zu verwertbaren Erkenntnissen, vermittelt praxisnah Datenquellen zu erschließen und von den ersten Analysen bis zur überzeugenden Datenstory zu gelangen.

Weiterlesen nach der Anzeige

In fünf aufeinander aufbauenden Sessions lernen Teilnehmende die Fähigkeiten, um Daten strategisch zu nutzen und datengetriebene Entscheidungen im Unternehmen zu etablieren. Unser Experte etabliert dafür zunächst die notwendigen KI-Grundlagen. Darauf aufbauend widmet er sich etablierten Frameworks, etwa dem ACHIEVE-Framework und der Impact-vs-Effort-Matrix, um Use Cases systematisch zu bewerten und priorisieren. Im Folgenden lernen Teilnehmende alles Notwendige über Datenerfassung und -aufbereitung. Damit identifizieren sie strukturierte und unstrukturierte Datenquellen, führen explorative Datenanalysen (EDA) durch und wenden Techniken zur Datenbereinigung an. Dabei behandelt unser Experte auch ethische Aspekte der Datenanalyse und zeigt auf, wie man darin Bias erkennt und vermeidet.

Im weiteren Verlauf des Classrooms lernen Teilnehmende die praktische Anwendung von Python und Jupyter Notebooks, um traditionelle Analysemethoden und modernen KI-Tools zu kombinieren und so Arbeitsprozesse erheblich zu beschleunigen. Unser Experte widmet sich zudem der Visualisierung von Analyseergebnissen. Dabei erklärt er, wann statische oder interaktive Darstellungen sinnvoll sind und wie man komplexe Daten verständlich präsentiert.

Abschließend steht das Storytelling mit Daten im Fokus, um eine überzeugende Datenstory für verschiedene Zielgruppen zu entwickeln, einen strukturierten Kommunikationsplan zu erstellen und eine fokussierte Mini-Datenstrategie für einen konkreten Use Case zu entwerfen. Mit diesem Wissen sind Teilnehmende dazu in der Lage, nachhaltige und datengetriebene Initiativen im Unternehmen zu etablieren. Die Termine der Sessions sind:

  • 12.11.25: Künstliche Intelligenz strategisch nutzen – vom Buzzword zum konkreten Use Case
  • 19.11.25: Explorative Datenanalyse (EDA) – Datenquellen identifizieren und Datenqualität sichern
  • 26.11.25: Datenanalyse mit Python – Jupyter Notebooks, Pandas und ChatGPT als Analyse-Werkzeuge
  • 03.12.25: Datenvisualisierung mit Python und Tableau – von der Analyse zum aussagekräftigen Dashboard
  • 10.12.25: Datenanalyse erfolgreich kommunizieren – zielgruppenorientierte Präsentation und Strategieplanung

Die Sessions haben eine Laufzeit von jeweils vier Stunden und finden von 9 bis 13 Uhr statt. Alle Teilnehmenden können sich nicht nur auf viel Praxis und Interaktion freuen, sondern haben auch die Möglichkeit, das Gelernte mit allen Aufzeichnungen und Materialien im Nachgang zu wiederholen und zu vertiefen. Fragen werden direkt im Live-Chat beantwortet und Teilnehmer können sich ebenfalls untereinander zum Thema austauschen. Der nachträgliche Zugang zu den Videos und Übungsmaterialien ist inklusive. Weitere Informationen und Tickets finden Interessierte auf der Website des Classrooms.

Weiterlesen nach der Anzeige

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.


(cbo)



Source link

Weiterlesen

Künstliche Intelligenz

Apples Dienstechef: Deshalb wurde TV+ entplusst


Hinter Apples eher verwirrenden Umbenennung des Videostreamingdienstes in Apple TV steckt keine tiefere Strategie. Das räumt der mächtige Dienstechef des Konzerns, Eddy Cue, in einem Podcast-Interview ein. In der jüngsten „The Town“-Ausgabe, einer Show, die Apple-Music-Konkurrent Spotify bezahlt und die sich um die wirtschaftlichen Aspekte Hollywoods dreht, sagte der Manager, man habe „einfach so“ entschieden, aus Apple TV+ schlicht Apple TV zu machen.

Weiterlesen nach der Anzeige

Intern hätten „alle“ Apple TV+ bereits nur Apple TV genannt. „Und dann haben wir gesagt, angesichts der Position, in der wir heute sind: Es ist eine prima Zeit, das jetzt zu tun.“ Cue glaubt zudem nicht, dass es zu Verwechslungen mit dem Hardware-Produkt Apple TV kommen wird. „Unsere Hardware heißt Apple TV 4K für Ihren Fernseher. Ich denke, das ist gut so und die App heißt Apple TV.“ Apple TV werde sie auch in Third-Party-Geräten – etwa Fernsehern und Streamingboxen – genannt, „also denke ich nicht, dass das überhaupt ein Problem ist“.

Dass die Apple-TV-App allerdings nicht nur Zugriff auf Apples eigenen Streamingdienst gibt, sondern auch andere Angebote von Dritten umfasst, erwähnte Cue nicht. Doch seiner Ansicht nach handelt Apple nun konsistent. Man habe das „+“ bisher verwendet, weil auch andere kostenpflichtige Dienste wie iCloud+ und News+ im Angebot sind. „Aber bei denen haben wir einen kostenlosen Dienst und dann eine Bezahlversion.“

Cue geht auch davon aus, dass die Identität von Apple TV als Streamingdienst nun allgemein etabliert ist. Auch Kunden lassen seiner Ansicht nach das Plus weg. Nun muss allerdings noch Apple selbst tätig werden: Auf der Website wurde noch nicht an allen Stellen angepasst.

Dass die Apple-TV-Hardware nun umbenannt wird – aktuell wird auf neue Modelle des Streamingkästchens gewartet – ist laut Cues Aussagen unwahrscheinlich, der Konzern dürfte nun aber das „4K“ stärker herausstellen. Interessanterweise lässt das die Kundschaft normalerweise weg, spricht bei der Multimediabox schlicht von „Apple TV“. Und genau das ist ja nun der Streamingdienst. Die Verwirrung dürfte also durchaus noch etwas weitergehen. Das ist für Apple allerdings nicht völlig unnormal: Ein zentrales Beispiel wäre eine Benennung wie die des MacBook Pro M4 Pro.

Weiterlesen nach der Anzeige


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

Mikroelektronik-Strategie: Deutschland strebt nach Chip-Dominanz


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die schwarz-rote Bundesregierung hat sich eine neue Strategie zur Mikroelektronik gegeben. Nach dem Debakel um die gescheiterte Intel-Ansiedlung in Magdeburg und die Umverteilung eingeplanter Chipmilliarden in andere Bereiche will die Bundesregierung Deutschlands Rolle als Chipstandort verbessern.

Weiterlesen nach der Anzeige

Das Bundeskabinett verabschiedete daher eine Mikroelektronik-Strategie, die nach den großen, aber zum Großteil unerfüllt gebliebenen Plänen der Ampel vergleichsweise klein wirkt und sich auf Schlüsselbereiche konzentriert. Bundesforschungsministerin Dorothee Bär (CSU) sagte: „Wir wollen Deutschland zum europäischen Zentrum für Chipdesign machen und gezielt den Transfer von der Wissenschaft in die Wirtschaft stärken.“ Die Bundeswirtschaftsministerin Katherina Reiche (CDU) sieht als Ziel, „dass Deutschland nicht nur Anwender, sondern auch Entwickler und Hersteller bleibt“.

Als Maßnahmen sieht die Strategie vor allem eine Stärkung der Chipdesign-Tätigkeiten vor, außerdem soll der Transfer aus der Halbleiter- und Mikroelektronikforschung hin zur Fertigung beschleunigt werden. So sollen etwa Pilotproduktionslinien für Quanten-Chips aufgebaut werden. Neben einer besseren Fachkräftegewinnung und anderen altbekannten Zielbeschreibungen hat die Bundesregierung vor allem die Finanzierungsseite der kapitalintensiven Branche im Blick: Hier sollen Vereinfachungen stattfinden, um etwa private Kapitalgeber zu Investitionen zu bewegen. Kleine Unternehmen sollen einfacher staatlich gestützte Finanzierungen in Anspruch nehmen können.

Passend dazu veröffentlichte der Branchenverband Bitkom eine Umfrage, laut der 92 Prozent der Unternehmen die Gefahr einer Eskalation zwischen der Volksrepublik China und Taiwans mit Sorgen sehen würden. Taiwan spielt eine wesentliche Rolle im globalen Chip-Ökosystem. Die Ausdifferenzierung der Chipmärkte sieht die Bundesregierung dabei als Chance. Der Bedarf solle möglichst aus EU-Produktion gedeckt werden, heißt es in dem Papier: „Einen entscheidenden Beitrag leisten Maßnahmen, die sich auf Schlüsselpositionen in der globalen Halbleiterwertschöpfung (vom Chipdesign bis zur Fertigung) konzentrieren und Abhängigkeiten in wichtigen Sektoren (Automobil, Kommunikation, Digitalisierung, Medizintechnik, KI, Verteidigung) verringern.“

Deutschland gehört dabei zu den EU-Staaten, die zuletzt öffentlich Abstand vom bisherigen und von Fachleuten von vornherein als unrealistisch eingeschätzten EU-Ziel „20 Prozent Marktanteil 2030“ genommen haben, wie es im European Chips Act hinterlegt war. Das zentrale rechtliche Förderinstrument für die Förderung von Chipfabriken und Halbleiter-Ökosystem soll 2026 überarbeitet werden – die Mikroelektronikstrategie der Bundesregierung nimmt hier die Prioritäten Berlins vorweg.


(dahe)



Source link

Weiterlesen

Beliebt