Künstliche Intelligenz
Live-Webinar zum Apple-Gerätemanagement: MDM, ABM und neue Funktionen
Das Live-Webinar vermittelt ein solides Fundament für die Verwaltung von Apple-Geräten in Unternehmen. Machen Sie sich mit den neuesten MDM-Funktionen von Apple vertraut und erfahren Sie, welche Neuerungen für Ihre IT-Strategie relevant sind und wie Sie diese gewinnbringend einsetzen.
Weiterlesen nach der Anzeige
Das Zusammenspiel zwischen Apple Business Manager und MDM-Systemen bildet die Grundlage für eine professionelle Geräteverwaltung. Geräte registrieren, Apps verteilen und Konfigurationen zentral verwalten – diese Prozesse sparen Zeit und reduzieren den administrativen Aufwand erheblich.
Mark Zimmermann, Leiter des Kompetenzzentrums für mobile Lösungsentwicklung bei der EnBW, stellt die verschiedenen Bereitstellungsmodelle für Apple-Geräte vor. Er geht unter anderem auf das Declarative Device Management ein, auf die Herausforderungen und Chancen von Apple Intelligence, Moderne Sicherheitskonzepte, Zero Trust Architecture und Platform SSO im Kontext von Apple-Geräten. Sie verstehen, wie diese Konzepte Ihre IT-Sicherheit stärken und gleichzeitig die Nutzererfahrung verbessern.
Wenn Plattformen wie visionOS und watchOS auch in Ihrem Unternehmen an Bedeutung gewinnen, erfahren Sie, wie Sie sie in Ihre bestehende MDM-Strategie integrieren und welche Besonderheiten zu beachten sind.
Das Webinar Apple-Gerätemanagement im Unternehmen: Grundlagen, neue Funktionen und aktuelle Trends richtet sich an IT-Administratoren, System- und Netzwerkverantwortliche sowie Mobile Device Manager. Einsteiger erhalten einen strukturierten Überblick über die Grundlagen. Erfahrene Administratoren profitieren von hilfreichen Details und aktuellen Entwicklungen rund um das Apple-Ökosystem. Besondere Vorkenntnisse sind nicht erforderlich, grundlegendes technisches Verständnis ist jedoch von Vorteil.
Vierstündiges Webinar im Februar
Das vierstündige Live-Webinar findet am 24. Februar 2025 statt. Die Veranstaltung bietet ausreichend Raum für Fragen an den Referenten.
Weiterlesen nach der Anzeige
Ein Ticket kostet 169 Euro. Sichern Sie sich 10 Prozent Frühbucherrabatt, indem Sie sich bis zum 26. Januar 2026 anmelden.
Im Anschluss erhalten die Teilnehmer die Folien des Webinars sowie einen Zugang zur Aufzeichnung.
Weitere Informationen und Anmeldung: Apple-Gerätemanagement im Unternehmen: Grundlagen, neue Funktionen und aktuelle Trends
(ims)
Künstliche Intelligenz
Ein echter Roboter für 343 Euro
Wozu soll denn bitte ein Roboter für den Schreibtisch gut sein? Die Antwort darauf gibt’s im c’t-3003-Testvideo zu Reachy Mini von Hugging Face beziehungsweise Pollen Robotics.
Weiterlesen nach der Anzeige
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guckt mal hier, ich habe jetzt einen Roboter auf dem Schreibtisch stehen! Der heißt Reachy Mini, ist komplett Open Source und hat mich inklusive Versand und Steuern 343 Euro gekostet. Ja, guckt mal, Reachy erkennt mich und begrüßt mich, ich kann Radiosender mit seinen Antennen einstellen, ich steuere ihn mit meinem Finger und tanzen kann er auf jeden Fall besser als ich. Ja, was soll ich sagen: Ich weiß nicht, wann ich das letzte Mal mit einem Technik-Gadget so viel Spaß hatte.
Und ihr denkt jetzt vielleicht: Hä, testen die bei c’t 3003 jetzt Spielzeug? Also, würden wir durchaus. Aber Reachy ist meiner Meinung nach alles andere als ein Spielzeug. In diesem Video sage ich euch, warum, und ich zeige euch, was man alles damit machen kann. Bleibt dran.
Ja, Reachy Mini, meinen neuen Roboterfreund, den habe ich lustigerweise in unserem eigenen c’t-3003-Newsletter entdeckt, den ich meistens nicht mehr selbst schreibe, sondern das macht mein Kollege Jonathan. Und der ist in Sachen Robotik und KI offenbar manchmal besser informiert als ich – oder schneller auf jeden Fall. Ich habe jedenfalls vorher noch nie von dem Ding gehört und im Newsletter davon gelesen und habe ihn dann sofort bestellt. Im Juli 2025 war das. Mich hat vor allem das putzige Aussehen überzeugt, aber auch weil ich den Hersteller Pollen Robotics kenne und schätze. Das ist ein Roboterhersteller aus Frankreich, der kürzlich von Hugging Face gekauft wurde. Wenn ihr mal was mit Machine Learning oder lokaler KI gemacht habt, kennt ihr die vielleicht. Da werden zum Beispiel die ganzen KI-Modelle von den lokalen LLMs gehostet.
Naja, ich habe auf jeden Fall auch mal peinlicherweise auf einer Roboterveranstaltung in Frankreich so einen großen Reachy-2-Roboter von Pollen vielleicht so ein bisschen kaputt gemacht. War aber wirklich ein Versehen, aber vermutlich war das der Grund, warum die auf meine Anfrage nach dem Testmuster nicht geantwortet haben. Naja, ich habe den Reachy Mini dann also ganz normal bezahlt und ganz normal gekauft und das Ding kam jetzt an in einem ziemlich kleinen, aber dafür umso schwereren Paket. Und da wusste ich auf jeden Fall noch nicht, was da auf mich zukommt, was das Ding so alles kann. Hat mich echt positiv überrascht, da komme ich gleich aber noch zu.
Was man auf jeden Fall vorher sagen muss: Man kann den nur als Bausatz kaufen. Tatsächlich ist das auch nicht einfach nur ein paar vorbereitete Module zusammenstecken, sondern das sind zum großen Teil wirklich Standardbauteile. Dass da in dem Handbuch drinsteht, dass der Aufbau drei Stunden braucht, das hat mir tatsächlich erst ein bisschen Angst gemacht. Aber ganz ehrlich, am Ende hat das richtig, richtig Spaß gemacht. Also wenn ich so überlege, hätte ich direkt noch mal Lust, so ein Ding zusammenzubauen. Also ich kam mir auf jeden Fall – also ich als jemand, der nicht wirklich viel Erfahrung mit Elektronikbasteleien hat – sehr clever vor.
Weiterlesen nach der Anzeige
Und das Handbuch, wow, also für so ein kleines Serien-Gadget extrem gut gemacht und auch schön, dass es das nicht nur als PDF gibt, sondern richtig gedruckt im Karton. Ich wusste immer genau, was zu tun war. Es wurden auch oft häufige Fehler direkt proaktiv angemerkt bei den Arbeitsschritten, also dass man direkt weiß, da müsste man besonders aufpassen. Man bekommt direkt beim Aufbauen ein richtig gutes Gefühl dafür, wie Roboter funktionieren. Und ich habe auch direkt was Neues gelernt, nämlich was eine Stewart-Plattform ist, also was eigentlich heute Hexapod heißt, mit sechs Motoren, die sich jeweils immer nur in eine Richtung bewegen können. Und ja, damit wird Reachys Kopf bewegt.
So, also jedenfalls alles fertig gebaut und was jetzt? Ja, ich habe die Lite-Version gekauft. Die braucht zwingend einen per USB angeschlossenen Computer. Es gibt auch noch eine Wireless-Variante mit Raspi 4 und Akku an Bord, aber die kostet 150 Euro mehr. Weil das Ding eh stationär ist, dachte ich mir, ich habe eh in jedem Raum einen Computer stehen, ist egal. Auf jeden Fall Rechner dran. Dann habe ich mir die Desktop-Steuerung runtergeladen. Die braucht man nicht, kann man auch direkt alles über das SDK machen. Aber so ist es viel komfortabler. Das Ding heißt auf jeden Fall Reachy Mini Control, gibt es für Linux, macOS und Windows. Und ja, ich muss sagen, hat mich wirklich direkt beeindruckt, weil das Teil wirklich sehr poliert aussah. Es hat so eine richtig schöne Science-Fiction-mäßige Startanimation. Und dann laufen da die ganzen Motor-Checkups durch. Und dann kann man auch direkt so Apps starten. 13 Stück gibt es offiziell vom Hersteller, also heute. Aber wenn man hier den Haken bei „Official“ wegnimmt, dann sind es – also während ich das Video aufnehme – 69 und es werden wirklich täglich mehr zurzeit.
Aber jetzt mal ganz kurz, ganz stumpf technisch: Was kann der physisch, der Reachy? Also der Reihe nach. Er kann sehen. Konkret ist da eine Raspberry Pi Camera V3 eingebaut mit 12 Megapixeln Auflösung. Er kann hören mit dem 4er-Mikrofon-Array. Er kann sprechen oder singen mit dem 5-Watt-Soundsystem. Und bewegungsmäßig kann er auf der Stelle rotieren. Er kann seinen Kopf über diesen erwähnten Hexapod in alle Richtungen bewegen und er kann die beiden Antennen unabhängig voneinander bewegen. Die Software kennt tatsächlich immer die Position aller Motoren. Eigentlich sind das Aktoren, also Smart-Aktoren, konkret Dynamixel-Servomotoren. Und man kann hier in der Desktop-Software auch ganz schön sehen, wenn ich da dran rumdrücke und den Roboter bewege, dann verändert sich das Rendering hier in Echtzeit. Also die Software weiß immer, wo sie sich befindet. Und das Coole ist, dass man die Motoren auch weich schalten kann, also dass die nachgeben sozusagen. Und dann lässt sich damit so etwas wie Motion Capturing machen. Ich kann Reachy Mini so marionettenmäßig Bewegungsabläufe beibringen. Auch übrigens mit Ton. Ich kann dabei auch Sachen sagen.
Und das Spannende dabei: Alleine die Dynamixel-Servos, die dabei liegen, würden auf dem freien Markt schon 450 Euro kosten. Also über 100 Euro mehr, als ich für das ganze Paket bezahlt habe. Und wenn man sich die Motoren auf freiem Markt kauft, dann ist da natürlich noch kein Gehäuse dabei, keine Kamera, keine Mikrofone. Also das ist tatsächlich preislich ein wirklich, wirklich gutes Angebot und auch wirklich sehr knapp kalkuliert, muss das sein. Womöglich sogar von Hugging Face subventioniert. Und die sind ja wegen des völlig von der Realität abgekoppelten KI-Booms ganz gut mit Risikokapital finanziert. Also wer weiß.
So, aber jetzt natürlich die wichtigste Stelle des Videos, auf die ihr alle hinfiebert: Was kann das Ding Sinnvolles? Wozu ist das überhaupt gut? Und meine Antwort ist: Für nichts. Nein, das stimmt natürlich nicht. Nee, je nachdem. Ich finde es total sinnvoll, aber es kann erstmal nichts Sinnvolles. Denn es geht darum, dass ihr und ich lernen können, wie man für Roboter entwickelt und wie man Roboter programmiert. Und da das Ding sehr viel mitbringt, was echte, große Roboter auch mitbringen, würde ich das so einschätzen, dass sich das wirklich auch extrem gut übertragen lässt. Pollen hat ja mit Reachy 2 auch einen großen Roboter mit Armen im Programm und für den lässt sich nahezu genau auf die gleiche Weise entwickeln wie Reachy Mini. Die nutzen auch beide das genau gleiche SDK.
Und jetzt sagt ihr vielleicht: SDK, was ist das eigentlich und kompliziert und Softwareentwicklung? Ich kann auch nicht wirklich gut programmieren, aber wir haben 2026, No-Code ist das Ding und ich habe da auch überhaupt keine Sicherheitsbedenken bei so einem Roboter, der bei mir einfach am Schreibtisch steht. Und ich habe es dann einfach mal ausprobiert mit Claude Code, das habe ich benutzt, und habe gesagt, hey, ich möchte aus Reachy gerne Grüßy machen, den Grüßroboter. Das heißt, er soll irgendwo am Eingang stehen, also weiß ich nicht, im Büro zum Beispiel, und dann unterschiedliche Menschen erkennen und je nach Tageszeit mit Namen begrüßen. Und ganz wichtig, das soll alles lokal passieren. Ich habe kein Interesse daran, dass das Ding die ganze Zeit ein Video streamt, irgendwie so um AI schickt mit allen Leuten, die da bei mir vorbeikommen. Vor allem wäre das auch teuer, so über deren API, aber da sage ich gleich noch konkret was zu.
Ja, und dann habe ich Claude Code einfach einen Link auf die Reachy-Dokumentation gegeben und dann hat er sich das reingezogen und dann hat er losgelegt. Und ja, was soll ich sagen, das hat erstaunlich gut funktioniert. Ich werfe da ein paar Bilder der Leute drauf und wenn die jetzt in den Raum kommen, begrüßt Reachy die mit Namen und das funktioniert alles lokal. „Guten Abend, Kino.“ Also, ist ein bisschen zeitverzögert, das ist ja in dem Fall gar nicht mal so problematisch.
Ich habe auch so eine Konversations-Laber-App, Vibe, gekodet, die auch lokal läuft, wo dann erst das, was ich sage, über Whisper transkribiert wird, dann an ein lokales LLM geschickt wird und dann die Antwort aus dem Reachy-Lautsprecher über die Sprachsynthese-Bibliothek Piper ausgegeben wird. Ah, boah, das ist super langsam. Man muss auch manuell mit so einem Aufnahmeknopf im Browser-Frontend da rumfummeln und naja, ist nicht so richtig cool.
Hey, kannst du was Cooles sagen auf Englisch? „Hallo, ich bin Reachy Mini, ein kleiner expressiver Roboter von Pollen Robotics. Teuer ein Spinett Osage in Englisch. Hello World!“ Die offizielle Konversations-App zapft einfach die OpenAI API an, also die sogenannte Real-Time API, und ja, das funktioniert viel besser. „Yo Reachy, altes Haus, kannst du bitte nur plattdeutsch mit mir reden?“ Klar, ich snack nur platt mit dir. Was gibt das für dich? Kannst du wohl ein bisschen tanzen? Aber das Ding hat in meinen ungefähr 20 Minuten Nutzung über 5 Euro Kosten angesammelt. Also das lag auch daran, weil das Reachy-Kamerabild auch übertragen und ausgewertet wurde. Kannst du sehen, was ich mache? „Jo, nun kann ich mitkicken. Wenn du was zeigen willst, kannst du das ruhig machen.“ Also finanziell würde ich sagen, ist das auf Dauer nicht so richtig nachhaltig. Obwohl es tatsächlich erstaunlich gut funktioniert. Also auch das GPT-5 über dieses MCP-Protokoll, da haben wir ja schon mal ein Video drüber gemacht, wo die Roboterbewegung steuern kann. Man kann also einfach so locker sagen: „Hö, bewegt doch mal den Kopf nach links.“ Und zack, macht er das. „Bewegt den Kopf nach links.“
Was ich auf jeden Fall sehr interessant fand: Alle verfügbaren OpenAI-Stimmen passten null zu so einem kleinen süßen Roboter. Hört mal. Da konnte ich auf jeden Fall mit meiner lokalen Variante und mit Piper deutlich überzeugendere Ergebnisse hinkriegen, finde ich.
Es gibt aber außer so „ich will mit meinem Roboter reden“ auch wirklich etliche andere kreative Anwendungen, die ohne Cloud-KI auskommen. Zum Beispiel hier Reachy Mini Radio, wo man mit der Antenne unterschiedliche Webradiosender auswählen kann. Richtig cool ist auch die riesige mitgelieferte Emotionsbibliothek. Die kann man sich hier zum Beispiel mit der Emotions-App angucken und hat dann hier in so Kreisen und da kann man dann so unterschiedliche Emotionen auswählen. Und ich finde das wirklich ganz überzeugend und natürlich ganz wichtig: Tanzen.
Die Software-Plattform, das muss man auch ganz deutlich sagen, die ist noch sehr frisch. Also heute zum Beispiel ist die Kontrollsoftware dreimal geupdatet worden und hat zwischendurch auch einfach mal gar nicht funktioniert, was natürlich blöd ist, wenn man da gerade dran rumbastelt an dem Roboter. Also alles wirklich sehr, sehr Work in Progress, muss man bedenken. Aber auch ganz klar ist: Reachy gehört für mich zu den ausdrucksstärksten Robotern, die ich bislang gesehen habe. Da kann man richtig mit Persönlichkeit arbeiten.
Was man aber auch noch sagen muss: Reachy kann halt natürlich nicht woanders hingehen. Da sind keine Beine oder Räder dran. Und obwohl er Reachy heißt, kann er nichts „reachen“, also nix greifen. Aber ey, tut mir einen Gefallen, kommt mir jetzt bitte nicht mit diesem für mich absoluten Anti-Wort „Spielerei“. Denn das ist keine Spielerei, denn ich weiß nicht, wie ich auf andere Weise so viel in so kurzer Zeit über die ganz konkrete Nutzung und Entwicklung von modernen Robotern hätte lernen können. Ja, und auch über Bilderkennung zum Beispiel. Dafür muss man natürlich ein Interesse haben, ist klar. Oder halt eine konkrete Anwendung, die man mit Reachy umsetzen will. Ist das beides nicht vorhanden, dann braucht man Reachy natürlich nicht. Und also als reines Deko-Objekt sind 343 Euro natürlich auch viel zu viel.
Interessiert ihr euch aber für Roboter und sind beim Gucken dieses Videos bei euch direkt tausend Ideen rausgesprudelt, was man mit dem lustigen Gesellen alles anstellen kann, dann kann ich euch Reachy Mini wirklich doll ans Herz legen. Ich habe auch das Gefühl, dass die Community da gerade sehr aktiv wird und da gerade sehr viele interessante Sachen entstehen. Also ich bleib da auf jeden Fall dran. Schreibt mir gerne in die Kommentare, was ihr damit machen würdet. Interessiert mich wirklich sehr. Ich werde da sicherlich auch noch etwas mehr in unserem Podcast c’t 4004 drüber reden. Wenn euch das interessiert, gern reinhören. Tschüss.
c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(jkj)
Künstliche Intelligenz
„Hytale“ angespielt: Das bessere „Minecraft“?
Es schien eine unendliche Geschichte zu werden: 2018 zuerst angekündigt, durchlief „Hytale“ alle Höhen und Tiefen: zunächst von Riot Games gekauft, dann wieder abgestoßen und nun endlich im Early Access, aber noch nicht mal auf Steam, sondern auf eigenen Servern. Die Hypixel Studios wollen mit ihrem „Minecraft“-Konkurrenten hoch hinaus. Bis jetzt bieten sie vor allem grundsoliden Klötzchenspaß, dem man die Erfahrung der Macher aus der Modding-Community von „Minecraft“ ansieht.
Weiterlesen nach der Anzeige
Vorsicht, Verwechslungsgefahr!
Es ist wie immer: aufwachen und erst einmal alles kurz und klein hauen. Visuell könnte es eine minimal detailliertere Spielwelt aus „Minecraft“ sein, und das Spielprinzip ist gleich. Wie im großen Vorbild müssen die Spieler Rohstoffe sammeln, Werkzeuge erstellen und Baupläne freischalten, um noch bessere Ausrüstung und Werkzeuge zu bekommen. Ein paar Zombies oder Monster stören das Bauidyll, aber mit ein paar simplen Waffen wie einem Schwert oder Bogen sind diese schnell Geschichte.

heise medien
)
Wir laufen in den Anspielstunden durch eine grüne Landschaft, durchsuchen unter der Erde finstere Dungeons und schalten über ein Portal einen idyllischen Tempelhain frei. Obwohl es hier auch einige Tore zu anderen Gebieten gibt, sind die noch „Under construction“. Im Norden warten eisige Gebirgsketten auf uns, im Süden eine Wüstenlandschaft, und wenn wir über das Meer schwimmen, landen wir auf einer Lava-Insel mit besonders fiesen Gegnern.
Zugänglicher Klötzchenbau
Wer sich an die ersten Versionen von „Minecraft“ erinnert, weiß noch, wie mühsam sich die Spieler erst einzelne Spielelemente wie eine Werkbank erschließen mussten und wie lange es bis zu einer ersten funktionstüchtigen Ausrüstung dauerte. Das ist in „Hytale“ anders. Hier können die Spieler sich bereits von Anfang an mit wenigen Rohstoffen eine Axt bauen oder Ruinen abholzen, um sogar an fertige Gebäudeteile zu kommen. Hypixel hat alles etwas zugänglicher gemacht, was zu schnellen Erfolgserlebnissen führt.
Die Unterschiede zum Vorbild verstecken sich im Detail. Unsere Spielfigur ist agiler und kann sich an Wänden hochziehen; bei Bäumen reicht es schon, wenn wir nur den niedrigsten Block abholzen, um den ganzen Baum zu fällen. Es gibt sogar ein Kampfsystem mit Blocken oder Angriffs-Aufladen. Actionreiche Duelle sollten die Spieler aber nicht erwarten – bis jetzt sind nur einfache Aktionen gegen Feinde wie Zombies, Spinnen oder Bären möglich. Von den Dinosauriern, von denen im ersten großen Update nach der Veröffentlichung die Rede ist, haben wir in unseren Anspielstunden keinen getroffen. Dennoch – es ist mehr los als zu den Anfängen von „Minecraft“.
Weiterlesen nach der Anzeige
Lesen Sie auch
Große Pläne
Abseits davon wirkt es wie eine „Minecraft“-Mod mit Quality-of-Life-Verbesserungen. Die Spieler können stundenlang Rohstoffe sammeln, um sich Häuser zu bauen, die sie mit Werkbänken oder Schmieden ausstatten. Das sieht ähnlich aus und spielt sich auch so wie „Minecraft“, nur etwas temporeicher. Der einzigartige Mix aus Sammeln und Bauen sorgt auch in „Hytale“ für motivierenden Spielspaß, ohne dass den Entwicklern bahnbrechende neue Ideen einfallen.
Gemessen am Stand der Entwicklung ist das auch nicht weiter schlimm. Die aktuelle Version von „Hytale“ dient vor allem zum Kennenlernen. Die Pläne von Entwicklungsstudio Hypixel sind ambitioniert. Im fertigen Spiel soll es Überlebens- und Abenteuer-Modi geben. Mit Story-Quests könnte das Spiel eine Art Open-World-RPG werden, und der Kreativ-Modus bietet die Möglichkeit, eigene Minispiele zu erstellen.
All das deutet auf eine lange Entwicklungsphase hin. Was „Hytale“ momentan fehlt, sind markante Alleinstellungsmerkmale, um sich von „Minecraft“ abzusetzen. Der Rest ist ein großes Versprechen.
Zwischenfazit
„Hytale“ ist ein Rohdiamant, in dem die Erfahrung der Macher aus ihrer Minecraft-Mod-Vergangenheit eingeflossen ist. Neben sinnvollen Verbesserungen und einem zugänglicheren Spielprinzip bietet das Spiel mehrere Regionen mit unterschiedlich schweren Gegnern. Erste Bauten gelingen schneller als im Original und senken gerade für Spieler, denen Minecraft zu zeitaufwendig war, die Einstiegshürden.
Abseits dieser Quality-of-Life-Verbesserungen geben sich die Macher aber wenig Mühe, um sich visuell und spielerisch vom Original abzusetzen. Bis jetzt können die Spieler nur erahnen, wo die ambitionierte Reise von „Hytale“ hingeht.
„Hytale“ ist für Windows erschienen. Die Basis-Version kostet ca. 20 Euro. USK nicht geprüft.
(dahe)
Künstliche Intelligenz
KI-Update Deep-Dive: Wo stehen wir in Deutschland?
Von der Nische zum Hype
Weiterlesen nach der Anzeige
Schon im zehnten Jahr veranstaltet Fabian Westerheide mit seiner Frau zusammen die Rise of AI. Ein Branchentreffen für KI-Experten. Zu Beginn trafen sich ein paar wenige KI-Enthusiasten, wie Westerheide erklärt. Visionäre wie er, die schon damals an das enorme Umwälzungspotenzial von KI glaubten. Inzwischen kommen die Gäste und Speaker von großen Unternehmen – aus der Industrie und von KI-Unternehmen, aus der Forschung und natürlich auch Startups.

So ist Westerheide auch Gründungspartner des KI-fokussierten Venture-Capital-Investors AI.Fund. Seit 2014 investiert er in KI-Unternehmen und kennt die Startup-Szene in Deutschland daher auch besonders gut.
Nicht abgehängt, aber auch kein Vorreiter
Startups gibt es in Deutschland eine Menge, aber natürlich nicht genug, findet Westerheide. Die Bedingungen in Deutschland sind bekanntlich nicht ideal. Dennoch ist er kein Schwarzmaler. Kluge Köpfe, gute Ausbildung sind in Deutschland und der EU vorhanden. Es mangelt zum Teil am Kapital. Ob man sich mit seinen Ideen hierzulande selbstständig macht oder den Schritt in das „Haifischbecken Silicon Valley“ wagt, sei eine Typsache. Es käme auch auf die Lebensumstände an.
Westerheide empfiehlt eher zu schauen, wo es Nischen gibt, wo es Sinn ergibt, sich mit seiner Idee niederzulassen. Wo sind Kapital und Gleichgesinnte, wo ist Bedarf.

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Mut auf allen Ebenen
Weiterlesen nach der Anzeige
Gefordert sind aber nicht nur die Startups in Deutschland. Der Experte meint, alle Unternehmen müssten sich gut überlegen, was sie wollen – und manchmal auch mutiger sein. Es sei nicht immer sinnvoll, auf die großen US-Unternehmen zu setzen. Das Problem: Diese seien oft günstiger und verbreiteter als andere Lösungen. Doch es gebe genug Möglichkeiten, sich auch nach EU-Lösungen umzuschauen. Wenn das zunächst unbequemer ist, so kann es auf Dauer aber auch zielführender sein.
(emw)
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Künstliche Intelligenzvor 3 WochenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Entwicklung & Codevor 1 MonatKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGoogle „Broadwing“: 400-MW-Gaskraftwerk speichert CO₂ tief unter der Erde
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
