Apps & Mobile Entwicklung
Intel-Studie: Wie stark verlagern sich AI-Berechnungen auf lokale PCs?
Wenn heute von AI-Tools die Rede ist, geht es in erster Linie um Cloud-Dienste wie ChatGPT. Immer mehr Anwendungen sollen künftig aber lokal laufen. Entscheider in Unternehmen begrüßen und fördern diesen Trend, wie eine aktuelle Studie von Intel zeigt. Das passt aber auch zur Wette des kriselnden Chip-Riesen.
Intels CEO Lip-Bu Tan verkündete erst Anfang Juli gegenüber Mitarbeitern, dass man kein Top-10-Konzern mehr im Halbleiterbereich sei. Einer der Gründe ist der Rückstand bei den AI-Beschleunigern für das KI-Training. Nvidias Übermacht sei erdrückend, die Lage in dieser Sparte aussichtslos. Eine Alternative ist jedoch Edge-AI – also lokale Lösungen auf PCs, Notebooks und weiteren Geräten, die KI-Anwendungen direkt auf dem Gerät und nicht in der Cloud berechnen.
Hoffnungen und Erwartungen an AI-PCs
Dass für solche AI-PCs ein Markt besteht, bestätigt sich Intel nun mit einer aktuellen Studie. Kern der Untersuchung ist eine weltweite Umfrage unter 5.050 Business- und IT-Verantwortlichen aus Unternehmen mit Sitz in folgenden Ländern durchgeführt: Brasilien, Kanada, Deutschland, Indien, Indonesien, Irland, Israel, Italien, Japan, Saudi-Arabien, Malaysia, Mexiko, Polen, Singapur, Südafrika, Südkorea, Spanien, Taiwan, Thailand, Vereinigte Arabische Emirate, Vereinigtes Königreich, USA und Vietnam.
Die zentrale Erkenntnis: Die große Mehrheit der Entscheider sind mit dem Konzept vertraut, weltweit sind es 86 Prozent, speziell in Deutschland 83 Prozent. Verbunden ist die Einführung, die bei 87 Prozent der Unternehmen läuft, mit hohen Erwartungen. 90 Prozent und mehr versprechen sich eine gesteigerte Produktivität, innovative Neuerungen sowie ein besseres Kundenverständnis.
AI PCs haben vor allem den Zweck, KI-Anwendungen zu beschleunigen, die lokal laufen. Das biete etwa Vorteile bei der Datensicherheit und verschafft den Unternehmen mehr Kontrolle, zusätzlich bestehe Kompatibilität zu den bisherigen Betriebssystemen und Programmen. Anwendungen, die man nutzen möchte, sind hingegen die regulären AI-Dienste. Bei der Präsentation nennt Intel folgende Punkte:
- Zusammenfassungen von Meetings und Transkriptionen
- Unterstützung bei Video-Schnitt
- Software-Entwicklung
- Übersetzungen sowie Echtzeit-Übersetzungen
Die Studie nennt die Suche als den am häufigsten genannten Einsatzzweck. 73 Prozent der Befragten sagen, dass KI-Dienste die Suche nach Daten, Dokumenten und Informationen beschleunige. 72 Prozent nennen Echtzeit-Übersetzungen als Anwendung, bei 71 Prozent ist es das Generieren und überarbeiten von Texten.
Sicherheitsbedenken und Anpassungen
Was den Einstieg in die KI-Dienste begleitet, sind Sicherheitsbedenken. Die existieren bei Cloud-Tools wie ChatGPT, gelten aber auch für lokale Dienste. Fast die Hälfte der Befragten in der Intel-Studie hat Angst vor Datenlecks. In Japan ist der Anteil mit 68 Prozent am höchsten, in Deutschland und Thailand mit 37 Prozent am niedrigsten.
Insbesondere die Datensicherheit ist aber etwas, das Intel als Vorteil der AI-PCs beschreibt. Werden die Daten lokal verarbeitet, gelangen keine womöglich sensiblen Informationen in die Cloud. Weitere Bedenken betreffen schädliche AI-Software und manipulierte Modelle – also im Kern klassische IT-Angriffe, die über die neuen KI-Dienste laufen.
Sorgen haben die Befragten zudem angesichts der Ausgaben für die Einführung der AI-PCs (32 Prozent global, 38 Prozent in Deutschland) sowie der Kosten für das Training der Mitarbeiter (28 Prozent global, 38 Prozent in Deutschland). Wenn neue Dienste kommen, sind Schulungen nötig. Befürchtet wird zudem ein Produktivitätsverlust von gut einem Viertel der Befragten. Der globale Wert ist bei dieser Frage jedoch auffallend höher als der Wert in Deutschland.
Schulungen sind am Ende auch das, was Unternehmen als größte Hürde bewerten, die AI-PCs bereits im Einsatz haben. Der Anteil liegt bei 34 Prozent in der Umfrage. Sicherheitsbedenken verlieren in der Praxis an Relevanz (23 Prozent), ein Drittel berichtet von keinerlei Schwierigkeiten bei der Einführung.
Was ist ein AI-PC von Intel
Damit ein Gerät den Status des AI-PCs erfüllt, benötigt es entsprechend von Intels Definition lediglich eine NPU. Das Zusammenspiel der Neural Processing Unit mit der CPU und GPU sei das wichtigste.
Bis auf Intels Core-100-Modelle erfüllen damit alle Prozessoren aus Intels neuen CPU-Architekturen diesen Anspruch. Anzumerken ist aber: Ein AI-PC von Intel ist nicht unbedingt ein Copilot+ PC. Um Microsofts Anforderungen für einen AI-PC zu erfüllen, ist eine NPU nötig, die mindestens 40 TOPS liefert. Das schafft bei Intel der Core Ultra 200V (Lunar Lake), auf Arrow Lake basierende CPUs reichen hingegen nicht aus, da die NPUs jeweils nur 13 TOPS bieten.
Hoffnung auf lokale KI-Lösungen
Was sich aber an der Übersicht zeigt: Wenn lediglich eine NPU integriert sein muss, wird der AI-PC auf absehbare Zeit ohnehin zum Standard. Die für Intel entscheidende Frage dürfte eher sein, ob Unternehmen diese tatsächlich als Plattform wählen, um lokal KI-Dienste berechnen zu lassen. Microsoft forciert dieses Konzept bislang mit den Copilot+ PCs. Dass diese einen nennenswerten Eindruck im Markt hinterlassen haben, lässt sich bislang aber nicht sagen.
Klar ist: Bislang ist das Geschäft mit den AI-Diensten von der Cloud bestimmt. OpenAI und ChatGPT sind der Platzhirsch, dort laufen die Berechnungen in der Cloud und sollen es auch künftig, wie etwa das Infrastrukturprojekt Stargate zeigt. Selbst bei Microsoft dominiert im Rahmen des Microsoft-365-Ökosystems das Cloud-Geschäft.
Intel erklärt aber während der Präsentation der Studie, schon heute würden Anwendungen wie etwa Videokonferenz-Tools hybrid laufen und von der neuen AI-Hardware profitieren. Und künftig soll sich dieser Trend noch verstärken. Agenten-Lösungen sind in diesem Kontext etwas, von dem Intel-CEO Lip-Bu Tan bereits sprach.
Im Kern lautet Intels Wette also: Je mehr KI-Dienste zum Einsatz kommen, desto mehr wollen Unternehmen auf lokale Lösungen setzen – allein schon, um die Kontrolle über ihre Daten zu behalten. Und dann bietet sich ein Geschäftsmodell für AI-Beschleuniger, das abseits von Nvidias Vormachtstellung läuft. Konkurrent ist dann vor allem wieder AMD.