Connect with us

Künstliche Intelligenz

KI-Coding-Tools im Vergleich – GitHub Copilot, Cursor, Claude Code und mehr


KI-Coding-Tools verändern die Softwareentwicklung gravierend. Unser Classroom KI Coding-Tools im Vergleich – GitHub Copilot, Cursor, Claude Code und Open-Source-Alternativen demonstriert in fünf praxisorientierten Sessions die wichtigsten Tools – von GitHub Copilot über Cursor bis zu Open-Source-Lösungen. Anhand vieler Live-Demos und konkreter Codebeispiele lernen Teilnehmende unterschiedliche Ansätze und Workflows kennen. Dabei erfahren sie, welche Werkzeuge für welche Aufgaben geeignet sind und wie man sie optimal in deine Entwicklungsprozesse integriert.

Weiterlesen nach der Anzeige

Unser Experte Rainer Stropek liefert einen fundierten, praxisorientierten Überblick über den aktuellen Stand der Technik bei KI-Unterstützung für die Softwareentwicklung. Er beleuchtet verschiedene Ansätze, etwa IDE-Integrationen, Terminal-Tools, Weboberflächen, spezifikationsgetriebenes Arbeiten sowie „Vibe Coding“. Ein besonderer Fokus liegt darauf, wie man diese Werkzeuge sinnvoll in bestehende Entwicklungsprozesse integriert.

Abseits der Werkzeuge stehen konkrete Arbeitsweisen im Mittelpunkt: Wie formuliert man gute Prompts für komplexe Codeaufgaben? Wie nutzt man das Model Context Protocol (MCP), um Projektkontext, Dokumentation und externe Systeme einzubinden? Wie unterscheiden sich Agenten-basierte Ansätze von klassischen „Autocomplete“-Funktionen? Die Sessions verzichten weitgehend auf Folien und setzen stattdessen auf Live-Coding, sodass die Praxis im Vordergrund steht. Dabei nehmen Teilnehmende viele direkt anwendbare Tipps für den produktiven Einsatz von KI beim Entwickeln mit.

Unser Classroom vermittelt praxisnahes Expertenwissen für Entwickler, die KI-Assistenten gewinnbringend in ihren Workflow integrieren möchten. Alle Beispiele basieren auf TypeScript, lassen sich jedoch leicht auf andere Sprachen übertragen. Die Termine sind:

  • 28.01.26: Stand der Technik bei KI-Coding-Tools – Kategorien, Funktionsweise und Workflows
  • 04.02.26: GitHub Copilot in der Praxis
  • 11.02.26: Cursor als spezialisierte KI-Entwicklungsumgebung mit Coding Agents und Background Automation
  • 18.02.26: Claude Code und OpenAI Codex im Vergleich
  • 24.02.26: Open-Source-Tools für KI-gestützte Softwareentwicklung – KiloCode und lokale LLMs in der Praxis

Die Sessions haben eine Laufzeit von jeweils vier Stunden und finden von 9 bis 13 Uhr statt. Alle Teilnehmenden können sich nicht nur auf viel Praxis und Interaktion freuen, sondern haben auch die Möglichkeit, das Gelernte mit allen Aufzeichnungen und Materialien im Nachgang zu wiederholen und zu vertiefen. Fragen werden direkt im Live-Chat beantwortet und Teilnehmende können sich ebenfalls untereinander zum Thema austauschen. Der nachträgliche Zugang zu den Videos und Übungsmaterialien ist inklusive.

Weiterlesen nach der Anzeige

Weitere Informationen und Tickets finden Interessierte auf der Website des Classrooms.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.


(cbo)



Source link

Künstliche Intelligenz

Elektrostimulation gegen VR-Übelkeit: Stimbox sagt Motion Sickness den Kampf an


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das französische Start-up Neural Balance Innovation, kurz „NBI“, will mit einem kleinen Gerät namens „Stimbox“ das Risiko von auftretender Übelkeit in Virtual Reality verringern und gleichzeitig das Gefühl von Bewegung verstärken. Die Technologie basiert auf galvanischer Vestibularstimulation (GVS), also gezielten elektrischen Impulsen auf das Gleichgewichtsorgan im Innenohr.

Weiterlesen nach der Anzeige

„Stimbox“ besteht aus einer kleinen Steuereinheit und zwei bis drei Elektroden, die hinter den Ohren angebracht werden. Die elektrische Stimulation soll entweder den Gleichgewichtssinn bewusst stören, sodass das Gehirn ihn nicht mehr als zuverlässige Quelle einstuft und sich rein auf visuelle Signale verlässt, oder mit der virtuellen Bewegung synchronisiert werden, um die Illusion physischer Fortbewegung zu erzeugen. Beides kann helfen, den sogenannten „Motion Sickness“-Effekt in VR zu reduzieren.



Clarice da Costa Corrêa ist an der Entwicklung der „Stimbox“ beteiligt und stellte das Gerät auf der diesjährigen XR-Messe „UnitedXR Europe“ in Brüssel vor.

(Bild: Christian Steiner)

Laut Clarice da Costa Corrêa, Ingenieurin und Doktorandin bei NBI, wird der Effekt deutlich spürbar, sobald das System individuell auf die nutzende Person kalibriert ist. Dieser Prozess erfolgt über eine App und dauert rund 20 Minuten. Dabei wird getestet, wie das Innenohr, die Wirbelsäule und beide Körperseiten auf die Impulse reagieren. So können individuelle Schwellenwerte bestimmt werden: Unterhalb einer gewissen Reizintensität kann die Übelkeit sogar schlimmer werden, oberhalb davon setzt der gewünschte positive Effekt ein.

Neben der akuten Anwendung untersucht NBI auch mögliche Langzeitwirkungen. In ersten internen Studien soll eine tägliche Anwendung über zehn Tage hinweg das Gleichgewicht von Testpersonen auch außerhalb der VR verbessert haben. Die Hoffnung sei, dass sich durch regelmäßige Nutzung auch die Toleranz gegenüber Bewegung in VR dauerhaft erhöhen lasse.

Lesen Sie auch

NBI sucht derzeit noch nach Partnern in der Industrie, um die Integration der Technik in bestehende VR-Hardware voranzutreiben. Zudem erschweren medizinische Zulassungsverfahren den Einsatz bei Menschen mit bestehenden Gleichgewichtsstörungen, auch wenn erste Tests in diese Richtung laut Corrêa bereits vielversprechend verlaufen sein sollen.

Weiterlesen nach der Anzeige

Die „Stimbox“ ist für Unternehmen und Forschungseinrichtungen bereits als kabelloses Gerät erhältlich, das sich per Bluetooth, WLAN oder USB mit VR-Headsets verbinden lässt. Die aktuelle Version nutzt Elektroden, was eine gewisse Vorsicht beim Anlegen erfordert. Eine neue Variante mit elektromagnetischer Stimulation soll künftig ohne direkten Hautkontakt auskommen und damit auch für ein breiteres Publikum geeignet sein.

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.


(joe)



Source link

Weiterlesen

Künstliche Intelligenz

Windows: Microsoft will SSD-Performance massiv verbessern


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

High-End-SSDs mit PCI-Express-Anbindung sollen unter Windows deutlich schneller werden, gleichzeitig verspricht Microsoft eine starke Entlastung des Prozessors. Grund ist eine überfällige Modernisierung, wie Microsofts Betriebssysteme mit Lese- und Schreibbefehlen an Datenträger umgehen. Bisher beherrschte Windows das weitverbreitete Protokoll Non-Volatile Memory Express (NVMe) offenbar nur eingeschränkt. NVMe baut auf der physischen PCI-Express-Schnittstelle auf, die die meisten modernen SSDs für M.2-Steckplätze verwenden.

Weiterlesen nach der Anzeige

Microsoft hat zwar einen herstellerunabhängigen NVMe-Treiber, allerdings übersetzt Windows NVMe-Befehle bislang ins Small Computer System Interface (SCSI). Darüber schreibt Microsoft in einem Blog-Beitrag. SCSI entstand ursprünglich in den 80er-Jahren und stellte selbst zu SATA-Zeiten keinen großen Flaschenhals dar. Erst die massive Parallelisierung von Zugriffen auf PCIe-SSDs hing SCSI ab.

Windows Server 2025 ist Microsofts erstes Betriebssystem, das nativen NVMe-Support erhält. In der aktuellen Version können Interessierte die Änderung über einen Powershell-Befehl in der Registry aktivieren:

reg add HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Policies\Microsoft\FeatureManagement\Overrides /v 1176759950 /t REG_DWORD /d 1 /f

Nach erfolgreicher Umstellung und einem Neustart tauchen NVMe-SSDs im Geräte-Manager nicht mehr unter Laufwerke auf, sondern unter Storage Disks (oder einer Übersetzung).

In Sachen Performance sollen vor allem PCIe-5.0-SSDs profitieren. Microsoft zeigt einen Benchmark, bei dem die Input/Output-Operationen pro Sekunde (IOPS) von etwa 1,8 Millionen auf 3,3 Millionen steigen.


(Bild:

Microsoft

)

Weiterlesen nach der Anzeige

Systeme mit nicht ganz so flotten PCIe-4.0- oder PCIe-3.0-SSDs könnten allerdings effizienter werden, da ein nativer NVMe-Stack auch den Prozessor entlastet. Der verbringt weniger Arbeit damit, Zugriffsbefehle zu serialisieren und abzuarbeiten.

Microsoft schreibt dazu: „Grundlegende Leistungstests mit DiskSpd.exe zeigen, dass WS2025-Systeme mit aktiviertem nativen NVMe im Vergleich zu WS2022 bei zufälligen 4-KByte-Lesevorgängen auf NTFS-Dateisystemen bis zu ~80 % mehr IOPS und ~45 % gesparte CPU-Taktzyklen pro I/O liefern können.“

Im Blog-Beitrag nennt Microsoft das Update einen „Eckpfeiler für die Modernisierung unseres Storage-Stacks“. Sobald er sich bewährt, könnte Microsoft ihn auch in Windows 11 einbauen.

NVMe 1.0 ist inzwischen 14 Jahre alt. Erste Consumer-SSDs damit erschienen im Jahr 2015. Inzwischen ist das Protokoll nicht mehr von Desktop-PCs und Notebooks wegzudenken.


(mma)



Source link

Weiterlesen

Künstliche Intelligenz

Framework SGLang für schnelle LLM-Inferenz kurz vorgestellt


Wenn man ein großes Sprachmodell als API für Anwendungen bereitstellt, rücken konkrete Anforderungen in den Vordergrund: Wie viele Token pro Sekunde liefert das System? Welche Kosten entstehen pro Antwort? Wie viele parallele Anfragen muss es bewältigen? Und reicht die Modellqualität für den jeweiligen Anwendungsfall?

Hier kommen spezialisierte Inferenz-Engines ins Spiel. Sie entlasten Entwickler bei Low-Level-Details, optimieren die Auslastung der Hardware und reduzieren Latenzen.


Danny Gerst

Danny Gerst

Danny Gerst bringt 30 Jahre Erfahrung in der Softwareentwicklung mit. Als Strategieberater und Visionär für den Mittelstand ist er auf das Automatisieren von Prozessen mit und ohne KI spezialisiert.

Bekannte Vertreter sind vLLM, TGI oder Nvidias proprietäre NIM. Für lokale Modelle existieren Werkzeuge wie Ollama oder LM Studio. Eine Alternative ist die Inferenz-Engine SGLang, die vor allem auf Performance setzt und zusätzlich eine flexible Steuerung von LLM-Workflows im Frontend anbietet.


Das war die Leseprobe unseres heise-Plus-Artikels „Framework SGLang für schnelle LLM-Inferenz kurz vorgestellt“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt