Connect with us

Entwicklung & Code

Notepad++ erscheint als native macOS-Anwendung


Der beliebte Windows-Texteditor Notepad++ ist erstmals als native macOS-Anwendung verfügbar. Mitglieder der Open-Source-Community um den Entwickler Andrey Letov haben den Editor vollständig auf macOS portiert – ohne auf Kompatibilitätsschichten wie Wine, CrossOver oder Porting Kit zurückzugreifen. Die erste stabile Version 1.0.0 erschien Anfang April 2026, mittlerweile liegt der Editor in Version 1.0.4 vor.

Weiterlesen nach der Anzeige

Das Projekt unterscheidet sich grundlegend von früheren Versuchen, Notepad++ auf dem Mac nutzbar zu machen. Statt Windows-APIs zu emulieren, haben die Entwickler die gesamte Bedienoberfläche in Objective-C++ mit nativen macOS-Cocoa-APIs neu aufgebaut. Die Kern-Engine Scintilla, die auch der Windows-Version zugrunde liegt, blieb dabei identisch. Das Ergebnis ist ein Universal Binary, das sowohl auf Apple-Silicon-Macs (M1 bis M5) als auch auf Intel-Macs nativ läuft – ohne Rosetta-Übersetzungsschicht und ab macOS 11. Die Portierung der Windows-UI-Schicht auf Cocoa erforderte eine komplette Neuimplementierung sämtlicher Oberflächenelemente. Menüs, Dialoge und die Dateiauswahl folgen nun den macOS-Konventionen, ebenso die Tastaturkürzel. Der Editor unterstützt Syntax-Highlighting für mehr als 80 Programmiersprachen und bietet Funktionen wie Split-View-Editing, Makro-Aufzeichnung, reguläre Ausdrücke in der Suche sowie Lesezeichen. Die Oberfläche ist in 137 Sprachen lokalisiert. Die deutsche Lokalisierung erweckt aber stellenweise den Eindruck, als sei sie mit KI-Hilfe erstellt worden. Notepad++ für Windows hatte zuletzt mit einer Sicherheitslücke im Updater zu kämpfen, die das Ausführen von Schadcode ermöglichte – die macOS-Portierung baut die Architektur von Grund auf neu.

Dass es Jahrzehnte gedauert hat, bis Notepad++ nativ auf macOS verfügbar wurde, liegt auch am Originalautor Don Ho, der Notepad++ stets als Windows-Anwendung entwickelte und keine Mac-Version anbot. Erst die unabhängige Community-Initiative vom März 2026 machte die Portierung unter der GPLv3-Lizenz möglich. Das Projekt ist nicht mit dem offiziellen Notepad++-Team verbunden.

Der integrierte Plug-in-Admin ermöglicht den Zugriff auf eine wachsende Bibliothek portierter Erweiterungen. Allerdings sind noch nicht alle Windows-Plug-ins für macOS verfügbar – die Portierungen werden nach Angaben des Projekts täglich ergänzt. Einen konkreten Zeitplan für die vollständige Plug-in-Kompatibilität gibt es bislang nicht. Der Quellcode auf GitHub steht Entwicklern offen, die sich mit Pull Requests an der Weiterentwicklung beteiligen möchten.

In puncto Datenschutz setzt sich Notepad++ für Mac deutlich von manchen kommerziellen Editoren ab: Die Anwendung enthält keinerlei Telemetrie, Werbung oder Datenerfassung. Auch automatische Crash-Reports werden nicht versendet. Der einzige Netzwerkverkehr entsteht bei der Nutzung des Plug-in-Admin, der auf GitHub zugreift.

Im Vergleich zu etablierten macOS-Editoren wie VS Code, Sublime Text oder BBEdit positioniert sich Notepad++ als kostenlose, quelloffene Alternative ohne Telemetrie. Während VS Code auf Electron basiert, handelt es sich bei der Mac-Version von Notepad++ um eine echte native Cocoa-Anwendung. Laut der Projektdokumentation soll der Editor sofort starten und einen geringen Ressourcenverbrauch aufweisen.

Weiterlesen nach der Anzeige

Die Veröffentlichung reiht sich in einen breiteren Trend ein: Auch andere Anbieter bringen zunehmend native macOS-Versionen ihrer Entwicklertools heraus. So hat Google kürzlich eine native Gemini-App für macOS veröffentlicht. Für Entwicklerinnen und Entwickler, die bisher auf Windows-Alternativen oder Kompatibilitätsschichten angewiesen waren, schließt die Portierung eine langjährige Lücke.


(mki)



Source link

Entwicklung & Code

Samsung erzielt höchsten Gewinn in Unternehmensgeschichte


Samsung Electronics hat dank des anhaltenden KI-Booms seinen höchsten Gewinn seit Unternehmensgründung erzielt. In seinen aktuellen Geschäftszahlen weist Südkoreas größtes Unternehmen einen Betriebsgewinn in Höhe von 57,2 Billionen Won (umgerechnet rund 32,9 Milliarden Euro) für den Zeitraum Januar bis März aus – in etwa das Achtfache des Vorjahreszeitraums.

Weiterlesen nach der Anzeige

Samsungs Quartalszahlen haben damit selbst die bereits hohen Erwartungen des Marktes deutlich übertroffen. Laut einer von der südkoreanischen Nachrichtenagentur Yonhap durchgeführten Umfrage lag der Nettogewinn des Konzerns im Schnitt über 20 Prozent über den Schätzungen der befragten Ökonomen. Die Märkte reagierten positiv auf den Geschäftsbericht: Direkt nach Handelsstart am Donnerstagmorgen Ortszeit stieg der südkoreanische Leitindex Kospi um über 0,7 Prozent an, ehe er wieder etwas fiel.

Der Rekordgewinn von Samsung wird vor allem von der anhaltend starken Nachfrage nach Computerchips angetrieben. Chip-Engpässe haben die Preise stark in die Höhe getrieben. Allein 53,7 Billionen Won des Betriebsgewinns – und damit fast 94 Prozent des Gesamtgewinns – wurden von der Halbleitersparte des Unternehmens erzielt. Samsung Electronics ist einer der weltweit führenden Produzenten von Halbleitern, insbesondere im Segment leistungsstarker Speicherchips.


(afl)



Source link

Weiterlesen

Entwicklung & Code

Visual Studio 2026 erhält Cloud-Agenten-Integration


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Microsoft hat seine Entwicklungsumgebung Visual Studio 2026 mit dem April-Update versehen, das die Cloud-Agenten-Integration einführt. Weitere Updates betreffen die C++-Entwicklung, benutzerdefinierte Agenten und die Verwendung von IntelliSense.

Weiterlesen nach der Anzeige

Im neuen Release können Visual-Studio-User neue Remote-Coding-Sessions direkt aus der Entwicklungsumgebung heraus starten. Dazu wählen sie Cloud aus dem Agenten-Picker im Chatfenster und spezifizieren ihre Anforderungen. Daraufhin beginnt der Workflow mit der Rückfrage um Erlaubnis, ein Issue im Repository anlegen zu dürfen, und der Cloud-Agent bereitet einen entsprechenden Pull Request vor. Währenddessen können Nutzerinnen und Nutzer weiter in Visual Studio arbeiten oder die IDE schließen. Sie erhalten eine Benachrichtigung, sobald der Pull Request bereit zur Ansicht ist.

Cloud-Agenten laufen auf Remote-Infrastruktur und sollen eine skalierbare, isolierte Ausführung ermöglichen. Dahinter steht GitHub Copilot, sodass sich die Nutzerinnen und Nutzer in einem GitHub-Repository befinden müssen, in dem Copilot die Befugnis zum Erstellen von Issues besitzt.

Seit dem März-Update lassen sich zudem in Visual Studio benutzerdefinierte Agenten mit Repository-basierten .agent.md-Dateien erstellen. Nun wurde diese Funktion um User-Level-Agenten erweitert, die sich über unterschiedliche Projekte hinweg nutzen lassen. Sie werden standardmäßig in %USERPROFILE%/.github/agents/ gespeichert.

Die C++-Codeeditierungs-Tools für GitHub Copilot sind nun allgemein verfügbar. Das ermöglicht es dem Copiloten, mit Class-Inheritance-Hierarchien umzugehen und beim Refaktorieren oder Modifizieren von Code Function-Call-Ketten zu folgen. Hierzu müssen Entwicklerinnen und Entwickler ein C++-Projekt mit konfiguriertem IntelliSense öffnen und die C++-Tools im Copilot-Chat aktivieren:

Weiterlesen nach der Anzeige


C++-Tools in Visual Studio

C++-Tools in Visual Studio

Aktivierung der C++-Tools in Visual Studio: get_symbol_call_hierarchy und get_symbol_class_hierarchy.

(Bild: Microsoft)

Ein weiteres Update betrifft die allgemeine Verwendung des Codevervollständigungs-Tools IntelliSense. Bisher konnten User sowohl die Vorschläge von IntelliSense als auch von Copilot gleichzeitig sehen, was laut Feedback ablenkend sein konnte. Daher priorisiert der Editor nun die IntelliSense-Vervollständigungsliste und unterdrückt Copilot-Vorschläge. Nach dem Annehmen oder Ablehnen der IntelliSense-Auswahl erscheinen automatisch die Copilot-Vorschläge.

Alle weiteren Informationen zum neuen Visual-Studio-Update bietet Microsofts Entwicklerblog.

Siehe auch:


(mai)



Source link

Weiterlesen

Entwicklung & Code

Ubuntu integriert lokale KI | heise online


Jon Seager, VP of Engineering bei Canonical, hat in seinem Beitrag The future of AI in Ubuntu erläutert, wie Canonical KI in kommende Ubuntu-Versionen integrieren möchte. Dabei sollen lokal installierte Open-Weight-Modelle zum Einsatz kommen, um bestehende Funktionen wie Speech-to-Text für Barrierefreiheit zu verbessern und neue KI-Funktionen wie Unterstützung bei Fehlern und Automatisierungen durch agentische Workflows einzuführen. Auch kontextsensitive Hilfen etwa bei der Fehlersuche oder bei komplexen Aufgaben sind angedacht.

Weiterlesen nach der Anzeige

Schon die aktuelle LTS-Version Ubuntu 26.04 erleichtert die Nutzung von lokaler KI: Entwickler können die KI-Stacks für Nvidia- und AMD-Hardware (CUDA und ROCm) mit einem einfachen apt-Befehl aus den Standard-Paketquellen installieren. Dazu kommen die Inference Snaps, mit denen sich eine Reihe von KI-Modellen einfach lokal installieren lassen, darunter das multimodale KI-Modell Qwen VL, das Reasoning-Modell DeepSeek R1, das offene Google-Modell Gemma 3 sowie die Nvidia-Modelle Nemotron 3 Nano und Nemotron 3 Nano Omni. Das System soll dabei das gewünschte Modell in einer Variante und Quantisierung installieren, die zur eigenen Hardware passt. Dazu arbeitet Canonical mit CPU- und GPU-Herstellern zusammen. Wie alle Snaps laufen die KI-Modelle in einer Sandbox mit beschränktem Zugriff aufs System.

Die Community-Reaktionen auf Seagers Beitrag sind überwiegend positiv. Die Ubuntu-Nutzer loben den maßvollen Einsatz von KI und den Verzicht darauf, KI-Funktionen aufzudrängen. Der Einsatz lokaler Modelle statt der großen KI-Modelle aus der Cloud wird begrüßt – auch wenn auf vielen Notebooks und PCs nur kleine, weniger leistungsfähige Modelle laufen.

In einem späteren Beitrag stellt Seager klar, dass alle integrierten KI-Funktionen in Ubuntu als deinstallierbare Snaps eingerichtet werden sollen – Anwender, die sie nicht nutzen wollen, können sie also einfach loswerden. In Ubuntu 26.10 soll es eine erste Preview der KI-Funktionen als Opt-in geben, Anwender müssen also explizit zustimmen. Später könnte die Frage nach KI-Nutzung in den Installer integriert werden. Man wolle niemanden KI aufzwingen. Seager betonte nochmals, dass die Pläne ausschließlich den Einsatz lokal installierter Sprachmodelle vorsehen.


(odi)



Source link

Weiterlesen

Beliebt