Connect with us

Künstliche Intelligenz

KI enttäuscht bislang die CEO-Hoffnungen


Der Einsatz von künstlicher Intelligenz bringt in vielen Unternehmen bislang kaum messbare Ergebnisse, stellt die Beratungsgesellschaft PwC in einer weltweiten Umfrage unter Spitzenmanagern fest. So hätten in Deutschland gerade einmal 11 Prozent der befragten CEOs von höheren Umsätzen durch KI berichtet, global seien es 29 Prozent. 16 Prozent aus Deutschland sprachen wiederum von gesunkenen Kosten dank KI, weltweit seien es 26 Prozent.

Weiterlesen nach der Anzeige

Global gesehen sei es demnach auch nur 12 Prozent gelungen, mit KI sowohl mehr Umsatz zu generieren als auch Kosten zu sparen. In Deutschland seien das sogar nur zwei Prozent gewesen. Mehr als die Hälfte der weltweit befragten CEOs (56 Prozent), in Deutschland sogar zwei Drittel, sehen bislang also keine besseren Geschäftsergebnisse durch die in ihren Unternehmen geschaffenen KI-Grundlagen und Pilotprojekte.

„Die Ergebnisse zur KI-Adoption zeigen eine Diskrepanz zwischen hohen Erwartungen und einer ernüchternden Realität. Wir sehen eine große Bereitschaft, in KI zu investieren – aber nur eine kleine Minderheit von Unternehmen erzielt damit auch messbare Ergebnisse. Besonders rar ist noch die Fähigkeit, sich mithilfe von KI vom Wettbewerb zu differenzieren, neue Erlösquellen zu erschließen und dadurch zu wachsen“, kommentierte PwC-Deutschland-Chefin Petra Justenhoven das Ergebnis des 29. Global CEO Survey, für den PwCs Angaben nach über 4400 CEOs aus 95 Ländern befragt wurden.

Lesen Sie auch

Eine Studie der Berater von Boston Consulting kam im vergangenen Jahr bereits zu ähnlichen Ergebnissen. Demnach hätten 60 Prozent von rund 1250 befragten Unternehmen praktisch keinen materiellen Mehrwert erzielt und trotz erheblicher Investitionen in KI nur minimale Umsatz- und Kosteneinsparungen erreicht. Weitere 35 Prozent hätten ihre Bemühungen verstärkt und auch einige Erfolge erzählt, aber eingeräumt, dass sie nicht weit genug oder schnell genug vorankommen. Und nur fünf Prozent würden einen KI-Mehrwert im großen Maßstab erzielen.

Die Frage ist, woran das liegt. KI sei keine Wunderwaffe, erklärte PwC-Berater Nico Reichen. „Ohne eine verlässliche Datenbasis und ein skalierbares Fundament bleiben Initiativen unter dem Deckmantel vereinzelter Use Cases oberflächlich und wirkungslos. Wer Transformation ernst meint, muss zuerst die Hausaufgaben machen – sonst wird KI zum Verstärker bestehender Probleme statt zum strategischen Hebel.“ Neben der Technologie an sich kommt es auf Aspekte wie Datenbereitstellung, ein Entwicklungsplan, ausreichende Investitionen sowie Firmenkultur und Talentgewinnung an.

Weiterlesen nach der Anzeige

Ob die halluzinationsanfällige generative KI an sich vielleicht gar geeignet ist, die erhoffte Produktivrevolution zu entfesseln, scheint für die Berater aber keine Frage zu sein. Vielmehr sollten sich Unternehmen weiter auf die KI-Umsetzung konzentrieren und nicht zögern, Deutschland sei ohnehin schon langsamer als andere Länder. „Die Zeit drängt. 2026 könnte das Schlüsseljahr werden, in dem die KI-Vorreiter den Rest des Feldes hinter sich lassen“, sagte PwC-Deutschlandchefin Petra Justenhoven dem Handelsblatt.


(axk)



Source link

Künstliche Intelligenz

Node.js-Aktualisierung leicht gemacht: OpenJS bietet Support für Unternehmen


Etwa zwei Drittel der Node.js-Anwender nutzen eine veraltete Version der JavaScript-Runtime. Zu diesem Schluss kommt die OpenJS Foundation, die hinter Node.js steht. Sie hat daher ein neues Programm ins Leben gerufen, um dem entgegenzuwirken.

Weiterlesen nach der Anzeige




(Bild: jaboy/123rf.com)

Tools und Trends in der JavaScript-Welt: Die enterJS 2026 wird am 16. und 17. Juni in Mannheim stattfinden. Das Programm dreht sich rund um JavaScript und TypeScript, Frameworks, Tools und Bibliotheken, Security, UX und mehr. Frühbuchertickets sind im Online-Ticketshop erhältlich.

Das „Node.js LTS Upgrade and Modernization“-Programm soll Unternehmen dabei unterstützen, von Legacy-Node.js-Versionen und solchen, die bereits ihr End of Life erreicht haben, auf aktuelle Versionen zu wechseln. Dabei soll dieser Umstieg auf sichere Weise geschehen. Denn wie Robin Bender Ginn, Executive Director der OpenJS Foundation, zu bedenken gibt, verlassen sich viele Unternehmen bei kritischen Systemen auf Node.js. Daher könne das Upgraden älterer Versionen schwierig und risikoreich sein.

Konkret soll das neue Programm den Kontakt zwischen Unternehmen und erfahrenen Node.js-Serviceanbietern herstellen, um eine sichere Node.js-Aktualisierung zu erreichen. Es folgt dem bestehenden Vergütungsmodell der OpenJS Foundation, der Nonprofit-Stiftung hinter Node.js: Partner erhalten 85 Prozent der Einnahmen, während die verbleibenden 15 Prozent in die Unterstützung von OpenJS und Node.js fließen.

Als erster Partner des Programms fungiert das 2014 gegründete Softwareunternehmen NodeSource. Es wird ein Assessment von Node.js-Versionen, Dependencies und Risiken anbieten, ebenso wie Pläne für eine schrittweise Aktualisierung auf neuere Node.js-Versionen und eine Hands-on-Ausführung inklusive Code, Dependencies und Testing. Optional können Unternehmen von NodeSource Security-Support für Systeme beziehen, die sich nicht sofort aktualisieren lassen.

Weiterlesen nach der Anzeige

Die OpenJS Foundation unter dem Dach der Linux Foundation entstand 2019 aus einer Fusion der Node.js Foundation und der JS Foundation, ebenfalls beide bei der Linux Foundation verortet. Sie ist Heimat zahlreicher Open-Source-Projekte im JavaScript-Bereich, neben Node.js unter anderem Electron, webpack und jQuery. Zu ihren Mitgliedsunternehmen zählen Microsoft, Google und IBM.

Weitere Informationen zum neuen Programm „Node.js LTS Upgrade and Modernization“ bietet der Blog der OpenJS Foundation.


(mai)



Source link

Weiterlesen

Künstliche Intelligenz

Security: Die eigene CA mit TPM-Chip einrichten


In einem Projekt, einem Proof of Concept oder in einer Laborumgebung kommt schnell der Bedarf nach einer Certificate Authority (CA) auf, die sich mit Tools wie OpenSSL, certtool oder CFSSL in wenigen Befehlen verwalten lässt. Der kritische private Schlüssel liegt dann jedoch im Dateisystem, möglicherweise sogar unverschlüsselt. Wenn die CA dann ungewollt noch produktiv genutzt wird, ist das Sicherheitsdrama perfekt. Dennoch muss man sich für Ad-hoc-CAs dieser Art kein Hardware Security Module (HSM) anschaffen.

Die Lösung: Die Root-CA speichert ihren privaten Schlüssel im Trusted Platform Module (TPM). Dank der Anforderungen von Windows 11 besitzen nahezu alle neuen PCs einen solchen Sicherheitschip, der entweder auf dem Mainboard sitzt oder in die CPU integriert ist. Somit kann ein herkömmlicher Windows-Rechner zur CA werden und mit dem TPM Kryptoaufgaben erledigen.

  • Seit Windows 11 verfügt nahezu jeder PC über den Sicherheitsprozessor Trusted Platform Module (TPM).
  • Eine Certification Authority (CA) kann den privaten Schlüssel im TPM erzeugen und sicher ablegen.
  • Eine CA mit TPM erhöht die Sicherheit, reicht aber nicht an ein Hardware Security Module (HSM) heran.
  • Das grafische Werkzeug XCA fungiert als Frontend und erstellt und verwaltet digitale Zertifikate, Schlüssel sowie CAs.

Auf der Softwareseite kommt XCA hinzu (Dokumentation). Die grafische Anwendung beherrscht das Tagesgeschäft einer CA: Zertifikatsanträge annehmen und Zertifikate ausstellen. Sie ist kostenfrei und erfordert keine Kommandozeilenakrobatik. Die TPM-CA erreicht bestenfalls das Sicherheitsniveau eines Selbsthosters und will auch nicht mit professioneller Software konkurrieren. Sie lässt sich aber einfach bedienen, ist günstig und bringt ein Plus an Sicherheit.


Das war die Leseprobe unseres heise-Plus-Artikels „Security: Die eigene CA mit TPM-Chip einrichten“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Rust Coreutils 0.7: Turbo für die Kommandozeile


Die Entwickler der Rust Coreutils haben Version 0.7 veröffentlicht. Der Fokus der Aktualisierung liegt auf Performance-Optimierungen, die sich über Dutzende Utilities erstrecken. Zu den Verbesserungen gehören schnellere Hash Maps, neue ASCII-Schnellpfade und reduzierte malloc-Aufrufe bei verschiedenen Befehlen. Zusätzlich haben die Entwickler Build-Fixes für NetBSD und PowerPC integriert.

Weiterlesen nach der Anzeige

Ein weiterer Schwerpunkt der Version liegt auf der Reduzierung von unsicherem Code. Konkret haben die Entwickler unsicheren libc-Code durch sichere Rust-Abstraktionen ersetzt, was die Sicherheit der Implementierung weiter erhöht. Dies knüpft an die Arbeit der Vorgängerversion 0.6 an, die bereits Buffer Overflows und Use-After-Free-Fehler durch Rusts Ownership-System eliminiert hatte. Version 0.7 eliminiert zudem Panics beim Schreiben nach /dev/full in über 20 Utilities wie echo, date und sort, was die Produktionsreife weiter erhöht.

Bei der Kompatibilität zur GNU Test Suite verzeichnet Version 0.7 einen scheinbaren Rückschritt: Die Quote sank von 96,3 Prozent in Version 0.6 auf 94,6 Prozent. Dieser Rückgang erklärt sich jedoch durch die Integration von 19 neuen Tests aus GNU Coreutils 9.10. Die absolute Anzahl bestandener Tests ist trotz der gesunkenen Prozentquote gestiegen. Zudem sind sechs weitere Tests übersprungen worden und sieben zusätzliche Tests fehlgeschlagen.

Der prozentuale Rückgang ist normal angesichts der sich entwickelnden Referenz-Test-Suite. Die neuen Tests aus GNU Coreutils 9.10 sind schwieriger zu bestehen als die bisherigen, weshalb die Quote sinkt, während die Implementierung gleichzeitig absolut gesehen mehr Tests besteht. Trotzdem strebt das Rust-Coreutils-Projekt weiterhin eine vollständige GNU-Kompatibilität von 100 Prozent an. Dabei arbeiten die Entwickler eng mit dem GNU-Projekt zusammen und haben zahlreiche Patches zu den GNU Coreutils beigesteuert, was beide Projekte stärkt.

Die Performance-Optimierungen in Version 0.7 sollten für Systemadministratoren und Endnutzer besonders bei Batch-Operationen mit vielen Dateien, der Verarbeitung großer Datenmengen und wiederholten Aufrufen von Utilities in Skripten messbar sein. Konkret bringen zum Beispiel unexpand 14 Prozent Geschwindigkeitsgewinn, du zwischen drei und sechs Prozent und shuf rund vier Prozent. Die schnelleren Hash Maps beschleunigen Operationen, die auf Schlüssel-Wert-Zuordnungen angewiesen sind. Die neuen ASCII-Schnellpfade optimieren die Verarbeitung von ASCII-Zeichen, die in vielen Anwendungsfällen den Großteil der verarbeiteten Daten ausmachen.

Weiterlesen nach der Anzeige

Reduzierte malloc-Aufrufe führen zu weniger Speicher-Fragmentierung und potenziell kürzeren CPU-Aktivitätszeiten, was sich positiv auf die Gesamtperformance auswirkt. Diese Optimierungen reihen sich in eine kontinuierliche Entwicklung ein: Bereits in Version 0.6 wurden die Base-Encoding-Utilities wie base32 und base64 beschleunigt, und Version 0.4 brachte spezifische Optimierungen für factor, cksum, tsort und mkdir.

Die Release Notes zu Version 0.7 stehen auf GitHub zur Verfügung.


(fo)



Source link

Weiterlesen

Beliebt