Connect with us

Künstliche Intelligenz

KI-Einsatz in der Buchbranche: Vorteile – und klare Risiken


Die Künstliche Intelligenz (KI) kann die Buchbranche unterstützen. Sie bringt nach Ansicht des neuen Vorstehers des Börsenvereins des Deutschen Buchhandels, Sebastian Guggolz, Vorteile, aber auch klare Risiken für die Buchbranche.

Weiterlesen nach der Anzeige

Die KI biete einerseits viele Erleichterungen, etwa in der Logistik, im Vertrieb oder im Marketing. In anderen Bereichen gebe es aber „riesige Fragezeichen“, sagte der Berliner Verleger. „Vor allem bei der Textproduktion gibt es enorme Probleme, weil es da zu massiven Urheberrechtsverletzungen kommt. Die KI wird mit Texten trainiert, ohne dass Rechteinhaber darüber entscheiden können oder honoriert werden.“

Eine weitere wichtige Frage betreffe die Übersetzungen. „Ich vermute, dass es eine Ausdifferenzierung des Marktes gibt, weil es schon heute übersetzte Gebrauchstexte gibt, die weitgehend ohne menschliche Arbeit angefertigt wurden“, erklärte Guggolz. In anderen Bereichen wie der Literatur sehe es aber anders aus: „Nicht nur aus Nostalgie, sondern aus tiefer Überzeugung bin ich der Meinung, dass künstlerische Texte überhaupt nie allein von KI übersetzt werden sollten“.

„Künstlerische Texte sollten nie allein von KI übersetzt werden“ (Sebastian Guggolz)

Es sei eine Sache, wenn etwa Übersetzerinnen und Übersetzer KI-gestützte Systeme als Unterstützung nutzten. „Aber ganze Übersetzungen können und sollten nicht von einer KI hergestellt werden.“ Im Bereich KI müsse sich die Branche vielen Fragen stellen: „Wie weit kann die KI unterstützen? Wo wollen wir sie nutzen und wo nicht?“

Als neuer Vorsteher des Börsenvereins des Deutschen Buchhandels vertritt Guggolz Buchhandel und Verlage. Er hatte das Amt im vergangenen Herbst von Vorgängerin Karin Schmidt-Friderichs übernommen. Guggolz arbeitet beim Fischer-Verlag in Frankfurt und gründete zudem in Berlin vor mehreren Jahren seinen eigenen Verlag in Berlin, einen Ein-Mann-Betrieb.

Weiterlesen nach der Anzeige

Mindestens ebenso umstritten wie der Einsatz von KI zum Schreiben von Büchern ist der umgekehrte Weg, also der Einsatz von Büchern oder öffentlichen Texten als Trainingsmaterial für die Sprachmodelle. Hierzu gab es in der Vergangenheit einige Urteile, bemerkenswert ist etwa die Entscheidung des Landgerichts München. Das hatte im November zugunsten der klagenden GEMA entschieden, dass OpenAI bei neun bekannten Liedern – von „Atemlos“ bis „Männer“ – Urheberrechte verletzt habe.

Dass die neun Lieder für das Training der KI-Modelle genutzt wurden, stand außer Frage und war für beide Seiten unstrittig. Das Gericht stellte aber fest, die Texte seien „memorisiert“ worden – und damit handele es sich um eine unerlaubte Vervielfältigung.

Forscher erwarten durch den Einsatz von KI zudem erhebliche Auswirkungen auf den Arbeitsmarkt. So könnten Routinearbeiten in Personalabteilungen, Logistik, Finanzverwaltung und Büroorganisation leicht auf KI umgestellt werden. Zugleich sind laut Bitkom spezielle Fachkenntnisse in Künstlicher Intelligenz, IT-Sicherheit und Cloud-Diensten gefragt. Da KI die Anforderungen an IT-Beschäftigte verändert, rücke kompetenter Umgang mit KI stärker in den Fokus.

Ein Forschungsteam des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) aus Nürnberg spricht von 1,6 Millionen Jobs, die in Deutschland in den nächsten 15 Jahren wegfallen – oder neu entstehen (PDF der Studie). Zwar prognostizieren sie eine höhere Arbeitsproduktivität, Einsparungen und neue Geschäftsfelder durch KI. Zugleich erwartet aber auch das IAB-Team erhebliche Auswirkungen auf den Arbeitsmarkt und prognostizieren Verschiebungen in unterschiedlichen Berufszweigen.

Eine Analyse der US-Bank Morgan Stanley prognostiziert, dass Europas Banken in den nächsten fünf Jahren mehr als 210.000 Jobs abbauen könnten, während sie zunehmend auf KI setzen. Für den erwarteten Stellenabbau dürften demnach aber auch Filialschließungen sorgen, da das Bankengeschäft immer stärker ins Internet verlagert wird.

Wie eine aktuelle Studie des Massachusetts Institute of Technology (MIT) aufzeigt, könnte in den USA eine Lohnsumme von rund 1,2 Billionen US-Dollar durch den KI-Einsatz wegfallen. Betroffen seien vor allem die Finanzbranche, das Gesundheitswesen und Unternehmensdienstleistungen

Hierzulande nutzen Menschen KI-Modelle wie ChatGPT am häufigsten fürs Schreiben oder Lektorat, für Ratschläge und Anleitungen, Informationssuche, Gesundheits-, Fitness- und Schönheitstipps, Lernen, Nachhilfe und Unterrichten, Coaching und Unterstützung beim Erreichen persönlicher Ziele.

Lesen Sie auch


(uk)



Source link

Künstliche Intelligenz

nnn 5.2: Terminal-Dateimanager erhöht Kontexte und optimiert Performance


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der Terminal-Dateimanager nnn liegt in Version 5.2 mit dem Codenamen „Blue Hawaii“ vor. Die neue Version des Open-Source-Projekts bringt mehrere funktionale Verbesserungen und eine erhebliche Performance-Optimierung bei der Berechnung der Festplattennutzung.

Weiterlesen nach der Anzeige

Zentrale Neuerung ist die Anzahl gleichzeitig nutzbarer Kontexte: Bislang waren Anwender auf vier parallele Sitzungen limitiert. Mit Version 5.2 verdoppelt sich diese Zahl auf acht Kontexte. Das erhöht die Flexibilität beim Multitasking erheblich, da sich verschiedene Verzeichnisse gleichzeitig in getrennten Kontexten bearbeiten lassen. Allerdings handelt es sich dabei um einen Breaking Change: Bestehende gespeicherte Sitzungen aus früheren Versionen sind nicht mehr kompatibel. Nutzer müssen ihre Arbeitsumgebungen nach dem Update neu einrichten.

Die Entwickler haben außerdem die Berechnung der Festplattennutzung grundlegend überarbeitet. Die Release Notes sprechen von einer „massiven“ Performance-Verbesserung, technische Details hierzu finden sich in den Release Notes. Die Optimierungen basieren auf Techniken wie Quicksort, minimiertem Disk-IO und Buffer-Reuse, die bereits in früheren Versionen zur Verbesserung der Geschwindigkeit von nnn herangezogen wurden.

Eine weitere Neuerung ist die Option, Dateistatistiken in einem navigierbaren Floating Window anzuzeigen. Über die Taste f öffnet sich ein Overlay-Fenster, das nicht den gesamten Bildschirm einnimmt und das man interaktiv bedienen kann. Dies funktioniert auch für die Ausgabe von Plugins, die mit dem Präfix > ausgeführt werden.

Die Suchfunktion wurde um eine „In-Order Fuzzy Search“ erweitert, die Ergebnisse in ihrer natürlichen Reihenfolge liefert. Außerdem ermöglicht die neue Version Benutzereingaben bei Kopier- und Verschiebevorgängen, selbst wenn keine Datei ausgewählt ist. Das erleichtert zum Beispiel das Einfügen aus der Systemablage.

Weiterlesen nach der Anzeige

Beim Löschen von mehr als zehn markierten Dateien verlangt nnn 5.2 nun eine doppelte Bestätigung. Diese Sicherheitsmaßnahme soll versehentliche Massenlöschungen verhindern, wie sie bei umfangreichen Dateioperationen vorkommen können. Auch die Autocomplete-Funktion wurde erweitert: Beim Drücken der Tab-Taste am Ende einer Eingabezeile vervollständigt nnn automatisch den Namen der aktuell markierten Datei.

Auf technischer Ebene hat das Projekt die Unterstützung für PCRE1 entfernt und ersetzt sie durch einen optionalen PCRE2-Support. Die ältere Regex-Bibliothek wird nicht mehr weiterentwickelt, während PCRE2 bessere Performance, vollständigen Unicode-Support und eine moderne API bietet. Für die Kompilierung mit PCRE2 müssen Entwickler das Flag O_PCRE2=1 setzen und die Bibliothek libpcre2-dev installiert haben.

Die Preview-TUI unterstützt nun jelliz zur verbesserten Dateivorschau. Für den nativen Prompt speichert nnn eine History-Datei, die zuletzt eingegebene Befehle auflistet. In nnn 5.2 kommen außerdem kleinere Korrekturen hinzu, darunter der Scroll-Down-Arrow-Indikator, der bei gefilterten Verzeichnissen nun korrekt angezeigt wird, sowie ein automatisches Verzeichnis-Refresh nach Änderungen an der Dateiauswahl.


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

Cisco: Mit Nutanix zur VMware-Alternative


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Neben den KI-Agenten, die seine Hausmesse Cisco Live dominieren, zielt Cisco auf die physische und lizenzrechtliche Seite der IT-Infrastruktur und will diese kundenfreundlicher beziehbar machen. Konvergente Systeme bereitzustellen ist schon länger ein wichtiger Trend. Ciscos eigenes Angebot HyperFlex ist schon länger Geschichte, dafür wird die Nutanix-Plattform nun fester Bestandteil der Cisco-Laufzeitverträge – eine klare Positionierung gegen Broadcoms VMware.

Weiterlesen nach der Anzeige

Anders als im Vorjahr, als Cisco neue KI-Server UCS C880A M8 und UCS C845A M8 und deren Integration mit Intersight vorstellte, gab es in diesem Bereich diesmal vollen Fokus auf das Cisco Unified Edge. Das in kleinerem Rahmen im November 2025 angekündigte System wurde nun auf der Cisco Live 2026 in Amsterdam der breiten Öffentlichkeit „zum Anfassen“ vorgestellt. Weitere Themen waren Energieeffizienz und Kühlung, speziell im Edge. Cisco hat Immersive Kühlung für Unified Edge gezeigt und Einblicke gegeben in das Projekt Edison – eine disruptive Art der Stromverteilung.

Strategisch wichtig ist die vertiefte Partnerschaft mit Nutanix – und das damit verbundene stille Ende von HyperFlex. Die strategische Zusammenarbeit von Nutanix und Cisco besteht seit über zwei Jahren. Cisco integriert die Nutanix Cloud Platform (NCP) künftig direkt in seine Enterprise Agreements (EA). Kunden können somit Nutanix-Lizenzen als Teil ihres bestehenden Cisco-Softwarevertrags beziehen, statt separate Verhandlungen führen zu müssen.

Für Unternehmen, die nach der Broadcom-Übernahme von VMware und den damit verbundenen Lizenzänderungen nach Alternativen suchen, entfällt so die Hürde, eine neue Lieferantenbeziehung aufbauen zu müssen. Wer ein zweites Virtualisierungs-Standbein aufbauen oder Migrationen planen will, kann das innerhalb des bestehenden Cisco-Vertrags tun. Auch für Nutanix ergibt sich ein Vorteil: Die eigene Software gelangt über den Cisco-Vertriebskanal in große Software-Agreements, die Cisco-Seller ohnehin bei Bestandskunden platzieren. Der Zugang zu diesem Vertriebsapparat wäre für Nutanix allein kaum in dieser Breite erreichbar.

Die passende Hardware-Heimat für diese Software liefert Cisco mit dem Unified Edge. Bereits im November 2025 angekündigt – zu einem ungünstigen Zeitpunkt im Jahresendgeschäft – wurde es jetzt auf der großen Bühne der Cisco Live einem breiteren Publikum vorgestellt.

Hinter Unified Edge stehen zwei Überzeugungen. Erstens: Bei steigender Komplexität wird die Notwendigkeit größer, mit einem einzigen Instrument mehr zu erledigen. Der Hersteller bündelt deshalb Compute, GPU, Switching und Firewall in einzelnen Einschüben, die sich als Zero-Touch-Infrastruktur zentral managen lassen, aber lokal autonom agieren. Zweitens: Cisco glaubt an verteilte IT. Nicht alle Daten lassen sich sinnvoll an einem zentralen Ort verarbeiten – eine Art „Produktvorfertigung“ am Edge soll Latenz und Bandbreitenbedarf reduzieren.

Weiterlesen nach der Anzeige

Auf der Hauptbühne der Cisco Live stellte der Hersteller das Konzept nun prominent vor. Gegenüber dem November-Launch sind weitere Einschub-Optionen hinzugekommen, darunter Nvidia-GPUs und zusätzliche Netzwerk-Module. Für Außenstellen, Filialen und Edge-Standorte entsteht so ein modulares System, das die Nutanix-Softwarelogik auf die Hardware überträgt.

Einen Blick in die fernere Zukunft gewährt das Forschungsprojekt „Edison“, das Denise Lee, Vice President von Ciscos Engineering Sustainability Office, auf der Cisco Live erstmals öffentlich vorstellte. Der Ausgangspunkt: Kommende KI-Beschleuniger werden so viel Energie verbrauchen und Abwärme erzeugen, dass klassische Racks an ihre physikalischen Grenzen stoßen. Nvidias kommende Rubin-Generation etwa soll gegenüber Blackwell die etwa fünffache Rechenleistung liefern – bei einem Stromverbrauch, der sich mindestens verdoppeln dürfte.

Laut Cisco reicht es künftig nicht mehr, nur Daten zu verteilen – auch die Energieversorgung muss dezentralisiert und so verlustarm wie möglich werden. Das Konzept selbst ist nicht neu: Cisco experimentierte bereits vor zehn Jahren mit Smart-Building-Initiativen und Inline-Power. Damals fehlte allerdings der Leidensdruck. Mit den Leistungsaufnahmen heutiger und kommender KI-Hardware ist dieser Leidensdruck nun da.

Projekt Edison exploriert Technologien, um bis zu 600 Watt Gleichstrom über ein einzelnes Adernpaar sicher zu übertragen. Technisch geht dies weit über heutiges Power-over-Ethernet (PoE) hinaus, das bei maximal 100 Watt (IEEE 802.3bt Type 4) sein Maximum erreicht. Das Ziel: Energie flexibel dorthin routen, wo KI-Workloads gerade Lastspitzen erzeugen, und so thermische Hotspots in Rechenzentren entzerren. Ergänzend dazu bietet Cisco zum neuen Silicon One G300 mit 102,4 Tbit/s Durchsatz jetzt erstmals auch Switches in Liquid-Cooled-Varianten an. Der Hersteller will also die gesamte physische Infrastruktur auf die Anforderungen der KI-Ära ausrichten.


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

Deep Fakes von Grok: Irische Datenschutzbehörde leitet Verfahren gegen X ein


Weiterlesen nach der Anzeige

Elon Musks Plattform X droht ein weiteres Bußgeld in der Europäischen Union. Die für X zuständige irische Data Protection Commission (DPC) hat am Montag ein Verfahren gegen die X Unlimited International Corporation (XIUC) in Dublin eingeleitet. Hintergrund sind die mit Grok erstellten sexualisierten oder anders manipulierten Bilder verschiedener Menschen, die Nutzer ohne das Einverständnis der Betroffenen auf X veröffentlicht hatten.

Seit den ersten Medienberichten über die Vorfälle habe sich die DPC mit X ausgetauscht, erklärte der stellvertretende Leiter der Aufsichtsbehörde, Graham Doyle: „Als die federführende Aufsichtsbehörde für XIUC in der EU und dem EWR hat die DPC eine großangelegte Untersuchung begonnen, in der wir die Einhaltung einiger grundlegender Pflichten XIUCs im Rahmen der DSGVO in Bezug auf diese Vorgänge prüfen werden.“

Die irische DPC, die lange als eher harmlose Aufsichtsbehörde betrachtet wurde, untersucht eigenen Angaben zufolge mögliche Verstöße gegen die Artikel 5 und 6 der europäischen Datenschutzgrundverordnung (DSGVO). Diese Artikel enthalten die Grundregeln der Datenverarbeitung sowie Vorgaben zur Zulässigkeit von Datenverarbeitungen. Zudem prüft die Behörde mögliche Verstöße gegen die Artikel 25 und 35 zu Datenschutz „by design“ und Datenschutzfolgeabschätzung.

Die DPC ist für die Einhaltung der DSGVO durch Unternehmen mit Sitz in Irland zuständig. Die Behörde darf also Verfahren einleiten und auch Bußgelder verhängen, wenn sie überzeugt ist, dass ein Unternehmen gegen die DSGVO verstoßen hat. Zur möglichen Dauer eines entsprechenden Verfahrens äußerte sich die irische Datenschutzaufsicht nicht. Es handelt sich um das dritte Verfahren im Grok-Kontext, das die DPC eingeleitet hat.

Nach dem Bekanntwerden der Vorwürfe zu Jahresbeginn hatten sich bereits mehrere Politiker für ein härteres Durchgreifen gegen die Musk-KI und die zugehörige Plattform ausgesprochen. Die EU-Kommission leitete als Aufsichtsbehörde für den Digital Services Act (DSA) Ende Januar eine Untersuchung ein.

Weiterlesen nach der Anzeige


(vbr)



Source link

Weiterlesen

Beliebt