Connect with us

Künstliche Intelligenz

Drei Jahre ChatGPT: Von „Wow“-Momenten und Umweltzerstörung


Es war ein Tag, nach dem sich auf der Welt vieles ändern würde: am 30. November 2022 ging ChatGPT online, der inzwischen weltbekannte KI-Chatbot des Entwicklers OpenAI. Er stellte alle vorherigen in den Schatten: Die neue Anlaufstelle für Schreibhilfe, Trainingspläne und vieles mehr sorgte für so manchen Wow-Moment. Möglich machte es das LLM GPT-3.5 im Hintergrund.

Weiterlesen nach der Anzeige

Inzwischen bei GPT-5 angekommen, zählt der beliebte Chatbot rund 800 Millionen aktive Nutzer pro Woche weltweit (Stand: Juli 2025). Zuletzt sind die Zahlen nochmal kräftig gestiegen: im März waren es erst 500 Millionen Nutzer. Diese Zahlen teilte OpenAI heise online mit. Deutschland ist demnach auf dem vierten Platz der ChatGPT-User weltweit, eine konkrete Zahl nennt OpenAI dafür nicht.

Am häufigsten nutzen Menschen ChatGPT hierzulande fürs Schreiben oder Lektorat, für Ratschläge und Anleitungen, Informationssuche, Gesundheits-, Fitness- und Schönheitstipps, Lernen, Nachhilfe und Unterrichten, Coaching und Unterstützung beim Erreichen persönlicher Ziele.

Nicht einmal die Sängerin Helene Fischer ist vor dem LLM sicher. Das zählt allerdings eher zu den Schattenseiten des Trends. Für das Training seiner LLMs bediente sich OpenAI massenhaft urheberrechtlich geschützter Inhalte wie Bücher, Nachrichtenartikel oder Musik. Autoren, Künstler und Verlage fühlten sich ihrer Werke beraubt und zogen gegen OpenAI vor Gericht. So musste der KI-Hersteller sich unter anderem gegenüber der New York Times, mehreren großen indischen Nachrichtenmedien, US-Buchautoren und auch der GEMA in Deutschland verantworten.

Das Landgericht München entschied im November zugunsten der klagenden GEMA, dabei war es auch um Songs von Megastars wie Helene Fischer und Herbert Grönemeyer gegangen, mit denen ChatGPT offenbar trainiert wurde. Doch im Allgemeinen ist die Frage, wie mit urheberrechtlichem Material bei LLM-Training korrekt umgegangen werden kann, noch lange nicht geklärt. Längst läuft eine hitzige Debatte darüber.

All jene, die mit ihren KI-Modellen auf der Welle reiten, die ChatGPT entfacht hat – zum Beispiel Meta, Anthropic und Google – stehen OpenAI bei mutmaßlichen Urheberrechtsverstößen jedoch in nichts nach. Im Rennen um die beste KI scheint das Gesetz nicht immer eine Rolle zu spielen. Meta-Chef Mark Zuckerberg wies seine Mitarbeiter einmal sogar explizit an, Bücher aus illegalen Tauschbörsen herunterzuladen, um an Trainingsmaterial zu kommen.

Weiterlesen nach der Anzeige

Mit ChatGPT präsentierte OpenAI eine Innovation, die jeder versteht und die in nahezu jedem Lebensbereich zum Einsatz kommen kann. Auf dem Kapitalmarkt sorgte sie für einen Boom, den viele heute schon als eine „KI-Blase“ bezeichnen. Die sieben wertvollsten Unternehmen im Aktienindex S&P 500, Nvidia, Microsoft, Meta, Amazon, Apple, Alphabet und Tesla sind fast alle wichtige Akteure im KI-Sektor. Und sie sind auch für fast die Hälfte der Gewinne im Referenzindex seit der Veröffentlichung von ChatGPT verantwortlich. Großer Gewinner des Trends ist GPU-Hersteller Nvidia. Durch das Geschäft mit KI-Beschleunigern ist die Firma inzwischen mehr als fünf Billionen Dollar wert – als erstes Unternehmen jemals. OpenAI selbst ist nicht an der Börse, Microsoft ist jedoch an dem Unternehmen beteiligt, beide haben eine Partnerschaft bei der Entwicklung von ChatGPT.

Etliche KI-Startups mit teils eigenartigen Geschäftsideen schossen seit 2022 aus dem Boden. Der Harvard Economist analysierte im Oktober, dass 92 Prozent des Bruttoinlandsprodukt-Wachstums der USA in diesem Jahr auf dem Boom rund um KI-Rechenzentren basieren. Manch einer fühlt sich bei all dem an die Dotcom-Blase Ende der 1990er und anfangs der 2000er-Jahre erinnert. Zahlreiche Banken und selbst OpenAI-Chef Sam Altman sprachen inzwischen von einer möglichen KI-Blase, die platzen könnte. Das Massachusetts Institute of Technology (MIT) geht davon aus, aktuelle KI-Systeme könnten bereits 11,7 Prozent des US-Arbeitsmarkts ersetzen.

Doch nicht nur die Wirtschaft hat der Release von ChatGPT verändert. Auswirkungen auf die Umwelt betrachtet die KI-Branche seitdem als ähnlich zweitrangig wie so manches Urhebergesetz. Für das Training und den Betrieb von ChatGPT wurden in der Vergangenheit teilweise große Mengen Wasser verbraucht. Konkrete Zahlen gibt es zu einem der beteiligten Rechenzentren von Microsoft in West Des Moines im US-Bundesstaat Iowa. Im Juli 2022 entfielen demnach 6 Prozent des im gesamten Distrikt verbrauchten Wassers auf Microsoft.

Und auch der Stromhunger für KI-Training ist groß: Microsoft will deshalb ein altes US-Atomkraftwerk wieder ans Netz bringen und Mini-AKWs bauen. Auch Meta, Google und Amazon wollen für KI auf Kernkraft setzen. Die Technologie ließ die CO2-Emissionen bei Microsoft im vergangenen Jahr um bis zu 40 Prozent steigen, bei Google waren es 13 Prozent.

Die ChatGPT-Schmiede OpenAI begann im Jahr 2015 als Startup in San Francisco, zu dessen knapp ein Dutzend Gründern Altman und auch Tech-Milliardär Elon Musk gehörten. Ziel ist es bis heute, eine Allgemeine Künstliche Intelligenz (AGI) für die Menschheit zu entwickeln – eine KI, die allgemeiner menschlicher Intelligenz ebenbürtig ist. Zu diesem Zweck firmierte OpenAI bis vor kurzem noch als Non-Profit-Organisation. Auf Druck seiner Geldgeber musste OpenAI sich aber in eine For-Profit-Struktur umwandeln.

Auf seine Financiers ist OpenAI auch dringend angewiesen, durch ChatGPT allein wäre das Unternehmen wohl kaum überlebensfähig. Dazu gehören Tech- und Investmentunternehmen wie Nvidia, Microsoft und Softbank. In diversen Finanzierungsrunden flossen insgesamt 57,9 Milliarden Dollar. Weiteres Geld dürfte folgen, Nvidia kündigte kürzlich etwa eine 100-Milliarden-Dollar-Investition an.

Immer noch Peanuts gegen das, was OpenAI in den kommenden Jahren ausgeben will. Im September hat sich Altman etwa dazu verpflichtet, mehr als 26 Gigawatt Kapazität von Oracle, Nvidia, AMD und Broadcom zu übernehmen. Kostenpunkt in den nächsten zehn Jahren: weit über eine Billion US-Dollar nach Berechnungen der Financial Times.

Zuletzt machten die ChatGPT-Entwickler ein gewaltiges Minus. OpenAI veröffentlicht zwar keine Geschäftszahlen. Microsoft besitzt jedoch 27 Prozent der Unternehmensanteile und weist in seinem Geschäftsbericht Verluste oder Gewinne dieser Beteiligung aus. Hochgerechnet sind es dann 11,5 Milliarden Dollar Miese, die OpenAI im dritten Quartal gemacht hat.

ChatGPT bringt kaum Geld ein, betrachtet man die gegenüberstehenden Kosten. OpenAI erziele einen jährlichen wiederkehrenden Umsatz von rund 13 Milliarden US-Dollar. Davon stammen 70 Prozent von Verbrauchern, die ChatGPT nutzen, berichtet die Financial Times unter Berufung auf OpenAI-Kreise. 23 Euro im Monat kostet ein ChatGPT-Plus-Abo in Deutschland, die Pro-Version gibt es für 299 Euro.

Auf dieses Thema sollte man Altman lieber nicht ansprechen. Der US-Investor Brad Gerstner konfrontierte Altman in seinem Podcast damit, dass OpenAI jährlich etwa 13 Milliarden US-Dollar einnimmt, aber bereits eine Billion an Ausgaben vertraglich zugesichert habe. Die Antwort: „Zunächst einmal erzielen wir weitaus höhere Einnahmen.“ Wie sie das machen, erklärt Altman allerdings nicht. „Zweitens, Brad, wenn du deine Anteile verkaufen möchtest, finde ich einen Käufer für dich.“ Er räumte aber auch ein, dass OpenAI es noch vermasseln könne – aber nur, wenn sie nicht ausreichend Zugang zu Rechenressourcen bekämen.

Die horrenden Kosten für Betrieb und Weiterentwicklung von ChatGPT scheinen Altman nicht im Geringsten zu interessieren. Für ihn scheint nur das große Ziel AGI zu zählen – und auf dem Weg dorthin alle Mitbewerber in ihrem Gigantismus zu übertrumpfen. Drei turbulente Jahre liegen hinter ChatGPT – die kommenden drei werden sicherlich nicht weniger spannend. Auch im Hinblick auf alle anderen KI-Generatoren wie OpenAIs Sora für Videos, Grok von Elons Musks X-AI und Adobes Firefly. Deren rasante Entwicklung wäre ohne den Erfolg von ChatGPT kaum möglich gewesen.


(nen)



Source link

Künstliche Intelligenz

Salesforce Agentforce 360: KI-Agenten mit Kontext


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Salesforce erweitert seine Agentforce-360-Plattform um neue Funktionen, die die viel diskutierte Kontextlücke heutiger KI-Agenten beheben sollen. Neben Werkzeugen wie Agent Script, einem ausgebauten Agent Builder und der Voice-Integration rückt die engere Verzahnung mit der übernommenen Informatica-Technologie in den Mittelpunkt. Sie bildet die Grundlage für den unternehmensweiten Kontext, auf den Agenten künftig zugreifen sollen. Parallel öffnet Salesforce seine Plattform und erlaubt Partnern, eigene Produkte direkt auf Basis der Agentforce-Architektur zu entwickeln und zu vertreiben.

Weiterlesen nach der Anzeige

Kern der Ankündigungen ist eine konsolidierte Datenarchitektur, die Salesforce als Voraussetzung für belastbare Agentenansätze beschreibt. Die Plattform Data 360 wird dafür enger mit der übernommenen Informatica-Technologie verzahnt und um Echtzeitsignale aus MuleSoft ergänzt. Entstehen soll ein Metadatengerüst, das Stammdaten, Kataloge, Datenherkunft und operative Ereignisse zusammenführt. Agenten sollen damit nicht mehr nur Text generieren, sondern auf klar definierte Geschäftsobjekte zugreifen und deren Zustand korrekt interpretieren können.

Peter Wüst, Senior Vice President Solution Engineering, beschreibt diese Kombination als eine „Kontextmaschine“, die Modelle nicht länger mit fragmentierten Datensichten arbeiten lässt. KI-Modelle seien zwar leistungsfähig, aber „unternehmensdumm“, da ihnen das spezifische Wissen über ein Geschäft, seine Historie und seine Regeln fehle. Ohne dieses gemeinsame Verständnis seien Agenten letztlich gezwungen zu raten – ein Kernproblem, das Salesforce mit der neuen Datenbasis adressieren will.

Die Datengrundlage bildet zugleich die Basis für deterministische Agentenlogik, die Salesforce als zentral für Verlässlichkeit und Compliance einstuft.

Eines der größten Probleme großer Sprachmodelle im Unternehmenseinsatz bleibt ihre fehlende Vorhersagbarkeit. Salesforce versucht dies über Hybrid Reasoning abzufedern: Während das LLM weiterhin für die Interpretation zuständig ist, wird die Abarbeitung von Prozessen in feste Logikbausteine ausgelagert. Die neue Skriptsprache Agent Script dient dazu, diese Schritte zu modellieren und mit bestehenden Salesforce-Flows zu verknüpfen. Dadurch sollen Agenten Aufgaben strukturiert und reproduzierbar abarbeiten, anstatt sich ausschließlich auf probabilistische Modellentscheidungen zu stützen.

Weiterlesen nach der Anzeige

Parallel ergänzt Salesforce seine Plattform um Werkzeuge, die Agenten leichter nutzbar machen sollen. Der überarbeitete Agent Builder erzeugt Agentenlogik aus natürlich formulierten Anweisungen und soll die Modellierung komplexer Abläufe vereinfachen. Mit Agentforce Voice, dessen Einführung sich mehrfach verzögert hat und das Anfang 2026 auch Deutsch unterstützen soll, kommt eine tief integrierte Sprachschnittstelle hinzu. Sie arbeitet bidirektional, mehrsprachig und lässt sich in CRM-, Service- und Commerce-Anwendungen einsetzen. Wüst beschreibt, wie sich damit alltägliche Aufgaben vereinfachen lassen: Außendienstmitarbeiter können Besuchsberichte unmittelbar nach einem Termin einsprechen, woraufhin das System die Inhalte strukturiert, Datensätze aktualisiert und bei Bedarf Folgeprozesse anstößt. Salesforce sieht diese Verbindung aus Spracheingabe und Geschäftslogik als einen Baustein, um Agenten im Arbeitsalltag breiter nutzbar zu machen.

Erstmals erlaubt Salesforce auch Partnern, Komponenten wie Agentforce 360, Data 360 und Trusted Services direkt in eigene Produkte einzubauen und kommerziell zu vertreiben. Begleitet wird dies von flexibleren Nutzungsmodellen und einem erweiterten Marketplace, der Provisionierung und Abrechnung automatisieren soll. Die Öffnung zielt darauf ab, Agentenfunktionen nicht nur in Salesforce-Anwendungen, sondern im gesamten Ökosystem breiter verfügbar zu machen.

Salesforce verfolgt damit eine klare Linie: Agenten sollen sich von experimentellen Werkzeugen zu regulierbaren Bausteinen im Unternehmensbetrieb entwickeln. Die Kombination aus Datenkontext, deterministischen Abläufen und Sprachanbindung adressiert bekannte Schwachstellen aktueller KI-Lösungen. Offen bleibt jedoch, wie hoch der Aufwand für Unternehmen ausfällt, um die notwendige Datenqualität zu erreichen – und wie stark die Abhängigkeit von der eng verzahnten Plattform steigt. Entscheidend wird sein, ob Salesforce die Balance zwischen Integrationstiefe und Offenheit halten kann.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

EU: 3 Euro Pauschal-Zoll auf Pakete bis 150 Euro ab 2026


Die EU erhöht im Kampf gegen unerwünschte Billigimporte die Importkosten. Die Mitgliedsstaaten verständigten sich darauf, dass jedes Paket mit einem Warenwert bis 150 Euro ab Juli 2026 mit einer Abgabe in Höhe von drei Euro belegt ist.

Weiterlesen nach der Anzeige

Die von den Finanzministern der EU bei einem Treffen in Brüssel beschlossene Vorgabe dürfte etwa Online-Händler wie Shein, Temu, AliExpress oder auch Amazon betreffen. Erhoben werden soll die Abgabe von den nationalen Zollbehörden. Bislang können Pakete mit einem Wert von bis zu 150 Euro zollfrei in die Staatengemeinschaft eingeführt werden.

Die neue Abgabe ist allerdings nur vorübergehend geplant, denn künftig sollen alle in die EU importierten Waren ab dem ersten Euro zollpflichtig sein. Ob günstige Produkte dadurch teurer werden, ist noch unklar. Theoretisch könnten auch die Produzenten oder Importeure die Mehrkosten übernehmen.

Lesen Sie auch

Der Online-Handel hat in den vergangenen Jahren zu einem exponentiellen Anstieg bei Lieferungen kleiner Warenpakete mit geringem Wert in die EU geführt. Laut EU-Kommission kamen 2024 täglich rund zwölf Millionen Pakete in der EU an – deutlich mehr als in den beiden Vorjahren.

Im November hatten sich die EU-Staaten darauf verständigt, die derzeit geltende 150-Euro-Freigrenze abzuschaffen. Die von der Bundesregierung unterstützte neue Regelung soll aber erst von 2028 an gelten, wenn auch eine digitale Plattform zur Abwicklung und Kontrolle an den Start gehen soll. Mit dem Abschaffen der Freigrenze soll etwa sichergestellt werden, dass alle Händler – unabhängig von ihrem Standort – die gleichen Wettbewerbsbedingungen haben.

Weiterlesen nach der Anzeige

Bundeskanzler Friedrich Merz (CDU) hatte zuletzt betont, er sei bemüht, in der Europäischen Union zu vermeiden, dass es unfaire Handelspraktiken gebe. Man sehe derzeit einen systematischen Missbrauch der Zollfreiheit von 150 Euro pro Päckchen in Deutschland, durch massenhafte Sendungen vor allem aus China. Der gewaltige Missbrauch der Freigrenzen müsse gestoppt werden.

Zudem soll mit den neuen Vorgaben Betrug angegangen werden: Der Europäischen Kommission nach wird Schätzungen zufolge bei 65 Prozent der in die EU geschickten Pakete bewusst ein zu niedriger Wert in der Zollanmeldung angegeben, um die Befreiung in Anspruch zu nehmen. Das wirkt sich der Behörde zufolge nachteilig auf EU-Unternehmen aus, die nicht mit den entsprechend niedrigeren Verkaufspreisen konkurrieren können – insbesondere kleine und mittlere Unternehmen.

Außerdem sei die Befreiung für Importeure ein Anreiz, größere Bestellungen beim Versand in die EU auf kleinere Pakete aufzuteilen, so die Kommission. Das trage weiter zu ungleichen Wettbewerbsbedingungen für europäische Unternehmen bei und verursache darüber hinaus unter anderem Verpackungsmüll.

Die Chefin des Verbraucherzentrale Bundesverbands, Ramona Pop, nannte die Maßnahmen der EU erste Schritte, um die Paketflut einzudämmen. „Außerdem müssen Online-Marktplätze grundsätzlich zur Verantwortung gezogen werden, wenn sie unsichere oder gefährliche Produkte vertreiben“, forderte sie weiter. Eine Untersuchung der Stiftung Warentest habe kürzlich wieder gezeigt, dass besonders Produkte im Preissegment unter 150 Euro häufig nicht den EU-Regelungen entsprächen, mahnte Pop.

Neben der beschlossenen vorübergehenden Abgabe und der Zollpflicht ab 2028 auch für günstige Produkte erwägt die EU-Kommission Berichten zufolge angesichts der rasant steigenden Zahl von Paketen aus Drittstaaten eine Pauschalabgabe von bis zu zwei Euro auf entsprechende Bestellungen.

Nach Angaben des Handelsverbandes Deutschland (HDE) werden täglich etwa 400.000 Pakete von Shein und Temu an deutsche Kunden verschickt. Der Umsatz der beiden Portale in Deutschland lag 2024 demnach zwischen 2,7 und 3,3 Milliarden Euro. Laut HDE kauften im vergangenen Jahr mehr als 14 Millionen Menschen hierzulande bei Temu und Shein ein.

Die beiden Shoppingportale erfreuen sich bei Verbrauchern großer Beliebtheit. Laut einem aktuellen Ranking des Handelsforschungsinstituts EHI war Shein 2024 bereits der siebtgrößte Onlineshop in Deutschland. Temu belegt bei den Marktplätzen den 4. Rang.

Temu ist ein Online-Marktplatz, auf dem zahlreiche Unternehmen verschiedene Waren verkaufen. Das chinesische Unternehmen ist seit Frühjahr 2023 in Deutschland aktiv und sorgt immer wieder mit Minipreisen und hohen Rabatten für Aufsehen. Produkte werden häufig direkt vom Hersteller zum Kunden geliefert. Der in China gegründete und heute in Singapur ansässige Modekonzern Shein ist sowohl Hersteller, Händler als auch Marktplatz.

Beide Anbieter sind umstritten. Politiker, Handelsvertreter und Verbraucherschützer monieren unter anderem Produktqualität, mangelnde Kontrollen und unfaire Wettbewerbsbedingungen. Sie fordern eine strengere Regulierung und besseren Schutz beim Online-Einkauf.

In Frankreich geriet Shein zuletzt vermehrt ins Visier der Öffentlichkeit. Nachdem bekannt geworden war, dass bei dem Online-Händler Sexpuppen mit kindlichem Aussehen angeboten wurden und Waffen vertrieben werden sollen, leitete die französische Regierung ein Verfahren gegen die Plattform ein. Im Zuge dessen kündigte die Regierung an, am Pariser Flughafen 200.000 Shein-Pakete zu kontrollieren. Shein will mit den Behörden zusammenarbeiten.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

heise+ Update voim 12. Dezember 2025: Lesetipps fürs Wochenende


Liebe Leserinnen, liebe Leser,

wenn Sie bei der Suche nach Weihnachtsgeschenken während der Black Week noch nicht fündig geworden sind, ist das noch kein Grund zur Sorge. Vielleicht ergeben sich bei der Lektüre dieses Newsletters noch Inspirationen.

Viele nutzen die Zeit um den Jahreswechsel, um sich einen neuen PC zusammenzustellen oder einen alten Rechner aufzurüsten. Doch bei der Fülle an Hardware den Überblick zu behalten, ist nicht einfach. Unser Ratgeber hilft Ihnen dabei und zeigt Ihnen, wie Sie die besten Bauteile für Ihr persönliches Anwendungsprofil finden, die nicht nur leistungsstark, sondern auch preislich attraktiv sind. Wenn es statt eines stationären Rechners lieber etwas Mobiles sein soll, das zudem auf Nachhaltigkeit setzt, dann könnte ein Blick auf das neue Framework 12 lohnenswert sein. Dieses Notebook ist nicht nur kompakt, sondern folgt auch einem reparaturfreundlichen, modularen Konzept. In unserem Test erfahren Sie, was das besondere Hybridgerät von Framework auszeichnet.


Das war die Leseprobe unseres heise-Plus-Artikels „heise+ Update voim 12. Dezember 2025: Lesetipps fürs Wochenende“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt