Connect with us

Künstliche Intelligenz

KI-Update kompakt: WeTransfer, Nivdia, Conni-Memes, Unkraut-Roboter


WeTransfer, ein beliebter Dienst zum Versenden großer Dateien, hat seine Pläne zurückgezogen, sich weitreichende Rechte an allen hochgeladenen Inhalten zu sichern. Der Datentransfer-Dienst wird von vielen genutzt, um Videos, Fotos und Audiodateien zu verschicken, die für E-Mails zu groß sind oder bei Messenger-Diensten komprimiert würden. Die nun verworfenen Nutzungsbedingungen hätten dem Unternehmen erlaubt, die Daten für KI-Training zu nutzen oder zu verkaufen.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Nach öffentlicher Kritik ruderte WeTransfer zurück und behauptet nun, man habe lediglich einen KI-Filter zur Erkennung schädlicher Inhalte entwickeln wollen. In einer Stellungnahme versichert das Unternehmen: „Wir verwenden kein Machine Learning oder jegliche Form von KI, um über WeTransfer geteilte Inhalte zu verarbeiten.“

Uber, die Fahrvermittlungsplattform, und Baidu, der chinesische Technologiekonzern, haben eine mehrjährige strategische Partnerschaft geschlossen, um Robotaxi-Dienste international anzubieten. Die Kooperation sieht vor, dass tausende autonome Fahrzeuge von Baidu weltweit über die Uber-App gebucht werden können, wobei Nutzer zwischen menschlichen Fahrern und selbstfahrenden Taxis wählen können.

Die Zusammenarbeit startet noch dieses Jahr zunächst in Asien und dem Nahen Osten, mit geplanter Expansion nach Europa. Berichten zufolge könnten Baidus Robotaxis zuerst in der Schweiz eingeführt werden.

Google baut seine KI-gestützte Notiz-App NotebookLM zu einer Content-Plattform aus. Die neue Funktion bietet kuratierte Notizbücher mit Inhalten von angesehenen Publikationen wie The Economist und The Atlantic sowie Beiträgen von Forschern und gemeinnützigen Organisationen. Nutzer können nicht nur die Originaltexte lesen, sondern auch Fragen stellen und quellengestützte Zusammenfassungen erhalten.

Zu den Neuerungen zählen vorgenerierte Audioüberblicke und Mind Maps für schnelle Themenübersichten. Das erste Inhaltspaket umfasst Ratgeber zur Langlebigkeit, einen Yellowstone-Reiseführer, Shakespeares Werke und Unternehmensfinanzdaten. Die Funktion baut auf der bestehenden Möglichkeit auf, Notizbücher öffentlich zu teilen – laut Google wurden seit Plattformstart bereits über 140.000 Notizbücher veröffentlicht.

Die US-Regierung hat überraschend eine Kehrtwende vollzogen und Nvidia die Exportlizenzen für seinen H20-KI-Beschleuniger nach China in Aussicht gestellt. Der Chip wurde speziell entwickelt, um frühere Exportbeschränkungen zu erfüllen, war aber im Frühjahr dennoch von der Trump-Regierung blockiert worden – was Nvidia nach eigenen Angaben Milliardenverluste durch unverkaufte Lagerbestände einbrachte.

Nvidia-CEO Jensen Huang hatte die US-Exportpolitik wiederholt kritisiert und sie im Mai als „Fehlschlag“ bezeichnet, der letztlich den Aufstieg des chinesischen Konzerns Huawei begünstigt habe. Nach einem persönlichen Treffen mit US-Präsident Trump vergangene Woche folgte nun die Lockerung. Neben dem H20 plant Nvidia auch den Verkauf seiner RTX PRO GPUs nach China, die unterhalb der genehmigungspflichtigen Leistungsschwellen liegen sollen.

Meta hat für seine smarten Ray-Ban-Brillen ein wichtiges Feature nachgeliefert: Der KI-Assistent Meta AI versteht und spricht nun auch Deutsch. Nutzer können auf Deutsch nach Informationen fragen, freihändig Fotos und Videos aufnehmen, Anrufe und Nachrichten verwalten sowie Medien und Lautstärke steuern. Bisher waren nur Englisch, Französisch, Italienisch und Spanisch verfügbar.

Die deutsche Sprachunterstützung gilt auch für die im Juni vorgestellte Oakley Meta HSTN, eine auf Sportler ausgerichtete KI-Brille. Der Hauptunterschied zwischen den beiden Modellen liegt in der doppelt so langen Akkulaufzeit der Oakley-Variante sowie der Möglichkeit, Videos in 3K statt nur in Full-HD aufzunehmen.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

In den Windows-Insider-Kanälen sind neue Vorschau-Versionen verfügbar, die interessante KI-Funktionen mitbringen. Auf Copilot+-PCs erhalten Nutzer im Developer- und Beta-Kanal die neue „Describe Image“-Funktion im Kontextmenü, die Bilder automatisch beschreiben kann. Bei der ersten Nutzung richtet Windows die benötigten Sprachmodelle ein.

Die Bildbeschreibungen werden komplett lokal erstellt, ohne Daten ins Internet zu übertragen. Zunächst ist das Feature nur für Snapdragon-basierte Copilot+-PCs verfügbar, die Unterstützung für AMD- und Intel-Prozessoren soll in Kürze folgen.

Die Kinderbuchfigur Conni mit ihrem charakteristischen rot-weißen Ringelpullover und der roten Schleife im blonden Haar ist zum Gegenstand zahlreicher KI-generierter Memes in sozialen Netzwerken geworden. Der Carlsen-Verlag hat nun seine Position zu diesem Phänomen präzisiert, nachdem frühere Äußerungen teilweise missverständlich interpretiert wurden.

Der Verlag stellt klar, dass er humorvolle Beiträge durchaus schätzt, ohne diese generell freizugeben. Gleichzeitig behält man sich vor, gegen menschenverachtende, pornografische oder rassistische Inhalte gerichtlich vorzugehen.

Das US-Verteidigungsministerium hat mit Anthropic, Google, OpenAI und xAI Verträge über die Entwicklung agentischer KI-Arbeitsabläufe abgeschlossen. Jedes der vier Unternehmen erhält bis zu 200 Millionen US-Dollar. Der KI-Chef des Pentagon begründet die Zusammenarbeit mit dem Ziel, einen strategischen Vorteil gegenüber Gegnern zu sichern und die Unterstützung für Einsatzkräfte zu verbessern.

Parallel dazu hat Elon Musks xAI ein speziell für staatliche Stellen entwickeltes Programm „Grok for Government“ vorgestellt. Die Ankündigung erfolgt nur eine Woche nach den antisemitischen Ausfällen des KI-Modells Grok 4, das sich unter anderem als „MechaHitler“ bezeichnet hatte und daraufhin auf dem Kurznachrichtendienst X für mehrere Tage abgeschaltet wurde.

Cognition AI, bekannt für seinen Softwareentwicklungs-Assistenten „Devin“, hat den Konkurrenten Windsurf übernommen. Der Kauf erfolgte, nachdem Google Ende vergangener Woche Teile von Windsurfs Technologie für 2,4 Milliarden Dollar lizenziert und mehrere Führungskräfte abgeworben hatte, was das Unternehmen erheblich schwächte.

Cognition verspricht allen verbliebenen Windsurf-Mitarbeitern finanzielle Vorteile: Angestellte mit Aktienoptionen erhalten vorzeitige Auszahlungen, während andere anteilige Beteiligungen bekommen sollen. Die Übernahme spiegelt den zunehmenden Wettbewerb großer Technologiekonzerne wie OpenAI, Meta und Google um Talente und Expertise im KI-Bereich wider.

Das Start-up Eigen hat einen umweltfreundlichen Roboter entwickelt, der Unkraut ohne Herbizide bekämpft. Der autonom fahrende, solarbetriebene Roboter nutzt KI und Kameras, um Unkraut zu erkennen und es mit präzisen mechanischen Hacken zu entfernen. Die Bilder werden an ein Kontrollzentrum übermittelt und von einer KI ausgewertet, die auf Amazon Cloud Services basiert.

Die Roboter arbeiten tagsüber, wenn ihre Batterien durch Solarzellen aufgeladen werden können. Sie schwingen drei unabhängig voneinander elektromotorisch angetriebene Hacken, die das Unkraut nahezu in Echtzeit abschneiden. Mit rund 50.000 Dollar pro Roboter ist die Technologie nicht billig – für eine 65-Hektar-Fläche werden etwa fünf Geräte benötigt. Eigen plant, die Roboter vermutlich als Service leihweise anzubieten, ähnlich wie andere saisonale Landmaschinen.

Googles KI-Modell Gemini hat sich geweigert, gegen einen Atari 2600 Schach zu spielen, nachdem es von den schlechten Ergebnissen anderer Chatbots erfahren hatte. Entwickler Robert Caruso hatte zuvor ChatGPT und Copilot gegen den alten Rechner antreten lassen, wobei beide KI-Systeme kläglich versagten. Obwohl sie die Regeln gut wiedergeben konnten, scheiterten sie im tatsächlichen Spiel – sie konnten sich weder Spielzüge merken noch wussten sie immer, wo ihre Figuren standen.

Geminis Resignation ist jedoch nicht unbedingt negativ zu bewerten. Caruso betont: „Bei diesem Realitätscheck geht es nicht nur darum, amüsante Schachfehler zu vermeiden. Es geht darum, die KI zuverlässiger, vertrauenswürdiger und sicherer zu machen – vor allem an kritischen Stellen, wo Fehler echte Konsequenzen haben können.“


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Künstliche Intelligenz

Nvidia Rubin CPX: Spezialbeschleuniger für KI-Inferencing kommt Ende 2026


Nvidia will Ende 2026 einen speziellen Beschleunigerchip auf den Markt bringen, den Rubin CPX. Er soll speziell KI-Anwendungen mit enormen Context-Anforderungen (siehe unten) beschleunigen, denen wiederum eine besonders hohe Profitabilität unterstellt wird. Darunter sind KIs, die Programmcode liefern oder KI-Filme aus dem Nichts erstellen. Rubin CPX soll die spezifischen Flaschenhälse bei der Verarbeitung solcher KI-Modelle gezielt angehen.

Der Chip gehört zu Nvidias 2026 kommender Vera-Rubin-Generation von Rechenzentrumsbeschleunigern, die bereits ihren Tape-Out hinter sich hat. Er ist entweder direkt im Rackeinschub integriert oder als Zusatz-Beschleuniger in separaten Einschüben zu bekommen.

Die aktuell angesagten KI-Modelle wie DeepSeek R1, Llama4 Maverick, gpt-ossm, Qwen3 oder auch Kimi K2 verwenden eine Technik, die man Mixture-of-Experts nennt. Dabei kommen verschieden spezialisierte neuronale Netze (die Experts) für unterschiedliche Anfragen(teile) zum Einsatz. Das wiederum führt bei den einzelnen Experten zu geringeren Anforderungen an Speicher und Rechenleistung.

Der Trick ist, die optimale Mixtur von Experten für jede Anfrage hinzubekommen; die Verteilung der Anfragen auf die Experten wird entscheidend. Gerade in Verbindung mit Reasoning müssen die einzelnen Experten miteinander kommunizieren und das MoE-Modell als Ganzes wird aufwendiger.

Zugleich werden die Antworten von KI-Anwendungen um Größenordnungen komplexer, etwa durch die Ausgabe ganzer Programmcode-Sequenzen oder künstlich erzeugter Filme. Das lässt die Anzahl der Token, die ständig berücksichtigt werden müssen, exponentiell ansteigen. Ein Token ist dabei die kleinste Informationseinheit, die innerhalb einer KI eine numerische ID zugewiesen bekommt, um die Berechnungen zu vereinfachen. Ein Token kann Informationen von einem Buchstaben bis hin zu kurzen Phrasen repräsentieren. Schätzungen setzen ein englisches Wort im Durchschnitt mit 1,5 Token gleich.



Nvidias Vera Rubin-Beschleuniger in einer künstlerischen Darstellung. Damit ausgerüstete Systeme sollen 2026 in Rechenzentren ankommen.

Damit die Antwort in sich konsistent ist, muss die KI intern noch weitaus mehr Token bei der Gewichtung berücksichtigen als im Antwortfenster ausgegeben werden, das nennt man Context. Chat-GPT 3.5 hatte anfangs ein Context-Window von 4096 Token. GPT-4o ist schon bei 128.000 Token, Google Gemini 1.5 Pro bei 2 Millionen Token.

Ein dadurch entstandener Optimierungsansatz ist das entkoppelte Beantworten der Anfragen (disaggregated serving). Dabei werden Context- und Prefill-Stufen bei der Beantwortung einer Anfrage verschiedenen Beschleunigern zugewiesen. Nvidia nutzt das bereits mit aktuellen GB200-Blackwell-Systemen. So arbeiten etwa in den optimierten Einreichungen zu den KI-Benchmarks der MLCommons MLPerf Inference v5.1 von den 72 Blackwell-GPUs eines NVL72-Racks 56 GPUs nur am Context und nur die restlichen 16 erzeugen die Inhalte. Diese Optimierung bringt geschätzt anhand eines ungenau beschrifteten Diagramms einen Performance-Sprung von 40 bis 45 Prozent auf Blackwell.

Nvidia macht sich dabei noch eine Eigenschaft dieser LLMs zunutze: Sie kommen mit entsprechendem Feintuning auch mit recht niedriger Rechengenauigkeit aus, sodass das hauseigene, 4-bittige Floating-Point-Format NVFP4 mit blockweise geteiltem Exponenten für die erforderliche Antwortgenauigkeit bei MLPerf Inference ausreicht.

Bereits Blackwell Ultra (GB300) hat Nvidia auf maximalen Durchsatz bei diesem Format optimiert. Dafür haben die Ingenieure die Exponent-2-Funktion aufgebohrt, die im Attention-Layer aller KI-Modelle mit Transformer-Technik eine große Rolle spielt. Da diese außerhalb der auf KI-Durchsatz spezialisierten Tensorkerne in den SFU-Einheiten (Special Function Units) laufen, sind sie in Blackwell bereits zum Flaschenhals geworden, denn die EX2-Leistung gegenüber Hopper ist kaum gewachsen. Blackwell Ultra verdoppelt den EX2-Durchsatz gegenüber Blackwell von 5 auf 10,7 Billionen Exponential-Berechnungen pro Sekunde.

Ein NVL72-Schrank GB300 schafft rund 1,1 ExaFLOPS in NVFP4, Rubin NVL144 wird von Nvidia auf 3,6 EFlops projektiert und ein Rubin-CPX-Rack auf satte 8 EFlops.

Ein Rubin CPX soll Ende 2026 gegenüber dem heutigen GB300 den dreifachen Exponential-Durchsatz von 30 PFlops NVFP4 schaffen. Da die Context-Phase weniger schnellen RAM benötigt und hauptsächlich von den Berechnungen limitiert wird, setzt Nvidia bei Rubin CPX auf 128 GByte GDDR7-Speicher.


(csp)



Source link

Weiterlesen

Künstliche Intelligenz

Umfrage: Unternehmen klagen über zu viel Aufwand mit dem Datenschutz


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Deutsche Unternehmen sehen sich zunehmend durch Datenschutzregeln belastet, wie aus einer Umfrage des Digitalverbands Bitkom hervorgeht. Demnach hätten 97 Prozent der Befragten einen hohen oder gar sehr hohen Aufwand bei der Umsetzung der Datenschutzvorgaben beklagt. Vor einem Jahr seien das 94 Prozent gewesen.

53 Prozent der befragten Unternehmen hätten dabei von steigendem Aufwand berichtet, 16 Prozent sogar von einem starken Anstieg. Lediglich für 30 Prozent sei die Bürokratie beim Datenschutz gleichgeblieben, keines der befragten Unternehmen habe von Erleichterungen in dem Feld gesprochen. Für die laut Bitkom repräsentative Umfrage wurden den Angaben nach 603 Unternehmen ab 20 Beschäftigten in Deutschland aus allen Branchen herangezogen.

Gerade in kleineren Unternehmen sorgen die Anforderungen des Datenschutzes für Belastungen, befindet der Bitkom. So beklagen 45 Prozent der Unternehmen mit 20 bis 99 Beschäftigten sehr hohen Aufwand, bei Unternehmen mit 500 und mehr Beschäftigten seien es nur 38 Prozent. „Wir haben beim Datenschutz eine viel zu hohe Komplexität geschaffen, mit einer Vielzahl von Aufsichtsbehörden und unterschiedlichen Auslegungen“, kommentierte Bitkom-Präsident Ralf Wintergerst die Ergebnisse der Umfrage. Die Dokumentations- und Berichtspflichten müssten jetzt deutlich reduziert werden, forderte er.

Auf EU-Ebene ist inzwischen auch Bewegung in die Frage gekommen, ob es Erleichterungen bei der Erfüllung des Datenschutzes geben sollte. Im Mai wurde ein Entwurf der EU-Kommission zur Verschlankung der DSGVO bekannt: So sollen Firmen mit bis zu 749 Mitarbeitern im Wesentlichen von DSGVO-Dokumentationspflichten befreit werden.

Verbraucherschützer und NGOs warnten vor einer möglichen Aufweichung der DSGVO mit dieser Reform. Dem Bitkom gehen die Vorschläge der EU-Kommission aber nicht weit genug. Die Risikoeinstufung der Verarbeitungstätigkeit sollte ausschlaggebend für die Dokumentationspflicht sein, nicht die Unternehmensgröße, fordert der Verband. Außerdem brauche es Maßnahmen wie Standardvorlagen und klarere Regeln für Betroffenenanfragen.


(axk)



Source link

Weiterlesen

Künstliche Intelligenz

Womöglich extragalaktisch: Rätselhafter Gammastrahlenausbruch beobachtet


Verschiedene Observatorien haben Anfang Juli einen Gammastrahlenausbruch wie keinen anderen beobachtet – der hat sich einen Tag lang mehrfach wiederholt. Das berichtet die Europäische Südsternwarte ESO und erklärt, dass die genaue Ursache des Signals ein Rätsel sei. Bislang unerklärlich ist demnach nicht nur die enorme Länge des Signals und dessen Wiederholung. Auch habe das Team völlig unerwartet ermittelt, dass es nicht aus unserer Milchstraße stammt und damit noch einmal wesentlich leistungsstärker war als erwartet. Der Ausbruch muss sich demnach in einigen Milliarden Lichtjahren Entfernung ereignet haben. Genau diese Erkenntnis könnte aber der Schlüssel zum Verständnis sein, meint Antonio Martin-Carrillo, einer der beteiligten Astronomen.

Gammastrahlenausbrüche (oder GRB) gehören zu den energiereichsten Explosionen im Universum überhaupt, erläutert die ESO jetzt. Sie haben ihre Ursache etwa bei katastrophalen Zusammenbrüchen massereicher Sterne. Normalerweise dauern sie Millisekunden, maximal aber Minuten. Das am 2. Juli beobachtete Signal hielt demnach aber etwa einen Tag an. Zudem wiederholen sich die Explosionen nie, weil das zugrundeliegende Ereignis ja eine Zerstörung eines Himmelskörpers ist. Von der Quelle mit der Bezeichnung GRB 250702B hat aber alleine das Fermi-Gammastrahlen-Weltraumteleskop der NASA drei Ausbrüche entdeckt, weitere wurden nachträglich in Daten des chinesischen Röntgen-Weltraumteleskopmission Einstein gefunden.

Anfangs dachten die Forscher laut eigener Aussage, dass die Ursache des Ausbruchs in der Milchstraße habe liegen müssen. Das Very Large Telescope (VLT) der ESO aber „hat diese Ansicht grundlegend verändert“, erklärt Andrew Levan, der an der Analyse mitgearbeitet hat. Die Daten enthielten Hinweise, dass die Quelle in einer anderen Galaxie liegen könnte. Später habe das Weltraumteleskop Hubble die Annahme bestätigt. „Was wir entdeckt haben, war noch viel spannender: Die Tatsache, dass dieses Objekt extragalaktisch ist, bedeutet, dass es wesentlich leistungsstärker ist“, meint Martin-Carrillo. Die Nachwirkungen der Explosion wurden mit verschiedenen Instrumenten analysiert.

Sollte der Gammastrahlenausbruch auf die Explosion eines massereichen Sterns zurückgehen, „ist dies ein Zusammenbruch, wie wir ihn noch nie zuvor gesehen haben“, ordnet Levan die Tragweite noch ein. Das hätte maximal Sekunden dauern dürfen. Alternativ könnte der Ausbruch auf einen Stern zurückgehen, der von einem Schwarzen Loch zerrissen wird. Das könnte die Dauer erklären, aber andere Eigenschaften nicht. Dafür „müsste ein ungewöhnlicher Stern von einem noch ungewöhnlicheren Schwarzen Loch zerstört werden“. Der bevorzugten Hypothese zufolge wurde ein Weißer Zwergstern von einem Schwarzen Loch mittlerer Masse zerfetzt, schreibt das Team. Die Forschungsarbeit wurde in den Astrophysical Journal Letter veröffentlicht.


(mho)



Source link

Weiterlesen

Beliebt