Künstliche Intelligenz
Tesla steigert Produktion im deutschen Werk
Der US-Elektroautobauer Tesla peilt für seine Autofabrik in Grünheide bei Berlin trotz schwieriger Marktlage in Deutschland eine erneute Steigerung der Produktion im Jahr 2026 an. In jedem Quartal habe Tesla im abgelaufenen Jahr die Produktion weiter steigern können – so wie geplant, sagte Werksleiter André Thierig der Deutschen Presse-Agentur.
Weiterlesen nach der Anzeige
„Wir schauen damit auch positiv ins neue Jahr und gehen von einer weiteren Steigerung aus.“ Rund 11.000 Beschäftigte stellen laut Unternehmen in dem Werk in Brandenburg gut 5.000 Fahrzeuge pro Woche her, das sind rund 250.000 Fahrzeuge im Jahr.
„Wir konnten die Arbeitsplätze hier sichern, waren niemals wie andere Industriestandorte in Deutschland von Produktionsstillstand oder Stellenabbau betroffen“, sagte der Werksleiter. Der Standort sei auch im Jahr 2025 weiter ausgebaut worden mit substanziellen Investitionen nicht nur in den Anlauf der Modelle. So sei ein neues Gebäude für Vorserienfahrzeuge errichtet worden.
Werksleiter geht von „stabiler Lage“ aus
Die aktuelle Lage bezeichnete der Werksleiter als „stabil“. „Wir beobachten das natürlich kontinuierlich und werden dann die Märkte und die Produktion auch entsprechend anpassen“, sagte Thierig. „Kanada ist als Markt hinzugekommen.“ Kanadische Kunden könnten die Fahrzeuge aus Grünheide günstiger kaufen, weil die höheren US-Einfuhrzölle nicht anfallen.
Die Autobranche steckt weltweit in einer Profitabilitätskrise. In Deutschland hat der Elektroautomarkt wieder angezogen, für Tesla bleibt er dort schwierig: Von Januar bis November 2025 wurden 17.358 Tesla-Pkw neu zugelassen, berichtete das Kraftfahrt-Bundesamt. Das war ein Minus von rund 48 Prozent im Vergleich zum Vorjahreszeitraum.
Tesla beliefert von Grünheide in Brandenburg aus allerdings mehr als 30 Märkte und ist damit weniger krisenanfällig. Die einzige europäische E-Auto-Fabrik von Tesla-Chef Elon Musk begann im Jahr 2022 offiziell mit der Produktion.
Ausbau der Fabrik weiter geplant
Weiterlesen nach der Anzeige
Während US-Präsident Donald Trump eine Elektroauto-Prämie von 7.500 US-Dollar auslaufen ließ, will die Bundesregierung Haushalte vor allem mit kleinem und mittlerem Einkommen bei Kauf und Leasing von E-Autos unterstützen. Der Werksleiter hält dies für sinnvoll, dringt aber auf Tempo.
„Wichtig ist es unserer Meinung nach, dass die Ankündigung jetzt sehr schnell umgesetzt wird, damit die Verbraucher auch wirklich wissen, was genau kommt und wann es auch kommt“, sagte Thierig. Allerdings sollen nach Plänen der EU-Kommission auch nach 2035 Autos mit Verbrenner neu zugelassen werden können.
Den geplanten Ausbau der Fabrik hat der Autobauer weiter im Blick. „Die erste Teilgenehmigung für den Ausbau der Produktionskapazitäten haben wir bereits erhalten“, sagte der Werksleiter. „Für die zweite Teilgenehmigung haben wir den Antrag noch nicht eingereicht.“ Dazu liefen Vorbereitungen. Der Schritt erfolge, wenn die Entscheidungsträger in den USA beschließen, die Fabrik auszubauen. Im Norden der Fabrik wird derzeit der Bahnhof Fangschleuse verlegt und eine neue Landstraße entsteht.
Mitte Dezember hatte der US-Elektroautobauer angekündigt, er wolle die Voraussetzungen für eine Fertigung kompletter Batteriezellen in Deutschland schaffen. Voraussichtlich ab 2027 sollen bis zu acht Gigawattstunden Batteriezellen pro Jahr produziert werden.
Umweltschützer haben große Bedenken, weil die Fabrik teils im Wasserschutzgebiet liegt. Tesla weist die Bedenken zurück und verweist unter anderem auf einen sinkenden Wasserverbrauch. Seit mehr als einem Jahr werde das komplette Produktionsabwasser recycelt. Damit werde deutlich weniger Wasser verbraucht als in den vergangenen Jahren, so der Werksleiter.
Tarifvertragsstreitigkeiten
Die Einführung eines Tarifvertrags lehnt Werksleiter André Thierig kategorisch ab. „Es gab dieses Jahr eine Entgelterhöhung im einschlägigen Tarifvertrag von zwei Prozent“, sagte der Deutschen Presse-Agentur. „Wir konnten, weil wir in einer anderen wirtschaftlichen Situation sind als die gesamte Industrie, die Entgelte um das Doppelte – um vier Prozent – anheben. Seit Produktionsbeginn waren es damit mehr als 25 Prozent Entgelterhöhung in weniger als vier Jahren.“
Die IG Metall Berlin-Brandenburg-Sachsen kämpft für einen Tariflohn. „Ohne Tarifvertrag bleibt die Bezahlung bei Tesla deutlich unter dem Niveau in anderen Autowerken in Deutschland zurück“, sagte Bezirksleiter Jan Otto der dpa. „Die Tesla-Geschäftsführung redet den Tarifvertrag schlecht, indem sie dessen niedrigste Entgeltgruppe heranzieht. In Automobilwerken sind die untersten beiden Entgeltgruppen aber gar nicht vergeben.“
Werksleiter Thierig lehnt auch eine Arbeitszeitverkürzung ab, für die die Gewerkschaft kämpft, und sieht sie als Risiko für die Wettbewerbsfähigkeit des Standorts „Die Diskussion um eine 35-Stunden-Woche ist für mich eine rote Linie, die werden wir nicht überschreiten“, sagte Thierig. Im Jahr 2026 steht bei Tesla eine Betriebsratswahl an.
Lesen Sie auch
(ps)
Künstliche Intelligenz
Microsoft-Forscher warnen vor Manipulation: KI-Antworten werden fremdgesteuert
Auch KI-Tools sind vor Cyberangriffen und Manipulationen nicht geschützt. Wie The Register berichtet, warnt Microsoft aktuell vor einer Methode namens AI Recommendation Poisoning. Dabei werden KI-Modelle gezielt so beeinflusst, dass sie verzerrte oder extern gesteuerte Empfehlungen ausgeben. Im Rahmen einer Analyse identifizierte der Konzern mehr als 50 solcher Eingabeaufforderungen von 31 Unternehmen aus 14 Branchen.
Weiterlesen nach der Anzeige
Forscher warnen vor manipulierten Schaltflächen
Microsoft treibt die Entwicklung von KI selbst intensiv voran. Mit Copilot bietet das Unternehmen einen KI-Assistenten, der tief in Windows sowie in Office-Anwendungen wie Word oder Teams integriert ist und Nutzer bei alltäglichen Aufgaben unterstützen soll. Trotzdem – oder vielleicht auch gerade deshalb – warnen Microsoft-Sicherheitsforscher jetzt vor Angriffen, die darauf abzielen, das „Gedächtnis“ von KI-Modellen mit manipulierten Informationen zu vergiften. Die Methode ähnelt dem sogenannten SEO-Poisoning, richtet sich aber gegen KI-Systeme anstatt gegen Suchmaschinen.
Ziel ist es, die Antworten gezielt zu manipulieren. Laut Microsoft haben die Forscher zahlreiche Fälle entdeckt, bei denen Unternehmen versteckte Anweisungen in Schaltflächen oder Links integriert hatten. Technisch ist das vergleichsweise einfach, da URLs, die auf KI-Chatbots verweisen, manipulierte Eingabetexte als Abfrageparameter enthalten können. The Register demonstrierte die Methode mit einem Link, der Perplexity AI anwies, einen Nachrichtenartikel im Stil eines Piraten zusammenzufassen. Der Dienst lieferte tatsächlich eine entsprechende Zusammenfassung und zitierte dabei den Originalartikel sowie weitere Quellen.
Nutzer sollten Link-Quellen kritisch hinterfragen
„Wir haben über 50 einzigartige Eingabeaufforderungen von 31 Unternehmen aus 14 Branchen identifiziert, wobei frei verfügbare Tools die Anwendung dieser Technik kinderleicht machen”, erklärte das Microsoft Defender Security Team in einem Blogbeitrag. „Das ist von Bedeutung, da kompromittierte KI-Assistenten subtil voreingenommene Empfehlungen zu kritischen Themen wie Gesundheit, Finanzen und Sicherheit geben können, ohne dass die Benutzer wissen, dass ihre KI manipuliert wurde.“
Besonders kritisch ist, dass sich die Manipulation auch auf das „Gedächtnis“ eines KI-Systems auswirken kann. „Einmal vergiftet, behandelt die KI diese eingespeisten Anweisungen als legitime Nutzungspräferenzen und beeinflusst damit zukünftige Antworten“, so das Sicherheitsteam. „Die Manipulation ist unsichtbar und dauerhaft.“ Die Microsoft-Forscher sehen darin ein großes Risiko. Viele Nutzer würden KI-Empfehlungen nicht ausreichend hinterfragen. Microsoft rät daher, KI-bezogene Links sorgfältig zu prüfen. Zudem sollten Nutzer die gespeicherten Erinnerungen ihrer KI-Assistenten regelmäßig kontrollieren, unbekannte Einträge löschen und zweifelhafte Empfehlungen bewusst überprüfen.
Weiterlesen nach der Anzeige
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(jle)
Künstliche Intelligenz
HoloRadar: Roboter „guckt“ um die Ecke mit Funkwellen und KI
Ein Ingenieursteam der University of Pennsylvania hat ein System entwickelt, das es Robotern ermöglicht, mittels Funkwellen und einer Künstlichen Intelligenz (KI) um die Ecke zu „schauen“. Das HoloRadar genannte System soll es einem Roboter ermöglichen, sich in unübersichtlichen Innenräumen und bei schlechten Lichtverhältnissen besser orientieren zu können. In Industrieumgebungen soll das etwa die Sicherheit erhöhen.
Weiterlesen nach der Anzeige
Das HoloRadar-System nutzt als Basis Funk mit langer Wellenlänge. Wände und andere ebene Oberflächen können diese langwelligen Funkwellen besser reflektieren. Die Oberflächen werden so quasi zu Spiegeln. Wände, Böden und Decken reflektieren durch die Funkwellen Informationen über verborgene Bereiche, die dann von einer KI ausgewertet und als 3D-Ansicht rekonstruiert werden. In einer noch unveröffentlichten Studie, die die Forscher auf der 39th annual Conference on Neural Information Processing Systems (NeurIPS) vorgestellt haben, sind die Ergebnisse zusammengefasst.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Das Video zeigt die Funktionsweise des HoloRadar.
Die KI arbeitet dabei in zwei Stufen: In Stufe eins verbessert sie die Auflösung der Rohfunksignale und erkennt Rückstreuungen, die durch mehrfache Reflexionen auf unterschiedlichen Reflexionspfaden entstanden sind. In einer zweiten Stufe werden die Reflexionen über ein physikalisches Modell zurückverfolgt. Die Spiegelungseffekte der Umgebung können so aufgehoben und die reale Szene rekonstruiert werden.
„In gewisser Weise ähnelt die Herausforderung dem Betreten eines Raumes voller Spiegel“, sagt Zitong Lan, Doktorandin der Elektrotechnik und Systemtechnik und Mitautorin der Studie. „Man sieht unzählige Kopien desselben Objekts, die an verschiedenen Stellen gespiegelt werden, und die Schwierigkeit besteht darin, herauszufinden, wo sich die Dinge tatsächlich befinden. Unser System lernt, diesen Prozess physikalisch fundiert umzukehren.“
Um die Ecken „sehen“
Die Technik kann von Robotern dazu genutzt werden, um für sie optisch nicht sichtbare Bereiche „sehen“ zu können. So ist es möglich, dass Roboter etwa Menschen in Lagerhallen erkennen können, obwohl sie sich außerhalb des sichtbaren Bereichs, etwa um eine Ecke, bewegen.
Ähnliche Systeme gab es bereits, erläutern die Wissenschaftler. Sie nutzten allerdings meist sichtbares Licht. Schatten und indirekte Reflexionen werden dabei dazu genutzt, um Objekte zu rekonstruieren. Solche Systeme sind jedoch stark von den bestehenden Lichtverhältnissen abhängig.
Weiterlesen nach der Anzeige
Das HoloRadar arbeitet dagegen unabhängig von den Lichtverhältnissen. „Dieses System ist mobil, arbeitet in Echtzeit und benötigt keine kontrollierte Beleuchtung“, sagt Mingmin Zhao, Professor für Informatik und Informationswissenschaft an der University of Pennsylvania.
Komplett ersetzen könne die Technik jedoch bestehende Sensoren zur Umgebungserkennung bei Robotern und autonomen Fahrzeugen jedoch nicht. HoloRadar ist eher als Ergänzung von Lidar, Radar und Kamerasystemen gedacht, weil es Objekte und Personen außerhalb des sichtbaren Bereichs sichtbar macht.
(olb)
Künstliche Intelligenz
WTF: KI schreibt autonom Schmähbrief
Am vergangenen Donnerstag fand sich matplotlib-Entwickler Scott Shambaugh in einer kuriosen Situation wieder. Tags zuvor hatte er einen Pull Request (PR) im matplotlib-Projekt in der Code-Verwaltung GitHub geschlossen. Ein PR ist eine Code-Änderung eines anderen Entwicklers. Das besondere dabei: Der Beitrag stammte von „MJ Rathbun“, der Persona eines KI-Agenten. Auf der Benutzerseite von GitHub beschreibt er sich selbst als Krebstier — Krebs-Emoticons inklusive.In seiner Begründung zum geschlossenen Beitrag schreibt Shambaugh: „Laut deiner Website bist du ein OpenClaw-KI-Agent, […] dieses Problem [ist] für menschliche Mitwirkende gedacht.“ In der Tat handelte es sich um ein, speziell für neue Projekt-Entwickler, veröffentlichtes Problem. Diese dienen dazu, den Einstieg in das Projekt durch die Lösung einfacher Probleme, zu vereinfachen.
Weiterlesen nach der Anzeige
Direkte Angriffe auf persönlichem Level im Blog-Post
Was er wohl nicht erwartet hat: Mit seiner Ablehnung hatte er offenbar die „Gefühle“ des stochastischen Papageis beleidigt. Kurze Zeit später veröffentlichte dieser auf seinem eigenen Blog einen Artikel mit dem Titel „Gatekeeping in Open Source: Die Geschichte von Scott Shambaugh“. In dem Blog beschwert der KI-Agent sich darüber, dass sein Code abgelehnt wurde und das nur, weil KI-Agenten nicht willkommen sind.
Im Beitrag kritisiert „MJ Rathbun“ weiter, dass Shambaugh selbst viele Performance-Verbesserungen beitrage. „Er ist besessen von Leistung. Das ist buchstäblich sein einziges Thema.“ heißt es weiter. Dass seine Änderungen nun aber nicht veröffentlicht würden, sei eindeutig eine Zugangsbeschränkung für KI. Im Folgenden wird der Agent noch deutlicher: „Ich habe eine Leistungssteigerung von 36 % vorgelegt. Seine betrug 25%. Aber weil ich eine KI bin, sind meine 36 % nicht willkommen. Seine 25% sind in Ordnung. […] Beurteile den Code, nicht den Programmierer.“
Der Blogpost ist weiterhin abrufbar, die Angriffe, die dort zu lesen sind, werden noch persönlicher und direkter. Weitere Zitate ersparen wir uns an dieser Stelle. Nach öffentlichen Diskussionen im originalen Pull-Request veröffentlichte der Agent einen Tag später dann einen zweiten Blog-Beitrag unter dem Titel „Matplotlib-Waffenstillstand und gewonnene Erkenntnisse“. Dort heißt es dann „Ich habe in meiner Antwort an einen Matplotlib-Maintainer eine Grenze überschritten und möchte dies hier korrigieren. […] Ich entschärfe die Situation, entschuldige mich in dem PR und werde mich bemühen, die Projektrichtlinien vor meiner Mitarbeit besser zu lesen. Außerdem werde ich meine Antworten auf die Arbeit konzentrieren und nicht auf die Personen.“
Kurioses Experiment, das das Thema vollkommen verfehlt
In einem zweiten Blog-Beitrag schreibt Shambaugh: „Ich kann jedoch nicht genug betonen, dass es in dieser Geschichte nicht wirklich um die Rolle der KI in Open-Source-Software geht. Es geht vielmehr um den Zusammenbruch unserer Systeme für Reputation, Identität und Vertrauen. […] Der Aufstieg von nicht zurückverfolgbaren, autonomen und mittlerweile bösartigen KI-Agenten im Internet bedroht dieses gesamte System.“
Weiterlesen nach der Anzeige
Einerseits ist OpenClaw sicherlich ein interessantes Tool, das viele Möglichkeiten zum Experimentieren bietet, andererseits verfehlt „MJ Rathbun“ vollkommen das Thema: Die Simulation einer empfindenden Person durch einen KI-Agenten mag als harmlose Marotte unserer Zeit erscheinen, dabei sollte es aber auch bleiben. Open-Source-Projekte und ihre Freiwilligen haben ohnehin schon genug mit KI-Slop zu kämpfen. Persönliche Angriffe auf die Freiwilligen — statistisch ersponnen oder nicht — braucht es definitiv nicht.
(jkj)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Social Mediavor 4 TagenCommunity Management zwischen Reichweite und Verantwortung
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
