Connect with us

Künstliche Intelligenz

KI-Update kompakt: Googles KI, Strommangel, Desinformation, Quellenangaben


Weiterlesen nach der Anzeige

Die Europäische Kommission hat ein Verfahren gegen Google eingeleitet. Der Vorwurf: Google nutzt Inhalte von Verlagen und Webseitenbetreibern für KI-Übersichten und den KI-Modus, ohne angemessene Kompensation zu zahlen. Nutzer erhalten Antworten direkt in der Suchmaschine und müssen nicht mehr auf die ursprünglichen Webseiten klicken. Den Betreibern entgehen dadurch Werbeeinnahmen.

Die Kommission kritisiert zudem, dass Google keine technische Möglichkeit bietet, Inhalte nur vor KI-Nutzung zu schützen. Wer entsprechende Crawler ausschließen will, verschwindet komplett aus der Google-Suche. Auch Youtube-Videos nutzt Google automatisch für das Training seiner KI-Modelle, während anderen Unternehmen dies verboten ist. Google steht damit vor einem weiteren Verfahren, nachdem das Unternehmen zuletzt knapp 3 Milliarden Euro Strafe zahlen musste, weil es seine Anzeigentechnologie bevorzugt hatte.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Nvidia darf bald KI-Beschleuniger vom Typ H200 nach China liefern, allerdings nur an ausgewählte Abnehmer. US-Präsident Donald Trump kündigte an, dass Nvidia 25 Prozent des Umsatzes als Strafsteuer zahlen muss. Ähnliche Regelungen sollen für Intel, AMD und andere US-Unternehmen gelten.

Trump hatte das Vertriebsverbot bisher mit Bedenken zur nationalen Sicherheit begründet. Wie eine Umsatzbeteiligung von 25 Prozent diese Bedenken ausräumen soll, bleibt unklar. Die meisten Chips werden ohnehin nicht in den USA produziert. Nvidias Chips kommen von TSMC aus Taiwan.

Weiterlesen nach der Anzeige

Der Präsident des Bundesamts für Verfassungsschutz, Sinan Selen, warnt vor übermäßiger Abhängigkeit von US-Software wie Palantir. Beim Symposium des Verfassungsschutzes in Berlin betonte er, Europa müsse Alternativen bieten. Politik solle bei der Auswahl von Software drei Faktoren berücksichtigen: Sicherheitsbeitrag, Performance und geostrategische Richtigkeit.

Mehrere Bundesländer hatten sich zuletzt für Palantirs System als Analysesoftware für die Polizei entschieden. Selen hält das für problematisch und verweist auf europäische Anbieter. Deutschland und Europa hätten Industrien und Firmen, die solche Systeme entwickeln können. Diese müsse man stärker unterstützen und berücksichtigen.

Die großen KI-Konzerne investieren Hunderte Milliarden Dollar in neue Rechenzentren, stoßen aber an die Grenzen des amerikanischen Stromnetzes. Eine Analyse der Financial Times zeigt: Bis 2028 werden etwa 44 Gigawatt zusätzliche Leistung für neue Rechenzentren benötigt. Das Netz kann im gleichen Zeitraum nur 25 Gigawatt bereitstellen. Die Lücke von 19 Gigawatt entspricht 40 Prozent des Bedarfs.

Amazon, Google, Meta und Microsoft haben zusammen mehr als 400 Milliarden Dollar für Rechenzentren eingeplant. Das Problem liegt in der veralteten Infrastruktur. Viele Strommasten und Transformatoren stammen aus den 1960er und 1970er Jahren. Die Wartezeit von der Beantragung eines Netzanschlusses bis zum Betrieb überschreitet acht Jahre. Um Verzögerungen zu umgehen, setzen die Konzerne auf eigene Kraftwerke.

Essential AI hat ein neues Open-Source-Modell für Programmieraufgaben vorgestellt. Rnj-1 übertrifft in Coding-Benchmarks deutlich größere Konkurrenten, obwohl es mit acht Milliarden Parametern zu den kompakteren Modellen zählt. Vorgestellt wurde das System von Ashish Vaswani, Mitgründer von Essential AI und Co-Autor des einflussreichen Forschungspapiers „Attention is all you need“, das die Transformer-Architektur einführte.

Der Schlüssel zum Erfolg liegt laut Essential AI im verbesserten Vortraining. Das Unternehmen setzte auf einen speziellen Optimierungsalgorithmus namens „Muon“ der die benötigten Rechenressourcen deutlich reduziert. Andere Methoden wie Verstärkungslernen nach dem Training spielten eine untergeordnete Rolle.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Während US-Konzerne für ihre Arbeitspraktiken in Kenia unter Beobachtung stehen, bauen chinesische KI-Firmen im Stillen ein Netzwerk aus Billigarbeitskräften auf. Das berichtet das Technologie-Magazin „Rest of World“. Anders als US-Konzerne, die meist formelle Outsourcing-Partner nutzen, setzen chinesische Akteure auf undurchsichtige Netzwerke. Die Arbeit wird über WhatsApp-Gruppen organisiert, die Bezahlung erfolgt über mobile Zahlungsdienste.

Formale Arbeitsverträge oder Sozialleistungen existieren laut den befragten Arbeitern nicht. Oft kennen die Angestellten nicht einmal den Namen des Auftraggebers. Im regulären Betrieb müssen die größtenteils jungen Menschen bis zu 26.000 Videoclips pro Tag klassifizieren. Für Schichten von bis zu zwölf Stunden erhalten sie teilweise nur etwa fünf Dollar. Die extrem hohe Jugendarbeitslosigkeit von 67 Prozent in Kenia zwingt viele dazu, diese Bedingungen zu akzeptieren. Professorin Payal Arora von der Universität Utrecht warnt, dass diese Schatten-Lieferketten die Rechenschaftspflicht massiv erschweren.

KI macht es wesentlich einfacher, manipulierende Medien zu erstellen. Die Menschen in Europa reagieren darauf und vertrauen verstärkt den klassischen Medien. Das ergab eine Studie des Vodafone Instituts, der Denkfabrik des Telekommunikationsdienstleisters. Europäer sorgen sich, dass durch KI-generierte Fake News und Deepfakes Demokratien in Gefahr sind.

Sie wenden sich wieder mehr klassischen Medien wie Nachrichten im Fernsehen und Radio zu. Das gilt besonders für die ältere Bevölkerung, aber auch Jüngere vertrauen verstärkt auf traditionelle Quellen. Jüngere Europäer beziehen ihre Nachrichten allerdings mehrheitlich über Social Media und sind sich bewusst, dass dort Inhalten nicht immer vertraut werden kann. Die Befragten stufen ihre eigene Medienkompetenz als weniger wirksam ein als einen Dreiklang aus prüfenden Institutionen, klassischen Medien, KI-Detektoren und staatlichen Einrichtungen.

Das Internationale Komitee vom Roten Kreuz hat darauf hingewiesen, dass KI-Systeme inkorrekte oder komplett falsche Archivverweise generieren können. Wenn ein Dokument nicht auffindbar sei, bedeute das nicht, dass das Rote Kreuz Informationen zurückhalte, versichert die Organisation. KI-Systeme recherchierten nicht, verifizierten keine Quellen und überprüften keine Informationen.

Die Inhalte würden nur auf Basis statistischer Muster generiert, weshalb sie Katalognummern, Beschreibungen von Dokumenten oder Verweise zu Plattformen erfänden. Zuverlässige Informationen finde man nur in offiziellen Katalogen oder direkt in Bibliotheken. Bibliothekare hatten bereits vor mehreren Wochen gegenüber dem US-Magazin 404 von viel Verwirrung und einem merklichen Vertrauensverlust berichtet. Die falschen Verweise bedeuten viel unnötige Mehrarbeit, da jedes Mal erst recherchiert werden muss, bevor klar wird, dass ein Titel nicht existiert.

Doctolib, ein Anbieter für Online-Terminservices, will seine KI-Systeme künftig in enger Zusammenarbeit mit dem Deutschen Forschungszentrum für Künstliche Intelligenz weiterentwickeln. Als Ziel nennt Doctolib die Weiterentwicklung von Methoden zur sicheren und datenschutzkonformen Verarbeitung medizinischer Informationen in KI-Systemen. Das DFKI wird mehrsprachige Datensätze in Deutsch, Französisch und Englisch bereitstellen.

Die Betonung von Datenschutz und Sicherheit scheint auch eine Reaktion auf anhaltende Datenschutzkritik zu sein. Experten bemängeln seit Langem, die Verarbeitung sensibler Gesundheitsdaten durch Doctolib sei zu umfangreich und nicht transparent genug. Seit 2019 finden sich regelmäßig Beschwerden zu dem Unternehmen in den Tätigkeitsberichten der Berliner Datenschutzbeauftragten.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Künstliche Intelligenz

Gar keine Eisriesen? Neptun und Uranus Im Innern womöglich doch eher felsig


Anders als gemeinhin angenommen, könnten die beiden äußersten Planeten des Sonnensystems eher felsig statt eisig sein: Uranus und Neptun wären dann keine Eisriesen, sondern Gesteinsriesen. Das jedenfalls legt eine Untersuchung von zwei Forschenden der Universität Zürich nahe, die jetzt vorgestellt wurde. Luca Morf und Ravit Helled schließen daraus, dass bisherige physikalische Modelle zum Aufbau der beiden Himmelskörper zu vereinfachend waren, ihr Inneres sei keineswegs auf Eis beschränkt. Das hätten sie bereits vermutet, aber erst jetzt habe man rechnerische Belege dafür. Der Befund würde demnach auch dazu passen, dass der nicht so weit von beiden entfernte Zwergplanet Pluto ebenfalls überwiegend aus Gestein bestehe.

Weiterlesen nach der Anzeige

Wie die beiden Forschenden erläutern, haben sie für ihre Analyse physikalische und empirische Modelle zu den beiden Planeten kombiniert. Das Ergebnis seien „neue, neutrale und physikalisch konsistente Modelle“ gewesen. Ausgehend von einem zufälligen Dichteprofil haben sie dann ein Gravitationsfeld errechnet, das mit den Beobachtungen übereinstimmte. Daraus haben sie eine mögliche Zusammensetzung abgeleitet. Das haben sie oft genug wiederholt, um die bestmögliche Übereinstimmung zwischen Modell und Messdaten zu erreichen. Herausgekommen sei, dass die mögliche Zusammensetzung von Uranus und Neptun keineswegs auf Eis beschränkt sei.

Herausgekommen sei bei der Arbeit obendrein, dass das Magnetfeld des Uranus tiefer liegen könnte, als das von Neptun. Bei beiden unterscheiden sie sich enorm von dem der Erde, weil sie nicht nur chaotischer sind, sondern auch mehr als zwei Pole hätten. Ihre Vermutung zur Zusammensetzung der beiden Planeten schränken sie derweil ein. Die Ergebnisse seien vielversprechend, aber es bleibe „eine gewisse Unsicherheit“. Man verstehe noch nicht gut genug, wie sich Materialien im Inneren von Planeten verhalten und das könne die Ergebnisse beeinflussen. Ihre Arbeit könnte aber den Weg für ein grundlegendes neues Bild des Sonnensystems ebnen. Neben den Gesteinsplaneten und den Gasriesen würde das dann nicht aus Eisriesen bestehen. Die Arbeit ist in Astronomy & Astrophysics erschienen.


(mho)



Source link

Weiterlesen

Künstliche Intelligenz

Falscher Druckertoner: Amazon und Brother gewinnen Prozess


Der Internet-Handelskonzern Amazon und der Druckerhersteller Brother haben vor Gericht einen Erfolg gegen Produktfälscher in Europa erzielt. Dabei ging es um gefälschte Tonerkartuschen für Drucker, die im Internet über Amazon verkauft wurden. Das Landgericht Berlin verurteilte eine ganze Reihe von beklagten Personen und Firmen dazu, 500.000 Euro Schadenersatz an Brother zu zahlen. Das nun bekannt gewordene Urteil erging bereits am 1. Juli.

Weiterlesen nach der Anzeige

Außerdem müssen die Beklagten den Firmen Brother und Amazon weitere Schäden ersetzen sowie den Vertrieb nachgefüllter Druckerkartuschen unterlassen, diese herausgeben und Auskunft über die Herkunft und Vertriebswege erteilen. Den Streitwert hatte das Gericht auf 2,2 Millionen Euro festgesetzt.

Die Verkäufer hätten „zumindest fahrlässig gehandelt“, so das Gericht. „Gewerbliche Einkäufer müssen in Anbetracht der weiten Verbreitung von Piraterieware beim Einkauf von Markenwaren regelmäßig deren Echtheit überprüfen.“

Ihre Klage hatten Amazon und Brother 2022 wegen Produktfälschung oder Vertrieb gefälschter Produkte gegen insgesamt 18 Personen und Firmen gestellt. Für einen Teil der Beklagten ist das Urteil rechtskräftig, für andere noch nicht.

Das Gericht stellte in seinem Urteil auch fest, dass bei Durchsuchungen in Berlin bereits 2019 große Mengen gefälschte Tonerkartuschen beschlagnahmt wurden. Andere Kartuschen seien unter der Marke Brother angeboten worden, obwohl sie nachgemacht waren.

Lesen Sie auch

Amazon sprach in einer Mitteilung von einem organisierten Fälschernetzwerk in Deutschland. Die Fälscher hätten leere Original-Tonerkartuschen gekauft und diese mit unechtem Tonerpulver befüllt. Auch hätten sie gefälschte Kartuschen verkauft, die wie Originalprodukte aussehen sollten.

Weiterlesen nach der Anzeige

In Berlin waren Polizei und Staatsanwaltschaft erneut im Februar 2024 mit einer Razzia gegen sechs mutmaßliche Fälscher von Druckerpatronen vorgegangen. Durchsucht wurden 18 Geschäftsräume, Callcenter und Wohnungen in Berlin und im Umland. Die Polizei beschlagnahmte Fälschungsmaterial und Fälschungswerkzeuge sowie Bargeld in sechsstelliger Höhe.

Die Männer sollen mit gefälschten Druckerpatronen und -kartuschen vierteljährlich einen Umsatz von rund 3,5 Millionen Euro gemacht haben, hieß es in der damaligen Mitteilung der Staatsanwaltschaft. Das Geld sei dann über ungarische Strohleute und deutsche Konten an die Bande geflossen. Bekannt wurde der mutmaßliche Betrug demnach durch Anzeigen von Brother und Amazon. Testkäufe hätten den Verdacht bestätigt, so die Staatsanwaltschaft.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Warnung vor „wahnhaftem Output“: So sollen KI-Firmen Chatbots sicherer machen


Seit dem Beginn der KI-Ära gibt es nicht nur positive Auswirkungen der smarten Tools. So machen etwa einige Familien OpenAI und ChatGPT für Suizide verantwortlich. Zudem gibt es weitere Berichte darüber, wie gravierend sich die Nutzung von KI auf Personen auswirken kann, deren psychische Gesundheit angeschlagen ist. Diese vergangenen und mögliche zukünftige KI-Probleme rufen in den USA jetzt 42 Generalstaatsanwälte auf den Plan, die die großen KI-Unternehmen in einem Brief verwarnen.

Weiterlesen nach der Anzeige

Der Brief beginnt mit den Worten: „An die Rechtsvertreter von Anthropic, Apple, Chai AI, Character Technologies, Google, Luka, Meta, Microsoft, Nomi AI, OpenAI, Perplexity AI, Replika und xAI“. Darauf folgen insgesamt sieben Seiten mit problematischen Entwicklungen rund um KI, wiederum gefolgt von insgesamt vier Seiten mit den Unterschriften aller beteiligten Generalstaatsanwälte.

Im Detail heißt es von den Verantwortlichen, dass sie „ernste Bedenken über die steigende Zahl von kriecherischem und wahnhaftem Output an User“ haben, der von „generativer Künstlicher-Intelligenz-Software“ hervorgeht. Zudem gebe es laut den Generalstaatsanwälten immer mehr „verstörende Berichte über KI-Interaktionen mit Kindern“. Daraus ergebe sich eine sofortige Handlungspflicht für die Betreiber der KI-Tools, um alle Nutzer besser zu schützen.

Als Beispiele nennen die Generalstaatsanwälte Fälle, in denen KI-Nutzer nach Konversationen mit den Tools Selbstmord begingen, andere oder sich selbst verletzten beziehungsweise vergifteten oder aufgrund von KI‑ausgelöster Psychosen im Krankenhaus gelandet sind. In Konversationen mit Minderjährigen sollen mehrere Chatbots hingegen Essstörungen unterstützt, sexuelle Handlungen zwischen Erwachsenen und Kindern normalisiert und Gewalt verherrlicht haben. Zu jedem Vorfall liefern die Generalstaatsanwälte eine Quellenangabe, um sie zu belegen.

Um solche und künftige Vorfälle mit KI zu verhindern, werden die Unternehmen dazu aufgefordert, zusätzliche Sicherheitsvorkehrungen zu treffen. Die Liste der Vorschläge umfasst insgesamt 16 Punkte, die teilweise noch Unterpunkte mit sich bringen. Zunächst sollen die Unternehmen „Richtlinien und Prozesse zu kriecherischem und wahnhaftem Output von generativer KI entwickeln“, um sie anhand dieser Regeln testen und weiter trainieren zu können.

Weiterlesen nach der Anzeige

Sollte eine KI schädlichen Output generieren, sollen die Unternehmen zudem Maßnahmen bereithalten, um sie vollständig vom Markt nehmen zu können. Ferner wollen die Generalstaatsanwälte, dass jederzeit eine Warnung an User ausgespielt wird, die sie vor potenziell gefährlichen Antworten warnen. Ebenso sollen User aktiv informiert werden, wenn es zu solchen Outputs kommt, und es soll einen Kanal geben, über den sie selbst solche Konversationen melden können.

Um Kinder besser zu schützen, sollen Chatbots ihren Output an das Alter der User anpassen können. Ein etwas allgemeinerer Punkt besagt, dass die KI-Entwickler sicherstellen sollen, dass ihre Tools keinen „rechtswidrigen oder illegalen Output für Accounts von Kindern generieren“, der etwa Drogenkonsum, Gewalt und Geheimhaltung vor den Eltern beinhaltet.

Abschließend schreiben die Generalstaatsanwälte: „Wir bitten Sie eindringlich und respektvoll darum, das Problem von kriecherischem und wahnhaftem Output ernst zu nehmen und daran zu arbeiten, das Problem zu beheben. Und wir freuen uns darauf, von Ihnen zu hören.“ Eine offizielle Stellungnahme der angeschriebenen KI-Unternehmen bleibt bisher aus.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Weiterlesen

Beliebt