Connect with us

Künstliche Intelligenz

Cyberangriffe im Jahr 2026: Der Login als Waffe


Cyberkriminelle und nationalstaatliche Akteure verlagern ihren Fokus zunehmend weg vom aufwendigen Eindringen in Systeme, wie aus Cloudflares Bedrohungsbericht 2026 hervorgeht. Stattdessen setzen sie eher auf das effizientere Einloggen mit gestohlenen Zugangsdaten. Eigenen Angaben nach hat Cloudflare für seinen Bericht Billionen von Netzwerksignalen aus der globalen Infrastruktur analysiert, wobei der Anbieter täglich im Schnitt rund 230 Milliarden Bedrohungen blockiert.

Weiterlesen nach der Anzeige

Der Report führt ein neues Konzept ein: das Framework Measure of Effectiveness (MOE). Es beschreibt, wie Angreifer ihre Taktiken nach dem Verhältnis von Aufwand zu operativem Ergebnis auswählen. Gestohlene Session-Tokens haben demnach ein höheres MOE als teure Zero-Day-Exploits. Die gefährlichsten Akteure setzen auf automatisierte, industrialisierte Systeme, die ihre Ziele schnell erreichen.

Besonders alarmierend sind die Erkenntnisse zu KI-gestützten Angriffen. Angreifer nutzen Large Language Models für Echtzeit-Netzwerk-Mapping, Exploit-Entwicklung und Deepfakes. So können selbst weniger versierte Akteure komplexe Operationen durchführen. Ein Beispiel sind nordkoreanische Akteure, die mit KI-generierten Personas und gefälschten Identitätsdokumenten Einstellungsprozesse westlicher Unternehmen unterwandern.

Ein weiterer Trend ist die Nutzung legitimer Cloud-Dienste für kriminelle Zwecke. Angreifer missbrauchen Tools wie Google Calendar, Dropbox, GitHub oder Microsoft Teams zur Maskierung von Command-and-Control-Traffic. Die chinesische Gruppe FrumpyToad etwa nutzt den Google Calendar für C2-Loops, während NastyShrew aus Russland Paste-Sites als Dead Drops einsetzt.

Chinesische Staatsakteure wie Salt Typhoon und Linen Typhoon konzentrieren sich auf nordamerikanische Telekommunikationsanbieter, Regierungsstellen und IT-Dienste. Sie verfolgen eine sogenannte Pre-Positioning-Strategie: dauerhafte Platzierung von Code in kritischer Infrastruktur für künftige Angriffe. Überprivilegierte APIs in SaaS-Integrationen erweitern den Blast Radius (Schadensumfang) erheblich – wie der GRUB1-Breach bei Salesloft, der Hunderte Unternehmen betraf.

Weiterlesen nach der Anzeige

Infostealer wie LummaC2 ernten Session-Tokens, um die Multi-Faktor-Authentifizierung zu umgehen. In den vergangenen drei Monaten stammten 94 Prozent der Login-Versuche von Bots. Unabhängig davon nutzten 63 Prozent aller Logins kompromittierte Zugangsdaten. Bei Phishing-Angriffen scheitern 46 Prozent der analysierten E-Mails an DMARC-Prüfungen; trotzdem ermöglichen Relay-Blind-Spots Brand-Spoofing.

Hyper-volumetrische DDoS-Angriffe erreichen neue Dimensionen. Botnets wie Aisuru schaffen Durchsatzraten von 31,4 Terabit pro Sekunde und erfordern autonome Verteidigungssysteme. Cloudflare entdeckte beim Dogfooding (Selbsttest) durch einen KI-Coding-Agenten (OpenCode) die Schwachstelle CVE-2026-22813 mit CVSS-Wert von 9.4 – eine nicht authentifizierte Remote-Code-Execution in Markdown-Rendering-Pipelines.

Der vollständige Report steht auf der Cloudflare-Website zur Verfügung.


(fo)



Source link

Künstliche Intelligenz

Zahlen, bitte! 10957 Tage heise online — ein paar Zahlen zum Jubiläum


30 Jahre heise online: Das sind 10.957 Tage voller neugieriger und kritischer Blicke auf den technischen Fortschritt – immer mit dem Ziel, den Leser journalistisch umfassend und kontinuierlich über die neuesten Entwicklungen zu informieren.

Weiterlesen nach der Anzeige

Im Fokus waren nicht nur die technischen Fakten, sondern auch stets die Folgen für die Gesellschaft durch den technischen Fortschritt. Das ging vom Aufkommen des World Wide Webs über die Entwicklung einer permanenten Online-Gesellschaft durch Smartphones, den daraus resultierenden Anstieg des Datenhungers von Sicherheitsbehörden und Unternehmen bis hin zur zunehmenden Nutzung von KI. In den vergangenen 30 Jahren wirkte sich das alles nachhaltig auf die Gesellschaft aus – und nicht immer im positiven Sinn.


Bitte Zahlen

Bitte Zahlen

In dieser Rubrik stellen wir immer dienstags verblüffende, beeindruckende, informative und witzige Zahlen aus den Bereichen IT, Wissenschaft, Kunst, Wirtschaft, Politik und natürlich der Mathematik vor.

In unserer Zahlen, bitte!-Kolumne haben wir ein paar Zahlen zu den vergangenen drei Dekaden heise online zusammengetragen.

Dank Mailbox-System waren die Redaktionen bereits seit Ende 1988 per E-Mail erreichbar. Bereits zur CeBIT 1994 schuf die Zeitschrift iX einen experimentellen Webserver: Anfangs war es ein Sparc-Clone mit 40 Megabyte RAM, der von der Redaktion „Opus40“ getauft wurde. Anhand der Zugriffe, die teilweise das Versenden von E-Mails verzögerten, merkten die Macher, dass darin die Zukunft liegen könnte. Im März 1996 wurden etwa 17.000 Hits auf ix.de gemessen, und das, obwohl der Newsticker-Betrieb noch gar nicht angelaufen war. Da war der erste Server bereits Geschichte.

Zur CeBIT 96 erwarb der Verlag die Domain heise.de und startete am 17. April mit heise online neben dem Online-Angebot der verschiedenen Zeitschriften c’t, iX, ELRAD und Gateway der heise-Newsticker. Das Netzmagazin Telepolis kam im Juli 1996 dazu. Wie goldrichtig heise online zu der Zeit lag, merkte die Redaktion, als die „Informationsgesellschaft zur Feststellung der Verbreitung von Werbeträgern“ (IVW) im November 1997 für Online-Angebote die erzielten Visits und Page Impressions erstmals auswertete.

Mit 1.292.036 monatlichen Pageviews sprang heise online auf Anhieb auf Platz 3 der dort gemeldeten Websites: Nur Focus Online und das Fußballportal Ran Online verzeichneten mehr Homepage-Zugriffe. In einer Zeit, in der die Telekommunikationsfirmen jede genutzte Online-Minute in Rechnung stellten, und mit 56K-Modems das Surfen zum Geduldsspiel avancierte, war der Erfolg sicher keine Selbstverständlichkeit.

Weiterlesen nach der Anzeige

Dreißig Jahre später sind es über 44 Millionen Visits: heise online ist für viele bis heute der erste Anlaufpunkt, wenn man sich auf den neuesten IT-Stand bringen will. Fing der Newsticker mit wenigen Meldungen am Tag an, sind es heutzutage bis zu 60 Meldungen täglich aus IT, Technik, Security, Wissenschaft und Gesellschaft.

So vielfältig wie sich das Netz entwickelt hat, sind mittlerweile auch die Angebote auf heise online: Seit 2019 gibts es das Digitalangebot heise+, was neben Artikeln der Redaktionen von c’t, iX, Make, Mac & i und c’t Fotografie zusätzlich eigene Exklusivinhalte bietet. Die werden gern gelesen: Durchschnittlich 17 Minuten täglich nutzen heise+-Lesende das Angebot und heise online. Zum Jubiläum gibt es bis zum 24. April 30 % Rabatt auf das heise+ Lifetime Abo. 


Spartanische Anfänge…
(Bild: heise online / Wayback Machine)

Für die kompakte Wissenszusammenfassung werden verschiedene Newsletter von heise online mittlerweile über 1,5 Millionen Mal pro Monat an über 43.000 registrierte Empfänger versendet.

Um auf dem neuesten Stand zu bleiben, muss man nicht nur lesen. Die heise Podcasts wie „Kurz informiert“, „KI-Update“ „Bits & Böses“ und viele weitere erreichen über 3 Millionen Abrufe im Monat. Der seit 2011 existierende YouTube-Account heise & c’t kommt auf fast 180.000 Abonnenten. Der Ableger c’t 3003 peilt sogar 250.000 Abonnenten an. Die Kurzvideos von heise Tipps & Tricks sehen bei TikTok mittlerweile fast 145.000 Follower.

Waren sie vorher in Mailboxen organisiert, kommen unsere Leser seit 1999 direkt unter den Artikeln zu Wort. Kurz vor der Jahrtausendwende startete das heise-Forum. Seitdem begleiten unsere Leser unsere Artikel als wertvolle Tippgeber, sparen nicht mit Lob oder Kritik und Hinweisen und begleiten die Themen.

Das sieht man auch in den Zahlen: Insgesamt wurden in den vergangenen 30 Jahren über 46 Millionen Forenbeiträge verfasst. Neben begleitenden Kommentaren zu den Themen wurden unsere Nutzer auch aktiv: Mit der im Jahr 2001 gegründeten „Stop1984“-Initiative setzten sich (nicht nur) Forenuser gegen einen überbordenden Überwachungsstaat ein. Die Initiative wurde 2008 aufgelöst. Regelrechte Partystimmung herrschte im Jahr 2005 im Forum, als heise online vermeldete, dass die EU die Softwarepatentrichtlinie beerdigte. Redakteur Michael Wilde sah sich angesichts der tausenden Beiträge genötigt, die Beteiligten der „Flaggenparade“ zur Mäßigung aufzurufen.

Mit über 11.000 Kommentaren war der Artikel zwar schon rekordverdächtig, die meisten Reaktionen zog aber 2007 die Verurteilung des IT-Anwalts Günter Freiherr von Gravenreuth mit über 14.000 Kommentaren nach sich. Wir haben bis heute eine starke und unverzichtbare Online-Community die in mehreren Tausend Beiträgen am Tag unsere Berichterstattung begleitet.

Und so blicken wir in die Zukunft. Die KI-Revolution ist im vollen Gange, und es ist nicht abzusehen, wo die Reise hingeht – genauso wie es vor dreißig Jahren nicht absehbar war, wie sich die heutige Gegenwart gestalten würde. Eins ist aber gewiss: heise online begleitet die Entwicklung weiterhin kritisch und unabhängig.


(mawi)





Source link

Weiterlesen

Künstliche Intelligenz

OrcaSlicer 2.3.2 – Massives Update


OrcaSlicer veröffentlicht seine Updates üblicherweise in so hoher Frequenz, sodass man sich daran gewöhnt hat, dass nicht immer „Killer-Features“ enthalten sind. In der neuen Version 2.3.2 hat sich jedoch einiges geändert und wurde ergänzt.

Weiterlesen nach der Anzeige

Hinweis: Es gibt einige inoffizielle Webseiten, die OrcaSlicer anbieten – die oben verlinkte Seite ist die offizielle Quelle. Lade dir den Installer herunter oder nutze die portable Version, falls du die alte Installation behalten möchtest oder musst.



Saubere und stabile Infills auch mit Multi-Line-Infill.

(Bild: OrcaSlicer)

Mit Multiline-Infill kann man Druckobjekte stabiler machen, wenn man die Wandstärke nicht erhöhen will oder kann. Das Multiline-Infill ist sauberer geworden und weist weniger Überschneidungen auf (dank Clipper2-Bibliothek). Zudem ist es besser mit dem Hauptobjekt verbunden.

Weiterlesen nach der Anzeige

Die Flussrate lässt sich jetzt pro Feature statt nur pro Filament einstellen – etwa eine andere Flow-Rate für Infill als für Wände. Die Option findest du unter „Set other flow ratios“ im Quality-Tab.



Feintuning der Flowrate in allen Bereichen eines Druckobjekts.

(Bild: OrcaSlicer)

Das Brim arbeitet nun zuverlässiger mit der „Elephant Foot Compensation“ zusammen. Sich ablösende, kaum nutzbringende Brims gehören damit weitgehend der Vergangenheit an. Elephant-Foot-Compensation verhindert die Überextrusion des ersten Layers auf dem Druckbett. Dieser Faktor wird nun bei der Erzeugung von Brims einberechnet.



Endlich keine sich selbst lösenden Brims mehr.

(Bild: OrcaSlicer)

Unter Preferences Control Slicing lässt sich „Auto slice after changes“ aktivieren. Die Wartezeit ist anpassbar, sodass man mehrere Änderungen vornehmen kann, bevor der Slicer loslegt. Da ein laufender Slicing-Vorgang aber bei neuen Parametern abgebrochen und neu gestartet wird, ist es auf schnellen Rechnern kaum nötig, den Wert hochzusetzen. Ein Feature, das ich lange vermisst habe, seit ich vom PrusaSlicer gewechselt bin.

Der Drucker-Tab ist jetzt grafischer und übersichtlicher. Der Düsendurchmesser lässt sich jetzt getrennt vom Drucker einstellen.



Grafisch aufbereite und übersichtlich angeordnete Druckerauswahl.

Statt eigenständiger Kopien (Clones) lassen sich Objekte jetzt auch als „Instances“ vervielfältigen. Ändert man eine Instanz, folgen die anderen automatisch – sei es bei Filament-Zuordnungen für Multifilament-Druck oder anderen Einstellungen. Das spart auch beim Slicing Zeit, da nur eine Instanz berechnet werden muss. Die Anzahl der Instanzen ist einstellbar, oder man füllt direkt das ganze Druckbett.

Zusätzlich werden inzwischen Kollisionen zwischen (besonders Instanzierten Objekten) besser erkannt und so behandelt, dass keine Fehldrucke entstehen.

Für farbige bzw. aus mehreren Filamentsorten zusammengesetzte Drucke auf Materialwechslern und Toolchangern wurden die Wipe-Tower-Verbesserungen aus Bambu Studio zu Orca portiert:

  • Stabilere Wipe Tower ergeben weniger Fehldrucke durch einstürzende Wipetower
  • Bessere Layerhaftung durch smarteres Vorheizen und Kühlen der Düse beim Filamentwechsel
  • Höhere Druckgeschwindigkeit

Die Einstellungen müssen in den jeweiligen Druckprofilen aktiviert werden:

  • Multimaterial -> Prime Tower -> Enable tower interface features
  • Cool down from interface boost during prime tower

Die Art des Wipe Towers lässt sich inzwischen auch direkt im Druckerprofil auswählen.

Wer das Beste aus seinen Druckern und Filamenten herausholen möchte, sollte beides kalibrieren. In Version 2.3.2 sind die Kalibrierungs-Tools jetzt in der richtigen Reihenfolge im Menü sortiert. Außerdem werden die Firmwares für Input Shaper, Cornering/Jerk erkannt und entsprechend ausgewählt.

Im Drucker-Konfigurator werden nun zusätzliche Materialwechsel-Einheiten und Toolheads unterstützt. Diese lassen sich direkt aus dem Slicer steuern, und die Filamentbelegung der Toolheads ist interaktiv anpassbar. Dies ist noch als experimentell markiert, da es sich teilweise um schlecht dokumentierte Hardware handelt und die Hersteller natürlich eher ihr Ökosystem unterstützen.

Orca 2.3.2 unterstützt jetzt auch die neueren Bambu-Lab-Modelle wie H2D (Pro) und H2S. Außerdem gibt es weitere spezielle Verbesserungen für Bambulab-Nutzer.

Viele zusätzliche Änderungen und Verbesserungen mit Beispielbildern findet man im ausführlichen Changelog: OrcaSlicer 2.3.2 Beta Changelog

In der Make 1/26 hatten wir einen ausführlichen Artikel über Tipps&Tricks für Slicer und einen Artikel über Orca Slicer und warum er immer beliebter wird.


(caw)



Source link

Weiterlesen

Künstliche Intelligenz

Kapazitäten ausgereizt? Microsoft lehnt Neukunden für GitHub Copilot ab


Microsoft hat die Registrierung bei GitHub Copilot pausiert. Neukunden können sich somit nicht mehr für die Tarife Pro, Pro+ und Student anmelden. Gleichzeitig verschärfte das US-Unternehmen Tokenlimits und kündigte die Entfernung von Claude Opus 4.5 und 4.6 aus dem Pro+-Tarif an. Opus 4.7 bleibt im Pro+-Tarif hingegen verfügbar. Aus dem Pro-Tarif wurden alle Opus-Modelle sofort entfernt. Die kostenfreie Stufe und Enterprise-Abonnements sind von den Änderungen derzeit nicht betroffen.

Weiterlesen nach der Anzeige

Hintergrund der Änderungen sei ein unerwartet hoher Bedarf an Rechenleistung. „Lang andauernde, parallelisierte Sitzungen beanspruchen regelmäßig weitaus mehr Ressourcen als geplant. Die ursprünglichen Strukturen waren dafür nicht ausgelegt“, schreibt Joe Binder, VP of Product, im GitHub-Blog. Inzwischen übernähmen KI-Agenten mehr Aufgaben und Kunden stießen an ihre Nutzungsgrenzen. Ohne Einschränkungen verschlechtere sich die Servicequalität für Bestandskunden.

Die Nutzungsgrenzen des Pro+-Abonnements sind mehr als fünfmal so hoch wie im Pro-Tarif. Dieses Limit ist von der Anzahl der Premiumanfragen unabhängig. Stattdessen handelt es sich um tokenbasierte Beschränkungen innerhalb eines festgelegten Zeitfensters. Somit können Kunden noch über ungenutzte Premiumanfragen verfügen, aber bereits die Nutzungsgrenzen erreicht haben.

Microsoft unterscheidet bei den Nutzungslimits von GitHub Copilot zwischen zwei Zeitfenstern, die sich nach dem Tokenverbrauch und einem Multiplikator richten, der bei rechenintensiven Modellen entsprechend höher ist. Das erste Zeitfenster bezieht sich auf die jeweilige Session. Reizen Kunden ihr Limit aus, müssen sie warten, bis sich das Nutzungsfenster zurücksetzt, um Copilot wieder verwenden zu können.

Das zweite Zeitfenster ist das wöchentliche Limit, das eine Obergrenze für die nutzbaren Token darstellt. Damit will Microsoft parallelisierte Anfragen beschränken, die oft lange laufen und hohe Kosten verursachen. Künftig wolle das Unternehmen die Limits anpassen, um ein Gleichgewicht zwischen Zuverlässigkeit und Nachfrage zu erzielen, schreibt Binder. Ihren aktuellen Verbrauch können Kunden in Visual Studio Code oder dem Kommandozeilentool von GitHub Copilot einsehen.

Weiterlesen nach der Anzeige

Microsoft empfiehlt Kunden, die sich ihrem Nutzungslimit nähern, auf kleinere Modelle umzusteigen, weniger parallele Workflows zu verwenden oder den Plan-Mode zu nutzen. Alternativ verweist das Unternehmen seine Pro-Kunden auf den Pro+-Tarif.

GitHub Copilot kostet im Pro-Tarif monatlich 10 US-Dollar, Pro+-Nutzer zahlen 39 US-Dollar. Kunden der Pro- und Pro+-Tarife können ihr Abonnement jederzeit kündigen und sich die Gebühren für April über eine Supportanfrage bis zum 20. Mai 2026 zurückerstatten lassen. Zuletzt versuchte Microsoft, nicht nur mit Abonnement-Gebühren an GitHub Copilot zu verdienen, sondern blendete Werbung in Pull Requests ein. Nach Nutzerbeschwerden ruderte das Unternehmen zurück.


(sfe)



Source link

Weiterlesen

Beliebt