Künstliche Intelligenz
Android: Neue Sideloading-Regeln sollen bei Gerätewechsel weiter erfüllt bleiben
Sideloading auf Geräten mit Googles Android-Betriebssystem wird zwar komplizierter – aber doch etwas weniger, als bisher erwartet: Eine 24-Stunden-Frist, die in bestimmten Fällen abgewartet werden muss, um die Sideloading-Installation durchzuführen, gilt auch für neue Geräte als erfüllt, wenn sie auf einem anderen Gerät schon erfüllt wurde. Darüber informierte jetzt ein Google-Verantwortlicher.
Weiterlesen nach der Anzeige
Google hat die neue Frist für die manuelle Installation von Apps aus unbekannten Quellen vor Kurzem angekündigt und setzt sie im Rahmen eines „Advanced Flow“ um. Unbekannt heißt hier: Es handelt sich um eine APK-Datei von einem Entwickler, der sich nicht nach Googles neuen, strengen Richtlinien verifiziert hat. Hintergrund des neuen Advanced Flow ist eine Betrugswelle in Südamerika und Südostasien, bei der die Täter ihre Opfer durch Schockanrufe dazu bringen, Malware-APKs auf ihrem Gerät zu installieren. Dabei geht es oft um den Klau von Kreditkartendaten oder Ähnliches.
Advanced Flow als Mittelweg
Von Anfang an stand Googles neue, restriktive Politik bei dem Thema aber in einem Spannungsfeld: Sicherheit für alle Nutzer einerseits versus Offenheit für die manuelle Installation von Apps andererseits. Der Advanced Flow soll ein Mittelweg sein, jedoch ein mühsamer: Nutzer aktivieren auf ihrem Gerät die Entwickleroptionen, bestätigen dann, dass sie nicht unter Anleitung handeln (beispielsweise von Betrügern), starten ihr Gerät neu (um mögliche Telefonate mit Betrügern zu unterbrechen), warten die 24-Stunden-Frist ab und können dann die Installation durchführen.
Zumindest eine kleine Erleichterung gibt es bei dem Thema: Wer auf einem Gerät bereits den Advanced Flow aktiviert hat und dann auf ein anderes wechselt, der muss ihn hier nicht erneut aktivieren. Das erklärte Matthew Forsythe, Produktmanager bei Google, jetzt in einem Video. Eine Ausnahme macht Forsythe ebenfalls deutlich: Wer seine Apps über die Android Debug Bridge (ADB) am PC installiert, ist vom Advanced Flow nicht betroffen und muss auch keine 24 Stunden warten, so soll es in Zukunft auch bleiben. Die Frist auf dem Gerät über ADB zu deaktivieren, ist laut Forsythe aber nicht möglich.
Verifikationsprozess für Entwickler
Der Advanced Flow kann wahlweise dauerhaft oder für 7 Tage aktiviert werden. Sobald er sich wieder deaktiviert, werden Updates für die betroffenen manuell installierten Apps blockiert. Den Entwicklermodus können Nutzer nach der Aktivierung des Advanced Flow wieder ausstellen, ohne dass der Advanced Flow sich auch deaktiviert. Anderes wäre auch ungünstig, denn manche Apps funktionieren nicht im Entwicklermodus.
Um mit ihren Apps nicht unter die strengen neuen Regeln zu fallen, müssen Entwickler sich selbst und ihre Organisation bei Google verifizieren sowie ihre App signieren. Genaueres dazu hat Google in einem Blogbeitrag und einer Präsentations-PDF veröffentlicht. Die Verifikation soll ab jetzt möglich sein. Ab September dieses Jahres sollen die neuen Regeln dann laut Google für Apps in Brasilien, Indonesien, Singapur und Thailand in Kraft treten, im Zeitraum ab 2027 dann auch weltweit. Sie greifen für zertifizierte Android-Geräte, also solche, auf denen mindestens ein Google-Dienst vorinstalliert ist. Kritiker werfen dem Konzern vor, sich durch die verpflichtende Registrierung zum Torwächter fremder App-Verbreitungswege zu machen.
Weiterlesen nach der Anzeige
Lesen Sie auch
(nen)
Künstliche Intelligenz
iX-Workshop: IT-Sicherheit nach ISO 27001 – Herausforderungen und Chancen
Sie planen die Einführung eines Information Security Management Systems (ISMS) nach ISO 27001 oder stehen bereits mitten in der Umsetzung? Im interaktiven iX-Workshop IT-Sicherheit nach ISO 27001 und NIS2-Anforderungen umsetzen erhalten Sie eine fundierte Einführung in die Anforderungen der internationalen Norm und lernen praxisnahe Ansätze für die erfolgreiche Umsetzung im Unternehmen kennen.
Weiterlesen nach der Anzeige
Der Workshop vermittelt Ihnen die zentralen Grundlagen eines ISMS nach ISO 27001 und zeigt, wie Sie diese strukturiert in der Praxis umsetzen können. Dabei werden auch die aktuellen regulatorischen Anforderungen der NIS2-Richtlinie berücksichtigt, sodass Sie beide Themenfelder sinnvoll miteinander verbinden können.
Sie erhalten einen klaren Überblick über Gemeinsamkeiten und Unterschiede von ISO 27001 und dem NIS2-Umsetzungsgesetz (NIS2UmsuCG) und lernen, wie Sie diese Anforderungen bereits in der Planungsphase Ihres ISMS berücksichtigen können.
Das Gelernte praktisch anwenden
Der zweitägige Workshop ist interaktiv aufgebaut und kombiniert theoretische Grundlagen mit praxisnahen Gruppenarbeiten und Diskussionen. Sie erarbeiten zentrale Schritte der ISMS-Einführung, lernen typische Projektphasen kennen und setzen sich mit häufigen Herausforderungen und Fallstricken in der Umsetzung auseinander. Dabei stehen konkrete Aufgaben der Projektplanung, Strukturierung und Implementierung im Mittelpunkt.
Durch den aktiven Austausch in der Gruppe entwickeln Sie ein besseres Verständnis für typische Umsetzungsszenarien und können die Inhalte direkt auf Ihre eigene Organisation übertragen.
|
Juli 01.07. – 02.07.2026 |
Online-Workshop, 09:00 – 12:30 Uhr 10 % Frühbucher-Rabatt bis zum 03. Jun. 2026 |
|
Oktober 06.10. – 07.10.2026 |
Online-Workshop, 09:00 – 12:30 Uhr 10 % Frühbucher-Rabatt bis zum 08. Sep. 2026 |
Von Erfahrungen aus der Praxis lernen
Weiterlesen nach der Anzeige
Sie profitieren von der gemeinsamen Expertise Ihrer Trainer Ann-Kathrin Rechel und Viktor Rechel, beide leitende Cybersicherheitsberater bei der secuvera GmbH. Sie begleiten Unternehmen regelmäßig bei der Einführung und Weiterentwicklung von Informationssicherheitsmanagementsystemen und verfügen über umfassende Erfahrung in der praktischen Umsetzung von ISO-27001- und NIS2-Anforderungen. Im Workshop vermitteln sie praxisnahe Einblicke aus realen Projekten und zeigen, wie sich ISMS-Strukturen effizient, nachvollziehbar und normkonform in Unternehmen etablieren lassen.
Für wen ist dieser Workshop geeignet?
Der Workshop richtet sich an Informationssicherheitsbeauftragte, IT-Mitarbeitende sowie Führungskräfte, die ein ISMS nach ISO 27001 einführen oder weiterentwickeln möchten und dabei auch regulatorische Anforderungen wie NIS2 berücksichtigen müssen.

(ilk)
Künstliche Intelligenz
KI-Modelle gegen klassische Wettervorhersage: Wer liefert die bessere Prognose?
Regnet es am Wochenende oder scheint die Sonne? Instabile Wetterlagen wie jetzt gerade machen die Wettervorhersage besonders unzuverlässig. Wie KI-Modelle hier Abhilfe schaffen – und wo ihre Grenzen liegen.
Weiterlesen nach der Anzeige
Ein langes Mai-Wochenende steht an – eigentlich ideal für Freiluftaktivitäten. Aber wird tatsächlich die Sonne scheinen? Wer diese Frage derzeit mit Wetter-Apps auf dem Smartphone beantwortet, wird oft enttäuscht. KI-Modelle wie Graphcast von Google, Aurora von Microsoft oder Pangu Weather von Huawei versprechen ähnlich gute oder sogar bessere Ergebnisse, die wesentlich schneller berechnet werden.
Was ist der Unterschied zwischen konventionellen Modellen und KI-Modellen? Was taugen die neuen Modelle und wo werden sie eingesetzt? Und können Sie KI-Modelle nutzen, um das lange Wochenende vielleicht doch mit ein wenig mehr Sicherheit zu planen? Wir beantworten die wichtigsten Fragen.
Wie funktionieren Wettervorhersagen?
Konventionelle Wettermodelle beschreiben die zeitliche – also zukünftige – Entwicklung von Druck, Temperatur und Luftfeuchtigkeit ausgehend von aktuell gemessenen Werten mithilfe von physikalischen Gleichungen.
Der britische Mathematiker Lewis Fry Richardson kam bereits Anfang des zwanzigsten Jahrhunderts auf die Idee, dass es möglich sein müsste, mithilfe von physikalischen Gesetzmäßigkeiten das Wetter vorherzusagen. Bis dahin verließen sich die Meteorologen weitgehend auf Erfahrung und Beobachtung und entwickelten empirische Modelle auf der Basis der Entwicklung ähnlicher, bekannter Wetterlagen. Weil es damals aber noch keine Computer gab, musste Richardson seine Berechnungen von Hand durchführen – was länger dauerte als die Reichweite seiner Vorhersage. Außerdem waren die Messdaten, die er in seine Berechnungen steckte, äußerst lückenhaft. Seine Vorhersagen für Luftdruckänderungen lagen also weit neben den tatsächlichen Messungen. Die Arbeiten gelten dennoch als bahnbrechend für die moderne Meteorologie.
Die physikalischen Gleichungen geben an, wie stark sich Größen wie Luftdruck, Temperatur und Luftfeuchtigkeit in Abhängigkeit voneinander ändern – das ergibt miteinander gekoppelte Differenzialgleichungen. Um zu berechnen, wie das Wetter wird, müssen diese Gleichungen numerisch integriert werden. Das passiert an den Knotenpunkten eines räumlichen Gitters in festen Zeitschritten. Wie präzise ein Wettermodell ist, hängt also davon ab, wie klein das Raster ist. Allerdings steigt auch der Rechenaufwand, je engmaschiger das Gitter ist.
Regionale Wettermodelle mit kleinen Gitter-Abständen berechnen daher in der Regel nur kurzfristige Vorhersagen. Das Wettermodell COSMO-DE des Deutschen Wetterdienstes etwa verwendet ein Raster von 2,8 × 2,8 Kilometer mit 50 Höhenschichten. Wolken, die jedoch meist kleiner als solche Zellen sind, müssen daher „parametrisiert“ werden – sie tauchen nur in der Anpassung einzelner Modellparameter auf. Deshalb sind Vorhersagen auch immer dann besonders ungenau, wenn sich in einer größeren Luftströmung kleinräumige Störungen befinden.
Weiterlesen nach der Anzeige
Vorhersagehorizont 14 Tage
Je weiter eine Wettervorhersage in die Zukunft rechnet, desto mehr addieren sich zudem Fehler und Ungenauigkeiten. Ein Vorhersagehorizont von 14 Tagen gilt noch immer als eine Art Schallmauer.
Die Regel, dass Wettervorhersagen nur etwa bis 14 Tage brauchbar sind, geht auf den amerikanischen Mathematiker und Meteorologen Edward Lorenz zurück. Lorenz untersuchte Anfang der 1960er Jahre die Möglichkeiten der numerischen Wettervorhersage in einem stark vereinfachten System – einer sogenannten Konvektionszelle. Das ist ein Luftvolumen, das von unten gleichmäßig erwärmt wird. Die warme Luft steigt auf, kühlt ab und strömt dann wieder nach unten. Dabei entdeckte er, dass schon kleine Ungenauigkeiten in den Anfangswerten nach einiger Zeit große Ungenauigkeiten in der Vorhersage bewirkten. Lorenz vermutete daher, dass auch bei beliebig genau gemessenen Anfangswerten der Zeithorizont der Vorhersage begrenzt sein würde. Die Chaostheorie lieferte später die theoretische Unterfütterung für diesen sogenannten „Schmetterlingseffekt“. Kurz: Wettermodelle sind chaotische Systeme.
Künstliche Intelligenz
Digitale Souveränität: Verfassungsschutz kauft europäische Palantir-Alternative
Der deutsche Inlandsgeheimdienst macht Ernst beim Thema digitale Souveränität: Das Bundesamt für Verfassungsschutz (BfV) hat eine neue Software zur Analyse großer Datenmengen erworben. Nach Informationen von WDR, NDR und Süddeutscher Zeitung fiel die Wahl dabei nicht auf den umstrittenen US-Marktführer Palantir, der seit Jahren massiv in den deutschen Sicherheitsmarkt drängt. Vielmehr habe das französische Unternehmen ChapsVision den Zuschlag erhalten.
Weiterlesen nach der Anzeige
Damit will die Bonner Behörde laut den Berichten gezielt ein Zeichen gegen die technologische Abhängigkeit von US-Anbietern setzen, die vielen Sicherheitsbehörden zunehmend übel aufstößt. BfV-Präsident Sinan Selen deutete diesen Kurs bereits Ende 2025 auf einer internen Konferenz in Berlin an. Er hob damals hervor, für die Sicherheit sei entscheidend, geostrategisch richtige Entscheidungen zu treffen und den europäischen Fokus zu schärfen. Es gelte, die Souveränität zu stärken und Alternativen zu bieten, statt sich in langfristige Abhängigkeiten zu begeben.
Mit dem Kauf des Produkts der Firma ChapsVision, die dem Tech-Unternehmer Olivier Dellenbach gehört, setzt das Amt diese Ankündigung nun in die Praxis um.
Französische KI statt US-Import
Die auserwählte Softwarelösung trägt den Namen ArgonOS und arbeitet mit Künstlicher Intelligenz (KI). Sie ist darauf spezialisiert, riesige Datenmengen zu durchforsten, Informationen aus unterschiedlichen Datenbanken miteinander in Beziehung zu setzen und komplexe Netzwerke sichtbar zu machen.
Neben der klassischen Datenbankanalyse beherrscht das System auch die Recherche in offen zugänglichen Quellen alias Open Source Intelligence (OSINT). In Frankreich wird die Software bereits erfolgreich vom dortigen Inlandsgeheimdienst DGSI eingesetzt. Für den deutschen Markt kooperiert ChapsVision mit dem IT-Dienstleister Rola Security Solutions, der auch in den Polizeilichen Informations- und Analyseverbunds (PIAV) eingebunden ist.
Aus Kreisen des Verfassungsschutzes heißt es der Recherche zufolge, dass die Phase des Machbarkeitsnachweises schon erfolgreich abgeschlossen worden sei. Die Software gelte als einsatzbereit und solle vor allem in der Terrorismusbekämpfung und der Spionageabwehr wertvolle Dienste leisten. Derzeit werde das System allerdings noch in einem rechtlich eng begrenzten Rahmen genutzt, da die volle Ausschöpfung der Analysefunktionen auch von der geplanten Reform des Nachrichtendienstrechts abhänge. Das Bundesinnenministerium (BMI) arbeitet seit geraumer Zeit an einer Novelle, die dem BfV erweiterte Kompetenzen bei der Nutzung von KI und Gesichtserkennung einräumen soll.
Politischer Richtungsstreit im Innenbereich
Weiterlesen nach der Anzeige
Die Entscheidung des BfV sorgt für politischen Zündstoff: Sie legt den Riss innerhalb der Bundesregierung in der Palantir-Frage offen. Die Sicherheitsbehörden selbst und weite Teile der schwarz-roten Koalition drängen auf europäische Lösungen. Bundesinnenminister Alexander Dobrindt (CSU) hält die Tür für den US-Anbieter aber weiter offen. Kritik kommt hier vor allem von den Grünen im Bundestag. Fraktionsvize Konstantin von Notz hält es für sicherheitspolitisch blauäugig, sich von einem Unternehmen wie Palantir abhängig zu machen: Dessen Gründer Peter Thiel sei durch demokratiekritische Aussagen und seine Nähe zur Trump-Administration aufgefallen.
Auch innerhalb der Sicherheitsarchitektur wächst der Widerstand gegen US-Software. Neben dem BfV haben sich zuletzt auch das Bundeskriminalamt und Teile der Bundeswehr skeptisch gegenüber Palantir geäußert. Sie sorgen sich, dass sensible Daten abfließen und die Kontrolle über die kritische Infrastruktur verloren gehe. Bayern und Hessen setzen weiter auf Palantir. In anderen Bundesländern zeichnet sich ein Umdenken ab: Baden-Württemberg diskutiert offen den Ausstieg, auch in Nordrhein-Westfalen steht die Zusammenarbeit auf dem Prüfstand.
Befürworter europäischer Alternativen wie der SPD-Innenpolitiker Sebastian Fiedler sehen in der Entscheidung des BfV einen Meilenstein für die nationale Sicherheitsstrategie. Leistungsfähige Analysewerkzeuge seien unabdingbar, dürften aber nicht die digitale Souveränität gefährden. Die erfolgreiche Implementierung der französischen Software beim Verfassungsschutz könnte so als Blaupause dienen und den Druck aufs BMI erhöhen, eine klare, europaorientierte Beschaffungsstrategie festzulegen.
(mki)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
-
Apps & Mobile Entwicklungvor 2 MonatenMähroboter ohne Begrenzungsdraht für Gärten mit bis zu 300 m²
-
Künstliche Intelligenzvor 2 MonateniPhone Fold Leak: Apple spart sich wohl iPad‑Multitasking
