Künstliche Intelligenz
Top 10: Die beste Wärmebildkamera fürs Handy – Tiere aufspüren & Technik prüfen
Eine Wärmebildkamera findet Wasserlecks und schlechte Isolierungen. Günstiger sind nachrüstbare Dongles. Wir zeigen die besten Wärmebildkameras fürs Handy.
Eine besonders einfache, komfortable und platzsparende Lösung sind kleine Kameras mit Thermolinse zum Anstecken an das Handy. Diese Wärmebildkameras dienen als Dongle für das Smartphone und bieten so eine kompakte und kostengünstige Lösung für die Thermografie. Sie ermöglichen es, Wärmelecks, elektrische Probleme oder undichte Stellen schnell und einfach zu erkennen. Da das Smartphone als Bildschirm und Steuerung fungiert, benötigt man kein separates Gerät. Das spart Platz und vereinfacht die Handhabung.
Im Vergleich zu herkömmlichen Wärmebildkameras sind diese Nachrüstkameras deutlich preiswerter. Sie bieten dennoch eine ausreichend hohe Bildqualität für viele Anwendungsbereiche. Besonders für Heimwerker, Energieberater oder Techniker, die punktuell arbeiten, sind sie ideal. Dank der einfachen Verbindung zum Smartphone wird die thermische Analyse nicht nur günstiger, sondern auch flexibler.
In dieser Bestenliste zeigen wir die besten Wärmebildkameras fürs Handy zum Nachrüsten aus unseren Tests. Zudem gehen wir auf Alternativen in Form von Outdoor-Smartphones (Bestenliste) sowie preiswerten Handheld-Wärmebildkameras ein.
Welche ist die beste Wärmebildkamera für das Handy?
Testsieger ist die Wärmebildkamera Hikmicro Mini 2 V2 Plus ab 258 Euro. Als USB-C-Dongle ist sie schnell installiert und benötigt kaum Platz, zudem bietet sie eine manuell verstellbare Fokuslinse. Preis-Leistungs-Sieger ist Hikmicro Mini 2 für 169 Euro – der Vorgänger der Mini2 V2.
Ein echtes Schnäppchen ist die Hikmicro Mini E ab 125 Euro (10-%-Coupon). Eine besondere Lösung für Baustellen oder Handwerker ist die Flir One Edge Pro ab 400 Euro. Das Modell ist robust, funktioniert kabellos und kommt ohne Smartphone-Anschluss aus.
Wofür benötigt man eine Wärmebildkamera?
Eine Wärmebildkamera kann im Haushalt vielfältig eingesetzt werden, um verschiedene Aspekte der Gebäude- und Haushaltsüberwachung zu verbessern. Folgende Anwendungsbereiche sind denkbar:
- Energieeffizienz: Wärmelecks in Wänden, Fenstern und Türen finden.
- Elektrogeräteüberwachung: Früherkennung von Überhitzung oder Funktionsstörungen in Elektrogeräten.
- Heizung: Diagnose von Heizungsanlagen für Effizienzsteigerungen und gleichmäßige Wärmeverteilung.
- Rohrleitungen und Wasserlecks: Aufspüren von undichten Stellen in Rohrleitungen und Identifizierung von Wasserschäden in der Gebäudestruktur.
- Die Schädlingsbekämpfung: Suche nach Verstecken von Schädlingen, da diese oft als Wärmequellen erscheinen.
Ferner können Infrarot-Kameras interessant sein für Naturfreunde, Jäger oder Förster, die nachts Tiere ausfindig machen wollen.
Wie funktioniert eine Wärmebildkamera?
Eine Wärmebildkamera erfasst die Infrarotstrahlung, die von Objekten emittiert wird. Das Prinzip basiert auf der Tatsache, dass alle Objekte mit einer Temperatur über dem absoluten Nullpunkt (–273 Grad Celsius oder 0 Kelvin) Infrarotstrahlung abgeben. Damit ist es möglich, die Wärme einer Oberfläche zu erkennen. Oft nennt man eine solche Linse einfach nur Infrarot-Kamera. Hier ist aber zu unterscheiden zwischen Wärmebild- sowie Nachtsichtkameras. Letztere nutzen Restlicht oder Infrarotlicht, um das Bild bei Dunkelheit aufzuhellen.
Beide Technologien haben unterschiedliche Anwendungen und ergänzen sich in verschiedenen Szenarien. Eine Wärmebildkamera soll primär Temperaturunterschiede von Oberflächen darstellen, während die Nachtsichtkamera die Sichtbarkeit bei völliger Dunkelheit durch vorhandenes Licht sowie reflektiertes Infrarotlicht gewährleistet. Letzteres kommt bei Überwachungskameras mit Nachtsicht (Bestenliste) zum Einsatz.
Das Bild einer Wärmebildkamera ist farbig dargestellt – man nennt das auch Pseudofarbdarstellung. Da Temperaturen selbst keine Farben haben, hilft die farbige Darstellung dem menschlichen Auge, Unterschiede einfacher zu erkennen. Das erleichtert die schnelle Identifikation von Unterschieden beim Temperaturbereich und Hotspots. Sie ist auch für den Benutzer leichter zu verstehen als eine Darstellung in Graustufen.
Warum ist thermische Empfindlichkeit so wichtig?
Ein zentrales Qualitätsmerkmal von Wärmebildkameras ist die sogenannte thermische Empfindlichkeit, auch bekannt als NETD (Noise Equivalent Temperature Difference). Dieser Wert gibt an, wie klein der Temperaturunterschied sein darf, den die Kamera noch zuverlässig erkennen kann.
Je niedriger der NETD-Wert (z. B. <40 mK), desto empfindlicher ist die Kamera – sie kann also feinere Temperaturunterschiede darstellen. Diesen Wert erreichen alle Adapter aus dieser Bestenliste annähernd. Das ist besonders wichtig bei der Detektion von kleinen Wärmelecks, leichten Überhitzungen oder in der präzisen Energieberatung. Kameras mit höherer thermischer Empfindlichkeit liefern klarere, kontrastreichere Bilder, insbesondere bei geringen Differenzen oder ungünstigen Umgebungsbedingungen.
Je nach Modell liegt der erfassbare Temperaturbereich meist zwischen –20 °C und +400 °C, was für typische Anwendungen im Haushalt, der Gebäudethermografie oder bei technischen Prüfungen vollkommen ausreichend ist. Manche Kameras messen auch darüber hinaus bis über 550 °C, was für industrielle Anwendungen relevant sein kann.
Auflösung und Bildqualität
Die Wärmebildkameras in der Bestenliste bieten Sensorauflösungen von 160 × 120 bis 256 × 192 Pixel. Modelle wie die Infiray P2 Pro oder Topdon TC002C Duo liefern dadurch mehr Details als günstigere Einsteigervarianten. Eine höhere Auflösung erleichtert die Erkennung feiner Temperaturunterschiede, etwa bei der Lecksuche oder Elektrodiagnose.
Einige Geräte werben mit Auflösungen bis zu 512 × 384 Pixel. Dabei handelt es sich jedoch vornehmlich um digital hochgerechnete Werte. Durch Interpolation und digitales Nachschärfen wird das Bild optisch verbessert, die tatsächliche Sensorauflösung bleibt jedoch geringer. Für den Anwender wirkt das Bild dennoch schärfer und detailreicher.
Unterstützende Technologien
Zur weiteren Bildoptimierung setzen Hersteller wie Flir auf Zusatztechnologien wie MSX (Multi-Spectral Dynamic Imaging). Dabei werden sichtbare Konturen aus dem Kamerabild mit dem Wärmebild kombiniert. So erscheinen Gebäudestrukturen, Kanten oder Beschriftungen deutlich klarer, ohne die Temperaturmessung zu beeinflussen.
Solche Technologien sind besonders hilfreich bei geringen Temperaturunterschieden oder schwachem Kontrast – etwa bei schlecht isolierten Fenstern oder verdeckten Leitungen. Sie verbessern die Lesbarkeit des Wärmebildes erheblich, selbst bei begrenzter Auflösung.
Welches Handy hat eine Wärmebildkamera?
Zahlreiche Outdoor-Handys (Bestenliste) verfügen neben einer Nachtsichtkamera auch über eine Wärmebildkamera. Teilweise gilt das auch in Kombination mit einer IR-Linse für Nachtsicht, wie einige der Modelle aus unseren Tests zeigen.
Fazit
Eine Wärmebildkamera ist sehr praktisch. So erkennt man damit zu Hause schneller eine schwache Isolierung, ein Leck in einer Wasserleitung oder Geräte, die möglicherweise zu überhitzen drohen. Zudem kann man damit in der Dunkelheit Säugetiere aufspüren.
Eine vergleichsweise preiswerte Möglichkeit ergibt sich mit einem Wärmebildkameramodul zum Nachrüsten. Dieses steckt man einfach in das Handy ein und kann es per App nutzen. Diese Lösung ist zudem platzsparend.
Die Hikmicro Mini 2 V2 Plus überzeugt als Testsieger mit platzsparender Bauweise, USB-C-Anschluss und manuell einstellbarem Fokus. Eine günstige Alternative mit gutem Preis-Leistungs-Verhältnis ist die Hikmicro Mini 2, während die Hikmicro Mini E als besonders preiswerter Einstieg gilt. Für den robusten Einsatz ohne Smartphone-Anbindung eignet sich die kabellose Flir One Edge Pro.
Künstliche Intelligenz
Steam-Spiele tauchen jetzt in der Xbox-App auf
Microsoft macht die Xbox-App zur zentralen Anlaufstelle für alle installierten PC-Spiele. Aktuell verteilt Microsoft ein Update für die Xbox-App, nach dessen Installation auch Spiele in der Xbox-Bibliothek auftauchen, die über andere Plattformen installiert wurden. Zu den unterstützten Stores gehören Steam, GOG und der Epic Games Store.
Angekündigt hat Microsoft diese Neuerung schon im Juni, seitdem wurden die neuen Features getestet. Nun wurde die überarbeitete Xbox-App für alle Nutzer veröffentlicht. Das Update kann auch in Deutschland bereits heruntergeladen werden. Dazu klickt man in der Xbox-App auf die Glocke und stößt den Download der neuen Version an – insofern sie nicht schon automatisch heruntergeladen wurde.
Nach dem Update braucht die App einen kurzen Moment, um alle auf dem PC installierten Spiele aus den unterschiedlichen Stores zu erfassen. Dieser Schritt erfolgt automatisch. Die zuletzt gespielten Titel tauchen in der linken Leiste auf, eine Komplettübersicht bekommt man über den Bibliotheks-Reiter.
Aktuell nicht installierte Spiele, die in anderen Stores erworben wurden, können über die Xbox-App nicht verwaltet werden. Die Integration installierter Spiele beschränkt sich vorrangig auf das Starten der Titel – für alles andere muss man in die App der jeweiligen Plattform wechseln.
Entwickelt für Xbox Ally
Standardmäßig indiziert die Xbox-App Spiele aus allen unterstützten Apps. Wer einzelne Apps abschalten oder das Feature komplett deaktivieren möchte, muss aktiv werden: Über den Klick auf den Benutzernamen und „Einstellungen“ kann man zu „Bibliothek und Erweiterungen“ navigieren. Dort kann man die Einbindung für jede einzelne Plattform aktivieren oder deaktivieren.
Das Feature wurde vorrangig für den Xbox Ally entwickelt: Nutzer des kommenden Handhelds von Asus und Microsoft bekommen eine neue, um die Xbox-App aufgebaute Oberfläche, die viele fürs Gaming weniger wichtige Funktionen in den Hintergrund rückt. Damit Handheld-User nicht ständig zwischen verschiedenen Apps hin- und herwechseln müssen, hat Microsoft an einer Einbindung der Spiele aus anderen Stores gearbeitet. Davon profitieren nun auch alle anderen PC-Systeme.
(dahe)
Künstliche Intelligenz
Cross-Plattform-Applikationen mit Rust 1: Langlebig und flexibel
Viele Benutzeroberflächen entstehen auf Basis von Webtechnologien. Dennoch sind native Applikationen weiterhin für viele Anwendungsfälle der bessere Ansatz oder sogar alternativlos. Sowohl Desktopprogramme mit Hardwareanbindungen als auch mobile Apps fordern die Entwicklung für ein bestimmtes Betriebssystem.
Marcel Koch berät mit seinem siebenköpfigen Team kleine und mittelständische Unternehmen und entwickelt branchenübergreifend Cross-Platform-Apps für Desktop und Mobile sowie Webapplikationen – bevorzugt mit TypeScript, Rust, Flutter oder Java, gestützt auf CI/CD und IaC. Dabei setzt er auf pragmatische, passgenaue Lösungen, denn Software ist kein Selbstzweck. Neben soliden technischen Kenntnissen schult er in Gewaltfreier Kommunikation, Transaktionsanalyse sowie Agilität und fördert einen kritischen Blick auf Cloud Hypes. Marcel ist Speaker, Autor von Fachartikeln und Büchern und regelmäßig in Podcasts zu hören.
Native Applikationen haben Vorteile wie gute Performance, natives Look and Feel und direkten Zugriff auf angeschlossene Hardware. Zu den Nachteilen gehören spezifische Codebasen für jedes Betriebssystem, Unterschiede zwischen den nativen APIs und eine umständliche Installation der Software.
Die Idee von Cross-Plattform-Frameworks ist, zumindest den ersten beiden Nachteilen zu begegnen. Besonders für schnelle Ergebnisse mit wenig Aufwand sind Frameworks eine gute Wahl. Dynamische Sprachen ermöglichen schnelle Ergebnisse. Soll die Applikation lediglich für ein, zwei Jahre laufen, können Entwicklungsteams bedenkenlos zu solchen Frameworks greifen.
Will ein Team aber eine Anwendung zehn oder mehr Jahre weiterentwickeln, muss es verschiedene Aspekte kritisch hinterfragen: Wie lange entwickelt der Hersteller das Framework weiter? Genügt die Unterstützung von Android, iOS und Web? Reicht die Performance einer Web View? Soll die Anwendung neu aufkommende UI-Technologien oder Betriebssysteme integrieren? Wie laufen (automatisierte) Tests, um die Qualität hochzuhalten?
Langlebigkeit durch einen herausgelösten Core
Da sowohl Cross-Plattform-Frameworks als auch UI-Technologie einem schnellen Wandel unterliegen, liegt es nahe, das UI vom beständigen Teil zu trennen. Diese Idee ist durch die hexagonale Architektur bekannt. Mit dieser können sich Entwicklerinnen und Entwickler auf die Kernfunktionen konzentrieren und technische Notwendigkeiten als Ports definieren, die von außen an den Core andocken. Bei einer Cross-Plattform-Anwendung ergeben sich Ports für die Benutzeroberfläche und andere plattformspezifische APIs. Beispiele für APIs sind Zugriffe auf die Kamera oder das Dateisystem. Der Core beinhaltet die vollständige Geschäftslogik und alle weiteren Teile der Applikation, die Bestand haben und lange leben sollen.
Auswahl der Core-Programmiersprache
Der herausgelöste Core muss auf allen anvisierten Plattformen laufen. Als Beispiel für Zielplattformen seien Android, iOS, Windows, macOS und Raspberry Pi definiert. Als Kriterien einer für den Core geeigneten Sprache sind Stabilität, Robustheit, Langlebigkeit und Flexibilität wichtig.
(Bild: evgeenius/Shutterstock)
Am 10. November 2025 steht auf der Online-Konferenz betterCode() Rust das Entwickeln industrieller Anwendungen mit Rust im Fokus. Die Vorträge widmen sich unter anderem der asynchronen Programmierung, dem Verwalten von Dependencies und High Performance Rust.
Eine Programmierumgebung gilt als stabil, wenn sie produktionsreif ist und nur noch wenigen grundlegenden Änderungen unterliegt. Robustheit bezieht sich auf den in der Programmiersprache geschriebenen Code. Die Sprache soll weiterhin ermöglichen, den Code zu erweitern, umzuschreiben und für die nächsten zehn Jahre verständlich zu halten.
Dafür muss auch die darunterliegende Sprache langlebig sein. Auch soll sie sich möglichst flexibel verwenden lassen und am besten alle großen Betriebssysteme, Single-Board-Computer, Mikrocontroller und den Browser abdecken. Für diesen Artikel fiel die Wahl auf die Programmiersprache Rust, die sich für zahlreiche Plattformen verwenden lässt.
Rust für den Core
Rust ermöglicht mit vertretbarem Aufwand die Gestaltung eines wartbaren und performanten Core für flexible Einsatzgebiete. Die Sprache läuft auf allen Desktop-Betriebssystemen, mobilen Endgeräten, Single-Board-Computern, vielen Mikrocontrollern und via WebAssembly durch kompakte wasm-Module auch gut im Browser.
Die explizite Syntax von Rust begünstigt die Entwicklung robuster, lange wartbarer Software. Nachteilig sind die Komplexität, die steile Lernkurve und die im Vergleich zu JavaScript oder C++ kleinere Community. Allerdings wächst die Beliebtheit von Rust und damit auch die Community. Das zeigt sich auch durch die an vielen Stellen verlautete Migration von C zu Rust.
2021 wurde die Rust Foundation von AWS, Google, Huawei, Microsoft und Mozilla gegründet. Heute unterstützen viele weitere Firmen die Foundation, darunter Meta, JetBrains und Threema. Die Unternehmen sind daran interessiert, die ursprünglich von Mozilla ins Leben gerufene Sprache lange zu pflegen.
Architektur des Core
Nach der Auswahl der Sprache ergibt sich die Frage der Architektur für den Core. Je größer der Anteil der Anwendung im Core ist, desto stärker wiegen die Vorteile des Architekturansatzes, ohne weiteren Aufwand verschiedene Plattformen abzudecken. Das bezieht sich insbesondere auf Logik und Zustand, aber auch auf Übersetzungen für die Mehrsprachigkeit.
Um die Idee der Architektur besser begreifen zu können, dient im Folgenden als Beispiel eine simple App für das Speichern von Namen und E-Mail-Adressen.
Die auf der Benutzeroberfläche zu rendernden Daten muss man ebenso vorbereiten wie die an Buttons oder Eingabefelder gebundenen Aktionen. Wenn Anwender die E-Mail-Adresse ändern und durch Drücken eines Buttons speichern, soll der Core Schnittstellen für die aktuellen Daten, die Änderungen und für den Bestätigungstext bereitstellen, die sich direkt an den Oberflächencode anschließen lassen.
Die Architektur trennt den Core mit der Geschäftslogik von den nativen Elementen (Abb. 1).
(Bild: Marcel Koch)
Klare Trennung durch MVVM
Im Entwurfsmuster MVVM (Model View ViewModel) kapselt das Modell die fachlichen Daten – und gegebenenfalls den Zustand. Das ViewModel enthält eine Aufbereitung dieser Daten, um sie in der View (Benutzeroberfläche) ohne weitere Bearbeitung einbinden zu können. Der Core stellt das ViewModel bereit. In Rust definiert kann es ein einfaches Struct sein:
ViewModel {
name: String,
email: String
}
UI-Aktionen als fachliche Aktionen
Bei der UI-Entwicklung lösen native Elemente wie Widgets und Controls technische Events aus, beispielsweise buttonXYClicked()
. Diese Events führen zu fachlichen Aktionen wie „ändere E-Mail-Adresse“. Der Core stellt Schnittstellen für diese Aktionen zur Verfügung. Die Aktionen sind so gestaltet, dass eine Anwendung sie direkt an die UI-Elemente anbinden kann. Somit ergeben sich Aktionen, die optimal für das UI und gleichzeitig fachlich geschnitten sind.
In Rust kann die Liste an Aktionen ein Enum sein:
pub enum Actions {
ChangeName(String),
ChangeEmail(String),
ApplyChanges,
}
Verwaltung des Zustands
Auch den Zustand verwaltet der Core. Das UI bleibt zustandslos: Es schickt Aktionen an den Core und reagiert auf die Änderungen im ViewModel. Der Zustand kann ein einfaches Struct sein, das im Speicher gehalten wird:
pub struct ViewModel {
pub name: String,
pub email: String,
}
pub enum Actions {
ChangeName(String),
ChangeEmail(String),
ApplyChanges
}
struct State {
name: String,
email: String
}
impl Default for State {
fn default() -> Self {
State {
name: "".into(),
email: "".into()
}
}
}
pub struct App {
state: State
}
impl App {
pub fn new() -> App {
App {
state: State::default()
}
}
pub fn do_action(&mut self, action: Actions) -> ViewModel {
match action {
Actions::ChangeName(name) => {
self.state.name = name;
}
Actions::ChangeEmail(email) => {
self.state.email = email;
}
Actions::ApplyChanges => {}
}
self.render_view_model()
}
pub fn render_view_model(&self) -> ViewModel {
ViewModel{
name: self.state.name.clone(),
email: self.state.email.clone()
}
}
}
impl Default for App {
fn default() -> Self {
Self::new()
}
}
Künstliche Intelligenz
Online-Banking: Echtzeitüberweisungen und IBAN-Name-Prüfung kommen
Ab dem 9. Oktober 2025 sind Banken und Sparkassen im Euroraum verpflichtet, SEPA-Überweisungen in Euro auf Kundenwunsch in Echtzeit durchzuführen. Dies gilt neben Online- und Telefonüberweisungen auch für den Überweisungs-Service am Schalter. Das verlangt die Verordnung (EU) 2024/886. Echtzeit bedeutet, dass das Geld innerhalb von maximal zehn Sekunden beim Empfänger angekommen und der Sender über den Eingang informiert sein muss. Für Fehlschläge gilt dieselbe Benachrichtigungsfrist. Durch die Verordnung stehen Echtzeitüberweisungen damit künftig auch Kunden von Banken wie der DKB und der ING vollumfänglich zur Verfügung.
Zusätzlich müssen die Institute bei sämtlichen SEPA-Überweisungen im Euroraum den Empfängernamen und die IBAN untereinander abgleichen. Gibt es Abweichungen, müssen sie den Sender warnen, bevor er die Überweisung freigibt. Mit dieser sogenannten IBAN-Namens-Prüfung oder englisch „Verification of Payee“ (VoP) will die EU Bankkunden besser vor Betrug schützen.
Bereits seit dem 9. Januar 2025 müssen Banken in der Lage sein, Echtzeitüberweisungen zu empfangen. Für Echtzeitüberweisungen wie nun auch VoP dürfen die Institute seither außerdem nicht mehr Entgelt verlangen als für eine SEPA-Standardüberweisung. Kostet eine Überweisung regulär 25 Cent, darf die Bank auch für die schnelle Variante nur 25 Cent verlangen. Sind Überweisungen pauschal im Kontoentgeltmodell inbegriffen, gilt das auch für solche in Echtzeit.
Das war die Leseprobe unseres heise-Plus-Artikels „Online-Banking: Echtzeitüberweisungen und IBAN-Name-Prüfung kommen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
UX/UI & Webdesignvor 4 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Social Mediavor 4 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 2 Wochen
Adobe Firefly Boards › PAGE online
-
Entwicklung & Codevor 4 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Digital Business & Startupsvor 3 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Apps & Mobile Entwicklungvor 3 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen