Künstliche Intelligenz
Flacher Mini-PC mit Ryzen 9, 2x LAN und USB4 für 380 Euro: Nipogi AM21 im Test
Gute Anschlussausstattung zum fairen Preis: Der Nipogi AM21 bietet neben USB4 auch zwei LAN-Ports gepaart mit gehobener Mittelklasse-Leistung für 380 Euro.
Früher gehörte er mal zum High-End-Bereich, inzwischen zählt der AMD Ryzen 9 6900HX im Nipogi AM21 eher zur gehobenen Mittelklasse. Doch das muss nicht schlecht sein, denn das System mit 16 GB Arbeitsspeicher (RAM) und einer 512 GB großen SSD bietet dennoch ordentlich Leistung für einen vergleichsweise niedrigen Preis von 380 Euro (Rabatt-Coupon anwählen). Obendrein gibt es eine lobenswerte Anschlussvielfalt und Platz für eine zweite SSD. Auch Linux läuft problemfrei – was will man mehr? Wir haben den Nipogi AM21 mit Ryzen 9 6900HX getestet und zeigen dessen Vor- und Nachteile.
Das Testgerät hat uns Nipogi zur Verfügung gestellt.
Ausstattung: Welche Hardware bietet der Nipogi AM21?
In unserer Testvariante des Nipogi AM21 werkelt ein AMD Ryzen 9 6900HX. Dabei handelt es sich um eine im Jahr 2022 vorgestellte CPU, die damals etwa bei Gaming-Notebooks eingesetzt wurde. Inzwischen ist der im 6-Nm-Verfahren gefertigte Chip auf Basis der Architektur Zen 3+ (Codename: Rembrandt) etwas in die Jahre gekommen, aber dennoch recht stark – doch dazu später mehr. Er setzt auf einen Aufbau mit acht Kernen bei 16 Threads und taktet mit 3,3 bis 4,9 GHz. Seine TDP (thermische Verlustleistung) liegt standardmäßig bei 45 W, die maximale Betriebstemperatur ist bei 95 Grad angegeben. Als integrierte Grafikeinheit kommt eine mit 2400 MHz taktende AMD Radeon 680M zum Einsatz.
Nipogi setzt speicherseitig im AM21 auf zwei 8 GB große DDR5-Module im SO-DIMM-Format von Rayson mit 4800 MT/s. Als Massenspeicher nutzt das System eine 512 GB große NVMe-SSD im Formfaktor M.2-2280. Diese arbeitet ausweislich Crystaldiskmark mit Geschwindigkeiten von 3264 MB/s beim Lesen und 2403 MB/s beim Schreiben, was solide, aber nicht herausragende Werte sind.
Anschlussseitig tischt Nipogi neben vier USB-A-Buchsen (USB 3.2) insbesondere zwei LAN-Schnittstellen (1x 1 GBits, 1x 2,5 GBits) und zwei USB-C-Ports auf, bei letzteren einmal USB 3.2 und einmal sogar USB4. Dazu gibt es obendrein zwei HDMI-2.1-Ports. Damit gehört die Anschlussausstattung des Nipogi AM21 zu den besseren im Mini-PC-Segment. Wir vermissen primär, dass einer der USB-C-Ports noch den Eingangsstrom für den Mini-PC aufnehmen kann. Hier muss man das recht kompakte 90-Watt-Netzteil mit Rundhohlstecker verwenden.
Für drahtlose Verbindungen setzt der AM21 auf Wi-Fi 6 und Bluetooth 5.2, was in Ordnung ist, aber nicht den aktuellsten Standards entspricht. Als WLAN-Chipsatz kommt der Realtek 8852BE zum Einsatz.
Performance: Wie schnell ist der Nipogi AM21?
Die Performance des Ryzen 9 6900HX ist zweifelsfrei ordentlich, kann aber aufgrund der Verbesserungen bei Fertigung, Architektur und vor allem bei der iGPU nicht mehr auf dem Spitzenniveau neuer Ryzen-Chips mithalten. Das zeigt sich an den durchschnittlich 6380 Punkten bei PCmark 10, wobei es Ausschläge in Richtung 6434 Punkte und 6321 Punkte gibt. Auch bei 3DMark Time Spy sind die Vorteile der neuen Chips gegenüber der sechsten Ryzen-Generation ersichtlich. Hier kommt das System auf 2484 Punkte, die sich aus 2209 Grafik-Punkten und 8447 CPU-Punkten zusammensetzen. Ryzen-7-CPUs der siebten Generation, wie der Ryzen 7 7840HS, kommen bereits auf über 3300 Punkte, wobei die Grafik meist 800 bis 1200 Punkte besser abschneidet und die CPU bis zu 4000 Punkte besser.
Bei Cinebench 2024 kommt die CPU im Single-Core-Durchlauf auf 91 Punkte und im Multi-Core auf 696 Punkte. Bei Geekbench 6 als plattformübergreifendem Benchmark erreicht das System 2112 Punkte (Single-Core) und 9673 Punkte (Multi-Core). Auch hier liegen die Ergebnisse in beiden Fällen deutlich hinter der Nachfolger-Generation. Allesamt sind die Scores nicht schlecht, doch inzwischen eher gehobene Mittelklasse statt High-End. Das ist aber kein Problem, denn dafür ist der Preis des Systems auch in der Mittelklasse angekommen.
Nipogi AM21 (6900HX) – Bilderstrecke
Bei Spielen in Full-HD schlägt sich der Nipogi AM21 noch erstaunlich gut. So läuft Counter Strike 2 durchgehend stabil bei 55 bis 60 FPS ohne Framedrops – und das auf hohen Einstellungen ohne FSR-Upsampler (AMD Fidelity FX Super Resolution). Cities Skylines 2 bekommen wir auf sehr niedrigen Optionen und aktiviertem FSR mit 22 bis 29 FPS halbwegs spielbar zum Laufen, optisch macht das Städtebauspiel dann aber wenig Spaß. Anno 1800 läuft bei niedrigen Einstellungen ohne FSR mit 31 FPS. Mit FSR auf Leistung und mittleren Grafikeinstellungen sind es bis zu 60 FPS. Auch The Witcher 3: Wild Hunt ist bei stabilen 53 FPS gut spielbar. Angesichts der eher mittelmäßigen Benchmark-Resultate kann sich das durchaus sehen lassen.
Lüfter: Wie laut ist der Nipogi AM21?
Die Lüfterlautstärke am AM21 beträgt im Idle etwa 24 dB(A), was kaum wahrnehmbar ist. Im normalen Alltag beim Verwenden des Browsers oder anderer Anwendungen steigt die Lautstärke schnell auf 28 bis 30 dB(A). Unter Last erreicht das System bereits nach wenigen Sekunden Stresstest in Aida64 36 dB(A), die weiter auf über 40 dB(A) ansteigen. Insbesondere stört dabei aber das pfeifende Geräusch, das der Lüfter verursacht.
Die Kerntemperatur der CPU liegt ohne Last bei 54 Grad. Während der Vollauslastung durch einen Aida64-Stresstest steigt sie sprunghaft auf bis zu 89 Grad an, was angesichts der dennoch hohen Lüfterlautstärke auf eine nicht optimale Kühlung hindeutet. Zwar ist die CPU auf weitaus höhere Temperaturen ausgelegt, dennoch sind 89 Grad auf Dauer zu hoch – andere PCs mit ähnlicher oder höherer Leistung bleiben hier wesentlich kühler. Schlussendlich pendelt sich die Temperatur bei 86 Grad ein. Der Prozessortakt liegt anfangs bei 3,6 GHz, kann dann zwei Minuten lang etwa 3,3 GHz halten und pendelt sich dann im Verlauf bei 3,0 GHz ein.
Unter Last bezieht das System etwa 60 W, mit einer kurzen Spitze zu Beginn des Stresstests bei 69 W. Im Alltag sind es ohne Last maximal 15 W, bei der Verwendung von Anwendungen, wie dem Browser, sind es 25 bis 30 W.
Software: Mit welchen Betriebssystemen arbeitet der Nipogi AM21?
Auf dem Nipogi AM21 kommt Windows 11 Pro in Version 24H2 zum Einsatz, zusätzliche Bloatware ist nicht installiert. Unser standardmäßiger vollständiger Virenscan mit Windows Defender findet keine Auffälligkeiten. Der Betrieb von Linux klappt im Test mit dem auf Ubuntu basierenden Tuxedo OS sowie mit Fedora 42 ohne Probleme. Ins AMI-BIOS zur Änderung der Bootreihenfolge gelangt man dabei etwa über die erweiterten Wiederherstellungsoptionen von Windows. In Tuxedo OS und Fedora 42 können wir WLAN, Bluetooth und Audio direkt nutzen. Die Erkennung der richtigen Auflösung klappt ebenso und der PC wacht auch aus dem Standby wieder auf.
Gehäuse: Wie ist die Verarbeitung des Nipogi AM21?
Das Gehäuse des Nipogi AM21 ist vergleichsweise flach mit Maßen von 119,2 x 119,2 x 36,9 mm. Die Verarbeitung ist sehr ordentlich, allerdings hat der Kunststoffrahmen unseres Testgeräts bereits nach kurzer Zeit einige Schrammen abbekommen, das Material ist also etwas empfindlich. An das Gehäuseinnere kommt man durch Lösen der vier Schrauben an der Bodenplatte, die sich danach problemlos abnehmen lässt. Danach hat man direkten Zugang zu RAM und SSD. Den Rest der Hauptplatine bekommt man allerdings aufgrund einer Zwischenplatte nicht zu sehen, hier sind weitere Schrauben zu lösen. Für die Erweiterung der Speicherkapazität ist außerdem noch ein zweiter, leerer M.2-Slot vorhanden.
Nipogi hat auch auf diesem Mini-PC wieder eine Vielzahl von Aufklebern angebracht, die unter anderem auf den Support via WhatsApp oder Anleitungen zur Erstinbetriebnahme hinweisen. Das sind wir bereits von anderen Modellen des Herstellers gewohnt. Auffällig ist besonders der Sticker, der den Ethernet-Anschluss verdeckt und den Ratschlag enthält, das System während der Einrichtung offline zu halten. Dadurch geht die Einrichtung von Windows schneller vonstatten, da man so die Erstellung eines Microsoft-Kontos umgeht. Zudem vermeidet man damit die Installation zahlreicher Updates und kann diese nach der Einrichtung im Hintergrund abrufen, während man den PC bereits nutzt.
Preis: Was kostet der Nipogi AM21?
Normalerweise kostet der Nipogi AM21 mit Ryzen 9 6900HX bei Amazon knapp 500 Euro. Aktuell bekommt man ihn mithilfe eines anwählbaren Rabatt-Coupons für 380 Euro.
Fazit
Der Nipogi AM21 hat uns im Test über weite Strecken trotz der vergleichsweise mittelmäßigen Benchmark-Ergebnisse überzeugt. So konnten wir dennoch einige hochkarätige Spiele zum Laufen bekommen – und das sogar recht ordentlich. Zudem bietet der PC eine gute Auswahl an modernen Anschlüssen, allen voran USB4. Positiv ist auch die gute Hardwareunterstützung mit bekannten Linux-Derivaten, wie Fedora oder Tuxedo OS (Ubuntu-basiert). Einzig die unter Vollauslastung sehr hohe Lüfterlautstärke ist als Nachteil zu sehen. Ansonsten bekommt man hier einen Mini-PC mit guter Leistung zum fairen Preis – auch wenn er nicht der schnellste oder beste ist.
Künstliche Intelligenz
Cloud-Markt: Gartner prognostiziert Billion US-Dollar bis 2027
Gartner sieht den weltweiten Cloud-Markt weiter im Aufwind. Bis 2027 soll er auf eine Billion US-Dollar ansteigen. Allerdings wird es massive Änderungen geben, die auf eine zunehmende KI-Nutzung zurückzuführen sind. So soll bis 2030 KI in über 90 Prozent der Cloud-Strategien integriert sein, gegenüber weniger als zehn Prozent heute.
Weiterlesen nach der Anzeige
Gartner-Analyst Milind Govekar sieht hierbei zwei Entwicklungen: „Es wird bei den Cloud-Providern zwei unterschiedliche Investitionsmodelle geben. Das eine setzt auf einen stark vertikal integrierten Stack, wie bei Google, also von der CPUs bis hin zur KI-Ebene. Der andere ist modular und partnerorientiert.“ Als Beispiel verweist er auf die Kooperation von Microsoft mit OpenAI, um eine breite Palette an KI-Funktionen abzudecken: von den GPUs und CPUs bis hin zu den KI-Features. Diese unterschiedlichen Modelle haben weitreichende Konsequenzen für die KI-Nutzung aus der Cloud. Der vertikal integrierte Technologie-Stack bietet hohe Kosteneffizienz, eine gute Leistungsoptimierung und die Kontrolle über den gesamten Technologie-Stack. Oder besser gesagt: Der Anbieter hat die Kontrolle. Der modulare, partnerorientierte Ansatz bietet dagegen mehr Flexibilität, verkürzt die Markteinführung und ermöglicht mehr Innovationen.
Paketbasierten Komponenten gehört die Zukunft
Govekar ging dabei der Frage nach, um welche Innovationen es sich hierbei handelt. „Im Wesentlichen sind das paketbasierte Komponenten mit branchenspezifischen Lösungen“, lautet seine Einschätzung. Folglich meint er, dass es einen deutlichen Anstieg von Cloud-Services geben wird, die in traditionelle Branchen expandieren. Hierzu verweist er auf den Banking-Service von AWS in den USA und die HealthCare-Services von Google.
Das alles basiert auf drei umfangreichen Ressourcen: Erstens, einer komplexen Kerninfrastruktur aus Netzwerk, Rechenleistung, Speicher, KI-Modellen und der entsprechenden Support-Software. Dazu gehört auch eine leistungsstarke Dateninfrastruktur, die es ermöglicht, riesige Datenmengen aus verschiedenen Bereichen zu erfassen und für Training und Inferenz zu nutzen. Zweitens, die Kompositionsmöglichkeiten mit Cloud-nativen Technologien, wie Containern, die für die Entwicklung und den Einsatz von KI-Agenten verwendet werden. Und drittens, die Fähigkeit, schnell paketbasierte Komponenten (PBCs) zu erstellen, Marktplätze und Branchen-Clouds zu schaffen und branchenspezifische Funktionen bereitzustellen, die von anderen Anbietern und Nutzern kombiniert und zu eigenen Diensten erweitert werden können.
Viele Cloud-Provider würden massiv in diese Bereiche investieren. Als Beispiel dafür sieht Govekar die Automotive-Cloud-Lösungen in Deutschland. Diese Entwicklung wird sich auch im Markt widerspiegeln: „Wir gehen davon aus, dass der Anteil branchenspezifischer KI-Systeme zur Unterstützung kritischer Geschäftsziele bis 2030 auf etwa 80 Prozent ansteigen wird – von derzeit unter zehn Prozent“, so seine Prognose. Govekar meint auch, dass diese KI-Systeme autonome Entscheidungen treffen und Aufgaben orchestrieren. Wobei sich die Skalierbarkeit der Rechenressourcen in der Cloud als äußerst nützlich erweist, da hierbei große Mengen unternehmensweiter Daten erfasst und für die autonomen Entscheidungen bereitgestellt werden müssen.
Keine Zukunft ohne Probleme
Diese Entwicklungen haben aber auch eine Reihe an Problemen – beispielsweise bei den Cloud-Kosten: „Die meisten agentenbasierten KI-Workloads werden mithilfe von Containern bereitgestellt. Ich habe oft gesehen, dass diese Container um bis zu 70 Prozent überdimensioniert sind – was viel Geld kostet“, weiß Govekar aus seinen Kundenkontakten zu berichten. Sein Fazit: „Unternehmen, die ihre zugrunde liegende KI-Computerumgebung nicht optimieren, werden bis 2030 50 Prozent mehr bezahlen als die Konkurrenz.“
Ein weiteres Problem ist der Energiebedarf für KI. Lineare Extrapolationen, die einen extremen Energiebedarf vorhersagen, gibt es viele. Doch Govekar ist skeptisch: „Die Umsätze mit traditionellen Servern verlaufen flach, wogegen sich die Umsätze von KI-optimierten Servern vervielfachen, was eine deutlich höhere Energie-Effizienz bedeutet“, so seine Einschätzung. Trotzdem geht auch er davon aus, dass sich der Energiebedarf bis 2030 mehr als verdreifachen wird. Das könnte seiner Ansicht nach zu größeren politischen Verwerfungen führen. „In den Niederlanden, Großbritannien und anderen Ländern weigern sich die Wasserversorger bereits, die Rechenzentren mit Kühlung zu versorgen. Viele Bürger in der EMEA-Region sagen: ‚Ich will dieses Rechenzentrum nicht, weil es den Strom für die Neubauten verbraucht.‘“ Das hat direkte Folgen für die Energieplanung der IT. „Bis 2030 werden die Unternehmen, denen es nicht gelingt, die zugrunde liegende KI-Rechenumgebung zu optimieren, 50 Prozent mehr bezahlen als diejenigen, die dies tun“, lautet die entsprechende Gartner-Prognose.
Weiterlesen nach der Anzeige
Das Mega-Problem: Die digitale Souveränität
Ein besonders großer Unsicherheitsfaktor bei der weiteren Cloud-Entwicklung ist das Thema digitale Souveränität. Govekar bestätigt das: „Digitale Souveränität ist in Europa ein äußerst brisantes Thema, viele Unternehmen sind besorgt um ihre Datensouveränität und fragen: Wo werden meine Daten gespeichert und wer hat darauf Zugriff?“ Das sei insbesondere bei Rüstungsunternehmen zu beobachten. In vielen Fällen nutzen diese zwar die Kerninfrastruktur eines Cloud-Providers, setzen aber zusätzlich auch einen lokalen TK-Anbieter ein, über den eine souveräne Datenverwaltungsschicht implementiert wird. Häufig würde anstelle von Internet- oder WLAN-Technologie die Mobilfunktechnologie genutzt, da sie sicherer sei als das Internet. Und im Zuge des 5G-Ausbaus würde diese Kommunikation zunehmend an Bedeutung gewinnen.
Insgesamt sind sich die Gartner-Analysten uneins, wie sie mit dem Thema digitale Souveränität umgehen sollen. Während Govekar eine pragmatische Einschätzung hat, die sich vor allem auf besonders sensitive Bereiche wie die Rüstungsindustrie beschränkt, ist sein Kollege René Büst sehr skeptisch. „Bei der Cloud-Nutzung ist die geopolitische Lage eine der größten Sorgen der IT-Entscheider“ sagte er in einer Pressekonferenz. Viele CIOs und IT-Leiter wollen aufgrund der geopolitischen Situation künftig verstärkt lokale oder regionale Cloud-Anbieter nutzen. Namentlich werden hier OVH, Telekom, noris network, StackIT und Ionos genannt.
Was Deutschland betrifft, so ergab eine Gartner-Umfrage in sieben großen europäischen Ländern, dass das Thema in Deutschland nicht so hoch wie erwartet angesiedelt ist. Die Frage „Geopolitische Faktoren werden die zukünftige Nutzung lokaler/regionaler Cloud-Anbieter durch unsere Organisationen erhöhen“, wurde in UK und Frankreich zu 69 Prozent mit Ja beantwortet. Deutschland landete mit 51 Prozent nur auf Platz fünf. Auch die vielzitierte Präferenz für Open Source ist in Deutschland vergleichsweise gering. Die Frage „Geopolitische Bedenken haben Open Source zu einem wichtigeren Kriterium bei der Auswahl neuer Cloud-Lösungen gemacht“, wurde in Uk und Frankreich zu 63 Prozent mit Ja beantwortet – Deutschland lag mit 35 Prozent auf dem letzten Platz der Skala.
Nicht nur die Gartner-Analysten sind uneins
Auch andere Untersuchungen ergeben ein uneinheitliches Bild. IDC kommt in einer Studie zu dem Ergebnis, dass 60 Prozent der europäischen Unternehmen eher souveräne Cloud-Lösungen einsetzen wollen. Doch das bezieht sich ausschließlich auf „KI-Workloads“ – nicht auf die Cloud-Nutzung als Ganzes. Interessant ist hierzu auch eine Bitkom-Untersuchung. Darin geben 97 Prozent der befragten Unternehmen an, dass das Herkunftsland bei der Auswahl des Cloud-Anbieters eine Rolle spielt. Doch diese Zustimmungen schwinden, wenn es um die Leistung des Providers geht. Sollte die Nutzung eines lokalen Providers Einbußen bei der Responsezeit, bei der Funktionsvielfalt, beim Preis oder beim Service bewirken, so würden sich 65 Prozent nicht dafür entscheiden.
Und letztlich gibt auch ein Blick auf die Cloud-Umsätze keine verlässlichen Hinweise. Zwar steigen diese in Europa an – aber das gilt für die gesamte Welt. Wie viel von diesem Plus auf den Wechsel von US-Providern zurückzuführen ist, bleibt unklar. „Marktseitig dominieren in Europa weiterhin Hyperscaler aus den USA“, lautet die Einschätzung des eco-Verbandes. „Die EU-Anbieter halten seit Jahren einen konstanten Anteil von 15 Prozent“, so der Verband weiter.
Repatriation ist kein Megatrend
Im engen Zusammenhang mit der Souveränität wird häufig der Trend zur Repatriierung gesehen. Wobei sich das auch auf andere Cloud-Probleme wie Kosten, proprietäre Nutzungsformen oder Antwortzeiten beziehen kann. Hierzu haben die Gartner-Analysten eine klare Meinung: „Cloud Repatriierung ist kein Makrotrend“, sagte Ted McHugh gleich zu Beginn seiner Präsentation. Seiner Ansicht nach ist das ein Marketing-Gag der On-Premises-Infrastruktur-Anbieter, der von den Medien aufgegriffen wurde und überproportional dargestellt wird.
Zwar bestätigt McHugh, dass es viele solcher Fälle gibt, doch die Gründe dafür sind kein generelles Cloud-Problem – und schon gar kein Problem der Souveränität. „Die häufigsten Gründe für eine Rückführung von Anwendungen seien ähnlich zum Edge Computing: Autonomie, Latenz, effizientes Datenmanagement oder Anwendungen, die nicht für die Cloud entwickelt wurden“, so seine Einschätzung.
So sollten CIOs vorgehen
Zu guter Letzt gaben die Gartner-Analysten auch ein paar Ratschläge, wie die IT-Verantwortlichen ihre Infrastruktur verbessern können: Erstens, Erstellen einer Kosten-Nutzen-Analyse der aktuellen Infrastrukturoptionen. Zweitens, Identifikation von den Bereichen, in denen Änderungen der Bereitstellungsstile und der Infrastruktur die Rendite verbessern würden. Drittens: Den Einsatz von FinOps- und Kostenoptimierungstools prüfen und Business Cases für die erforderlichen Änderungen erstellen. Viertens, alle Risiken und Kosten berücksichtigen, die im Zusammenhang mit Geolocation- und Souveränitätsanforderungen stehen. Das Ergebnis sollte ein Konzept für eine Unternehmens-optimale Infrastruktur sein, die alle Einsatzmöglichkeiten von Cloud- über Edge-Computing bis hin zu Colocation, diversen Services sowie traditionelle On-Premises-Lösungen berücksichtigt.
(fo)
Künstliche Intelligenz
Testsieger: Die beste Wärmebildkamera im Test – gut schon ab 200 Euro
Wärmebildkameras helfen, Wärmebrücken und versteckte Tiere aufzuspüren. Wir stellen günstige Modelle für den Heimgebrauch vor – Testsieger ist Hikmicro.
Wärmebildkameras sind längst nicht mehr nur etwas für Profis aus Feuerwehr, Militär oder Industrie. Zunehmend finden sie auch im Alltag Verwendung – etwa bei der Haussanierung, auf der Jagd, beim Camping oder zur Überprüfung elektronischer Geräte. Die Technik macht Wärmestrahlung sichtbar und hilft dabei, Energieverluste im Gebäude aufzudecken oder Tiere in der Dunkelheit zu erkennen.
Die Unterschiede zwischen preiswerten Einsteigermodellen und hochpreisigen Profikameras sind dabei oftmals erheblich. Faktoren wie Bildauflösung, Temperaturgenauigkeit, Reichweite und Zusatzfunktionen variieren deutlich. Wir erklären, worauf es beim Kauf ankommt, und zeigen die besten günstigen Wärmebildkameras.
Welche Wärmebildkamera ist die beste?
Anmerkung: Beim Direktkauf über asiatische Plattformen oder Hersteller in China greifen weder EU-Gewährleistungsrechte noch der übliche Käuferschutz. Reklamationen lassen sich schwer durchsetzen. Deshalb sollte man nur mit sicheren Zahlungsarten (Kreditkarte, Paypal) bestellen und die Garantie- sowie Rückgabebedingungen genau prüfen.
Wie wichtig ist die Auflösung wirklich?
Die Auflösung gehört zu den entscheidenden Faktoren. Einsteigergeräte bieten meist 80 × 60 oder 160 × 120 Pixel. Das ist ausreichend für einfache Temperaturprüfungen im Haushalt, etwa zur Kontrolle von Heizkörpern oder zum Aufspüren undichter Fenster. Für größere Distanzen, wie bei der Jagd oder der Gebäudethermografie, empfiehlt sich dagegen mindestens 320 × 240 Pixel. Profimodelle erreichen 640 × 480 Pixel oder mehr, das ist hoch genug für das Einsatzfeld eines Handwerkers.
Wichtig: Anders als bei Digitalkameras lassen sich Wärmebilder nicht verlustfrei hochskalieren. Eine zu geringe Auflösung führt dazu, dass Objekte verschwimmen und wichtige Details verloren gehen.
Welchen Temperaturbereich benötige ich?
Nicht jede Wärmebildkamera deckt denselben Temperaturbereich ab. Für Heimwerker genügt größtenteils ein Bereich von –20 bis 250 °C. Für industrielle Anwendungen – etwa bei der Inspektion von Maschinen – sind hingegen Bereiche bis 650 °C oder höher erforderlich.
Ebenso wichtig ist die thermische Empfindlichkeit (NETD, Noise Equivalent Temperature Difference). Sie bestimmt, ab welcher Temperaturdifferenz die Kamera Unterschiede darstellen kann. Werte von ≤ 0,1 °C gelten als gut, Profimodelle erreichen sogar ≤ 0,05 °C.
Welches Sichtfeld ist ideal?
Das Sichtfeld (Field of View, FOV) bestimmt, wie viel Umgebung eine Wärmebildkamera erfasst. Ein großer Bildwinkel von 90 bis 120 Grad eignet sich besonders für enge Räume oder wenn schnell größere Flächen untersucht werden sollen – etwa in der Gebäudethermografie oder bei Heizungsprüfungen. Wärmebrücken und undichte Stellen lassen sich so direkt auf einen Blick erkennen.
Für Distanzbeobachtungen empfiehlt sich dagegen ein engeres Sichtfeld zwischen 15 und 40 Grad. Damit steigt die Reichweite, und Objekte erscheinen klarer – etwa Wildtiere in der Nacht oder feine technische Details. Einige Modelle verfügen über Zoomfunktionen oder wechselbare Objektive, wodurch sich das Einsatzspektrum deutlich erweitert. Profi-Geräte kombinieren teils Weitwinkel- und Teleobjektive, was für flexible Anwendungen sorgt, den Preis aber spürbar erhöht.
Warum sind Display und Bedienung entscheidend?
Ein gutes Display erleichtert die Interpretation der Wärmebilder erheblich. Wichtig sind eine helle, kontrastreiche Darstellung und eine intuitive Menüführung. Viele Modelle bieten zudem verschiedene Farbpaletten – etwa „Iron“, „Rainbow“ oder Schwarzweiß –, die je nach Einsatzzweck Vorteile haben. Praktisch ist auch ein schneller Zugriff auf Fotos und Videos, insbesondere wenn die Aufnahmen später dokumentiert werden sollen.
Welche Rolle spielen Speicher und Schnittstellen?
Nahezu alle Geräte speichern Fotos, viele unterstützen auch Videoaufnahmen. Schnittstellen wie WLAN, Bluetooth oder ein USB-C-Anschluss sind besonders interessant, da sie eine direkte Übertragung aufs Smartphone oder in die Cloud ermöglichen. Einige Hersteller liefern begleitende Apps, die zusätzliche Analysefunktionen bereitstellen. Gerade im professionellen Einsatz erleichtert dies eine saubere und standardisierte Dokumentation.
Wie robust und ausdauernd sollte eine Wärmebildkamera sein?
Da Wärmebildkameras häufig im Freien oder in anspruchsvoller Umgebung genutzt werden, ist die Robustheit entscheidend. Empfehlenswert sind Geräte mit Staub- und Spritzwasserschutz nach IP54 oder höher. Gummierte Gehäuse erhöhen die Stoßfestigkeit. Die Akkulaufzeit variiert je nach Modell zwischen zwei und acht Stunden. Für längere Einsätze ist ein austauschbarer Li-Ionen-Akku oder die Möglichkeit zum Nachladen via USB-C-Anschluss sinnvoll.
Was kosten Wärmebildkameras?
- Unter 300 Euro: Vor allem einfache Smartphone-Adapter, die sich für Hobbyzwecke und gelegentliche Kontrollen eignen, sowie preiswerte Handheld-Modelle.
- 300 bis 1000 Euro: Solide Handgeräte mit brauchbarer Auflösung, ideal für Hausbesitzer oder den Outdoor-Einsatz.
- Über 1000 Euro: Hochwertige Profikameras mit hoher Auflösung, großem Temperaturbereich und zahlreichen Zusatzfunktionen – vorwiegend interessant für Energieberater, Handwerker oder ambitionierte Jäger.
Sind Smartphone-Adapter eine Alternative?
Für den Einstieg eignen sich Adapter, die per USB-C oder Lightning direkt an ein Android-Smartphone oder iPhone angeschlossen werden. Diese kompakten Lösungen nutzen die Rechenleistung und den Bildschirm des Handys und sind besonders handlich.
Die Vorteile liegen in niedrigen Kosten, kleinem Format und einfacher Bedienung über eine App. Zudem lassen sich Bilder und Videos direkt auf dem Smartphone speichern und sofort teilen. Nachteile sind die Abhängigkeit vom Handy-Akku, eine geringere Robustheit, eingeschränkte thermische Empfindlichkeit und in der Regel ein fixes Sichtfeld ohne Wechseloption.
Modelle von Flir, Hikmicro, Thermal Master oder Seek Thermal sind ab etwa 200 Euro erhältlich. Sie bieten Auflösungen von 80 × 60 bis 206 × 156 Pixeln. Für einfache Aufgaben – etwa die Überprüfung einer Fußbodenheizung, das Auffinden undichter Fenster oder die Kontrolle von Elektrogeräten – reicht das aus.
Für gelegentliche Checks sind solche Adapter daher eine interessante Lösung. Wer jedoch regelmäßig im Außenbereich arbeitet oder Tiere bei Nacht über größere Distanzen beobachten möchte, stößt schnell an Grenzen und sollte besser zu einem eigenständigen Handgerät greifen.
Fazit
Welche Wärmebildkamera die richtige ist, hängt stark vom Einsatzzweck ab. Für schnelle Kontrollen am Haus reicht oft ein günstiges Modell mit niedriger Auflösung. Wer dagegen Wildtiere auf Distanz beobachten oder eine präzise Gebäudethermografie durchführen möchte, benötigt mehr Pixel, höhere Empfindlichkeit und zusätzliche Funktionen. Ebenso wichtig sind Robustheit, Bedienkomfort und Konnektivität. Kurz gesagt: Vor dem Kauf genau den Verwendungszweck klären – das spart Kosten und beugt Enttäuschungen vor.
Weitere interessante Artikel für Hobby-Bastler und Outdoor-Fans:
Künstliche Intelligenz
Justizministerin Hubig will Vorratsdatenspeicherung für drei Monate
Zur Bekämpfung von Kriminalität im Netz sollen Internetanbieter IP-Adressen künftig drei Monate speichern. Das geht aus einem Gesetzentwurf von Bundesjustizministerin Stefanie Hubig (SPD) hervor, über den zuerst die „Bild am Sonntag“ berichtete. Demnach wurde das Papier am Freitag zur Abstimmung an die übrigen Ministerien verschickt. Der Entwurf liegt auch der Deutschen Presse-Agentur dpa vor. „Bei Kinderpornografie, Online-Betrug und strafbarem Hass im Netz gilt bisher: Täter kommen viel zu oft davon. Das wollen wir ändern“, sagte Hubig der Zeitung.
Weiterlesen nach der Anzeige
Provider sollen sollen künftig vorsorglich speichern, welchem Internetanschluss eine IP-Adresse zu einem fraglichen Zeitpunkt zugeordnet war, wie es aus dem Justizministerium hieß. Gespeichert werden sollen demnach auch weitere Daten, die für eine eindeutige Zuordnung der IP-Adresse zu einem Anschlussinhaber nötig sind. IP-Adressen seien oft die einzigen Spuren, die Täter im digitalen Raum hinterlassen, sagte die Ministerin der „Bild am Sonntag“.
„Die IP-Adressen-Speicherung kann den Ermittlern entscheidend helfen: Sie sorgt dafür, dass digitale Spuren auch später noch verfolgt werden können, wenn das für die Aufklärung einer Straftat erforderlich ist.“ Innenminister Alexander Dobrindt (CSU) sagte am Abend der Tagesschau nahezu wortgleich mit Hubig, die IP-Adresse sei „oft der einzige Hinweis“ auf mutmaßliche Täter.
Vorhaben aus dem Koalitionsvertrag
Schon im Koalitionsvertrag hatten Union und SPD vereinbart, die Telekommunikationsanbieter zu einer dreimonatigen Speicherung der IP-Adressen zu verpflichten. Wegen rechtlicher Unsicherheiten war die alte Regelung zur Vorratsdatenspeicherung seit 2017 nicht mehr genutzt worden. In Zeiten der Ampel-Regierung scheiterte eine Neuregelung an Uneinigkeit unter den Koalitionspartnern – besonders die FDP war gegen eine Pflicht zur Speicherung von IP-Adressen.
Die Vorratsdatenspeicherung ist seit langem umstritten. Kritiker fürchten eine Aushöhlung von Grundrechten. Hubig betonte deren Schutz. „Die Vertraulichkeit von Kommunikation bleibt strikt gewahrt. Bewegungs- und Persönlichkeitsprofile sind ausgeschlossen.“ Der Gesetzentwurf schaffe eine Lösung, die wirksam sei und gleichzeitig die Freiheit im Netz wahre, sagte die Justizministerin.
Opposition: Massenüberwachung und Grundrechtsaushöhlung
Weiterlesen nach der Anzeige
Die Grünen finden den Ansatz trotzdem falsch. „Union und SPD planen offenkundig den Wiedereinstieg in die anlasslose Massenüberwachung im Internet“, warnte Rechtspolitiker Helge Limburg im „Stern“. Alle bisherigen Versuche, eine anlasslose flächendeckende Vorratsdatenspeicherung einzuführen, seien von Bundesverfassungsgericht und Europäischem Gerichtshof gekippt worden. „Anstatt erneut mit dem Kopf gegen dieselbe Wand zu rennen, sollten sich Union und SPD endlich auf wirksame Alternativen besinnen“, forderte der Grünen-Politiker.
Die Innenpolitik-Expertin der Linken, Clara Bünger, kritisierte ebenfalls alte Reflexe. „Ich habe dabei ein massives Störgefühl: Ausgerechnet dort, wo es auf den Schutz von Grundrechten und die Vertraulichkeit der Kommunikation ankommt, wird anlasslos in der Breite gespeichert“, sagte sie der Deutschen Presse-Agentur. „Das ist schleichende Grundrechtsaushöhlung und ein Generalverdacht gegen alle.“ Das Problem seien gar nicht fehlende Daten, sondern das Fehlen gut ausgebildeter Ermittlerinnen und Ermittler und digitaler Forensik.
Parallel zu der jetzt geplanten Umsetzung des Koalitionsvertrages gibt es auf Ebene der Europäischen Union derzeit Bestrebungen, eine Vorratsdatenspeicherung in den Mitgliedsstaaten für ein Jahr verpflichtend zu machen.
(nie)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
