Künstliche Intelligenz
Open Reception: Open-Source-Terminbuchungstool für Arztpraxen steht bald bereit
Open Reception will eine datenschutzfreundliche und offene Alternative zu bestehenden Terminbuchungssystemen werden. Aktuell entstehen zentrale Module für Akteure wie Ärztinnen, Praxispersonal und Administratoren. Über ein Dashboard können Praxen künftig ihre Termine, Abwesenheiten und Verfügbarkeiten verwalten. Patienten sollen Termine sicher buchen können, ohne ihre Daten großen Plattformen anvertrauen zu müssen.
Weiterlesen nach der Anzeige

Karl Ludwig Weise ist Diplom-Designer und Geschäftsführer der Splice digital GmbH, die auch die gehosteten Open-Reception-Varianten anbieten wird.
(Bild: Michael Palatini)
Das Projekt wird vom Bundesministerium für Forschung, Technologie und Raumfahrt gefördert. Am 28. November 2025 präsentieren die Entwickler einen Prototyp bei den Demo Day des Prototype Fund in Berlin. Ab Ende des Jahres soll die Software selbst installierbar oder als gehostete Lösung genutzt werden können. Wir haben mit Karl Ludwig Weise gesprochen, der Open Reception zusammen mit dem Diplom-Informatiker Hendrik Belitz entwickelt.
heise online: Was motiviert Sie, das Terminportal anzubieten?
Heute müssen Patientinnen und Patienten ihre persönlichen Daten meist in die Formulare großer Anbieter eintragen, ohne wirkliche Kontrolle darüber, was damit passiert. Ärztinnen und Ärzte wiederum sehen sich oft gezwungen, diese Plattformen zu nutzen, weil sie keine Alternativen kennen. Open Reception setzt hier an: Wir wollen eine freie, verschlüsselte und offene Lösung schaffen, bei der Patient und Praxis im Mittelpunkt stehen – nicht das Geschäftsmodell Dritter. Wir wollen eine vertrauenswürdige Infrastruktur schaffen, die zeigt, dass Digitalisierung im Gesundheitswesen auch sicher, offen und gemeinwohlorientiert funktionieren kann. Wenn Patienten freiwillig und informiert mitmachen, haben wir alles richtig gemacht.
Wie stellen Sie sicher, dass Sie an den Bedürfnissen der Praxen entlang entwickeln?
Wir binden Arztpraxen von Anfang an in den Entwicklungsprozess ein. Über Interviews und Feedbackrunden erfahren wir, welche Probleme und Wünsche im Praxisalltag bestehen. Praxen können sich sogar aktiv beteiligen, indem sie an Gesprächen teilnehmen.
Datenschutz ist gerade bei Gesundheitsdaten entscheidend. Wie lösen Sie das Thema technisch?
Weiterlesen nach der Anzeige
Datenschutz und Datensicherheit sind der Kern unseres Projekts. Wir arbeiten mit echter Ende-zu-Ende-Verschlüsselung zwischen Patient und Praxis, sodass niemand – auch kein Administrator – auf sensible Informationen zugreifen kann. Die Schlüssel liegen ausschließlich auf den Geräten der Nutzenden. Auch moderne, quantenresistente Verschlüsselungsverfahren werden berücksichtigt, um langfristig Sicherheit zu garantieren.
Wie steht es um die Integration in bestehende Praxisverwaltungssysteme (PVS)?
Wir entwickeln öffentliche und dokumentierte Schnittstellen, die eine Integration in bestehende Praxissoftware ermöglichen. Außerdem planen wir beispielsweise Features für registrierte Patienten, die dann auch selbst Termine buchen können. Die Kontrolle über die Daten des Patienten bleibt aber beim Patienten.
Ihr Projekt ist Open Source. Warum haben Sie sich dafür entschieden?
Transparenz ist das Vertrauen, das digitale Medizin braucht. Unser Code ist auf GitHub veröffentlicht, ebenso unser öffentliches Projekt-Board. Jede und jeder kann nachvollziehen, was passiert, Fehler melden oder sich beteiligen. So entsteht eine Community-gestützte, sichere Lösung statt einer Blackbox.
Das Thema Geschäftsgeheimnisse steht dem auch nicht im Weg?
Wir haben keine klassischen Geschäftsgeheimnisse. Unser Projekt soll offen und nachvollziehbar sein. Geschäftsgeheimnisse entstehen meist dort, wo mit Daten Geld verdient wird – das tun wir ausdrücklich nicht. Die Arzt-Patient-Kommunikation ist vertraulich und bleibt es auch.
Wird es eine kostenpflichtige Variante geben?
Die Basisversion bleibt frei und quelloffen. Optional planen wir gehostete Varianten mit Service Level Agreements und Support – besonders für Praxen, die keine eigene IT-Betreuung für Web-Anwendungen haben.
Können Interessierte die Entwicklung verfolgen?
Wir veröffentlichen regelmäßig Updates und Einblicke in die Entwicklung auf Mastodon und Bluesky. Dort berichten wir transparent über Fortschritte und laden zur Diskussion ein.
(mack)
Künstliche Intelligenz
Meta SAM 3 und 3D als offene Modelle verfügbar
Meta macht SAM 3, 3D Objects und 3D Body frei verfügbar. Das sind die neuesten Segmentierungsmodelle. Was sperrig klingt, meint tatsächlich das automatisierte Segmentieren von Objekten in Bildern und Videos. So lassen sich Objekte erfassen und beispielsweise in neue Umgebungen einfügen. Meta sieht darin einen wichtigen Schritt bei der Computer Vision.
Weiterlesen nach der Anzeige
SAM steht für Segment Anything Model. Man kann die neue Version etwa über die App Edits nutzen oder den Playground – eine extra eingerichtete Webseite, die Modelle sind aber auch frei auf den gängigen Plattformen verfügbar.

(Bild: Eva-Maria Weiß / KI / SAM)
Im Playground lassen sich Bilder oder Videos hochladen und Elemente per Prompt auswählen, die SAM freistellt. Dafür reicht in der Regel ein einzelnes Wort, SAM erkennt etwas eine Person, einen Hund oder einen Wasserkocher. Möglich sind nur simple Prompts mit ein, zwei oder auch drei Wörtern. Das liegt daran, dass Meta sich für ein Encoder-Modell entschieden hat, statt ein großes Sprachmodell zu integrieren – wie uns Nikhila Ravi, Research-Engineer bei Meta in einem Interview erklärt.
Danach lassen sich Effekte anwenden. Man kann das Objekt klonen, verpixeln, Rahmen setzen, den Hintergrund verändern, schwärzen und vieles mehr. Die Bilder lassen sich herunterladen. Fast schon obligatorisches Einsatzgebiet für diese Art von Spielereien ist freilich Instagram. Die Bilder lassen sich aber auch anderswo hochladen und verschicken.
SAM 3D als Shopping-Hilfe
Möglich ist es auch, Objekte aus Fotos auszuwählen, von denen SAM ein 3D-Bild erstellt. Diese lassen sich dann wiederum in andere Hintergründe einfügen sowie Effekte drüberlegen. Eine Lampe im luftleeren Raum über Eis und mit Glühwürmchen-artigen Punkten ist zwar kein wirklich realistisches Nutzungsszenario, aber lustig. Hält man das Objekt mit der Maus fest, lässt sich der Blickwinkel ändern. Selbst Personen können zu 3D-Bildern werden, deren Bewegungen auch über mehrere Bilder hinweg segmentiert werden. Dafür gibt es das spezialisierte Modell SAM 3D Body, bei dem im Hintergrund die Skelettstruktur einer Person erfasst wird statt der Form des gesamten Körpervolumens.

Mit SAM 3D kann man eine Lampe in den Schnee hängen.
(Bild: SAM)
Meta testet die 3D-Funktion bereits im Facebook Marketplace aus. Dort können Käufer angebotene Wohngegenstände freistellen und in die eigenen Räumlichkeiten integrieren. An ähnlichen Funktionen wird im Online-Shopping schon lange gearbeitet, allerdings waren die Freisteller und Objekte bisher deutlich komplexer in der Erstellung. Dass man Gebrauchtwaren mal eben in ein 3D-Objekt umwandeln kann, ist neu.
Weiterlesen nach der Anzeige
Neben dem Playground kann SAM 3 auch in Edits genutzt werden. Das ist Metas KI-basierte Videoeditor-App. Die Funktionen sind hier ebenfalls darauf ausgelegt, die Videos und Bilder dann bei Instagram hochzuladen. Eine ähnliche App bietet auch Tiktok mit CapCut an.
Das Modell ist nicht darauf trainiert, etwa in der Medizin eingesetzt zu werden. Hierfür bedürfte es eines weiteren Finetunings. Die Einsatzgebiete von SAM reichen neben der spaßigen Bild- und Videobearbeitung bis zur Robotik und dem Datalabeling.
Neu ist auch das Modell SAM Audio. Damit lassen sich Geräusche, Sprache und Musik segmentieren. Möglich ist etwa, aus einer Videoaufnahme von einer Band nur die Gitarre herauszufiltern. Ein Gespräch oder Vogelgezwitscher können aus einer Umgebung separiert werden. Es reicht auch hier ein simpler Prompt. Meta spricht von einem Perception Encoder Audio Video – einem neuen ebenfalls frei verfügbaren Modell.
(emw)
Künstliche Intelligenz
39C3: Satellitenunabhängiges Navigationssystem R-Mode soll Ende 2026 starten
Drei Forscher des Deutschen Zentrums für Luft- und Raumfahrt (DLR) präsentierten den aktuellen Stand des sogenannten Ranging Mode (R-Mode). Das Projekt dürfte in Zeiten hybrider Bedrohungen an Bedeutung gewinnen. Gezeigt wurde es beim 39. Chaos Communication Congress (39C3) in Hamburg am Samstag.
Weiterlesen nach der Anzeige
Niklas Hehenkamp, wissenschaftlicher Mitarbeiter am DLR in Neustrelitz, eröffnete den Vortrag mit einem Vergleich aus der Star-Wars-Popkultur: Er beschrieb die aktuelle Situation in der Navigation als „The Phantom Menace“ – die dunkle Bedrohung. Damit spielte er auf die seit gut zwei Jahren zunehmenden Jamming- und Spoofing-Aktivitäten in der Ostsee an, die insbesondere den Raum rund um den russischen Oblast Kaliningrad sowie Danzig betreffen.
Diese Störungen, die laut dem Bundesverteidigungsministerium russischen Ursprungs sind und oft mit dem Begriff „Baltic Jammer“ assoziiert werden, zeigen die gefährliche Abhängigkeit moderner Infrastruktur von globalen Navigationssatellitensystemen (GNSS) wie GPS oder Galileo. Da die Hardware für solche Störmanöver mittlerweile leicht verfügbar ist, steigt das Risiko für den Schiffs- und Luftverkehr. „Wir brauchen ein Backup-System, da wir derzeit von einer einzigen Technologie abhängig sind“, mahnte Hehenkamp. Das Ziel der Forscher ist ein System, das kostengünstig, leicht zu betreiben und vor allem resistent gegen die Art von Jamming ist, die GNSS-Signale derzeit lahmlegt.
Bereits vor Jahren begannen die DLR-Experten zusammen mit anderen EU-Wissenschaftlern damit, über Satelliten-unabhängige Lösungen nachzudenken. Ihr Ziel: die Souveränität europäischer Navigationsfähigkeit abzusichern. R-Mode setzt dabei auf eine terrestrische Basis und nutzt vorhandene maritime Infrastrukturen im Mittelwellenbereich, konkret die IALA-Funkfeuer.
Vielversprechende Resultate
Seit den ersten Tests in den Jahren 2014 und 2015 hat sich viel getan. In Zusammenarbeit mit Partnern aus Polen, Dänemark, Norwegen, Schweden, Finnland und Estland errichteten die Beteiligten ein prä-operationales Testfeld in der Ostsee. Um die für eine Satelliten-unabhängige Navigation nötige Synchronisation im Nanosekundenbereich zu sichern, nutzt das DLR hochstabile Rubidium-Atomuhren als Zeitreferenz sowie spezialisierte Signalmodulatoren, die das Navigationssignal in bestehende Funkinfrastrukturen einspeisen.
Die technischen Herausforderungen sind beachtlich. Hehenkamp erläuterte, dass die Ausbreitung der Signale im Mittelwellenbereich direkt als Bodenwelle entlang der Erdoberfläche erfolgt, was eine genaue Modellierung der Bodenleitfähigkeit erfordere. Das Team nutzt dafür moderne Satellitenfernerkundungsdaten, um Faktoren wie Bodenfeuchte oder den Salzgehalt des Meerwassers einzubeziehen. Bestehendes Material von der Internationalen Fernmeldeunion (ITU) fanden die Forscher nur als nicht-maschinenlesbares PDF vor, das Deutschland noch geteilt nach Ost und West auflistete.

Die benötigte Sendetechnik wird immer kleiner.
(Bild: CC by 4.0 media.ccc.de)
Die bisherigen Ergebnisse für den R-Mode-Einsatz sind vielversprechend. Tagsüber erreicht das System eine Genauigkeit von etwa 12 Metern bei einer Wahrscheinlichkeit von 95 Prozent. Nachts verschlechtert sich dieser Wert aufgrund von atmosphärischen Reflexionen auf etwa 63,7 Meter, was für die Schifffahrt jedoch immer noch als ausreichend gilt. „Wir werden eine Lösung finden, um das System zu öffnen“, versprach Hehenkamp auch mit Blick auf die künftige breitere Verfügbarkeit der erforderlichen Basisdaten.
Weiterlesen nach der Anzeige
Testfeld mit verbesserter Technik vor Rügen
Lars, ein zweiter Ingenieur vom DLR-Standort Neustrelitz, ergänzte die Beschreibung des Status quo durch einen Vergleich mit anderen Ansätzen wie dem ESA-Projekt Celeste, das auf zehn Satelliten im niedrigen Erdorbit (LEO) basiert. Zwar bieten solche LEO-Systeme eine globale Abdeckung, doch der DLR-Forscher gab zu bedenken, dass deren Signale immer noch vergleichsweise schwach seien und so anfällig für Jamming blieben. Zudem erforderten sie erhebliche Ressourcen. Der R-Mode dagegen sei als ziviles Backup-System konzipiert, das auch von kleineren Ländern unabhängig betrieben werden könne. Da das System bestehende Mittelwellen- und VHF-Technik im UKW-Bereich nutze, liege die Reichweite bei etwa 300 Kilometern, was die gesamte Ostsee abdecken kann. Das Ziel ist klar formuliert: „Das System wird bis Ende 2026 betriebsbereit sein.“
Ein dritter Pfeiler der Entwicklung ist die Nutzung des VHF-Bereichs, den Markus vom DLR-Standort Oberpfaffenhofen beschrieb. Während das herkömmliche Automatic Identification System (AIS) für die Navigation aufgrund der hohen Auslastung kaum infrage komme, biete das neue VDES (VHF Data Exchange System) mit einer Bandbreite von 1000 kHz deutlich mehr Raum. Die bürokratischen Hürden seien hier aber hoch, da die Zuweisung von Frequenzen für Navigationszwecke auf der Weltfunkkonferenz (WRC) entschieden werden müsse. Dieses Treffen findet nur alle drei bis vier Jahre statt.
Dennoch laufen die praktischen Tests auf Hochtouren. Auf dem bayerischen Ammersee testet das Team die VDES-basierte Navigation bereits erfolgreich mit der Wasserwacht, wobei eine Genauigkeit von etwa 10 Metern erreicht wurde. Sogar in der Luftfahrt gab es erste Versuche. Ein DLR-Forschungs-Motorsegler überflog Hamburg, wobei die Abweichung bei etwa 200 Metern lag. Aktuell baut das DLR ein semi-permanentes Testfeld südlich von Rügen auf. Dort sollen drei Stationen mit kommerzieller Hardware zeigen, dass R-Mode reif für den harten Einsatz im Küstenbereich ist. Damit rückt eine Zukunft näher, in der Kapitäne in der Ostsee nicht mehr hilflos auf ihre gestörten GPS-Displays starren müssen, sobald elektronische Störsender in der Nähe aktiv werden.
Lesen Sie auch
(nie)
Künstliche Intelligenz
Tesla-Werksleiter lehnt Tarifvertrag ab – IG Metall wirbt
Der US-Elektroautobauer Tesla in Grünheide bei Berlin lehnt die Einführung eines Tarifvertrags kategorisch ab. „Es gab dieses Jahr eine Entgelterhöhung im einschlägigen Tarifvertrag von zwei Prozent“, sagte Werksleiter André Thierig der Deutschen Presse-Agentur. „Wir konnten, weil wir in einer anderen wirtschaftlichen Situation sind als die gesamte Industrie, die Entgelte um das Doppelte – um vier Prozent – anheben. Seit Produktionsbeginn waren es damit mehr als 25 Prozent Entgelterhöhung in weniger als vier Jahren.“
Weiterlesen nach der Anzeige
Die IG Metall Berlin-Brandenburg-Sachsen kämpft für einen Tariflohn. „Ohne Tarifvertrag bleibt die Bezahlung bei Tesla deutlich unter dem Niveau in anderen Autowerken in Deutschland zurück“, sagte Bezirksleiter Jan Otto der dpa. „Die Tesla-Geschäftsführung redet den Tarifvertrag schlecht, indem sie dessen niedrigste Entgeltgruppe heranzieht. In Automobilwerken sind die untersten beiden Entgeltgruppen aber gar nicht vergeben.“
Betriebsratswahl bei Tesla im nächsten Jahr
Für die Beschäftigten in der Metall- und Elektroindustrie wurde 2024 eine einmalige Sonderauszahlung von 600 Euro vereinbart sowie eine Steigerung der Monatsentgelte ab April 2025 um 2,0 Prozent und ab April 2026 um 3,1 Prozent. Die IG Metall und Tesla stehen sich schon länger unvereinbar gegenüber.
Werksleiter Thierig lehnt auch eine Arbeitszeitverkürzung ab, für die die Gewerkschaft kämpft, und sieht sie als Risiko für die Wettbewerbsfähigkeit des Standorts. „Die Diskussion um eine 35-Stunden-Woche ist für mich eine rote Linie, die werden wir nicht überschreiten“, sagte Thierig.
Im Jahr 2026 steht bei Tesla eine Betriebsratswahl an, die aus Sicht des Werksleiters sehr bedeutsam ist: „Sie entscheidet darüber, ob wir auch in Zukunft unabhängig, flexibel und unbürokratisch unseren Erfolgsweg weitergehen können“, sagte Thierig. „Ich kann mir persönlich nicht vorstellen, dass die Entscheidungsträger in den USA den Ausbau der Fabrik weiter vorantreiben, wenn die Wahl mehrheitlich Richtung IG Metall ausfällt.“ Bei der Betriebsratswahl 2024 stellte die IG Metall zwar die größte Gruppe, die Sitzmehrheit ging aber an nicht gewerkschaftlich organisierte Vertreter.
Weiterlesen nach der Anzeige
(emw)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
