Künstliche Intelligenz
Neue 5G-Frequenzen in Österreich versteigert
39,4 Millionen Euro hat eine Versteigerung von Funkfrequenzrechten für Mobilfunkdienste in Österreich eingebracht. Die 2010 versteigerten Nutzungsrechte im Bereich um 2600 MHz laufen zum Jahresende aus, was die Neuvergabe erforderlich macht. Zusätzlich hat die Regulierungsbehörde TKK (Telekom-Control-Kommission) erstmals den ungepaarten Frequenzblock von 2300 bis 2360 MHz zugeteilt.
Weiterlesen nach der Anzeige
Die erlöste Geldsumme ist fast exakt so hoch wie die 39,5 Millionen Euro des Jahres 2010 (Az. F4/08). Allerdings ist diesmal mehr Frequenzspektrum unter den Hammer gekommen, und das für wesentlich längere Laufzeiten, sodass der Preis pro Megahertz und Bandbreite und Jahr deutlich gefallen ist. Einerseits gibt es inzwischen nur mehr drei flächendeckende Mobilfunknetzbetreiber in Österreich, während 2010 noch vier geboten haben.
Andererseits war die Maximierung des Erlöses ausdrücklich kein Ziel des am Freitag zu Ende gegangenen Vergabeverfahrens (Az. F2/24). Stattdessen sollten dadurch Effizienz der Frequenznutzung, Wettbewerb, innovative Geschäftsmodelle, sowie Mobilfunkversorgung hinsichtlich Abdeckung und Qualität gefördert werden.
Das Ergebnis
Den erstmals vergebenen 2300-Mhz-Block hat sich Magenta (T-Mobile Austria) gesichert. Für die 60 MHz zahlt die Tochter der Deutschen Telekom 4,2 Millionen Euro. Denselben Preis bezahlt Drei (Hutchison Drei Austria) für 50 MHz ungepaartes Spektrum, wovon aber nur die 40 MHz von 2575 bis 2615 MHz frei nutzbar sind. Die Hälfte davon hat Drei bereits 2010 inne, die andere Hälfte muss A1 (Telekom Austria) zum Jahresende räumen. Der günstigere Preis könnte unter anderem daran liegen, dass mehrere Nachbarländer Österreich dieses Spektrum für Luftwaffenzwecke nutzen und so in Grenznähe Störungen auslösen könnten, Einfluss gehabt haben.
Bei den gepaarten Frequenzen im Bereich von 2600 MHz gibt es nur eine kleine Defragmentierung der Nutzungsrechte, die zugeteilte Bandbreite bleibt gegenüber dem aktuellen Stand unverändert. A1 und Drei erhalten je 2×25 MHz zum Preis von je gut elf Millionen Euro, Magenta zahlt für seine 2×20 MHz knapp neun Millionen Euro. Die 2600-MHz-Rechte laufen mindestens bis 2046, vielleicht aber auch bis 2050 oder gar 2055. Letzteres wäre dann der Fall, wenn sich Funktechnik und regulatorische Vorgaben für Zeitduplex-Betrieb (TDD) bis Ende 2042 positiv entwickeln, sich die Netzbetreiber auf Umschichtung ihrer Frequenzrechte einigen und spätestens 2046 tatsächlich TDD in Betrieb nehmen.
2010 hat noch Orange Austria (vormals One) 2×10 MHz ergattert. Doch Anfang 2013 übernahm Drei den Mobilfunk-Mitbewerber Orange. Noch am selben Tag reichte Drei die Orange-Diskonttochter Yesss an Marktführer A1 weiter. Die 2600-Mhz-Frequenzrechte Oranges wurden dabei zwischen A1 und Drei geteilt.
Weiterlesen nach der Anzeige
Versorgungsauflagen
Die gepaarten Frequenzblöcke muss jeder Netzbetreiber spätestens Ende 2029 an 1.400 Sendestandorten verwenden, ab Ende 2032 an 1.600 Standorten und ab Ende 2036 an 2.000 Standorten. Sowohl Drei als auch Magenta müssen die ungepaarten Frequenzen spätestens Ende 2029 an jeweils 250 Standorten nutzen, Ende 2032 an mindestens 600 Standorten und ab Ende 2036 an 1.000 Standorten. Die ungepaarten Blöcke werden in aller Regel für den Downlink (vom Mobilfunknetz zum Endgerät) eingesetzt.
Eine Reihe von TKK-Bescheiden zeigt, dass Österreichs Mobilfunker ihre Versorgungsauflagen nicht immer lückenlos einhalten. Im Multiband-Vergabeverfahren des Jahres 2020 (Az. F1/16) wählte jeder Betreiber bestimmte, unterversorgte Katastralgemeinden aus, die er bis 2022 abzudecken gelobte. Keiner der drei Mobilfunker hat das zur Gänze geschafft. Den größten Rückstand hat Marktführer A1, der laut Bescheiden aus dem heurigen Jahr 33 der 349 selbst gewählten Gemeinden nicht hinreichend versorgt (Az. F 4/23, F3/24, F3/25). Daher soll A1 1,32 Millionen Euro Pönale entrichten.
(ds)
Künstliche Intelligenz
OpenAI stellt GPT-Rosalind vor: KI-Modell speziell für Biologieforschung
OpenAI hat ein neues KI-Modell speziell für die Lebenswissenschaften angekündigt. GPT-Rosalind – benannt nach der DNA-Forscherin Rosalind Franklin – ist auf Biologie, Wirkstoffentdeckung und translationale Medizin zugeschnitten, also der Umsetzung von Forschungsergebnissen in der Gesundheitsversorgung. Das Frontier-Reasoning-Modell soll Forschern bei der Evidenzsynthese, Hypothesengenerierung und Experimentplanung helfen und damit frühe Phasen der Medikamentenentwicklung beschleunigen, die in den USA typischerweise zehn bis 15 Jahre dauern.
Weiterlesen nach der Anzeige
Wie OpenAI in seinem Blog erläutert, versteht GPT-Rosalind vertiefte Zusammenhänge in Chemie, Protein-Engineering und Genomik. Zudem kann das Modell über ein neues Life-Sciences-Plug-in für Codex auf mehr als 50 wissenschaftliche Tools und Datenquellen zugreifen. Damit reiht es sich in die Strategie ein, nach GPT-5.4-Cyber für die IT-Sicherheit nun auch andere Fachdomänen mit spezialisierten Modellen zu bedienen.
Benchmarks zeigen Verbesserungen
In internen Tests übertrifft GPT-Rosalind laut OpenAI seine Vorgängermodelle GPT-5, GPT-5.2 und GPT-5.4 in Bereichen wie Chemie, Protein-Biochemie, Phylogenetik und Tool-Nutzung. Im Bioinformatik-Benchmark BixBench erreicht es eine Pass-Rate von 0,751 – den höchsten Wert unter den verfügbaren Modellen. Bei LABBench2, einem Benchmark für Literaturrecherche und Protokolldesign, schneidet es in sechs von elf Aufgaben besser ab als GPT-5.4. In einer Zusammenarbeit mit Dyno Therapeutics landeten die Top-10-Vorhersagen des Modells bei der RNA-Sequenz-Prädiktion im 95. Perzentil verglichen mit menschlichen Experten.
OpenAI betont, das Modell gezielt auf Skepsis getunt zu haben, um Halluzinationen und Überkonfidenz zu reduzieren. Die generierten Ergebnisse sollen Forscher ausdrücklich als vorläufig behandeln und eigenständig validieren. Rollenbasierte Zugriffskontrollen und ein „Trusted Access Program“ regeln, wer das Modell nutzen darf – derzeit beschränkt sich der Zugang auf qualifizierte US-Enterprise-Kunden.
Zu den ersten Partnern gehören Amgen, Moderna, das Allen Institute und Thermo Fisher Scientific. OpenAI kündigt GPT-Rosalind als erstes Modell in einer Serie an: Künftige Versionen sollen langfristige, werkzeugintensive Forschungsworkflows noch besser unterstützen. Ob die quantifizierbaren Benchmark-Verbesserungen sich tatsächlich in kürzere Entwicklungszeiten für Medikamente übersetzen lassen, muss die Praxis zeigen.
Konkurrenz im wachsenden Markt
Weiterlesen nach der Anzeige
GPT-Rosalind tritt in einen zunehmend umkämpften Markt ein. Anthropic bietet mit Claude for Life Sciences ein vergleichbares Produkt an, während Google DeepMinds AlphaFold sich auf Proteinfaltung spezialisiert hat. Im deutschsprachigen Raum arbeitet das Start-up Puraite an erklärbarer KI für die Evidenzsynthese – ein Prozess, der manuell sechs Monate bis zwei Jahre dauern kann. Im Unterschied zu diesen Ansätzen positioniert sich OpenAI als Anbieter eines breit einsetzbaren Modells für ganze Forschungsworkflows, von der Sequenzanalyse bis zur Target-Priorisierung.
Allerdings bleibt GPT-Rosalind ein Closed-Access-Modell: Gewichte, detaillierte Fehleranalysen und interne Reasoning-Schritte legt OpenAI nicht offen. Forscher können zwar über die integrierten Datenbanken und Tools nachvollziehen, welche externen Quellen in die Ergebnisse einfließen, das Modell selbst bleibt jedoch geschlossen.
Lesen Sie auch
(vza)
Künstliche Intelligenz
DeepL wird zum Echtzeit-Übersetzer | heise online
Das Kölner Unternehmen für KI-Sprachtechnologie DeepL hat am Donnerstag „die nächste Generation seiner Übersetzungsplattform“ eingeführt. Die neue Produktreihe „DeepL Voice-to-Voice“ ist unter anderem als Alternative zu Googles Angebot zu verstehen, da DeepLs neues Angebot ebenso Sprache-zu-Sprache-Übersetzung in Echtzeit ermöglicht. Es soll sowohl in virtuellen Meetings, persönlichen Gesprächen als auch in „kundenorientierten Touchpoints via API“ eingesetzt werden können. Damit sollen Teams weltweit „mühelos über Sprachbarrieren hinweg zusammenarbeiten“, so das Unternehmen.
Weiterlesen nach der Anzeige
Voice-to-Voice
Mit DeepL Voice-to-Voice sollen Nutzerinnen und Nutzer natürlich in der eigenen Sprache sprechen, während das Gesagte beim Empfänger präzise übersetzt werden soll. „Wir vereinen erstklassige Sprachmodelle mit unserer bewährten KI-Übersetzungstechnologie, die wir kontinuierlich weiterentwickeln“, sagt DeepL-CEO Jarek Kutylowski.
Die neue Echtzeit-Übersetzungsplattform umfasst DeepL zufolge fünf Produkte:
- Voice for Meetings: Ermöglicht Echtzeit-Übersetzung auf Plattformen wie Microsoft Teams und Zoom. Das Early-Access-Programm starte im Juni, während die Registrierung ab sofort möglich sei.
- Ab sofort ist die Funktion Voice for Conversations verfügbar. Auf sie kann sowohl über Mobilgeräte als auch im Web zugegriffen werden. Sie könne dort eingesetzt werden, wo die „Installation von Apps nicht praktikabel oder unzulässig ist“, heißt es.
- Das Feature Gruppenkonversationen soll derweil den mehrsprachigen Austausch in Trainings, Coachings und Workshops erleichtern. Teilnehmerinnen und Teilnehmer erhalten einen QR-Code, über den sie direkt beitreten können. Mithilfe eines „Multi-Device-Zugangs können Teilnehmer gleichzeitig Sprachübersetzungen in Echtzeit empfangen“. Die Funktion soll ab dem 30. April verfügbar sein.
- Mittels einer Voice-to-Voice API können Unternehmen die DeepL-Sprachübersetzung direkt in eigene interne Anwendungen und kundenorientierte Tools integrieren. Ein Startdatum nennt das Unternehmen nicht, interessierte Unternehmen können sich aber schon registrieren.
- Zudem bietet DeepL Optimierungsfunktionen an, „mit denen auch spezifische Terminologie wie Branchenbegriffe, Produktnamen oder Eigennamen auch bei schneller oder technischer Sprache präzise erfasst und übersetzt werden“. Dieses Feature soll ab dem 7. Mai bereitstehen.
40 Sprachen
Zum Start des Angebots unterstützt DeepL Voice alle 24 offiziellen EU-Sprachen sowie Vietnamesisch, Thailändisch, Arabisch, Norwegisch, Hebräisch, Bengalisch und Tagalog. Laut unabhängigen Blindtests von Slator bevorzugten 96 Prozent der Linguisten DeepL Voice gegenüber den nativen Übersetzungslösungen von Google, Microsoft und Zoom. Insgesamt deckt DeepL Voice damit über 40 Sprachen ab, so das Unternehmen.
Weiterlesen nach der Anzeige
Gegenüber TechCrunch sagte Kutylowski, dass die KI das Kundenservice-Erlebnis der kommenden Jahre grundlegend verändern werde. Weiter erklärte er, dass eine „Übersetzungs-Ebene“ (“translation layer“) Unternehmen dabei helfe, Support in Sprachen anzubieten, in denen qualifiziertes Personal rar und teuer einzustellen sei.
Zuletzt hatte DeepL im September 2025 einen KI-Agenten vorgestellt, der Unternehmen in verschiedenen Bereichen unterstützen soll. Als potenzielle Einsatzgebiete nannte das Unternehmen die Bereiche Finanzen, Vertrieb, Marketing, Kundensupport und Lokalisierung. Als Beispiel nannte DeepL Erkenntnisse eines Vertriebsteams zusammenfassen, aber auch Rechnungen in der Finanzabteilung automatisieren. Zudem prüfe das Unternehmen offenbar den Gang an die Börse.
Lesen Sie auch
Siehe auch:
- DeepL: Download schnell und sicher von heise.de
(afl)
Künstliche Intelligenz
Unternehmen setzen KI ein und laufen bei der Governance hinterher
Wenn es um Governance und Souveränität beim KI-Einsatz geht, hapert es laut einer Studie des Open-Source-Anbieters Red Hat noch in deutschen Unternehmen. Demnach hätten nur 57 Prozent der befragten Firmen eine Exit-Strategie für den Fall, dass ihr primärer KI-Anbieter den Zugang beschränkt. 37 Prozent gaben an, dass ein Wechsel moderate bis erhebliche Auswirkungen auf die Geschäftskontinuität hätte.
Weiterlesen nach der Anzeige
Auch bei der Steuerung des KI-Einsatzes deutet die Studie auf Defizite: Lediglich 30 Prozent der befragten deutschen Firmen gaben an, über ausgereifte Governance-Strukturen für KI-Agenten zu verfügen. Weitere 29 Prozent sprachen von lückenhaften Regelwerken, 27 Prozent erklärten, nur grundlegende Aspekte abzudecken. „Die Ergebnisse zeigen eine deutliche Kluft. KI ist in den Unternehmen angekommen, aber Kontrolle und Steuerbarkeit halten nicht im gleichen Tempo Schritt“, kommentierte Red Hats Deutschlandchef Gregor von Jagow die Studie.
Mehrheit hat Transparenz bei Daten
Das Wissen, was beim KI-Einsatz mit den Daten passiert, gewinnt natürlich auch an Bedeutung. 51 Prozent schreiben sich dabei zu, vollständig nachvollziehen zu können, wo ihre Daten gespeichert und verarbeitet werden sowie potenziell zugänglich sind. 46 Prozent gaben zu, keinen vollständigen Überblick zu haben, und 3 Prozent räumten erhebliche Lücken ein. Mit 97 Prozent vollständiger oder zumindest teilweiser Transparenz erreichten deutsche Unternehmen laut Red Hat einen starken Wert im europäischen Vergleich. Italien und die Niederlande kamen demnach auf 90 Prozent.
Open-Source-Ansätze könnten aus Sicht von über zwei Drittel der Befragten (69 Prozent) dabei helfen, Transparenz und Steuerung bei KI zu verbessern. Sie erwarten von offenen Technologien in den nächsten drei Jahren vor allem mehr Vertrauen durch Kontrolle über Entwicklung und Betrieb (69 Prozent), bessere Anpassbarkeit an geschäftliche und regulatorische Anforderungen (68 Prozent) sowie erhöhte Transparenz und Prüfbarkeit (68 Prozent). Zudem zeigten sich 72 Prozent offen dafür, dass der Gesetzgeber Open-Source-Prinzipien wie Transparenz, Prüfbarkeit und Lizenzmodelle vorgibt, um KI-Souveränität zu fördern.
Für die Untersuchung befragte das Marktforschungsunternehmen Censuswide im Auftrag von Red Hat insgesamt 500 IT-Entscheider aus fünf europäischen Ländern, darunter je 100 aus Deutschland, Frankreich, Großbritannien, Italien und den Niederlanden. Wie andere US-Techfirmen auch hat der zu IBM gehörige Linuxspezialist Red Hat Angebote vorgelegt, die sich europäische Souveränität auf die Fahnen schreiben: So stellte das Unternehmen im November souveränen Support für die EU vor. Im Februar folgte ein Tool, das Unternehmen helfen soll, ihre eigene digitale Souveränität einzuschätzen.
(axk)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
