Connect with us

Künstliche Intelligenz

Bericht: Vision-Pro-Chef wollte Apple verlassen


Einer der wichtigsten Apple-Manager soll zumindest zwischenzeitlich erwogen haben, das Unternehmen zu verlassen. Das berichtet die Finanznachrichtenagentur Bloomberg. Mike Rockwell, der als Vater der Vision Pro gilt und derzeit dabei ist, die Sprachassistentin Siri endlich auf Vordermann zu bringen, habe „überlegt, nächstes Jahr in eine Beraterrolle zu wechseln“. Das sollen informierte Personen mitgeteilt haben.

Weiterlesen nach der Anzeige

Demnach soll sich Rockwell unwohl gefühlt haben, an Softwarechef Craig Federighi zu berichten – und erhoffte sich eine „größere Rolle“. Rockwell soll zwischenzeitlich auf dem Weg gewesen sein, Chef von Apples Produkt- und KI-Roadmap zu werden, schreibt Bloomberg weiter – dies sei als eine Art Chief Technology Officer (CTO) angedacht gewesen. Doch daraus wird wohl nichts, auch weil Chip-Chef John Srouji nun zum Chief Hardware Officer berufen wurde.

Die weiteren Aussichten für Rockwell sind angeblich immer noch unklar, nachdem mit John Ternus ab September ein neuer CEO übernimmt. Allerdings werde Rockwell mindestens noch das Siri-Upgrade komplettieren, hieß es. Apple-Veteran Tony Blevins, der für den Konzern einst das knallharte Supply-Chain-System erstellte, sagte Bloomberg, die größte Herausforderung für Ternus werde „dieselbe sein, vor der auch Cook stand: der Übergang über die Generation der Führungskräfte hinaus, die ursprünglich von Steve Jobs zusammengestellt wurde“. Die Herausforderung sei gewaltig.

Srouji wiederum soll Ende vergangenen Jahres beim aktuellen Apple-Chef Tim Cook vorstellig geworden sein, um ihm zu erklären, dass er „ernsthaft“ über einen Abgang nachdenke. Daraus ergab sich dann die neue Rolle als Chief Hardware Officer – inklusive einem neuen Kompensationspaket. Der Chip-Experte, der hinter den A- und M-Chips steckt, wird damit zur Nummer zwei hinter Ternus. Der Israeli mit arabischen Wurzeln soll bereits damit begonnen haben, sein neues Reich auszubauen.

Laut Blevins ist eine neue Engineering-Organisation vorgesehen, die Entscheidungen erleichtern soll. Es laut Bloomberg fünf Unterchefs geben, die Srouji angeblich aggressiver führen wird, als sie es aus Ternus’ Organisation gewohnt sind. Unklar bleibt zudem, wer Srouji einst ablösen könnte. Er ist zehn Jahre älter als der knapp 50 Jahre alte neue CEO.

Weiterlesen nach der Anzeige


(bsc)



Source link

Künstliche Intelligenz

Interview: Puraite will Literaturrecherche mit erklärbarer KI beschleunigen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die medizinische Forschung produziert jedes Jahr über drei Millionen neue Studien – doch wer soll das alles lesen? Selbst hoch spezialisierte Experten können nur einen Bruchteil der relevanten Literatur überblicken. Gleichzeitig hinkt die Aufbereitung dieses Wissens hinterher: Ein systematischer Review, also die strukturierte Zusammenfassung des aktuellen Forschungsstands zu einer konkreten Frage, dauert heute zwischen sechs Monaten und zwei Jahren. Bis das Ergebnis vorliegt, ist die Datenlage oft schon wieder veraltet.

Weiterlesen nach der Anzeige

Das ostwestfälische Start-up Puraite will mit einer KI-Plattform für die Evidenzsynthese diese Prozesse beschleunigen, ohne dabei die wissenschaftliche Strenge zu opfern. Die Plattform durchsucht Datenbanken wie PubMed, filtert relevante Studien heraus, extrahiert Daten und bewertet sie nach wissenschaftlichen Kriterien. Im Interview und auch in dem später produzierten Podcast erklärt Mitgründer Schahin Baki, warum der manuelle Weg an seine Grenzen stößt und wie KI-gestützte, aber methodisch saubere Prozesse die Evidenzsynthese beschleunigen können. International gibt es zwar ähnliche Angebote von Unternehmen wie „Laser AI“, „Nested Knowledge“, „DistillerSR“ und „Covidence“, Puraite ist nach eigenen Angaben jedoch das einzige Produkt in diesem Umfang, das vollständig aus Europa heraus entwickelt und vertrieben wird.


Schahin Baki

Schahin Baki

Schahin Baki ist wissenschaftlicher Mitarbeiter im Bereich Data Science und KI an der Uni Paderborn.

(Bild: Puraite)

Können Sie einmal kurz sagen, wofür Puraite steht und was es macht?

Der Name steht für Pure AI Technology. Wir automatisieren die Evidenzsynthese in den Life Sciences, also in der Pharmaindustrie, Medizintechnik, klinischen Versorgung und angrenzenden Bereichen. Wir helfen dabei, Inhalte aus Studien zusammenzuführen, um daraus Forschungsfragen zu beantworten.

Und was ist der Unterschied zu einem guten KI-Sprachmodell?

Sprachliche Eleganz ist kein Beweis für wissenschaftliche Qualität. Ein KI‑Modell kann einen Text formulieren, der wie eine gründliche Zusammenfassung klingt – doch dahinter steht kein systematisches Verfahren. Eine echte Übersichtsarbeit folgt klaren methodischen Schritten: ein vorher festgelegtes Forschungsprotokoll, eine nachvollziehbare Literaturrecherche, eine doppelte unabhängige Bewertung der Studien, strukturierte Prüfung des Verzerrungsrisikos nach anerkannten Tools (RoB 2, ROBINS-I, QUADAS-2), eine Bewertung der Evidenzsicherheit nach GRADE und eine vollständige Rückverfolgbarkeit der Quellen bis auf Satzebene.

Internationale Forschungsnetzwerke wie Cochrane und Campbell haben in einem Positionspapier gemeinsam klargestellt: KI kann diese methodischen Anforderungen unterstützen – aber sie ersetzt sie nicht. Genau hier setzt Puraite an. Wir automatisieren keine Evidenz, sondern liefern die Infrastruktur, in der ein methodisch korrekter, konformer Prozess effizient durchgeführt und gegenüber Regulatoren nachgewiesen werden kann.

Weiterlesen nach der Anzeige

Puraite hilft also dabei, besser einzuschätzen, was gerade der aktuelle Forschungsstand ist?

Genau. Das bedeutet, aus verschiedenen Studien Informationen zu extrahieren, um komplexe, feingranulare Forschungsfragen zu beantworten – etwa: Wie wirksam sind GLP-1-Rezeptoragonisten im Vergleich zu Placebo oder anderen antidiabetischen Therapien hinsichtlich der Reduktion schwerwiegender kardiovaskulärer Ereignisse bei erwachsenen Patientinnen und Patienten mit Diabetes mellitus Typ 2? Typischerweise würde man dafür verschiedene Datenbanken bedienen, die Studien auf Relevanz screenen, die Daten extrahieren und schließlich aus vielen Einzelstudien ein Dokument zusammenstellen, das die Antwort liefert. Die Anwendungsfälle sind dabei sehr weitreichend – von medizinischen Leitlinien bis hin zu Preisverhandlungen für Medikamente. Im gesamten Gesundheitsbereich ist Evidenz so etwas wie das Fundament für Entscheidungen.

Wir haben die klinische Versorgung bewusst zunächst ausgeklammert und uns vollständig auf die Industrie konzentriert – also Pharmaindustrie, Medizintechnik, Versicherungen und angrenzende Bereiche wie die Lebensmittelbranche, überall dort, wo Literaturrecherchen für regulatorische Zwecke erforderlich sind. Die Produktentwicklung in unserem Bereich ist kostenintensiv, bedingt durch KI-Know-how in Form von Personal als auch in der Infrastruktur. Die Industrie ist daher unser erster Fokus – auch weil die dort erzielten Erlöse uns langfristig ermöglichen sollen, die Plattform für den akademischen und klinischen Bereich zugänglich zu machen.

Und auf welche Datenbanken greift Puraite dabei zurück?

Vor allem auf öffentlich zugängliche Publikationen und klinische Studien – über Datenbanken wie PubMed, Embase oder OpenAlex. Etwa 50 Prozent der Volltexte sind frei zugänglich, die andere Hälfte liegt hinter Paywalls, aber die Firmen und Institutionen, die damit arbeiten, verfügen in der Regel über die entsprechenden Lizenzen. Hinzu kommt Grauliteratur. Entscheidend ist, alles systematisch zu erfassen: Jedes relevante Signal muss einbezogen werden, weil es die Antwort auf die Forschungsfrage beeinflussen kann – zwei klinische Studien können durchaus zu unterschiedlichen Ergebnissen kommen.

Welche Rolle spielen da Leitlinien?

Leitlinien werden auf Basis von systematischen Reviews entwickelt. Diese Reviews stellen die höchste Form der Evidenz dar. Man nutzt sie, um die vorhandene Evidenz zu synthetisieren und daraus Leitlinien abzuleiten. Das Problem dabei ist jedoch, dass systematische Reviews extrem zeitaufwändig sind. Angesichts der Wissensexplosion in der Medizin ist eine Information oft schon veraltet, bevor sie in eine Leitlinie überführt wurde.

Aktualisiert sich das also sehr viel schneller als herkömmliche KI-Systeme?

Das Besondere ist weniger die KI selbst als vielmehr das Konzept der sogenannten „Living Reviews“. Das bedeutet, dass der gesamte Prozess in regelmäßigen Abständen – quartalsweise, monatlich, wöchentlich oder sogar täglich – erneut angestoßen wird, um neu erschienene Publikationen einzuspeisen. Denn was heute der Stand der Evidenz ist, kann sich morgen bereits verändert haben.

Kann man das auch manuell anstoßen?

Das ist jederzeit möglich. Das aktuelle Geschäftsmodell basiert auf einem Flat-Rate-Prinzip: Es gibt ein Lizenzmodell, bei dem beliebig viele Nutzerinnen und Nutzer eingebunden werden können. Wir rechnen bewusst nicht nach Sitzen ab, weil wir möchten, dass das Tool tatsächlich intensiv eingesetzt wird, ohne dass Accounts geteilt werden müssen. Man kann sich das wie einen Organisationsaccount vorstellen. Eine große Pharmafirma hat beispielsweise verschiedene Abteilungen, die systematische Reviews erstellen oder in Auftrag geben. Diesem Unternehmen stellen wir die Plattform vollumfänglich bereit – mit Versionierung und Aufgabenverteilung.

Ihr werbt mit 95 Prozent Sensitivität?

Der Prozess beginnt mit der Suche nach Publikationen. Im nächsten Schritt erfolgt das Screening: Man liest Titel und Abstract und entscheidet – relevant oder nicht relevant. Bei diesem Schritt erreichen wir eine Sensitivität von über 95 Prozent, was dem etablierten Zielwert für KI-gestützte Screening-Tools in diesem Bereich entspricht. Die menschliche Vergleichsgröße liegt bei zwei unabhängigen Reviewern bei etwa 97 Prozent – bei einem einzelnen Reviewer jedoch deutlich darunter, wie Studien zeigen. Der Mensch gilt in der Industrie als unangefochtener Goldstandard, doch auch Menschen machen Fehler – große Untersuchungen dokumentieren Fehlerquoten von über zehn Prozent beim Einzelscreening. Ich behaupte nicht, dass die KI perfekt ist, ganz im Gegenteil – ich sage nur, dass diese Seite der Debatte oft zu wenig Beachtung findet.

Handelt es sich dabei um ein Agentenmodell?

Die Plattform ist vor allem sehr modular aufgebaut, entsprechend der wissenschaftlichen Methodologie. Der gesamte Prozess der Evidenzsynthese ist derzeit extrem manuell: Mehrere Personen arbeiten parallel daran, tauschen Tabellen aus, nutzen verschiedene Tools – also sehr fragmentiert. Unsere Plattform soll so etwas wie die gemeinsame Evidenzinfrastruktur werden. Man kann KI nutzen – erklärbare KI –, aber man kann jeden Schritt auch vollständig manuell durchführen, alles innerhalb einer Plattform ohne Medienbrüche. Das ist schon ein erheblicher Vorteil: keine verteilten Excel-Tabellen mehr, dafür Versionierung, klare Aufgabenverteilung und eine gemeinsame Arbeitsoberfläche. Die KI kann für den gesamten Prozess genutzt werden oder nur für einzelne Schritte mit Sub-Agents – ganz nach Bedarf.

Das Produkt ist zunächst auf Englisch. Wie wäre das für den deutschen Markt? Andere Datenbanken, angepasste Modelle?

Das ist eine sehr gute Frage. Glücklicherweise findet Evidenzsynthese nahezu ausschließlich auf Englisch statt – in der weit überwiegenden Mehrzahl der Fälle. Selbst wenn man das für klinische Leitlinien in Deutschland nutzt, basieren diese auf Publikationen aus verschiedensten Ländern. Wir sind daher von vornherein englischsprachig vorgegangen, weil Publikationen in diesem Bereich fast immer auf Englisch erscheinen. Die Plattform selbst zu übersetzen wäre kein Problem – bisher hat allerdings auch keiner unserer Nutzer Bedarf daran geäußert, weil alle ohnehin auf Englisch arbeiten. Und es handelt sich stets um sehr internationale Teams, die in Amerika, Irland, Deutschland oder Japan sitzen.

Ihre Kunden sind aus verschiedenen Ländern?

Ja. Der Großteil unserer Kunden kommt allerdings aus den USA, Kanada und dem Vereinigten Königreich. Ich hatte oft das Gefühl, dass man in Deutschland innovativ sein möchte, aber niemand der Erste sein will. Und das ist in gewissem Sinne auch unser Alleinstellungsmerkmal und der Grund, wieso wir mit Puraite aus Deutschland heraus angetreten sind: Wir sind das einzige Team weltweit, das diese Lösung vollständig aus Europa heraus entwickelt, ohne Niederlassungen in den USA oder anderswo.



Source link

Weiterlesen

Künstliche Intelligenz

Top 10: Der beste Mini-Bluetooth-Lautsprecher im Test – Marshall, Teufel & JBL


Mini-Bluetooth-Lautsprecher Klipsch Austin: Robuste Rock-Box überzeugt im Test

Der stylische Mini-Bluetooth-Lautsprecher Klipsch Austin punktet mit warmem Klang und robuster Verarbeitung. Wir haben ganz genau hingehört.

VORTEILE

  • hochwertige Verarbeitung mit IP67
  • ausgewogener, warmer Klang
  • Reverse-Charging
  • Broadcast-Modus
  • App mit Equalizer

NACHTEILE

  • schwacher Bass
  • keine Play/Pause- und Track-Tasten
  • kein AUX-Eingang
  • Tasten unbeleuchtet, schwer ertastbar

Der stylische Mini-Bluetooth-Lautsprecher Klipsch Austin punktet mit warmem Klang und robuster Verarbeitung. Wir haben ganz genau hingehört.

Bekannt geworden ist Klipsch vor allem mit hochwertigen HiFi-Boxen und kraftvollen Standlautsprechern. Mit dem Austin zeigt Klipsch das kleinste Modell seiner mobilen Lautsprecher-Familie. Preislich und größentechnisch ordnet sich der Mini-Bluetooth-Lautsprecher unterhalb der größeren Geschwister Nashville und Detroit ein.

Seit Ende 2023 ist der Austin bereits verfügbar, primär in Schwarz, selten auch in Cream. Die UVP liegt bei rund 100 Euro. Aktuell kostet der Speaker etwa bei Amazon 78 Euro. Damit tritt er in einem hart umkämpften Marktsegment an. Konkurrenten wie der JBL Go 4 für rund 40 Euro, der Teufel Boomster Go für 85 Euro oder der ähnlich gestylte Marshall Willen II für knapp 100 Euro buhlen ebenfalls um die Gunst der Käuferschaft. Der Austin richtet sich an Nutzer, die einen kleinen, optisch und klanglich ansprechenden Mini-Bluetooth-Lautsprecher für unterwegs suchen.

Design und Verarbeitung des Klipsch Austin

Der Klipsch Austin setzt auf eine kubische Form. Mit Maßen von 105 × 105 × 44 mm und einem Gewicht von 397 g zählt er zu den kompakten Vertretern seiner Gattung. Der Speaker passt in eine geräumige Hosentasche oder in die Handfläche und bewegt sich damit größentechnisch auf Augenhöhe mit dem Marshall Willen II und dem Bose Soundlink Micro 2.

Optisch wirkt der Austin angenehm rockig. Das bronzefarben glänzende Klipsch-Logo auf der Front macht ordentlich was her und erinnert stilistisch an den Marshall Willen II. Die Vorderseite ziert ein Metallgrill, die Rückseite ist teilweise perforiert.

Bei der Materialwahl setzt der Hersteller auf eine matte Silikonummantelung. Sie fühlt sich hochwertig an, ist rutschfest und dämpft Vibrationen zuverlässig. Erhabene Ecken dienen als Standfüße. Hinten sitzt ein breites Gummiband, das die flexible Befestigung am Rucksack, Fahrradlenker oder Gürtel erlaubt.

Die Verarbeitung lässt keine Wünsche offen. Die dicke Gummiummantelung und der stabile Metallgrill vermitteln einen wertigen, langlebigen Eindruck – billige Plastikoptik gibt es nicht. Den USB-C-Port schützt ein Gummiverschluss. Dank IP67-Zertifizierung übersteht der Speaker 30 Minuten in einem Meter Wassertiefe und hält auch Staub problemlos draußen. Lediglich der Strap wirkt, als könnte er bei hoher Belastung reißen.

Wie gut ist der Klang des Klipsch Austin?

Im Inneren arbeitet ein 3,8-cm-Full-Range-Treiber, unterstützt von zwei Passivmembranen mit jeweils 3,5 × 5,5 cm. Der Verstärker liefert 10 Watt RMS, der Frequenzgang reicht von 70 Hz bis 20 kHz. Damit greift der Austin tiefer als der JBL Go 4 mit 90 Hz, bleibt aber hinter dem Teufel Boomster Go mit 65 Hz zurück. Der maximale Schalldruck liegt bei 85 dB. Das Bassreflex-Gehäuse soll für vollen Klang trotz kompakter Bauweise sorgen.

In der Praxis macht der Austin eine bessere Figur, als die Größe vermuten lässt. Sprachinhalte wie Podcasts und Hörbücher gibt der Speaker klar und natürlich wieder. Die Stimmen klingen weder dumpf noch unangenehm. Hier zeigt sich der typische Klipsch-Charakter: warm, präsent und mit guter Mittenwiedergabe.

Bei akustischer Musik, Folk, Jazz und Vocals spielt der Austin seine Stärken aus. Norah Jones‘ Don’t Know Why klingt erfreulich klar. Die Stimmenwiedergabe wirkt angenehm warm, und die Instrumententrennung gelingt für ein Ein-Treiber-Design erstaunlich gut. Auch Ed Sheerans Lego House kommt sauber rüber. Die Gitarre bleibt präzise, der Gesang setzt sich gut durch.

Klipsch Austin

Der Bass reicht bis etwa 70 Hz. Er wirkt resonierend, aber nicht wirklich tief oder kraftvoll. Bei basslastigen Tracks wie The Weeknds Blinding Lights oder elektronischer Musik à la Daft Punks Get Lucky klingt der Austin vergleichsweise dünn. Ein Tieftonfundament wie beim Marshall Willen II, der dank 38-Watt-Verstärker ordentlich Druck aufbaut, fehlt hier deutlich. Dreht man die Lautstärke voll auf, schneidet der Bass zudem hörbar ab.

Klassik wie Vivaldis Vier Jahreszeiten – Frühling überzeugt durch klare, crispe Höhen. Bei hoher Lautstärke stößt der Speaker allerdings an seine Grenzen. Insgesamt reicht der maximale Pegel für persönliche Nutzung oder kleine Runden im Garten. Für eine Hausparty ist der Austin unterdimensioniert.

Insgesamt punktet der Klipsch Austin mit einer für seine Größe bemerkenswerten Klarheit und Wärme. Bassfans werden allerdings nicht glücklich.

Bedienung und App des Klipsch Austin

Vier physische Tasten an der Oberseite steuern den Speaker: Power, Bluetooth-Pairing sowie Lautstärke +/–. Hier liegt der größte Schwachpunkt der Bedienung am Gerät. Dedizierte Tasten für Play/Pause oder Track-Steuerung fehlen komplett. Wer Songs überspringen oder pausieren möchte, muss zwangsläufig zum Smartphone greifen – ein deutlicher Nachteil gegenüber Konkurrenzmodellen wie dem Marshall Willen II, der mit seinem cleveren Joystick eine elegante Lösung bietet.

Die Tasten sind taktil, allerdings flach und unbeleuchtet. Im Dunkeln lassen sie sich kaum erkennen. Immerhin gibt eine fünfstufige LED-Anzeige zuverlässig Auskunft über den Akkustand.

Klipsch Austin

Die Klipsch Connect App (iOS und Android) umfasst Presets (Flat, Bass, Rock, Treble, Vocal) sowie einen Custom-Modus mit einem 3-Band-Equalizer (Bass, Mitten, Höhen). Der Effekt der EQ-Anpassungen fällt allerdings eher subtil aus.

Zusätzlich bietet die App OTA-Firmware-Updates, Lautstärkeregelung, Track-Steuerung, die Akkustandsanzeige, das Setup für den Broadcast-Modus und einen Support-Bereich. Ein solides Paket.

Der Akku des Klipsch Austin

Klipsch verspricht eine Akkulaufzeit von bis zu 12 Stunden bei typischer Lautstärke. Die Ladezeit liegt bei rund zwei Stunden über USB-C. Im Test bestätigt sich die Herstellerangabe bei mittlerer Lautstärke recht gut. Sobald man richtig aufdreht, sinkt die Laufzeit spürbar.

Damit bewegt sich der Austin auf Augenhöhe mit dem Bose Soundlink Micro 2 (12 Stunden) und liegt deutlich vor dem JBL Go 4 mit nur 7 Stunden – aber hinter dem Marshall Willen II mit 17 Stunden. Praktisch ist die Reverse-Charging-Funktion: Über den USB-C-Port mit 18 W lassen sich im Notfall andere Geräte wie das Smartphone aufladen.

Konnektivität und technische Eigenschaften des Klipsch Austin

Der Klipsch Austin setzt auf Bluetooth 5.3 und kann sich bis zu acht Geräte merken. Beim Codec geht Klipsch allerdings keinen modernen Weg und beschränkt sich auf den Standard SBC. Premium-Codecs wie aptX oder LDAC fehlen. Für die typischen Streaming-Anwendungen wie Spotify oder Apple Music reicht SBC aber aus.

Mit dem Broadcast-Modus lassen sich bis zu 10 oder mehr kompatible Klipsch-Speaker zu einem Mono-Verbund koppeln. Wer also bereits Klipsch-Lautsprecher besitzt, kann sie problemlos verknüpfen und das ganze Haus oder den Garten beschallen. Zusätzlich erlaubt der Austin True-Wireless-Stereo-Pairing mit einem zweiten Austin – so entsteht ein Stereo-Setup mit räumlicherem Klang.

Das eingebaute Mikrofon ermöglicht Freisprechfunktionen für Telefonate. Die Sprachqualität bewegt sich auf solidem Niveau. Auf einen AUX-Eingang verzichtet Klipsch.

Was kostet der Klipsch Austin?

Die unverbindliche Preisempfehlung des Klipsch Austin liegt bei rund 100 Euro. Aktuell ist der Mini-Bluetooth-Lautsprecher ab 70 Euro erhältlich, bei Amazon kostet er 78 Euro.

Fazit

Der Klipsch Austin ist ein kompakter Mini-Bluetooth-Lautsprecher, der mit hochwertiger Verarbeitung, robustem Design und ausgewogenem Klang punktet. Vor allem bei akustischer Musik, Folk, Jazz und Vocals zeigt der Speaker, was er kann: warmer Klang, gute Stimmenwiedergabe und eine für die Größe überraschend ordentliche Instrumententrennung.

Auf der Habenseite stehen die solide IP67-Zertifizierung, die Befestigungsschlaufe, die Reverse-Charging-Funktion und der Broadcast-Modus für bis zu 10 Klipsch-Speaker. Auch die Akkulaufzeit von 12 Stunden geht in Ordnung.

Schwächen zeigt der Austin beim Bass, der für basslastige Genres wie EDM oder Hip-Hop zu dünn ausfällt. Auch die Bedienung am Gerät enttäuscht: Fehlende Play/Pause- und Track-Tasten zwingen Nutzer zum Griff zum Smartphone.

Mit einem Straßenpreis ab 70 Euro ist der Klipsch Austin dennoch ein faires Angebot für alle, die einen stylischen, robusten Mini-Bluetooth-Lautsprecher suchen. Wer mehr Bass möchte, sollte sich den Marshall Willen II anschauen. Wer aufs Geld achten muss, ist mit dem JLab Pop Party gut bedient.



Source link

Weiterlesen

Künstliche Intelligenz

Microsoft veröffentlicht frühesten bekannten DOS-Quellcode


Microsoft hat die ältesten bekannten Quellcode-Listings von DOS als Open Source freigegeben. Die Veröffentlichung umfasst den 86-DOS-1.00-Kernel, PC-DOS-1.00-Pre-Release-Snapshots sowie Utilities wie CHKDSK und den SCP-Assembler – allesamt transkribiert von einem rund zehn Zentimeter hohen Stapel Assembler-Ausdrucke auf grün-weißem Endlospapier.

Weiterlesen nach der Anzeige

Die Listings stammen von Tim Paterson persönlich, dem Entwickler von 86-DOS bei Seattle Computer Products. Paterson hatte das Betriebssystem 1980/81 im Alleingang geschrieben – Microsoft lizenzierte es 1981 und machte daraus PC-DOS 1.0 für den IBM PC. Wie Microsoft in seinem Open-Source-Blog mitteilt, erscheint die Veröffentlichung exakt zum 45. Jahrestag von 86-DOS 1.00. Die transkribierten Quellen stehen unter MIT-Lizenz im GitHub-Repository DOS-History bereit.

Die insgesamt zehn Bundles offenbaren den Entwicklungsprozess in einer Zeit vor Versionskontrollsystemen. Zeitstempel auf den Ausdrucken dokumentieren die jeweiligen Snapshots: Der 86-DOS-1.00-Kernel wurde am 15. Juni 1981 erstellt, eine PC-DOS-1.00-Beta datiert auf den 7. Juli 1981. Diffs wie die Datei 86DOS.DIF zeigen die konkreten Änderungen zwischen Kernelversionen – darunter Fehlerkorrekturen und Feature-Ergänzungen. Mit 86-DOS wird erstmals der unmittelbare Vorläufer von PC-DOS in einer so frühen Entwicklungsstufe zugänglich – ein seltener Einblick in die Entstehung des IBM-PC-Standards.

Im Gegensatz zu modernen Open-Source-Projekten wie dem Linux-Kernel, der von Tausenden Entwicklern über Git kollaborativ gepflegt wird, war DOS das Werk eines Einzelnen – Patersons „Commits“ existierten nur auf Papier. 86-DOS galt schon damals als stark von CP/M inspiriert, was in der Frühphase der PC-Industrie zu Kontroversen führte.

Die Transkription der 45 Jahre alten Ausdrucke war laut Microsoft eine Herausforderung. Rich Cini scannte die 15 Zoll breiten Fanfold-Ausdrucke. Anschließend transkribierten Yufeng Gao und Cini die Listings – unterstützt durch OCR-Verfahren, die bei der verblassten Druckqualität an ihre Grenzen stießen. Die Bundles 9 und 10 – darunter eine 459-seitige MS-BASIC-86-Compiler-Runtime-Library – sind bislang nicht transkribiert; das Projekt nimmt Pull Requests entgegen. Scans aller Originaldokumente liegen zudem beim Internet Archive.

Weiterlesen nach der Anzeige

Die Originale sollen künftig im Interim Computer Museum im US-Bundesstaat Washington ausgestellt werden. Für die Retro-Computing-Szene eröffnet die MIT-Lizenz, die freie und auch kommerzielle Nutzung gewährt, zahlreiche Möglichkeiten: Der Code lässt sich mit dem historischen SCP-Assembler (Version 2.24) und dem Tool HEX2BIN assemblieren – oder als Basis für Mods, Portierungen und Experimente nutzen.

Die Veröffentlichung reiht sich in Microsofts Bemühungen um Software-Archivierung ein. 2018 gab der Konzern MS-DOS 1.25 und 2.11 frei, 2024 folgte MS-DOS 4.0. Auch ältere Microsoft-Projekte wurden zuletzt als Open Source veröffentlicht: Bill Gates stellte den Quellcode von Altair BASIC bereit, später folgte Microsofts 6502 BASIC von 1976. All diese Systeme bildeten die Grundlage für Windows 1.0, das 1985 auf MS-DOS aufsetzte.

Ob Microsoft weitere unveröffentlichte DOS-Versionen plant, ist nicht bekannt. Der Fokus liege auf der Bewahrung historischer Artefakte, bevor diese unwiederbringlich verloren gehen – ein Anliegen, das angesichts vergilbender Ausdrucke auf 45 Jahre altem Papier durchaus dringlich erscheint.


(mki)



Source link

Weiterlesen

Beliebt