Connect with us

Apps & Mobile Entwicklung

So erstellt Ihr aus jedem Text einen eigenen Podcast


Ihr kennt das: Der Text ist so lang, dass man gar keinen Bock hat, ihn zu lesen, obwohl einen das Thema interessiert. NotebookLM von Google kann da helfen – mit einer knackigen Zusammenfassung im Podcast-Stil. Wie das genau funktioniert, und wie Ihr das selbst kostenlos nutzen könnt, verraten wir Euch in diesem Beitrag. 

Ja, ja. Texte zusammenfassen mit KI. Kennen wir, Schnee von gestern! Egal, ob Google Gemini, ChatGPT oder sonst ein LLM (Large Language Model): Jedes dieser generativen KI-Tools kürzt Euch jeden noch so langen Text auf ein erträgliches Maß an Zeichen. Das ist super hilfreich, muss aber nicht immer der Weisheit letzter Schluss sein.

Was ist NotebookLM?

Auch NotebookLM ist ein KI-Chatbot, allerdings einer, der sich von ChatGPT und Co. unterscheidet. Sein entscheidendes Merkmal ist die Fähigkeit, Analysen, Zusammenfassungen und Antworten ausschließlich auf die von Euch hochgeladenen Quellen zu stützen. Dabei könnt Ihr eine Vielzahl unterschiedlicher Quellformate nutzen: Verlinkt gewünschte Webseiten, ladet Textdokumente, Google-Docs, PDF-Dateien oder auch beispielsweise MP3s hoch. Nennt alternativ YouTube-Videos oder nutzt einfach kopierten Text aus der Zwischenablage als Quelle.

Euer Vorteil bei diesem von Google stammenden Werkzeug: Egal, welche Hilfe Ihr von der KI erwünscht – sie stützt sich lediglich auf die von Euch gewählten und verifizierten Quellen. Allein aus diesem Blickwinkel betrachtet wird der Unterschied zu anderen „Zusammenfassen“-Funktionen ersichtlich: Ihr lasst Euch nicht zwingend einen einzigen Text zusammenfassen, sondern einen ganzen Berg sorgfältig kuratierter Dateien auf einmal. Bis zu 50 Quellen könnt Ihr so für ein Projekt zusammenstellen.

NotebookLM besitzt eine Podcast-Funktion

Wenn Euch der Verweis auf die Funktionsweise von NotebookLM bereits reicht, weil es einfach ein wirklich mächtiges Tool ist: You’re welcome! Eine spannende Funktion solltet Ihr dabei aber nicht übersehen: die Podcast-Funktion!

Diese Funktion, die offiziell „Audio-Zusammenfassung“ heißt, gibt es bereits seit letztem Jahr, seit einigen Monaten auch in Deutsch und vielen anderen Sprachen. Es wird Euch also nicht einfach nur eine Zusammenfassung Eurer Dokumente vorgelesen. Stattdessen zieht Google das auf wie einen echten Podcast, in welchem sich zwei Personen äußerst realistisch über Dein gewähltes Thema unterhalten. 

Wie gesagt: Ihr seid sehr frei bei der Wahl der Quellen. Ihr könnt Euch ein zweistündiges YouTube-Video knackig zusammenfassen lassen, eine komplette Textsammlung, oder einfach nur einen übertrieben langen Artikel, bei dem Ihr keinen Bock habt, ihn komplett zu lesen. Das Resultat in Podcast-Form könnt Ihr herunterladen oder alternativ auch Euer komplettes Projekt freigeben und teilen.

So erstellt Ihr mit NotebookLM Euren persönlichen Podcast

Wie läuft das nun mit dem persönlichen Podcast? Es ist total simpel und in wenigen Schritten erledigt. So geht Ihr Schritt für Schritt vor:

  1. Geht auf die Seite NotebookLM und loggt Euch mit Eurem Google-Account ein. 
  2. Alternativ könnt Ihr Euch NotebookLM für Android oder NotebookLM für iOS als App auf dem Handy installieren und Euch dort einloggen.
  3. Klickt bzw. tippt auf Neu erstellen.
  4. Fügt Eure Quellen hinzu – egal, ob URL, Text, MP3 oder auch YouTube-Video
  5. Tippt im Chat-Tab auf Audio-Zusammenfassung oder im Studio-Tab auf Generieren.
Screenshot der NotebookLM-App mit Details zum Jackery Homepower 2000 Ultra und aktuellen Audioinhalten.
So präsentiert sich NotebookLM auf dem Smartphone. Auch hier steht Euch die Podcast-Funktion zur Verfügung. / © nextpit

So, fertig ist die Laube und Ihr könnt Eurem eigenen Podcast lauschen, der auf Euren Quellen beruht. Ein paar kleine Tipps dazu noch:

  • Ihr könnt diesen Podcast nun als Datei herunterladen und dann teilen – oder Ihr teilt direkt über NotebookLM das komplette Projekt.
  • Wollt Ihr den Podcast in einer anderen Sprache erstellen? Dann wählt in der Web-Version unter Einstellungen die gewünschte Ausgabesprache aus.
  • Wer will, kann vor dem Erstellen des Podcasts auch noch per Prompt Anmerkungen loswerden. Beispielsweise, wenn nur eine bestimmte Quelle berücksichtigt werden soll, ein bestimmtes Thema, oder auch ein bestimmter Ton angeschlagen werden soll. 

Für mich ist das eine der abgefahrensten Geschichten, seit ich generative KI nutze und ich hoffe, dass Ihr von der Funktion ähnlich begeistert seid wie ich. Lasst mich gerne wissen, wenn Ihr weitere Fragen zu NotebookLM habt, oder Bock auf weitere KI-Erklärbär-Beiträge habt. 



Source link

Apps & Mobile Entwicklung

Vermisst! So revolutioniert KI die Suche nach verschwundenen Menschen



KI kennen wir alle längst. Sie macht die Hausaufgaben unserer Kids, erstellt witzige Bilder von uns als Action- oder Comicfiguren und klaut uns möglicherweise unsere Jobs. Künstliche Intelligenz kann aber so viel mehr, wie das Beispiel aus Italien zeigt. Dort wurde nach vielen Monaten ein vermisster Mensch aus den Bergen geborgen.

Der tragische Fall der Laura Dahlmeier hat uns gerade erst wieder ins Gedächtnis gerufen, wie winzig und oft auch chancenlos der Mensch gegenüber der Natur sein kann. Bei der Sportlerin kam jede Rettung zu spät – ähnlich wie bei einem anderen Beispiel aus dem Nordwesten Italiens. Am fast 4.000 Meter hohen Monviso, höchster Gipfel der Cottischen Alpen, ging im September 2024 ein Wanderer verloren. Jetzt konnte die Leiche des 64-jährigen Mannes mit Unterstützung von neuester KI-Technologie ausfindig gemacht werden.

Ein winziger Helm reicht aus

Bei dem Vermissten handelte es sich um den ligurischen Arzt Nicola Ivaldo, der von seinem Wandertrip niemals zurückkehrte. Es ist schon seit Jahren möglich, in solchen Fällen Drohnen zur Unterstützung einzusetzen. So war es auch in diesem Fall: Am 29. Juli erstellten zwei Drohnen 2.600 Fotos des Monviso. Wir reden hier von einer 183 Hektar großen Fläche – das ist in etwa viermal so groß wie der Vatikan und entspricht etwa 257 Fußballfeldern.

Bedenkt dabei, dass die Drohnen ihre Bilder aus 50 Metern Entfernung machen. Im Normalfall dauert es Wochen oder gar Monate, bis man das Material gesichtet hat, verließe man sich nur auf das menschliche Auge. Die Bilder wurden nun aber mittels KI analysiert und binnen fünf Stunden konnte der verunglückte Wanderer ausfindig gemacht werden. Ein paar winzige rote Pixel reichten aus, um den Helm des Mannes zu erkennen. 

Die Leiche des Wanderers befand sich in 3.150 m Höhe, in der rechten der drei Schluchten, die die Nordwand des Monviso durchschneiden, nahezu unsichtbar fürs menschliche Auge. Zwei Tage später, am 31. Juli, konnten schließlich die Überreste des Mannes geborgen werden.

Zusammenspiel von Mensch und Technik

Die KI konnte mehrere verdächtige Stellen markieren, sodass sich das Nationale Berg- und Höhlenrettungskorps (CNSAS) des Piemont am selben Tag noch auf die Suche begeben konnte, an dem die Bilder per Drohnen erstellt wurden. Wie auch im Fall Dahlmeier machte das Wetter dem Team einen Strich durch die Rechnung und verzögerte die Bergungsaktion. 

Nichtsdestotrotz erreichte man dann später einen Punkt, von dem aus man – wieder mithilfe von Drohnen – den tatsächlichen Fundort bestimmen konnte. Nach entsprechenden Fotos und Messungen konnte die Rettungsleitstelle dann den Hubschrauber zur Bergung losschicken. Trotz des miesen Wetters zwischendurch waren es drei Tage, die zwischen den ersten Drohnen-Fotos und der Bergung des Menschen lagen. 

Das hätte vermutlich selbst vor zehn Monaten, direkt nach dem Unfall, kaum gereicht, um dem armen Mann das Leben zu retten. Aber es lässt erahnen, dass die KI-Analyse künftig dazu beitragen kann, Menschenleben zu retten. Entscheidend ist dabei aber auch hier das Zusammenspiel von Mensch und Technik: Es braucht eben diese KI-Analyse, aber im Vorfeld halt auch modernste Drohnentechnologie und nicht zuletzt die Erfahrung und Kenntnis der erfahrenen Bergretter vor Ort. 

KI nicht nur als Bergretter

In hektischen Zeiten kommt diese Qualität der künstlichen Intelligenz vielleicht ein wenig zu kurz. Aber ja, wir profitieren jetzt bereits davon, dass das richtige Zusammenspiel der Technologien Rettungsdienste massiv supporten kann. Das gilt gerade in schwer zugänglichem Gebiet, wie eben in einem Bergmassiv – aber eben nicht nur. Ich denke da beispielsweise auch an Rettungsaktionen auf offenem Meer, bei Erdbeben- oder Flutopfern und vieles mehr. 

Und ja, wenn wir bei einer vermissten Person zeitnah KI-unterstützte Drohnen einsetzen können, steigen auch die Chancen massiv, sie noch lebendig retten zu können (Stichwort: Wärmebildkamera). Beim nächsten Artikel zum Thema sprechen wir also hoffentlich bereits über gerettete Menschen statt über eine geborgene Leiche.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Neues KI-Modell: OpenAI teasert Vorstellung von ChatGPT 5 an


Neues KI-Modell: OpenAI teasert Vorstellung von ChatGPT 5 an

Bild: Crossing Minds

Mehrfach schon hat sich der Start von GPT-5 verzögert, Ende Juli wurden dann Pläne bekannt, dass es diesen Monat so weit sein soll. OpenAI verleiht den Gerüchten nun Substanz und kündigt einen Livestream für heute an – mit subtilem Hinweis auf ChatGPT 5.

Ankündigung über X

Die Ankündigung kommt über den Kurznachrichtendienst X. In einem sehr kurzen und mit Großbuchstaben formulierten Tweet lädt das KI-Unternehmen zu einem Livestream am Donnerstag um 19 Uhr deutscher Ortszeit ein. Im Wort „LIVE5TREAM“ versteckt OpenAI dann den subtilen Hinweis, dass es sich womöglich um die Vorstellung des lange angekündigten Top-KI-Modells GPT-5 handeln könnte.

Start bereits um Monate verzögert

Der Start des neuen Flaggschiffmodells nach GPT-4o verzögerte sich wohl intern mittlerweile mehrfach. Ursprünglich hatte eine offizielle Roadmap im Februar den Start von GPT-5 früher nahegelegt. Aus dem damals noch kolportierten Frühjahr wurde jedoch nichts. Die Leistung von GPT-5 war intern nicht zufriedenstellend, heißt es aus dem Umfeld. Den Start im August hat Ende Juli erst The Verge unter Berufung auf Mitarbeiter des Konzerns öffentlich gemacht, die Ankündigung des Livestreams legt nun nahe, dass die Informationen korrekt sind.

GPT-5 verbindet 4o mit Reasoning

GPT-5 wird vermutlich die bisher in ChatGPT genutzten Modelle 4o bzw. 4.5 und o1 bis o3 beerben. Denn die neue Generation soll mehr Komfort bieten und ein hybrides Modell aus den Reasoning-Möglichkeiten der o-Serie und den herkömmlichen Fähigkeiten von Large Language Models der Ziffern-Serie werden. Nutzer sollen nicht mehr selbst entscheiden müssen, welches Modell die eigene Anfrage am besten bearbeiten kann. Diese Arbeit erledigt GPT-5 selbst und vereint dafür beide Fähigkeiten in einem KI-Modell. Mit Claude 4 von Anthropic existieren solche Modelle bereits in der Praxis, OpenAI ist daher mitnichten das erste Unternehmen, das diesen Ansatz wagt.

Altman warnt vor den Gefahren neuer KI-Modelle

Im Podcast „This Past Weekend“ hat OpenAI-CEO Sam Altman kürzlich erst vor immer mächtigeren KI-Modellen gewarnt. Diese können immer besser überzeugen, in die Irre führen und schlussendlich Personen manipulieren. Dabei bezog sich der CEO nicht auf die aktuelle GPT-4o-Generation, sondern auf „der danach und der danach“. Ob diese Bedenken auch bei der Vorstellung von GPT-5 Erwähnung finden werden, wird sich am Donnerstag um 19 Uhr deutscher Zeit zeigen.

Mehr zu ChatGPT 5



Source link

Weiterlesen

Apps & Mobile Entwicklung

FMS 2025: Silicon Motion zeigt PCIe-5.0-SSDs mit SM8366-Controller


FMS 2025: Silicon Motion zeigt PCIe-5.0-SSDs mit SM8366-Controller

Bild: Silicon Motion

Silicon Motion nutzt die Fachmesse Future of Memory and Storage (FMS) 2025, um Lösungen mit seinem Controller-Flaggschiff SM8366 zu zeigen. Darunter sind PCIe-5.0-SSDs von Unigen und Innodisk, die in Server-Systemen wie VAST Data Ceres V2 oder Aetina AEX auf Basis von Nvidia MGX zum Einsatz kommen.

Seit März steht das Referenzdesign mit SM8366

Im vergangenen März hatte Silicon Motion das Referenz-Design-Kit (RDK) für schnelle PCIe-5.0-SSDs mit SM8366-Controller und bis zu 128 TB Speichervolumen präsentiert. Dieses ist Teil der MonTitan-Plattformen von Silicon Motion, die wiederum das Gegenstück zu Phisons Pascari-Lösungen darstellen. Den SM8366-Controller selbst hatte Silicon Motion bereits 2022 erstmals demonstriert.

Aktuell wird der 16-Kanal-Chip mit rund 14 GB/s Durchsatz und 3 Millionen IOPS beworben. Unterstützt werden neben PCIe 5.0 x4 und NVMe 2.0 die NVMe-Funktion Flexible Data Placement (FDP) und eine optimierte Datenverwaltung, mit der unnötiges Schreibaufkommen minimiert werden soll, wodurch letztlich die Haltbarkeit steigt. Diese Technik kombiniert Silicon Motion mit seiner eigenen Technik „PerformaShape“, was insgesamt auch die Leistung steigere, so der Hersteller.

Zum FMS2025 werden erste SSDs gezeigt

Zu den jetzigen Vorführobjekten mit SM8366 zählen die Cheetah High Capacity 128 TB QLC E1.L SSD und die Cheetah 3,2 TB SLC U.2 SSD vom Anbieter Unigen. Der Name Cheetah weckt vielleicht nicht ganz zufällig Erinnerungen an damals schnelle Enterprise-Festplatten der Serie Seagate Cheetah mit 15.000 U/min. Im öffentlichen Produktkatalog von Unigen findet sich die Cheetah-Serie aber noch nicht.

Silicon Motion demonstriert SM8366 (MonTitan) auf Cheetah-SSDs von Unigen im System VAST Data Ceres V2
Silicon Motion demonstriert SM8366 (MonTitan) auf Cheetah-SSDs von Unigen im System VAST Data Ceres V2 (Bild: Silicon Motion)

Auch von der Marke Innodisk, die vielen eher aus dem Consumer-Bereich ein Begriff sein dürfte, gibt es ein Produkt mit SM8366 zu sehen: Die Innodisk 5TS-P ist hier als E.1S-Modul mit 7,68 TB im Einsatz. Die SSD erreicht laut Innodisk maximal 14.000 MB/s lesend sowie 10.000 MB/s schreibend, bei einer maximalen Leistungsaufnahme von 25 Watt. Mit TLC-NAND der Enterprise-Klasse bestückt liegen die Total Bytes Written bei 14.000 TB oder 14 Petabyte.

Innodisk-SSDs vom Typ 5TS-P sind ebenfalls mit SM8366 bestückt und stecken im Aetina AEX-2UAI auf Basis von Nvidia MGX
Innodisk-SSDs vom Typ 5TS-P sind ebenfalls mit SM8366 bestückt und stecken im Aetina AEX-2UAI auf Basis von Nvidia MGX (Bild: Silicon Motion)



Source link

Weiterlesen

Beliebt