Home / Android Nachrichten / Wie Google die Pixel 4 Recorder-App mithilfe von maschinellem Lernen erstellt hat

Wie Google die Pixel 4 Recorder-App mithilfe von maschinellem Lernen erstellt hat

Maschinelles Lernen ist eine der erstaunlichsten neuen Funktionen, die mit Smartphones möglich sind, wird jedoch häufig verwendet und nur selten verstanden. In einem Blogbeitrag hat sich Google die Zeit genommen, um detailliert zu erklären, wie Algorithmen für maschinelles Lernen speziell in der neuen Recorder-App für Pixel-Telefone verwendet und implementiert wurden. Insbesondere, wie maschinelles Lernen diese App zur besten Aufnahme-App macht, die Sie jemals in Ihrem Leben verwendet haben.

Die einfache Oberfläche des Rekorders täuscht. Im Back-End befindet sich eine Sammlung von Code, mit dem Sie die Sprache und andere Audiodaten, die Ihr Telefon beim Aufnehmen mit der Recorder-App hört, verstehen, transkribieren und sogar klassifizieren können. Während der Audioaufnahme werden Sie sofort einige Dinge bemerken: Neben der dargestellten Wellenlänge und Zeitachse werden auf der Hauptregisterkarte auch verschiedene Farben und Kategorien auf dem Bildschirm angezeigt, während sich die gesprochenen Wörter auf der Transkriptionsregisterkarte und befinden erscheinen in Echtzeit.

Holen Sie sich zwei Samsung Galaxy S10 zum Preis von einem!

Recorder kann diese Echtzeit-Transkription bereitstellen, da der Back-End-Code die eingehenden Audiodaten analysiert und mit diesen Querverweise verknüpft Es wurde gelehrt, verschiedene Arten von Audio zu verstehen. Beispiele für verstandene Audiokategorien sind Musik, Sprache, Pfeifen, Hundebellen und viele andere gebräuchliche Geräusche. Jede Klangkategorie wird visuell dargestellt, indem eindeutige Farben verwendet werden, mit deren Hilfe Benutzer schnell erkennen können, was während der Wiedergabe zu hören ist, ohne dass sie das Audio tatsächlich anhören müssen. Das macht einen großen Unterschied, wenn Sie nach Abschluss der Aufnahme versuchen, etwas zu finden, da Sie nicht mehr durch das Audio scrubben müssen, nur um das zu finden, was Sie suchen.

Der Recorder prüft alle 50 ms, ob Soundprofile vorliegen Da 1000 Millisekunden in einer Sekunde liegen, würde sich die Klassifizierung ständig ändern und stark variieren, je nachdem, was als primäres Audio identifiziert wird. Um diese verrückte, verstreute Kategorisierung von Audiodaten zu vermeiden, hat Google eine Filtermethode entwickelt, mit der die Junk-Daten durch Querverweise mit längeren Samples der aufgezeichneten Audiodaten herausgefiltert werden ihre Kategorie während des Abhörens.

Während der Aufnahme identifiziert der Recorder die über einen auf dem Gerät installierten Algorithmus zum maschinellen Lernen gesprochenen Wörter. Das bedeutet, dass keine Daten an Google-Server (oder irgendwo anders) gesendet werden, da der Prozessor an Bord in der Lage ist, nach einer Art Wörterbuch auf dem Gerät zu suchen, um sicherzustellen, dass die richtigen Wörter verwendet werden. Wörter werden gegen einen Entscheidungsbaum geprüft, der das Filtern von Dingen wie Schimpfwörtern beinhaltet. Dieses Modell ist so fortschrittlich, dass es sogar grammatikalische Rollen von Wörtern identifizieren kann, um vollständige Sätze für die spätere Verwendung zu bilden.

Diese Wörter werden dann in einer Satzstruktur zu einer Zeitleiste zusammengesetzt und einer Position auf der Zeitleiste zugewiesen. Nach Abschluss der Aufnahme können Wörter visuell durchgeblättert und gesucht werden. Die Benutzer können sogar auf jedes Wort klicken, um es in der Aufzeichnung zu einem bestimmten Zeitpunkt zu bringen, und so den Kontext und die Bedeutung besser verstehen. Mithilfe dieser Kategorien sowie der Worterkennung kann Google am Ende einer Aufnahme sogar drei Tags zur Verfügung stellen, um die Benennung der Aufnahme zu beschleunigen und genauer zu gestalten.

Verwendung der Pixel 4-Rekorder-App

About AndroidWeltEditor

Check Also

Fitbit Versa 3 vs. Fitbit Versa: Should you upgrade?

Many leaps and bounds Fitbit Versa 3 A classic for a reason Fitbit Versa It’s …

Leave a Reply

Your email address will not be published. Required fields are marked *