Dieses Programm zeigt zunächst eine Menge Versprechen und bietet das einfache Konzept, Web-Buildern eine Plattform für die Erstellung ihrer eigenen Flash-Jukebox zur Verfügung zu stellen…. Um sich mit den entsprechenden Autoren zu verbinden, senden Sie bitte eine E-Mail an jukebox@openai.com. Papierkorb. Es ist Trash im Vergleich zu der Musicmatch Jukebox und die, die ich hatte.. Yahoo hätte es allein lassen müssen, sie können nicht versuchen, etwas so gut wie ein MMJP zu machen. Yahoo ist in den letzten 10 Jahren wirklich bergab gegangen. Ich frage mich, wie lange sie noch mit den beschissenen Programmen wie Yahoo Music Jukebox im Geschäft bleiben können. Ich werde nie in dieses Unternehmen investieren oder eines ihrer Produkte kaufen, da ich mein Leben lang MMJP verloren habe. Positiv:: keine Nachteile: abstürzt die ganze Zeit von dem Tag, an dem ich es heruntergeladen habe… Stück Müll, das ein High-School-Schüler wahrscheinlich schrieb und Yahoo verkaufte. Mehr Die Jukestar Social Jukebox App verteilt die Playlist automatisch basierend darauf, wer was angefordert hat, wann sie es angefordert haben und was andere Gäste von den Songs halten.

Auf diese Weise bekommt jeder einen fairen Weg. Gäste können Songs von Millionen im Spotify-Katalog über die Jukestar Guest App anfordern. Auch wenn jemand bereits 20 Songs angefordert hat, wird eine neue Anfrage von einem anderen Gast unter diesen einschlitzen. Eine echte soziale Jukebox! Um uns um die Texte zu kümmern, fügen wir einen Encoder hinzu, um eine Darstellung für die Texte zu erzeugen, und fügen Aufmerksamkeitsebenen hinzu, die Abfragen vom Musikdecoder verwenden, um Sich um Schlüssel und Werte aus dem Textencoder zu kümmern. Nach dem Training lernt das Modell eine präzisere Ausrichtung. Während die erzeugten Songs zum Beispiel lokale musikalische Kohärenz zeigen, traditionellen Akkordmustern folgen und sogar beeindruckende Soli aufweisen können, hören wir keine bekannten größeren musikalischen Strukturen wie Chöre, die sich wiederholen. Unser Downsampling- und Upsampling-Prozess führt zu erkennbarem Rauschen. Die Verbesserung des VQ-VAE, damit seine Codes mehr musikalische Informationen erfassen, würde dazu beitragen, dies zu reduzieren.

Unsere Modelle sind auch langsam zu proben, wegen der autoregressiven Natur der Probenahme. Es dauert ca. 9 Stunden, um eine Minute Audio durch unsere Modelle vollständig zu rendern, und daher können sie noch nicht in interaktiven Anwendungen verwendet werden. Die Verwendung von Techniken, die das Modell in einen parallelen Sampler destillieren, kann die Probenahmegeschwindigkeit erheblich beschleunigen. Schließlich trainieren wir derzeit auf englische Texte und vor allem westliche Musik, aber in der Zukunft hoffen wir, Songs aus anderen Sprachen und Teilen der Welt aufzunehmen. Unternehmensprogslaughter. Ich folgte MMJB von Version 3 bis zur letzten Version und liebte sie alle. NICHTS kam nahe, dann kaufte Yahoo sie! Utter tripe, sie haben es einfach nicht bekommen. Das Schlimmste, was sie je getan haben! Positiv:: Err… nichts Nachteile: Zu viele zu erwähnenMehr Um dieses Modell zu trainieren, haben wir das Web durchforstet, um einen neuen Datensatz von 1,2 Millionen Songs (600.000 davon sind in Englisch) zu kuratieren, gepaart mit den entsprechenden Texten und Metadaten von LyricWiki.

Die Metadaten umfassen Künstler, Album-Genre und Jahr der Songs, zusammen mit gängigen Stimmungen oder Playlist-Schlüsselwörter mit jedem Song verbunden. Wir trainieren auf 32-Bit, 44,1 kHz Rohaudio, und führen Daten-Augmentation durch zufällige Vermischung der rechten und linken Kanäle, um Mono-Audio zu produzieren. Wir lassen uns von VQ-VAE-2 inspirieren und wenden deren Ansatz auf Musik an. Wir ändern ihre Architektur wie folgt: Eine Möglichkeit, das Problem der langen Eingabe zu lösen, besteht darin, einen Autoencoder zu verwenden, der Rohaudio in einen niedrigeren Dimensionalraum komprimiert, indem einige der wahrnehmbar irrelevanten Informationen verworfen werden. Wir können dann ein Modell trainieren, um Audio in diesem komprimierten Raum zu generieren, und upsample zurück in den rohen Audioraum. Wir haben uns für die Arbeit an der Musik entschieden, weil wir die Grenzen generativer Modelle weiter verschieben wollen. Unsere vorherige Arbeit auf MuseNet erforschte die Synthese von Musik basierend auf großen Mengen an MIDI-Daten.