
Habt Ihr euch schon einmal gefragt, wie die Gedanken eurer Lieblingsartists zu Musik werden können? Google hat vielleicht die passende Antwort. In Zusammenarbeit der Universität von Osaka hat das Unternehmen eine Technik zur Konvertierung von Gedanken zu Musik präsentiert.
Bei der Studie wurden fünf Freiwilligen mehr als 500 unterschiedliche Musiktitel in zehn Genres vorgespielt, während sie von einem fMRT-Scanner analysiert wurden. Die Scan-Aufnahmen dokumentierten die Gehirnaktivitäten, die im Anschluss in das KI-Modell Brain2Music eingespeist wurden. Das Modell wiederum kann mit Hilfe des KI-Musikgenerators MusicLM von Google Tracks erzeugen, die den Probanden vorgespielten Stücken ähneln.
Im Résumé der Studie heißt es, dass die „die erzeugte Musik den musikalischen Reizen, die die menschlichen Probanden erlebten, in Bezug auf semantische Eigenschaften wie Genre, Instrumentierung und Stimmung ähnelt.” Alle Ergebnisse findet ihr hier.
Obwohl diese neuartige Technik noch in den Kinderschuhen steckt, sind sich die Forscher einig, dass sie in naher Zukunft zu einer innovativen Form des Musikmachens führen könnte, bei der Gedanken entschlüsselt und in Musik übersetzt werden. Geht man noch einen Schritt weiter, wäre auch der Einsatz von künstlicher Intelligenz zur Erzeugung von Musik, die nicht auf einem bestimmten musikalischen Stimulus, sondern auf der reinen Vorstellungskraft einer Person beruht, denkbar.
Hier geht es zur Forschungsarbeit „Brain2Music: Reconstructing Music from Human Brain Activity”.
Quelle: Resident Advisor