· Fachbeitrag · Sprach- und Musikrekonstruktion
Analyse von Hirnaktivitäten: Computer rekonstruiert gehörten Popsong
| Die Rekonstruktion gehörter Sprache auf Grundlage von Aktivitätsmustern im Gehirn ist mithilfe von Computermodellen bereits möglich. Nun ist es Forschenden aus Berkeley gelungen, auch gehörte Musik zu rekonstruieren. Das entwickelte Modell schließt in die Analyse neben wahrgenommenen Tonhöhen, Melodien und Rhythmus auch klangverarbeitende Hirnareale ein. |
Die mit nicht linearen Computermodellen erfolgte Analyse der neuronalen Aktivität von Probanden, die „Another Brick in the Wall“ von Pink Floyd hörten, ergab in der Rekonstruktion des Gehörten einen undeutlichen, aber erkennbaren Text bei korrektem Rhythmus. Dabei wurde deutlich, dass bei der Musikwahrnehmung beide Hirnhälften mit leichter Dominanz der rechten zusammenarbeiten und die Rhythmuswahrnehmung im Bereich des Schläfenlappens liegt. Die Erkenntnisse können z. B. dazu dienen, Geräte mit sog. Brain-Computer-Interfaces für Menschen, die nicht sprechen können, zu verbessern. Bislang klingt der Output der Umwandlung von Sprachreizen im Gehirn wenig menschlich, weil Sprachmelodie und Emotionen außen vor bleiben.
Quelle
- Bellier L et al. Music can be reconstructed from human auditory cortex activity using nonlinear decoding models. PLOS 2023, 15. August, doi.org/10.1371/journal.pbio.3002176.