Wbrew pozorom nie trzeba tu żadnej telepatii, czarów i innych nadprzyrodzonych zjawisk. Potrzeba natomiast była pomysłu i tęgich umysłów, które znalazły sposób na jego wprowadzenie w życie. Technologia znana już jest od dość dawna i używana w medycynie, to funkcjonalne obrazowanie metodą rezonansu magnetycznego (fMRI ). Za pomocą takiego badania aktywności ludzkiego mózgu można obserwować zmiany jego pracy w czasie myśli o muzyce. Następnie trzeba „tylko” opracować sposób by informacje te móc odczytać i wyłapać z nich co danej osobie w duszy… erm, w głowie gra.
To właśnie udało się zespołowi badaczy z czterech instytucji: Google, Uniwersytetu Osaki, NICT oraz Araya Inc. Ich metoda, nazwana Brain2Music pozwala sztucznej inteligencji analizować sygnały zebrane podczas fMRI i „tłumaczyć” je na dźwięki. W ramach badań nad technologią naukowcy puszczali uczestnikom badania różne utwory i rejestrowali ich aktywność mózgową za pomocą fmri. Następnie obrazy tej aktywności przekazywali Brain2Music, które prosili by zrekonstruował to czego słuchała dana osoba, korzystając z próbek biblioteki MusicLM. Efekt są zaskakująco precyzyjne.
To oczywiście etap na pewnej drodze i jeśli przesłuchaliście próbki w badaniu i zwróciliście uwagę na to, że przecież rekonstrukcje nie są idealne, musicie uzbroić się w cierpliwość. Badania trwają, zatem w naprawdę niedługim czasie możemy się spodziewać algorytmów, które odtworzą muzykę wprost z naszej głowy na postawie tego, co powiedzą im o niej impulsy elektryczne w naszych mózgach. Oczywiście pozostaje pytanie czy nie będzie masowych oporów przed podłączaniem naszych głów do komputerów by umożliwić algorytmom pracę. Z drugiej strony patrząc na to, jak wiele danych i naszej prywatności jesteśmy w stanie bez zastanowienia oddać portalom społecznościowym i aplikacjom za trochę rozrywki można mieć pewność, że chętnych nie zabraknie.