Teoretyk muzyki i kompozytor, instrumentalista i artysta multimedialny. W Akademii Muzycznej im. Krzysztofa Pendereckiego wykłada analizę muzyki i współczesne techniki kompozytorskie (szczególnie – kompozycję wspomaganą komputerowo). Współpracuje z Akademią Sztuk Pięknych w Krakowie, prowadząc zajęcia z „soundartu” i instalacji dźwiękowych. Jako teoretyk prowadzi badania empiryczne nad muzyką z perspektywy percepcji, analizy dźwiękowej i harmonicznej, stylometrii i psychologicznych podstaw kreatywności muzycznej. W działaniach badawczych i twórczych wykorzystuje zaawansowane techniki przetwarzania informacji, w tym techniki sztucznej inteligencji.
Wzór, imitacja i złożone między nimi relacje, w świetle ostatnich postępów w modelowaniu zachowań o cechach inteligencji, na przykładzie muzyki
Kiedy Thomas Alva Edison promował swój fonograf przedsięwziął odpowiednie kroki, aby przekonać publiczność, że dźwięk reprodukowany przez jego urządzenie do złudzenia przypomina dźwięk wytwarzany przez ludzki głos lub instrumenty akustyczne. Po stu latach przywykliśmy do dźwięków wytwarzanych elektronicznie, a dla wielu ludzi właśnie takie dźwięki stały się głównym, a nawet medium muzycznym. Imitacja – czyli dźwięk reprodukowany – stała się wzorcem. Wyznacza on dziś punkt odniesienia, względem którego plasuje się muzykę graną na żywo.
Ta historia i jej podobne mogą nas nauczyć czegoś istotnego na temat muzyki wytwarzanej dziś przy użyciu maszyn liczących. Z pewnością jesteśmy obecnie świadkami przełomu – algorytmy sztucznej inteligencji (AI) wytwarzają muzykę, która wielu ludziom wydaje się być podobną wytworom człowieka. Pojawiają się pytania o relację między muzyką maszynową a tą, wytwarzaną przez ludzi. Czy możliwe jest, iż muzyka maszynowa wyznaczy nową linię bazową w dziedzinie wytwarzania muzyki, stanie się nowym wzorcem, a słuchacze przywykną do niej podobnie, jak przywykli np. do dźwięków wytwarzanych w urządzeniach elektronicznych?