Від синтезаторів до кіборгів
Superbooth традиційно вражає різноманіттям. На виставці можна побачити десятки модульних синтезаторів, які вже давно стали окремою екосистемою музичних інструментів. Але цьогоріч інженери привезли значно більше, ніж просто нові «коробки зі звуком». Серед експонатів — синтезатори з однією кнопкою, які автоматично генерують кілька звукових доріжок, інструменти з повністю сенсорним керуванням, візуальні системи для живих виступів та акустичні динаміки, що імітують звучання гітарної деки. Усе це — про взаємодію людини з технологією. Натискати, крутити, тягнути, рухати руками — музика дедалі більше перетворюється на фізичний перформанс. Особливо помітною стала присутність штучного інтелекту. Якщо ще минулого року AI-розробки були радше винятком, то тепер їх — десятки. Одним із прикладів стали рукавиці для керування музикою жестами. Система використовує гіроскопи, акселерометри та сенсори згинання пальців, а розпізнавання рухів працює на основі машинного навчання. Розробниця Кейті Ґайґер пояснює: користувач фактично «навчає» систему власним жестам, і саме це є прикладом машинного навчання у практичному застосуванні. Рукавиці працюють через Wi-Fi, що дозволяє уникати проблем із Bluetooth під час виступів у великих приміщеннях. Такі технології перетворюють музикантів на своєрідних кіборгів — людей, які розширюють власні можливості за допомогою електроніки. Але, попри всю складність схем і алгоритмів, у центрі все одно залишається людина.
ШІ не замінить інженера?
Креативний технолог і саунд-артист Саймон Іст переконаний: штучний інтелект не здатен повністю замінити інженерів та розробників. Він порівнює нинішній AI-бум із ранньою епохою desktop publishing, коли поява доступних комп’ютерних інструментів змусила багатьох думати, що дизайнерські навички більше не потрібні. «Спочатку всі робили жахливі макети з десятками шрифтів. А потім стало очевидно: професійний дизайнер усе одно потрібен», — каже він. На його думку, AI може допомогти написати окремі шматки коду, але проєктування складних систем, їхня архітектура та підтримка залишаються людською компетенцією. Сам Іст теж працює з технологіями жестового керування музикою, але замість дорогих професійних рукавиць використовує звичайні смарт-годинники. Такий підхід робить подібні системи доступнішими для ентузіастів та DIY-спільноти. Водночас він визнає: AI відкриває двері для людей, які не є програмістами. Художники, музиканти чи медіа-артисти тепер можуть створювати прототипи та експериментальні інструменти без глибоких знань коду. Але для production-рішень, особливо тих, що використовуються наживо на сцені, досвід розробника все ще критично важливий.
«Vibe coding» і нова творчість
Інший підхід демонструє розробник аудіовізуального софту Матх'їс Кнепперс. Він активно використовує AI у роботі та підтримує так званий «vibe coding» — неформальний спосіб програмування, коли людина описує ідею природною мовою, а штучний інтелект генерує код. Його система дозволяє створювати візуальні ефекти для музичних виступів прямо в Ableton Live. За допомогою shader-коду користувач може генерувати будь-які візуальні сцени — навіть максимально сюрреалістичні. «Можна просто сказати ChatGPT: я хочу шейдер, де кошеня вибігає з трави до глядача — і система це створить», — пояснює Кнепперс. Після цього ефект можна інтегрувати у виступ і керувати ним наживо так само, як музикою.
Гітарна педаль, у якій «душу» створює користувач
Ще далі пішли польські розробники, які представили гітарну педаль нового типу. Сам пристрій — лише «порожня коробка», а його функціональність формується користувачем через AI. Працює це просто: музикант підключає педаль до комп’ютера, заходить у спеціальний Playground і описує словами ефект, який хоче отримати. AI генерує кілька варіантів, пояснює параметри керування, після чого готовий ефект можна завантажити на пристрій. При цьому система не копіює готові рішення, а створює ефекти з нуля, спираючись на загальні знання про звук та власну базу даних розробників. Важливо й те, що AI тут — лише опція. Увесь проєкт є open source, а користувачі можуть самостійно писати ефекти мовою C++, використовувати SDK або ділитися власними напрацюваннями через спільну бібліотеку. Такий підхід розширює творчість музиканта не лише у створенні музики, а й у створенні самого інструмента. Тепер можна вигадати абсолютно унікальний ефект, якого не існує на ринку й який ніхто більше не матиме.
Людина залишається головною
Мабуть, саме це і є головним висновком цьогорічного Superbooth. Штучний інтелект не забирає творчість у людини — він радше змінює спосіб реалізації ідей. Уміння придумати концепцію, сформулювати задум і побачити щось нове залишається людською рисою. А технічну рутину дедалі частіше можна делегувати машинам. Музичні технології майбутнього виглядають строкато й непередбачувано. Але одне вже зрозуміло: AI стає не заміною творчості, а новим інструментом для її розширення.
М.Т.