内容説明
AIの登場以前から用いられてきた音楽制作の技法にはじまり,プログラミングで音楽や音響を作り出す手法,作曲や音列の生成を数理の面から捉える分野,音を軸としたメディアアートなど,第一線で活躍の執筆陣が幅広く解説する。電子版ではカラー図面を豊富に掲載。
目次
1.電子音楽の制作ツール
1.1 電子楽器の登場
1.1.1 民生機のアナログシンセサイザ
1.1.2 民生機のデジタルシンセサイザ
1.2 シンセサイザの原理
1.3 DSPによる電子楽器
1.3.1 初期のDSP開発
1.3.2 ウェーブテーブルからPCMへ
1.3.3 デジタルシンセサイザの音源方式
1.3.4 ソフトウェアシンセサイザ
1.4 シーケンサ
1.4.1 シーケンサの芽生え
1.4.2 アナログシーケンサ(CV/GATE)
1.4.3 CV/GATEのデジタルシーケンサ
1.4.4 MIDIシーケンサの特徴
1.4.5 ハードウェアシーケンサ
1.4.6 ソフトウェアシーケンサ
1.4.7 リアルタイムレコーディングとステップレコーディング
1.4.8 MIDIイベントと分解能
1.4.9 MIDIトラックとオーディオトラック
1.4.10 プラグイン(インストルメント,エフェクト)
1.5 ミュージックトラッカー
1.5.1 トラッカーとは
1.5.2 サンプラーとシーケンサの組合せ
1.5.3 初期のトラッカー
1.5.4 現在のトラッカー
1.5.5 音楽教育ツールとしてのトラッカー
1.6 サウンドプログラミング
1.6.1 Pure Data
1.6.2 Pure Dataのプログラミング方法
1.6.3 MIDIの制御とDSPの制御
1.6.4 メッセージデータとDSPデータの境界
1.6.5 インタフェースの変化と固定化
1.6.6 BSDライセンスとPure Dataコミュニティ
1.6.7 Pure Dataのパッケージ
1.6.8 Dekenによるライブラリ追加
1.6.9 シーケンサの時間軸とインタラクションの時間軸
1.6.10 Pure Dataの作品事例
1.7 まとめ
2.ライブコンピュータ・エレクトロニクス
2.1 ライブコンピュータ・エレクトロニクスとはなにか
2.2 ライブコンピュータ・エレクトロニクスの誕生
2.2.1 ピエール・ブーレーズ
2.2.2 ブーレーズと電子音楽
2.2.3 IRCAMの設立と4Xの開発
2.2.4 『レポン』:ライブコンピュータ・エレクトロニクスの原点
2.2.5 デジタル信号処理による音の変形
2.2.6 楽器と電子音響の演繹的拡張と統一
2.2.7 『レポン』の空間性
2.2.8 託された課題
2.3 プログラミング環境 Max
2.3.1 Max とはなにか
2.3.2 Max 開発の背景
2.3.3 Max の登場
2.3.4 Max の実用化
2.3.5 Max の展開
2.3.6 Max の特徴
2.4 ライブコンピュータ・エレクトロニクスの実践
2.4.1 新しいミュジシャンコンプレ
2.4.2 ピアノとコンピュータのための音楽
2.4.3 上演プロセス:準備
2.4.4 上演プロセス:演奏
2.5 ライブコンピュータ・エレクトロニクスの現在
2.5.1 オペラの舞台に立つアンドロイド
2.5.2 歌唱システム
2.5.3 動きのシステム
2.6 まとめ
2.6.1 インタラクションとはなにか
2.6.2 ライブコンピュータ・エレクトロニクスの課題
2.6.3 ライブコンピュータ・エレクトロニクスの持続可能性
3.音響コンポジション
3.1 音と作曲
3.1.1 音「の」作曲
3.1.2 音のプログラミング
3.1.3 音と響き
3.1.4 音の存在論と作曲
3.2 SuperColliderの特徴
3.2.1 構成
3.2.2 実践
3.3 関連作品やプロジェクト
3.3.1 WFS
3.3.2 BEAST
3.3.3 『AudioScape』
3.3.4 norns
3.3.5 『breathing space』
3.3.6 空港のための音楽
3.3.7 AI×Beethoven
3.3.8 可聴化研究
3.3.9 『snr』
3.3.10 『spray』
3.3.11 『matrix』
3.3.12 『x/y』
3.3.13 『textures±』
3.4 まとめ
4.ライブコーディング
4.1 ライブコーディングとは
4.1.1 ライブコーディングの定義
4.1.2 プログラミング言語のライブ性
4.1.3 コンパイラとインタープリタ
4.1.4 プログラミング言語におけるライブコーディングの歴史
4.1.5 ライブパフォーマンスとしてのライブコーディング
4.1.6 ライブコーディングの世界への広がりとコミュニティ
4.1.7 Show us your screen(スクリーンを見せろ)
4.2 ライブコーディングのための主要なプログラミング言語
4.2.1 Max
4.2.2 Pure Data
4.2.3 SuperCollider
4.2.4 ChucK
4.2.5 OverTone
4.2.6 TidalCycles
4.2.7 Extempore
4.2.8 Gibber
4.2.9 Sonic Pi
4.2.10 FoxDot
4.2.11 Orca
4.2.12 Strudel
4.2.13 その他の環境
4.2.14 ライブコーディングによるパフォーマンス事例
4.3 TidalCyclesによるライブコーディング実践
4.3.1 TidalCyclesを構成するプログラミング言語,ライブラリ,アプリケーション
4.3.2 Windows,macOSへの手動インストール手順
4.3.3 TidalCyclesの起動と終了
4.3.4 TidalCyclesによるパターンの生成の基本
4.3.5 パターンを変化させる
4.3.6 シンセサイザを使う
4.3.7 ライブコーディングパフォーマンス実践
4.4 まとめ
5.作曲技法と数理
5.1 音楽と数学の歴史
5.2 ピッチクラス集合論
5.2.1 音高の同値類とその集合
5.2.2 教会旋法とダイアトニック集合
5.2.3 集合,部分集合,補集合
5.2.4 集合間の写像
5.2.5 共通音定理
5.3 ブーレーズのブロックソノール技法の数理
5.3.1 ブロックソノール
5.3.2 ブロックソノールの積の演算
5.3.3 ブロックソノールの代数学
5.3.4 ブロックソノールの組合せ論
5.4 作曲上の意思決定の数理
5.4.1 制約充足問題と制約最適化問題
5.4.2 ブロックソノールを用いた作曲への制約プログラミングの応用
5.4.3 ハーモニックドメインの割り当てによる大域構造の決定
5.4.4 ハーモニックドメイン内のブロックソノールの経路の決定
5.5 まとめ
6.メディアアートとミュージックテクノロジー
6.1 メディアアートとミュージックテクノロジーの関係
6.2 バーチャルミュージカルインストルメントとロボット工学の芸術的アプローチ
6.2.1 ロボットのインテリジェンス
6.2.2 バーチャルミュージカルインストルメントと『RoboticMusic』の開発
6.2.3 作品への応用と新たなメディアアート技術の適用
6.2.4 ロボティクスの展望
6.3 バーチャルミュージカルインストルメントの技術的側面と実装
6.3.1 ジェスチャーと音楽
6.3.2 マッピングインタフェース,アルゴリズム,サウンドシンセシス,映像
6.3.3 サウンドシンセシス,サウンドとジェスチャーによる音楽制作
6.3.4 音楽のコンテクストとインタラクションの課題
6.3.5 パフォーマンスの問題点:人間の知覚とコンピュータの限界
6.4 バーチャルミュージカルインストルメントを用いた作品例(初期の作品)
6.4.1 『L’homme transcend 』
6.4.2 『netBody』
6.5 バーチャルミュージカルインストルメントを用いた作品例(メディアアートとの関連作品)
6.5.1 『Cymatics』
6.5.2 『Hypno de』
6.5.3 『Body in Zero G』
6.5.4 『gravityZero』
6.6 まとめ
引用・参考文献
索引
感想・レビュー
※以下の感想・レビューは、株式会社ブックウォーカーの提供する「読書メーター」によるものです。
EnJoeToh
tyfk
Go Extreme
株式会社 コロナ社