コンピュータ音楽

パソコンと電子楽器を接続して演奏・録音する音楽制作行為の総称

コンピュータ音楽(コンピュータおんがく、computer music、コンピュータ・ミュージック)とは、コンピュータ技術の音楽作曲演奏への応用であり、作曲家が新しい楽曲を製作するサポートとしてコンピュータを利用したり、作曲アルゴリズムによりコンピュータが独自に楽曲を製作したりすることを指す。演奏への応用については、電子音楽との境界は曖昧である[1]。コンピュータ音楽には、既存もしくは新規のソフトウェア技術の理論と応用が含まれ、また、音響生成デジタル信号処理サウンドデザイン、音の拡散、音響学電気工学音響心理学などの音楽の様々な側面が含まれる[2]。コンピュータ音楽の起源は、電子音楽の起源、すなわち、20世紀初頭の電子楽器による音楽の実践にまで遡ることができる[3]

歴史 編集

 
CSIRAC(サイラック、旧名 CSIR Mark 1)。オーストラリア初のデジタルコンピュータであり、世界で初めて音楽を演奏したコンピュータでもある。

コンピュータ音楽の研究は、古代ギリシャ人が『宇宙の諧調英語版』(Musica universalis)を著して以来の、音楽と数学の関係の研究の延長上にあるものである。

コンピュータによる初めての音楽の演奏は、1950年、オーストラリア初のデジタルコンピュータであるCSIR Mark 1(後にCSIRACに改名された)によるものである。アメリカイギリスでそれよりも早くコンピュータによる音楽の演奏がされていたという新聞報道もあったが、それらを裏付ける証拠がなく、これらの話は全て否定されている。コンピュータで音楽を演奏しようとしたきっかけは、コンピュータがノイズを発生させることからであろうという研究結果があるが[4]、それを実際に行ったという証拠はない[5][6]

数学者のジェフ・ヒルは、1950年代初頭からCSIR Mark 1を使って様々なポピュラーミュージックを演奏させるためのプログラムを製作していた。1950年に初めて演奏されたものは録音はされていなかったが、後にプログラムが復元されている[7][8]。1951年には初めて公の場での演奏が行われた。その時演奏されたのは行進曲『ボギー大佐』だったが[9]、これも録音されておらず、復元されたものしかない。

イギリスでは、1951年末にクリストファー・ストレイチーFerranti Mark 1を使ってイギリス国歌を演奏したのが最初だった。同年末、BBCの国外向け放送により、イギリス国歌、『バー・バー・ブラック・シープ』、『イン・ザ・ムード』のそれぞれ一部を演奏したものが録音された。CSIR Mark 1での演奏は録音されていなかったため、ストレイチーによるものが、初めて録音されたコンピュータによる音楽演奏ということになる。この録音はマンチェスター大学のWebサイトで聞くことができる。2016年、カンタベリー大学の研究者がこの録音のノイズを除去して復元した。その成果はSoundCloudで聞くことができる[10][11][7]

1950年代には、コンピュータによるデジタル音響生成と作曲アルゴリズムにおいて大きな進展があった。1957年、ベル研究所マックス・マシューズが音響合成ソフトウェアMUSIC-Iを開発し、MUSIC-Nシリーズとして開発を継続した。マシューズは1963年に『サイエンス』に記事を書き、コンピュータ音楽を一般的なものにした[12]レジャリン・ヒラー英語版レオナルド・アイザックソン英語版は1956年から1959年にかけてアルゴリズムによる作曲活動を行い、1957年に弦楽四重奏曲『ILLIAC組曲英語版』(Illiac Suite)を初演した[13]

日本では、慶應義塾大学の関根智明と東芝の林大雅[14]TOSBACを使って実験を行ったのが始まりである。その成果として、『ILLIAC組曲』から名前を取った『TOSBAC組曲』がコンピュータにより作曲された。その後の日本における作品には、大阪万博で発表された江崎健次郎の作品や、音楽評論家の武田明倫による『パノラミック・ソノール』(Panoramic Sonore)(1974年)などがある。江崎は1970年に「現代音楽とコンピュータ」という記事を執筆している。それ以降の日本におけるコンピュータ音楽の研究は、主にポピュラーミュージックにおける商業目的のために行われてきたが、1970年代にはフェアライトなどの大型のコンピュータを用いて音楽制作を行うミュージシャンも現れた[15]

 
ヤマハ初のFMシンセサイザー・GS1のプログラム用コンピュータ

初期のコンピュータ音楽のプログラムは、一般にリアルタイムに動作するものではなかったが、CSIR Mark 1Ferranti Mark 1での最初の実験はリアルタイムで動作した。1950年代後半にはわずか数分の音楽を生成するのに、高価なコンピュータを何時間も動かす必要があったものだったが、それからプログラムは洗練された物になっていった[16][17]。生成時間を短くするための方法の一つがアナログシンセサイザーをデジタルで制御する「ハイブリッド・システム」で、初期の例として、マックス・マシューズのGROOVEシステム(1969年)や、ピーター・ジノビエフ英語版のMUSYS(1969年)などがある。

1967年5月、イタリア初のコンピュータ音楽の実験が、フィレンツェのS 2F Mスタジオにおいて[18]ゼネラル・エレクトリック情報システム・イタリアの協力により行われた[19]オリベッティ社製GE115を使用しピエトロ・グロッシ英語版が演奏した。この実験では、フェルッチョ・ズーリアンが書いた3つのプログラムが使用され[20]、グロッシがバッハパガニーニヴェーベルンの作品を演奏し、新しい音の構造を研究するために使用された[21]

1970年代後半には、これらのシステムが市販されるようになった。1978年には、マイクロプロセッサで動くシステムがアナログシンセサイザーを制御するローランド MC-8マイクロコンポーザが発売された[15]。1960年代から1970年代にかけてジョン・チャウニングが研究を行ったFM合成技術により、より効率的なデジタル音響合成が可能となった[22]。1983年には、世界初のフルデジタルシンセサイザー・ヤマハDX7が発売された[23]。DX7を始めとする、安価なデジタルチップやマイクロコンピュータの登場により、コンピュータ音楽のリアルタイム生成が可能となった[23]。1980年代、NECのPC-8800シリーズなど日本製パーソナルコンピュータにFM音源チップが搭載され、MMLなどの音楽記述言語英語版MIDIインタフェースが搭載され、ゲーム音楽チップチューン)の制作に多く使われるようになった[15]。1990年代初頭には、パーソナルコンピュータの性能が向上し、コンピュータ音楽のリアルタイム生成が可能になった[24]

コンピュータとソフトウェアの進歩は、コンピュータ音楽の生成や演奏に劇的な影響を及ぼしている。今日では、コンピュータを利用したシンセサイザー、ミキサー、エフェクターなどは一般的なものとなり、音楽の制作にデジタル技術を使うことは普通のこととなっている[25]

研究 編集

コンピュータ音楽の分野では、研究者によりコンピュータによる音響合成、作曲、演奏の研究が盛んに行われている。コンピュータ音楽の研究に関する組織として、国際コンピュータ音楽協会英語版(ICMA)、C4DM (Centre for Digital Music)、IRCAMなどがある。

コンピュータによる作曲と演奏 編集

ゴットフリート・ミヒャエル・ケーニヒヤニス・クセナキスなど、楽譜だけでなく音響もコンピュータで生成する作曲家が現れるようになった。ケーニヒは、自身のセリエル音楽に基づくアルゴリズム作曲プログラムを制作した。ケーニヒのソフトウェアは、数学の方程式に基づいてコードを生成し、これを手書きで楽譜に変換して人間が演奏していた。1964年の『プロジェクト1』、1966年の『プロジェクト2』がその一例である。後に、ケーニヒはこの原理を音響生成に拡張し、コンピュータが直接音を出せるようにした。これらのプログラムは、ケーニヒがユトレヒトソノロジー研究所英語版で1970年代に製作したものである[26]

2000年代には、アンドラニク・タンジアン英語版カノンフーガの構造に基づく楽曲を生成するアルゴリズムを開発し、それによって作られた楽曲"Eine kleine Mathmusik I"、"Eine kleine Mathmusik II"をコンピュータにより演奏した[27][28][29]

コンピュータにより作曲した楽曲の人による演奏 編集

モーツァルトなどの過去の偉大な作曲家の作風をコンピュータにより模倣する試みも行われている。デイヴィッド・コープ英語版は、自身が製作したプログラムにより他の作曲家の作品を分析し、その作風を模倣した新しい楽曲を製作している。コープが製作した中で最も有名なプログラムはエミリー・ハウエル英語版である[30][31][32]

スペインのマラガ大学の研究プロジェクトであるMelomics英語版は、イアムス英語版(Iamus)と呼ばれるコンピュータ・クラスターを使って、複数の楽器を使用した複雑な楽曲の作曲を行うものである。2012年、『Hello World!』などのイアムスが作曲した曲のロンドン交響楽団による演奏を収めたアルバム"Iamus"がリリースされ、『ニュー・サイエンティスト』誌は「コンピュータが作曲してフルオーケストラが演奏した、世界初の大作」と評した[33]。この研究グループは、技術者がこの技術を活用するためのAPIを開発し、楽曲をWebサイトで公開している。

機械即興演奏 編集

機械即興演奏(machine improvisation)とは、コンピュータのアルゴリズムにより、既存の音楽素材を用いて即興で演奏を行うことである。その場で録音した、または録音済みの既存の音楽素材を、パターンマッチング機械学習などのアルゴリズムによって分析し、それによって得られたパターンを高度に組み合わせて、元の音楽素材のスタイルに沿った新しい楽曲を生成する。これは、既存の楽曲の分析を行わずに、アルゴリズムによって楽曲を生成する既存のコンピュータ音楽とは異なるものである[34]

統計的スタイルモデリング 編集

スタイルモデリングとは、与えられた音楽データから、そのスタイル的特徴を捉えた計算可能な表現(モデル)を構築することを意味する。統計的なアプローチを用いてパターン辞書や冗長性における冗長性を捉え、それを再結合して新たな音楽データを生成する。機械即興演奏は、ヒラーとアイザックソンによる1957年の『ILLIAC組曲』や、クセナキスのマルコフ連鎖確率過程を用いた楽曲に始まる、統計モデルの音楽への適用の延長上にあるものである。現在では、可逆圧縮インクリメンタル・パーシング、接尾辞木文字列検索などの手法も用いられる[35]

異なる音楽スタイルの音楽データから生成したモデルを混合することにより、スタイルミキシング(音楽スタイルの合成)が可能になる。初めてスタイルミキシングを行ったのはシュロモ・ドゥブノフ英語版の『NTrope組曲』(NTrope Suite)で、ジャンセン=シャノン・ジョイントソースモデルを使用した[36]。その後、ドゥブノフとジェラール・アサヤグは、線形の時空間で漸進的に構築される有限状態オートマトンであるファクターオラクル英語版[37]を使用した楽曲を製作し[38]、これはスタイルの再投入を行うシステムの基礎となった[39]

実装 編集

統計的スタイルモデリングの初の実装はOpen MusicのLZify法であり[40]、その次が、ソニーコンピュータサイエンス研究所(ソニーCSL)パリのフランスワ・パチェ英語版が2002年に開発した[41][42]、LZインクリメンタル・パーシングをマルコフモデル英語版で解釈してリアルタイム・スタイルモデリングに利用する対話型の機械即興演奏の実装だった[43]

ライブコーディング 編集

ライブコーディング(live coding)[44]とは、パフォーマンスの一環としてコンピュータ音楽のためのプログラムをリアルタイムに書くことである。インタラクティブ・プログラミング(interactive programming)、オンザフライ・プログラミング(on-the-fly programming)[45]、ジャストインタイム・プログラミング(just in time programming)とも呼ばれる。あらかじめプログラミングしておくデスクトップミュージックでは、ライブで演奏するのに比べてカリスマ性や華やかさに欠けると感じるミュージシャンが、ライブコーディングを選択するようになっている[46]

脚注 編集

出典 編集

  1. ^ コンピュータ音楽』 - コトバンク
  2. ^ Curtis Roads,The Computer Music Tutorial, Boston: MIT Press, Introduction
  3. ^ Andrew J. Nelson, The Sound of Innovation: Stanford and the Computer Music Revolution, Boston: MIT Press, Introduction
  4. ^ Algorhythmic Listening 1949–1962 Auditory Practices of Early Mainframe Computing”. AISB/IACAP World Congress 2012. 2017年11月7日時点のオリジナルよりアーカイブ。2017年10月18日閲覧。
  5. ^ Doornbusch, Paul (9 July 2017). “MuSA 2017 – Early Computer Music Experiments in Australia, England and the USA”. MuSA Conference. https://www.academia.edu/34234640 2017年10月18日閲覧。. 
  6. ^ Doornbusch, Paul (2017). “Early Computer Music Experiments in Australia and England”. Organised Sound (Cambridge University Press) 22 (2): 297–307 [11]. doi:10.1017/S1355771817000206. 
  7. ^ a b Fildes, Jonathan (2008年6月17日). “Oldest computer music unveiled”. BBC News Online. http://news.bbc.co.uk/1/hi/technology/7458479.stm 2008年6月18日閲覧。 
  8. ^ Doornbusch, Paul (March 2004). “Computer Sound Synthesis in 1951: The Music of CSIRAC”. Computer Music Journal 28 (1): 11–12. doi:10.1162/014892604322970616. 
  9. ^ Doornbusch, Paul. “The Music of CSIRAC”. Melbourne School of Engineering, Department of Computer Science and Software Engineering. 2012年1月18日時点のオリジナルよりアーカイブ。2022年10月2日閲覧。
  10. ^ First recording of computer-generated music – created by Alan Turing – restored”. The Guardian (2016年9月26日). 2017年8月28日閲覧。
  11. ^ Restoring the first recording of computer music – Sound and vision blog”. British Library (2016年9月13日). 2017年8月28日閲覧。
  12. ^ Bogdanov, Vladimir (2001). All Music Guide to Electronica: The Definitive Guide to Electronic Music. Backbeat Books. p. 320. ISBN 978-0-87930-628-1. https://archive.org/details/allmusicguidetoe00vlad 2013年12月4日閲覧。 
  13. ^ Lejaren Hiller and Leonard Isaacson, Experimental Music: Composition with an Electronic Computer (New York: McGraw-Hill, 1959; reprinted Westport, Connecticut: Greenwood Press, 1979). ISBN 0-313-22158-8. [要ページ番号]
  14. ^ 大泉和文『コンピュータ・アートの創生: CTGの軌跡と思想 1966-1969』NTT出版、2015年、393頁。ISBN 978-4757103610 
  15. ^ a b c Shimazu, Takehito (1994). “The History of Electronic and Computer Music in Japan: Significant Composers and Their Works”. Leonardo Music Journal (MIT Press) 4: 102–106 [104]. doi:10.2307/1513190. JSTOR 1513190. https://www.scribd.com/doc/93116556/The-History-of-Electronic-and-Experimental-Music-in-Japan 2012年7月9日閲覧。. 
  16. ^ Cattermole, Tannith (2011年5月9日). “Farseeing inventor pioneered computer music”. Gizmag. 2022年10月2日閲覧。 “In 1957 the MUSIC program allowed an IBM 704 mainframe computer to play a 17-second composition by Mathews. Back then computers were ponderous, so synthesis would take an hour.”
  17. ^ Mathews, Max (1 November 1963). “The Digital Computer as a Musical Instrument”. Science 142 (3592): 553–557. Bibcode1963Sci...142..553M. doi:10.1126/science.142.3592.553. PMID 17738556. "The generation of sound signals requires very high sampling rates.... A high speed machine such as the I.B.M. 7090 ... can compute only about 5000 numbers per second ... when generating a reasonably complex sound." 
  18. ^ Pietro Grossi's Experience in Electronic and Computer Music by Giuditta Parolini” (2016年). 2022年10月2日閲覧。
  19. ^ Gaburo, Kenneth (Spring 1985). “The Deterioration of an Ideal, Ideally Deteriorized: Reflections on Pietro Grossi's 'Paganini AI Computer'”. Computer Music Journal 9 (1): 39–44. JSTOR 4617921. 
  20. ^ Music without Musicians but with Scientists Technicians and Computer Companies” (2017年). 2022年10月2日閲覧。
  21. ^ Giomi, Francesco (1995). “The Work of Italian Artist Pietro Grossi: From Early Electronic Music to Computer Art”. Leonardo 28 (1): 35–39. doi:10.2307/1576152. JSTOR 1576152. 
  22. ^ Dean, Roger T. (2009). The Oxford Handbook of Computer Music. Oxford University Press. p. 20. ISBN 978-0-19-533161-5 
  23. ^ a b Dean 2009, p. 1
  24. ^ Dean 2009, pp. 4–5: "... by the 90s ... digital sound manipulation (using MSP or many other platforms) became widespread, fluent and stable."
  25. ^ Doornbusch, Paul. "3: Early Hardware and Early Ideas in Computer Music: Their Development and Their Current Forms". In Dean (2009). doi:10.1093/oxfordhb/9780199792030.013.0003
  26. ^ Berg, Paul (1996). “Abstracting the future: The Search for Musical Constructs”. Computer Music Journal (MIT Press) 20 (3): 24–27 [11]. doi:10.2307/3680818. JSTOR 3680818. 
  27. ^ Tangian, Andranik (2003). “Constructing rhythmic canons”. Perspectives of New Music 41 (2): 64–92. http://repmus.ircam.fr/_media/mamux/papers/tangian-2003-pnmcanons.pdf 2021年1月16日閲覧。. 
  28. ^ Tangian, Andranik (2010). “Constructing rhythmic fugues (unpublished addendum to Constructing rhythmic canons)”. IRCAM, Seminaire MaMuX, 9 February 2002, Mosaïques et pavages dans la musique. http://repmus.ircam.fr/_media/mamux/saisons/saison01-2001-2002/tangian_2002-2003_einekleinemathmusik_1-2_with-articles.pdf 2021年1月16日閲覧。 
  29. ^ Tangian, Andranik (2002–2003). “Eine kleine Mathmusik I and II”. IRCAM, Seminaire MaMuX, 9 February 2002, Mosaïques et pavages dans la musique. http://repmus.ircam.fr/mamux/saisons/saison01-2001-2002/2002-02-09 2021年1月16日閲覧。 
  30. ^ Leach, Ben (2009年10月22日). “Emily Howell: the computer program that composes classical music”. The Daily Telegraph. https://www.telegraph.co.uk/culture/music/music-news/6404737/Emily-Howell-the-computer-program-that-composes-classical-music.html 2017年10月6日閲覧。 
  31. ^ Cheng, Jacqui (2009年9月30日). “Virtual Composer Makes Beautiful Music and Stirs Controversy”. Ars Technica. 2022年10月2日閲覧。
  32. ^ Ball, Philip (2012年7月1日). “Iamus, classical music's computer composer, live from Malaga”. The Guardian. 2013年10月25日時点のオリジナルよりアーカイブ。2021年11月15日閲覧。
  33. ^ “Computer composer honours Turing's centenary”. New Scientist. (5 July 2012). https://www.newscientist.com/article/mg21528724.300-computer-composer-honours-turings-centenary.html. 
  34. ^ Mauricio Toro, Carlos Agon, Camilo Rueda, Gerard Assayag. "GELISP: A Framework to Represent Musical Constraint Satisfaction Problems and Search Strategies", Journal of Theoretical and Applied Information Technology 86, no. 2 (2016): 327–331.
  35. ^ Shlomo Dubnov, Gérard Assayag, Olivier Lartillot, Gill Bejerano, "Using Machine-Learning Methods for Musical Style Modeling", Computers, 36 (10), pp. 73–80, October 2003. doi:10.1109/MC.2003.1236474
  36. ^ Dubnov, S. (1999). "Stylistic randomness: About composing NTrope Suite." Organised Sound, 4(2), 87–92. doi:10.1017/S1355771899002046
  37. ^ Jan Pavelka; Gerard Tel; Miroslav Bartosek, eds (1999). Factor oracle: a new structure for pattern matching; Proceedings of SOFSEM'99; Theory and Practice of Informatics. Springer-Verlag, Berlin. pp. 291–306. ISBN 978-3-540-66694-3. https://books.google.com/books?id=JtMYxwzUL00C&q=Factor+oracle%3A+a+new+structure+for+pattern+matching&pg=PA295 2013年12月4日閲覧. "Lecture Notes in Computer Science 1725" 
  38. ^ "Using factor oracles for machine improvisation", G. Assayag, S. Dubnov, (September 2004) Soft Computing 8 (9), 604–610 doi:10.1007/s00500-004-0385-4
  39. ^ "Memex and composer duets: computer-aided composition using style mixing", S. Dubnov, G. Assayag, Open Music Composers Book 2, 53–66
  40. ^ G. Assayag, S. Dubnov, O. Delerue, "Guessing the Composer's Mind : Applying Universal Prediction to Musical Style", In Proceedings of International Computer Music Conference, Beijing, 1999.
  41. ^ Pachet, F., The Continuator: Musical Interaction with Style Archived 14 April 2012 at the Wayback Machine.. In ICMA, editor, Proceedings of ICMC, pages 211–218, Göteborg, Sweden, September 2002. ICMA.
  42. ^ Pachet, F. Playing with Virtual Musicians: the Continuator in practice Archived 14 April 2012 at the Wayback Machine.. IEEE MultiMedia,9(3):77–82 2002.
  43. ^ :: Continuator”. 2014年11月1日時点のオリジナルよりアーカイブ。2014年5月19日閲覧。
  44. ^ Collins, N.; McLean, A.; Rohrhuber, J.; Ward, A. (2004). “Live coding in laptop performance”. Organised Sound 8 (3): 321–330. doi:10.1017/S135577180300030X. 
  45. ^ Wang G. & Cook P. (2004) "On-the-fly Programming: Using Code as an Expressive Musical Instrument", In Proceedings of the 2004 International Conference on New Interfaces for Musical Expression (NIME) (New York: NIME, 2004).
  46. ^ Collins, Nick (2003). “Generative Music and Laptop Performance”. Contemporary Music Review 22 (4): 67–79. doi:10.1080/0749446032000156919. 

参考文献 編集

関連項目 編集