このREADMEはオープン以後も適宜更新される可能性があります。
現在v1.0.0のリビジョンを展示の導入文・概要文として会場にも置いてあります。
-
会期:2017.2.24(金)- 3.11 (土) / 火-金 [11:00-19:00] / 土 [11:00-17:00] / 日・祝・月休廊
-
現在の作家在廊予定日時:詳細な時間は不確定ですが今の所下記の日時をのぞいて基本的に在廊予定です。
- 2/25(土) 12時以降不在
- 2/28(火) ~19時ごろまで不在(急遽別件現場対応のため。19時前に戻れれば戻って来ます)
- 3/2(木) 16時半以降不在(詳細時間未定)
- 3/9(木) 15時~17時ごろまで不在
- 3/10(金) 11時半~13時半ごろまで不在、18時以降不在(詳細時間未定)
-
在廊できない日時のためのフォローとして下記を。
後半戦始まっております。
基本的には下記の導入・概要の通り、ソフトウェアシンセがうにゃうにゃ言っているだけなのですが、ログデータからモデル(というのが正しいのか?)を構築し直してオープン前にアップロード&一応視聴、みたいなことを日々やってます(来た方の誰かが言ってた気がするのですが、盆栽っぽい)。
ので午前中は割といることが多いです。
ご来廊お待ちしております。
この展示及び作品は大雑把に言って、会場に設置されたモノフォニックシンセサイザーとしての機能を持った2台のコンピューターが自発的・対話的に、あるいは周囲の音に反応して勝手に発音・演奏を行うインスタレーションです。
各々のコンピューターにはスピーカーとマイクがそれぞれ接続されてあり、「声のような音」として認識されたものを中心に適宜集音・解析しデータを蓄積していくことで、自身の音響合成とコンポジションを変化させていきます。
(*注:現状では実際にオーディオファイルとして録音・保存しているわけではなく、特徴量をある程度リアルタイムに解析することで簡易的なエフェクトを与えつつ、ログデータとして記録しています、会場内で喋った内容が残るというようなことは現時点ではありません。)
2台のコンピューターは、機械学習で用いられるような統計的・確率的なネットワーク構造やデータモデルを一部に流用していますが、展示開始時の状態では、スピーチシンセサイザーのような人の声を模すことを目的としたようなものは特に意識せず、作家がある程度恣意的にベースとなるモデルを選択して音をセットアップしてあります。
外部の人の声やその他の環境音・ノイズの特徴を蓄積し、チューニングされていく先でどのような音の生成が行われるようになるのか・なるべきなのか・したいのか、実際のところ作家もよくわかっていません。
例えばひとつの方向性としては、「中間言語」と呼ばれるような種類の言語のための音響生成装置が組み上がることを少しだけ期待していたりします。
あくまで音響的な興味を前提としながら、言語やコミュニケーションの成り立ちについても考察しつつ発展させていければと思っています。
-
WaveNet: A Generative Model for Raw Audio
喃語
-
人工言語、隠語 / スラング、特定の者にだけ理解できる言語
-
グーグルの人工知能、自ら情報の「暗号化」を学ぶ
そういえばソフトウェアがある通信プロトコルに対応していることを「○○が話せる」と喩えたりする
-
スラング、投稿型辞書
-
-
AIによる翻訳・中間言語
-
機械学習・解析系の技術が最終的にもたらす結果よりもフローや中間状態に自分が惹かれるなと思ったものn選(まだあった気がする)
-
音声学、音による言語の分類・研究
-
聞くこと、コンポジション
「楽器を選ぶこと、配置を決めること、録音ボタンを押すこと、その全てが作曲行為なのです。」
-
シンセサイザーの比喩
ざっくりとだけど一応全部見た
-
(割と直接的に)刺激を受けた作品とか
- Rashad Becker / Traditional Music of Notional Species Vol. I / II
企画 / web / グラフィック及びテキスト監修
竹田大純 @thirozumi
会場制作・広報等 / SOBO常駐スタッフ
いしいこうた @11111ECE