初音ミクが“歌う”メジャーアルバムが遂に登場 livetune「Re:Package」、8月27日にリリース

http://news24.2ch.net/test/read.cgi/moeplus/1217871317/-100

動画投稿サイトなどで大きな話題を呼んだ、“VOCALOID2”という音声合成技術を採用した 
ソフトの代表格、『初音ミク』のアルバム『Re:Package』が8月27日(水)に発売される。 

初音ミクの歌うメジャーレーベルのCDアルバムついに登場
値段も安いんで買ってみます


amazonレヴューより

歌を作りたいと思った時に、どうしても歌手に人間を起用するとそちらに目が向いてしまうものだ。それを敢えて機械に歌わせる事で、歌そのものに目がいくようになる。作歌家にとってはこの上ない幸せではないだろうか。

このへんの関係は、実写ドラマとアニメに近いと思う。
実写だとどうしても俳優の力量や人気が全面に来る。それはそれでコラボということではメリットだけど、
作家としては、自分の創作を100%計算して表現できることを選ぶ人もいるだろう。
アニメの場合、草一本まで創作者の意向が働いている
「偶然カメラに映っていた」という結果オーライは基本的に無い。


作曲家編曲家にとっても、歌手の力量に依存することなく、自身でコントロールできれば、
歌唱力は、歌声という名の楽器になる(ただし、とても重要な楽器)


Perfumeにも同じ感じをうける(歌っている彼女たちは、トーク番組ではこてこての広島出身のねーちゃんだが)


元が藤田咲という声優の声がベースになっているとはいえ、人工知能の歴史にとって「大きな一歩」ではないだろうか。
現状、普通に話すイントネーションを機械的に作るのはとても難しいようだが(初音ミクは歌うけどしゃべれない)
話し言葉に適用可能になれば、機械声優を使うアニメ作家は現れるだろう。
声優は人間の方がいい? ならば、作画に実写ではなくアニメ絵を用いていることに矛盾が生じる。
現在のアニメは、絵は2次元だが、声は3次元なのだ。
いや、声優は2.5次元と考えるべきかもしれない(宮崎アニメは声が非声優なので3次元)


人工発話合成ソフトAquesTalkの作者がAquesToneという歌えるエンジンをフリーでリリースしている
http://www.a-quest.com/aquestone/index.html
AquesTalkは実際に試したことがありますが、適切にアクセントを付ける高額な他のソフトとひけをとらないくらい
自然に話してくれた。
結局、話すときにどうイントネーションが移り変わるかがケースバイケースで、コーパスとかに頼るので人海戦術になる
(歌なら、歌のメロディが基本にあるから楽なのでしょう)