kotaの雑記帳

日々気になったことの忘備録として記していきます。



ビッグデータを簡単にまとめる

はじめに

 Buzz Wordと化して、もはや分け分からない用語となったビッグデータについてまじめに調べてみました。
 ビッグデータでなにかすごいことができると言われながら、何が出来るかいまいちよく分からないものです。

 『ビッグデータ活用は水面下に潜る? 「情報」から価値を見いだす「知識」が、再浮上の鍵』(クラウドWatch)からビッグデータ活用状況について抜粋します。

ひとときほど活用事例が表に出なくなっており、また、活用したけれども満足のいく結果を得られなかった、という失望の声も聞くようになっている。

ひところに比べてビッグデータ活用にかかわる話が鎮静化しているように見えるのは、ネットのログデータやセンサーデータを収集し、多数のデータ間の相関を単に分析するなど誰でも思いつくことを一通りやってみて、それだけでは企業活動にはさほど役立たない場合が多いことが分かり、先進企業では、データ活用をビジネスの改善や企業経営にどう生かすかより深く考える段階になっているのです。

 つまり、物販業において顧客の購買履歴から商品のお勧めをするとか、コンテンツビジネスにおいて視聴履歴からコンテンツのお勧めをするといった、成功事例をきっかけにビッグデータへの感心が高まったが、他に成功事例が無いということのようです。
 ビッグデータという言葉に飛びつくのではなく、そもそもビッグデータの本質は何か一度考えてみる必要がありそうです。

そもそもどういう技術分野なのか?

 ビッグデータと呼ばれるものは、大きく以下の技術領域が含まれています。

  • データ収集
  • データ蓄積
  • データ解析
  • アクションの策定
  • アクションの実行

 ITの研究者は、主に最初の二つ「データ収集」と「データ蓄積」に関して、データ量が莫大だから何の役に立つかはおいといて、ツールを作ろうとしているように見えます。センサーネットワークとか、Hadoopとかが典型例です。
 一方、データ解析においては、統計学が使われます。
真実を見抜く分析力  ビジネスエリートは知っているデータ活用の基礎知識:によれば、その方法と種類は3つに分けられる。

記述 いわゆる記述統計により、分析対象の特徴を記述する。例えば、季節毎の売上高の分布の形や平均値などを知る。
予測 過去のデータを使用して未来を予測する。変数AとBの相関を明らかにし、AからBを予測する。このとき、AとBの間の因果関係は明らかにしないときもある。例えば、夏になって気温が上がると、ビールの売り上げが上がる(原因が高い気温、結果がビールの売り上げ増)が、ビールの売り上げが増えたことを見て、気温が高いと推測する。
処方 最適化を目的とし、変数間の関係を明らかにし、例えば利益を最大化する価格を決める。

 このようなデータ解析は、ビジネスの世界では”ビジネスインテリジェンス”と呼ばれて以前から活用されています。

ビッグデータ解析は従来のデータ解析と何が違うか?

 ビッグデータという概念が開いた可能性は、精度の低いデータでもたくさん集まると精度が高まる、ということです。例えば、東日本大震災のときに、車の通行履歴から、通行できない道路を抽出した事例がありました。車がその道を通れなかったのか、それとも用事が済んで通らなかったのかは、ケースバイケースです。しかし、極めて多数の車が、道路のとある箇所を通過しなかったということから、その箇所は通行できないと推測することができます(蛇足ですが、道路が壊れているから車が通過しないという因果関係ですが、因果関係をはっきりさせないまま道路が壊れているという推測をしている点が面白いと思います。)

ビッグデータの今後

 ビジネスインテリジェンスといった分野で言われているように、(広義の)データ解析は、解決したい問題を明確にし、その問題を解くための仮説を立てることが最も難しい。(狭義の)データ解析作業は、仮説が成立するかを検証する手段といえます。
 一方、低精度のデータを多数集めると精度が高まる、という点がビッグデータの特徴だとすると、データ解析に使えるデータが広がったという点が、その貢献があるように思います。すると、(広義の)データ解析において最も難しい問題の明確化と仮説立案に対してビッグデータは貢献しないように思います。
 こう考えると、ビッグデータの未来は、その使い手の力量に委ねゆだねられているように思います。

真実を見抜く分析力  ビジネスエリートは知っているデータ活用の基礎知識

真実を見抜く分析力  ビジネスエリートは知っているデータ活用の基礎知識

Google Scholarのマイライブラリとマイ引用の行く道

 Google Scholarは、技術論文や特許などを検索するグーグルのサービスだ。Google Scholarの新しい機能がマイライブラリとマイ引用である。
 マイライブラリは、検索した論文・特許を記録するいわばブックマーク機能である。使い方は、Google Scholarで検索した結果にある「保存」リンクを押すだけだ。自分が論文を書くときに参考文献のリストを付けるわけだが、このマイライブラリを使うと、この参考文献リストを作るのが非常に楽になる。マイライブラリに保存した文献の「引用」リンクを押すと、好みのフォーマットで引用データを得ることができる。
 このマイライブラリ機能は、ユーザにとって便利なだけでなくグーグルの新しいサービスにつながる筈だ。普通に予測すれば、論文のブックマーク件数をグーグルは知る筈だから、これを使って論文の人気のランキングをグーグルは知ることができる。論文の価値を測る尺度の一つとして引用数が使われているが、その類似の尺度として論文の価値をグーグルが発表することができる。ロイター社が学会誌の影響力をImpact Factorという値で評価している。Impact Factorの高い論文誌は良質の論文を集めることができ、良質の論文が集まるとその論文誌のImpact Factorが高くなる。こんなポジティブループが回っている。グーグルも同様のポジティブループを回すプラットフォームになれるのだ。
 また、マイライブラリ機能にブックマークされている論文からユーザの嗜好を推測し、論文検索精度を高めることが出来る。また、そのユーザへの広告に結びつけることもできる。優秀な研究者を募集している研究機関はたくさんあり、彼らのリクルーティングの費用を広告費という形でグーグルは得ることもできよう。さらに、ユーザの嗜好から、そのユーザに読むべき論文を推薦することもできる。「読むべき30の論文」的なサービスにつなぐこともできる。
 一方、マイ引用機能は、ユーザの論文を登録すると、その論文の引用状況を表示してくれるサービスだ。Google Scholarのトップページの上部にある「マイ引用」のリンクをクリックすると、ウィザードが始まる。このウィザードに従って操作するだけで自分の論文を登録できる。とても簡単だ。
 このマイ引用機能は、そのユーザが執筆した論文・文献が登録されるため、グーグルは優秀な研究者を容易にリストアップすることができる。Googl+やGmailを介してそのユーザにグーグルはアクセスすることができる。これを求人広告と組み合わせると、それをクリックしたユーザの優秀さに応じた広告料を設定することも可能だ。また、マイライブラリ機能と組み合わせれば、論文執筆者と論文読者を結び付けることができる。仮にこれをRNS(Researcher Networks Service)と呼ぶことにする。RNSでは、SNSより濃い情報が流通し、それ故ユーザ同士のネットワークも濃く・太いものいなる。RNS上では、問題と報酬を提示し、それを解く研究者を求める新しいサービスも可能であろうし、ソーシャルファンディングもより高額な資金が流通する。IETFのような技術者による標準化機能を、RNSが担うこともできよう。


 Google scholarの新機能であるマイライブラリとマイ引用は、新しいサービスのプラットフォームにつながって行きそうだ。論文・文献というニッチなサービスではあるが、Google Scholarは技術者の不可欠なサービスである。このようなニッチであるがヘビーユーザが多数いる検索サービスを強化し、RNSへと発展されば、そこには濃い情報が流れる優秀な人材のネットワークサービスのプラットフォームとなる。この優秀な人材ネットワークは、かならず社会にインパクトを与えるものとなろう。

ビッグデータと仮説思考

 ICT分野での流行の一つはビッグデータである。正確には、ビッグデータ処理が流行りである。たくさんのデータを集めて相関をみつけることで、なんかの役に立つに違いないという話である。
 昔はデータマイニングという言葉があった。データの隠された相関をみつけようという試みである。スーパーでさんまの横に大根を置くと良く売れるとか、この本を買った人に合の本を勧めると良く売れるといった話である。
 ビッグデータ処理の研究は、処理用に集められたものでないデータも、なんとかして処理できるデータにしてしまおうという技術を開発しようとしている。例えば、twitterのつぶやきなんて、方言やスラングがいっぱいでそのままではデータ処理できないのだけど、コンテキスト依存のオントロジーを使ってガリガリ処理しようとしている。
 ところが、データマイニングが流行ったときにみんなが試行錯誤した結果、データの中で見つかる相関は、わざわざデータマイニング処理しなくてもわかることばかりだった。さんまの横に大根を置けば一緒に買うことなんて、わざわざ計算機でデータを洗わなくても分かっていることだ。
 それなのに、ビッグデータ処理の研究をするのって意味がないと思わないか? データを集めたところでデータマイニングで大した結果が出ないのだから。計算機からデータ間の関連に関する”気付き”をもらうというのは、今の所期待しない方が良いみたいだ。
 一方で、訓練された人間は、説くべき問題の性質から正解を仮説として導くことができる。仮説が正しいかどうかは、データの裏付けをとらなければ分からない。つまり、仮設の検証にはデータが必要だ。ビッグデータ処理とは、人間による仮説を検証するためにつかわれるんじゃないかと、思っている。ただし、検証できる仮説は過去のことだけで、未来への仮説を検証することはできない。たくさんのデータを集めても明日の株価は予想できない、当たり前のことだ。

仮説思考 BCG流 問題発見・解決の発想法

仮説思考 BCG流 問題発見・解決の発想法

 
 

ニュースの読み方: 日本のスマートグリッドの方向が変わってきた

 スマートグリッドとは、電力網をIT技術で賢くして、電力を便利に効率的に使えるようにするということだと説明される。ただし、日本においては、電力産業において競争を促進することで、電力を効率的に供給できるようにすることである。
 昔、電話事業はNTTが一社で行っていて、電話料金もすごく高かった(東京から大阪に電話すると、20秒で10円くらいだったかな、、、)。そこで、電話事業に新規参入を促すため、NTTは電話網を合理的な過価格で他の会社にも貸し出すことという法律ができ、これによって電話事業に参入する会社が増えて競争が起こり電話料金が一気に下がった。スマートグリッドとは、これを電力網でもやるという話である。
 競争促進という意味でのスマートグリッドの根幹は、発送電分離なのだが、これを実現するための施策として

が進められてきた。具体的には、再生可能エネルギーの買い取り義務化である。
 ところが、最近この流れに変化がある(というか減速している)。その具体例を二つ挙げる。一つ目は、「発送電分離案、自民部会で骨抜き 提出時期は努力目標に」(朝日新聞デジタル)にあるように、発送電分離の推進に減速感が出ている。二つ目は、「太陽光発電買い取り価格、1割減の38円程度に」(読売オンライン)にあるように、太陽光発電で発電した電力は電力会社(例えば東京電力)が買い取る義務があるのですが、その買い取り価格が下がりそうです。
 これらの二つともが、(競争促進という意味での)スマートグリッドの減速を意味します。こういった政策転換は、民主党から自民党政権交代したことと関係があるのでしょうか。スマートグリッド政策が善だとは言い切れない訳ですから、この政策転換が悪だというつもりもありません。ただ社会の風向きが少し変わった気がするという話です。

Amazon Web Serviceの進化

 Amarzon Web Service(AWS)のカンファレンス"re:Invent"がラスベガスで行われている。このカンファレンスでの基調講演の内容が明快で素晴らしい。AWSの主張は、安い凄い、の2点である。
 「安い」については、クラウドプライベートクラウド(企業のデータセンタ)より70%オフのコストである。(IBM,HP,オラクルなどの)ベンダーがプライベートクラウドを勧めるのは、その70%を彼らの収益とするためだ、と言っている。明快なロジックである。

オンプレミスよりも初期投資が柔軟になるためだ。2つ目の理由は、オンプレミスよりもコスト削減ができるためだ。IDCの調査では、クラウドの総所有コスト(TCO)は5年で70%も安価だという。

エンタープライズがクラウドへ移行する6つの理由。AWS re:Invent基調講演(Day1)

プライベートクラウドでは、クラウドのメリットは得られない。高価な初期投資がかかり、運用コストもかかるし、キャパシティも制限がある。調達には時間がかかるし、コア事業にフォーカスできず、グローバル展開もできない。
(中略)
なぜ、保守的なテクノロジーベンダはプライベートクラウドにこだわるのだろうか? その答えは経済性にある。彼らは何十年にもわたって高い利益を得てきた。それに対してクラウドは破壊的なのだ。

Amazonはハイマージンをむさぼる既存の「偽装クラウド屋」とは違う。AWS re:Invent基調講演(Day1)


凄い」については、莫大な量のメモリを使用できる「ハイメモリインスタンス」と、莫大な量のストレージを利用できる「ハイストレージインスタンス」を用意したと言っている。つまり、AWS以外の他のクラウドではできない凄いことを用意したぞと言っている。

多くの顧客にとってアメイジングなアプリケーション構築の助けになる2つのインスタンスを発表しよう。

1つは「ハイメモリインスタンス」タイプ。240GBメモリと2つの120GB SSDを備えている。これは大規模インメモリ処理、インメモリデータベースやインメモリアナリティクスのためのインスタンスだ。

もう1つは「ハイストレージタイプ」だ。117GBメモリを備え、24本の2TB HDDを用意した。つまり48TBのディスクスペースを持つ。これはベリーベリーベリーラージアナリティクス処理に適している。あるいは、大規模なMapReduceを走らせている方から、こうしたインスタンスタイプはないのかと聞かれていたものだ。

[速報]Amazonクラウド、インメモリデータベースと大規模データ分析に適した2つの大型インスタンス「ハイメモリ」と「ハイストレージ」を発表。AWS re:Invent基調講演(Day2)

まとめ

 re:InventでAmazonの主張は

と非常に明快である。

OpenFlowは役に立つか? ユーザ意見より

 通信業界の一部で話題のOpenFlowですが、何のメリットがあるのか分からないという人も多いと思います。私も分かりません。”柔軟性”がキーワードであるのは分かるのですが、その”柔軟性”がどんなご利益をもたらすのかいまいちよくわかりません。
 そんなとき「OpenFlowブームは本物か? ユーザーとベンダーが語る」(Publickey)を見ると、OpenFlowの現状が腑に落ちます。
 ユーザ代表は谷口氏(カブドットコム証券のIT戦略担当)と大久保氏(さくらインターネットクラウドを担当)。この二人の意見を拾ってみると、

谷口氏(カブドットコム証券) 最近は部門の壁を越えてR&Dに近いところで仕事をしています。OpenFlowに夢がある派です。ネットの海をパケットが自律的に動いている、それを実現するためにはSDN(Software-Defined Network)が絶対必要だと思います。

大久保氏(さくらインターネット) 研究所所属ということで、数年後にビジネスのネタになりそうな技術の評価、検証などをしていました。ところがある日突然、社長に呼ばれまして、おまえクラウドの開発をやれということで、さくらのクラウドのネットワーク担当をしています。

なぜSDNに注目しているかというと、従来使っていたVLANが限界にきていて、数万規模のノードではSDNが必須になってきていると考えるためです。主にハイパーバイザ型のオーバレイ方式ネットワークに注目しています。

谷口氏はOpenFlowについて”夢がある”と表現しており、大久保氏は”従来使っていたVLANが限界にきていて”と表現しています。このことから、谷口氏のカブドットコム証券では、まだ漠然とした期待のレベルであることが読み取れます。大久保氏の方は、VLANの代替として期待していることが分かります。

次の谷口氏の発言は、ユーザ側の意見として的を射てると思います。この意見に答えられるOpenFlow派の人間を私は知りません。

谷口氏 ユーザー企業にSDN/OpenFlowは必要なのでしょうか? OpenFlow製品の営業が当社に来た場合、私が言いそうなことを考えてみました。

まず「ネットワーク仮想化にすればコスト削減ができます」というセールストーク。しかし、一体何のコストが下がるんだと。SDN/OpenFlowで運用コストが下げられるかというと、すぐにはうんと言えそうにありません。

次が「インフラの自由度が上がります。新規事業を柔軟に導入し、迅速な配置が可能です」というもの。確かに自由度は増すかもしれませんし、実際にいまの現場ではハードウェアの準備に時間がかかることもあって、(ソフトウェアで実現できる)SDN/OpenFlowはそれに対しては役に立ちそうだと思う。

しかしそもそも論としてインフラの自由度が高まったとして、それを生かす事業が思いつかないから困っているんだと! SIerさんにインフラを丸投げしている会社なら、そもそもビジネスのアイデアとインフラの構築が連動していない。こうした環境でSDN/OpenFlowが役立つかというと、そうでもないと思う。

「集中管理が可能なので、社内に優れた技術者が不要になります」。でも、新しい技術を使いこなすには優秀な技術者が必要なはず。言ってることが矛盾してないか? と。

私が勝手に「システムコスト力学の第一法則」と言っているのですが、「孤立系のコストの総量は変化しない」。つまり金銭的コストが下がったとしたらその分別の何らかのコスト、例えばリスクが上昇していると見るべきだと思います。

例えば安いIaaSに丸投げしたらバックアップがなくて障害時に戻せなかったとか、アジャイル開発で速度を優先したらユーザー企業側の作業が増えたとか。

こうしたリスクを何に転化するかがビジネスでありアイデアであるのに、それを忘れて(SDN/OpenFlowを)営業されても何がメリットなのかが見えてきません。

谷口氏 証券では他社さんとの接続など月に1回くらい、多いともっとあります。海外の証券と仕事をすると実感するのは意志決定が速いこと。当社は速いほうですが、それでも負けますね。だから他社さんは(SDN/OpenFlowによるインフラの柔軟性を)そこまで欲しがるのかなあと。

 つまり、”柔軟性”なんて欲しくないと谷口氏は言っているわけです(OpenFlowに”夢がある派”の谷口氏の発言であることに注意が必要です)。


さらに大久保氏の発言です

大久保氏 SDN/OpenFlowを導入したら機器コストが下がるか? 実際試算したことがありますが、残念ながら下がりませんでした。物理ネットワークをそれなりにしなければならないし、コントローラ用にも組まなければならないし。だから馬場さんがおっしゃられたように、機器コスト低下は疑問符かなと。

しかしこれまでネットワークのコストやトポロジーの制約によって思うようなサービスを提供できなかったボトルネックを、SDN/OpenFlowで解決することで、新サービスの提供や不便だったことを解消することで売り上げ向上が図れればなと思います。

つまり、機器コストは下がらない、(OpenFlowによって)何か新サービスで売り上げ向上ができればいいなぁ、と言っているわけです。

まとめ

 OpenFlowのメリットは”柔軟性”ですが、その”柔軟性”のご利益はユーザには分からないのが現状のようです。ユーザにご利益が分からないのですから、ベンダーの言うOpenFlowのメリットはまぁまだ妄想の域を出ないでしょう。
 ユーザ側からVLANの限界(VLAN IDの数が少ない)という話が出ますが、これを解決する手段はOpenFlowだけではないですし、例えばVLAN IDのフィールド幅を広げる方が低コストで実現できることには注意を払う必要があるでしょう。他にはMPLSでも解決できるでしょう。
 個人的には、OpenFlowのボトルネックになるのはスイッチのコストになると思っています。フレームフォワーディングに必要なCAM(wikipedia:連想メモリ)の幅が広がりますので。

電子書籍の権利・ビジネスモデルに関わる論点

 米国では、アマゾンのKindleをきっかけに電子書籍の普及が進んでいる。それに対して日本では、楽天Koboを売り出すなど様々な動きがあるもののなかなかこの普及が進まない。その背景には、出版社の権利をどうするかや、街の書店を潰してよいのかなど、権利やビジネスモデルに関わる問題が整理できないことが挙げられる*1。これらの問題は断片的に報じられるため、なかなか全体像が見えず分かりづらい。そんな中、「電子書籍時代に出版社は必要か――創造のサイクルと出版者の権利をめぐって」という、とてもうまくまとまっている記事をみつけた。これを読んだ際のメモを記しておく。

電子書籍の時代に出版社は必要か?

 電子書籍に対して、現在出版社は様々な権利を要求している。これに対する是非が電子書籍に関する論点の一つである。この論点を議論するためには、まず紙の書籍に対して現在の出版社が提供している機能について整理する必要があろう。上記のエントリで福井氏は次のように列挙している。

出版社の機能論
1.作家を発掘し育成する「発掘・育成機能」
2.作品の創作をサポートし、時にリードする「企画・編集機能」
3.文学賞や雑誌媒体に代表される信用により世に紹介・推奨する「ブランド機能」
4.宣伝し、各種販路を通じて展開する「プロモーション・マーケティング機能」
5.作品の二次展開において窓口や代理を務める「マネジメント・窓口機能」
6.上記の初期コストと失敗リスクを負担する「投資・金融機能」

 これらの其々の機能が電子書籍の時代に、必要か・不要かという議論と、必要な場合にその機能を誰が担うべきか、という議論が必要になります。これらの機能を作家自身が果たすこともできるわけです。

電子書籍海賊版

 著作物が紙ではなく電子的に流通するようになると、コピーが簡単にできるようになり、海賊版が流通することが予想される。この海賊版に関する事柄が論点となる。上のエントリでは次のように述べられている。

海賊版の定義

植村 確認なんだけど、海賊版と言った場合は、他人の著作物なりを断りなく不正に利用しているものをここでは海賊版って言ってるんだよね?

海賊版の種類

岡田 海賊版ってヒトコトで言うとですね、混乱しちゃうんですけど、2種類あると思います。1つは「安い海賊版」、もう1つは「タダの海賊版」。

海賊版に対しては、これを認めないという点で一致しており、海賊版に関しては何故これを認めないのかが上のエントリでは整理されている。

安い海賊版に関しては、以下のように整理されています。

 これは考え方があって、不当な利益だからけしからんという考え方と、正当な価格が間違ってる場合、ですね。つまり、海賊版の料金が本来正しいのに、無茶な価格をメーカーが付けてるから、あるべき価格に落ちつつあるんじゃないかと。「だって海賊版見てみろよ、その価格でできてるじゃねーか」って考え方もあります。でもそれは、「正規版がちゃんと流通して、正規版をちゃんと作ってくれてそこで資金出してるからだ」という言い方もあると思うんですけども、でも海賊版が出るほど売れてるものなら、資金のリクープ、実はほぼ終わってますよね、と言えなくもない。

 映画業界は例外だと思うんですよ。映画業界って、作るのに100億円くらい掛かるから、海賊版とか認めちゃったらなかなか資金のリクープができないと思うんですけども。海賊版の悩ましいのは、この、安いというのに関して、いつも消費者の視点で言われるのが、じゃあその価格が正当なものなのか。何で日本でアニメがあんなに高くて、僕あのー好きなアニメとかが、あと怪獣映画とかがですね、東宝とかバンダイとかが出してるのが、メーカー名、言っちゃいましたけども……しまったぁ。

次に、タダの海賊版については、アフィリエイトとセットになっている場合が多く*2、これも問題である。

また、海賊版の流通が広告として機能するという意見に対するものとして。

岡田 面白いことに中間層が一番被害受けるんですよね。例えば出版とか漫画とかコンテンツ産業は全部そうだと思うんですけども、弱者にとって海賊版ってのは何ら脅威になり得ない。自分たちの作品は、海賊版として流通してもらえるほどには売れてないから。なので、海賊版で他の人の作品見れる方が得だから、弱者にとって、インディーズにとって、海賊版っていうのは何ら問題がない、それどころか自分にとっては有利。

福井 ビジネスモデルが違いますよね。

岡田 中間は違うんですよ。ところが、強者にとって海賊版はさほど不利にならない。海賊版でどんどんどんどん見てもらえる方が、最終的に自分の知名度とか評価が上がってきて、他の収益方法とか収益モデルを考えられるわけですよね。なので、強者と弱者に分かれやすいんですよ、このIT時代ってのは。中間者がいなくなっていまう、いわゆる、本当に中抜きですよね。クリエイターの中抜きで、強者は海賊版別にあってもいいし、隣接権なんか別に要らないし、俺電子出版だけでも食っていけるし、とか、俺は紙の本でもちゃんと刷ってもらえるし、って言えるんですよ。で、インディーズにしてみたら、そんなの俺関係ないよ、だって俺、自分の作品を理解してくれる人だけ相手してればいいしって。赤松さんが言ったようなことですね。で、中間層の人たちが困る。その人たちが、多分どんどんいなくなっていくという、そういう流れだと思います。

再販制度

 出版社が価格を提示し、この価格では書店は本を売ることができないというのが、再販制度である。今の法制度では電子書籍再販制度の対象外となる。電子書籍再販制度を適用すべきか、ここが論点となる。

その他

 以下の意見は、興味深い。

 「いや、中抜き論ってあったじゃないか」ってことを言われたら、特にインターネットが登場したときの、要するに「インターネット市民論」みたいなね、ネットさえあれば、誰でもが発言して人々に届けられるってあったけど、そんなの起こってないでしょ? いや、起こってるって思ってる人は、牧歌的なイメージの中にとどまっているだけで、今、起こってるのはお世話になってるAmazonとか、検索でお世話になってるGoogleとか、音楽で僕もお世話になるけど、Appleとか。確かにそういうのがあって、これ全然ですね、プラットフォーマーによってしかコンテンツは流通していないんですよ。ネットの上に流通しているのって、確かにチャネルとしてはあるかもしれないけど、その上にプラットフォーマーの存在があるから、膨大なコンテンツが流通しているんだという立場に立てば、「中抜きなんか起こってなくて、むしろ独占が起こっている」と捉えた方がいいと僕は思ってます。

また、以下も面白い。

 基本的にこれからは、小さな出版社になるべきであろう、それしかない。ということは、作家責任が自動的に増えてくる。つまり、出版社が、もうすべての責任とか、催促とか、助言とかをしてくれる時代はほぼ終わりに近づきつつある、イコール、読者による、読書ボランティアとか読者ボランティアですね、そういうようなサポートが必要になってくると。

*1:それ以外にも、紙の本を売って儲けている人たちにとって、電子書籍を推進するモチベーションがないことも原因として挙げられる。

*2:Youtubeはこれに当たる

OpenFlowについて

 いま通信業界の一部で盛り上がっている技術にOpenFlowがあります。
 OpenFlowとは、ルータにはパケットフォワーディングだけやらせて、フォワーディングテーブルの設定は別のサーバでやるというものです。テレコムの言葉で言えば、CプレーンとDプレーンを分離するというイメージです。
 もともとOpenFlowはGENIのプロジェクトから生み出されたようです。
 さて、このOpenFlowについて私の関心は、これが何の役に立つのか?です。宛先IPアドレス以外の情報を使ってフォワーディングできるので、柔軟なルーティングができるのは分かるのですが、だからってそれがどう役に立つのか分からないのです。
 現在のOpenFlowの研究は、もっぱらOpenFlowをどう実現するかについて行われており、OpenFlowのニーズについて述べたものがありません。
 うーん、OpenFlowを使ってみたいという人はいませんでしょうか?是非議論したいです。

追記

 日経コミュニケーション 2012年2月号にOpenFlow特集があります。よくまとまっています。しかし、OpenFlowが何の役に立つかはやはりぼんやりとしか書かれていません。取材した中では誰も明確に言えなかったのだと推測します。
 日経コミュニケーションで述べられているOpenFlowの効果について、簡単にまとめておきます。

  • OpenFlowは使われる場所として、データセンターが想定されている
  • 既存技術として、データセンターではVLANが使われている
  • VLANの問題は、VLANの張り替えが面倒なことと、VLAN IDのID空間が狭いこと、である

 これに対して私の印象は、VLANの張り替えが面倒な点に関しては、OpenFlow派は次のように主張しているように感じます。

  • VLANの設定を各スイッチに設定して回ることが面倒さの原因である。
  • これに対してOpenFlowでは各スイッチに設定をコントローラから一括して行うことができるので、設定が面倒という問題を解決している。

 これに対して、私は、VLANだってSNMPマネージャから各スイッチに一括設定できるので、本質的な違いではないと感じます。

 次に、VLAN IDのID空間が狭い点について、OpenFlow派は次のように主張しているように感じます。

  • VLAN IDは最大4096個しかない、4096という数はデータセンターには少なすぎる
  • OpenFlowではスライスが設けられるので、VLAN IDの数の問題はなくなる。

 これに対して、私は、スライスを分ける機能とVLANを扱う機能の両方を有するスイッチは、OpenFlow識別子とVLAN IDの両方を識別してフォワーディングテーブルを引く必要があるので、ハードウエア的な負担が大きい。むしろVLAN IDの数を増やした方が、ハードウエア的には楽です。よって、この点においてOpenFlowのメリットはないと思うのです。
 そういえば、昔NECはEther over EtherでVLAN IDの数を増やすという検討をしいたと思うのですが、いまどうなってるのでしょう?

Androidで誰が儲かるのか? 答えは簡単

 本田雅一のエンベデッドコラム(11):「Androidで誰がもうかるのか?」――誰かがもうかるルールの下でゲームをしよう!アンドロイドの論点 : 「Androidで誰がもうかるのか?」に関する考察を読んでいて、複雑に考えすぎているように思う。

Androidで誰が儲かるのか? それは Googleである。

 上記エントリのお題は、「Androidで誰が儲かるか?」ではなく「Android端末を作ってAppleより儲かるのか?」の方が適切でしょう。

 では、「Android端末を作ってAppleより儲けることは可能か?」というお題に対しては、可能なんだと思います。

 Android端末のシェアがiphoneのシェアを随分前に抜き、その差は開く一方です。電車の中でスマートフォンを触っている人を見ても、iphoneを触っているとはもう思いません。このようにiphoneの存在感はどんどん下がっています。存在感が下がったプラットフォームはアプリケーションに見捨てられていきますから、iphoneを支えるエコシステムは縮小するでしょう。こうしてiphoneの売り上げは落ち、Appleの利益は激減する筈です。Appleの利益を支えているのは、少ない製品ラインナップによる開発・製造・営業コストの少なさと、一つの製品の売り上げ個数の多さによるOEMメーカへのディスカウント力です。このため、iphoneの売り上げが落ちればたちまちコスト構造が崩れ、利益率を圧迫していきます。

 私には、スマートフォンという製品が儲かる時代がいつまで続くのか?という問題設定が適切な気がします。

レイヤバイオレーション

 「レイヤー越えが出来ない人たち」(及川卓也さん)とこれが引用している「spモードはなぜIPアドレスに頼らざるを得なかったか」(高木浩光@自宅の日記)が面白かった。

 これらは、NTTドコモのメールの差出人が書き換わるという事故を題材にしている。この事故のニュースを見たとき、私は、「ユーザIDをアプリレイヤに含めて送信しているんでなく、IPアドレスをユーザIDとして使っているんだ。変なことするんだなぁ」と思っていただけだった。

 上のお二人の記事を見て、よく分析すると考えさせられることが多いなぁっと改めて自分が思考停止になっていたことに気づく。それで、改めて思う所を書いてみる。

 ずっと昔、WIDE研究会の誰かが「トンネルは悪」と言っていたのを思い出した。その当時は、トンネルを使うとインターネットのシンプルさが失われるという理由だったと思う。しかし、時代は流れ、今ではイーサ over HTTP や SCSI over IPと言ったトンネル技術が氾濫し、オーバレイネットワークなんてものもある。こういったトンネル技術を使うと、レイヤモデルが混乱する。例えば、IP-VPNVPNリンクはどのレイヤに属するんだろうか?アプリケーションから見るとL2だが、SDHから見ればL3だ。

 レイヤモデル自身はただの設計モデルであるので、別に従わなくても動くシステムを作ることは可能だ。ただ、通信システムの複雑さをレイヤモデルで整理できなくなるので、システム設計は難しくなる。例えば、IP-VPNVPNリンクはどの機能を提供すべきで、どの機能を提供すべきでないか曖昧になる。そのため、既存システムに何かを追加しようとすると、途端に「スバゲッティシステム」が出来上がる。

 スパゲッティシステムの弊害はあるが、レイヤバイオレーションにより得られる柔軟さは魅力的である。そのレイヤバイオレーションで得られる柔軟さがもたらす複雑さを管理できるか、それが問題である。

来年のスマートグリッド

 今年のキーワードの一つが「スマートグリッド」である。スマートグリッドは、キーワード先行というか、Buzz Wordというか、いまのところ中身がない。10年前の「ユビキタス」の再来のようである。
 温故知新ということで、来年の「スマートグリッド」を考えてみる。

  • スマートグリッド」に関して、どう嬉しいのかわからない説明をよく目にするようになる。
  • スマートグリッド」用のプラットフォームやミドルウエアの開発が進むが、商品は出てこない。
  • たくさんの実証実験が行われ、実証実験をしたことが成果のように扱われる。

個人的には、太陽光発電+蓄電池+電気自動車(ハイブリッドを含む)と、電気メータの自動検針くらいに落ち着くのではと思っている。 

TAAS(TV As A Service)

 先日職場で飲む機会があり、新人のみんなと話をしていた。そのとき驚いたことに、新人のみんながTVを持っていないというのである。今のTV放送業界というのは、斜陽産業で、時々刻々衰退していっているのだが、TVを持たない世帯が出てき始めているとは思っていなかった。今後、TVはどうなっていくんだろうか? すこし考えてみた。
 TV boxを所有するほどの魅力をTVに感じないという人にTV放送を見せるには、TV boxの価格を下げるしかないわけですが、TV boxの価格を決めるのはTV局ではなく電機メーカですから、TV局は思い切った手を打つ必要があると思います。その手の一つが、TV As A Serviceではないかと思っています。ユーザは、TVコンテンツを見たい時に、見た分だけ料金を払う(あるいは広告を見る)、というビジネスモデルです。
 TAASの実現方法として安直なのが、インターネットを使ったコンテンツのオンデマンド配信です。ユーザのスマートフォンでコンテンツを見れるようにすれば、TV boxにかかるコストは実質ゼロです。一方、TV局の強みは総務省から電波使用認可をもらっていることによる参入障壁ですが、インターネット配信ではそんな参入障壁はありませんから、競合他社が多数参入することでしょう。この競争環境に勝つのはどんなプレイヤーでしょう?今の所、Youtubeが一番有利なポジションにいる気がします。
 TV局と比べてYoutubeの有利な点は、番組編成権をコンテンツ製作者と視聴者に渡していることです。今のTV局は、どの時間に何を放送するかという番組編成権を有しています。そのため、TV局に気に入られないとコンテンツ製作者はそのコンテンツを視聴者に届けることができません。TV局が番組編成権を有している理由は、電波では有限のCH数でしか放送できないためです。インターネットではそんな制限はありません。だからYoutubeは番組編成権を手放しているのです。つまり、TAASの時代、TV局は電波使用認可という参入障壁と、番組編成権という力を手放すことになります。
 こう考えると、TV局がいきなりTAAS時代に突入するのは、かなり不利です。採り得る戦略は、放送とインターネットのハイブリッドサービスをいったん経由してからTAASに突入することでしょう。このようにワンクッションおくことで、変化を緩やかにすることができ、TV局がTAASを提供できるかもしれません。

まとめ

TV boxを買うコスト払うほどの魅力を、TVコンテンツに感じないユーザが出てきている。ユーザにTV boxのコストを負担させないTAASにTV業態は変化するだろう。TAAS提供者としてYoutubeは先行しており、これと競争して勝つのはかなり難しい。TV放送とインターネットのハイブリッドサービスの検討をTV局はすべきである。

ユビキタスの時代が終わり、ビッグデータの時代が始まる

 IT分野では、1990年後半に「ユビキタス」という言葉がはやりました。政府もu-Japan構想などぶち上げていました。1999年くらいの学術論文にはよく「ユビキタスとは偏在するという意味で、コンピュータが身の回りにバラまかれて生活を支援する」というような書き出しがありました。もっとも、コンピュータをバラまいて何が嬉しいのかは誰も分からず、研究者はひたすら要素技術を研究していました。結局、世の中は、クラウドの時代となり、あの頃の研究って外してたよなっと感じます。例えば、様々な端末が出現するので画像のトランスコーディングが必要だっていうような研究がありました。当時の検討は、例えば10年たつと役に立たないことが殆んどである。それは、CPUの処理速度やメモリ量などの前提とするツールの性能が変わってしまうからである。
 最近は、「ユビキタス」という言葉を聞くことは殆んどないが、その代わりに「ビックデータ」という言葉をよく耳にするようになってきた。ライフログ的に様々なデータを収集し、これを解析することで生活をサポートするという考え方である。一方、具体的には何が嬉しくなるのかは曖昧なままであり、「ユビキタス」の時代と非常に似ている。「ユビキタス」時代の経験をもとにすれば、以下を予測できる。

  • 従来の研究が、「ビッグデータのため」に必要というまえがきから始まるようになる
  • ビッグデータを利用してどう嬉しいかの具体的なことは曖昧なままとなる
  • ビッグデータブームの陰で新しいトレンドが生まれるが、研究者はこのトレンドにはついていかない

 私自身企業研究者として、ビッグデータブームの裏側で芽生える新トレンドに目配りをしておきたい。

追記

ビッグデータデータマイニングの違い

 以前よりデータマイニングという言葉がありました。これは、wikipediaによると

明示されておらず今まで知られていなかったが、役立つ可能性があり、かつ、自明でない情報をデータから抽出すること

では、ビッグデータはこれと何が違うのかというと、ずばり同じです。データマイニング2.0くらいに考えておけば十分だと思います。

新技術がIPv4を有効にし、IPv6を時代遅れにする

 まったく流行らないIPv6であります。IPv6の議論がIETFで始まったのが1992年ですから20年近く前のことです。つまり、IPv4アドレスが枯渇するっと20年近く心配していたということです。 IPv6は、IPv4が使えなくなったら使う代替プロトコルですが、この20年間なぜIPv4を使い続けてこれたかというと、新技術がIPv4を使えるようにしてきたからなのです。

新技術登場の歴史

 この新技術の一つ目は、1993年に出てきたCIDR(RFC1518,RFC1519)です。CIDRによりIPv4アドレスブロックを柔軟に分割し、使用者に割り当てることができるようになりました。その結果、IPv4アドレスを効率的に使用することができて、IPv4アドレスの消費量の増加ペースが低下しました。
 新技術の二つ目は、1994年に出てきたNAT(RFC1631)です。NATにより、複数の端末が一つのIPアドエスを共用することができるようになり、IPv4アドレスをさらに効率的に使えるようになりました。
 そして新技術の三つ目は、LSN(Large Scale NAT:以前はCGNと呼ばれていた)です。LSNとは、ISPに設置されるでっかいNATです。通常のNATは家庭内での端末間でしかIPアドレスを共有できませんが、LSNは複数家庭の端末間でIPアドレスを共用できるため、一層効率的にIPv4アドレスを使用することができます。

新技術の欠点

 これらの新技術にはいくつか欠点がありました。それをどう克服してきたかを紹介します。
 CIDRの欠点は、ルート情報のアグリゲーションが難しくなるため、ルータには大きなルーティングテーブルが必要となりました*1。この問題は、ムーアの法則通り半導体技術が進歩して、克服されました。
 NATの欠点は、NATの外側からセッションが開けないことです。これにより、インターネットのエンド・エンドポリシーが脅かされるため、ずいぶんNATは嫌われました。この問題に対しては、skypがやっているように中間ノードを経由してセッションを張る方法が開発されて、問題が克服されました。ここでポイントは、NATが開発された1994年から17年たっている現在は、CPUパワーがログスケールで測れる程に格段に速くなっていることです。中間ノードを介して通信するなんて非効率と大昔は思われていましたが、今ではその程度の負荷はへっちゃらです。また、NATを使わなくてもFireWallは設置するでしょうから、昔みんなが心配していたエンドエンドポリシーへの脅威は、的外れな心配となりました。
LSNの欠点は、1アドレスあたり送受信ポート番号のビット空間以上のセッション数を設定できないことです(つまり、セッション数に理論限界がある)。このため、例えばGoogle mapを表示しているとき、ブラウザは非常にたくさんのTCPセッションを張るため、LSNを使ってもサポートできる端末数は案外少ないと言われていました。これに対して、GoogleがSPDYという技術を提案しています。

SPDYとは何か?

 SPDYとは一本のTCPコネクションに複数HTTPセッションを多重する方法です。グーグルはSPDYをWebの高速化技術として提案しています。ところが、SPDYは高速化だけではなくLSNの問題克服に役に立つのです(LSNが扱うセッション数がグッと少なくなるため)。

まとめ

IPv6の検討が始まってから既にに20年近くが経っている。IPv4アドレス不足を20年近く心配してきたわけであるが、新技術が次々に登場してIPv4アドレスは不足せずに済んでいる。新技術には問題もあるが半導体の進歩が目覚ましいこともあり、インターネット生態系は順調に成長している。
 私の今の心配は、IPv6仕様が時代遅れなものになっている or なってしまうのではないかということ。20年前と比べ、ルータや端末の性能は格段の進化を遂げており、また社会環境も変化しているため、IPv6検討をしていた当時とは問題がずれている可能性がある。

*1:昔のルータはルーティングサイズが小さくててよくクラッシュしました

Googleのモトローラ買収の次

 Googleモトローラ・モビリティズ(モトローラ社の携帯電話部門)を約1兆円で買収すると発表しました。これでGoogleAndroidというソフトウエアと携帯電話のハードウエアの両方を手に入れることになります。では、今後Googleはどう動くのでしょうか?今日は少しここら辺を想像してみましょう。
 まずは練習問題として、「グーグルがモトローラを買収してもアップルを超えられない理由」に反論してみましょう*1
 上記のエントリでは、Googleがアップルに及ばない理由を3つ挙げています。

理由その1は、アップルの垂直モデルと同じ垂直モデルをGoogleが作れないという点です。

もし、圧倒的に音楽コンテンツを抑えているiTunesを崩す新しいプラットフォームのビジネスモデルをつくることができれば、アップルの足元を揺るがすことができます。
そういう意味では、グーグルがチャレンジすべきは、クラウド型で"聴き放題"の音楽ストリーミングサービスを行っているスポティファイのような企業かもしれません。
スポティファイとフェイスブックが提携してアップル社に対抗!?〜クラウド型音楽サービスの近未来は? - コンテンツとメディアの近未来 :

またアップルはすでにアップル・ストアの展開で川下の流通も抑えており、そこまで垂直統合しなければ、アップルのように利益を稼ぎ出すことは容易ではありません。

理由その2は、ブランドの問題です。

つぎにブランドの問題です。グーグルはオープンシステムであるために、ブランドが分散してしまうだけでなく、パートナーの製品やサービスの質によってブランド体験にどうしてもバラつきがでてしまいます。今後はスマートフォンの価格競争がいちだんと激しくなってくるので、よけいにリスクが高まります。

理由その3は、マーケティング力です。

もうひとつは、グーグルのマーケティング力の弱さです。いまだにグーグルの収益はほとんどが広告収入です。グーグルには、検索ビジネスやクラウドのビジネス以外では、マーケティングの経験もなく、また技術ももっていません。だから、買収したモトローラマーケティング力に依存することになります。モトローラの業績を回復させるためのマーケティング費用をグーグルがつぎこむことができるかどうかです。

この3つの理由から分かるのは、エントリの著者は、Googleが携帯電話を製造・販売するというノキアやサムソンのような従来型のビジネスを展開することを前提としていることです。

 一方、Googleコアコンピタンスは、もちろんクラウドサービスにあります。Googleにとっては、インターネットに接続するユーザ数が増えれば増えるほど、検索やYoutubeを通じて広告収入が得られることになります。ですから、アップルをGoogleのコンペティタと捉えるのではなく、Googleのエコシステムの要素の一つととらえるべきです。
 そう考えると、Googleモトローラを買収した理由は、アップルはGoogleのエコシステムを拡大するための要素として小さすぎると、Googleが判断したためと感じます。すると、Googleは買収したモトローラを使って何をしかけてくるでしょうか?いくつかのシナリオが考えられます。

  • Chrome Mobile phone: PCと同じようにChromeOSを載せた携帯電話を出してくるのは、考えやすいシナリオです。売り先は新興国になるでしょう。
  • お財布携帯: 決済機能付き携帯電話を売り出し、これにクラウドサービスを連携させることにより、ターゲット広告収入を狙うというのも考えやすい。これも新興国向けのサービスになるでしょう。例えば、インドネシアではクレジットカードの保有率は極めて低いため、クラウドサービスのマネタイズやネットショッピングが非常に難しい状態です。もし、NFCや電話料金と一括した課金サービスを立ち上げることができれば、新興国でのネットサービスのビジネスモデルを確立することができます。
  • メディアハブ: 携帯電話を、PCやスマートTVと連携するためのメディアハブとしての機能を担わせ、ユーザ履歴をクラウドに吸い上げる。
  • パーソナライズ: 携帯電話はPCと異なり極めて個人に張り付いたデバイスである。そのため、携帯電話を通じてGoogleにアクセスさせれば、極めて個人の匂いのする履歴を取得し、ターゲッティング広告に生かすことが可能である。
  • Facebook:Google+を携帯電話を使って一気に普及させ、Facebookへ流れたトラヒックを変える。それは、Facebookトラヒックを奪うではなく、FacebookGoogleのエコシステムの要素の一つとして取り込むように変えるのが理想である。

このように、色々なストーリが考えられる。今までのGoogleの動きから推測すれば、既存のビジネスモデルで戦う筈がなく、新しいビジネスモデルを作るか、あるいは検索・地図・Youtubeと絡めたGoogleビジネスモデルを強化する展開が有力だと私は考えます。

みなさんは、どう予想します?

*1:この種の議論は、未来予測のため、どれが正しいということは決められない。反論を通して、未来予測のシナリオを増やすことが目的です。