雑種路線でいこう

ぼちぼち再開しようか

Gov 2.0を見据えた需要主導のクラウド戦略を

役所から「日本のクラウド振興策をお題目で終わらせないために」の続きを話すようにと依頼を受ける。何を話そうか悩ましいところだが、とりあえず考えていることをブログにまとめて、フィードバックも踏まえた上で考えることにした。
いわゆるクラウド・コンピューティングについて、その定義が明確ではないが、米国NISTなどが用語の定義を検討しており、ISOもクラウドコンピューティング関連の標準化に関心を持っている。ITUも今後サービス提供基盤としてのクラウドコンピューティングについて標準化を検討するだろうから、遠からずくっきりした輪郭やが現れ、標準化のロードマップもみえてくるのではないか。
グーグルやアマゾン、マイクロソフトが大規模なデータセンターを建造し、低コストなPCベース大量のサーバーをミドルウェアで連携させて大規模サービスを運用していることが広く話題となったのはここ数年のこと。いわゆるハードウェア・ベンダーではなくWebサービス事業者がクラウド技術の集約となった背後には理由がある。それはWebは商売として割が悪いということだ。儲からない割に大量のコンピューティング・リソースを食うので、何とか効率的に運用しないと利益が上がらない。
ハードウェアベンダにとって、利鞘の大きな大型サーバーを競争の激しいPCサーバーに置き換えられることは避けたいところ。SIであればこのサーバーはいくらです、ソフトウェアはいくらです、構築も含めていくらですとコストベースで請求できる。ISPであればメールサービスを100MB数百円とか値付けして利用者から徴収すれば良い。しかし何しろWebサービス事業者は大半の利用者に対して課金手段を持っていないので、広告収入を中心とする限られた収入で収支を合わせるがあった。この収益構造の違いから、Webサービス事業者だけがクラウド技術の開発に積極的に投資できた。
しかも無償だからといってメールならメールボックスは5MBで十分でしょうという話も通用せず、競合他社が1GBだったらこっちは2GB、5GBまで増やしたら6GB、ええい青天井、と事業者間の競争が極めて厳しい。運用を効率化すればコストを下げて利益を上げるか、同じコストでサービス内容を差別化できる。いまはまだ業界全体が成長段階なので継続的な設備投資が必要で、儲かるか儲からないかは投資し続けられるかにかかっている。
日本でも楽天Livedoormixiなんかが非常に積極的に分散処理や分散データベースを活用しており、最近もLivedoorが自社のノウハウを明かした「4Gbpsを超えるWebサービス構築術」という本を出して話題となった。扱うデータ量に対して売上が非常に少ない中で利益を上げて再投資し、サービスを高度化し続けるためにコスト効率の高い分散技術が鍵を握っており、日々大量のデータを扱っているからこそ最適化に必要な現場を持っている強みが大きいのではないか。
クラウドの構成技術がオープンな標準ではない、顧客を囲い込もうとしているのではないかという批判がある。しかし新しい技術は常に標準などない。技術が成熟して、各社で共通化できる部分があって初めて標準化が可能となる。大量のサーバーを効率的に管理するための管理情報などは標準化が進んでいるし、複数のサービス間での共通認証はOpen-ID、データ連携のための仕掛けはDataPortability等の活動を通じて相互運用性の向上へ向けた取り組みが進んでいるところだ。
分散したデータに対する問い合わせ言語や、クラウド環境に最適化された関数型言語、仮想化環境を融通するためのディスクフォーマットなどもオープンな規格を公開する試みが行われており、いずれISO等を通じて標準化されることが期待される。しかしC++SQLの標準化にかかった時間や、それらが標準化された後もトランザクション処理や冗長化のための独自技術が生き残ったことを考えると、使えるクラウド技術が標準化され、実用に供されるまで何年もかかる上に、当面は技術の進歩に標準化が追いつかない動く標的であり続けるのではないか。
政府は標準化された技術に基づいて構成されたクラウドを調達すべきだとする意見が、主として大規模なWebサービスを運営しておらず、クラウド技術やデータセンターに積極的には投資してこなかったハードウェア・ベンダーを中心に上がっている。もちろんクラウド関連技術の国際標準化は積極的に推進すべきだが、標準化を待たず政府はクラウドを活用すべきだ。実際エコポイントのシステムなど、クラウドの特性を活かした早期開発の事例が出始めていることに注目している。データロックインによる競争阻害の懸念は、複数年契約として数年おきに入札にかけること、契約終了時のデータ移行支援を契約範囲に含めること等で十分に担保できる。数年おきのシステム更改は消費電力低減の観点からも重要だ。
またクラウド技術の開発推進を図るに当たり、クラウド技術を発展させてきたWebサービス事業者と同様のインセンティブを持たせる必要がある。単に大規模なデータセンターを国費で建造して大量のハードウェアを調達し、関連技術の研究開発補助金をつけるだけでは、開発のインセンティブが上がらない。受注してシステムを納品したところで努力が終わってしまう。例えば複数年契約で業務委託して、運用を効率化することが運営事業者の利益に繋がるようにできれば、グーグルやアマゾンといった大規模Webサービス事業者と同様に、アプリケーションを最適化し続ける経済的誘因が受注者に生まれるだろう。
クラウド技術の基礎となっている大規模データ処理技術は、1980年代にDARPANSAが研究助成した技術の発展系と考えられる。大量のデータとトラフィックを捌く現場から生まれた知恵だからこそ、そういった環境がない限り予算をつけただけでは発展しない。確かに予算を付けさえすればMapReduceGoogle Filesystemのクローンをつくることは難しくないだろうが、出来上がった頃にはもっと優れた実装がオープンソースで公開されている。情報大航海やセキュアVMの轍は踏むべきではない。
仮に数百億円規模のクラウドコンピューティングに関連した研究開発助成を考えているのであれば、大手各社が世界から俊英を集めて年間何千億円も投資している領域に端金を投じるのではなく、これから必要とされる斬新または公共性の高いアイデア分散投資しつつ、クラウド最適化の現場を持つWebサービス事業者に仕事を頼んではどうか。
例えば国会の動画中継は同時500アクセス程度までしか対応しておらず、これまで田母神氏の参考人質疑など関心の高い時に限ってダウンしている。そもそも同時500アクセスという仕様に問題があるが、繁閑の差が激しいところに大規模投資は難しい。配信を希望する事業者と連携すれば税金を節約しつつ品質の高いサービスを実現できる。例えばニコニコ生放送であれば万単位のアクセスを収容し、携帯電話にも対応できる。
配信件数に応じて成果報酬型のサービス利用料を支払うことも考えられるが、広告との連動を認めれば事業者は無償でも配信したがるのではないか。新潟県庁は県の運営するホームページでGoogle AdSenseを貼って数万円の報酬を得たと聞く。広告収入を折半すれば大規模な設備投資どころか売上さえ期待できる。電子申請も最初から利用件数に応じたパフォーマンスベース契約にしていれば、民間事業者が自発的に知恵を絞って、使い勝手を改善してアクセスを増やす努力をしただろう。
多くのクラウド事業者が海外にデータセンターを置いていることを懸念する向きもある。海外事業者のデータセンターを日本に誘致する最も簡単な方法は潜在需要をつくることだ。日本で年間数百億円、数千億円の需要があれば、日本に投資する大きな誘因となる。入札に当たって外資企業を締め出すべきではないが、扱う情報の機密度に応じて守秘義務や設備立地の準拠法、電気通信事業者の届け出等を入札条件として指定することに合理性はあろうかと考えられる。
もうひとつ日本は規制が厳しく、法人税や電力など高コスト構造であることも問題だ。クラウドコンピューティングの源流は検索エンジンの大規模化で、この数年でメール等へ応用範囲を広げてきたが、日本の著作権法は永らく検索エンジンを認めておらず、今年の著作権法改正でようやく日本でインディクス作成が認められるようになった。主要な検索エンジンが全て海外流出した後で遅きに失している。
さらにネットオークションだけ白抜きでサムネイルを合法化したことで、それ以外のサムネイルの作成がグレーであったところを違法化されてしまい、今度は画像検索エンジンを置けなくなってしまった。マルチメディア検索はこれから重要な競争分野だが、立法時の思慮不足でサムネイルを封じてしまい、今度は画像検索エンジンを置けなくしてしまっては、いったい何のための著作権法改正だったか理解できない。
さらに昨年の出会い系サイト規制法改正で、出会い系サイトに届け出義務が課されたことも大きな問題だ。コミュニティ・サイトの扱いを巡っては様々な議論があるところだが、警察庁の解釈に従うと非常に広範なコミュニケーション機能をカバーしており事業の足かせとなる。Youtubeはいうに及ばずTwitterやTumblerなど、このところ流行っているツールの多くが、日本では規制の対象となっている。海外事業者が海外のサーバーから日本人向けに日本語でサービスを提供する場合が増える中で、このハンディは極めて深刻だ。
複雑かつ解釈の多様な法規制そのものがサービス開発を阻害しており、法改正が全く技術革新に追いついていない。先にみた著作権法のように何年もかけて直しても、別に問題が生じるスパゲティ・コードとなってしまっている。私が起業する場合は最初から米国で創業することを選ぶだろうし、同世代をみても米国で起業するケースが増えている。米国も相矛盾する法律が山ほどあるが、コモンローで判例も豊富なこともあり、規制リスクは日本と比べて限定されている。法規制が邪魔をしてクラウド活用が難しければ、いくら技術を磨いても産業が興らず宝の持ち腐れとなってしまう。
これから日本でクラウド・コンピューティング技術をどう育てていくかは重要な課題だが、ひとことにクラウド技術といっても、基盤技術、応用技術、活用方策など様々な段階がある。基盤技術についてはデータやトラフィックのないところで研究したところで絵に描いた餅に過ぎず、日本国内で大量のデータを捌いているWebサービス事業者に、公的なサービスも任せることを通じてエコシステムを拡大することが効果的と考えられる。
クラウド技術の基礎は学術論文で明らかにされておりHadoop Map ReduceやEucalyptusなどオープンソース・クローンも登場しているところ、技術の囲い込みを過度に心配する必要はないのではないか。日本でも楽天がROMAやFairyといったクラウド技術を実サービスに供し、将来のオープンソース化を検討していると聞く。応用、活用についてはエコポイントの運用など事例も出始めているところ、今後も時代に追いついていない規制の見直しと、官需も呼び水とした需要創出を通じて、民間設備投資と研究開発を促すことが肝要だ。

クラウドとは単なるバズワードや技術トレンドではなく、検索経済をはじめとした新たな産業の息吹、需要主導のイノベーションに対する総称であって、旧来のシステム調達や、研究開発助成の枠組みで大波を乗り越えることは難しい。国際的に通用するルールとコスト構造を実現し、オープンな政府の実現を通じて新たな需要を喚起する、官民の壁、省庁縦割りの壁を越えた包括的な取り組みが必要だ。