雑種路線でいこう

ぼちぼち再開しようか

クラウド考

このところ方々で「結局のところクラウドに研究開発要素はあるのか」とか聞かれる。で、要素技術は80年代に出尽くしているけれども組み合わせとしては新しいよね、という以上に何がいえるかと考えたときに、逆に「メインストリームの技術は何故1970年代で止まってしまったのか」という問いを立ててみると腑に落ちた。
もともとコンピュータ産業というのは軍事技術から生まれて金勘定で商業化された。銀行のオンラインにしても、企業の経理や生産管理にしても広い意味で金勘定である。パソコンの普及もVisiCalcをGAOが大量導入したところから普及したことから、やはり金勘定から始まっている。
コンピュータが情報あるいはマルチメディア・データを扱うようになったのは1980年代からのことだ。20年くらいかけて交換機がデジタル化され、パソコンがマルチメディア・データを扱うようになり、家電がデジタル化した。この時代コンピュータ・アーキテクチャ上のチャレンジも学術界で諸々あったけれども、あまり商業化はされなかった。例えばタグドメモリとか、分散OSとか、AIとか、データフロー・マシンとか、関数型言語や形式検証とか。例えばiAPX432やi960MXのようにハードによる細粒度のメモリ管理がもっと流行っていれば、セキュリティ問題はこれほど深刻にはなっていなかったのではないか。
MPUムーアの法則で急激に発展し、メモリが安くなったことでWindowsMacintoshも気づいたらUNIXの末裔になっていた。半導体とアプリケーション資産と即戦力の技術者が相互に依存しつつスパイラル的に発展し、大量生産され急激に性能向上するMPUの上で2階層のメモリモデルとC言語で書かれたOSが動くエコシステムで構造化された情報を扱うことが商業的な成功への道になった。
ところがハードウェアの性能向上とWebの発展で、扱う情報そのものは次第と構造化された数値を対象とした厳密な計算から、非定型のマルチメディア・データが主体となった。この時にコモディティ化したPCハードウェアの上で、これまで学術的には研究されてはいても技術者がいないし、商業化されずに放置されてきた分散データベースや関数型言語を使って割り切ったスケーリングを図ったのがクラウドではないか。その上でエラー忘却型コンピューティング等の新たな技術も生まれた。
彼らは垂直統合モデルを取ったからこそ、技術者層の薄いKey-Valueストレージや関数型言語を駆使して新たなインフラを構築できたし、今も恒常的にコンピュータ科学の素養を持つ技術者を必要としている。クラウド・インフラを他の開発者に開放するためには諸々の糖衣を挟むのだろう。そして当面は半導体産業と同じように、データセンターは掛け金の上がり続けるグローバル競争に晒された設備ビジネスでもある。国境に守られた通信よりも競争は厳しい。
商業化には必ずしも成功しなかった1980年代以降の様々なユニークなアーキテクチャに、どういう目的で誰が投資していたかを考えると、歴史って繰り返しているのだなと実感させられるし、いま見えない世界で何が起こっているのか考えさせられる。計算・情報の次にくるのはロボットとか神経接続とか、面白そうだなあ、とか。ワクワクするね。