ビッグデータ

最近ビッグデータという言葉をよく聞きます。
コンピュータのデータ量の急激な増大とその爆発的な普及とがあいまって、玉石混淆ながらもなんらかのアルゴリズムを用いて有用なデータのみを取り出せれば計り知れない恩恵に与る事ができます。
実際にビジネス界では膨大なデーターから必要とするものを抽出する試みが盛んに行なわれています。


ボストンマラソンでの爆破テロ、アルカイダなどのイスラム原理主義者からの犯行声明もなく、迷宮入りかと思っていました。それが数日後には犯人をほぼ特定したとの報道、一旦は撤回されましたが結局は防犯カメラに写された犯人像が公開されどこのだれそれという事まで公開されました。
話として聞くだけなら何の不思議も感じないかもしれませんが、冷静に考えてみるとそれこそ何千台ものカメラに写っている延べ何百万人の画像からよくもまあ容疑者兄弟二名を特定できたものです。それこそビッグデータの中から画像処理による特徴抽出を行ないその上なんらかのアルゴリズムにより容疑者を特定したものと思われます。
この容疑者の画像公開は米国のデータ処理技術のレベルを世界に公表したようなもので、言い換えればテロリスト達に手の内を明かしてしまったようなものです。たとえ手の内を明かそうとも早期の犯人確保の方が政治的にも重要だったって事でしょうか。
ニューズとしては快挙なのでしょうが、この事から色んな事が透けて見えます。
コンピュータビジネスではクラウド流行り、膨大な数のコンピュータネットワークが共有するビッグデータからある特定のものを抽出する事が現実となりつつあります。それこそ広大な砂浜の中にばら撒かれた芥子粒を拾い集めるようなものです。