[misc] Big Data: Achieve the Impossible in Real-Time

どんなシナリオ、どんなビジネスでも不可能を可能にしたいものです。このエントリでは、以前不可能と考えていたレベルにまで性能を高めたこと、ただデータと高度な分析を使うだけで性能を高めたことについてお話をします。このすばらしい例は、アメリカズカップにおけるBMW Oracle艇とそのセンサーデータおよび深い分析の利用方法にあります(お話はこちら)。

America's Cup: Oracle Data Mining supports crew and BMW ORACLE Racing
http://www.sail-world.com/Asia/Americas-Cup:-Oracle-Data-Mining-supports-crew-and-BMW-ORACLE-Racing/68834

記事から引用したの2つの文を考えてみましょう。
「三胴船全体にわたって、信じられないほど多くのパラメータを測定した、1秒間に10回データを収集し、膨大な量の[センサー]データを分析に利用可能だった。セーリングしている1時間で、90万のデータポイントを生成する。」
「…セーリングの初日からセーリングのまさに最後の日までの間、我々のパフォーマンスを比較できた。漸進的な改善が全体としてなされていることがわかった。データマイニングにより、我々が見たものに対してデータをチェックすることができた。簡単に観察したり発見できないものも見つけることできた。」

BMW Oracle Racing © Photo Gilles Martin-Raget 
この結果、3倍速く船を進める風を受け止めて進むことができるようになったのです。この魔法のようなことを起こすためには、いくつかの事をやらなければなりませんでした。
  1. センサーを配置してデータを収集する
  2. データを体系付けてリアルタイムで分析する
  3. 必要な人が必要なタイミングで意思決定する
  4. 世界で最高の船員を説得して、ボートを駆動するための分析データを信頼して使用させる
これはセーリングのブログではなく、データウェアハウス、ビッグデータのブログなので、どうやればこのようなマジックを貴社に起こすことができるか、を説明しようと思います。

次のバリューカーブに貴社が乗るために
先ほどの例は、大量かつ高速のセンサーデータ、詳細な分析とリアルタイムの意思決定を使って性能を上げたものでした。まさにビッグデータのお話です。確かに、数十億ドル規模のビジネスではもっと多くのデータを収集していることでしょう。しかし上記の話のポイントは、目に見えない、大規模なイベントデータを分析している点にあります - チームは、従来の環境よりも40倍多くのデータを推定していたのにもかからわず、もっと興味深いことに意思決定が自動化していたということなのです。データでサングラスを氾濫させるのではなく、関連する判断とデータだけが投影されているのです。操舵手はデータを解釈する必要はなく、ただ意思決定ポイントに基づいて行動するだけでよいのです。
意思決定ポイントに従って振る舞うという考えを企業に当てはめてみると、ITがエンドユーザと共に変化を始めなければなりません。そうするためには、ビッグデータと呼ばれる流行に飛び乗る必要があります。以下の記述で流行への乗り方を説明します。
今日。貴社は現在のITとデータウェアハウスプラットフォームを利用して最善を尽くしています。つまり、ほとんどの企業では分析対象の統計データのアセットから全ての関連する情報を絞り出してきた、ということです。貴社は低価値のカーブの点に位置していて、プラトーの状態にあります。プラトーにある状態で追加投資をしても、維持されるだけで競合他社に対するアドバンテージやビジネス価値を生むことはありません。次の不連続なカーブに飛び移るためには、ビッグデータが課す課題を活用する方法を見つける必要があります。

インフラの観点から見ると、ビッグデータのプラットフォームを設計する必要があります。貴社が今後数年にわたって競争する必要がある場合、そのビッグデータプラットフォームは、ITインフラストラクチャの基盤になるのです。

ビッグデータプラットフォームの主要コンポーネントは以下の機能を持つ必要があります。
  • 高度な分析:高度で斬新な統計とデータマイニング機能を持つ、完全に並列で大規模かつ拡張可能なツールボックス
  • 高敏捷性:日々の業務に対する新しく奇抜な洞察をもたらす、エンドユーザドリブンでありながらもセキュアかつスケーラブルな環境において、テンポラリの分析環境を作成する機能を持つこと
  • 大規模な拡張性:過去に使っていないデータのポテンシャルを使いながら、分析やサンドボックスを未知の規模にまでスケールすることが可能であること
  • 低レイテンシ:運用、本番環境でこれらの高度な分析に基づいて瞬時に行動できること
行間を読めばビッグデータプラットフォームが業界で3つのホットなトピックに基づいていることがわかると思います。セキュリティ、クラウドコンピューティング、そしてビッグデータです。すべてが連動することで次世代のビッグデータコンピューティングプラットフォームを提供できるのです。

これからの数年にわたって、効率や敏捷性、クラウドを通じたサービスとしてのITを推し進める企業は、新構想やビッグデータとその分析を利用して売り上げ増加を生み出し、あらゆるデータを安全かつセキュアに保持することで、その業界でリーダーとなることでしょう。
Oracleは次世代ビッグデータプラットフォームをこれらの3つの柱(クラウド、セキュリティ、ビッグデータ)上に作成しています。あと数ヶ月の間(Oracle OpenWorldまで)には、Oracleの分析プラットフォームとリアルタイムビッグデータのためのインメモリコンピューティングの詳細をこのブログにご紹介できるでしょう。こうしたトピックに対して、少々事前に知っておいてほしいことがあります。まだ以下のエントリを読んでらっしゃらないようでしたら、是非読んでおいてください。
これらの古いエントリはデータベース内におけるMap-Reduce技術、一般的にクールかつ確実に何らかの形または方法でパイプラインを下って来ると思われる斬新なアプリケーションとHadoopとの連携方法への理解を助けてくれることでしょう。


原文はこちら。
http://blogs.oracle.com/datawarehousing/entry/big_data_achieve_the_impossible

0 件のコメント:

コメントを投稿