ビデオ: Why Black Holes Could Delete The Universe – The Information Paradox 2024
ビッグデータ分析についてのニュアンスがあります。それは本当に小さなデータです。これは混乱し、全体の前提に反して見えるかもしれませんが、小さなデータは大きなデータ分析の結果です。これは新しい概念ではなく、長時間データ分析を行ってきた人にとっては馴染みのないものでもありません。全体の作業スペースは大きくなりますが、答えは「小さい」のどこかにあります。 "
従来のデータ分析は、顧客情報、製品情報、トランザクション、テレメトリデータなどで満たされたデータベースから始まりました。それでも効率的に分析するにはあまりにも多くのデータが利用できました。システム、ネットワーク、およびソフトウェアには、規模に対応するパフォーマンスや能力はありませんでした。業界として、欠点はより小さなデータセットを作成することによって対処されました。
<! - 1 - >これらの小さなデータセットは依然としてかなり実体的であり、他の欠点はすぐに発見された。最も目立つのは、データと作業コンテキストの不一致です。あなたがAccounts Payableで働いていたならば、仕事をするために大量の無関係なデータを見なければなりませんでした。繰り返しになりますが、業界は、小規模で文脈に関連したデータセットを作成して対応しました。
これは、データベースからデータ・ウェアハウスからデータ・マートへの移行として認識されることがあります。多くの場合、倉庫とマートのデータは任意のパラメータまたは実験パラメータで選択され、多くの試行錯誤が行われました。容量削減が計算上の事実に基づいていなかったため、企業は必要としていた、あるいは可能な視点を得られませんでした。
<! - 2 - >すべてのボリューム、速度、および品種を含む大きなデータを入力すると、問題が残っているか、または悪化している可能性があります。インフラストラクチャの欠点に対処し、膨大な量の追加データを保存して処理することができますが、大きなデータを管理するためには特に新しいテクノロジが必要でした。
外見にもかかわらず、これはすばらしいことです。今日と将来、企業は想像以上に多くのデータを持ち、キャプチャして管理する手段を持っています。これまで以上に必要なことは、適時に 正しい データを分析して意思決定と行動をとる能力です。
<! - 3 - >企業はデータセットを「戦闘トリム」に縮小しますが、計算で行うこともできます。大きなデータを処理して小さなデータに変換するので、理解しやすくなります。それはより正確で、はるかに大きな出発点から導出されたため、より文脈的に関連しています。