ビデオ: ビッグデータビジュアライザー [地域経済ビッグデータビジュアライゼーションのプロトタイピングシステム] (15G150634) 2024
大きなデータワークフローを理解するには、プロセスが何であるか、データ集約的な環境でワークフローにどのように関係するかを理解する必要があります。プロセスは、意思決定に役立ち、企業や組織での成果の標準化に役立つハイレベルのエンドツーエンドの構造として設計される傾向があります。対照的に、ワークフローはタスク指向であり、しばしばプロセスよりも特定のデータを必要とする。プロセスは、プロセスの全体的な目的に関連する1つ以上のワークフローで構成されます。
<! - 1 - >
多くの点で、大きなデータワークフローは標準的なワークフローと似ています。実際、どのワークフローでも、タスクを達成するためには、さまざまなフェーズでデータが必要です。医療状況におけるワークフローを検討してください。1つの基本的なワークフローは、「血液を採取する」プロセスです。 「血液を採取することは、診断プロセス全体を完了するために必要な作業です。何かが起きて血液が採取されなかった場合、またはその血液検査のデータが失われた場合、それは全体の活動の真実性または真実性に直接的な影響を与えます。
<! - 2 - >
大きなデータソースに依存するワークフローを導入するとどうなりますか?既存のワークフローを使用することは可能かもしれませんが、標準ソースに大きなデータソースを置き換えるだけで、プロセスやワークフローが正しく機能するとはみなせません。これは、標準的なデータ処理方法では、ビッグデータの複雑さを処理するための処理アプローチやパフォーマンスがないため、機能しない可能性があります。<! - 3 - >
ヘルスケアの例は、血液が患者から引き出された後に分析を行う必要性に焦点を当てています。標準的なデータワークフローでは、血液が入力された後、医療従事者の要件に基づいて特定の化学検査が行われます。このワークフローは、特定のバイオマーカーまたは遺伝子変異の同定に必要な検査を理解することはほとんどありません。バイオマーカーや突然変異について大きなデータソースを提供した場合、ワークフローは失敗します。大きなデータを意識するのではなく、大きなデータをサポートするために変更または書き直す必要があります。
ワークフローとビッグデータの効果を理解するためのベストプラクティスは、以下を実行することです。
使用する必要のある大きなデータソースを特定します。
-
大きなデータ型をワークフローデータ型にマップします。
-
ワークフローをサポートするための処理速度とストレージへのアクセス権があることを確認します。
-
データタイプに最も適したデータストアを選択します。
-
既存のワークフローを変更して大きなデータに対応するか、新しい大きなデータワークフローを作成します。
-
大規模なデータワークフローを作成した後、分析を圧倒したり汚染したりすることがないように、これらを微調整する必要があります。たとえば、多くのビッグデータソースには、それらのソースの要素に関する明確なデータ定義とメタデータは含まれていません。場合によっては、これらのデータソースが消去されていないことがあります。あなたはあなたが使用しようとしているソースについて正しい知識を持っていることを確認する必要があります。