ホーム
分析
BigQuality
IBM BigQualityは、Apache Hadoopクラスターのデータ・ノード上で実行され、データのプロファイリング、クレンジング、モニタリング用の豊富な機能一式を提供するデータ品質ソリューションです。データを管理・監視し、Hadoopデータにデータ品質ルールを適用することで、情報品質を確保し、戦略的なビジネスの変化に迅速に適応できるようにします。
BigQualityおよびIBM BigIntegrateは、Hadoopクラスター上で実行するために特別に構築されたIBM InfoSphere Information Server製品ファミリーに属し、Hadoopデータのエンドツーエンドでの統合機能とガバナンス機能を備えています。
使いやすさを考慮して設計されたグラフィカル・インターフェースは、企業全体で情報を迅速に変換するのに役立ちます。IBM BigIntegrateと併用すると、機能が充実したアプリケーション・パレットになります。その一例が、従来の主要データベースとプラットフォームを含む幅広いデータ・ソースへのコネクターで、分散システム、IBM z/OS、ファイル・タイプ・システム、Oracle、Salesforce.com、SAP、Hadoopなどのデータ・ソースを単純なドラッグ・アンド・ドロップ機能を通じて利用できるように設計されています。
IBM BigQualityは、パフォーマンスの向上に役立つ拡張性の高いデータ品質ソリューションです。特定のインターフェースを通じて共通データ・ソースにネイティブ接続可能なうえ、IBM BigIntegrateのサポートが標準装備されているため簡単に実現できます。内蔵されている何百もの変換機能により、開発タイムラインを加速できます。すぐに使える強力なデータ品質と統合機能を使用および再利用することで、カスタム・コーディングの所要時間を短縮します。
包括的でカスタマイズ可能なデータ・クレンジング機能をバッチおよびリアルタイムで使用して、ソース・データの調査とデータ分類を自動化します。この自動化によりデータ・スチュワード担当チームは、データ資産を効果的に管理して、信頼できるデータでビジネス目標に迅速に対応できるようになります。自動化機能は必要に応じて拡張でき、Hadoopに送信される膨大な量のデータの処理を改善できます。
データ・プロバイダーと消費者のコミュニティーが拡大するにつれ、データの機密性や、急増するデータ量に規制要件義務を適用する方法に対する不透明さも増大します。IBM BigQualityは、Hadoopを含むさまざまなデータ・ソースを調査し、事前定義されたポリシーに従ってデータの場所と使用法を適切に維持するのに役立ちます。また、カスタマイズ可能なビジネス・ルールに従ってレコードを標準化し、照合するのにも役立ちます。
IBM BigIntegrateのパワーをデプロイに加えることで、ビッグデータと分析機能をはじめとするフル機能を搭載したあらゆる組織向けの統合データソリューションができあがります。従来のデータ・ウェアハウス・ツールと、Hadoop、ストリーム・コンピューティング、データ探索、高度な分析、エンタープライズ統合、IBM Watsonコグニティブ・コンピューティングなどの最新のビッグデータ技法とテクノロジーが結合します。
IBM BigIntegrateとの併用により、あらゆるHadoopデータの統合と変換が可能になります。ビッグデータに関する取り組みに既存と新規の両データ・ソースを活用できます。スケーラブルなエンタープライズ・クラスのモニタリングやクレンジングなどの豊富で堅牢なデータ品質機能によりデータを強化します。Hadoopデータを信頼できる管理された情報に継続的に変換します。