Reporting Engine:Warehouseデータ ソースの追加

Document created by RSA Information Design and Development on Feb 17, 2017Last modified by RSA Information Design and Development on Feb 17, 2017
Version 2Show Document
  • View in full screen mode
  

このトピックでは、次の手順について説明します。

  • WarehouseをReporting Engineにデータ ソースとして追加する
  • Warehouseデータ ソースをデフォルト ソースに設定する

前提条件

以下の項目を確認します。

  • HiveサーバがすべてのWarehouseノードで実行状態になっていることを確認します。Hiveサーバのステータスは次のコマンドを使用して確認できます。
    status hive2 (MapR deployments)
    service hive-server2 status (Pivotal HD deployments)
  • Warehouse導入環境にデータを書き込むようにWarehouse Connectorが構成されていることを確認します。
  • Kerberos認証がHiveServer2に対して有効になっている場合は、キータブ ファイルがReporting Engineホストの/home/rsasoc/rsa/soc/reporting-engine/conf/ディレクトリにコピーされていることを確認します。

    注:rsasocユーザーのロールにキータブ ファイルを読み取るための読み取り権限があることを確認します。

    また、Reporting Engineの[サービス]の[構成]ビューで[Kerberosキータブ ファイル]パラメーターのキータブ ファイルの場所を更新します(次の図を参照)。

  • デフォルトのKerberos構成ファイルは、Reporting Engineの/etc/kbr5.confにあります。Kerberosレルムなど、Kerberosに関連したパラメータの詳細を提供するよう、構成ファイルを変更できます。
  • PivotalノードとWarehouse Connectorのホスト名(または完全修飾ドメイン名)とIPアドレスがDNSサーバに追加されていることを確認します。DNSサーバが構成されていない場合は、PivotalノードとWarehouse Connectorのホスト名(または完全修飾ドメイン名)とIPアドレスを、Warehouse Connectorサービスがインストールされているホストの/etc/hostsファイルに追加します。

手順

Warehouseデータ ソースをReporting Engineに関連づけるには、次のステップを実行します。

  1. Security Analyticsメニューで、[Administration]>サービス]を選択します。
  2. サービス]グリッドで、Reporting Engineサービスを選択します。
  3. >[表示]>[構成]をクリックします。
  4. ソース]タブをクリックします。

    Reporting Engineの[ソース]タブが開いた状態で、[サービス]の[構成]ビューが表示されます。

  5. をクリックして[新しいサービス]を選択します。

    新しいサービス]ダイアログが表示されます。

  6. ソース タイプ]ドロップダウン メニューで、[Warehouse]を選択します。
  7. Warehouseソース]ドロップダウン メニューで、Warehouseデータ ソースを選択します。 
  8. 名前]フィールドに、Warehouseデータ ソースの名前を入力します。
  9. HDFSパス]フィールドに、Warehouse Connectorがデータを書き込む場所となるHDFSのルート パスを入力します。

    例:
    Warehouse ConnectorにNFSマウントを実行したときに構成したHDFSのローカル マウント ポイントが/sawである場合の例を示します。詳細については、「RSA Analytics Warehouse(MapR)構成ガイド」の「Warehouse ConnectorへのWarehouseのマウント」を参照してください。

    /saw内にIonsaw01という名前のディレクトリを作成し、対応するローカル マウント パスを/saw/Ionsaw01と指定している場合は、対応するHDFSルート パスが/Ionsaw01になります。

    /sawマウント ポイントでは、「/」がHDFSのルート パスになります。Warehouse Connectorは、HDFSの/Ionsaw01にデータを書き込みます。このパスに使用可能なデータがない場合、次のエラーが表示されます。

    “No data available. Check HDFS path”

    テスト接続を実行する前に、/lonsaw01/rsasoc/v1/sessions/metaにメタ データのavroファイルが存在することを確認してください。

  10. 高度な設定を使用するために[詳細設定]チェックボックスをオンにし、HiveServer2に接続するための完全なJDBC URLを[データベースURL]に入力します。

    例:
    KerberosがHiveで有効になっている場合のJDBC URLは、次のようになります。

    jdbc:hive2://<host>:<port>/<db>;principal=<Kerberos serverprincipal>

    SSLがHiveで有効になっている場合のJDBC URLは、次のようになります。

    jdbc:hive2://<host>:<port>/<db>;ssl=true;sslTrustStore=<trust_store_path>;trustStorePassword=<trust_store_password>

    HIVEサーバ クライアントの詳細については、https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clientsを参照してください。

  11. 高度な設定を使用していない場合は、[ホスト]と[ポート]に値を入力します。

    • ホスト]フィールドに、HiveServer2が実行されているホストのIPアドレスを入力します。

      注:クラスタ内のすべてのノードでHiveServer2が実行されている場合にのみ、Maprの仮想IPアドレスを使用できます。

    • ポート]フィールドに、Warehouseデータ ソースのHiveServer2ポートを入力します。デフォルトでは、ポート番号は10000です。
  12. ユーザー名]と[パスワード]フィールドに、HiveServer2へのアクセスに使用するJDBC認証情報を入力します。

    注:Active Directoryを使用して、LDAPモードの認証を使用することもできます。LDAP認証モードを有効化する手順については、「LDAP認証の有効化」を参照してください。

  13. Warehouse Analyticsレポートを実行するには、ステップ3:Reporting Engineのデータ ソースの構成
  14. Kerberos認証を有効化します。ステップ3:Reporting Engineのデータ ソースの構成
  15. 追加したWarehouseデータ ソースをReporting Engineのデフォルト ソースに設定する場合は、追加したWarehouseデータ ソースを選択して、をクリックします。

結果

Security Analyticsにより、このReporting Engineに対するレポートおよびアラートに使用できるデータ ソースとしてWarehouseが追加されます。

You are here
Table of Contents > Reporting Engineの構成 > ステップ3:Reporting Engineのデータ ソースの構成 > Reporting EngineへのWarehouseデータ ソースの追加

Attachments

    Outcomes