Reporting Engine:ステップ3:データ ソースの構成

Document created by RSA Information Design and Development on Feb 17, 2017Last modified by RSA Information Design and Development on Feb 17, 2017
Version 2Show Document
  • View in full screen mode
  

このトピックでは、以下の項目について説明します。

  • Reporting Engineにデータ ソースを追加する
  • データ ソースをデフォルト ソースに設定

Reporting Engineにデータ ソースを追加する

このセクションでは、次の手順について説明します。

  • 基本的な設定
  • ジョブの有効化
  • Kerberos認証の有効化

基本的な設定

データ ソースをReporting Engineに関連づけるには、次の手順を実行します。

  1. Security Analyticsメニューで、[Administration]>[サービス]を選択します。
  2. サービス]グリッドで、Reporting Engineサービスを選択します。
  3. >[表示]>[構成]をクリックします。

    Reporting Engineサービスの[構成]ビューが表示されます。

  4. ソース]タブで、>[新しいサービス]をクリックします。

    新しいサービス]ダイアログが表示されます。

  5. 各フィールドで、以下のように入力します。

    1. ソース タイプ]ドロップダウン メニューで、[Warehouse]を選択します。
    2. Warehouseソース]ドロップダウン メニューで、Warehouseデータ ソースを選択します。 
    3. 名前]フィールドに、Warehouseデータ ソースの名前を入力します。

      注:データ ソースの追加時は、&、'、"、<、>などの特殊文字を使用しないでください。[名前]フィールドに特殊文字を使用すると、Reporting Engineの更新に失敗します。

    4. HDFSパス]フィールドに、Warehouse Connectorがデータを書き込む場所となるHDFSのルート パスを入力します。

      例:
      Warehouse ConnectorにNFSマウントを実行したときに構成したHDFSのローカル マウント ポイントが/sawである場合の例を示します。詳細については、「RSA Analytics Warehouse(MapR)構成ガイド」の「Warehouse ConnectorへのWarehouseのマウント」を参照してください。

      /saw内にIonsaw01という名前のディレクトリを作成し、対応するローカル マウント パスを/saw/Ionsaw01と指定している場合は、対応するHDFSルート パスが/Ionsaw01になります。

      /sawマウント ポイントでは、「/」がHDFSのルート パスになります。Warehouse Connectorは、HDFSの/Ionsaw01にデータを書き込みます。このパスに使用可能なデータがない場合、次のエラーが表示されます。

      “No data available. Check HDFS path”

      テスト接続を実行する前に、/lonsaw01/rsasoc/v1/sessions/metaにメタ データのavroファイルが存在することを確認してください。

    5. 高度な設定を使用するために[詳細設定]チェックボックスをオンにし、HiveServer2に接続するための完全なJDBC URLを[データベースURL]に入力します。

      例:
      KerberosがHiveで有効になっている場合のJDBC URLは、次のようになります。

      jdbc:hive2://<host>:<port>/<db>;principal=<Kerberos serverprincipal>

      SSLがHiveで有効になっている場合のJDBC URLは、次のようになります。

      jdbc:hive2://<host>:<port>/<db>;ssl=true;sslTrustStore=<trust_store_path>;trustStorePassword=<trust_store_password>

      HIVEサーバ クライアントの詳細については、https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clientsを参照してください。

    6. 高度な設定を使用していない場合は、[ホスト]と[ポート]に値を入力します。

      • ホスト]フィールドに、HiveServer2が実行されているホストのIPアドレスを入力します。

        注:クラスタ内のすべてのノードでHiveServer2が実行されている場合にのみ、Maprの仮想IPアドレスを使用できます。

      • ポート]フィールドに、Warehouseデータ ソースのHiveServer2ポートを入力します。デフォルトでは、ポート番号は10000です。
    7. ユーザー名]と[パスワード]フィールドに、HiveServer2へのアクセスに使用するJDBC認証情報を入力します。

      注:Active Directoryを使用して、LDAPモードの認証を使用することもできます。LDAP認証モードを有効化する手順については、「LDAP認証の有効化」を参照してください。

Warehouse Analyticsレポートを実行する場合は、次のセクション「ジョブの有効化」に進みます。Warehouse Analyticsレポートを実行しない場合は、「Kerberos認証の有効化」に進みます。

ジョブの有効化

Warehouse Analyticsレポートを実行するには、この手順を実行します。

  1. ジョブの有効化]チェックボックスを選択します。

  2. 各フィールドで、以下のように入力します。

    1. HDFSタイプ]ドロップダウン メニューで、HDFSのタイプを選択します。

      • Pivotal HDFSタイプを選択する場合は、次の情報を入力します。

                                                           
        フィールド説明

        HDFSユーザー名

        Reporting EngineがPivotalに接続するときに使用するユーザー名を入力します。標準的なPivotal DCAクラスタの場合、「gpadmin」になります。
        HDFS名HDFSにアクセスするためのURLを入力します。たとえば、「hdfs://hdm1.gphd.local:8020」と入力します。

        HBase Zookeeperクォーラム

        ZooKeeperサーバを実行しているホスト名のリストをコンマ区切りで入力します。
        HBase ZookeeperポートZooKeeperサーバのポート番号を入力します。デフォルト ポートは2181です。

        入力パスのプレフィックス

        Warehouse Connectorの出力パス(/sftp/rsasoc/v1/sessions/data/<year>/<month>/<date>/<hour>)をyearディレクトリの前まで入力します。

        たとえば、「/sftp/rsasoc/v1/sessions/data/」と指定します。

        出力パスのプレフィックスデータ サイエンス ジョブの結果が格納されるHDFS内の場所を入力します。

        Yarnホスト名

        DCAクラスタ内のHadoop YARNリソース マネージャ ホスト名を入力します。

        たとえば、hdm3.gphd.localなどです

        ジョブ履歴サーバ

        DCAクラスタのHadoopジョブ履歴サーバのアドレスを入力します。

        たとえば、hdm3.gphd.local:10020などです

        Yarnステージング ディレクトリ

        DCAクラスタ内のYARNのステージング ディレクトリを入力します。

        たとえば/userなどです。

        Socksプロキシ

        SOCKSプロキシのアドレスを入力します。標準のDCAクラスタを使用している場合、大半のHadoopサービスは、Reporting Engineからアクセスできないローカルのプライベート ネットワークで実行されます。次に、DCAクラスタでsocksプロキシを実行し、クラスタ外部からのアクセスを許可する必要があります。

        たとえば、mdw.netwitness.local:1080などです。

      • MapR HDFSタイプを選択する場合は、次の情報を入力します。

                                                       
        フィールド説明
        MapRホスト名

        任意のMapR WarehouseホストのパブリックIPアドレスを入力できます。

        MapRホスト ユーザークラスタに対してmap-reduceジョブを実行するためのアクセス権を持つ、特定のホストにおけるUNIXユーザーの名前を入力します。デフォルト値は「mapr」です。
        MapRホスト パスワード(オプション)パスワードレス認証を構成するには、/home/rsasoc/.ssh/id_rsa.pubから「rsasoc」ユーザーのパブリック キーをWarehouseホストの/home/mapr/.ssh/authorized_keysにある「authorized_keys」ファイルにコピーします(「mapr」はリモートのUNIXユーザーです)。
        MapRホスト作業ディレクトリ

        特定のUNIXユーザー(たとえば「mapr」)が書き込みアクセスできるパスを入力します。

        注:作業ディレクトリは、Reporting EngineがWarehouse Analytics jarファイルを指定されたホストにコピーし、ジョブを開始するために使用されます。システムの一時領域がフルになるのを避けるために「/tmp」を使用しないでください。指定された作業ディレクトリはReporting Engineによってリモートから管理されます。

        HDFS名HDFSにアクセスするためのURLを入力します。たとえば、特定のクラスタにアクセスするには、「maprfs:/mapr/<cluster-name>」と入力します。
        HBase ZookeeperポートZooKeeperサーバのポート番号を入力します。デフォルトのポートは5181です。

        入力パスのプレフィックス

        出力パス(/rsasoc/v1/sessions/data/<year>/<month>/<date>/<hour>)をyearディレクトリの前まで入力します。

        たとえば、「/rsasoc/v1/sessions/data/」と指定します。

        入力ファイル名avroファイルのファイル名フィルタを入力します。たとえば、sessions-warehouseconnectorなどです。
        出力パスのプレフィックスデータ サイエンス ジョブの結果が格納されるHDFS内の場所を入力します。
    2. HDFSタイプに従ってMapReduceフレームワークを選択します。

      注:MapR HDFSタイプの場合は、MapReduceフレームワークを従来型として選択します。Pivotal HDFSタイプの場合は、MapReduceフレームワークをYarnとして選択します。

次に、Kerberos認証を有効にします。

Kerberos認証の有効化

  1. WarehouseにKerberos対応のHiveサーバがある場合は、[Kerberos認証]チェックボックスを選択します。

  2. 各フィールドで、以下のように入力します。

                           
    フィールド説明

    サーバ プリンシパル

    KerberosKDC(Key Distribution Center)サーバでの認証にHiveサーバによって使用されるプリンシパルを入力します。

    ユーザー プリンシパルHiveサーバへの接続の際にKDCサーバに対して認証するためにHive JDBCクライアントが使用するプリンシパルを入力します。たとえば、「gpadmin@EXAMPLE.COM」と入力します。

    Kerberosキータブ ファイル

    以下のHiveの[構成]パネルで構成されているKerberosキータブ ファイルの場所を表示します: Reporting Engine:[全般]タブ.

    注:Reporting Engineでは、同一のKerberos認証情報(ユーザー プリンシパルやキータブ ファイルなど)で構成されたデータ ソースのみがサポートされます。

  3. 接続のテスト]をクリックし、入力した値で接続をテストします。
  4. Saveをクリックします。

    追加したWarehouseデータ ソースがReporting Engineの[ソース]タブに表示されます。

  5.  >[使用可能なサービス]をクリックします。

    [使用可能なサービス]ダイアログ ボックスが表示されます。

  6. [使用可能なサービス]ダイアログ ボックスで、データ ソースとしてReporting Engineに追加するサービスを選択し、[OK]をクリックします。

    Security Analyticsにより、このReporting Engineに対するレポートおよびアラートに使用できるデータ ソースとしてこれが追加されます。

    注:このステップは、Untrustedモデルにのみ関係します。

データ ソースをデフォルト ソースに設定

特定のデータ ソースをデフォルト ソースに指定するには、次の手順を実行します。

  1. Security Analyticsメニューで、[Dashboard]>[Administration]>[サービス]を選択します。
  2. サービス]グリッドで、Reporting Engineサービスを選択します。
  3. >[表示]>[構成]を選択します。

    Reporting Engineの[サービス]の[構成]ビューが表示されます。

  4. ソース]タブを選択します。

    Reporting Engineの[ソース]タブが開いた状態で、[サービス]の[構成]ビューが表示されます。

  5. デフォルト ソースに指定するソースを選択します(たとえばBroker)。
  6. デフォルトの設定]チェックボックスをオンにします。

    このReporting Engineに対するレポートとアラートを作成する場合は、Security Analyticsはこのデータ ソースをデフォルトとして使用します。

次のステップ 

You are here
Table of Contents > Reporting Engineの構成 > ステップ3:Reporting Engineのデータ ソースの構成

Attachments

    Outcomes