データハブREST拡張による読み込み

データハブ は任意のRESTクライアントで使用できるREST クライアントAPI拡張を提供しています。

始める前に

以下が必要です。

  • RESTクライアント
  • MarkLogicデータハブプロジェクト

手順

  1. フローを作成します。
  2. 読み込みステップを作成します。
  3. REST呼び出しを使って読み込みステップを実行します。
    POST /v1/documents?transform=mlRunIngest&trans:flow-name=YourFlowName&trans:step=1&trans:job-id=YourJobID&trans:options={}
    flow-name
    (オプション)フローの名前です。デフォルトはdefault-ingestionです。
    ステップ
    実行する読み込みステップのシーケンス番号。default-ingestionフロー名を使用している場合、1に設定します。
    job-id
    (オプション) このフローの実行に対応付けられた一意のジョブID。このオプションは、フローの実行がより大きなプロセスの一部である場合に使用できます(例えば、NiFiが独自のジョブ/プロセスIDによりオーケストレーションしたプロセスなど)。既存のデータハブのジョブIDと同じにすることはできません。指定していない場合は、一意のデータハブジョブIDが割り当てられます。
    options
    (オプション)追加オプションを含むJSONオブジェクト。

    エンベロープのヘッダにCSVファイル名を追加する場合は、JSONオブジェクトに"inputFileType" : "csv"を含めます。

    ランタイム時のステッププロパティの値を上書きする場合は、JSONオブジェクトに"propertyname" : "valueToUse"を含めます。

    ランタイム時に上書き可能なステッププロパティの値は以下のようになります。

    • outputFormattextjsonxmlbinaryの値を持つ)。
    • provenanceGranularityLevelcoarsefineoffの値を持つ)。
    • disableJobOutputtrueあるいはfalseの値を持つ)。

    詳細は、を参照してください データハブ RESTクライアントAPIに対するデータハブ拡張

次のタスク

QuickStartあるいはGradleを使って、別のフローを作成します。その後、読み込んだデータを強化するために、マッピングやマスタリング(統合あるいは分割)ステップを追加します。