原文はこちら
Oracle Streaming Serviceに関する前回のポストでは、Oracle Streaming Serviceの持つKafka Connectとの組み合わせ機能を使ってAutonomous DBインスタンス上での更新内容を直接StreamにPublishする方法についてご紹介しました。このポストでは、前回と同じくらいすごいことをお見せします。それは何かというと、Streamの内容を直接Object Storageバケットに書き込む方法です。手順は前回のものと似ているところもあるんですが、いくつか明らかな違いもあります。今回は、Kafka ConnectのS3 Sink Connectorを使って目的を実現していきます。Oracle Object StorageはS3と完全互換のエンドポイントを持っているため、このS3 Sink Connectorを使って簡単にStreamのデータをOCIバケットに入れられちゃうんです。以下のチュートリアルを読めばやり方は全部わかるようになってますよ、ということで始めましょう!
S3 Sink Connectorのための準備
ユーザーのセットアップ
始める前に、あなたのマシンのどこかに、いくつかの必要なファイルを置くためのプロジェクトディレクトリを作っておくとよいでしょう。ここではそのディレクトリを
/projects/object-storage-demo
と参照することにしますが、あなたの実際のディレクトリで読み替えるようにしてください。
秘密鍵と適切なポリシーの用意の他に、認証トークンを付与した専用ユーザーが必要になります。これについてはこのポストで説明しているステップに従ってください。ユーザーが用意できたら、そのユーザーについて以下の手順でいくつか設定をいじっていきます。
秘密鍵の生成
Streamのユーザーのために秘密鍵の生成が必要になります。ここでの手順では、アクセスキーと、Kafka S3 Sink Connectorが必要とするS3互換認証のために使う秘密鍵が生成されます。用意したユーザーの詳細ベージに行って、サイドバーメニューから'Customer Secret Keys'をクリックし、そして'Generate Secret Key'をクリックしてください:
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/81de14bd947979e71009a7ecd05adc91/2019_12_20_13_19_16.png)
鍵に名前をつけて'Generate Secret Key'をクリック。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/ea87f6ab7310d72010a63d4288684ea2/oss_os_aws_compatible_key.png)
生成された鍵をコピーしてください。これがあなたのS3互換の秘密鍵の値になります。後で使うのでどこかに保存しておきましょう。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/a17fc5c2cdcec4b3f7021ad605637001/oss_os_aws_compatible_secret_key.png)
Closeをクリックいsて、次に'Access Key'の値をコピーしましょう。これも保存しておきましょう。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/feda7f5525af86930ef1f890e4f36599/oss_os_aws_compatible_access_key.png)
次に進む前に、
/projects/object-storage-demo/aws_credentials
のファイルを作って以下の内容を記載しておきます。Secret KeyとAccess Keyは実際のものに置き換えてください。ポリシーの修正
次に、専用ユーザー用に作成されたポリシーを、Object Storageにアクセスできるように修正していきます。以下のようにふたつのポリシーを追加してください:
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/4494329ece85b07d4bd15f0d78752c44/oss_os_object_storage_policy_statements.png)
依存モジュールのダウンロード
S3 Connectorを持ってこなければなりませんので、Confluentからダウンロードしてプロジェクトディレクトリの
/projects/object-storage-demo/confluentinc-kafka-connect-s3-5.3.2
にUnzipした中身を配置しましょう。Oracle Streamingのアセット準備
Stream PoolとStream、そしてConnect Configurationが必要になります。以下でそれぞれ作っていきます。コンソールのハンバーガーメニューから'Analytics' -> 'Streaming'を選択。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/d9df26f13901e6d31adeae56e47b476f/oss_os_streaming_burger.png)
Stream PoolとStreamの作成
Streamingのページから、'Stream Pools'を選択し、'Create Stream Pool'をクリック。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/213fd6950196331502f98a112a8f6061/oss_os_stream_pools_sidebar_and_btn.png)
Stream Poolに名前をつけて、'Create Stream Pool'をクリック。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/8d6b019d2c4e0e98e3b9eb16f8b08620/oss_os_creat_stream_pool.png)
Stream Poolがアクティブになったら、Stream Pool OCIDをコピーしてどこかに保存しておいてください。次に'View Kafka Connection Settings'ボタンをクリックします。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/bbe03fc9f82dcb3ac7766b9881ea9ec7/oss_os_stream_pool_connection_settings_btn.png)
Bootstrap Serverの値をコピーします。これもあとで使います。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/e9bcab2e8e143d14ca9ffd43a461c4be/oss_os_connection_settings_dialog.png)
Stream Poolの詳細ページで、'Create Stream'をクリック。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/836b15a61b805c9ce6f10d56e310f190/oss_os_stream_pool_details_create_stream_btn.png)
Streamに名前をつけて、'Create Stream'をクリック。ここで付けた名前もあとで使います。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/dc1fe832b499b38f7a72dde9c72170f7/oss_os_create_stream_2.png)
Connect Configurationの作成
次はサイドバーメニューの'Kafka Connect Configurations'をクリックし、'Create Kafka Connect Configuration'をクリックします。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/19ce268882e2d7c6a5075bcdc5903684/oss_os_connect_config_sidebar_and_btn.png)
名称を入力して、'Create Kafka Connect Configuration'をクリック。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/8396d440463dd7a977206156fa9ef82b/oss_os_connect_config_dialog.png)
Connect Configurationの詳細ページで、OCIDをコピーしてどこかに保存しておきます。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/fbdbb5e79ef3c3ca47819daee248a6a9/oss_os_connect_config_details.png)
Object Storageの準備
最終的にメッセージが格納されることになるバケットを作成しておく必要があります。コンソールのハンバーガーメニューからObject Storageに行きましょう。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/17ca2282155042c58ad2a11bb2d1f67b/oss_os_object_storage_burger_menu.png)
'Create Bucket'をクリックし、出てきたダイアログでバケットの名前を入力して作成しましょう。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/2512e48b2a14af0abf2d1993f1cba39d/oss_os_create_bucket.png)
これでKafka Connectの構成と起動の準備ができました。
Kafka Connectの構成と起動
ここまででKafka Connectを起動し、S3 Sink Connectorを作成してメッセージをObject StorageにPublishする準備ができました。ここではDevezium Connect Dockerイメージを使ってシンプルかつコンテナ化されたやり方を取りますが、公式のKafka Connect Dockerイメージを使ってもいいですし、バイナリ版を使ってもいいです。Dockerイメージを起動する前に、Connectを設定するためのプロパティファイルのセットアップが必要です。前述したステップで集めておいた情報が必要になるので手元に置いといてくださいね。また、Stream Poolから取ってきたStreamingのusername(SASL Connection Stringを参照)と認証トークンも必要です。
以下の内容で
/projects/object-storage-demo/connect-distributed.properties
のファイルを作成しましょう。<括弧>の部分は実際の値で置き換えてください。
前のステップで保存しておいたConnect ConfigurationのOCIDをあなたのシェルに環境変数としてセットしましょう。
それではDockerイメージを以下のように起動します:
Kafka Connectが起動したら、Connectorの設定を記述するJSONファイルを作りましょう。以下の内容で
/projects/object-storage-demo/connector-config.json
にファイルを作ってください。topic
と s3.bucket.name
および store.url
の値は適切に置き換えてください(URLの中のリージョン部分と、s3.regionの値も変更が必要かも)。Object Storageに生成されるファイルにひとつ以上のメッセー意jが書かれるようにしたいなら、 flush.size
の値も適切に更新しましょう。他のカスタマイズについてはS3 Sinkのドキュメントを参照ください。
では、REST APIでこの設定を
POST
してSource Connectorを作成しましょう:
すべてのConnectorの一覧の取得には
GET
リクエストしましょう。
Connectorを削除したければ
DELETE
リクエストです。インテグレーションを試してみる
ここまででインテグレーションを試せるようになっています。OCIコンソールのStreamの詳細ページに行って、'Produce Test Message'をクリックしてTopicにJSON文字列のメッセージをポストしてみましょう。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/ddb3ae4ccae571b9c79cae3e79060a38/oss_os_test_message.png)
Connect Dockerコンソールでいくつかアクションが表示されるでしょう。
バケットに移動してファイルが書き込まれているか見てみましょう。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/38c964eb44bd1d5b70100b049bd3bdba/oss_os_bucket_objects.png)
"Pre-Authenticated Request"を作成すると、ファイルをダウンロードして内容を見られるようになります。
![](https://cdn.app.compendium.com/uploads/user/e7c690e8-6ff9-102a-ac6d-e4aebca50425/f1047a3a-1d1c-46ba-9cdb-6fd5928d0a1c/Image/084d37fc6d5c4547995dc9b58ad0ecb9/2019_12_20_14_01_56.png)
まとめ
このポストではStream PoolとStreamおよびConnect Configurationを作成、設定し、これらのアセットを使ってStreamからObject Storageへとメッセージをファイルとしてパブリッシュしました。
0 件のコメント:
コメントを投稿