AWS SDK for JavaScript v3 で S3 からオブジェクトを取得するには
昨年 12 月に AWS SDK for JavaScript v3 が GA された。1 2
少し使ってみたところ、S3 からオブジェクトを取得する際に v2 と異なる書き方をしなければならなかったのでメモしておく。3
なお、AWS が TypeScript で SDK を実装したと アピール しているので、この記事も TypeScript で書くことにする。
前提
- SDK v3
@aws-sdk/client-s3
3.8.0
- SDK v2
2.858.0
- node.js
14.15.5
- TypeScript
4.2.3
インストール
まずは、インストールから。
v2
v2 では、SDK 全体をインストールする必要があった。
npm i aws-sdk
import * as AWS from 'aws-sdk';
const s3 = new AWS.S3({
apiVersion: '2006-03-01',
});
import
文は、以下のようにも書くことができる。こうすると、webpack で SDK の必要な部分のみをバンドルすることができ、バンドルサイズを削減できるらしい。
import S3 from 'aws-sdk/clients/S3';
const s3 = new S3({
apiVersion: '2006-03-01',
});
v3
一方、v3 では、インストールの時点から、必要な部分だけをインストールできるようになった。
npm i @aws-sdk/client-s3
import { S3Client } from '@aws-sdk/client-s3';
const s3 = new S3Client({
apiVersion: '2006-03-01',
});
S3
S3 からオブジェクト(例:テキストファイル)を取得し、その中身を出力するプログラムを書いてみる。
なお、 LocalStack 上に作った example-bucket
の中に test.txt
が保存されている前提である。
v2
v2 で書くと、こうなる。
import S3 from 'aws-sdk/clients/S3';
const s3 = new S3({
apiVersion: '2006-03-01',
endpoint: 'http://localhost:4566',
s3ForcePathStyle: true,
});
handler()
.then((result) => {
console.log(result);
console.log('Completed');
})
.catch((error) => console.error(error));
async function handler(): Promise<string> {
const { Body } = await s3
.getObject({
Bucket: 'example-bucket',
Key: 'test.txt',
})
.promise();
if (Body === undefined) {
throw new Error('Invalid Body');
}
return Body.toString();
}
実行結果は、以下のようになる。
# test.txt の中身
TEST FILE
Completed
v3
続いて、v3 で同様の処理を書いてみる。
NG
あとで書くように、v3 ではメソッドの呼び出し方法が変わっているが、v2 の呼び出し方法もサポートしている。一旦、ここでは v2 スタイルで書いてみる。
// import 文が変わった。
import { S3 } from '@aws-sdk/client-s3';
const s3 = new S3({
apiVersion: '2006-03-01',
endpoint: 'http://localhost:4566',
forcePathStyle: true,
});
handler()
.then((result) => {
console.log(result);
console.log('Completed');
})
.catch((error) => console.error(error));
async function handler(): Promise<string> {
// promise() は要らない。
const { Body } = await s3.getObject({
Bucket: 'example-bucket',
Key: 'test.txt',
});
if (Body === undefined) {
throw new Error('Invalid Body');
}
return Body.toString();
}
実行結果は、以下のようになる。
# test.txt の中身が出力されない!
[object Object]
Completed
これは一体どうしたことだろうか?
OK (ver.1)
以下のように書くと、v3 でも、S3 からオブジェクトを取得し、その中身を出力することができる。
なお、この方法は SDK の Issue に掲載されている。
import { S3 } from '@aws-sdk/client-s3';
import { Readable } from 'stream';
const s3 = new S3({
apiVersion: '2006-03-01',
endpoint: 'http://localhost:4566',
forcePathStyle: true,
});
handler()
.then((result) => {
console.log(result);
console.log('Completed');
})
.catch((error) => {
console.error(error);
});
async function handler(): Promise<string> {
const { Body } = await s3.getObject({
Bucket: 'example-bucket',
Key: 'test.txt',
});
if (!(Body instanceof Readable)) {
throw new Error('Invalid S3 Body');
}
// ???
return new Promise((resolve, reject) => {
const chunks: Buffer[] = [];
Body.on('data', (chunk) => chunks.push(chunk));
Body.on('error', (err) => reject(err));
Body.on('end', () => resolve(Buffer.concat(chunks).toString()));
});
}
問題は、以下の部分である。
return new Promise((resolve, reject) => {
const chunks: Buffer[] = [];
Body.on('data', (chunk) => chunks.push(chunk));
Body.on('error', (err) => reject(err));
Body.on('end', () => resolve(Buffer.concat(chunks).toString()));
});
ここでは Node.js の Stream を使っている。 getObject()
が返す Body
は、 Readable Stream である。
Readable Stream では、データは以下のように読み込まれる。
- 送信元からデータを取得する
- データを内部バッファに貯める
- 内部バッファから一部を取り出す
- データの一部が利用できるようになったので
data
イベントが発生する - 全てのデータが利用できるようになるまで
data
イベントが発生し続ける - 全てのデータが利用できるようになると
end
イベントが発生する - エラーが発生した場合は
error
イベントが発生する。
上記をもとに、処理を振り返ると、こうなる。
Body.on('data', (chunk) => chunks.push(chunk));
まず、データの一部が利用できるようになるたびに、 data
イベントが発生する。その際、コールバック関数の引数として、利用できるようになった部分のデータが渡されるので、配列に貯めていく。
なお、データは Buffer オブジェクトとして渡される。 Buffer
クラスは Uint8Array のサブクラスで、バイナリを扱うためのクラスである。
Body.on('end', () => resolve(Buffer.concat(chunks).toString()));
全てのデータが利用できるようになると、 end
イベントが発生する。 Buffer
オブジェクトの配列を Buffer.concat()
でまとめて、1 つの Buffer
オブジェクトを生成する。そして、 toString()
で文字列へ変換している。
OK (ver.2)
先程の例では Node.js の Stream を使った。
しかし、イベントハンドラを 3 つ書いたり、全てのデータが利用できるようになるのを待つために Promise を使ったりするのは、かなり面倒である。
そこで、 for await…of 文を使って、書き直してみる。
import { GetObjectCommand, S3Client } from '@aws-sdk/client-s3';
import { Readable } from 'stream';
const s3 = new S3Client({
apiVersion: '2006-03-01',
endpoint: 'http://localhost:4566',
forcePathStyle: true,
});
handler()
.then((result) => {
console.log(result);
console.log('Completed');
})
.catch((error) => console.error(error));
async function handler(): Promise<string> {
const { Body } = await s3.send(
new GetObjectCommand({
Bucket: 'example-bucket',
Key: 'test.txt',
}),
);
if (!(Body instanceof Readable)) {
throw new Error('Invalid S3 Body');
}
const chunks: Buffer[] = [];
for await (const chunk of Body) {
chunks.push(chunk);
}
return Buffer.concat(chunks).toString();
}
for await...of
文を使うと、Stream の反復処理を行うことができるので、イベントハンドラも Promise も書く必要が無くなる。
また、v2 スタイルで以下のように書いてきたが、
const { Body } = await s3.getObject({
Bucket: 'example-bucket',
Key: 'test.txt',
});
v3 ではコマンドを送るスタイルになった。
const { Body } = await s3.send(
new GetObjectCommand({
Bucket: 'example-bucket',
Key: 'test.txt',
}),
);
参考
ただし、GA されたとは思えないほど、日本語でも英語でも情報が少ない。一番情報があるのは SDK の Issues だと思う。 ↩︎
現時点では Lambda の 実行環境 は v2 のままである。Lambda で v3 を使うには webpack などでバンドルするか、Lambda Layers を使うことになると思う。正直、そこまでして使いたくなるほどの魅力的な新機能があるわけでもない… ↩︎
他にも DynamoDB の
DocumentClient
が無くなりmarshall()
やunmarshall()
を使わなければならなかった。これはいずれ書くかもしれないし、書かないかもしれない。 ↩︎