SageMakerの組み込みアルゴリズムで作成したモデルのデプロイと推論を、ローカルのJupyter notebookから実行

はじめに

今回はSageMakerの組み込みアルゴリズムで作成したモデルのデプロイ、推論をローカルのJupyter notebook から実行したので、その内容を掲載します。
※今回私は ObjectDetection を利用したモデルで、デプロイ、推論を行います。

前提

S3 上に SageMaker の組み込みアルゴリズムで作成したモデルがある。

モデルのデプロイ

まず、aws 上のノートブックでで利用している boto3 と sagemaker をインストールします。

IAMロールの取得

SageMaker と S3 へのアクセスを許可するロール名を入力する。

ロールは以下のコードで一覧表示できます。

モデルをデプロイ

デプロイ自体はSageMaker上のノートブックとコードは変わりません。
model_data : 先ほどモデルを保存したパス
image : 推論時に利用する Docker イメージ名
Docker イメージ名はこちらから参照してください。

実行結果
– の後に ! がついたら、モデルのデプロイ完了です。

推論

まず、作成したエンドポイント名を確認します。

エンドポイント名を確認したら、推論を行います。

エンドポイントの削除

エンドポイントは時間単位で課金が発生するので、使い終わったら削除しておきましょう。

最後に

今回は、ローカルのJupyter notebook からモデルのデプロイと、推論を行いました。
SageMaker 上で同じことをしたい、という方はこちらの記事で紹介していますので、参考にしてください。

 

SageMakerの導入ならナレコムにおまかせください。

日本のAPNコンサルティングパートナーとしては国内初である、Machine Learning コンピテンシー認定のナレコムが導入から活用方法までサポートします。お気軽にご相談ください。

ソリューションページはこちら

 

 

この記事を書いた人

aws-recipe-user