AWS Redshift Query editor試してみた

AWS Redshift Query editor

AWS RedshiftのQuery editorはコンソール上から作成済みのredshiftに対してクエリを直接実行できるサービスです。

JDBC/ODBCクライアントを利用せずともクエリを実行でき、その場で実行結果を確認、結果をファイルとして取得することが可能です。
また、クエリを保存しておく機能もあり、クエリの再利用が可能です。

2019/02/25現在、ノードタイプがdc1.8xlarge, dc2.large, dc2.8xlarge, ds2.8xlargeのものに限り利用することができます。

クラスターの準備

今回はQuery editorで対応しているノードタイプの中で一番小さいdc2.largeを選択しました。

Query editorの準備

Query editorへ移動し先程作成したクラスター名とDB名、ユーザー、パスワードを入力します。
これだけで準備は完了です。

Query editorの使用

Query editorはデータベース情報のフィールド、クエリ編集のフィールド、クエリ実行結果のフィールドで構成されています。
以下はテーブルの一覧取得を試した結果となります。
「Download CSV」からクエリの実行結果をCSVファイルとして取得できます。
「View execution」からは各ステップの実行にかかった時間をグラフとして確認することができます。

クエリは1回の実行につき1行までで、複数行実行しようとするとエラーになります。

「Save as」からクエリを保存することができます。
名前と説明の入力が必要です。

保存したクエリは「Saved queries」に一覧で表示されます。
使用したいクエリを選択し「Open query」をクリックすると自動的にデータベースへ接続され実行可能な状態となります。

クライアントのインストールや設定など行う必要がなく、コンソールから直接クエリを実行できるQuery editor
1回で1行までの実行など制約はあるもののちょっと試したい時など役に立つのではないでしょうか。


Amazon Sumerian Tutorial 52:Image Recognition Using Amazon Sumerian and ARCore

こんにちは、ナレコム前川です。

今回は、Amazon Sumerian の公式チュートリアルの
Image Recognition Using Amazon Sumerian and ARCore を進めていきたいと思います。

ここで学ぶことは、

・画像認識
・AR システム
・ARAnchors
・SumerianARCoreStarter sample Android app

の4つについてです。

それでは、進めていきましょう。

1. シーンの設定

まず、シーンの設定を行っていきます。

① ダッシュボードから Augmented Reality を選択し、シーンを作成

② Create Entity から Sphere を追加。
③ 追加した Sphere を ARAnchor の子要素にする。

④ Sphere の Transform を以下のように変更。
Scale : (0.1, 0.1, 0.1)

⑤ Entity パネルで ARAnchor の左の目のアイコンをクリックし、隠す

2. Script の追加

ここでは、先ほど設定したエンティティにスクリプトを追加していきます。

① ARAnchor を選択し、Script コンポーネントを追加。
+ をクリックし、Custom を選択。
③ 以下のプログラムを置き換える。

[crayon-5e81958a2653b312159046/]

ここまで完了したら、シーンを公開してください。

3. Android Studio で作業する

ここからは、Android Studio でいくつか設定を行っていきます。

コードを変更する

① Android Studio でコチラのファイルを開く。
※上記のファイルをダウンロードして使用します。

MainActivity.java を開く
③ URL の末に /?arMode=true が書いてあるか確認する

画像を追加する

ここでは、画像の追加方法について説明してきます。
① assets フォルダ内に追加したい画像をドラッグ&ドロップ。

IMAGE_FILENAME を使いたい画像のファイル名に変更。
IMAGE_WIDTH_IN_METERS も必要に応じて変更。

ビルド

コチラに記載されているデバイスをPCに接続。
② 上のツールバーの Build から Deploy Module to App Engine で実行。
② アプリが起動したら、カメラを画像に向けると球が画像の位置に表示される。

実行して確認してみてください。

今回のチュートリアルは以上です。
お疲れ様でした。


Amazon Sumerian Tutorial 51:VR Asset Pack

こんにちは、ナレコム前川です。

今回は、Amazon Sumerian の公式チュートリアルの
VR Asset Pack を進めていきたいと思います。

それでは、進めていきましょう。

1. VR Asset Pack のインポート

まず、シーンの作成を行っていきます。

① ダッシュボードから Default Lighting を選択。
② シーン名を「VR Asset Pack」に設定し、作成。

Import Assets から VR Asset Pack を選択し、追加。

④ Assets パネルに追加されたら、VRCameraRig をキャンバスにドラッグ&ドロップ。

⑤ Inspector パネルで CurrentVRCameraRig にチェックを入れる。

⑥ シーンを公開する。

2. Teleportation の追加

ここでは、ユーザーがシーン内を自由に移動できるようにする設定を行っていきます。

Create Entity から Box を追加。

② Box の名前を 「Ground」 に変更。
③ Transform の Scale を (50, 0.2, 50) に設定。

④ Material の Color を暗めの色に変更。

⑤ Add Component から ColliderScript を追加。
⑥ Script コンポーネントを選択し、vr_action_object_teleport を追加。

⑦ シーンを再公開する。

シーンを再公開したら再生してVR機器で確認してください。
人型のテレポートアイコンが見えたらOKです。
クリックして、移動できるかどうかを確かめてください。

3. Activate Action の設定
それでは、Activate Action の使い方をここでは説明していきます。

① Create Entity から Cone を追加。

② Transform を以下のように設定。

Translation :(0, 1, -2.5)
Rotation :(-90, 0, 0)

③ Script コンポーネントを追加して、vr_action_object_activate を追加。

これらの設定で、シーン内のボタンなどをクリックすることができるようになります。

4. Activate Action を使った振る舞いの追加

ここからは、サンプルの振る舞いを設定していきます。

① Cone を選択し、State Machine コンポーネントを追加。

② + ボタンをクリックし、新しい Behavior を追加。
③ 名前を「Cone Active Behavior」に設定。
④ State 名を「Listen」に変更し、Listen アクションを追加。

Message Channelactivate_cone に設定。

⑥ + ボタンから State を追加。
⑦ State 名を「Scale Up」にし、Tween Scale アクションを追加。
⑧ Tween Scale を以下のように設定。

⑨ Listen と Scale Up State を複製する。

⑩ 複製した Scale Up State を「Scale Down」に名前を変更。
⑪ 以下のように設定を変更。

⑫ 以下のように State をつなげる。

⑫ シーンを再公開する。

再公開したら、シーンを再生して正常に動作するか確認してください。
cone にコントローラーを合わせると手形のアイコンが表示されます。
クリックすると cone が大きくなったり小さくなったりします。
私は Oculus Go でシーンを実行しました。

今回のチュートリアルは以上です。
お疲れ様でした。


【Introduction to AWS DeepLens】の和訳してみた

はじめに

AWSのMachine Learningに関するサービスの1つであるAWS DeepLensについての概要が「aws training and certification」にて公開されています。本記事では動画で紹介している内容を訳して紹介していきます。
コンテンツへのアクセス方法はこちらに記載しています。

AWS DeepLens とは


AWS DeepLensとは、AWSクラウドと統合した開発プラットフォーム搭載のワイヤレスビデオカメラです。Deep Learning などの最新の技術を利用してコンピュータビジョンアプリケーションの開発を行う事ができるデバイスです。


DeepLensに搭載されているアクセラレータは、コンピュータ処理を100GFLOPS、つまり1000億/秒の単位で処理を実行することが可能です。

AWS DeepLensのワークフローとして、基本的には以下の3つのAWSサービスと共に利用することとなります。

こちらの構成図で、先程紹介したAWSサービスの一連の流れを紹介していきます。

①AWS DeepLensがvideo streamをキャプチャし、Device streamとProject streamという2つのstreamを生成します。

②推論Lambda関数は、未処理のvideo framesを受け取るとDeep Learningモデル(Amazon SageMaker)に一旦渡して処理を行います。

③最後に、処理が完了したら推論Lambda関数はそれを再び受け取り、Project Streamに戻します。

構成図では紹介できませんでしたが、AWS DeepLensは他のAWSサービスと容易に連携できるサービスです。例えばAWS Greengrass を利用してAWS DeepLensのプロジェクトをセキュアに移すことができます。
またインターネットに接続した状態であれば、AWS DeepLensのアウトプットを AWS IoT やAmazon Kinesis Radio Streamsを利用してコンソールに戻すことも可能です。

AWS DeepLensでは、全部で7種類のサンプルプロジェクトのテンプレートが用意してあります。これらのプロジェクトはMachine Learningを使用してほんの10分ほどで実行することが可能です。また、これらのプロジェクトは編集やカスタマイズも可能です。

AWS DeepLensでは、オリジナルモデルのトレーニングやデプロイも可能です。また、MXNet・TensorFlow・CaffeなどDeep Learningのフレームワークに幅広く対応しております。

Demo

AWS DeepLensの物体認識の一連の流れをまとめると、図の様になります。モデルは AWS DeepLensより送られたvideo stramをインプットします。そして認識した対象物をラベル化します。ユーザはコンソール上からモデルがラベル化した対象物をレビューすることができます。

それではやってみましょう。コンソール画面より「DeepLens」と入力して検索します。

「Project」という画面に来たら、右の「Create new project」を選択します。

Project typeとProject templatesを選択します。今回のデモでは「Use a project template」と「Object Detection」をそれぞれ選択します。
選択したら、画面右下の「Next」を選択します。

確認画面が出るので、画面右下の「Create」を選択します。プロジェクトの構築には数分ほど時間がかかります。

プロジェクトの構築が完了したら、選択した後に「Deploy to device」をクリックします。

この画面ではデバイスを選択します。選択したら、「Review」をクリックします。

内容を確認したら、「Deploy」をクリックします。これにより、DeepLensにモデルのデプロイが行われます。デプロイが完了するのに約数分かかります。画面上に表示されているバナーが青→緑に変わったら完了です。

Project outputのタブに行き、「copy」をクリックしたら、「AWS IoT console」をクリックし、コンソール画面に移動します。


IoTコンソール画面に移動したら、先程コピーしたtopicを貼り付け、「Subscribe to topic」をクリックします。
以上で設定は完了です。あとは、AWS DeepLensに物体を認識させると、ラベル化が行われ、その結果を画面に出力してくれます。

この画面は、実際にAWS DeepLensに植木鉢の植物を見せた時の結果です。この様に、認識した物体に対する結果を画面上に表示します。

このデモではペットボトルをAWS DeepLensに見せた時の結果を表示しています。

まとめ

Introduction to AWS DeepLens ついての紹介は以上です。実機でなかなか試すことの出来ないサービスですのでコンソールの一連の動作をデモとして見れるのは嬉しいですね! Greengrass などAWSの各コンポーネントとの連携の高さも非常に魅力的なのでIoTプロジェクトにてPoCを行う際の選択肢にAWS DeepLensを検討いただければ幸いです。 次回もお楽しみに!


【Introduction to Amazon FSx for Windows】の和訳してみた

はじめに

re:Invent 2018で発表された新機能の1つである AWS FSx for Windows File Server についての概要がAWSのサービス紹介動画サイトにて公開されているのでこちらを翻訳しながら紹介していきたいと思います。

コンテンツへのアクセス方法はこちらに記載しています。

Introduction of AWS FSx for Windows File Server


Amazon FSx for Windowsは、AWS環境にWindows Serverで構築されたビジネスアプリケーションを移せるよう、フルマネージド型のWindowsファイルサーバが備わっています。更に、高いパフォーマンスとAWSのセキュアな環境が用意されております。


FSx for Windowsは、クラウド上にWindowsストレージを簡単に移し、そしてクラウド上でも利用できるようにすることを目的とした新サービスです。
このサービスの主な特徴は以下の3点です。

  1. Windowsアプリとの100%互換
  2. ハイパフォーマンスな環境を提供
  3. 法人向けにも対応

FSx for Windowsの主なメリットは6つあります。

・Native-Windowsとの互換性
・高パフォーマンス
・法人向け対応
・フルマネージド
・広域アクセシビリティ
・高い費用対効果

1つ目のメリットはネイティブに Windows と互換性がある点です。

・Native SMB 2.0から3.1.1まで対応
・NTFSに対応
・DFS名前空間とDFSレプリケーション機能を搭載
・MicrosoftADとの統合やWindows ACLsのサポートも対応

2つ目は高パフォーマンスであることです。以下の特徴が挙げられます。

・SSDストレージに構築
・ほぼゼロに等しいレイテンシ
・高IOPS
・高スループット

3つ目はエンタープライズ向けとしても十分通用するほどの高可用性、高耐性である点です。

・ハードウェアの故障や問題の監視と調査が可能
・重要なデータはS3にバックアップ
・AZ内にデータを移管
・DFS名前空間とDFSレプリケーション機能を搭載

セキュリティ面もエンタープライズ企業が利用可能なレベルの機能を揃えております。

・データの暗号化
・セキュリティグループ、IAM、CloudTrailなどのAWSサービス
・ADとの統合やWindows ACLsサポート
・HIPAA法の適用

4つ目は、ユーザが環境を設定しなくても済むようフルマネージドな環境が用意されていることです。

・ファイルサーバ、ストレージボリュームのセットアップが用意
・Windowsソフトウェアのアップデートに常時対応
・ファイルシステムのバックアップ常備

5つ目はアクセシビリティです。ユーザのファイルシステムを、既存のAWSサービスと結合することができます。

またユーザが Windows7以降の環境 やLinuxのオペレーティグシステムから、SMBプロトコルを使用して自身のファイルシステムにアクセスしに行くことも可能です。

最後は、低コストであることです。利用した分のみしか費用がかからず、またクリックすれば簡単にシステムの変更ができるので、ビジネスモデルの変化に合わせて柔軟に対応することができます。

・従量課金制
・クリック1つでシステムの生成も消去も可能

Use Cases

FSx for Windowsのユースケースは幅広くあります。主なユースケースとしては6点、挙げられます。

・ホームディレクトリ
・数千ものユーザアクセスが可能なファイルシェアの作成可能

・ビジネスアプリ
・法人向けにセキュアな環境とアプリを提供

・高スループットなファイルシステム
・ウェブサイトの処理やコンテンツマネジメント可能

・ソフトウェア開発環境
・コードやファイルのなどソフトウェア開発に必要な環境のシェア可能

・メディアワークフロー
・ビデオ編集、レンダリング、報道などにも対応可能な高いスループットと低レイテンシを提供

・データ解析
・複数インスタンスからの同時アクセスに対応可能な高スループットを提供

まとめ

Amazon FSx for Windowsについてまとめると、AWS環境にWindows Server上で構築したアプリや環境を簡単に移行し、そして利用することができるサービスです。

・フルマネージドな環境を提供
・高パフォーマンスが用意されている
・AWSのサービスとセキュアな環境が利用可能

おわりに

Amazon FSx for Windows についての紹介は以上になります。今までは Linux 環境のみ EFS を利用してファイルマウントシステムを作ることが可能でしたが、Amazon FSx for Windows の登場によって Windows 環境のマネージドファイルサービスが出たことでよりエンタープライズでのAWS利用が促進されそうですね!


【Introduction to Amazon Security Hub】の和訳してみた

はじめに

re:Invent 2018で発表された新機能の1つである AWS Security Hub についての概要がAWSが提供する動画コンテンツサイトにて公開されています。本記事では動画を和訳しながら AWS Security Hubについて紹介していきます。

コンテンツへのアクセス方法はこちらに記載しています。

Introduction of AWS Security Hub


ユーザは基本的にAWS上の顧客データ、オペレーティングシステム、ネットワーク、プラットフォームやアプリケーション、そしてリソースを管理する必要があります。しかし、全てのデータの気密性、整合性、可用性、そしてコンプライアンスといった要件全てを満たそうとするのは、簡単ではありません。


この図は、セキュリティについて考える際の一連の流れです。
そして、セキュリティを考える際には、以下のポイントを抑える必要があります。

①Identify:何を保護しているか・保護すべきなのか、セキュリティの現状を理解する
②Protect:実際にAWSサービスを利用してセキュアな状態を構築する
③Detect:異常が見つかった際にすぐに調査できる状態にする
④Automate・Investigate・Respond:異常の発見、調査、そしてレスポンスといった流れを自動化する
⑤Recover:バックアップ環境を用意し、異常が起きてもリカバリできる状態にする


また、AWSでは図の様にそれぞれの場面に適したサービスが用意されています。

・Identify: AWS System Manager, AWS Config

・Protect: Amazon VPC, AWS Secret Manager, AWS Firewall Manager, AWS WAF, AWS Shield, etc

・Detect: Amazon Inspector, Amazon GuardDuty, Amazon Macie

・Investigate: Amazon CloudWorks, AWS CloudTrail

・Automate: AWS Lambda

・Recover: Snapshot, Archive


しかし、クラウド上のサービスを全てセキュアな状態を維持するのはとても大変で、もし行うのであれば、以下のような作業をする必要があります。

・AWSアカウント内のデータの洗い出し
・セキュリティの優先順位付け
・セキュアな環境が一目で分かるように可視化


それに加えて、別々のサービスを利用して取得したデータや作業内容を1つにまとめるのは、さらに大変なことです。


そのような問題を解決するために生まれたサービスがAWS Security Hubです。このサービスであれば、セキュリティ関連の情報を一元管理することができます。

Introducing AWS Security Hub

AWS Security Hubは、様々なAWSセキュリティサービスが収集した関連データをまとめて表示することができます。

AWS Security Hubを利用することで以下のメリットが得られます。

・セキュリティ関連の調査結果をまとめる時間が省ける
・コンプライアンスを自動チェックすることで改善することができる
・収集したセキュリティデータを可視化できる

How does Security Hub work?

AWS Security Hubの仕組みについてみていきましょう


AWS Security Hubは以下のような仕組みとなっております。

①AWS Security Hubに登録したAWSアカウントを全て管理下に置きます。
②登録されたアカウントのセキュリティを定期的に調査して情報を収集します。
③コンプライアンスの管理とスキャンの自動更新を行います。
④セキュリティ調査結果に基づき、サービスを実行してセキュリティの問題点を解決します。


AWS Security HubはSIEM toolsとは以下の点で違います。

・Security HubはAWSにのみにフォーカス
・Security Hubはコンプライアンスチェックも行う


AWS Security Hubにはコンプライアンススタンダードという機能があります。

・CIS AWS Foundations Benchmarkがベース
・セキュリティ調査結果はクイックアクセスできるようメインダッシュボードに表示
・問題解決のためにベストプラクティス情報が提供される


AWS Security Hub insightsとは、優先順位付けのために、内容によって相関やグループ分けがされたセキュリティ調査結果です。以下のような特徴があります。

・100以上のinsightsが事前に用意されている
・insightsを自身で作成することが可能
・優先順位の高い調査結果はダッシュボードに搭載して見やすくすることが可能
・1つひとつのセキュリティ調査結果内容にレビューを加えることが可能

Use Case

AWS Security Hubのユースケースを1つ紹介したいと思います。

ユースケース:アラートトリアージ


AWS Security Hubは、Amazon CloudWatch Eventsと組み合わせることで、特定のセキュリティを実行することができるように設定できます。Security findings as custom events をAmazon CloudWatch Events Ruleとして組み込みます。これによって、登録された内容に応じたセキュリティ調査を定期的に行うことができるようになります。
図の例だと、ステータスが黄色の場合はLambdaを起動し、ステータスが赤の場合はAmazon SNSを起動する、といったようなことが可能です。

まとめ

AWS Security Hubについてのまとめは以下となります。

・自身のAWSにおけるセキュリティ状況とコンプライアンスの把握が可能
・リージョン内の複数アカウントからセキュリティ調査結果の収集と作成が可能
・自身のコンプライアンスをベストフレームワークと規則の両方から評価が可能
・調査結果をもとに改善ポイントと優先度を明確にすることが可能

おわりに

AWS Security Hubについての紹介は以上です。このSecurity Hubを利用することで、既存のAWSアカウントのセキュリティを改善する方法と対策を一度に調べられます。セキュアな環境構築の際には今後必須なサービスとなってくるでしょう。どんどん利用していきたいですね!


【Introduction to Amazon Ground Station】の和訳してみた

はじめに

re:Invent 2018で発表された新機能の1つである Amazon Ground Stationについての概要が「 AWS ML University 」にて公開されているのでこちらを翻訳しながら紹介していきたいと思います。

コンテンツへのアクセス方法はこちらに記載しています。

Introduction of Amazon Ground Station


衛星は政府機関、大学などの教育機関、そしてビジネスなど幅広い分野で利用されています。しかし、衛星と通信を行う際に地表アンテナが必要となりますが、自前で用意しようとなると、膨大なコストと時間がかかるだけでなく、定期的な管理も必要となります。


AWS Ground Stationはそういった問題を解決できる新しいサービスです。このサービスを利用することで以下のようなメリットを得られます。

・自前で用意するよりも安く利用することが可能
・必要なときだけ利用することが可能
・データの送受信を従来よりも早く行うことが可能
・他のAWSサービスとの連携が可能

What is a Ground Station?


Ground Station (地上局)は、衛星と通信する際に必要となる機器のことです。AWS Ground Stationは、AWS Regionとつながっているため、従来の地上局の役割に加えて以下の特徴を備えています。

・低レイテンシ
・高可用性
・データを素早く生成


AWS Ground Stationは世界中に設置されており、地図にある円の中心地に設置されています。この円は、衛星が低軌道に入った際の通信可能な範囲を表示しております。


AWS Ground Station を利用する際の構成図の一例です。AWS Ground Stationが衛星と通信していることが、構成図の左側の部分から分かります。ここで衛星からのデータ通信を受け取り、データを生成しています。構成図の右側はCustomer VPCです。こちらでAWS Ground Stationのコンソールにログインし、生成されたデータを受け取ったり、そのデータを他のAWSサービスで利用したりすることができます。
構成図を見ると、いくつかのサービスはAWS Ground Station側とCustomer VPC側で共有されていることが分かりますが、これは自前のフロントインでもAWSサービスのどちらも使えるようにAWS側が設定をしているためです。


AWS Ground Stationでは2つのタイプの通信サービスが用意してあります。

  1. 衛星通信サービス
    ・AWS Ground Stationは以下の衛星との通信が可能です
     ・低軌道
     ・中軌道
     ・対地同期軌道
    ・AWS Ground Stationのアンテナは、以下の周波数帯との通信が可能です
     ・S- (Sバンド、S帯)
     ・X- (Xバンド、X帯)
     ・UHF (極超短波)
  2. 地表通信サービス
    ・以下の地上システムと利用者間の通信をサポートします
     ・固定電話
     ・衛星通信
     ・イーサネット


AWS Ground Stationの最大のメリットは、高性能な地上局を手頃な価格で必要に応じて利用することができる、という点です。


AWS Ground Stationを実際にどう使うのかの設定を見ていきたいと思います。


AWS Ground Stationのコンソール画面から、いつ・どの衛星と通信を行うかのスケジュールを決めることができます。


通信する衛星を追加することも可能です。また、必要に応じてAWS Ground Stationのリソースの設定もすることができます。

まとめ

最後に、AWS Ground Stationの内容について改めてまとめます。

・オンデマンドでのダウンリンクが可能
・AWSストレージなどへの直接アクセスが可能
・従量課金制
・衛星通信のためのインフラ整備の必要なし
・衛星を使った幅広い構築や実験が可能に

おわりに

AWS Ground Stationについての紹介は以上になります。AWS を利用することで大規模なテレビ局のみが利用出来た設備ですらも従量課金で利用できるようになりました。これらの新サービスを利用することで登場する新しいサービスが楽しみですね!


【Introduction to Amazon Comprehend Medical】の動画をまとめてみた

re:Invent 2018で発表されたAmazonAIの新サービスAmazon Comprehend Medical についての概要が、「 AWS ML University 」にて公開されているのでこちらを翻訳しながら紹介していきたいと思います。

コンテンツへのアクセス方法はこちらに記載しています。

Introduction

Amazon Comprehend Medicalは、ヘルスケア領域で使用するための優秀なAPIです。これらは医療テキストから必要な情報を取り出したり、新しい情報と組み合わせたりすることが可能です。これを利用することで、医療現場でのアプリや既存システムにAIを利用した機能開発に役立てることができます。

現在は、ほぼ全ての医療現場でElectronic Health Records(EHR) が患者のデータの蓄積に使われています。
しかし、特定の情報を取り出そうとすると膨大な作業に追われるため、解析が進まず、なかなかできないのが現状です。
これらの問題はComprehend Medical を利用することで、解決することができます。

Comprehend Medical の仕組み

簡単に説明すると、Comprehend Medical はAmazon Comprehendの自然言語処理モデル(NLPモデル)とディープ・ラーニングを使用して、与えられた医療テキストから、ヘルスケア関連の単語や用語を抽出しております。
Amazon Comprehendは機械学習の分野において、最新の情報や知識が備えられているので、とても精度の高い抽出が可能となっております。
Comprehend Medicalでは、以下の2つのAPIが重要な役割を担っております。

・NERe API:抽出した全ての単語や言語の関連性・関係性をJSONに送ります
・PHId API:テキスト内の保護された医療情報のみを抽出します

そして、Comprehend MedicalはAWS Glueなどのサービスを利用してSagemakerやS3などデータパイプラインツールと統合することができます。


Comprehend Medical を利用することで、以下のメリットを得ることができます。
・より高精度に情報がアウトプットされる
・今までよりも必要な情報を素早く収集
・コストの削減

正確に必要な情報を医療テキストから抽出してくれるAPIとなっているので、利用者が自らマシン・ラーニングやディープ・ラーニングを1から学ぶ必要もありません。

Demo

実際に、Amazon Comprehend Medicalのコンソール画面を見ていきます。この画面では、抽出した単語・情報の内容によって色分けがされています。視覚的に抽出した情報が一目で分かるようになっています。

他にも、特定の情報と情報を結びつけることもできます。デモの中では、医療と投与に関する情報を結びつけており、それによって患者の投与のタイミングや投与している薬の種類、投与量などを一度に知ることができるようになっております。

コンソール画面を下にもっていくと、抽出した情報と、その内容やカテゴリが詳細に表示されております。

JSON方式で抽出した情報の詳細も表示されているので、そこからも抽出した情報の詳細について確認することができます。

まとめ

Amazon Comprehend Medicalに関する動画の紹介は以上となります。まだ日本語対応はしていない状況ですが、翻訳サービス等と連携し、使うことで威力を発揮するシーンもあるのでは無いでしょうか。コンソールから操作することも可能ですので、ぜひ体験してみてください。


【AWS MediaConnect】の動画をまとめてみた

re:Invent 2018で発表された機械学習サービスである AWS MediaConnect についての概要が「 AWS ML University 」にて公開されているのでこちらを翻訳しながら紹介していきたいと思います。

コンテンツへのアクセス方法はこちらに記載しています。

AWS MediaConnect について


MediaConnectはライブ配信をセキュアに行うことができる、とても信頼性の高いサービスです。

MediaConnect がとても重要なサービスである理由は3つあります。

・ライブ配信などの報道における重要なコンテツの役に立つ
・クラウドベースのワークフローやB2Bコンテンツの配信に貢献することができる
・クラウドのリソースを使うことで世界各国の視聴者にライブ配信ができる

MediaConnectの特徴

MediaConnectは以下の特徴があります。

・ビデオを安全に配信することが可能
・ライブ映像を安全にシェアすることが可能
・付加価値の高い生放送を用意することが可能
・コストの削減が可能

MediaConnectは様々な分野で利用することができます。報道やメディアだけでなく、政府機関や企業など様々な業界や領域でこのサービスを利用することができます。

ユースケース

AWS MediaConnectには4つのメインとなる使い方があります。

•コントリビューション
oライブビデオストリームをAWSのインフラと連携
•ディストリビューション
oライブビデオストリームを複数の地域へ配信
•レプリケーション
oライブビデオを複製して各国に配信
•エンタイトルメンツ
oコンテンツデータを安全に利用する

ユースケースを1つ見てみましょう。
OTTプロバイダーが視聴者に向けてライブビデオを安全に配信するために、信頼のおけるクラウドベースのサービスを探していました。そこで、AWS MediaConnectを活用することで、その問題を解決することができました。

具体的には、
①ライブ映像をAWS Elemental Liveにエンコード
②それをMediaConnectに転送
③転送した映像をAWS Elemental MediaLiveでエンコード
④AWS Elemental MediaPackageでパッケージ化した映像をAmazon CloudFrontで視聴デバイスに配信

今回のケースにおけるメリットは3つあります。
①セキュアなクラウドサービス環境内に動画を保存できる
②中間ファイルの状態で放送に対応できるクオリティとなる
③既存のメディアサービスとのシームレスな相互運用性

こちらは別のユースケースです。
地方のテレビ局が、別々のタイム・ゾーンで生活している会員にスポーツ中継を配信する必要があったため、AWS MediaConnectを用いてその問題を解決しました。

こちらの解決方法について紹介すると、
①AWS Elemental Liveより、AWS Region 1 のMediaConnectにライブビデオを配信
②違うRegionにあるMediaConnectに映像を更に配信します
それにより、違うタイム・ゾーンに住んでいる視聴者にも配信することが可能となります。

今回のケースにおけるMediaConnectを使うメリットは以下の3つです。
・ビデオの配信のためのセットアップが1時間以内で可能
・国外など、より広い範囲で配信する場合も同じ仕組みで利用が可能
・作業の1つひとつがセキュアな環境で行われているので信頼できる

まとめ

MediaConnect の動画紹介はこれで以上となります。
大規模な投資を行うことなく国内外にライブ配信が可能となるのは、クラウドならではですね!


AWS What is Deep Learningの動画内容まとめ

はじめに

今回は、AWS ML Universityの動画であるDeep Learning (ML)を取り上げたいと思います。前回、前々回と関連している分野になるので、しっかりと学んでいきましょう。

In This Video

今回紹介する動画の主な内容は、以下の構成となります。

■ディープ・ラーニング(DL)とは?
■DLのコンセプトについて
■AWSサービスで使用できるDL
■事例

ディープラーニング(DL)とは?

Deep Learning は Machine Learning 技術の一部かつ、人工知能(AI)技術の一部に属します。


Deep Learning の構造は人間の脳のようにニューラルネットワークが多数折り重なったものになっています。ニューラルネットワークの各層は非線形構造によって成り立っており、与えられたデータの解析を異なる方法で実行します。

DL のコンセプトについて

ニューラルネットワークとは複雑な構造を正確に学習するためにトレーニングされた数学的構造の塊です。学習に利用するデータが多いほど、より正確な結果を出すことが可能となります。

ニューラルネットワークは主に3つの層に分かれています。インプット層・隠れ層・アウトプット層の3層です。そして、それぞれの層はニューロン(=ノード)というものが複数集まって形成されています。この左側のノードの集まりであるインプット層に情報がインプットされていき、隠れ層を通しアウトプット層から結果を出力するといった流れです。

ニューロンは、ノードとも呼ばれます。ノードはインプットされた情報を統合したあとの傾向を元に情報に修正します。これら全ての段階を踏んだ後にノードはアウトプットを行います。これらがノードのライフサイクルとなります。

ディープ・ラーニングには様々な場面で利用をされていますが、テキスト・データやログ・音声・画像などの大量にデータがある領域での解析や分析で活躍します。

AWSサービスで使用できるDL

AWSでは3つのマネージドサービスで Deep Learning を提供しています。
• Amazon Lex
o 対話型インターフェイス(チャットボット)を作成できるサービスです
• Amazon Polly
o 入力したテキストを人が話したかのような音声に変換します。Text to Speech
• Amazon Rekognition
o 画像ファイルに対しメタ情報の取得を行うサービスです

AWSではAMIにて Deep Lerning のパッケージを提供しております。これらを利用するメリットは図にある3点です。
• セットアップが簡単であること
• モジュール導入などの面倒な手間がかからない
• 利用した分だけの従量課金

事例

[顧客名]
C-SPAN : アメリカ合衆国議会を中心に、政治を専門とするケーブルチャンネル
[実施内容]
8箇所からの動画解析を解析する上で Amazon Rekognitionを 導入。
2時間以内に97,000枚もの分析した画像アップロードが可能となりました。
これにより編集したビデオの量が年間3500時間から7500時間に変わりました。
1時間のビデオに対する編集が約20分になった。
このソリューション開発は Amazon Rekognition を使うことで約3週間で出来きました。

まとめ

今回は「What Is Deep Learning」の動画をざっくり訳でご紹介していきました。
AI及び機械学習と記事にしていきましたが人工知能についての基本的な概念がシンプルに説明されている印象です。これらは入門向けの動画になるため、更に深掘りした内容も AWS ML University で公開されています。
これをキッカケに気になったコンテンツをチェックして頂ければ幸いです。