【AWS資格】増大するデータ量への対応

当ページのリンクには広告が含まれています。

AWSは大量なデータ処理への各段階において必要なサービスが提供されています。効率的なデータ蓄積では「S3」「Glacier」「Glue」。ストリームデータ処理では「Kinesis」。大量データの解析手法では、「Atena」「EMR」「QuickSight」「Redshift」などがあります。

目次

ビッグデータに必要な技術

ビッグデータに対応したデータ蓄積・処理技術が必要不可欠です。

  1. 大量データ・・・大量のデータを効率的に蓄積可能なデータベース技術
  2. 多様なデータ・・・多様な形式のデータを蓄積可能なデータベース技術
  3. 速い処理・・・高速処理が可能なデータ処理ソフトウェア/ハードウェア

データレイクの活用

ビッグデータ活用の中心はデータレイク型データベースです。

  1. データウェアハウス中心・・・利用用途に応じたデータを貯めて亜kつようするデータウェアハウス
  2. データレイク中心・・・できる限り生データをほぼ全データ保存するデータレイク

データレイクでは全データを生データのまま保存します。生データ形式・様々な種類のデータを蓄積して後から加工します。

Apacheシリーズ

ビッグデータ分散処理向けの代表的な仕組み(ミドルウェア)がApacheシリーズです。

  1. Apache Haddop・・・大量データバッチ処理向け
  2. Apache Spark・・・ストリーミング処理向け

次は「Kinesisの概要」です。

https://laphroaig-apple.com/2021/08/07/aws_kinesis/

前回は、「データベースEFS」についてです。

https://laphroaig-apple.com/2021/07/07/aws_efs/
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

ITの事や自分の経験談など綴っていきたいと思っています。

コメント

コメントする

CAPTCHA


目次