NRIネットコム Blog

NRIネットコム社員が様々な視点で、日々の気づきやナレッジを発信するメディアです

アプリ編part1~PythonとDockerで実現するニュース通知チャットボット

こちらの記事の続きとなっております。

tech.nri-net.com

本シリーズのトップページはこちら!!

tech.nri-net.com

はじめに

さて、前回まででチャットボットのインフラ部分の構築が終了しました!いよいよ今回からアプリケーション編に突入していきます!こちらの記事で言及していますが、本アプリケーションは、ニュース定期通知機能、ユーザーリクエストによるニュース通知機能の2つがあります。本記事では、これらの機能をPythonやDockerで実装する方法について、解説していきます。

ニュース定期通知機能

では、ニュース定期通知機能から始めていきましょう。

処理の流れは以下の通りです。

  1. Webサイトからニュース記事を取得する(スクレイピング)
  2. S3バケットから前回スクレイピング時に取得したURLを取得
  3. 2で取得したURLと今回スクレイピング時に取得したURLとの比較を行い、更新分だけ取り出す
  4. 更新分URLのみ、LINEに通知する。
  5. 今回のスクレイピングで取得したURLをS3に書き込む

Webサイトからニュース記事を取得

今回は、スクレイピングを活用してWebサイトからニュースURLを取得します。スクレイピングとは、Webサイトからデータを自動的に取得する技術です。この技術を使うことで、ニュースサイトから最新情報を一括して自動的に素早く収集することができます。(スクレイピングが禁止されているサイトもあるため、利用規約等をよく確認しましょう。)

Pythonにも、beautifulsoup4という便利なHTML解析ライブラリがあり、これを使って簡単にスクレイピングが可能です。では、該当のソースコードを見ていきましょう。

  1. url = 'https://www.soccer-king.jp/news/world' ## スクレイピング対象のサイト
  2. html = urllib.request.urlopen(url)
  3. soup = BeautifulSoup(html, "html.parser")
  4. ###################### 関数の定義 ###############################################################
  5. def news_scraping(soup=soup):
  6. # 記事のタイトルとurlを取得
  7. title_list = []
  8. titles = soup.select('article a[href*="https://www.soccer-king.jp/news/world/"] .tit')
  9. for title in titles:
  10. title_list.append(title.text)
  11. url_list = []
  12. urls = soup.select('article a[href*="https://www.soccer-king.jp/news/world/"]')
  13. for url in urls:
  14. url_list.append(url.get('href'))
  15. return title_list,url_list
  16. # ~~~~~~~~~~~~~~~~~~~~~~省略~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  17. ##スクレイピング実行
  18. title,url = news_scraping()
  19. csv_list = url
  20. title_list = title

スクレイピングの流れ
まず、requestsライブラリでWebサイトのURLを指定し、情報を取得します。
その次に、beautifulsoup4ライブラリを用いて articleタグ内にある<a href = "https://www.soccer-king.jp/news/world/任意の文字列">に一致するURLとタイトル一覧を抽出しています。

S3バケットから前回スクレイピング時に取得したURLを取得

該当のソースコードはこちらです。

  1. def get_s3file(bucket_name, key):
  2. # S3からcsvを読み取る
  3. s3 = boto3.resource('s3')
  4. s3obj = s3.Object(bucket_name, key).get()
  5. return io.TextIOWrapper(io.BytesIO(s3obj['Body'].read()))
  6. #前回スクレイピング分のurlをex_csvに入れる
  7. ex_csv =[]
  8. for rec in csv.reader(get_s3file("バケット名", "ファイル名")):
  9. ex_csv.append(rec)
  10. ex_csv = ex_csv[1:]
  11. ex_csv = list(itertools.chain.from_iterable(ex_csv))

まず、S3バケットにアクセスするためにAWSリソースを操作するライブラリであるboto3を使用します。 バケット内のファイルには前回スクレイピング時に取得したURL一覧が記載されているので、それを読み取り、 ex_csvリストに格納しています。

前回分と今回分のURL比較

今回のスクレイピングで取得したURL(csv_listに格納)をex_csv内のURLと比較します。該当のソースコードはこちらです。

  1. # 更新分のニュースurl、titleを格納するリストを作成
  2. new_url=[]
  3. new_title=[]
  4. #ex_csvと比較して更新分を取り出していく
  5. for i in range(10):
  6. if csv_list[i] in ex_csv[0]:
  7. num = i
  8. #ex_csvの先頭にある記事がcsv_listの何番目の記事に当たるか調べる
  9. break
  10. else:
  11. num = 'all'
  12. if num == 'all':
  13. new_title.append(title[0:10])
  14. new_url.append(url[0:10])
  15. else:
  16. new_title.append(title[:num])
  17. new_url.append(url[:num])

更新されたURLとタイトルをnew_url、new_titleというリストに格納しています。

更新分URLとタイトルをLINEに通知する。

  1. ## LINEへの通知
  2. access_token = "**************" # LINE Develpersで発行したチャネルアクセストークン
  3. line_bot_api = LineBotApi(access_token)
  4. # カルーセルテンプレートの作成
  5. if num == 0:
  6. columns_list = "新しいニュースはありません"
  7. line_bot_api.broadcast(TextSendMessage(text=columns_list))
  8. else:
  9. columns_list = []
  10. for i in range(len(new_title[0])):
  11. columns_list.append(
  12. CarouselColumn(title=new_title[0][i][0:10], text=new_title[0][i][0:60],
  13. actions=[{"type": "uri", "label": "サイトURL", "uri": new_url[0][i]},]
  14. )
  15. )
  16. carousel_template_message = TemplateSendMessage(
  17. alt_text = "最新ニュースを通知しました",
  18. template = CarouselTemplate(columns = columns_list))
  19. line_bot_api.broadcast(messages = carousel_template_message)

LINEへのメッセージ送信には、linebotライブラリを使用します。LINE Developersで発行されたアクセストークンをaccess_tokenに設定し、broadcastメソッドを使って条件に応じたメッセージをLINEに送信します。また、カルーセル形式のメッセージを作成するために、CarouselColumnコンストラクタを利用してカルーセルメッセージのリストを作成しています。

定期的なニュース通知

上手く実装できていれば、定期的にニュースが通知されるはずです。

ユーザーリクエストによるニュース通知機能

次に、ユーザーリクエストによるニュース通知機能をPythonのFlaskフレームワークで実装し、Dockerを用いてコンテナ化していきます。

Flaskとは?

Pythonで簡単なWebアプリを開発することができるフレームワークのことです。

  1. app=Flask(__name__)
  2. @app.route("/")
  3. def hello():
  4. return "hello ryota"
  5. # endpoint from linebot
  6. @app.route("/callback", methods=['POST'])
  7. ################################
  8. ### LINEへのメッセージ送信処理を記述 ###
  9. ################################
  10. if __name__=="__main__":
  11. app.run(host='0.0.0.0',port=3000,debug=True)

Flaskはリクエストパスごとに処理を記述していきます。上記では、https://{ALBに紐づけたドメイン名}/のリクエストはhello ryota、https://{ALBに紐づけたドメイン名}/callbackのリクエストが来ると、LINEへの返信処理が実行されます。

ここで、インフラ編の話を思い出してください。LINE通信で使用されるWebhockでは、通信先のURLを指定する必要がありました。この通知先URLこそが、https://{ALBに紐づけたドメイン名}/callbackなのです!
このURLをLINE DevelopersのWebhockURLに指定してあげることで、ようやくLINEとアプリケーション間の通信が可能となります。

実装

では、さっそく実装していきましょう!!と言いたいところですが、紙面の都合上、すべてのソースコードを説明するのは難しいため、詳細のソースコードは以下のGitHubリポジトリに格納しています。興味のある方はご覧ください。

github.com

なお、ファイル構成は以下の通りです。

  1. # ファイル構成
  2. │- app.py #コンテナで実行するアプリケーション
  3. │- buildspec.yml #ビルドの計画書
  4. │- Dockerfile # コンテナ定義ファイル
  5. │- requirements.txt # ライブラリインポートファイル
  6. └─src
  7. └─dict
  8. └─mydict.json
  9. └─service
  10. └─ handle_message_service.py # LINEメッセージ生成モジュール
  11. └─ scraping.py # スクレイピング、S3の読み取り、書き込み

複数のファイルがありますが、処理の流れやソースコードの内容は定期通知ニュース機能とほぼ同じです。異なるのは、ユーザーの送信メッセージによってスクレイピングするサイトURL、読み取り/書き込みするファイルが異なる点で、こちらはmydict.jsonとhandle_message_service.py で実現しています。

  1. ## mydict.json (一部抜粋)
  2. {
  3. "日本代表": {
  4. "url":"https://www.soccer-king.jp/league/national-japan",
  5. "href":"https://www.soccer-king.jp/news/japan/national/",
  6. "s3-filename":"japan.csv"
  7. },
  8. "イングランド": {
  9. "url":"https://www.soccer-king.jp/league/premier",
  10. "href":"https://www.soccer-king.jp/news/world/eng/",
  11. "s3-filename":"premiar.csv"
  12. },........
  13. }
  1. # handle_message_service.py (一部抜粋)
  2. class handle_message_service :
  3. def generate_reply_message(receivedMessage) :
  4. json_file = open('/app/src/dict/mydict.json', 'r') #mydict.jsonを開く
  5. mydict = json.load(json_file)
  6. send_line_flag = "No"
  7. for key in mydict :
  8. if (receivedMessage == key) : #受け取ったメッセージがjsonファイル内のキーと等しいか
  9. # ファイル名、url、hrefを取得する
  10. filename = mydict[key]["s3-filename"]
  11. url = mydict[key]["url"]
  12. href = mydict[key]["href"]
  13. #
  14. ex_csv =[]
  15. for rec in csv.reader(scraping.get_s3file("バケット名", filename)):
  16. ex_csv.append(rec)
  17. ex_csv = ex_csv[1:]
  18. ex_csv = list(itertools.chain.from_iterable(ex_csv))
  19. #読み込んだcsvが二次元配列になっていたため一次元に変換
  20. # スクレイピングを実行
  21. title,urlname = scraping.news_scraping(url,href)
  22. csv_list = urlname
  23. title_list = title
  24. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~以下省略~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

例えば、ユーザーから「日本代表」というメッセージを受け取った場合、mydict.jsonファイル内の「日本代表」に対応するurl、href、s3-filenameを取得し、それらの情報を用いてスクレイピングやS3バケット内ファイルの読み取り・書き込みを行います。

アプリケーションのコンテナ化

ソースコードを実装した後は、OSSであるDockerを使用して、Dockerイメージを作成していきます。

Dockerイメージとは、Dockerコンテナの動作環境となるテンプレートファイルのことです。つまり、コンテナはDockerイメージを基に起動します。

また、Dockerイメージを作成するには、Dockerfileという設計図のようなファイルを作成する必要があります。Dockerfileには、Dockerイメージの設定内容をコマンド形式で記述します。このDockerfileをビルドすることで、Dockerイメージが生成されます。(ややこしい、、、、)

DockerfileからDockerコンテナ構築までのフロー

Docker環境構築~RPMビルド【ハンズオン】 - RAKUS Developers Blog | ラクス エンジニアブログ

Dockerfileの作成

今回作成したDockerfileは以下の通りです。

  1. # ベースイメージの選択
  2. FROM python
  3. #コンテナ上でディレクトリを作成する
  4. RUN mkdir /app
  5. # コンテナ上の作業ディレクトリを設定する
  6. WORKDIR /app
  7. # 必要なパッケージをインストールする
  8. COPY requirements.txt ./ #コンテナにコピー
  9. RUN pip install --no-cache-dir -r requirements.txt # インストール
  10. # ローカルのソースコードをコンテナにコピーする
  11. COPY app.py ./
  12. COPY ./src /app/src
  13. # 実行するコマンドを指定
  14. CMD ["python", "./app.py"]

まず、FROM句では、ベースイメージを選択します。ベースイメージとはいわばアプリケーションの実行に必要な基本的な環境をパッケージしたものです。このベースイメージを基に自分専用のDockerイメージを作成していきます。
今回はPythonアプリケーションを実行したいので、ベースイメージとしてpythonを選択します。

COPY句でローカル上のapp.pyとrequirements.txtをコンテナにコピーし、最後のCMD ["python", "./app.py"]でコンテナ上でのアプリケーションの実行を指定しています。なお、requirements.txtには、アプリケーションで使用するパッケージのリストを記載します。

  1. # requirements.txt
  2. requests
  3. beautifulsoup4
  4. line-bot-sdk
  5. pandas
  6. flask

ビルド・プッシュ

Dockerfileをビルドしてイメージを作成し、そのイメージをAmazon ECRにプッシュしていきます。これらの手順をbuildspec.ymlに記述し、AWS CodePipelineと連携させることで、ビルド、ECRへのプッシュ、ECSへのデプロイを自動化することができます。

以下に示すのは、今回のbuildspec.ymlの内容です。本節では、docker関連のコマンドについて説明します。(自動化の設定や各フェーズの詳細についてはインフラ編Part3をご覧ください)

  1. # buildspec.yml
  2. version: 0.2
  3. # ビルドの前準備
  4. env: ## AWS SSMのパラメータストアから環境変数呼び出し
  5. parameter-store:
  6. REPOSITORY_URI: REPOSITORY_URI
  7. ACCOUNT_ID: ACCOUNT_ID
  8. phases:
  9. pre_build:
  10. commands:
  11. - echo Logging in to Amazon ECR... # ECRへのログイン
  12. - aws ecr get-login-password --region ap-northeast-1 | docker login --username AWS --password-stdin $ACCOUNT_ID.dkr.ecr.ap-northeast-1.amazonaws.com
  13. - COMMIT_HASH=$(echo $CODEBUILD_RESOLVED_SOURCE_VERSION | cut -c 1-7) #イメージに付与するタグを作成
  14. - IMAGE_TAG=${COMMIT_HASH:=latest}
  15. build:
  16. commands:
  17. - echo Building the Docker image... #コンテナイメージの構築
  18. - docker build -t $REPOSITORY_URI:latest .
  19. - docker tag $REPOSITORY_URI:latest $REPOSITORY_URI:$IMAGE_TAG # タグ付与
  20. post_build:
  21. commands:
  22. - echo Pushing the Docker images... # ECRへのプッシュ
  23. - docker push $REPOSITORY_URI:latest
  24. - docker push $REPOSITORY_URI:$IMAGE_TAG
  25. - echo Writing image definitions file...
  26. - printf '[{"name":"soccer-info","imageUri":"%s"}]' $REPOSITORY_URI:$IMAGE_TAG > imagedefinitions.json
  27. artifacts:
  28. files: imagedefinitions.json

ビルド・プッシュの流れ

流れとしては、aws ecr get-login-password...を実行し、ECRへのログイン、
docker buildでビルド、docker pushでECRへのプッシュを実行しています。また、イメージ識別のために docker tagでタグを付与しています。

さて、これにてDockerコンテナの設定は終了です!ソースコード一式をインフラ編Part3で設定したGitリポジトリにプッシュしましょう。AWS CodePipelineで設定したパイプラインがトリガーされ、ECSへのデプロイが自動的に行われるはずです。

パイプライン成功画面

デプロイが完了したら、実際にメッセージを送ってみましょう。

無事にメッセージが返ってきましたね!!

以上でアプリケーションの実装は終了です!!
次回はIDEウィーク涙の最終回!!Postmanというツールを用いてLINEのリッチメニューを作成していきます!!

執筆者:井手 亮太
職種 : インフラエンジニア
推しのサッカー選手 : ケビン デブライネ