Webサイトの情報を自動で取得し、Excelに保存する「Webスクレイピング」。
通常はプログラミングが必要ですが、Power Automate Desktop(PAD)を使えば、コードを書かずに簡単に自動化できます!
今回は、特定のWebサイトから本のタイトルを取得し、Excelに保存するというWebスクレイピングの自動化を、初心者向けに詳しく解説します。
目次
1. Power Automate Desktopで新しいフローを作成する
まずは、Power Automate Desktopを開き、新しいフローを作成しましょう。
手順
- Power Automate Desktopを開く
- 「新しいフロー」をクリック
- フロー名を「Web Scraping」と入力
- 「作成」をクリック
これで新しいフローの作成が完了しました。
2. Webページを開くためのアクションを設定する
次に、対象のWebページ(例:「Books to Bud top.com」)を開くアクションを追加します。
手順
- 「アクション」パネルから「ブラウザーの起動」を選択
- 「新しいMicrosoft Edgeを起動」アクションを追加
- URLを入力(例:「https://bookstobudtop.com」)
- ウィンドウの状態を「最大化」に設定
- 「保存」をクリック
これで、Edgeが開き、指定したWebページにアクセスする設定が完了しました。
3. Webスクレイピングを設定する
次に、Webページから本のタイトルを取得する設定を行います。
手順
- 「レコーダー」を起動
- 「Capture the step of your automation to be converted into flow action(ステップをキャプチャ)」をクリック
- 「記録」ボタンをクリック
- 本のタイトルを取得
- Webページ上の本のタイトルをクリック
- 右クリック → 「要素のテキストを取得(Extract element text)」を選択
- もう1冊の本のタイトルも取得
- 2冊目の本をクリック
- 右クリック → 「要素のテキストを取得」
- 2つのサンプルデータを取ることで、他の本のタイトルも自動取得
- 次のページへ進む
- 「次へ」ボタンを右クリック → 「この要素をページャーとして設定」
- 「完了」をクリック
これで、本のタイトルをすべて取得できるようになりました!
4. 取得したデータをExcelに保存する
取得したデータをExcelファイルとして保存するように設定します。
手順
- 「アクション」パネルから「Excelの起動」を追加
- 「Excelワークブックを作成」アクションを追加
- 「データをExcelに保存」アクションを追加
- 保存先を指定(例:「C:\Users\〇〇\Documents\web_data.xlsx」)
- 「Excelを閉じる」アクションを追加
- 「ドキュメントを保存」にチェックを入れる
- 「保存」をクリック
5. タイムアウトの調整(データ取得の安定化)
データの取得には時間がかかる場合があるため、タイムアウトの時間を延ばしておきます。
手順
- 「アクション」パネルから「タイムアウト設定」を変更
- 300秒(5分)に設定
- 「保存」をクリック
6. 自動化フローの実行
準備ができたら、作成したフローを実行しましょう。
手順
- 「実行」ボタンをクリック
- Edgeが開き、Webサイトにアクセス
- 本のタイトルを自動取得し、Excelに保存
- 取得が完了するとExcelファイルが作成される
- 保存されたExcelを開き、データが正しく入っているか確認
7. 実行結果の確認
作成したExcelファイルを開くと、以下のように本のタイトルが一覧になっています。
| 本のタイトル |
|---|
| Book Title 1 |
| Book Title 2 |
| … |
| Book Title 1000 |
これで、ノーコードでWebスクレイピングが成功しました!
よくある質問(FAQ)
Q1. Webスクレイピングがうまく動作しません
A. 以下の点を確認してください:
- 対象のWebページのURLが正しいか
- レコーダーで要素のテキストを正しく取得できているか
- 次ページへ進むボタンが正しく選択されているか
Q2. Excelにデータが保存されません
A. 「Excelの起動」アクションが正しく設定されているか確認しましょう。
- 保存先のパスが正しいか
- 「ドキュメントを保存」のチェックが入っているか
Q3. もっと多くのデータを取得したい
A. ページネーションの設定を確認し、すべてのページを巡回するように設定してください。
