1.0.10 • Published 1 year ago

scraping-with-playwright v1.0.10

Weekly downloads
-
License
MIT
Repository
github
Last release
1 year ago

このリポジトリは何?

Playwright をスクレイピング用途で利用する際、便利に使えるように自分用に構築したパッケージです。

主に下記の要件を満たす目的で作成しています。

  • ブラウザ立ち上げから実行までの記述を簡略化
  • ヘッドレスモードの切り替え
  • Cookie に任意の値を適用する
  • プロキシの適用とランダムでプロキシを決定する
  • 画像の読み込みの許可切り替え(プロキシの帯域幅を節約する目的)
  • Web フォントの読み込みの許可・拒否切り替え(プロキシの帯域幅を節約する目的)
  • 立ち上げブラウザのサイズを指定
(async () => {
  const scraping = new Scraping({
    headless: true, // 初期値「true」
    addCookies: [
      {
        // 下記の例は example.com/fuga で hogeキーの「hogehoge_value」が適用される例
        name: "hoge", // Cookieのキー名
        value: "hogehoge_value", // Cookieキー「hoge」の値
        path: "/fuga/", // 「/fuga/」ページで適用
        domain: "example.com", // 「example.com」で適用
      },
    ],
    proxy: {
      username: "hoge-name",
      password: "hoge-pass",
      items: ["111.111.111.111:5555", "222.222.222.222:5555"],
    },
    imageEnable: false, // ブラウザ上で画像データの受信を拒否する
    webFontEnable: false, // Webフォントのデータの受信を拒否する
    browserSize: {
      // ブラウザサイズ
      width: 1280, // 横サイズ
      height: 720, // 縦サイズ
    },
  });

  await scraping.start(); // ブラウザの立ち上げを実行
})();

オプション

オプションは全て任意です。 何も記入しなくても動きます。

オプション名デフォルト説明
headlesstrueヘッドレスモードtrue -> ブラウザを表示しないfalse -> ブラウザを表示する
addCookies適用しない値ごとに配列で追加する。name -> Cookie のキー名value -> キーに格納する Cookie 値path -> この値を適用するページdomain -> この値を適用するサイトのドメイン
proxy適用しないプロキシの適用username -> プロキシの認証用ユーザー名password -> プロキシの認証用パスワードitems -> プロキシ接続先(配列形式で入力)
imageEnablefalse画像の受信true -> 画像を受信するfalse -> 画像を受信しない
webFontEnablefalseWeb フォントの受信true -> Web フォントを受信するfalse -> Web フォントを受信しない
browserSize1280 x 720ブラウザサイズを指定width -> 横方向のサイズheight -> 縦方向のサイズ

上記オプションは何も指定しなくとも、
スクレイピングに適したオプションを適用した状態でブラウザを起動します。

ちなみに、スクレイピング用途のプロキシについてはこちらのサービスがとても安く利用できてオススメです。

プロキシサービスを利用するにあたって最も注意すべきが「帯域幅」の節約です。帯域幅とは、データ通信量のことを指します。データサイズが大きくなるとスクレイピングできるページ数も限られてしまいます。scraping-with-playwright では画像と Web フォントをデフォルトで無効化しており、予め帯域幅の節約を考慮した作りになっています。

通常の Playwright の機能を利用する

scraping でラップしておりますが、通常の Playwright の機能はそのまま使えます。

例:

(async () => {
  const scraping = new Scraping();
  const element = await scraping.page.locator("body");
  console.log(await element.innerText());
})();

要素取得に失敗する可能性がある場合、自動でリトライしてくれる関数を用意しています。

async () => {
  // 要素取得に成功するまでリトライ
  try {
    // 第一引数: 対象の要素(CSSセレクタ -> Locator)
    // 第二引数: リトライ上限数(これを超えた場合エラー扱いとなる。初期値5回)
    // 第三引数: リトライの間隔(この場合5秒後に再実行。初期値3秒)
    const elements = await scraping.getElementsRetrySuccessfully("#hoge", 10, 5000);
  } catch (e) {
    if (e instanceof Error) {
      console.log(e.message);
    }
  }
};

内部的には page.locator(); のため、通常の Playwright と同じ感覚で利用できます。 最低限、第一引数だけ指定すれば利用できます。デフォルトでは 5 回リトライ、3 秒後に再実行としています。

特定の通信を監視し、動きがあれば任意の関数を実行する方法

scraping.watchResponse(
  {
    domain: "hoge.jp",
    path: "fugafuga",
    status: 200,
    contentType: "application/grpc-web+proto",
  },
  async (page, response, status) => {
    console.log(await page.title());
    console.log(await response.text());
    console.log(status);
  }
);

上記コードの場合、 hoge.jp ドメインの通信のうち、「fugafuga」が含まれるパスの通信を監視する。ステータスコードが 200 で、尚且つ content-type が 「application/grpc-web+proto」の通信が確認できると関数が実行される。

必ず async (page, response) として関数を定義してください。 page には scraping.page と同じものが、response には対象の通信のレスポンスデータが格納されています。

例のように await response.text() とすることで fugafuga のレスポンスの中身を参照できます。

Next.js の props データを取得する

const props = await scraping.getPropsNextJS();

上記の関数を実行すると、Next.js で制作された Web サイトの props データを JSON 形式 で取得できます。 id="__NEXT_DATA__" が付与された script タグを innerText() で取得しているだけでの簡単なものです。場合によっては使えないこともありますのでご注意ください。

gRPC のレスポンスデータにフィルタを使いやすい状態で受け取る

※Flutter on Web で制作され、CanvasKit が使われているサイトで検証しました。これに当てはまるサイトは大変稀なため、この関数は有効に動かないかもしれません。その場合、issues に対象サイトの URL を添えてお教え頂けますと幸いです。

scraping.watchResponse(
  {
    domain: "hogehoge.jp",
    path: "CheckDeliveryArea",
    status: 200,
    contentType: "application/grpc-web+proto",
  },
  async (page, response) => {
    const gRPC = scraping.gRPC(await response.text());
    console.log(gRPC.text);
  }
);

通常、 await response.text() の中身にはラテン文字が含まれています。
一般的にラテン文字はスクレイピングでは不要な文字列となりますので、 scraping.gRPC() 関数 で不要なラテン文字を取り除くことができます。 また、末尾に含まれる grpc-status の文字列も不要ですので、こちらも併せて削除してくれます。

1.0.10

1 year ago

1.0.9

1 year ago

1.0.8

1 year ago

1.0.7

1 year ago

1.0.6

1 year ago

1.0.5

1 year ago

1.0.4

1 year ago

1.0.3

1 year ago

1.0.2

1 year ago

1.0.1

1 year ago

1.0.0

1 year ago