Skip to main content

CI/CDでのスクリーンショットテスト自動化:プルリクエストからリリースまで

CI/CDパイプラインでスクリーンショットテストを自動化するためのステップバイステップガイド。PRチェック、ブランチプレビュー、スケジュールスキャン、アラート、不安定なUI処理、レビュープロセスをカバーします。

スクリーンショット比較チェックポイント付きの自動CI/CDパイプライン

CI/CDでのスクリーンショットテスト自動化:プルリクエストからリリースまで

手動のスクリーンショットチェックはスケールしません。アプリケーションが成長するにつれ、ページ、ブラウザ、デバイスの組み合わせにより、すべてのビジュアル変更を手動で検証することは不可能になります。CI/CDパイプラインでスクリーンショットテストを自動化することで、ビジュアル品質は手動のスポットチェックから信頼性の高い、再現可能なゲートに変わります。

このガイドでは、プルリクエストでのテストトリガーから、不安定なUIの処理、しきい値の設定、チームが実際に従うレビュープロセスの構築まで、完全なフローを説明します。

自動化がスクリーンショットテストに重要な理由

手動ビジュアルQAには3つの根本的な問題があります:

  1. 非一貫性 — レビュアーによって気づく点が異なります。ある人が気づくことを、別の人は見逃します。
  2. 遅さ — 20ページを3ブラウザ、3デバイスでチェックすると180枚のスクリーンショットを手動レビュー。すべてのPRでは実行されません。
  3. 履歴の欠如 — 自動ベースラインがなければ、先週、先月、特定のリリース前にUIがどう見えたかの記録がありません。

自動スクリーンショットテストはこの3つすべてを解決します:一貫性があり、高速で、UI状態の完全な履歴を維持します。

エンドツーエンドのフロー

自動スクリーンショットテストが典型的なCI/CDパイプラインにどう組み込まれるか:

ステップ1:プルリクエストがテスト実行をトリガー

開発者がPRをオープンまたは更新すると、CIパイプラインがアプリケーションの現在の状態のスクリーンショットをキャプチャします。テストはプレビューデプロイメントまたはローカルビルドに対して実行されます。

ステップ2:スクリーンショットがベースラインと比較される

各スクリーンショットが承認済みベースラインとピクセル単位で比較されます。設定されたしきい値を超えて異なる領域がフラグされます。

ステップ3:結果がPRに投稿される

CIジョブがPRにサマリーを投稿:変更されたページ数、影響を受けるブラウザ/デバイス、差分ビューアーへのリンク。レビュアーはコードレビューのワークフローを離れずに変更内容を確認できます。

ステップ4:チームがレビューして判断

フラグされた各差分に対して、レビュアーは分類します:

  • 意図的な変更 — 承認してベースラインを更新。
  • リグレッション — 却下してコードを修正。
  • ノイズ — 原因を調査(不安定なレンダリング、動的コンテンツ、しきい値調整)。

ステップ5:マージゲートがポリシーを強制

レビューに基づいてCIチェックが合格または不合格。高リスクページはマージを完全にブロックできます。低リスクページは警告のみのポリシーを使用できます。

ステップ6:自信を持ってリリース

マージ後、更新されたベースラインが新しいリファレンスポイントになります。以降のPRはこの新しいベースラインと比較され、比較チェーンが最新に保たれます。

PRチェックのセットアップ

PRチェックは最も重要な統合ポイントです。実践的なGitHub Actionsの設定:

name: Screenshot Tests
on:
  pull_request:
    branches: [main]

jobs:
  screenshots:
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v4

      - uses: actions/setup-node@v4
        with:
          node-version: 22

      - name: Install dependencies
        run: npm ci

      - name: Build application
        run: npm run build

      - name: Run screenshot tests
        run: npm run test:visual
        env:
          SCANU_API_KEY: ${{ secrets.SCANU_API_KEY }}

      - name: Upload diff artifacts
        if: failure()
        uses: actions/upload-artifact@v4
        with:
          name: visual-diffs
          path: test-results/
          retention-days: 14

ポイント:

  • 一貫したビルドのためにNodeバージョンを固定。
  • 失敗時に差分アーティファクトをアップロードし、レビュアーが実際の画像を検査可能に。
  • APIキーはシークレットとして保存、コードには含めない。

ブランチプレビューとステージング環境

最も正確な結果を得るには、ローカルビルドではなくデプロイ済みプレビュー環境に対してスクリーンショットテストを実行します。プレビューデプロイメント(Vercel、Netlify、Cloudflare Pages)はlocalhostよりも本番環境に近い動作を提供します。

ワークフロー:

  1. PRがプレビューデプロイメントをトリガー。
  2. プレビューがライブになったら、プレビューURLに対してスクリーンショットテストをトリガー。
  3. メインブランチのベースラインと結果を比較。

このアプローチはローカルビルドでは見逃す可能性のある環境固有の問題をキャッチします。

広範なカバレッジのためのスケジュールスキャン

PRチェックは高速であるべきなので、通常は高優先度ページのみをカバーします。フルページインベントリをカバーするスケジュールスキャンで補完しましょう:

on:
  schedule:
    - cron: '0 3 * * 1-5'  # 平日午前3時

jobs:
  broad-scan:
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v4
      - run: npm ci
      - run: npm run test:visual:full

スケジュールスキャンは本番またはステージングURLに対して実行され、すべてのページをすべてのブラウザとブレークポイントでテストします。狭いPRマトリクスをすり抜けたリグレッションをキャッチします。

アラートと通知

自動テストは誰も結果を見なければ無用です。アラートを設定:

  • 失敗したPRチェック — 差分サマリーと比較ダッシュボードへのリンク付きでPRにコメント投稿。
  • スケジュールスキャンのリグレッション — ページオーナーにメール通知またはチームチャネルに投稿。
  • しきい値違反 — ページが複数の実行で一定の差分パーセンテージを超えて継続的に失敗する場合にアラート。

ScanUは完了した実行のメール通知をサポートしています。CIプラットフォームの通知システムと組み合わせて包括的なカバレッジを実現しましょう。通知オプションの詳細は機能をご覧ください。

スクリーンショットテストでの不安定なUIの処理

不安定なビジュアルテストは、チームがスクリーンショットテストを放棄する最大の理由です。一般的な原因に事前対処しましょう:

アニメーションとトランジション

キャプチャ中にCSSアニメーションを無効にするか、完了を待ちます。シンプルなアプローチ:

/* スクリーンショットキャプチャ中にのみ適用 */
*, *::before, *::after {
  animation-duration: 0s !important;
  transition-duration: 0s !important;
}

動的なタイムスタンプと日付

テスト環境ではライブタイムスタンプを固定値に置換。「2分前に更新」と表示するアプリは、毎回の実行で差分を生成します。

遅延読み込みコンテンツ

キャプチャ前にすべての画像と遅延読み込みセクションの読み込みを待機。CI実行間のネットワークタイミングの違いが不安定なスクリーンショットの原因になります。

サードパーティウィジェット

チャットウィジェット、分析バナー、Cookie同意ポップアップは頻繁に変化します。これらの領域をマスクするか、テスト中に決定的な状態で読み込みます。

フォント読み込みの競合

非同期で読み込まれるWebフォントがレイアウトシフトを引き起こす可能性があります。document.fonts.readyまたはキャプチャ前にフォントがレンダリングされることを保証するフォント読み込み戦略を使用しましょう。

しきい値の設定とチューニング

しきい値はテスト失敗前に許容されるピクセル差異の量を制御します。適切な設定が重要です:

厳格に始めて慎重に緩和

低いしきい値(例:0.1%のピクセル差異)から始めます。正当なノイズに遭遇したら、グローバルではなく特定のページグループのしきい値を上げます。

ページタイプで分割

  • 収益重要ページ(料金、チェックアウト):厳格なしきい値、ブロッキングポリシー。
  • コンテンツページ(ブログ、ドキュメント):中程度のしきい値、警告ポリシー。
  • 動的要素のあるマーケティングページ:緩いしきい値、情報提供のみ。

しきい値変更を追跡

すべてのしきい値調整を根拠とともに文書化。しきい値が上がる一方であれば、本物のリグレッションがマスクされている可能性を調査してください。

機能するレビュープロセス

最高のツールもレビュープロセスが壊れていれば失敗します。スケーラブルなレビューワークフロー:

  1. CIが構造化されたサマリーを投稿 — 変更数、影響ページ、深刻度レベル。
  2. レビュアーが差分ビューアーを開く — サイドバイサイド、オーバーレイ、ハイライトモード。
  3. レビュアーがコンテキストを確認 — どのブラウザ、どのデバイス、どのページ状態か。
  4. レビュアーが判断 — 承認(ベースライン更新)、却下(コード修正)、保留(調査が必要)。
  5. 判断が文書化される — 理由を説明する短いメモ。

ステップバイステップ:ゼロから自動スクリーンショットテストへ

ゼロから始める場合のシーケンス:

  1. 重要なページを選択 — 最も重要なユーザージャーニーを代表する10〜15ページ。
  2. ScanUでプロジェクトをセットアップ — ページを追加し、ブラウザ/デバイスの組み合わせを選択。使い方でウォークスルーを確認。
  3. 初期ベースラインをキャプチャ — 最初のテストを実行し、結果をベースラインとして承認。
  4. CIジョブを追加 — 上記の設定を使用して、すべてのPRでスクリーンショットテストをトリガーするようCIを設定。
  5. レビューポリシーを定義 — どのページがマージをブロックし、どのページが警告のみかを決定。
  6. 最初のPRテストを実行 — ビジュアル変更を含むPRを開き、エンドツーエンドでワークフローを検証。
  7. 段階的に拡大 — 信頼度が高まるにつれ、ページ、ブラウザ、スケジュールスキャンを追加。

追跡すべきメトリクス

スクリーンショットテストの投資対効果を確認するために測定:

  • マージ前にキャッチしたリグレッション — 本番に到達する前に止められたビジュアルバグの数。
  • 偽陽性率 — 失敗の何パーセントがノイズか。10%以下を目標に。
  • 平均レビュー時間 — 差分がレビューされるまでの待ち時間。PRチェックは4時間以内に。
  • リリース後のビジュアルインシデント — デプロイ後にユーザーが報告したUIバグ。時間とともに減少するはず。
  • カバレッジパーセンテージ — 重要なページのうちアクティブなビジュアルテストがある割合。

ScanUで始める

スクリーンショットテストの自動化に複雑なインフラは不要です。ScanUがスクリーンショットキャプチャ、ベースライン管理、差分生成を処理するので、チームは結果のレビューと自信を持ったリリースに集中できます。プランは料金、実装の詳細はFAQ、フルプラットフォームは機能でご確認ください。