A/Bテストー[データについての考え方]
2014年9月 1日
<ごあいさつ>
こんにちは!ちゃげです。
ついに9月、急に秋らしい天候となりましたね。
我が研究所がある京都は、朝晩の気温がぐっと下がり、毛布をかぶって眠ることもしばしば...
けれど、お昼は相変わらず蒸し暑いお天気が続いています。
<本編>
さて、前回は新助手「はらちゃん」が登場!
A/Bテストの概要と管理画面での設定の仕方をご紹介いたしました。
ですので、今回は「その後」のお話。設定をして、実際にA/Bテストを行った後のデータの考え方についてご紹介させていただきます。
ここからは、これまでにちゃげが関わらせていただいたA/Bテストの経験を基にしてお話させていただきます。
ですが、扱う商品やサービス、ターゲット、目的によって、少しずつ変わってくる部分もあると思いますので、「ある1例」としてご覧ください!
それぞれの商品特性等々にあわせて、アレンジしていってくださいね。
ではまず、結果を見る際に意識しておきたい基本部分を紹介します。
データについて考える2つのポイント!
①目的
まずは、キャンペーンの目的が「認知」であるのか、「コンバージョン」であるのかを、今一度確認しておきましょう。
目的が「認知」の場合は「表示回数(IMP)」中心に、「コンバージョン」の場合は「コンバージョン数」や「コンバージョン率」を中心にチェックしていくことになります。
また、サイトへの誘導が目的であれば「クリック数」や「クリック率」をチェックすることになります。
②ターゲット
どんなプロモーションでも、開始時にしっかりと把握するターゲット。結果を見る際には、改めて確認しておきましょう。
実際のデータを見た時、そのターゲットとなじむ結果であればターゲティングが成功しているといえます。
逆に、「意外とこんな世代が!」「この層は思っている以上にクリック率がいいな...」などと、「Googleアドワーズにおいてのターゲット」や「配信のポイント」というものが、新たに発見できることもあります。
この2点をはっきりさせるのは、皆様もきっとご存知の「広告の基本」部分。
そして、この2点をしっかりと持っておくことが、A/Bテストだけでなく、アドワーズのデータの解釈においても大切です。
アドワーズの管理画面では様々な情報を数値として読みとることができます。
数字を見て色々な情報を見ていくうちに、たくさんの発見があります。
ましてやいくつもの広告を比較するA/Bテストにおいては、本当にたくさんのデータを確認することになります。
確認や発見を重ねていくうちに、本来知りたかった内容から反れていかないためにも、データを見る時には上記の2点をしっかり再確認しておくことが大切だなと、A/Bテストを実際にやってみてちゃげは感じました。
では、データを見る際の基本ポイントを紹介し終わったところで、A/Bテストを運用し、データを見ていく際に、目を付けるポイントをご紹介していきます。
前回のはらちゃんの更新では、ディスプレイネットワークにおいて、AとBという2つのバナーのどちらが費用対効果がよいか?を知るための配信設定を紹介しましたので、そのキャンペーンの結果を見ていくポイントを紹介していきましょう。
ポイント①どちらのバナーが人気?
表示回数、コンバージョン数、コンバージョン率を確認しましょう。
●表示回数は少なくても、コンバージョン率は高い
●表示回数は多いが、コンバージョンがない
...などと、各バナーの特性をまずははっきりさせましょう。
ポイント②どんな人がどのバナーをクリックしている?
キャンペーン全体、そして各バナーごとに、年齢層・男女を確認していきましょう。
「層ごとに適しているバナーや訴求ポイントが違う!」ということもあります。
その場合は、各々の広告の配信設定を、その結果に合わせることで、費用対効果をアップできる可能性があります。
ポイント③いつどのバナーがクリックされている?
キャンペーン全体、そして各バナーごとに、時間別・曜日別でデータを確認していきましょう。
「時間や曜日で適しているバナーや訴求ポイントが違う!」ということがあります。
平日と土日、仕事や学校にいる昼間と家でゆっくりできる夜、お昼休みの時間帯、通勤通学ラッシュの時間など、人の生活のどこで見られているのか、クリックされているのかをチェックしていきましょう。
何らかの傾向が見えた場合、広告の配信スケジュールを変えてみることも1つの手です。
...と、ここまでがデータについてのお話。
ここからは、A/Bテストはやったけれど、この後はどうしようかという時の選択肢についてご紹介します。
これからどうするの?A/Bテストのその後について
その1:同じ設定でさらに配信する
A/Bテストを開始させてから、ちゃげはだいたい1〜数ヶ月の間データを蓄積させて、その結果を読み取っています。基本ではありますが、やはりある程度の時間をかけ、データが増えることで、より信憑性の高い読みをできると感じています。
ですので、開始から1ヶ月程度の時点で一旦傾向を割り出しますが、その後その傾向が継続して続くものかどうかを確認する意味で、もう1ヶ月同じ設定で配信することがあります。
その2:広告を選ぶ
費用対効果のよかったもの、目的になじんでいるものだけを配信していくよう、設定を変更します。
案件によっては、複数種の広告からよいものを選んでいく「A/B/C...テスト」を行うこともありますので、1つずつ選択肢を減らして、テストを続けることもあります。
その3:新しいA/Bテストを行う
結果を受けて、新しいバナーを追加してテストを行ったり、配信スケジュールなどの設定を変えてA/Bテストを行うのも1つの手です。
ちょっと注目してみました!【広告のローテーションについて】
前回の記事でバナーを設定した際、「広告のローテーション」という項目で「全てのバナーを均等にローテーションする」設定にしました。
しかし、バナーごとの表示回数に違いが見られる場合が多いと思います。
複数の広告があった場合、アドワーズでは広告の評価が高いものの方が表示されやすいと言われています。
表示に向けての入札には均等にかけられますが、その競りで勝ち残れるかどうかはわからないことが、表示回数のばらつきに現れると考えられています。
...と、これも一説であり、アドワーズの仕様はどんどん変更されていますので、これからどうなって行くのかはわかりませんが、データを見る際には、この点にも注意してくださいね!
<最後に>
と、いうことで、今日はA/Bテストのデータの読み方について、概念をお話しさせていただきました。
プロモーション全般において、PDCAサイクルを回すことが大切ということがよく言われます。
「Plan(計画)→Do(実施)→Check(効果を確認)→Action(必要に応じた修正)」というPDCAサイクルの流れのうち、今回お話ししたA/Bテストの結果の確認と対策という部分は、
「Plan(計画)→Do(実施)→Check(効果を確認)→Action(必要に応じた修正)」
という部分に当たります。
作って、配信して、終わり!ではなく、それ以降の対処がよりよいプロモーションを行うために重要です。
今後は、A/Bテスト以外にも広告の最適化の考え方や手段などについてもお話しできればいいなと思っています。
ぜひ次回もチェックしてくださいね♪
最後まで読んでいただき、ありがとうございました!