Research Quality
UXリサーチの品質は、
AIで速くする前に
参加者設計で決まる
AIはサーベイやインタビュー設計を速くする。しかし、誰に聞くかが間違っていれば、どれだけ速く集めても、データは静かに壊れる。UXリサーチの品質は、分析フェーズではなく、参加者の包含、除外、多様性、パネル管理の時点で大きく決まる。
Section 01 - 上流設計
リサーチが失敗するとき、問題は質問文より前にある
調査設計では、インタビュー項目、サーベイ文面、分析方法に目が行きやすい。しかし、その前に参加者条件が甘ければ、後工程でどれだけ丁寧に分析しても、結論は歪む。「誰の声か」が曖昧なデータは、きれいに整理されたとしても意思決定の材料にはならない。
Late Fix
後から直そうとする発想
- 回答数を増やせば信頼できると考える
- 分析時にセグメントを切ればよいと考える
- AIに要約させれば偏りが見えると考える
- 調査後の解釈で帳尻を合わせる
Early Design
最初に設計する発想
- 包含条件を明文化する
- 除外条件を具体化する
- 必要な多様性を先に決める
- サンプルの劣化を前提に管理する
UXリサーチは「何を聞くか」より前に、誰に聞くべきではないかを決める仕事である。
Section 02 - 参加者条件
参加者条件は、包含、除外、多様性の三つに分けて書く
良い参加者条件は、対象者を広く集めるための文ではない。調査目的に対して、どの経験を持つ人が必要で、どの経験があると結果が歪み、どの属性差を残すべきかを決める文である。
01
包含条件この調査で必ず必要な経験、行動、頻度、意思決定権限を定義する。単なる年齢や職業だけでは足りない。
02
除外条件詳しすぎる人、近すぎる人、報酬目的の人、過去の調査経験が強く影響する人を先に除外する。
03
多様性条件属性を広げるのではなく、結論に影響しうる差を残す。利用頻度、熟練度、環境、意思決定プロセスを分ける。
Section 03 - パネル劣化
ユーザーパネルは、維持しているだけで少しずつ劣化する
継続的に使うユーザーパネルは便利である。ただし、同じ参加者に何度も聞くほど、参加者は調査慣れし、報酬や期待に最適化され、一般ユーザーから離れていく。パネルは資産であると同時に、劣化するデータ源でもある。
Decay Pattern
劣化のサイン
- 回答が説明的になりすぎる
- プロダクト側の期待を読んでしまう
- 同じ不満が固定化する
- 新規ユーザーの戸惑いが消える
Management
管理の打ち手
- 参加頻度の上限を決める
- 新規参加者を定期的に入れる
- 調査テーマごとに適性を再判定する
- 過去参加履歴を分析時に見る
Section 04 - AI活用の限界
AIは調査を速くするが、品質保証までは代替しない
AIによるサーベイ作成は、初期案の作成、表現の整理、観点の洗い出しに向いている。しかし、誘導質問、曖昧な選択肢、対象者に合わない語彙、分析不能な設問は残りうる。AIが作った調査票は、そのまま配るものではなく、人間が検証する材料である。
Check 1
調査目的に対して聞きすぎていないかAIは網羅しがちである。意思決定に使わない質問は削る。
Check 2
参加者が同じ意味で読めるか社内用語、抽象語、評価語は、回答者の解釈差を生む。
Check 3
分析できる形で答えが返るか自由記述と選択式の使い分けを誤ると、後で要約しても判断につながらない。
References - 参考・引用元
この記事で参照した元ネタ
以下の元ネタをもとに、UXリサーチ品質管理の実務視点として統合・再構成した。
- UXリサーチ参加者選定の厳密性
Nielsen Norman Group
https://www.nngroup.com/articles/selection-criteria/ - ユーザーパネル劣化のメカニズムと対策
Nielsen Norman Group
https://www.nngroup.com/articles/user-panels-fail/ - AIによるサーベイ作成は人間による検証が必須
Nielsen Norman Group
https://www.nngroup.com/articles/ai-survey-writing/ - UXリサーチツールに隠された方法論の盲点
CSV収集行を統合