メインコンテンツへスキップ

AIチャットボットの正答率を上げる「学習データ」の作成手順

ヘルプドッグ編集部
AIチャットボットの正答率を上げる「学習データ」の作成手順

「AIチャットボットを導入したが、期待したような回答が返ってこない」「精度を上げたいが、どのようなデータを追加学習させればいいかわからない」「良かれと思って修正したら、以前は正解できていた質問に答えられなくなった」――。 これらは、導入後の運用フェーズにある担当者様から毎日のように相談される悩みです。

「AIは使えば勝手に賢くなる」と思っていませんか? 実は、それは大きな誤解です。AIの回答精度は、魔法のように自動で上がるものではなく、私たちが用意する「テストデータの質」と、それを審査する「評価の厳密さ」によって決まります。現場感覚のないデータセットだけでは、いつまでたってもAIは一人前になりません。

本記事では、現場の実情に即した「学習用データセット」と「正解データ(Ground Truth)」の作成法を解説します。そして、継続的に正答率を向上させ、頼れるパートナーへと育てるための具体的な検証プロセスを一緒に学んでいきましょう。

AIチャットボットの正答率を左右する「テストデータ」とは

学習用データセットとテストデータの違いとは?

AIチャットボットの育成において、現場で最も混同されがちなのが、データを「教えるため」に使うのか、「実力を測るため」に使うのかという役割の違いです。AIモデルを作成する際には、まずAIに知識としてインプットするための学習用データセットを用意します。これは、想定される質問と回答のパターンを覚え込ませる、いわば「教科書」のようなものです。

一方で、学習したAIが本当に賢くなったかを確認するためには、学習には使用していない未知の質問データを用意して解答させる必要があります。これがテストデータです。この二つを明確に使い分けないと、AIの本当の実力を測ることはできません。

現場ではよく、学習に使ったデータをそのままテストにも使ってしまうケースが見受けられます。しかし、教科書の問題をそのまま期末テストに出しても、生徒が「内容を理解している」のか、単に「答えを丸暗記しているだけ」なのかは判断できませんよね。AIも同様です。未知の言い回しや表現に対しても正しく答えられる能力(汎化性能)を測るためには、教科書(学習用)とは別の問題集(テスト用)を用意することが絶対に必要なのです。

学習用データセットとは?
AIモデルを構築(トレーニング)する際に読み込ませるデータ群のこと。チャットボットの場合、質問と回答の組み合わせなどがこれに当たります。

テストデータとは?
学習完了後のAIモデルに対し、性能評価(精度検証)を行うために使用するデータ群のこと。学習用データには含まれていないデータを使用するのが鉄則です。

なぜ「正解データ(Ground Truth)」の定義が必要なのか

テストデータを使ってAIに回答させた後、「その回答が合っているか間違っているか」を誰かが判定しなければなりません。この判定基準となるのが正解データ(Ground Truth / 真値)です。AIが出力すべき理想的な回答や、誘導すべきURLなどをあらかじめ定義しておき、AIの出力結果と照らし合わせて正答率を算出します。

ここで重要なのは、正解は必ずしも一つとは限らないということです。例えば、「解約したい」という質問に対して、「解約手続きのページURL」を提示するのが正解なのか、それとも「解約時の注意事項」を説明するのが正解なのか。あるいは、「オペレーターに繋ぐ」のが正解なのか。これは企業の運用ポリシーによって変わります。

現場でよくある失敗は、この定義が曖昧なままテストを行い、「Aという回答でも間違いではないけれど、Bの方が丁寧だから今回は不正解」といった属人的な判定をしてしまうことです。これでは精度の数値が安定しません。「AでもBでも、解決に導けていれば正解とする」といった許容範囲を、現場の運用ルールと照らし合わせて事前に定義しておくことが、無駄な修正作業を減らし、効率的に精度を上げる鍵となります。

正解データ(Ground Truth / 真値)とは?
AIの予測や回答が正しいかどうかを評価するための「模範解答」となるデータのこと。機械学習の分野では「真実の値」という意味でグラウンドトゥルースと呼ばれます。

現場で使える!高品質なQ&Aペアと学習データの作成手順

実際の問い合わせログから「生の言葉」を抽出する

では、精度の高いチャットボットを作るためには、具体的にどのようなデータを用意すればよいのでしょうか。基本となるのは、ユーザーの質問(Question)と、それに対する回答(Answer)をセットにしたQ&Aペアの作成です。

多くの企業が陥る罠は、担当者が会議室で想像しながら「きれいな日本語の質問文」を作ってしまうことです。しかし、実際のお客様は「〇〇について教えていただけますでしょうか?」などと丁寧に入力してくれるとは限りません。「料金」「いくら」「高い」といった単語のみの入力や、「ログインできないんだけど」といった口語、さらには「パスワド忘れた」といった誤字脱字が含まれるのが現実です。

現場のログこそが、AIを鍛える最強の教材です。机上の空論で作ったデータではなく、過去の実際の問い合わせログ(チャット履歴やメール件名)から、お客様が使った「生の言葉」を抽出してQAペアを作成してください。これらをテストデータに含めることで、現場で本当に使える、実践的な対応力を身につけさせることができます。

Q&Aペアとは?
Question(質問)とAnswer(回答)を一対一、あるいは多対一で対応させたデータの組み合わせのこと。チャットボットの知識ベースの基本単位となります。

表記揺れと意図のバリエーションを網羅する

お客様は同じことを聞くのにも、人によって全く異なる表現を使います。例えば、料金について知りたい場合でも、「価格」「費用」「コスト」「プライス」「いくらかかる?」など、多様な言い回しが存在します。こうした同じ意味を持つ異なる表現のことを表記揺れと呼びます。

AIチャットボットの対応力を広げるためには、一つの回答(A)に対して、できるだけ多くの質問パターン(Q1, Q2, Q3…)を学習させることが重要です。「キャンセル」と「取り消し」、「申し込み」と「登録」など、類義語や同義語を網羅的に学習データに組み込むことで、AIは「言葉が違っても意図は同じである」と理解できるようになります。

ただし、注意点もあります。バリエーションを増やしすぎると、今度は他の類似した質問と区別がつかなくなり、競合(誤検知)を起こすリスクが高まります。例えば、「注文のキャンセル」と「会員の退会(キャンセル)」を混同してしまうといったケースです。バリエーションを増やす際は、他のカテゴリの質問と意味が重ならないか、バランス調整を行うことが不可欠です。

表記揺れとは?
同じ意味の内容に対して、異なる文字表記や言い回しが使われること。漢字・ひらがなの違い(「子供」「子ども」)や、類語(「机」「デスク」)などが含まれます。

正答率を正しく測るための「精度検証」と評価基準

精度検証の方法:正解・不正解の判定ルールを決める

テストデータを用意してAIに回答させたら、次はいよいよ採点です。しかし、AIの生成する文章が、用意した正解データと「一字一句完全一致」することは稀です。特に生成AIを活用したチャットボットの場合、毎回微妙に言い回しが変わることがあります。

そのため、実用的な評価基準が必要です。現場では「完全一致」を目指すのではなく、「意味的合致」や「解決性」を重視した判定ルールを設けることをお勧めします。例えば、「提示されたリンク先が正しいか」「ユーザーが求めている必須情報が含まれているか」といった観点です。

「回答内容は合っているが、表現が少し素っ気ない」といったケースもよく発生します。これを「不正解」にしてしまうと、いつまでたっても合格ラインに達しません。まずは「顧客の悩みを解決できる情報提示ができたか」を最優先の合格ラインとし、表現の丁寧さなどは次のステップとして評価するなど、段階的で現実的な基準を設定しましょう。

修正時の劣化を防ぐ「回帰テスト」の実施

チャットボット運用で最も恐ろしいのは、「ある質問に答えられるように修正したら、今まで答えられていた別の質問に答えられなくなった」という現象です。これを防ぐために行うのが回帰テスト(リグレッションテスト)です。新しい知識を追加したり、設定を変更したりした際には、必ず実施する必要があります。

理想的には全件テストですが、データが増えてくると毎回すべての質問をテストするのは現実的ではありません。そこで推奨したいのが、利用頻度の高い「トップ50の質問」や、絶対に間違えてはいけない「重要リスク質問」などをピックアップした「自動テストセット」を用意しておく運用です。

修正を行うたびに、このテストセットを使って検証を行い、以前の正答率を維持できているか(デグレしていないか)を確認します。このプロセスを組み込むことで、安心してデータの追加や修正を行えるようになり、長期的な品質維持が可能になります。

回帰テスト(リグレッションテスト)とは?
プログラムやシステムの修正を行った際に、その修正が原因で新たな不具合が発生していないか、以前正常だった機能が動作しなくなっていないか(デグレード)を検証するテストのこと。

運用に乗せるためのデータ管理とメンテナンス

定期的なデータの見直しと再学習サイクル

チャットボットのデータ作成は、一度作ってリリースしたら終わりではありません。企業のサービス内容は日々変化し、季節によってお客様の関心事も変わります。例えば、新しいキャンペーンが始まればそれに関する質問が増えますし、年末調整の時期になれば関連するQAの需要が高まります。

情報が古いまま放置されたチャットボットは、「嘘の情報を教えられた」という顧客体験を生み、企業の信頼を損なう原因になります。そのため、月に一度の定期メンテナンスや、製品リリース・サービス改定のタイミングに合わせて、必ずテストデータと学習データを見直すルールを設けてください。

「古いキャンペーン情報は削除する」「新機能に関する予想QAを追加する」といったサイクルを回し続けることこそが、AIの精度を維持し、向上させる唯一の道です。

現場のフィードバックをテストデータに反映する

最も質の高い改善データを持っているのは、日々お客様と接している現場のオペレーターや、チャットボットのログを確認している担当者です。彼らが気づいた「AIの誤回答」や「答えられなかった質問」を吸い上げる仕組みを作りましょう。

例えば、オペレーターが「AIがこの質問に間違った回答をして、お客様が怒って電話をしてきた」という事象を見つけたら、簡単なフォームで報告できるルートを作ります。そして、報告されたその質問を、次回の学習データとテストデータに追加するのです。

この「現場の気づき」→「データへの反映」→「再学習」→「検証」というループを回すことで、チャットボットは現場の実情に合わせて確実に賢くなっていきます。現場の声こそが、AIを育てるための最良の栄養素なのです。

まとめ

AIチャットボットの正答率向上に近道はありません。「テストデータの質」にこだわり、現場の生の声を反映させたデータセットを作成すること。そして、修正のたびに厳密な検証と「回帰テスト」を繰り返すこと。この地道なプロセスの積み重ねだけが、AIの精度を高めます。

AIは導入して終わりの魔法の箱ではなく、皆さんと一緒に成長していく「後輩」のような存在です。最初は頼りなくても、現場の知見(データ)を注ぎ込み、正しく評価してあげることで、必ずやオペレーターの負担を減らす頼れるパートナーへと成長します。焦らず、じっくりと育て上げていきましょう。

FAQサイト・AI検索・AIチャットボット・AIフォーム ─全部まとめて

「サポート対応、もっとラクに。」

3分でわかる!「ヘルプドッグ」 資料ダウンロード

FAQ・よくある質問

Q1

学習用とテスト用を分けても「全部合格させたい」という心理はどう扱うべきか?

A

まずは評価基準を段階化して、初期は「解決性」を合格ラインに据えるのが現実的です。理由は表現の違いで不正解にすると数値が安定しないためで、まず必須情報や正しいリンク提示などで合格とし、表現の丁寧さは次の評価段階に回す運用ルールを現場と合意しておくことが次の一歩になります。

Q2

修正すると他質問が不正解になる事象を防ぐための現場での回帰テスト手順は?

A

修正ごとに自動テストセットで検証し、主要質問群の非劣化を確認する運用が有効です。理由は全件テストは非現実的なためで、まずは利用頻度の高いトップ50や重要リスク質問を含む自動テストセットを用意し、変更後に必ず実行して結果をチェック、問題があれば元に戻すか追加修正するというサイクルを組み込みます。

Q3

正解データの曖昧さが精度に影響する場合、運用ポリシーと指標をどう整えるべきか?

A

運用ポリシー上で許容範囲を明文化し、判定ルールを現場で合意してからテストに反映させることが重要です。曖昧だと属人的判定で数値が振れるため、「AでもBでも解決に導ければ正解」といった許容基準や必須チェック項目(リンク、必須情報の有無等)を作り、それをGround Truthに落とし込んで採点基準を安定させてください。

堀辺 憲
筆者

堀辺 憲 noco株式会社 代表取締役

クボタ、住友スリーエム、DeNAなどを経て2017年にnoco株式会社を創業。AIサポートシステム「ヘルプドッグ」等の開発プロデューサーを務める。数多くの企業のサポート部門・現場業務のDXを支援してきた実績から得た、カスタマーサポート領域およびナレッジマネジメントに関する深い知見をもとに、CS基盤の構築・改善に直結するノウハウを解説する。