【ウェビナーレポート vol.1後編】~条例化が進むカスハラ対策 コールセンターの現場で取り組むべき施策とDXについて~
記事後編「カスハラへのテクノロジー活用に係る課題及び今後の展望」

導入
「条例化が進むカスハラ対策 コールセンターの現場で取り組むべき施策とDXについて」セッションの後半においては、コールセンターへのテクノロジーの活用の動きを中心に議論が展開される。デモ段階ではあるが、音声機械がエスカレーションを行なったり、企業によってはすでに研修や教育でAIを活用したりするところも。コールセンターのテクノロジー事情にも詳しいリックテレコム矢島竜児氏に、現場における活用事例と、その課題、今後の展望等についてお伺いした。
定義づけなしのAI活用の問題点
下地:先ほど矢島さんからお伺いした、カスハラを行なっているお客様にそれを伝える方法が、オペレーターが対応するケース、上司が伝えるケース、そして機械音声、いわゆるAIエージェントによるケースの3通りあると。エスカレーションをAIで行うのは、個人的にはすごくメイクセンスだと思います。どこかやらないかと思っていたのですが、やはりやっているのだなと。
矢島:ただ、まだPoCの段階のようです。興味深いソリューションだとは思いますが、カスハラの定義がちゃんとしていないまま、オペレーターの判断で利用されれば、結構大きなトラブルも起きそうです。
下地:言い方はよくないですが、さぼりたいオペレーターが常に押してしまうみたいになると業務にならないという。ハラスメントに対しては個々に感じ方が違うというところに起因すると。それが、定量的に評価ができていくと、汎用的には決まらないかもしれませんが、ある程度の基準が決まってくれば、できることがいろいろとあると思います。
矢島:分かりやすいところで言うと、個人攻撃や金銭の要求、脅迫行為、恐喝行為的な、これはもうほぼアウトですが、そこに至るプロセスの中で、これが出たらもうダメというものも規定したいですね。オペレーター個人に対する誹謗中傷は、もちろん論外ですが。
検索機能の優れたロガー導入が記録のポイント
下地:あと起こってしまったことについて、それを記録に残していって運用方法をどんどん変えていくのが、すごく重要だと思います。記録の仕方で気をつけている具体例があれば、教えてください。
矢島:記録のベースになるのは録音装置です。判断基準を明確する、つまりいきなり線は引けないので、明確にしていくためには録音音声をベースに、例えば感情認識などを組み合わせることで、基準づくりに役立てるとかは考えられそうです。従ってロガーと音声認識システムは必須だと思います。できればそこにうまくタグ付けして検索できる仕組みがあったらなと。それがないと、1日に何千件、下手すれば万単位のコールを受けるセンターもあるので、探すのが相当、大変です。検索機能がある程度優れたロガーを入れるのが、ポイントだと思います。あとは感情認識ですね。表現の部分に関して言うと、普通の文字起こしでは感情が分からないので、日本語ならではの難しさが出そうです。感情認識の精度の高いものが登場すれば可能性は高まり、そのあとの教育や採用にも活かせます。どういった特徴をもっている人を採用すべきか、採用したほうがいいのかなどの分析にも使えると思います。
究極は自動対応、コールセンターでのテクノロジー活用の展望
下地:では、テクノロジーの活用について、お伺いします。ロボットの対応などで、ソフトバンクさんが音声を変えられるなどの結構ユニークな取り組みをしています。このテクノロジーの活用で期待されているところや面白い事例などはありますか?
矢島:究極的には自動対応をするレベルまでいってほしいなという期待値はあります。苦情対応は、2015年頃、ディープラーニングをベースとしたAIが出てきた時に、「AIでは無理で、人間がやらないとダメだ」という識者の方や企業経営者が多く、実際今でもそういう方が多いです。ただ、今の生成AIの進歩を見ていると、ある程度のところまではできるのではないかとの期待はあります。
下地:そうですよね。GPTのアドバンスボイスモードの応対が非常に速くて、0.3秒くらいで回答してくれます。よって、おそらくこれがセンターの中に入ってくることもできるし、オペレーターの大変なところを担っていくのは、大変よいことだと思います。
矢島:ただ、そこまでいくには、やはりそもそもの定義づくりがポイントになる。まだ時間がかかると思います。おそらく現在のIT活用という意味では、やはり教育にどう使うかが一番早いのではないかと思います。実際、すでに生成AIを活用して、クレーム対応研修を行うところも出てきているので。
テクノロジーの教育面での有用性
下地:やはり事前にクレーム研修のようなものを受けておくと、打たれ強さが上がっていくのでしょうか?
矢島:どちらかと言うと、こういうことを言われるのだという覚悟と予備知識がつく、という効果でしょうか。
下地:受け答えのトレーニング。
矢島:そうですね。例えば、応対ログをベースに生成AIがクレーム対応のロールプレイの相手をしてくれる。今はそのような生成AIがもう出てきていますが、応対データがベースといいつつも、作り手(ソリューションの設計者)がベースをつくってしまっているケースが多いと思います。そうではなくて、実際のクレーム、カスハラ案件の音声ログやテキストデータ、さらに感情解析の結果なども合わせたものをベースに生成AIがクレーム研修の相手をしてくれるようになれば、かなり使えるものになるのではないかと期待しています。声のトーンなどの調整は、すでにソフトバンクさんが発表済みで、僕はデモを見て来ました。段階があって、結構きついトーンから、比較的柔らかいトーンまでを選べるようなソリューションなので、研修にもうまく応用できると思います。
下地:聞いて慣れるという。
矢島:そうですね。免疫をつけるではないですけど、現場ではこういうこともあるよという教育の部分では、僕は生成AIはかなり使えると思います。ただ、しつこいですが、教育をするにしても、基準をつくった上でないと意味はありません。
株式会社シーエーシーの感情解析AIで働く人を守る
下地:若干宣伝になるのですが、私たちも感情解析のAIをつくっているチームで、我々は、お客様からお叱りや、怒声を受けた回数のカウントができるようなAIをつくっています。どの通話で怒りが多かったのかを取れたり、オペレーターが元気にしゃべれているのかを追って確認できたりするので、あとのオペレーターケアに使えるということをやっています。プラスαで条件分岐をして、まだこれはうまくはまっているわけではないのですが、クレームを受け過ぎているオペレーターに直接AIからメッセージが飛んでフォローしてくれるというものをやっているので、そこに先ほどの話にあったように直接お客様と話をするAIも、検討できればと思っています。それも蓄積したデータが基になって、クレームの基準というのが、定まってくるだろうと思っています。現在、鋭意データを集めているところです。
カスタマーハラスメントに関して、センターが常にさらされている状態で、むしろ法整備化されて守られていく局面が強いのかなと。その分、今は事業所に対して、目が向いていないというよりは、カスタマーのほうに向いているところがあります。徐々に働く環境を整えていかないと、採用難の部分に跳ね返ってくることがあると思っています。注目を浴びていることをきっかけに、いろいろと働く人たちを守る取り組みができたらということで、DXの一番初めのセッションとしてカスハラを取り上げました。本日は矢島編集長、お時間をいただき、ありがとうございました。
Empathの詳細についてはこちらから↓
音声感情解析AI Empath (webempath.com)
Beluga Box SaaS(コールセンター向け製品)の詳細についてはこちらから↓
https://belugabox.webempath.ai/
DMでも情報発信しております。
DMの配信登録はこちらから
この記事に関するお問い合わせはこちら
株式会社シーエーシー
Empath事業推進室
empath_info@cac.co.jp