ビッグデータ解析のアルゴリズムをチューニングしていく。 【no.0152】
(前回のブログを読まれていない方は、まずこちらからお読みください)
データを活用して廃棄率75%減を実現した、スシローのデータマーケティングを解明しよう、という話の第十二回です。この連載もあと2回で終わりです。
前回のおさらいです。回転寿司の需要予測をするために、「寿司の流す量」を調節することと共に、「流す寿司のネタ」を決めることが重要だという話でした。そのための方法として「寿司の流す量」と同じように過去のビッグデータから傾向の近いデータを探しだし、それを元にして「流す寿司のネタ」を決定していくのが良いのではないかと考えました。
*運用を始めた後のチューニングが必要になる
とはいえ、いくら過去のデータと傾向が似ていても、お客様は1人1人異なる人間です。同じ人間でもその日の体調や気分によって寿司の食べ方が異なります。たとえ、40億レコードを分析したとしても、過去と現在は異なり、そして未来の人間はさらに異なっていくわけです。したがって、「食べる寿司ネタ予測」アルゴリズムを組んだとしても、100%的中することはありません。お客様の「食べる量」は予測の精度が多少高そうですけどね。
なので、システムを構築して、運用を始めた後のチューニングが必要になってくるわけです。1日1,000皿だった寿司の皿の廃棄数をどうやったら250皿まで減らせるか、そのアイデアをいくつも考え実践して、その成果を評価するというPDCAの流れがチューニングです。ここまで説明したシステムを構築すれば、少なくとも寿司の皿の廃棄数を「今日は多かったね」「すごく少なかった気がする」という「定性的」ではなく、「今日は500皿でした。50%減です」「今日は1,200皿でした。20%増です。なんでだろう・・」というように、「定量的」に評価することはできるようになります。
*みんなで最初に「うどん」を注文すると廃棄率が上がる
最初のシステムとアルゴリズムを組んだ段階では、あくまで予測は予測です。気温や天候によって、お客様の食べる量が変わるかもしれませんし、もしかしたら変わらないかもしれません。場合によって気温や天候の項目はアルゴリズムから外すことになります。廃棄率を1%1%下げていくために、様々な条件にトライし、需要予測システムの最適な使い方を模索していきます。40億レコードものビッグデータにない条件の食事が起こったときの需要予測の考え方も、人がイメージを考えて仕組みに入れていかなければいけません。
もし、スシローに来店したお客様が一番目に「うどん」を注文したとしたら、ビッグデータ解析のアルゴリズムが崩壊する可能性もあります。回転寿司にきて、最初に「うどん」を注文するレコードはほぼないと思われるので、データマーケティングとしてお客様に何を提供すればいいのかわからなくなってしまうのです。みんなで最初に「うどん」を注文すると、その日のスシローの廃棄率は確実に上がるでしょうね。スシローに行っても、やっちゃダメですよ。
需要予測システムの運用上のポイントを考えます。1日1,000皿の廃棄を、250皿に減らせば、廃棄率75%減が達成できます。そのために、1皿1皿を削っていきます。改善を進めていくために、時間帯別の来店組数・来店人数と寿司の廃棄枚数を成果データとしてカウントしておきます。1日トータルでどのくらいの廃棄率(廃棄枚数)だったのかだけではなく、1日のお客様の流れの中で廃棄率がどのように推移していったのかを見るわけです。そこから、細かい改善ポイントを探っていきます。
詰るところ、「データを取って、毎日カイゼン」になります。次回が最終回です。
つづきはこちら。
カテゴリー: 0.ECMJコラムALL, 3.Eコマースの収益アップ