パーソナルデータ問題に見る、企業サービスの新たな局面

ビッグデータが経営のトレンドとして取り上げられるなかで、パーソナルデータの取り扱いに注目が集まるようになっています。

パーソナルデータとは、個人にかかわる情報ではありながら、それだけでは個人の特定はできないので「個人識別情報」とは呼べない類の情報のことです。例えば、店舗での販売履歴、位置情報、ネットのアクセスログなどが該当します。

個人情報から個人の識別性をなくすこと(匿名化)で、その情報は「非個人情報」になり、個人情報保護の対象からは外れます。しかし、どこまで処理すれば匿名化したと言えるのかが定義しづらいことが、まず問題です。さらに問題なのは、個別のパーソナルデータのみで個人を識別できなくても、ほかのパーソナルデータなどと組み合わせることで、容易に個人を識別できてしまうという事実です。最近では、Suicaの利用履歴をJR東日本が日立製作所に販売したとして、その適切性について論議を呼んだのが記憶に新しいところです。

こうしたなか、国内でもパーソナルデータの取り扱いに関するルールづくりが進められています。データの入手如何が企業経営に大いに影響することが注目されているいま、その取り扱いに当たってルールが必要であることは衆目の一致するところです。

ルールに関する議論は、有識者や企業関係者を交えて、大いに行うべきだろうと思います。対立軸は「保護」か「活用」かであり、さまざまなユースケースを踏まえてグレーゾーンができるだけ残らないような線の引き方をすべきです。一部の知識人に、新しいことを試すのにグレーはつきものであるといったような発言をされている方を見かけますが、グレーに無頓着で決めるべきことを決めないから後で問題が発生するのです。世に問うことといい加減なこととは、質の違う話だと思います。

一方、どのようなかたちでルールが決まったとしても、顧客や利用者には一定のリスクが伴うことは、間違いありません。実際、有識者の間でも、汎用的にパーソナルデータを匿名化することは、技術的に不可能という結論が出されています。つまり、データを活用したい企業には顧客や利用者に対して一定の説明が必要になりますし、顧客や利用者はそれを承諾して情報提供をすることになるわけです。

その時点で顧客に「気持ち悪い」と思われたら、その企業のサービスは使われません。

最近、Google Glassは画期的な広告提供手段であるといわれるようになっています。Glassをかけているユーザーの趣味嗜好、位置情報、検索履歴などを参照することで、そのユーザーの現在地において顧客の嗜好に合致した広告主の商品やサービスがヒットするなら、そのタイミングでGlass上にレコメンドやクーポンを出せる仕組みが考えられるからです。

これを聞いて、「ジャストタイミングでお得な情報が得られるなんて便利だ」と思う人もいるでしょう。一方で、「なんだか監視されているようで気持ち悪いし、必要な情報なら自分で探しに行くから要らない」と思う人もいるでしょう。

企業がパーソナルデータを含めたビッグデータを活用するうえで大事なのは、「情報提供リスクをかぶっても余りある価値をもたらすサービスだ」と顧客に認めてもらえるかどうか。そう考える必要があると思います。企業視点でデータを使い倒し売上を上げることに傾倒せず、データを活用して顧客が喜ぶ価値提供の仕組みを考えられるかどうかが、企業に要求される課題なのです。

こうしたことが世間の話題に上れば上るほど、利用する側は賢くセンシティブになっていきます。ルールなんていい加減なレベルにしておいてほしい、自由度が高ければあとから何でもできる、などと考えている企業は、そのうち顧客に、利用リスクの高さを見抜かれて敬遠されてしまうでしょう。リスクを正しく理解してもらったうえで顧客に選ばれるサービスを提供する公明正大な企業なのかどうかが、今後問われるだろうと考えています。

「みんなの意見」を強力な武器にするために

今月も、ビッグデータを肴に述べてみたいと思います。

データ活用の視点に関して、最近大事だなと感じているのは、「みんなの意見」の有効活用です。企業の立場であれば、顧客の意見であったり、利用者の意見であったり、オーディエンスの意見であったりします。これは、使いかたによっては強力な武器になると感じています。

ベンダーが盛んにビッグデータを喧伝していますが、そうかといって単なるマーケティングだと軽視しすぎてもいけません。宣伝だけでなく、今後の取り組みに有用な視点も含まれているものです。

そうした有用な視点のひとつに「取得できるあらゆるデータをまるごと分析対象にできるようになってきた」ことがあり、その事例の中で、「みんなの意見」を活用するものが取り上げられることがあります。

こうしたケースですぐに思いつくものといえば、Twitter のつぶやきから企業にとって有益な示唆を得る、という話です。企業がアンケートを取るなどの方法では得られない顧客の本音や、まだその企業の顧客ではない人の意見が、Twitter では聞こえてくる可能性がおおいにあります。これを利用すれば従来得られなかった示唆を見出せる、というわけです。

たしかにその通りだと思います。ただし、ネットでは意見が偏っている人が大声を出しているケースも多々あります。言葉の使いかたにしても、きちんと文脈を読み取らなければ意味を取り違えるケースもあり得ます(例えば、「ヤバい」は、肯定でも否定でも使われています)。それに、そもそも人間には「本音」が必ずしも言葉にならない傾向があります。実際に自分自身のことを考えてみても、思っていることを適切に表現するというのは結構難しいことではないでしょうか。

少し思いを巡らせるだけでも、つぶやきをデータ分析すれば欲しい答えが得られるというほど、簡単な話ではないのだと感じます。

その一方で、「みんなの意見」をうまくつかうと結構すごいなということが、いろいろ出てきています。

例えば、ウェザーニューズが配布しているスマホ向け無料アプリ「ウェザーニューズタッチ」。同社が気象サービスを提供するとともに、そのユーザー(「サポーター」と呼ばれる)が自分の居場所の天気を報告する機能を持っています。

サポーターは2013年2月時点で400万人を超え、1日あたり2万件程度、多いときは約20万件の「報告」が寄せられるのだそうですが、こうした「みんなの意見」により、先日気象庁が外した2回の大雪予報(片や「降らない予報」で大雪、片や「積もる予報」で降らず)を、2度とも見事的中させたということです(関連記事)。

別の例でも、興味深いものを見ました。ある2つのゲームアプリ開発会社で開発されている「オセロアプリ」の対決です。片方は、布石のアルゴリズムを精緻化した「頭脳派」タイプのアプリ、もう片方は、アプリを利用するユーザーのうちで強いプレーヤーたちの布石の傾向をデータ化して利用する「みんなの意見」タイプのアプリ。それぞれの会社が「最強」と銘打つその両アプリを対戦させるというものです。結果、この対戦で勝ったのは、「みんなの意見」タイプでした。

もうひとつ、ネットの翻訳サービスも実は「みんなの意見」がベースになっていることで有名です。つまり、ネットの翻訳エンジンの基になっているのは、ネット上にある膨大な量の文書データ、いわば「みんなが書いた文章」です。それをパターン分析して、文の要素ごとに翻訳パターンのテーブルをつくるという、ごく簡単に言えばそんなことをウラで行っています。

英日翻訳などを試してみると、楽しい?!翻訳がときどきなされるときもありますが、汎用的な内容で短めの文章ならかなり翻訳精度が高いことがわかります。旅行する程度のレベルなら、翻訳アプリが載ったスマホ片手で十分かもしれません。

上記の事例、どれも簡単そうに見えて、実際は相当な分析処理ノウハウが必要です。しかしそれを操れる力を組織が得たなら、「みんなの意見」をうまく利用でき、それがかなり強力な武器になることが想像できるのです。

このとき、強力な武器にするための課題としては、「一定の質を持つデータを大量に集めること」「継続して分析し知見を更新できる基盤を構築すること」「みんなにうまく、定期的に、長期にわたって入力してもらえるようにすること」など、さまざまなものがあるでしょう。

そして、それにも増して必要なことは、この武器を有効に使ってビジネスを加速させる「発想」です。

上記で紹介した3つの例はいずれも「みんなの意見」をサービスに活用しています。このように、この手の話でよくある「マーケティング利用」ではなく「サービス」を「発想」してほしいと思います。そのほうが、武器としてははるかに強力になるはずです。

わたしにもいくつか、コラボしたらおもしろいんじゃないかと思えるアイデアが浮かんでいます。

「データサイエンティスト」を採ると、企業は安泰なのか

最近、ITのみならずビジネス分野の記事でもよく見かける「ビッグデータ」というキーワード。そうした記事を読んでいくと、大方のものには最後のまとめに、「企業にはデータサイエンティストが求められる」とか「データサイエンティストが不足している」などと書かれていることが多いようです。

つまり、ビッグデータのような情報の海から有用な意味を見出すには専門的なテクニックが必要であり、それを体得している人材が「データサイエンティスト」で、そうした人材はこれまで意識して育てられてこなかったので、人材プールが不足している、というわけです。

なるほど、そうだろうなと思います。データがたくさんあっても、それを分析する人材がいないと無意味です。分析のノウハウを社内で磨いてこなかった企業も、多いことでしょう。

しかしデータ分析の実務を想像すると、素朴な疑問が浮かぶのです — 数が少ないとされるデータサイエンティストを運よく獲得できると、その企業は安泰なのでしょうか。

確かに、大規模なデータから探索的に分析を行い、隠れた意味を把握するには、統計分析の知識を中心とした専門的な分析技術を習得し、状況に応じてそれらを使いこなせる必要があります。

この「状況に応じて」というところがポイントで、既知であるさまざまなアルゴリズムの中から、分析する状況にあった手法を取捨選択し、出力された結果を読み解く技術が要求されるのです。

では、その技術を習得し使いこなせる「データ分析ができる専門人材」がつまり「データサイエンティスト」だとして、その人はどんなコンテキストでも万能に分析できるものなのでしょうか。

特に科学技術の分野では、ビジネスの分野でいまのように騒がれるずっと以前から、データはそれこそビッグでした。だから、スーパーコンピュータのようなものがないと最先端の分析研究ができないわけです。それなら例えば、ヒトゲノム(DNA)のデータ分析を手掛けているデータサイエンティストは、小売店のPOSデータの分析者にも簡単になれるものなのでしょうか。

どんな分野の分析においても、「どう分析するか」よりも「何を見たいのか」のほうが問題ではないでしょうか。そのとき、単にデータサイエンティストを連れてきただけでは「何を」が欠けてしまいます。

また、これもどんな分野の分析でも同じですが、データ分析の結果というものは、実際は試行錯誤の末の産物です。マスコミやベンダーなどが示す事例で見かける「美しい結果」より前に、実は無数の「取るに足らない結果」が出力されています。分析担当者が毎日、それこそ実験を繰り返すようにいろいろなことを考え試してはじめて、意味のある有益な出力が得られるのが、現実のデータ分析なのです。

さらに、別の問題もあります。

従来の統計分析手法は「パターンを見つける」ことを主な目的としています。よく言われる「ビールを買う男性が一緒にオムツを買っていく」という逸話も、アマゾンなどのネットショップで頼まなくても表示される「レコメンド」も、すべてパターン分析の結果です。

一方、ビジネスの文脈では、パターンも大事ですが、実はそれにもまして、顧客や見込み客がなにかの拍子に変容する「きっかけ」を見つけるのが大事なことが多いと思いませんか?興味を持っていなかった人が興味をもつ「きっかけ」、その逆に興味を持っていた人が興味を失う「きっかけ」、そういうものがビジネスにより重大な影響を与えると思いませんか?

そうした「きっかけ」は、従来型の統計分析手法ではとても見つけにくいのです。なぜなら、パターンにならないほど「頻度が小さくてランダム」だからです。みなさんにとって大事な「きっかけ」って、そう何度もありませんよね?

このように、データ分析においては確かに専門知識は重要ですが、それを持っている人が一発で答えを導出できるわけではないのです。必ず、試行錯誤を伴います。

ですから、みなさんの会社でデータサイエンティストが必要ならば、「自社のことを知らない人を探して採用する」よりも、社内にいるロジカル思考のできる人材を選定して勉強してもらい、育てること。そして彼らが活動できる業務環境やデータ管理基盤を社内に整備してあげること。これらを優先して行うべきと、わたしは考えます。

そのうえで、経営者は活動をウォッチしながら、期待半分程度で、ホンモノの成果が出るのを気長に待つことです。

「ビッグデータ」で見かける、あぶないカン違い(2012年7月)

ときどき、企業の業務改善に関する事例やストーリーを目にする方も多いことでしょう。参考になる話がたくさん盛り込まれており、わたしもよく勉強させてもらっています。

そうした業務改善に取り組むに当たって必須になるのが、業務分析と呼ばれる作業です。ところで、この業務分析には、置かれた状況に応じて 2 つのアプローチのしかたがあることをご存知でしょうか。

ひとつは、あるべき(ありたい)姿やあるべき(ありたい)シナリオがわかっている状態で使うアプローチ、もうひとつは、それがわからない状態で使うアプローチです。

言われてみれば当たり前に聞こえるかもしれません。しかし、この違いをはっきり意識して使い分けないと、間違った取組みに邁進することが実際によくあります。

先日、こんな話を耳にしました。

ある企業に、モノには自信があるのになかなか売れない商品がありました。なんとか売れるようにしたいということで、その企業は、売れない商品を売るための対策を立てることにしました。

具体的には、現状の営業の業務プロセスを見える化し、「~数」とか「~率」などの数値を割り出しながら、科学的に業務分析をしたのだそうです。その結果から、成果を上げるプロセスを設計したとのことでした。

その話では、設計したプロセスを実践してみた結果が語られなかったのですが、わたしはこれを聞いて「いまいちうまく行かなかっただろうな」と直感しました。

なぜなら、アプローチが間違っているからです。

先ほど、2 つのアプローチがあると述べました。これらをどう使い分けるかというと、端的にいえば「あるべき姿が理解・共有できているかどうか」でアプローチを変えます。

つまり、理想のフォームが明確なのであれば、科学的な手法で業務を分析し、理想との違いを浮き彫りにして成果を出しやすい個所を特定し、理想に近づける方策を実践します。

一方、理想のフォームが明確でないのなら、リファレンスがないので採るべき方針が明確にできません。その場合は、仮説検証型のアプローチを採ります。仮説検証型のアプローチでもし科学的な分析をするのなら、仮説を実践した後の検証のパートにおいてです。

先ほどのケースに戻りましょう。売れない商品を売る、という場合、みなさんには「売れる営業プロセスのあるべき姿」がわかるでしょうか。わかるのなら、そもそも売るのにあまり苦労しないのではないでしょうか。このケースの場合、採るべきは仮説検証型のアプローチです。

ところがこのケースでは、仮説を立てずにいきなり「科学的な分析」を始めています。それでも何らかの「成果を上げるプロセス」は導出され、分かった気になるのですが、いわゆる机上の空論になりやすく、やってみても思ったとおりには行かないことがほとんどなのです。

これが、わたしが「うまく行かなかっただろうな」と直感した理由です。

ここでぜひ強調したいのは、「知りたいことが何かがわかっていないのなら、分析しても意味をなさない」ということです。これは、巷で話題の「ビッグデータ」に関しても言えます。

ときどき経営者のインタビューなどで、「欲しい情報をすぐに見たい」を発言されているのを見つけることがあります。このとき、「欲しい情報」とは何か、それによって何を見出しどういう判断を下せるのか、そうしたシナリオまで語れるのなら、このセリフには説得力が出ます。しかしそうでないなら、それは「ビッグデータ失敗予備軍」の傾向です。

よく「データは語る」などのかたちで、さも万能であるかのように、マスコミも「ビッグデータ」を少々煽るようなストーリーを展開することがあるように感じています。データは語るかもしれませんが、実際は使う側から働きかけなければ何も語りませんし、使う側がデータを見抜こうとしなければ、何も見えません。ベンダーが提供する技術によってデータを出力すれば勝手に語りかけてくれると思ったら、確実に間違えます。

それは、今も昔も変わらないことのはずです。「ビッグデータ」によって新しくなったのは、技術の進化によってかつて不可能だったような大量のデータが簡単に処理できるようになった、ということ。誤解を恐れずに言ってしまえば、そのことだけなのです。