ウェブの分析データは問題だらけ

ウェブはこれら全てを別の次元に変えたが、報道界の一部で思われているほど革新的なものではない。理論上は、ウェブによってメディアはある一個のコンテンツを何人が読んだか、あるいは見たり聞いたりしたか、ページ内のどこに進んだか、どの程度の時間そのページを見ていたか分かるようになった。

しかしウェブ分析の第一世代は問題だらけで、そのデータをメディアが業務の正確な分析のため使うことはできないものだった。

例えば、計測自体が混乱していた。何を計測するのが正しいのか。ユニーク訪問者数(読者・視聴者の数の全体を示す)か、ページ閲覧数(特定のコンテンツ内容に、いくつの目が向けられたかを示す)か。閲覧時間(ある記事を人々はどれくらい時間をかけて読むかという把握困難な数値)か、閲覧活動時間(人々が一つの記事に活動的に関わっている時間の長さ)か。

読者・視聴者による関わりは、サイトで過ごした時間、すなわち滞在時間で計る方が良いのか。もし、地元以外からサイトを見に来た人は広告主の関心外で、購読者にもならないとしても、そういう地元外の人も大切にすべきか。地元の、サイト愛ある読者・視聴者だけ気にすれば良いのか。

写真=iStock.com/metamorworks
※写真はイメージです

ページ閲覧数やユニーク訪問者数の“穴”

このような疑問が錯綜するのも、標準となる計測方法がないからだ。コムスコアのデータはニールセンやオムニチュア(現在はアドビの一部)、グーグル・アナリティクスのデータとは大きく異なることがある。

新しいデータによると、そこでページ閲覧数が多くても、人が見ているものとは全く限らず、ボット、つまり訪問者数を多く見せる自動クリックシステムによるものかもしれないという。

例えば、ある月にコムスコアでは「ワシントン・ポスト」のユニーク訪問者数が1700万人、ニールセンでは1000万人だった場合、あるいはある月のヤフーの読者実数に関するこれら2社の計測に3400万人、つまりカナダの人口くらいの差があったら、メディアはそこから何を理解すれば良いのだろうか。