①の記事は、読みやすく多くの人が理解できる代わりに、厳密性や詳細に欠けます。一方で、②の記事は正確ではありますが、知的水準がかなり高い人でないと理解できないし、読解にも時間がかかります。
そう考えると、答えは一長一短で、「客観的な質の高いコンテンツ」を判定するのは難しくなります。
ユーザー一人ひとりの反応が検索順位に反映されている
では、Googleの検索エンジンはどのようにしてコンテンツを判別しているのでしょうか。アルゴリズム自体はブラックボックスではあるのですが、近年のGoogleのアルゴリズムでは、「質の高いコンテンツ」を判断するために、コンテンツの文言や文章構造を解析するだけでなく、検索エンジンを閲覧したユーザーの動き、つまり私たち読者1人1人の反応を機械学習により分析して、検索順位に反映するようになっているようです。
たとえば、先ほどの「インフルエンザ 症状」というキーワードだと、その検索キーワードで検索された結果のうち、どのようなWebサイトを私たちがクリックしたのかを見ているでしょう。また、もし検索結果の内容が不十分であれば、私たちは再度検索結果のページに戻って、ほかのページに遷移したり、検索し直すという行動に出ます。そういった結果の積み重ねから、最終的に支持されていると思われる行動が多いWebページを上位に表示していくイメージです。
もちろん、実際には先述したような他サイトからの参照や言及、サイト構造などさまざまな要素が加味されるのですが、一般論としては、検索キーワードごとに「私たちの閲覧の結果の多数決」に近い判断がなされていると考えてもいいと思います。
では、先ほどの2つのパターンでは、一般的にどのようなサイトが上位表示されるのでしょうか。
「インフルエンザ 症状」というキーワードで検索するのは、もともとインフルエンザや医学的知識が少ない、一般の人がほとんどです。そうなると、当然のごとく、一番わかりやすいWebコンテンツが相対的に上位表示されやすい傾向になります。
わかりやすい情報ばかりが上位に表示される弊害
さてそうなると、検索結果は、検索する人にとって最大公約数的に役に立つ「お客様目線」のコンテンツになります。言い換えれば、「検索者のリテラシーが高くなければ、とにかくわかりやすく、底の浅い情報ばかりが上位表示される」ことになってしまいそうです。
そんな検索結果だと、弊害は発生しないのでしょうか? 実際に、弊害が発生しました。2016年末、株式会社ディー・エヌ・エーが運営していた「WELQ」という医療系の情報サイトが存在していました。当時膨大な情報量を誇ったこのサイトは、多くの医療系の検索キーワードで上位表示されていました。