検索するとゴミが多いのも困ったもんなんだけど、Googleが出してくる情報が新しいものに偏りすぎていて、「10年くらい間にこんな事件あったな。あれってどうなったんだっけ?」と調べようとすると、意外と手間がかかる。
— ジョー猫 (@korenkan) 2018年11月24日
検索エンジンの諸問題。いくつかは当方も何度となく解説しているけど、現状ではこんな感じだよなということで覚え書きも兼ねて。
まずはとにかくタイムスタンプが新しいものを優先する傾向がある。真偽はともかく新しいのが有利、検索上位、確からしいとのお墨付き。だからトレンドブログとか悪質系まとめサイトがはびこってしまう。確かに速報性はネットならではの長所だし、人が情報を取得する時の重要な要素の一つではあるけど、それが前に出過ぎると情報そのものの信ぴょう性がおかしなことになる。
検索結果の選択には複雑なロジックが用意されていて、その中身も逐次入れ替えられている。ただここ数年、速報性に偏りすぎている、ウェイトが大きすぎる感はある。フェイクが蔓延するようになったのもこれが一因。「別に真偽なんてどうでもいいじゃん、注目を集めていればそれでいいんだし、それを選んだだけだし、誰もデマかどうかなんて言ってないでしょ?」的な認識なんじゃないかなあ、と。今の検索エンジンって。
そして事件に関しては、そもそもウェブ上に情報が無い...というあか消されていることも多い。報道媒体のニュースは得てして時限爆弾的に一定時間が経つと消されてしまう。ポータルサイトへ転送されたものも同じ措置。だから少なくとも既存報道媒体による過去の情報は「無かったこと」にされてしまう。昔の新聞記事を探しても見つからず、検索に引っかかるのはその当時の悪質系まとめサイトの無断引用とか、電波系ブログの全文コピペとか、そういうものばかりという、本末転倒な状況。
さらに、情報の断絶感ってのもあるのかな。ジャンルによっても異なるのだけど、インターネット上にある情報がすべてってわけでは無くて、インターネットが普及し始めた以降の期間でも、結構情報が欠けている期間があったりする。指摘されているような、10年ぐらい前の話でしかないのに、探してみると案外見つからないとか。
総務省のデータベースe-statでも、調査そのものは随分前から行われているのに、数字としてデータ化されているのは2000年ぐらいからとか2005年以降ってのは結構あるし、それ以前のがあってもCSVとかエクセルデータでは無くて元々の報告書が取り込みされたままでPDF化されただけってのもあったりする。
情報の断絶感ってのも公的な形でどこかが補完するようなことをしていかないと、あと10年、20年経過した後に、色々とまずい状況になる気がするのだけどね。
コメントする