フィルターバブル

フィルターバブル (filter bubble) とは、「インターネットの検索サイトが提供するアルゴリズムが、各ユーザーが見たくないような情報を遮断する機能」(フィルター)のせいで、まるで「泡」(バブル)の中に包まれたように、自分が見たい情報しか見えなくなること。ただしこれは、検索結果における表示順位を操作するSEOとは異なるものである。

概要

[編集]
「フィルターバブル」の用語を生み出した、環境活動家のイーライ・パリサー

インターネットの検索サイトは、各ユーザーを識別する仕組み(クッキーフィンガープリントなど)を用いて、各ユーザーの所在地、過去のクリック履歴、検索履歴などと言った、各ユーザーのプライベートな情報を把握している[注 1]。そして、各ユーザーのプライベートな情報を、それぞれの検索サイトのアルゴリズムに基づいて解析し、そのユーザーが見たいだろうと思われる情報を選択的に推定して、ユーザーが見たくないだろうと思われる情報を遮断している[注 2]。そして、各ユーザーごとに最適化された、各ユーザーが見たいだろうと思われる検索結果のみを返している[注 3]。GoogleやFacebookなど、ほとんどのwebサイトでは標準で導入されており、同じ「インターネット」を見ているつもりでも、人々が実際に見ているのはこのように「フィルター」を介してパーソナライズされた世界である[注 4]

自分の欲しい検索結果が返って来るようなアルゴリズムを持つwebサイトほど、良いwebサイトだとユーザーに評価されるので、各サイトの検索アルゴリズムはますます進化したが、一方で、検索サイトのアルゴリズムがますます進化して、ますます自分の欲しい検索結果が返って来るようになると、最終的には、自分の見たい情報[注 5]以外をインターネットで見ることができなくなる。そして、自分の観点に合わない情報から隔離され、同じ意見を持つ人々同士で群れ集まるようになり、それぞれの集団ごとで文化的・思想的な皮膜(バブル)の中に孤立するようになっていく。この現象を「フィルターバブル」という。

この語はインターネットの環境活動家であるイーライ・パリサーが2011年に出版した同名の題の著書『The Filter Bubble』(邦訳は『閉じこもるインターネット』のタイトルで2012年に刊行)の中で作った。この本によると、ユーザーは次第に自分の考えと対立する観点の情報に触れることができなくなり、自分自身の情報皮膜の中で知的孤立に陥るという。イーライ・パリサーは2016年に、「あなたに『いいね!』する人の書き込みだけを見ている間に、あなたが大嫌いな人が大統領[注 6]になっていて驚くわけですよ」[1]と述べた。

パリサーによると、フィルターバブルの効果は、人間どうしの対話に対してネガティブな影響がある可能性があるというが、影響はほとんどない、あるいは解消可能であるとする説もある(後述)。

まるで「エコー・チェンバー」にいるかのように、あらゆる方向から自分と同じ意見が返ってくるような閉じた空間にいた結果、様々な人の意見を聞いて様々な考え方を知ることが出来るのではなく、単に自分の意見が増幅・強化されるだけとなる「エコーチェンバー現象」などとも関係が深い用語である。

コンセプト

[編集]

不特定多数を対象とする広告や政治的主張の場合、検索結果において自己の発信したい情報を高い順位に表示させる手段としてSEOがあるが、パリサーはフィルターバブルの概念を、「(検索エンジンの)アルゴリズムによりもたらされる、情報の個人的生態系」と定義している[2]。同じ現象を表すのに、「イデオロギー的額縁 (ideological frame)」[3]、あるいは「インターネットで検索するときにあなたを包んでいる比喩的な球体」[4] といった他の表現が使われたこともあった。

インターネット利用者が「リンクを踏む、フレンドを閲覧する、動画を再生キューに入れる、ニュースを読む」などして特定のトピックスに興味を示すと、過去の検索履歴は蓄積される[4]。そこでインターネット事業者はそうした情報を利用してそのユーザー向けの広告をターゲットしたり、検索結果がより目立つようにしたりする[4]

パリサーの憂慮は、「ホテル・カリフォルニア効果」として2010年にティム・バーナーズ=リーがガーディアン紙で示した憂慮にやや似ている。これは、インターネットのソーシャル・ネットワークのサイトが(インターネット利用者のシェアを拡大する目論見で)他の競合するサイトを遮断しているので、特定のインターネット・サイトに「入れば入るほどにその情報から脱出できなくなる」ことに関連して述べたものだった。こうした運営はワールドワイドウェブをばらばらに分断するリスクを孕む「コンテンツの閉じたサイロ」になるという[5]

パリサーは著書『フィルターバブル』で、フィルター付き検索の潜在的欠点は「我々を新しいアイデア、話題、重要な情報から締め出すことになる」[6] 「我々の狭い私欲が世界の全てであるという印象を生み出す」[3]と警告する。パリサーの見方では、これは個人と社会の双方にとって潜在的に有害だとする。彼はグーグルとフェイスブックを「ユーザーにお菓子ばかり与えて野菜を少ししか与えない」と批判した[7]。 パリサーによれば、フィルターバブルが「市民的対話をひそかに破壊」して人々を「プロパガンダ情報操作」に対してより無力になるとして、フィルターバブルの有害な効果は社会全体に害をなすとする[3]

フィルターバブルは、スプリンターネットまたはサイバーバルカン化[8]と呼ばれてきた現象を悪化させるとして描写されている。サイバーバルカン化は、インターネットが、自身のオンラインコミュニティーに隔離され異なる観点に触れなくなったような、似たような思想の人からなるサブグループに分裂してしまうことをいう。サイバーバルカン化という単語は1996年に生まれた造語である[9][10][11]

反応

[編集]

フィルタリングの効果は、ブラウザをプライベートモードで開き普段の状態と比較することで確認できる。プライベートモードではキャッシュ、クッキー、履歴等がウインドウを閉じる度に消去されるので、過去の検索履歴に影響されない状態でブラウズできる。

特定個人に特化したフィルタリングがどの程度行われているか、またそれが有益なのか有害なのかについて、対立する報告がある。

アナリストのジェイコブ・ヴァイスバーグはスレート誌の記事で科学的ではないが実験を行った。異なるイデオロギー的背景をもった5人が同じ検索をした結果、5人の検索結果は、4件の異なる検索をしてもほぼ同一だった。このことから、万人が“俺様新聞(en:Daily Me)”に畜養されているというのは言い過ぎだとしている[3]

特定個人に特化したリコメンドを分析したウォートン・スクールの科学研究では、オンライン音楽の好みに関しては、これらのフィルターは実際には断片化ではなくむしろ集団を作るほうに作用していることが分かった。消費者はフィルターを使うことで好みを制限するのではなく、拡張していた[12]

文芸評論家ポール・ブティンは異なる検索履歴をもつ人たちで似たような実験を行ったところ、ほとんど同じ検索結果というヴァイスバーグと似たような結果が得られた[13]

ハーバード大学のジョナサン・ジットレイン法学教授は、個人フィルターがどの程度グーグルの検索結果を歪めているかを議論し、「検索のパーソナリゼーションの影響は軽微だった」と述べている[3]

さらに、グーグルのパーソナリゼーション機能は、ウェブの履歴を消去するなどの手法でユーザーが選べば停止させることができるという報告もある[14]。グーグルのスポークスパーソンは、ここで言うようなアルゴリズムはグーグル検索に「パーソナリゼーションを制限し多様化を促進するため」意図的に加えられていると示唆した[3]

対策

[編集]

ウェブブラウザのプライベートモードを使う

[編集]

たいていのブラウザには、クッキー閲覧履歴キャッシュ等を毎回消去するプライベートモード(シークレットモード)がある。これを使えば過去の検索履歴に影響されることはないが、PCの場合プライベートウインドウ内のタブ同士ではCookieは共有されているので、ウインドウを閉じないとCookieは消去されない。標準ウインドウでもブラウザ終了時にCookieを消去する設定項目が存在している。同様にこの機能の影響を受ける例として、検索連動型広告行動ターゲティング広告などが挙げられる。

個人によるもの

[編集]

利用者は、自らのフィルターバブルを打ち破るよう行動できる。例えば、自分が接している情報を吟味するよう意識的な努力をしたり、「自分は幅広いコンテンツに接しているのだろうか」と自問する[15]メディア・リテラシー)。「利用者の偏見を妨げる技術に頼る」というよりも、むしろ「メディアに対してどのようにアプローチするか」という心理状態を変えるのである。これにより利用者は、未検証もしくは根拠の薄いニュース発信源を意識的に防ぐことができる。例えばIABのマーケティングのVPの、クリス・グルスコ(英:Chris Glushko)はフェイク・ニュースを見分けるためにSnopes.comのようなファクトチェックサイト(英:fact-checking site)を使うことを勧める[16]。これはフィルターバブルを撃退するのにおいて有益な役割を果たすこともできる[17]

メディア会社によるもの

[編集]

ソーシャル・メディアにおける情報のフィルタリングについての最近の懸念を踏まえて、フェイスブックはフィルターバブルの存在を認め、それらを取り除くための一歩を踏み出した[18]。2017年1月に、フェイスブックは一部のユーザーが話題性の高い出来事を見ることができないという問題に応えて、トレンディング・トピックス(英:Trending Topics)からパーソナライゼーションを除去した[19]。フェイスブックの戦略は、2013年に導入された、ユーザーが共有記事を読んだ後に表示される「関連記事」(英:Related Articles)機能を廃止することである。今回、刷新された戦略では、このプロセスを反転させ、同じトピックについて異なる視点からの記事を表示する。フェイスブックはまた、信頼できる情報源からの記事のみが表示される精査プロセスを試みている。フェイスブックはクライグリスト(英:Craighslist)の創業者とその他数名とともに、「世界中のジャーナリズムへの信頼を高め、公衆により良い情報を提供する」取り組みに1400万ドルを投資した[18]。これはたとえ友人からシェアされた記事だけを読んでいたとしても、少なくともそれらの記事は信頼できるものになるということである。

関連図書

[編集]

脚注

[編集]

注釈

[編集]
  1. ^ この仕組みをトラッキングという。
  2. ^ この仕組みをフィルタリングという。
  3. ^ この仕組みをパーソナライズ、またはパーソナライゼーションという。
  4. ^ これを無効化する「プライベートブラウジング」などと呼ばれる機能を持つウェブブラウザもあるため、無効化することも一応できる。
  5. ^ 実際は「検索サイトのアルゴリズムがそう判断した情報」であることが多い。
  6. ^ トランプ大統領のこと。

出典

[編集]
  1. ^ Eli Pariser: activist whose filter bubble warnings presaged Trump and Brexit | Media | The Guardian
  2. ^ Parramore, Lynn (October 10, 2010). "The Filter Bubble" The Atlantic. Retrieved April 20, 2011.
  3. ^ a b c d e f Weisberg, Jacob (June 10, 2011). "Bubble Trouble: Is Web personalization turning us into solipsistic twits?" Slate. Retrieved August 15, 2011.
  4. ^ a b c Lazar, Shira (June 1, 2011). > "Algorithms and the Filter Bubble Ruining Your Online Experience?" Huffington Post. Retrieved August 15, 2011.
  5. ^ Bosker, Bianca (November 22, 2010). "Tim Berners-Lee: Facebook Threatens Web, Beware". The Guardian. Retrieved August 22, 2012.
  6. ^ > "First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser". USA Today. 2011. Retrieved April 20, 2011.
  7. ^ Bosker, Bianca (March 7, 2011). "Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns". Huffington Post. Retrieved April 20, 2011.
  8. ^ 原註:サイバーバルカン化(サイバー・バルカン化とハイフンを付けることもある)という語は、インターネットに関連する サイバー と、歴史的、宗教的および文化的に細かく分裂していたヨーロッパ地域を指すバルカン化のかばん語である。この語はMITの研究者だったヴァン・アルスタインとブリニョルフソンの論文で登場した新語である。
  9. ^ Cyberbalkanization”. 2016年4月25日閲覧。
  10. ^ Van Alstyne, Marshall; Brynjolfsson, Erik (November 1996). “Could the Internet Balkanize Science?”. Science 274 (5292). doi:10.1126/science.274.5292.1479. http://www.sciencemag.org/content/274/5292/1479.summary. 
  11. ^ Systems hope to tell you what you'd like: `Preference engines' guide users through the flood of content”. Chicago Tribune (September 24, 2005). December 4, 2015閲覧。 “...if recommenders were perfect, I can have the option of talking to only people who are just like me....Cyber-balkanization, as Brynjolfsson coined the scenario, is not an inevitable effect of recommendation tools,,,,”
  12. ^ Hosanagar, Kartik; Fleder, Daniel; Lee, Dokyun; Buja, Andreas (December 2013). "Will the Global Village Fracture into Tribes: Recommender Systems and their Effects on Consumers".
  13. ^ Boutin, Paul (May 20, 2011). "Your Results May Vary: Will the information superhighway turn into a cul-de-sac because of automated filters?" The Wall Street Journal. Retrieved August 15, 2011.
  14. ^ Ludwig, Amber. "Google Personalization on Your Search Results Plus How to Turn it Off" NGNG. Retrieved August 15, 2011.
  15. ^ Are we stuck in filter bubbles? Here are five potential paths out, http://www.niemanlab.org/2012/07/are-we-stuck-in-filter-bubles-here-are-five-potential-paths-out/ 
  16. ^ Glushko, Chiris. “Pop the Personalization Filter Babbles and Preserve Online Diversity”. Marketing Land. 22 May 2017閲覧。
  17. ^ Ritholtz, Barry. “Try Breaking Your Media Filter Bubble”. Bloomberg. 22 May 2017閲覧。
  18. ^ a b Vanian, Jonathan (2017年4月25日). “Facebook Tests Related Articles Feature to Fight Filter Bubbles”. フォーチュン. 2017年9月24日閲覧。
  19. ^ Sydell, Laura (25 January 2017). “Facebook Tweaks its 'Trending Topics' Algorithm-tobetter-reflect-real-news”. NPR. KQED Public Media 

関連項目

[編集]

外部リンク

[編集]