第3章:情報の淘汰圧――SNSが「怒り」を選ぶ理由

【要約:「なぜ怒りの投稿ばかり目に入るのか」が、情報生態学的な解説。自分で情報を選び直す力をつけるには?】

  • なぜフェイクニュースの方が速く広まるのか――MIT研究が明らかにした「虚偽情報は真実より70%リツイートされやすい」という事実
  • 情報の「進化」とは何か――SNS空間で「感情強度」が選択圧になり、真実性よりも反応性が重視される仕組み
  • 新奇性バイアスと確証バイアス――人間の認知特性が、フェイクニュース拡散を加速させる理由
  • 感情記憶の神経的優位性――怒りや恐怖を伴う情報が、論理的情報よりも記憶に残りやすい脳の構造
  • 炎上の5段階進化モデル――情報がどう変異・増幅・極性化していくかのプロセス
  • 情報免疫プロトコル――ラテラル・リーディング、24時間保留ルール、再投稿より再考など、デマに騙されないための実践的手法

1.なぜ嘘の方が速く広まるのか――フェイクが広まり、理性が沈む進化モデル

「○○が危険だと判明!拡散希望」「マスコミが報じない真実」「これを知らないとヤバい」――SNSでこうした投稿を見かけたことがあるだろう。そして気づけば、それが数万リツイート、数十万いいねを獲得している。

後日、ファクトチェック団体が「この情報は誤りでした」と訂正記事を出す。しかし、その訂正は元の投稿の10分の1も拡散されない。冷静で正確な情報は、タイムラインの底に沈んでいく。

なぜこんなことが起きるのか?

答えは驚くほどシンプルだ。SNS上では、真実よりも”感情強度”の高い情報が生き残りやすい環境になっている[1]。

これは偶然ではない。多くの主要プラットフォームがエンゲージメント最適化を目的としているため、結果として感情的内容が優遇されやすい構造になっている。その結果、SNSは**「情報の自然淘汰の場」**となり、感情的で過激な投稿ほど拡散され、冷静で慎重な情報は淘汰される[2]。

この章では、情報がどのように「進化」し、なぜフェイクニュースの方が「適応的」なのか、その神経科学的・情報生態学的なメカニズムを解き明かしていく。

2.情報を「生物」として見る視点

情報生態学的な枠組み

情報を生物のように扱い、「どの情報が環境内で繁殖・淘汰されるか」を分析する視点が注目されている[3]。これは情報生態学的アプローチ(便宜的呼称で、学術的にはInfodemic研究や文化進化・ミーム理論の枠組み)と呼ばれる[4]。

生物学の進化論では:

  • 個体が環境に適応できるかどうかで生存が決まる
  • 繁殖成功度の高い形質が次世代に受け継がれる
  • 環境が変われば、適応的な形質も変わる

これをSNSの情報に当てはめると:

  • 情報が「環境(SNSのアルゴリズムとユーザーの脳)」に適応できるかで拡散が決まる
  • 「いいね」「シェア」「保存」「コメント」が繁殖成功率を意味する
  • 情報が生き残るためには、脳に刺さる刺激性が必要になる

情報の適応度を決める要因

進化論でいう「環境適応」を、SNS空間ではこう書き換えられる:

情報の適応度 = 感情刺激 × 拡散速度 × 記憶保持

つまり:

  1. どれだけ強い感情を喚起するか(扁桃体の活性化)
  2. どれだけ早く拡散されるか(ネットワーク効果)
  3. どれだけ長く記憶されるか(海馬・扁桃体への定着)

この3つの要素が高いほど、その情報は「適応的」と見なされ、アルゴリズムによって優遇される[5]。

真実性は適応度に含まれない

重要なのは、この適応度の式に**「真実性」という項目がない**ことだ。

生物の進化でも、「道徳的に正しい」形質が選ばれるわけではない。環境に適応し、繁殖に成功すれば、それが「適応的」とされる。同様に、SNSでも「正確かどうか」ではなく「反応を引き出せるかどうか」が選択基準になる[6]。

これが、フェイクニュースが真実よりも拡散されやすい根本的な理由だ。

3.感情の”自然選択”が起こる仕組み

メカニズム1:アルゴリズムによるフィードバック選択

SNSのアルゴリズムは、反応率を「報酬信号」として学習する[7]。具体的には:

  • クリック率(CTR):どれだけクリックされたか
  • 滞在時間:どれだけ長く見られたか
  • エンゲージメント率:いいね・コメント・シェアの合計

これらの指標が高い投稿は、アルゴリズムから「質が高い」と判定され、より多くのユーザーに表示される。

問題は、これらの指標は感情的刺激と強く相関することだ[8]。具体的には:

  • 怒りを喚起する投稿→コメントが増える(反論・共感)
  • 恐怖を喚起する投稿→シェアが増える(警告の拡散)
  • 驚きを喚起する投稿→クリック率が上がる(「まさか!」)

研究では、道徳的・感情的な言葉(moral-emotional language)が1語増えるごとに、拡散が約20%増加することが示されている[8]。さらに、オンライン上での社会学習により、他者からの正のフィードバックが憤怒の表明を増幅することも確認されている[9]。

結果として、ユーザーの怒り・恐怖・優越感を引き起こす投稿が自動的に上位表示されるようになる。これがフィードバック選択のループだ。

メカニズム2:感情記憶の神経的優位性

なぜ感情的な情報の方が記憶に残りやすいのか?それは脳の記憶システムの構造による[10]。

通常の記憶(論理的情報)

  • 主に海馬で処理される
  • 意識的な努力が必要
  • 時間とともに薄れやすい

感情記憶(感情的情報)

  • 扁桃体と海馬が連携して処理される
  • 無意識的に強く刻まれる
  • 長期的に保持されやすい

Kensinger & Schacterの研究(2006)では、負の感情を伴い、覚醒度の高い刺激は、中立的な刺激よりも記憶の定着が有意に強いことが示されている[10]。これは進化的には、「危険な情報を忘れないため」のメカニズムだった。

しかしSNS上では、この「危険情報の優先記憶」が逆用され、「腹が立つ情報」や「不安を煽る情報」の方が記憶され、共有されやすいという状況を生んでいる。

メカニズム3:情報のウイルス的拡散

フェイクニュースは、生物学的なウイルスと驚くほど似た振る舞いをする[1]。

ウイルスの拡散モデル

  1. 感染(閲覧)
  2. 複製(共有・リツイート)
  3. 変異(引用時の改変・誇張)
  4. 再感染(変異版が再び拡散)

MITの研究チームVosoughiらが2018年にScience誌に発表した大規模分析は、衝撃的な結果を示した[1]:

  • 2006年から2017年までのTwitter上の12万6千件のニュース拡散を分析
  • 真実のニュースと虚偽のニュースを比較
  • 虚偽情報は真実よりも70%リツイートされやすい
  • 真実が1,500人に到達するまでの時間は、偽情報の約6倍かかる
  • 特に政治関連の虚偽情報の拡散速度が最も高い

この研究はさらに重要な発見をしている:ボット(自動プログラム)の影響を除外しても、人間だけで虚偽情報の方が拡散される。つまり、人間の認知特性そのものが、フェイクニュースの拡散を促進している[1]。

メカニズム4:新奇性バイアスと確証バイアスの相乗効果

なぜ人間は虚偽情報を拡散しやすいのか?Vosoughiらは2つの認知バイアスを指摘している[1]:

新奇性バイアス(Novelty Bias)

  • 人間の脳は新しい情報、驚くべき情報に強く反応する
  • フェイクニュースは真実よりも「新奇性」が高い(現実にはあり得ない極端な内容)
  • これが報酬系を刺激し、共有衝動を生む

確証バイアス(Confirmation Bias)

  • 自分の既存の信念を確認する情報を優先的に受け入れる
  • フェイクニュースはしばしば、特定の世界観を強烈に肯定する内容
  • 「やっぱりそうだったんだ!」という満足感が共有を促進

この2つが組み合わさると、「驚くべきだけど、自分の信念と一致する」フェイクニュースが最も拡散されやすくなる[11]。

4.SNS上の進化的均衡

感情的投稿vs論理的投稿の適応度比較

SNS空間における「情報の適応度」を比較すると、明確な差が現れる:

特徴 感情的投稿 論理的投稿
拡散速度 高い 低い
記憶保持 長い(扁桃体経由) 短い(海馬のみ)
フィードバック報酬 即時・多量 少ない・遅い
アルゴリズム優位性 高い(推奨表示) 低い(沈む)
感情的満足度 高い(怒り・共感の発散) 低い(思考負荷)
社会的影響 集団極性化・分断 合意形成困難

このように、SNSでは「共感や怒りを引き出すコンテンツ」こそが繁殖に有利で、アルゴリズムがそれをさらに拡大させる[12]。

ただし、エコーチェンバー現象の強度はプラットフォームによって異なる。Facebook、Twitter、Reddit、Gabなどを比較した研究では、プラットフォームの設計と利用者の選好の相互作用により、同質性クラスタの形成度合いが変わることが示されている[13]。

結果として、“怒り”が最も適応した情報形態になっている傾向がある。

典型的なパターン:炎上の進化段階

情報が「進化」するプロセスを、炎上事例で見てみよう:

第1段階:発生

  • 誰かが感情的な投稿をする(怒り・批判・告発)
  • 初期の拡散は限定的

第2段階:変異と増幅

  • 他のユーザーが引用・改変しながら拡散
  • 「○○が酷すぎる」→「○○は許されない」→「○○を許すな!」と過激化
  • 各変異版が独自に拡散し始める

第3段階:エコーチェンバー形成

  • 同じ意見のユーザーが集まり、相互に強化
  • 反対意見は攻撃され、沈黙(サイレンシング効果)[14]

第4段階:社会的極性化

  • 「賛成派」vs「反対派」の二極化が完成
  • 中間的・慎重な意見は両方から攻撃される
  • 元の事実関係は誰も確認しなくなる

第5段階:収束または固定化

  • 一時的に収束するか、恒常的な対立構造として固定化
  • 訂正情報は拡散されず、誤った認識が残存

このサイクル全体が、わずか数時間から数日で完了することもある[15]。

猫・犬・人間の情報処理の違い

再び動物比較が、人間特有の脆弱性を浮き彫りにする。ただし、以下は行動観察に基づく一般的傾向であり、厳密な比較神経科学研究による裏付けが十分ではない点を明記しておく

  • 情報源は直接的な感覚刺激のみ
  • 「他の猫が怒っている」という情報に感染しない
  • 自分の経験でのみ判断する

  • 社会的情報に影響されるが、対面状況に限定
  • 群れのメンバーの感情に同調するが、画面越しの犬の怒りには反応しない
  • 情報の「真偽」を確認する能力はないが、情報源の信頼性(リーダーかどうか)は判断できる

人間

  • 抽象的・間接的な情報に強く影響される
  • 「みんなが怒っている」という情報だけで、自分も怒り始める(感情伝染)[16]
  • 情報源の信頼性よりも、「多くの人が共有している」という社会的証明を重視
  • さらに、新奇性と確証バイアスにより、虚偽情報を積極的に拡散してしまう

実際、Facebookを使った大規模実験では、ポジティブ/ネガティブな投稿の表示頻度を操作すると、ユーザー自身の投稿の感情価も変化することが示されている[16]。ただし、この実験は事前同意なしに実施されたため、倫理的問題が指摘され、編集長注記が付与されている

人間の高度な社会性と言語能力が、情報ウイルスに対する最大の脆弱性になっている。

5.情報免疫を獲得するために

ここまで読むと、「SNSは情報汚染の場だから使うべきではない」と思うかもしれない。しかし、問題はSNSそのものではなく、私たちの情報処理の仕方にある。

完全な遮断は解決策ではない

SNSから完全に離れることは、現代社会では現実的ではない。そして、たとえSNSを使わなくても、マスメディアや口コミでも同様の情報拡散メカニズムは存在する。

重要なのは、情報環境の構造を理解し、自分の脳の反応パターンを自覚することだ[17]。

個人レベルでできる3つの対策

1. 一次情報に戻る習慣化

SNSで見た情報は「入り口」として扱い、必ず一次資料に遡る:

  • 「○○という研究で判明」→その論文を実際に読む
  • 「△△が問題だと専門家が指摘」→その専門家の元発言を確認
  • 「政府が□□を隠蔽」→公式統計・公式発表を直接確認

この手法は**ラテラル・リーディング(横断的読解)**と呼ばれ、情報リテラシー研究で有効性が実証されている[18]。共有・引用ではなく、一次資料・公式統計・査読論文を辿る。

2. 感情反応の自己モニタリング

強い感情(怒り・焦り・恐怖)を感じたら、それはアルゴリズムの餌になる可能性がある。

  • 即座に反応せず、24時間置く
  • 「なぜ自分はこれに怒っているのか?」と自問する
  • その情報が本当なら、明日も真実のまま。急ぐ必要はない

メール確認頻度を減らすだけでストレスが低下する研究結果があるが[19]、この原理はSNSの即時反応にも応用できる。感情のピークは一時的なものだ。時間を置くことで、前頭前野が回復し、冷静な判断が可能になる。

3. “再投稿より再考”

投稿・シェアの前に、次の3つを自問する:

  • これは誰の利益になるか?(自分、相手、社会、それともアルゴリズム?)
  • これは確認された事実か、それとも感情か?
  • これを拡散することで、どんな結果を望んでいるか?

これは、「正確さに注意を向ける」ナッジ(nudge)の一種だ。実験では、投稿前に正確さを意識させるだけで、誤情報の共有が有意に減少することが示されている[20]。

SNS上の拡散とは、実質的にはアルゴリズムへの協力行為である。あなたのシェアが、次の誰かの扁桃体を刺激し、感情の連鎖を生む[16]。

情報リテラシーの再定義

従来の情報リテラシーは「正しい情報を見分ける能力」だった。しかしSNS時代には、それだけでは不十分だ。

新しい情報リテラシーには、以下が含まれる:

  1. アルゴリズムリテラシー:どの情報が、なぜ自分に表示されるのかを理解する
  2. 感情リテラシー:自分の感情反応が、情報の質とは無関係であることを認識する
  3. 生態学的リテラシー:情報環境全体の構造を理解し、自分の位置を把握する

これは「情報を疑う」のではなく、「情報環境を理解する」ということだ[17][21]。

社会的・構造的な変化の必要性

個人の努力だけでは限界がある。プラットフォーム側の設計変更も必要だ:

すでに実装されている対策

  • 拡散速度の意図的な減速:WhatsAppは転送制限を導入し、一斉転送は5人まで、頻繁に転送されるメッセージは1人ずつに制限[22]
  • ファクトチェック機能の強化:虚偽情報に警告ラベル(Twitter/X、Facebookが導入済み)[20]
  • 正確さナッジの実装:投稿前に「これは正確ですか?」と尋ねるだけで、誤情報の共有が減少[20]

今後必要な対策

  • 感情的言語のフィルタリング:過度に攻撃的・煽動的な投稿の表示順位を下げる
  • アルゴリズムの透明性向上:なぜこの投稿が表示されるのかをユーザーに開示

一部のプラットフォームでは、こうした取り組みが始まっているが、まだ不十分だ[23]。

6.私たちは情報の進化を制御できるのか?

SNS上では、情報が生物のように「進化」している。そして現在の選択圧は、真実性ではなく感情強度に偏りやすい構造になっている。

フェイクニュースが真実より速く拡散されるのは、それが「適応的」だからだ。怒りや恐怖を喚起し、記憶に残り、共有を促す――この特性が、SNSという環境で最も「繁殖成功度」が高い。

しかし、これは不可避な現象ではない。生物の進化が環境によって変わるように、情報の進化も、私たちが環境(アルゴリズムとユーザーの行動)を変えれば、変えられる

私たちが直面している問いは3つある:

1つ目――私たちは、アルゴリズムが選んだ「適応的な情報」を消費し続けるのか? それとも、自分で情報を選び直す能力を獲得するのか?

2つ目――感情的な情報が拡散されやすいという人間の認知特性を変えることはできないが、その特性を自覚して制御することはできるのではないか?

3つ目――SNSという環境そのものを再設計し、「真実性」や「建設性」が適応的になるような選択圧を組み込むことは、可能なのだろうか?

答えは一つではない。しかし少なくとも、自分が情報の進化にどう加担しているかを知ること――それが、情報免疫の第一歩になる。

あなたが今日シェアした情報は、どんな「進化」を促進しただろうか?

出典

[1] Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146-1151.

[2] Acerbi, A. (2019). Cultural Evolution in the Digital Age. Oxford University Press.

[3] Cinelli, M., Quattrociocchi, W., Galeazzi, A., Valensise, C. M., Brugnoli, E., Schmidt, A. L., … & Scala, A. (2020). The COVID-19 social media infodemic. Scientific Reports, 10(1), 16598.

[4] Wardle, C., & Derakhshan, H. (2017). Information Disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe Report.

[5] Brady, W. J., McLoughlin, K., Doan, T. N., & Crockett, M. J. (2021). How social learning amplifies moral outrage expression in online social networks. Science Advances, 7(33), eabe5641.

[6] Pennycook, G., & Rand, D. G. (2021). The psychology of fake news. Trends in Cognitive Sciences, 25(5), 388-402.

[7] Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.

[8] Brady, W. J., Wills, J. A., Jost, J. T., Tucker, J. A., & Van Bavel, J. J. (2017). Emotion shapes the diffusion of moralized content in social networks. Proceedings of the National Academy of Sciences, 114(28), 7313-7318.

[9] Brady, W. J., McLoughlin, K., Doan, T. N., & Crockett, M. J. (2021). How social learning amplifies moral outrage expression in online social networks. Science Advances, 7(33), eabe5641.

[10] Kensinger, E. A., & Schacter, D. L. (2006). Processing emotional pictures and words: Effects of valence and arousal. Cognitive, Affective, & Behavioral Neuroscience, 6(2), 110-126.

[11] Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 175-220.

[12] Brady, W. J., Wills, J. A., Burkart, D., Jost, J. T., & Van Bavel, J. J. (2019). An ideological asymmetry in the diffusion of moralized content on social media among political leaders. Journal of Experimental Psychology: General, 148(10), 1802-1813.

[13] Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., & Starnini, M. (2021). The echo chamber effect on social media. Proceedings of the National Academy of Sciences, 118(9), e2023301118.

[14] Sunstein, C. R. (2017). #Republic: Divided Democracy in the Age of Social Media. Princeton University Press.

[15] Cinelli, M., Quattrociocchi, W., Galeazzi, A., Valensise, C. M., Brugnoli, E., Schmidt, A. L., … & Scala, A. (2020). The COVID-19 social media infodemic. Scientific Reports, 10(1), 16598.

[16] Kramer, A. D., Guillory, J. E., & Hancock, J. T. (2014). Experimental evidence of massive-scale emotional contagion through social networks. Proceedings of the National Academy of Sciences, 111(24), 8788-8790. [編集長注記: 本研究は事前同意なしに実施され、研究倫理上の議論を呼んだ]

[17] Wardle, C., & Derakhshan, H. (2017). Information Disorder: Toward an interdisciplinary framework for research and policy making. Council of Europe Report.

[18] Wineburg, S., & McGrew, S. (2019). Lateral reading and the nature of expertise: Reading less and learning more when evaluating digital information. Teachers College Record, 121(11), 1-40.

[19] Kushlev, K., & Dunn, E. W. (2015). Checking email less frequently reduces stress. Computers in Human Behavior, 43, 220-228.

[20] Pennycook, G., Epstein, Z., Mosleh, M., Arechar, A. A., Eckles, D., & Rand, D. G. (2021). Shifting attention to accuracy can reduce misinformation online. Nature, 592(7855), 590-595.

[21] Breakstone, J., Smith, M., Wineburg, S., Rapaport, A., Carle, J., Garland, M., & Saavedra, A. (2021). Students’ civic online reasoning: A national portrait. Educational Researcher, 50(8), 505-515.

[22] WhatsApp. (2020). Keeping WhatsApp personal and private. WhatsApp Official FAQ. https://faq.whatsapp.com/general/security-and-privacy/keeping-whatsapp-personal-and-private

[23] Nyhan, B., Porter, E., Reifler, J., & Wood, T. J. (2020). Taking fact-checks literally but not seriously? The effects of journalistic fact-checking on factual beliefs and candidate favorability. Political Behavior, 42(3), 939-960.

用語解説

情報生態学的視点(便宜的呼称):情報を生態系内の生物のように扱い、拡散・淘汰・変異のプロセスを分析する枠組み。学術的にはInfodemic研究や文化進化・ミーム理論が該当する。

感情伝染(Emotional Contagion):感情がネットワーク上で伝播し、群集心理を形成する現象。SNS上では、直接の対面なしに感情が「感染」することが実証されている。

アルゴリズム的選択圧:エンゲージメント最適化により、結果として「より反応率の高い情報」が優遇される性質。これにより、感情的・過激な情報が「適応的」になる。

道徳化言語(Moral-Emotional Language):道徳的・価値判断を帯びた語彙(例:許されない、恥ずべき、正義)。SNS上での拡散と強く相関する。

新奇性バイアス(Novelty Bias):人間の脳が新しい情報、驚くべき情報に強く反応する認知傾向。フェイクニュースは真実よりも「新奇性」が高いため、拡散されやすい。

確証バイアス(Confirmation Bias):自分の既存の信念を確認する情報を優先的に受け入れ、矛盾する情報を無視または軽視する認知バイアス。フェイクニュース拡散の主要因の一つ。

社会的極性化(Social Polarization):異なる意見集団が互いに敵対し、中間的立場が消失していく現象。SNSのエコーチェンバー効果により加速される。

サイレンシング効果(Silencing Effect):多数派の意見に反する発言が、攻撃や批判を恐れて抑制される現象。「炎上リスク」がこれを強化する。

ラテラル・リーディング(Lateral Reading):新規情報に接した際、同時に複数のウィンドウを開いて一次資料や信頼できる情報源を横断的に確認する評価手法。

社会学習(Social Learning in Online Context):オンライン環境において、他者からの正のフィードバック(いいね・共感)や規範学習により、特定の行動(憤怒の表明など)が増幅されるプロセス。

情報免疫プロトコル

レベル1:受信時の防御

  • SNS投稿は「現象」として観察し、「事実」として受け取らない
  • 強い感情(怒り・恐怖・興奮)を感じたら、24時間保留
  • 「拡散希望」「シェアして」という言葉がある投稿は、特に慎重に扱う

レベル2:検証時の手順

  • 一次資料(論文・公式発表・統計)に必ず遡る(ラテラル・リーディング)
  • 複数の独立した情報源で確認
  • 「誰がこの情報から利益を得るか?」を考える
  • 発言日時・出所・文脈の3点セットを確認

レベル3:発信時の倫理

  • 投稿前に「これはデータか?感情か?」を確認
  • 道徳化言語(「許されない」「恥ずべき」など)を最小限に
  • 感情を使うなら、炎上ではなく共感と再考を促す目的で
  • シェア前に「これがデマだったら、私はどう責任を取るか?」と自問

レベル4:環境の最適化

  • 意図的に異なる意見のアカウントをフォロー(エコーチェンバー破壊)
  • ファクトチェック団体をフォロー
  • SNSは「発信」より「観察」を主軸に置く
  • 転送・共有に「摩擦(遅延・上限)」を自前ルールで導入

レベル5:社会的責任

  • 訂正情報・ファクトチェックも積極的にシェア
  • デマを指摘するときは、攻撃ではなく情報提供のトーンで
  • 誤り判明時は同じチャンネル・同等強度で訂正をポスト(タイトル/冒頭を訂正宣言)
  • プラットフォームの報告機能を活用(明らかなデマ・ヘイトスピーチ)

※本記事は、査読済み学術論文と情報科学・認知心理学の研究を基に構成。情報拡散のメカニズムは複雑であり、単一の要因に還元できるものではない。また、「フェイクニュース」の定義自体が文脈依存的であることにも留意が必要。

error: Content is protected !!