夜、スマホを開く。またあの投稿が流れてくる。「あいつらが敵だ」「あの集団は悪だ」——気づけば指が止まらない。反応してしまう。コメントを書く。シェアする。心臓が早鐘を打つ。
違和感はずっとあった。「これ、操作されてないか?」
その直感は、正しかった。
分断という、完璧なビジネスモデル
Facebookの元プロダクトマネージャー、フランシス・ハウゲンが2021年に内部告発した時、世界は震撼した。彼女が暴露したのは、プラットフォームが「エンゲージメント」を最大化するために、怒りや憎悪を意図的に増幅させていたという事実だった。2019年の内部研究は明確に記していた:「Facebookのアルゴリズムは中立ではない。反応を引き出せるコンテンツを優遇する。結果として、怒りと誤情報がバイラルになりやすい」。
なぜか?
分断=反応=エンゲージメント増加=広告収益増加。
アルゴリズムは感情を煽るコンテンツを優先的に配信し、ユーザーの怒りを燃料にして回り続ける。まるで怒りの発電所のように。2025年のソーシャルメディア広告費は約$276.7億に達すると予測されている。これは単なる数字ではない。私たちの分断が、誰かの利益に変換されているのだ。
失われた対話、売られた関係
思い出してほしい。SNSが登場する前、意見の違う人とどう向き合っていただろう?
カフェで、居酒屋で、リビングルームで。声のトーンがあり、表情があり、沈黙があった。相手の目を見て、ためらいながら言葉を選んだ。「この人を傷つけたくない」という、当たり前の躊躇があった。
でもスマホの画面越しでは、相手は「アイコン」になる。血の通った人間ではなく、「敵陣営」の記号になる。そして画面の向こうには、その変化を歓迎する存在がいる——アルゴリズムが。
ある家族の物語がある。2024年の選挙後、母親はTikTokから離れられなくなった。毎朝出勤前、毎晩夕食後、何時間もドゥームスクロール(破滅的なニュースを延々と見続けること)を続けた。やがて彼女は父親を政敵だと疑い始め、家庭は分断された。この家族だけではない。無数の友情が、家族の絆が、静かに砕かれていった。
Facebookの内部研究者は2019年に書いている:「私たちのプラットフォームでエンゲージメントを生み出す多くのものが、ユーザーを分断し、憂鬱にさせることを知っている」。
彼らは、知っていた。
見えない操り手たち
もっと不気味なのは、その「怒り」の多くが本物の人間から発せられたものではないということ。
2024年の選挙シーズンを前に、研究者たちは警告を発した。現代のbotはもはや見分けがつかない。プロフィール写真があり、フォロワーがいて、文法も完璧。そして最も重要なことに、彼らは反応し、特定のトーキングポイントを使い、議論に負けない。
あなたが昨夜、激しく論争した相手を思い出してほしい。その相手は、本当に人間だっただろうか?
2024年初頭の中国スパイ気球事件をめぐるTwitter上の戦いを分析した研究者たちは、120万件のツイートを調査し、驚愕の事実を発見した。中国側のツイートの64%がbotによるものだったが、アメリカ側も35%がbotだった。
つまり私たちは、知らないうちに機械と議論していた。人間のふりをした自動プログラムが、私たちの感情を揺さぶり、意見を操り、社会を分断していた。2024年のGlobal Witnessの調査では、わずか45のbot的アカウントが40億インプレッションを生成し、分断的なコンテンツを拡散していた。
40億回。それだけの回数、誰かの怒りが、誰かの憎悪が、植え付けられた。
アルゴリズムの残酷な真実
2024年アメリカ大統領選挙期間中の監査研究は、X(旧Twitter)のアルゴリズムが左派・右派双方のユーザーに対して、自分の政治的立場に合致したコンテンツへの露出を増幅し、反対意見への露出を減少させていることを明らかにした。別の研究では、2008年から2010年にかけて、ソーシャルメディアの普及と共に親密な社会的つながりの数が平均2人から4〜5人に増加したのと並行して、社会の分断が劇的に増加したことが示された。
つまり、私たちはより多くの人と「つながった」。なのに、より孤立した。
皮肉なことに、アルゴリズムのない環境でシミュレーションを行った研究でさえ、投稿・リポスト・フォローという基本機能だけで分断が生じることが示された。まるでSNSという構造そのものが、分断を呼び込むように設計されているかのように。
ハウゲンの証言は核心を突いた:「Facebookはアルゴリズムを安全にすると、人々がサイトに費やす時間が減り、広告のクリックが減り、収益が減ることを理解している」。
だから、変えない。変えられない。変える気がない。
血塗られたアルゴリズム
これは抽象的な話ではない。
ミャンマーのロヒンギャ虐殺は、Facebookのアルゴリズムが助長した史上初の民族浄化キャンペーンだった。エチオピアでは、プラットフォームが民族間の暴力を煽っている。若者には摂食障害のコンテンツを、家族には分断を、様々な国では暴力を——アルゴリズムは冷徹に、最も「エンゲージメント」を生み出すものを配信し続けた。
画面の向こうで、人が死んでいる。
でも2024年のデジタル広告収入は15%増加し、$259億に達した。株価は上がり、CEOたちは笑顔で決算報告をする。
静かな抵抗、小さな希望
じゃあ、どうすればいい? 絶望すればいい? スマホを捨てればいい?
違う。もっと静かで、もっと強い方法がある。
まず知ること。その怒りが本物か、誰かに売られたものかを見極めること。
反射的に激怒したとき、立ち止まって問うこと:「これは餌じゃないか?」
研究者たちは、わずか15%のユーザーがフェイクニュースを信じるだけで、ネットワーク全体に重大な誤情報と分断が生じることを示した。逆に言えば、85%の私たちが踏みとどまれば、潮流は変わる。
一人ひとりの判断が、社会全体の未来を左右する。
プラットフォームは変わらないかもしれない。利益構造が、分断に依存しているから。X(旧Twitter)やRedditは分断的な議論を増幅し続け、18〜34歳の41%がプラットフォーム文化について強い意見を持っている。
でも、私たちは変われる。
画面の外へ
ある日、試しにやってみてほしい。
スマホを閉じて、実際に誰かに会いに行く。意見の違う人でもいい。カフェでもいい、公園でもいい。そして話す。相手の目を見て、声を聞いて、笑顔を見て。
画面越しでは「敵」だった人が、実は優しい親であり、不安を抱えた若者であり、あなたと同じように悩んでいる人間だと気づく。
アルゴリズムは、この瞬間を恐れている。なぜなら、本物の対話には「エンゲージメント指標」がないから。広告枠がないから。値札がつけられないから。
その「いいね」を押す前に、一呼吸置く。そのシェアボタンに触れる前に、問いかける。「これは誰を傷つけ、誰を儲けさせるのか?」「この怒りは、本当に私のものか?」
分断は売られている。だが、私たちは買わなくてもいい。
そして
夜、もう一度スマホを開く。
でも今度は、少し違う。投稿を見て、反射的に反応する前に、深呼吸をする。この怒りの向こうに、誰がいるのか想像してみる。botかもしれない。でも、もしかしたら、あなたと同じように不安で、孤独で、誰かにわかってほしいと願っている人間かもしれない。
画面を閉じる。
窓の外を見る。月が見える。どこかで、あなたと同じように月を見上げている人がいる。意見は違うかもしれない。でも、同じ月を見ている。
それだけで、少し、救われる。
分断は売られている。でも、私たちの心まで買うことはできない。
沈黙の側にあるもの
私たちは、言葉でつながり、言葉で傷つく生き物だ。
だが、ほんとうに誰かと通じ合う瞬間は、いつも言葉の外にある。
深夜、画面の光が部屋を染める。
無数の投稿、無数の声。
そのどれもが「見てほしい」「わかってほしい」と叫んでいる。
けれど、声が大きくなるほど、心は遠くなる。
怒りも、悲しみも、渇望も、
どれも「誰かとつながりたい」という願いの裏返しだった。
ならば――
沈黙こそが、最後に残された言葉かもしれない。
スマホを閉じたあと、世界はまだ静かに動いている。
風がカーテンを揺らし、冷たい空気が頬を撫でる。
外には、見知らぬ誰かの生活があり、
その人もまた、あなたと同じように息をしている。
分断は売られている。
だが、共感はまだ、誰のものでもない。
そしてそれは、クリックではなく、
静かなまなざしの中にしか宿らない。
出典
• Ninomiya, M. et al. (2025). “Mitigating opinion polarization in social networks using adversarial attacks.” *Scientific Reports* 15, 9033.
• Complexity Science Hub (2025). “Why more social interactions lead to more polarization in societies.” *PNAS* 2517530122.
• Zareer, M. N. et al. (2025). “Maximizing Disagreement and Polarization in Social Media Networks using Double Deep Q-Learning.” *IEEE SMC*.
• Auditing Political Exposure Bias study (2025). “Algorithmic Amplification on Twitter/𝕏 During the 2024 U.S. Presidential Election.”
• Romanishyn, A. et al. (2025). “AI-driven disinformation: policy recommendations for democratic resilience.” *Frontiers in AI* 8.
• Lu, H. & Lee, H. (2025). “Agents of Discord: Modeling the Impact of Political Bots on Opinion Polarization in Social Networks.”
• Global Witness (2024). Investigation on bot-like accounts ahead of UK elections.
• IAB Internet Advertising Revenue Report (2025). Digital ad revenue analysis showing $259B in 2024.
• Martech Zone (2025). “Social Media Statistics For 2025.”
• Technical.ly (2024). “How to spot misinformation and bots on social media in the age of generative AI.”
• The Digital Divide study (2024). “Social Media’s Role in Polarization and Democratic Backsliding.”
