How to Fix Fake News

How to Fix Fake News (フェイクニュースをどのように正すか)

テクノロジーは誤報の時代を生んだ。しかし、哲学と、私たち自身の社会的行動をよく見ることが、それをなくすのに役立つかもしれない。

Regina Rini著
Rini博士はトロントのヨーク大学で哲学の教鞭を執っている。
2018年10月15日付

テクノロジーはフェイクニュースの問題を生み出したが、テクノロジーがまたそれを解決し、適切なアルゴリズムを見つけて問題をコード化するだけでよいと考えられるようになった。しかし、このアプローチは、知識の獲得方法における哲学の一分野である認識論からの貴重な教訓を無視している。

フェイクニュースの問題を解決する方法を理解するには、カクテルアワーでのゴシップを考えてみよう。あなたが友人と飲みに出ていて、その友人が地元の政治家のうわさで騒がしく話していると想像してみよう。その話はとても恥ずべきもので、正しいかどうかわからない。しかし、それを保証し、政治家の評判を落としているのはあなたの親友である。あなたはそれを信じるべきかもしれない。

これは哲学者が 「証言 (testimony)」 と呼ぶものの一例だ。法廷での証言と似ているが、それほど形式的ではなく、頻繁に行われる。証言は、誰かが情報を保証し、あなたが何かを信じる時にはいつでも起こる。世界についての私たちの知識のほとんどは、証言を通して私たちにもたらされる間接的な知識である。結局のところ、個人だけでは独自の科学的調査をすべて行うことも、離れた都市の地図を作成することもできない。

このすべては証言の規範に依存している。自分で事実を主張するということは、たとえ別の場所で見つけたニュースを伝えるだけであっても、その責任を負うことを意味し、自分の評判、つまり情報源としての信頼性を危険にさらすことになる。あなたが情報を共有するとき、人々があなたを信じる理由のひとつは、あなたの信頼性を決定し、あなたが嘘をついていたり、間違っていたりした場合、あなたに責任を負わせることができるからだ。間接的な知識の信頼性は、こういった規範から生まれる。

しかし、ソーシャルメディアには奇妙な証言の規範がある。FacebookやTwitterなどのプラットフォームでは、人々は必ずしも自分が言っていることを意味しているわけではなく、そうなることを常に期待しているわけでもない。Twitterの非公式スローガンは「リツイートは支持ではない」だ。トランプ氏は、人種や犯罪に関する偽の統計をリツイートしていたことが発覚したとき、FOXニュースの取材に対して「すべての統計をチェックすると思うか?ただのリツイートだ。私の証言ではない」と答えた。頭の中では、人々がソーシャルメディアでいつもこのようなことをやっていて、その正確さを検証せずにニュースを伝えていることはわかっているが、それでも私たちの多くはそれを聞いている。私たちが共有する情報は、無視するにはあまりにも魅力的で、特にそれが私たちの既存の政治的信念を確立するときには顕著だ。

フェイクニュースと戦うには、カクテルアワーで (比較的) 正直でいるのと同じ規範をソーシャルメディアに適用する必要がある。しかし問題は、ソーシャルメディアが毎晩500人の親友と飲みに行くようなものということである。たくさんの情報を手に入れるかもしれないが、後で情報が間違っていた場合、誰が何を教えてくれたのか、誰に質問すべきなのかを覚えていることはまずない。

あまりにも多くの情報があるため、私たちの頭では把握できない。見出しを読んだ後、ショックを受けて怒りの顔ボタンをクリックし、スクロールし続ける。いつも別の話、別の怒りがある。反応、スクロール、それを繰り返す。

ストーリーの数だけが問題ではない。ストーリーテラーの数もだ。平均的なFacebookユーザーには数百人の友達がいて、その多くはオフラインではほとんど知らない。Facebookの友達の信頼度を知る方法はない。親戚の政治的なミームは気になるかもしれないが、あなたがパーティーで一度会ったいとこの妻の頑固な同僚が投稿した地元の新聞記事はどうか。このような人たちと、彼らが共有するストーリーすべてに対して、どの程度信頼できるかを見積もることは不可能だ。

この問題を解決するために、あるいは少なくとも状況を改善するためには、ソーシャルメディア上でお互いに責任を持ち、安定した証言の規範を確立する必要がある。そのためには、情報の氾濫を断ち切り、何百人ものソーシャルメディアの接触者の信頼性を追跡する必要がある。幸い、そういったアプリがある。

Facebookは既に、より良い証言の規範をサポートする機能を提供している。ほとんどのFacebookアカウントは、ユーザーの実際のソーシャルネットワークと密接にリンクしている。また、匿名のウェブコメンターとは異なり、Facebookユーザーは、嘘をついていることを発見されても、自分の身元を隠すことはできない。ユーザーは自分の評判を気にする理由がある。少なくとも、自分が共有した情報を他のユーザーが監視できるなら、気にするだろう。

このシステムは、Facebookがフェイクニュースの拡散を防ぐためにすでに行っていることに基づいている。現在Facebookは、さまざまな政治分野の独立したファクトチェック機関に対して、虚偽で誤解を招く情報を特定するよう求めている。ユーザーがフェイクニュースとして特定されたものを投稿しようとすると、ポップアップが表示され、ニュースの問題点を説明し、続行するかどうかを確認するよう求められる。これらのユーザーは、事実が争われている記事の投稿を禁じられているわけではないが、自分たちが共有している内容が虚偽であったり、誤解を招く可能性があることは知っておく必要がある。

Facebookは2016年12月からこのシステムをオープンに使用している。それほど有名ではないが、ユーザーが記事をフェイクニュースとしてフラグを立てる頻度を監視しており、この機能を使ってユーザーの認識度の信頼性を計算している。The Washington Postが8月に報じたところによると、Facebookはユーザーのフラグが独立したファクトチェッカーの分析と一致する頻度を表すスコアを密かに計算しているという。Facebookはこのデータを内部でのみ使用して、フラグシステムの悪用を特定し、ユーザーには公開しない。自分の評価も、友達の評価も分からない。

このシステムとそれを取り巻く秘密主義は少々気味が悪いと思われるかもしれない。そしてFacebookに対する一般的な信頼は深刻かつ正当に損なわれている。しかし私は、Facebookは何かしらに取り組んでいると思う。昨年Kennedy Institute of Ethics Journalに掲載された論文の中では、私は少し違ったシステムを提案した。私のシステムとFacebookが実装したシステムとの主な違いは、透明性である。Facebookは、情報が誤っているか誤解を招く可能性があることを警告された後、各ユーザーが論争中の情報を共有することを決定した頻度を追跡し、それを表示すべきである。

データを使って秘密のスコアを計算する代わりに、Facebookはすべての投稿とコメントに簡単な信頼性マーカーを表示すべきだ。FacebookやTwitterが信頼できるアカウントに付ける青い認証バッジのように、ユーザーの名前の横に小さな色の点が表示されているところを想像してほしい。緑の点はユーザーが多くの論争中のニュースを共有することを選択していないことを示し、黄色の点はユーザーが時々そうしていることを示し、赤の点は頻繁にそうしていることを示している。これらの信頼性指標を使えば、友人がどれだけ信頼できるかが一目でわかる。

この提案には検閲がない。Facebookはアルゴリズムを曲げて、信頼性指標の低いユーザーからの投稿を抑制する必要はない。共有している記事の事実が論争中であるかどうかにかかわらず、すべてのユーザーが望むものを投稿することができる。今と同じようにソーシャルメディアを使うこともできるが、新たな情報に遭遇したときにはいつでも選択肢がある。友人の挑発的な投稿にうなずく前に信頼性マーカーをちらりと見たり、赤の信頼性マーカーがついている友人からの奇妙な話を伝える前によく考えたりする。何よりも重要なのは、緑の信頼性マーカーが貴重なリソースになる可能性があることだ。

このアイデアの背後にはテクノロジーがあるが、それはすでに存在するテクノロジーだ。それは、ソーシャルメディアが登場するずっと前から私たちの情報収集を規制してきた証言の規範をアルゴリズム的に置き換えるのではなく、支援することを目的としている。最終的には、フェイクニュースの解決策は単なる巧妙なプログラミングではない。デジタル市民としての責任を私たち一人一人が引き受け、私たちの認識の評判をさらすということだ。

Regina Rini (@rinireg) はトロントにあるヨーク大学で哲学を教えており、そこで彼女は 「道徳および社会認知の哲学におけるカナダ研究委員長 (Canada Research Chair in Philosophy of Moral and Social Cognition)」 を務めている。「ストーン・リーダー:133の論争における現代哲学 (The Stone Reader: Modern Philosophy in 133 Arguments)」「現代倫理における77の論争 (Modern Ethics in 77 Arguments)」が、Peter CatapanoとSimon Critchleyの編集により、Liveright Booksから出版されている。 FacebookとTwitterのNew York Times Opinionセクション (@NYTopinion) をフォローしてください。