災害時ソーシャルメディア上で発生しやすいデマやフェイクニュースへのリスク管理
IT・ガジェット情報
2024年1月1日、石川県で震度7を観測する、能登半島地震が発生しました。甚大な被害をもたらしたばかりか、今なお、被災地では雪も続いており、厳しい寒さに見舞われています。
この度の能登半島地震により、多大なる被害を受けられた皆様に、心からお見舞い申し上げます。突然の災害に直面し、不安や困難な状況の中で過ごされていることと思います。被害に遭われた方々の安全と、一日も早い復旧を心よりお祈りしております。
そして、この能登半島地震でも、とても残念なことにデマの流布、拡散が起きてしまいました。現在も復旧の最中で、被災された方の心の負担になってはいけませんので、具体的な言及は避けますが、事実とは異なる情報がソーシャルメディアを中心に現在進行形で駆け巡っております。
過去の事例からも、災害時にはそれにつけ込んだデマ、不安や恐れから生まれるフェイクニュースなどが出回りやすい傾向にあります。
今回は、デマや誤情報の事例を学び、それらを見抜く方法、ソーシャルメディアを誤って運用してしまうリスクを避けるための管理方法について学んでいきましょう。
大きな自然災害発生時には、ソーシャルメディア上でデマが拡散されやすい
2011年の東日本大震災にもデマの拡散がありました。地震の影響で起きた千葉県市原市のコスモ石油千葉製油所の火災について、「有害物質が雨などと一緒に降るので注意」という内容の情報がソーシャルメディアや、Eメールを通じて拡散されました。当然、これは誤情報であり、コスモ石油広報室は「タンクに貯蔵されていたのはLP(液化石油)ガスであり、燃焼で発生した大気が人体へ及ぼす影響は非常に少ない」と説明もしています。
2022年台風15号による静岡県での大雨被害時にも、AIで生成された架空の被害画像がソーシャルメディア上で拡散されました。「ドローンで撮影された静岡県の水害。マジで悲惨すぎる…」というコメントと共に投稿されたこの画像は、東京在住のTwitter(現在はX)ユーザーによるもの。投稿者は後に偽画像だと認め、謝罪しています。いいねやリツイートが増えていったことが嬉しくなってしまい、自制できなかったとも述べています。
2016年の熊本地震では逮捕者も
デマを流して公共の秩序を乱す行為は、偽計業務妨害罪として法的責任を問われることがあります。例えば、2016年の熊本地震の際、関係のない画像を使い「おいふざけんな、地震のせいでうちの近くの動物園からライオン放たれたんだが 熊本」と虚偽の情報を拡散した男性が、偽計業務妨害の疑いで逮捕された事例があります。
この投稿は地震が起きた直後に投稿されたもの。投稿者はその後も「やっべぇぇぇ、リツイート楽しいwww」」などの投稿をしており、極めて悪質であると言えるでしょう。使われた画像は海外で撮影されたものでした。しかしながら、この投稿を見たユーザーから、熊本市動植物園に多数の問い合わせがあり、地震直後にも関わらず対応に追われる事態を招いています。逮捕された投稿者は、神奈川県に住む会社員の男でした。
この投稿は大量にリツイート(現在はリポスト)を産んでいますが、状況によっては、これらのデマ情報をリツイートした人も責任を追及される可能性はあります。特に災害時は本人に悪気はなく、不安や恐怖心から悪質なデマの拡散に加担してしまうケースは多いと思います。十分な注意が必要です。
生成AIの進化によるデマやフェイクニュースのリスク
近年、生成AI技術が大きく進化しています。この技術は、テキスト、画像、ビデオなど、現実に存在しないコンテンツをリアルに作成することが可能です。しかし、この進化に伴い、デマやフェイクニュースを作成し、拡散するリスクも高まっています。先ほど紹介した静岡県の大雨被害による事例のように、生成AIを用いて作られた偽のニュースや画像は、従来の手法では見分けがつきにくいほど精巧で、人々を誤解させる可能性があります。
災害時以外でも、政治家の偽のスキャンダルや、存在しない戦争、戦闘の画像などが生成AIによって作成され、SNSで拡散されるケースが増えています。これらのフェイクニュースは、現実の出来事と見分けがつかないほどリアルであり、社会的な混乱を引き起こす可能性があります。
デマへの対策とリスク管理
デマやフェイクニュースと対峙するには、教育機関やメディアを通じた啓発活動が不可欠です。生成AIによるコンテンツを識別する技術の開発も急務でしょう、また、生成AIの開発者や利用者に対し、倫理的な使用のガイドラインを設けることも重要です。しかしながら、最も重要なのは、ユーザー自身の識別能力の向上だと私は考えます。
以下の内容を意識をすることで、ほとんどのデマやフェイクニュースによるリスクを回避することができるでしょう。
1. 情報源の確認
信頼性のあるソースか検証しましょう。投稿された情報の出典を確認し、信頼できるニュース機関、公式機関、または専門家によるものかどうかを判断します。また、そのアカウントの前後の投稿も確認し、普段からどのような情報を発信しているのか確認すると良いでしょう。
二次情報への信頼を避けましょう。SNSでは第二次、第三次の情報が多くなりがちです。可能な限り、元の情報源に直接アクセスして確認しましょう。
2. クロスチェック
複数の情報源で確認しましょう。同じニュースについて、異なるメディアや情報源で報じられているかを確認します。一方のソースのみの投稿は疑問視します。
3. コンテンツの詳細分析
文章を検証しましょう。文章が極端な感情を煽る表現を含むか、客観的な証拠やデータが提示されているかを確認します。
画像や動画を分析しましょう。 画像やビデオが加工されていないか、不自然な要素がないかをチェックします。必要に応じて画像検索などを使用してオリジナルのコンテンツを探します。
4. 専門家の意見を参照
ファクトチェック機関を確認: ファクトチェック機関や専門家の解説を参照して、情報の正確性を確認します。
5. 批判的思考
情報の背景を考えましょう。情報がなぜ、どのようなコンテキストから共有されているのかを考慮します。情報の意図や背後にある目的を理解することが重要です。
6. ソーシャルメディアのアルゴリズム理解
アルゴリズムの働きを理解しましょう。ソーシャルメディアはユーザーの反応に基づいてコンテンツを表示します。自分が見ている情報が偏っていないか、意識して確認することが大切です。
7. 感情に振り回されない
冷静な判断を心がけましょう。情報に対して強い感情的な反応を示すときは、一旦立ち止まり、冷静にその情報源を再評価することが大事です。
8. AI生成コンテンツの特徴を理解する
画像の特徴を識別しましょう。AIによって生成された画像には、しばしば不自然なパターンや加工の痕跡が含まれます。例えば、対称性が不完全である、背景との境界線がぼやけている、あるいは光の反射が自然ではないなどです。これらの特徴を意識し、画像を詳細に観察することで、AIによる生成画像を見分けることができます。
文章の癖を識別しましょう。AIが生成するテキストには、繰り返しや特定のフレーズの過剰な使用、文脈に合わない単語の使用など、特有の傾向が見られることがあります。これらの癖を識別することで、人間によって書かれたテキストとAIによって生成されたテキストを区別できるようになります。
まとめ
デマやフェイクニュースに対応する際、私たちの知識と判断力が重要な役割を果たします。この記事で述べた様々な方法は、私たちがデマに塗れた情報の海を航行する際の羅針盤となるでしょう。
もう一つ、お伝えしておきたいことがあります。外部の専門家やファクトチェック機関の意見も、あくまで参考材料の一つに過ぎず、それらを盲信することなく、自分自身で情報を分析し、判断する能力の養成が重要であるという点です。情報を受け入れる前に、その背景や文脈を理解し、複数の角度から考察することが不可欠です。
私たちは情報に触れるたびに、真実と虚偽の区別をつける練習をしているのです。この練習を通じて、より洞察力を持ち、賢明な情報消費者となることができます。情報リテラシーは、現代社会で生き抜くための必須のスキルであり、日々の情報収集と精査の過程で培われます。それぞれがこのスキルを磨き、社会全体の情報環境の向上に貢献することが望まれます。
ABOUT執筆者紹介
Webメディア評論家 落合正和
Webメディア評論家/Webマーケティングコンサルタント
株式会社office ZERO-STYLE 代表取締役
一般財団法人 モバイルスマートタウン推進財団 副理事長兼専務理事
SNSを中心としたWebメディアを専門とし、インターネットトラブルやサイバーセキュリティ、IT業界情勢などの解説でメディア出演多数。ブログやSNSの活用法や集客術、Webマーケティング、リスク管理等の講演のほか、民間シンクタンク(日本観光推進総合研究所 所長)にて調査・研究なども行う。
<著 書>
著者ブログ
ビジネスを加速させる 専門家ブログ制作・運用の教科書(つた書房)
はじめてのFacebook入門[決定版] (BASIC MASTER SERIES)(秀和システム)