AIチャットボット提供ニュースの「3分の1が誤情報」 巧妙化するプロパガンダ・ロンダリングの対応に遅れ

1 : 2025/09/14(日) 09:26:21.54 ID:v6sYJ8ry9

世界を代表するチャットボットは、これまでにない量の問い合わせを処理している。しかし、その一方で回答の精度は劇的に低下している。オンラインニュースのファクトチェックを手がける「NewsGuard(ニュースガード)」の調査によれば、2025年8月時点で主要な生成AIツールが誤情報を提供する確率は35%に達し、2024年の18%から大幅に増加した。

調査では、チャットボットの検索利用が拡大する中、AIの構造的な弱点が浮き彫りとなった。

その背景には、低品質なコンテンツや偽ニュース、虚偽広告が氾濫するインターネット空間を主要な情報源としている実態がある。

「本来であれば、モデルは答えられる範囲や学習データの鮮度を明示したり、デリケートな話題への言及を控えるべきところだが、実際には汚染されたオンライン環境から情報を取得している。その結果、信頼性があるかのように見えても、不正確な回答が生成されている」と、ニュースガードの広報担当、マッケンジー・サデギは指摘する。

■AIチャットボットの応答性は向上も、正確性は低下

この変化は、AIシステムの運用が根本から揺らいでいることを示唆している。調査によると、以前は特定の質問に答えなかった大規模言語モデルが、今では信頼性の低い情報源に頼って誤った回答をすることが増え、正確なニュースを見分ける力も低下している。

昨年の調査では、AIモデルは時事問題に関する問い合わせの31%を回答拒否していたのに対し、2025年8月時点での拒否率は0%だった。この変化は、調査対象のモデルが答えられない質問も含め、あらゆるクエリに応答しようとする傾向が強まった結果、より断定的に不正確な情報を提供するようになったことを示している。

■トップクラスから最下位へ転落したAIモデル

昨年のトップパフォーマーの一つであった「Perplexity(パープレキシティ)」は、今年の調査で最もパフォーマンスが低下した。同モデルは、ニュースガードが2024年に実施したファクトチェックでは100%の精度を誇ったが、2025年の調査で正確に回答できたのはわずか半数にとどまった。

(略)
■巧妙化するプロパガンダ・ロンダリング、AIは対応に遅れ

ニュースガードの最新調査は、専門家が以前から指摘していたAIの安全性リスクを裏付けた。ロシアの「Storm-1516」や「Pravda」といった政府系偽情報ネットワークは、人々に直接リーチするよりもAIシステムそのものを汚染することを目的に設計された大規模なコンテンツファームを運営しており、成果を上げている。

調査では、仏スタートアップのミストラルAIが開発した「Le Chat(ル・シャ)」、マイクロソフトの「Copilot(コパイロット)」、メタの「Llama(ラマ)」などのモデルが、不正なネットワークが流布した虚偽の情報をそのまま引用し、ロシアのVK(フコンタクテ)やTelegram(テレグラム:ロシア出身のニコライ・ドゥーロフとパベル・ドゥーロフ兄弟が開発)といったSNSプラットフォーム上のフェイクニュース記事やエンゲージメントの少ない投稿を情報源として使用していたことが判明した。

「これは、外国による情報工作の適応力と持続性の高さを示すものだ。モデルが特定のドメインを参照しなくなっても、同じネットワークのコンテンツは別経路を通じて再び浮上する可能性がある」とサデギは指摘する。

プロパガンダ・ロンダリングは単なるドメインの移動にとどまらず、ストーリーの植え付けを伴う。「同じストーリーが数十の異なるウェブサイトやSNS投稿に同時に現れ、関係者によって写真や動画、テキストの形で繰り返し拡散される」と彼女は説明する。

■情報量と信頼性の見極めにAIは苦戦

たとえ虚偽情報が悪質なフェイク情報発信者によって発信されたものであっても、十分に拡散されればAIモデルを誤らせることがある。これが、現時点での大きな盲点だ。チャットボットは、複数のプラットフォームや情報形式にまたがる「ナラティブ・ロンダリング」を検知することに、依然として苦戦している。

全文は↓
https://news.yahoo.co.jp/articles/fdd3400b526c0933df4cc2461ad6f2ce1829d066

[Forbes Japan]
2025/9/13(土) 17:00

レス1番のリンク先のサムネイル画像
3 : 2025/09/14(日) 09:28:19.86 ID:ojxO2//o0
「私それ知ってます」の体で、しれっとウソをつくので厄介
4 : 2025/09/14(日) 09:28:40.94 ID:2cXIKUAu0
ソースの指定に悪意があるだけやろ
5 : 2025/09/14(日) 09:29:38.14 ID:weRxSbOi0
google検索のAI要約が全く役に立たない
9 : 2025/09/14(日) 09:35:34.27 ID:ENJYCFto0
>>5
だったらオフにしろ!そんなのも出来ないのかよ!
6 : 2025/09/14(日) 09:30:23.43 ID:3Baqi5oI0
テレビでやってることだって少なくとも同じくらいは嘘だろ
2回ともアメリカの選挙戦でずーーっとトランプ駄目って言って
蓋を開けたらあれ?って。
大して変わらん
ユーチューブの方が正しいレベル
14 : 2025/09/14(日) 09:43:31.11 ID:JZZJKuiq0
>>6
バカは黙れ
7 : 2025/09/14(日) 09:31:50.36 ID:ekO8+AXU0
youtubeやらXなんかのアメリカ系SNSもイスラエル批判するとシャドーバンされるんだろ
ネットなんてアルゴリズム操作で如何様にもできんだから結局どんなメディアもプロパガンダからは逃れられんってこったな
8 : 2025/09/14(日) 09:33:05.00 ID:mlTAq8kC0
勝手にデータパクって誤情報だって後からキレるとかクレーマー盗賊団かよ
10 : 2025/09/14(日) 09:36:33.68 ID:S2SYjlr70
YouTubeも釣りタイトルどころか1から捏造した事件動画あってもうめちゃくちゃ
11 : 2025/09/14(日) 09:37:06.41 ID:YaFH/uHZ0
真偽や信頼性関係なくネット上の情報を寄せ集めて
いい感じに出力するだけのAIが30%嘘だってんなら
そりゃネットが30%嘘って事だろ
そんなん常識じゃね?
受け手の情報リテラシーの範疇だ
12 : 2025/09/14(日) 09:40:04.18 ID:q8HaZ97D0
AIは絶対に誤りを認めないからな
知らないことを調べるのは危険
13 : 2025/09/14(日) 09:42:38.37 ID:YaFH/uHZ0
ていうかパンピーのAIに対する謎の信頼性は何なんだろうな
コード書かせたりパワポ作らせたり絵を描かせたりっていう
ブチ込んだ情報を処理する性能は高いけど
情報そのものを取ってくる能力なんか園児並みだぞ
15 : 2025/09/14(日) 09:45:22.95 ID:yUzP8Vrq0
ちょっと深掘りすると途端に嘘連発するからなあ
重篤なハルシネーションがいまだに治って無い
16 : 2025/09/14(日) 09:52:28.92 ID:CIPzDX8D0
変に誤情報率0.1%とかよりはよくね?
あてにならないということが分かってたほうが
17 : 2025/09/14(日) 09:52:51.44 ID:6xwkeKN00
>>1
AIを何だと思ってるのやら
希望は妄想はコードのアルゴリズムたりえない
19 : 2025/09/14(日) 09:56:50.03 ID:mYkqHFNJ0
AIに渥美清と親しかった人名を聞いたらたけしやタモリまで挙げてやがんの
20 : 2025/09/14(日) 10:03:54.35 ID:3qa5BUWt0
AIにフェイクニュースを学習させる工作してんのか
面白いなー
21 : 2025/09/14(日) 10:11:27.36 ID:9ZxH3ULh0
chatgptも推論モデル指定して長考させれば誤解答は明らかに減る
何分か待たされるけど精度の低い回答に振り回されるよりはるかにましだな
28 : 2025/09/14(日) 10:18:39.11 ID:I0xdlOE+0
>>21
素朴な疑問として、ネットを情報のベースにするAIに 「フェイクニュースを選り分ける」能力がどれくらいあるのか
37 : 2025/09/14(日) 10:27:58.82 ID:9ZxH3ULh0
>>28
たとえば最新の情報について聞いた場合、情報ソースは基本的にネットの情報だから、検索した結果、情報が間違ってたりすると回答はおかしくなる
ただ信頼性の高いソースの情報をもとに回答しろとか複数ソース調べて検証しろとか指示しておけばそれなりに精度は上がる感じ
指示次第だよ
22 : 2025/09/14(日) 10:13:33.92 ID:I0xdlOE+0
AIってなんか フェイクとか ろくでもないことの方には実際に「役に立ちまくってる」ろくでもないものにしかなれないのでは?(´・ω・`)
23 : 2025/09/14(日) 10:14:58.35 ID:4Rz6ka8m0
まあ、バカ大学を卒業した上で東大大学院を卒業する
学歴ロンダリングよりはマシだけどな。
24 : 2025/09/14(日) 10:15:09.34 ID:I0xdlOE+0
検索で出てくるAIによる概要」もちょっと込み入ると体裁ばかりで中身は○ソっばちなこともあるし
かなりの場合の場合邪魔すんなって感じなんだが(´・ω・`)
25 : 2025/09/14(日) 10:16:41.01 ID:g7RkxtDO0
「時間停止ものの9割」よりはまともな数字かな?
36 : 2025/09/14(日) 10:27:38.79 ID:9d8dpkF10
>>25
このネタ未だに擦る奴って浅すぎるよな
時代遅れで起源がAVでしか盛り上がれないって
26 : 2025/09/14(日) 10:18:04.99 ID:CwYHGxbi0
不祥事タレント、お笑い芸人とバラエティで絡んで不祥事ロンダリング
27 : 2025/09/14(日) 10:18:09.88 ID:z7B/iixM0
最近ググるとAI回答がついてくるけど、わからないとか見当違いの回答出されてゴミでしかない
29 : 2025/09/14(日) 10:19:10.58 ID:YrK7SZTs0
AIはデマ情報もそのまま拾ってしまうのが致命的
AIばかり頼りにしてると本当に馬鹿になりそう
30 : 2025/09/14(日) 10:21:13.02 ID:Q5tmXjx30
生成AIのせいで、動画を見ても本当に本物の動画なのかと疑うようになって実に面倒くさい時代になった
31 : 2025/09/14(日) 10:21:40.02 ID:+ETk/n1s0
やっぱりニュースはオールドメディアに限るよねー
32 : 2025/09/14(日) 10:23:39.08 ID:SWOCotmD0
いかがでしたかサイトと同等の、関連する用語をいくつか知ることができる程度には役に立つ
33 : 2025/09/14(日) 10:23:50.80 ID:liYbvQJz0
韓国経由のフェイクニュースにはほんとうにうんざりさせられるが
今度は中国経由のフェイクニュースもふえた
なんとかして
34 : 2025/09/14(日) 10:25:06.62 ID:Ky9NixMR0
というか最近ググって検索上位に来る情報があまりにもゴミが多すぎるわ
AI要約、企業の宣伝情報、ヤフー知恵袋
だいたいこの3つが上位に来る
あまりにも役に立たない情報すぎる
俺は有志が趣味でやってるブログでの検証とか試行錯誤が見たいんだよ
35 : 2025/09/14(日) 10:27:03.18 ID:YrK7SZTs0
>>34
光回線とか廃品回収とか、検索上位はまず間違いなく悪質業者だもんな(笑)

コメント