1: 稼げる名無しさん :2025/02/17(月) 12:46:57.45 ID:U5YBW/Xz9.net
AIが要約したニュース、その半分は間違いだらけだと判明 | ギズモード・ジャパン
https://www.gizmodo.jp/2025/02/ai-is-not-good-at-summarizing-the-news.html
※全文はソースで
https://www.gizmodo.jp/2025/02/ai-is-not-good-at-summarizing-the-news.html
AIが要約したニュース、その半分は間違いだらけだと判明https://t.co/yIGqj3Usvm
— ギズモード・ジャパン(公式)@ 新刊『ギズモード・ジャパンのテック教室』2/4発売 (@gizmodojapan) February 17, 2025
※全文はソースで
1001: 以下名無しさんに代わりまして管理人がお伝えします 1848/01/24(?)00:00:00 ID:money_soku
僕もデータ要約とかにAIを使うようになったけれど、使えば使うほど誤りが目に付くようになってきているのも事実だお。


生成AI が資産運用を変える―実務で使えるプロンプトと社内導入のステップ 電子書籍
1001: 以下名無しさんに代わりまして管理人がお伝えします 1848/01/24(?)00:00:00 ID:money_soku
Google検索のほうも引用元を確認すると全く違う主張が書かれてあることもあるしな。
引用元が書かれていないAIは嘘八百なんじゃないかと不安になる。
ただこれによってAIへの投資が減るという話ではなく、AI要約は注意してみていく必要があるという話かなと思うな。

現在よく読まれているニュース!:
以下2chの反応と管理人の反応です
4: 稼げる名無しさん :2025/02/17(月) 12:48:07.79 ID:k2nbbBti0.net
たまたま昨日やったけど、間違えてたな。
7: 稼げる名無しさん :2025/02/17(月) 12:49:06.18 ID:k2nbbBti0.net
何回かchatGPTに指摘したら、最終的に謝り出した。
121: 稼げる名無しさん :2025/02/17(月) 13:13:51.08 ID:yOQjaNj60.net
>>7
そのうち逆ギレするAI出てくるんじゃね?
そのうち逆ギレするAI出てくるんじゃね?
167: 稼げる名無しさん :2025/02/17(月) 13:27:12.90 ID:EkJ+fkai0.net
>>121
copilotが嘘言ってきたから嘘つきって送ったら嘘ではありませんとか言って切られるからな
copilotが嘘言ってきたから嘘つきって送ったら嘘ではありませんとか言って切られるからな
11: 稼げる名無しさん :2025/02/17(月) 12:49:26.03 ID:Fyh4+/4/0.net
Google検索で最初に出てくるAIのやめてほしい
12: 稼げる名無しさん :2025/02/17(月) 12:49:34.92 ID:PWS/dsSi0.net
間違いに気付かなければ間違いじゃないんだから問題ないね
13: 稼げる名無しさん :2025/02/17(月) 12:49:35.21 ID:kQ5E5EbT0.net
見つかりませんでしたっていう回答に答えをリンク探して見つけてやると普通に答える
ちゃんと探してない
ちゃんと探してない
14: 稼げる名無しさん :2025/02/17(月) 12:49:37.52 ID:v5l1BGTX0.net
CHATGgtpは統一教会に肯定的だったからな
15: 稼げる名無しさん :2025/02/17(月) 12:50:03.33 ID:rvP9ByVW0.net
BBCが調査したって時点でバイアスがかかってるしw
16: 稼げる名無しさん :2025/02/17(月) 12:50:04.34 ID:H/RPGFrG0.net
AIが間違えたんじゃなくて間違えた情報入れりゃそうなるに決まってるだろ
20: 稼げる名無しさん :2025/02/17(月) 12:50:43.42 ID:osaM1oE20.net
要約はまだまだ信頼できるレベルじゃないな
校正もちょっと怪しい感じになったりする
校正もちょっと怪しい感じになったりする
29: 稼げる名無しさん :2025/02/17(月) 12:52:17.50 ID:Dpx5j0do0.net
怖いくらい自信たっぷりに
間違いを返してくることがある
自分がよく知っていることを聞いてみてAIの実力を計ることが必要
間違いを返してくることがある
自分がよく知っていることを聞いてみてAIの実力を計ることが必要
36: 稼げる名無しさん :2025/02/17(月) 12:54:09.57 ID:bcs5JuYh0.net
ChatGPT等は対話で回答を導き出すもの
使い方を間違えている
使い方を間違えている
38: 稼げる名無しさん :2025/02/17(月) 12:54:32.47 ID:beZY86OB0.net
Google検索で出てくるやつもウソばっか
58: 稼げる名無しさん :2025/02/17(月) 12:58:29.08 ID:qHjjM4qR0.net
AIに知性は無いからなぁ。
アルゴリズム組んでる側のバグに近いか。
アルゴリズム組んでる側のバグに近いか。
1001: 以下名無しさんに代わりまして管理人がお伝えします 1848/01/24(?)00:00:00 ID:money_soku
現在よく読まれている記事:
https://asahi.5ch.net/test/read.cgi/newsplus/1739764017/
コメント
コメント一覧 (18)
money_soku
が
しました
指示の仕方次第で回答の精度も上がる。
馬鹿な経営者が勘違いするような万能ではない
money_soku
が
しました
実際に部下のレポートもAIに作らせたっぽいけど、間違いに気付けてなかったな
money_soku
が
しました
趣味で5chのスレのdatを渡して要約してもらうのをやってるけど
これは精度についてはほぼ文句なしでユーモアすら感じる読んでて楽しい要約にしてくれるんだよね
だからニュースの要約でそんなに間違いがあるというのが体感としてほぼありえない、あるとしたら要約したデータについてまとめる際に何らかの偏向が入るんじゃないのかな
5chのスレの中身なんて100%どうでもいい話だから正確にできるんじゃないかと
money_soku
が
しました
どう見てもAIが適当に要約してるもん
俺は人の書いた記事が読みてえんだよ特にNoteお前だよ
money_soku
が
しました
基本的に自己責任だから当たり前の話ではあるんだが
money_soku
が
しました
とてもじゃないけど課金してまで使おうとは思わないわ
money_soku
が
しました
money_soku
が
しました
真逆のこと書いてあったりする
あまりにも知らんことはちょっと時間かけて調べないとダメだわ
最新情報じゃ無かったりもするしね
money_soku
が
しました
データセットにWikipediaを使ったって書いてあるモデルも多いし
汎用的なのが難しいのは人間がやった場合でもそうだし
読み込ませるデータを限定した用途だともう少しマシだと思う
money_soku
が
しました
それらのメディアが使用するAIはデータベースそのものが歪んだ内容になっている可能性もあると思います。
money_soku
が
しました
コメントする