1: 稼げる名無しさん :2023/05/31(水) 09:07:39.27 ID:5DugOH3E<.net
ChatGPTで資料作成、実在しない判例引用 米国の弁護士https://t.co/XbSsU0eZhu
— 日本経済新聞 電子版(日経電子版) (@nikkei) May 30, 2023
2023年5月31日 6:54
https://www.nikkei.com/article/DGXZQOGN30E450Q3A530C2000000/
1001: 以下名無しさんに代わりまして管理人がお伝えします 1848/01/24(?)00:00:00 ID:money_soku
回答には結構間違いも混ざるからねぇ。
機械系のパラメータなんかも割と嘘が多いので仕様書を自分で読んだ方が安心だお。
間違うと致命的な結果になることもあるしな。機械系のパラメータなんかも割と嘘が多いので仕様書を自分で読んだ方が安心だお。
裁判で不利になるだろうし、この弁護士さんは下手をすると依頼がなくなるかも。
以下引用:
>5月24日に署名した供述書で弁護士は「非常に後悔しており、今後は正当性を検証せずに(ChatGPTは)絶対に利用しない」と伝えた。「情報源として信頼できないことが明らかになった」と書いた。供述書には弁護士が判例について情報の出どころなどをChatGPTに確認するやり取りも含まれた。
1001: 以下名無しさんに代わりまして管理人がお伝えします 1848/01/24(?)00:00:00 ID:money_soku
現在よく読まれているニュース!:
以下2chの反応と管理人の反応です
2: 稼げる名無しさん :2023/05/31(水) 09:18:35.15 ID:g+N4znlN<.net
だから判決までChatGPT使えよ
人間は間違える葦でアル
人間は間違える葦でアル
4: 稼げる名無しさん :2023/05/31(水) 09:21:22.97 ID:2bMmEKaU<.net
平気でうそ情報混ぜるのなんなんだろうな、知らないのに無理やり答えるように教育されてんのか
5: 稼げる名無しさん :2023/05/31(水) 09:25:52.71 ID:klXY83De<.net
知ったかで意味不明な情報載せたりするから完全にAI頼りにするのはまだ早い
8: 稼げる名無しさん :2023/05/31(水) 09:31:04.24 ID:VNDy2VFO<.net
>>5
その通り。完全にAIに頼れるようになるには後3ヶ月は掛かるだろう。100%完璧に頼れるようになるのは半年後だな。
その通り。完全にAIに頼れるようになるには後3ヶ月は掛かるだろう。100%完璧に頼れるようになるのは半年後だな。
6: 稼げる名無しさん :2023/05/31(水) 09:29:10.67 ID:YY3AGi3l<.net
これ自体茶番じゃないの?
多分再現できないとか
あえてニセの判例を読み込ませてある
多分再現できないとか
あえてニセの判例を読み込ませてある
13: 稼げる名無しさん :2023/05/31(水) 09:46:45.29 ID:O3qIX46n<.net
>>6
本物の判例を読み込ませているんだろうけど、
それから判例を生成してしまうのだろうな。
絵や小説、写真の生成と同じように。
フィクション小説は生成すると人間に喜ばれるのに、
なぜ判例はそれらしいものを生成しちゃだめなんだろう?
って子供のような純真な心で思っているのかもしれないな。
本物の判例を読み込ませているんだろうけど、
それから判例を生成してしまうのだろうな。
絵や小説、写真の生成と同じように。
フィクション小説は生成すると人間に喜ばれるのに、
なぜ判例はそれらしいものを生成しちゃだめなんだろう?
って子供のような純真な心で思っているのかもしれないな。
21: 稼げる名無しさん :2023/05/31(水) 09:59:03.91 ID:PYwtDYa7<.net
>>6
ChatGPTはトークに特化したGPTだからな
業務に使うならそれに特化したGPTを使うべき
ChatGPTはトークに特化したGPTだからな
業務に使うならそれに特化したGPTを使うべき
9: 稼げる名無しさん :2023/05/31(水) 09:32:52.28 ID:BRYyt8Wk<.net
その前に言語の壁は解消されないのか?
なんで何十年たってもガバ翻訳なんだよ
リアルタイムで完璧な翻訳ぐらいできないの?言ってる内容同じで言語が違うだけでしょ??
なんで何十年たってもガバ翻訳なんだよ
リアルタイムで完璧な翻訳ぐらいできないの?言ってる内容同じで言語が違うだけでしょ??
12: 稼げる名無しさん :2023/05/31(水) 09:41:17.20 ID:IpGSiHRw<.net
>>9
リアルタイムで完璧な翻訳ww
翻訳の時点で完璧にはならないんだよな...
リアルタイムで完璧な翻訳ww
翻訳の時点で完璧にはならないんだよな...
45: 稼げる名無しさん :2023/05/31(水) 12:32:00.50 ID:73Lj8FFN<.net
>>9
言語が違う時点で「言ってる内容同じ」ではないんだなあ
言語が違う時点で「言ってる内容同じ」ではないんだなあ
51: 稼げる名無しさん :2023/05/31(水) 13:34:42.83 ID:TjtIhxDe<.net
>>45
翻訳がa=bなら良かったけどa≒bだもんな
翻訳がa=bなら良かったけどa≒bだもんな
10: 稼げる名無しさん :2023/05/31(水) 09:39:16.29 ID:O3qIX46n<.net
絵や小説は、元にしたものを混ぜて生成しろと言われているのに、
判例、法律、定理なんかは
それらしいのを混ぜて生成しちゃだめなのかい?
ってAIに逆質問されそうだな。
判例、法律、定理なんかは
それらしいのを混ぜて生成しちゃだめなのかい?
ってAIに逆質問されそうだな。
14: 稼げる名無しさん :2023/05/31(水) 09:49:17.97 ID:y43+1/6T<.net
もはやAI汚染の様相と言えよう
15: 稼げる名無しさん :2023/05/31(水) 09:50:23.77 ID:RnRU4NBZ<.net
>>1
AIで弁護士いらなくなるとか言ってるやついるけど
AIの判断が信用できるかを誰が判断するのかって話だよな
本人訴訟でAI書面出したらそれなりの形にはなるだろうが中身はチェックできないだろ
AIで弁護士いらなくなるとか言ってるやついるけど
AIの判断が信用できるかを誰が判断するのかって話だよな
本人訴訟でAI書面出したらそれなりの形にはなるだろうが中身はチェックできないだろ
17: 稼げる名無しさん :2023/05/31(水) 09:54:29.61 ID:9wCIbFn6<.net
>>15
それを判断するために裁判官がいるんじゃないか
それを判断するために裁判官がいるんじゃないか
23: 稼げる名無しさん :2023/05/31(水) 10:03:01.37 ID:RnRU4NBZ<.net
>>17
書面に嘘書いて負けてもいいなら構わんが
書面に嘘書いて負けてもいいなら構わんが
25: 稼げる名無しさん :2023/05/31(水) 10:11:47.83 ID:SrbFZlsM<.net
これ日本でも起こりそう
てかchatgdpは民法の条文ですらデタラメだからな
いまのとこ法律系は使いものにならんわ
てかchatgdpは民法の条文ですらデタラメだからな
いまのとこ法律系は使いものにならんわ
26: 稼げる名無しさん :2023/05/31(水) 10:12:40.78 ID:VlYddwUR<.net
誤訳の多い自動翻訳と同じ
分かる人でないと使えない
分かる人でないと使えない
31: 稼げる名無しさん :2023/05/31(水) 10:22:19.80 ID:tdBbh+iF<.net
平気で嘘を吐くのがいいんじゃないか
直したら面白くなくなる
直したら面白くなくなる
33: 稼げる名無しさん :2023/05/31(水) 10:27:51.11 ID:TLB0yvy/<.net
プロフェッショナル業でも、こういうミス起こるよね。黎明期は。
40: 稼げる名無しさん :2023/05/31(水) 12:18:05.92 ID:1AHl+w8H<.net
最終確認してなかったのか?
バカ弁護士だな
バカ弁護士だな
44: 稼げる名無しさん :2023/05/31(水) 12:25:32.32 ID:TjtIhxDe<.net
bingならちゃんと出典のリンクまで出るのに
1001: 以下名無しさんに代わりまして管理人がお伝えします 1848/01/24(?)00:00:00 ID:money_soku
為替相場記事でも時々管理人がbingさんに聞いてくれているけれど、参照元が示されているにも関わらず間違えていることも多いお。
キャッシュ情報から読み込んでいるのかもしれないしな。他にもどの情報ソースが参考にされたのかに関してはまだまだ疑問が多く、時々詐欺っぽいサイトが引用されていたりもするのは非常に気になるな。
今後もそういったAIに利益誘導をさせるような情報を教えようとする人が出てくる可能性はあるのかなと。
現在よく読まれている記事:
https://egg.5ch.net/test/read.cgi/bizplus/1685491659/
コメント
コメント一覧 (11)
money_soku
がしました
money_soku
がしました
money_soku
がしました
いずれにせよ、これはChatGPTの構造的な欠陥であり、半年や一年では解決しない。むしろ「ぱっとと見ただけでは間違いが分からない」ようになるだけなので、問題はより深刻。
ChatGPTにも画像生成AIにも共通して言えるのは【AIが間違えた時に、それにすぐに気づき、修正できる人間】が扱えば優れたツールだが、その能力が無い人間に扱わせるのは危険という事。
money_soku
がしました
書式とか見ればある程度は気づくだろうに。
money_soku
がしました
過去の相談情報をChatGPTに連携して、回答しているそうな。
https://www.itmedia.co.jp/mobile/articles/2305/17/news111.html
今回のような雑なChatGPTと専門知識はあかんですが、
ちゃんとデータを用意したうえでの判例含めた回答はAIの利用方法としてありだと思います。
money_soku
がしました
はやーい
money_soku
がしました
特に判例作成とかはちゃんと教育するかデータベースを用意して条件マッチの検索機能を導入しないと存在しない判例を創作したりする
ランチで美味しいお店を教えてってAIに聞くと店名から公式サイト、住所から料理名からオーナーシェフの名前や経歴に至るまで100%の確率でウソをつく
矛盾を問い詰めようと駅からのアクセスを細かく聞くと存在しない交差点を曲がれと言ったり、徒歩1分と説明するのに実際には徒歩30分ぐらい離れた場所の施設を案内してきたり
間違いを指摘すると「申し訳ございません、情報に誤りがありました、正しくは・・・」と言いまたウソ情報を教えてくるし
money_soku
がしました
money_soku
がしました
いいえ(賛同を示す読者からの反応)
って作文するレベルやからな。🤗
money_soku
がしました
結局人間は新たなAI技術の中身がわかると、単なる計算の高度化にすぎないとか大したことないとか貶したくなってマウントをとりたがる生き物でしかない
money_soku
がしました
コメントする