1: 山師さん 2023/05/31(水) 09:07:39.27 ID:5DugOH3E
【ニューヨーク=吉田圭織】米東部ニューヨーク州の弁護士が審理中の民事訴訟で資料作成に米オープンAIの生成AI「Chat(チャット)GPT」を利用した結果、存在しない判例を引用してしまったことが問題となっている。米紙ニューヨーク・タイムズなどが報じた。
問題が起きたのは、米ニューヨーク行きのフライトで食事配膳用カートが当たってけがをしたとする男性客が南米コロンビアのアビアンカ航空を訴えた訴訟だった。
資料で引用された判例が見つからなかったため、ニューヨーク州の連邦裁判所のカステル裁判官が確認したところ、弁護士がChatGPTを使っていたことが発覚した。弁護士は資料に6件のデルタ航空やユナイテッド航空などが関連しているとされた実在しない判例を引用していた。
同裁判官は「インチキな引用を使ったインチキな司法判断が記述された資料が提出された」と指摘するとともに「前例のない状況に置かれている」と説明した。弁護士の懲戒をするかどうかを判断するために6月8日に審理を開く予定だ。
5月24日に署名した供述書で弁護士は「非常に後悔しており、今後は正当性を検証せずに(ChatGPTは)絶対に利用しない」と伝えた。「情報源として信頼できないことが明らかになった」と書いた。供述書には弁護士が判例について情報の出どころなどをChatGPTに確認するやり取りも含まれた。
2023年5月31日 6:54
https://www.nikkei.com/article/DGXZQOGN30E450Q3A530C2000000/
4: 山師さん 2023/05/31(水) 09:21:22.97 ID:2bMmEKaU
平気でうそ情報混ぜるのなんなんだろうな、知らないのに無理やり答えるように教育されてんのか
60: 山師さん 2023/05/31(水) 15:55:24.06 ID:duizdEib
>>4
こいつは知らないことを知らないと言えないクズだよ
周りにもいるだろそういうやつ
こいつは知らないことを知らないと言えないクズだよ
周りにもいるだろそういうやつ
68: 山師さん 2023/05/31(水) 19:02:07.49 ID:M+33K5uQ
>>4
確率的に高いの繋げてるだけだから仕方ない
確率的に高いの繋げてるだけだから仕方ない
5: 山師さん 2023/05/31(水) 09:25:52.71 ID:klXY83De
知ったかで意味不明な情報載せたりするから完全にAI頼りにするのはまだ早い
26: 山師さん 2023/05/31(水) 10:12:40.78 ID:VlYddwUR
誤訳の多い自動翻訳と同じ
分かる人でないと使えない
分かる人でないと使えない
31: 山師さん 2023/05/31(水) 10:22:19.80 ID:tdBbh+iF
平気で嘘を吐くのがいいんじゃないか
直したら面白くなくなる
直したら面白くなくなる
48: 山師さん 2023/05/31(水) 12:45:56.24 ID:2bMmEKaU
ぱっと見、正解に見えるけど実際はきちんと調べなおさないと使えない結果が出てくるとか
余計にめんどくさくない?
余計にめんどくさくない?
52: 山師さん 2023/05/31(水) 14:12:32.60 ID:aICKsZna
chatGPTは部下と思って仕事すると捗る
58: 山師さん 2023/05/31(水) 15:22:16.87 ID:Bf1L3wNZ
俺も使ってみたけど結構嘘多いぞ。
76: 山師さん 2023/05/31(水) 20:16:46.11 ID:uCOzBPDU
現状は完全にaiに頼れないのは周知の事実。aiに骨子作ってもらって、それを修正していけば良い。一から作るより早く出来るものが多いのでは。完全に頼りたいなら10年待てば良い。
引用元: https://egg.5ch.net/test/read.cgi/bizplus/1685491659/