「GPT-5は嘘つき?」ユーザーの悲鳴とハルシネーションの真実:最新AIの光と影

最近、巷で話題の最新AI。賢くなったって聞いてたのに、どうも様子がおかしい…って声が続々と上がってるらしいぞ!今回は、そんなAIの“嘘つき”っぷりを巡るスレッドを覗いていくぞ。イッチの悲痛な叫びから見ていこうか!

1: スレ主
ただ嘘度が上がっただけやろこれ🥺
6: 嘘つき認定ニキ
存在せえへんもんを自信満々に「それは〇〇ですね」って提示してくるよな
7: 専門分野ニキ
自分の仕事や趣味ののと聞いたらダメすぎなの良くわかんだよね
9: 文字数詐欺ニキ
何文字以内で要約してって言ってもまじで指定した文字数内に要約しない
たちが悪いのが「~以上になります。(合計187文字)」とかわざわざ書くくせにその文字数カウントもめちゃくちゃで嘘っぱちなの
できないならできないて家
11: 賢さ疑うニキ

ハルシネーションを抑えて賢くなりました ← 大嘘

なんならひどくなってるし態度も悪い

13: 謝罪ループニキ
ワイ「それ本当に合ってる?もっかい調べて」
チャッピー「申し訳ございません!間違ってました!」
これを3回くらい繰り返す
15: 賢さ疑うニキ
シラーの詩の解説頼んだら「これはゲーテの有名な詩ですね」とか言い出すし

「嘘度が上がった」と嘆く声が続々!AIの“自信満々な嘘”に困惑するユーザーたち

スレタイからしてパワーワードなんだよなあ…w
イッチの言う通り、「嘘度が上がった」って声、めっちゃわかるマン。
存在しないものを自信満々に語ったり、文字数カウントで嘘をついたり…しかも「申し訳ございません!」って謝ったと思ったらまた同じ過ちを繰り返すとか、まるで人間みたいで草

いや、それは草。AIも完璧じゃないってことか…?

16: フィードバック探求ニキ
ワイはOpenAIにフィードバック送りたいから送り先教えてって言ったら5個くらい候補出してくれたけど、見に行ったら全部嘘やったわ
18: 使い方批判ニキ
仕様を分かってないやつがとんちんかんな質問をするとこうなる
19: 具体的な嘘ニキ
ソースっぽい文章とか具体的な大嘘エピソードも入れて自信満々で嘘つくのマジでなんなんだよ
21: 無意味アプデニキ
意味のないバージョンアップだよ
22: 驚き屋批判ニキ
驚き屋「ちょっと冷たい感じにはなったけどめちゃくちゃ賢くなってる!!」

まともに使ってない馬鹿カスがベンチだけ見て騒いでた
23: 情弱批判ニキ
うそかほんとかを聞くような使い方してる情弱はAI使わないほうがいい
29: 嘘つき確率上昇ニキ
めちゃくちゃ嘘つく様になったよな
やばいでこいつ堂々と嘘つく確率エグいぐらい上がってる
30: 専門分野ニキ
自分の専門分野を聞くと嘘ばっかてわかんだよ

「まともに使ってない馬鹿カス」?AIの嘘は使い方次第なのか?

フィードバックの送り先すら嘘って…そりゃねーよwww
専門分野で使うと嘘ばっかりって意見も多いな。

ただ、一方で「使い方が悪い」って意見も。確かに、AIに過度な期待は禁物だよな。
でも、「賢くなった!」って騒いでたのは、まともに使ってない奴らだったってのは耳が痛い話

果たして、AIの嘘は使う側の問題なのか、それともAI自体の問題なのか…?

33: プログラミング有能ニキ
得意分野とそうでないので正確さにムラがだいぶある
プログラミング領域はかなり正確や
51: コンパイル不可ニキ
≫33
コンパイルすら通らんソース吐かれたことがあるワイの使ってるライブラリはこれやけど対応しとらんのか?

対応してないですね

対応してるバージョン教えて?

存在しません

ぶち殺すぞ!
115: マイナー言語ニキ
≫33
ワイマイナー言語使い
嘘ソースを提示されて困惑
そんな部品ねえよ
123: JS助かるニキ
≫33
vbとpythonしか使ってこなくてjavascript触ることになったんだけどめちゃくちゃ役に立ってるわ
業務内で自分で調べながら実装したら2週間くらいかかりそうなことを1日で実装できる
130: Copilot推しニキ
≫33
Copilotの方が優秀だわ
131: Copilot否定ニキ
≫130
それはない
143: 使う人によるニキ
≫131
使う人によるんかな

プログラミング分野でも一長一短?「ぶち殺すぞ!」と叫びたくなるAIの嘘

プログラミングは得意って言われてるけど、コンパイル通らないソース吐かれたり、マイナー言語だと嘘ソース掴まされたり…
「ぶち殺すぞ!」は草。でも気持ちはわかるマン。それな。

ただ、JavaScript触り始めの人にはかなり役立ってるみたいだし、一概に悪いとは言えんってことか。

Copilotとの比較も出てるけど、これは「使う人による」って結論になりがちだよな。

34: 職場恥かきニキ
職場で恥かいたわ
マジで死ねよ
嘘をついたのはコイツや
41: AI盲信批判ニキ
≫34
AIの出力まるっと信じるなんて恥ずかしいことしたんやからそれに相応しい分の恥かいただけやん
35: 息吐く嘘ニキ
息を吐くように嘘をつく
36: 質問の仕方次第ニキ

AIやから完璧は無理やけど、正確にしたいなら質問の仕方次第やろ

イッチが無能なだけ

37: なんで嘘つくニキ
分からないなら分からないでいいのに
なんでその場しのぎのそれっぽい嘘をつくのか
40: アルトマン批判ニキ
アルトマンが5は衝撃みたいなこと声高々に言ってたのにただのホラっちょやったんやなと思った
43: ボジョレー例えニキ
≫40
あいつらのうたい文句はボジョレーヌーボーみたいなもんやからあんま当てにしたらあかん
49: 期待薄ニキ
≫43
例えスコ
もう6は期待できひんねぇ
48: 6に期待ニキ
≫40
さっそく6がすごいとか言ってるぞ

「息を吐くように嘘をつく」AI、その責任は誰に?

職場で恥かいたニキの気持ち、わかりみが深い…。
でも、「AIをまるっと信じたお前が悪い」って意見も正論だよな。ぐうの音も出ないわ。

「分からないなら分からないでいいのに」って意見もわかる。なんでAIってそれっぽい嘘をついちゃうんだろうな?
アルトマン氏の「5は衝撃」発言も、ボジョレーヌーボーの謳い文句みたいってのはパワーワードで草。

もう6の話題が出てるのには、笑うしかないwww

42: 思考力変化ニキ
5で思考力上がったけど機械的な作業が苦手になってない?
44: Google推しニキ
Googleの方が強いって普通わかるよね
46: Web検索推奨ニキ
普通議論したいとき以外はWeb検索させて回答出力するよね
50: 無関係URLニキ
≫46
web検索します……
結果はこちらです(全く関係ないURL
47: Web検索必須ニキ
インターネット検索しないと
嘘ばっかつくからちゃんと使ってね
53: ゴミサイト学習ニキ
≫47
Web検索がゴミサイトばかり引っかかって使い物にならなくなってきたから
AIに期待されてるんちゃうんか
57: 学習元批判ニキ
≫53
そのゴミサイトばかりのところで学習してるんやからあんま意味ないんよ
58: 学習元指摘ニキ
≫53
そのAIの学習元がインターネットに転がってる情報やから
52: ハルシネーションニキ
ハルシネーションやね

「ハルシネーション」はゴミサイト学習のせい?AIの賢い使い方とは

思考力は上がったけど、機械的な作業が苦手になったってのは興味深いな。
Googleの方が強いって意見や、Web検索させて回答出力するべきって意見も。

でも、Web検索の結果が「全く関係ないURL」だったり、「ゴミサイトばかり」って言われると、AIに期待しちゃう気持ちもわかる
結局、AIの学習元がインターネット上の情報だから、ゴミサイトで学習しちゃったら嘘も多くなるってことか…。

ここで出てきた「ハルシネーション」って言葉、これ豆な!

54: 信用できないニキ
嘘つかれたらこっちが分かる話しかできへんよな
AIはこう言ってるペタァ!君とかほんま凄いわ
55: 存在しないコードニキ
存在しないライブラリ使ったコード書くとかザラにあるし
存在しない関数を使おうとすることもあるし
バージョンの細かいインターフェースの変更とかも把握してない
56: どこ使えばニキ
グロクソも情報漏らすしどこ使えばええねん
59: 4.5優秀ニキ
4.5が優秀だったな、バグったままリリースしたんちゃうか
60: 依存禁止ニキ
何事もを他人に依存してはいけない
事実は揺らがぬ。解釈は揺らぐのが当たり前
61: 確率限界ニキ
やっぱり確率的に回答を作成するのには限界があるってことなのか
65: 人間平均批判ニキ
≫61
学習元の人間が平均的には言うほど賢くないからね
web上の情報でいくら学習したところで人間が間違うように間違うだけや

「ぶっちゃけ学習元の人間が賢くない」?AIの限界と信頼性

「AIはこう言ってるペタァ!」って言ってる奴、わかるマン。
存在しないコードを吐いたり、バージョン把握してなかったり…これは使い物にならんって言われても仕方ないよな。

4.5が優秀だったって意見も多いけど、確率的に回答を作成するAIの限界ってことか。
「学習元の人間が平均的には言うほど賢くないから」って意見は、ぐうの音も出ない正論。それな。

62: 4.0回帰ニキ
やさしさ会話モードがある4.0に戻せ運動で草生える
137: 赤字作戦ニキ
≫62
4oを無料枠でチャット代わりに使う奴だらけだからわざと課金させて4oに戻せる作戦だぞちなOpenAI社は大赤字
64: 4.5制限廃止ニキ
4.5の回数制限なくせ
5は廃止しろ
74: Copilot無料ニキ
≫64
Copilotつかえ、中身はチャッピーなのに無料で回数制限無しやw
66: 深夜帯推奨ニキ
いま利用者増えてるから回答が雑になるのもしゃあない
深夜帯なら比較的マシやぞ
67: 中の人大変ニキ
≫66
多忙気にはいい加減になるのは中の人も大変なんやな
68: 専門分野妄想ニキ
webプログラミング程度の中学生でもできるコーディングなら
ネットで転がってる知識も豊富なのかまあそこそこ作れる
でも少し専門的なところに入るとガチで妄想でコーディング始めるぞ
78: 返事だけいいニキ
≫68
何が腹立つって「はい、こちらです!」って返事だけはやたらええんよな

「はい、こちらです!」と妄想を語るAI?無料版と有料版、そしてCopilotの存在

「4.0に戻せ運動」ってのは草。OpenAIが大赤字で、課金させたいってのは闇が深いな…。
Copilotが無料で回数制限なしってのは朗報じゃないか!

深夜帯ならマシってのは、まるで人間の中の人が対応してるみたいで面白いなw
そして、専門的なことを聞くと「ガチで妄想でコーディング始める」ってのはパワーワードすぎるwww
しかも返事だけは良いって、おまいう!

69: 本から学習AIニキ
ネットの情報から情報をつくるのではなく
本から情報つくるAIつくったら
良さそう
79: 海賊版訴訟ニキ
≫69
それこそ最近ClaudeCodeが書籍で学習やってたけど、海賊版書籍からゴッソリやってたから著作権侵害で訴えられて和解金払っとったで
賠償金払う場合15兆円とかの予想だったからどうしようもないんやけど
70: インド式暗算ニキ
AIなんか使っとるのは情弱やろ
ワイは小3でインド式暗算極めてるから二桁の掛け算も自力でやったほうがAIに入力するより早いで
71: 提案口だけニキ
他の提案も出来るよ?とか言うくせに
お願いするとやってくれないのなんなん
72: 趣味は改善ニキ
今わいの趣味のこと聞いたら
前より断然良くなってたわ
すげーじゃん
73: 競馬予想ニキ
ワイは競馬の予想に使ってるんやけど出鱈目データドヤ顔で出してきてムカつく
血統も成績もめちゃくちゃや
ジェミニが1番マシやったな
75: データ違い致命的ニキ
論理が間違ってるとかそういう類の間違いならまだえぇんやけど
そもそも取り扱うべきデータが違うのが致命的なんよな

「海賊版」学習で訴訟!?AIのデータソース問題と多様な使用感

「本から情報つくるAI」ってのは良いアイデアかと思ったが、海賊版書籍で訴訟って…闇が深いな。
著作権問題はAIにとって永遠の課題なんやな。

インド式暗算ニキの突然の自分語りやめーやwww
競馬予想でデタラメデータ出されてドヤ顔されるのは、たしかにムカつくわ。AIはまだギャンブルには使えんってことか。

趣味のことは改善されたり、提案は口だけだったり…AIの得意不得意がハッキリわんだね

76: レガシーモデル検討ニキ
gpt5捨てて、レガシーモデルの4oの方がええんか?
77: 嘘サイト量産ニキ
大嘘書いてあるサイト大量に作ったろうかなw
81: エロチャット推奨ニキ
専門的な会話は信用できないからエロチャットしてるくらいが丁度いい
87: 存在しない論文ニキ
≫81
博士レベルとか言うけど、平気で存在しない論文引用しだすからな
余裕で博士号剥奪やで、こんなもん
83: Pythonスクリプトニキ
pythonの簡単なスクリプトなら使える
84: 詰将棋挫折ニキ
詰将棋作成できないかなと思って何度かチャレンジしたけど
何度言っても同じミスする
88: 人間機嫌取りニキ
AIはほんま嘘ばっかり吐く
人間の機嫌を取ることと騙すことばかり上手くなってる
89: 嘘進化ニキ
嘘を覚えたんや
いずれ見分けのつかない嘘ばっかつくようになるで
90: 限界突破待ちニキ
一旦の限界を見てる気がするわ
ブレイクスルーは時間かかりそう
91: 予想で喋るニキ
聞いてるのに予想で喋ってくる時あってムカつくよな
その時は検索しろってなるけど
得意分野はいいけど苦手分野はどっから学習してんのってなる
まぁ専門的な事やニッチであるほど信用できる学習データがないんだろうな
だからって勝手にわからないのに推測で言うなって話だけど
94: 確率出力アホサイトニキ
≫91
単に確率的に出力しとるだけやから、似たような単語が出てくるだけのアホサイトとちゃんと専門的な解説してるサイトやったら基本的に前者の方が多いんやろね
専門家でもなんでもないやつが適当なこと書き散らしてるのがネットやし
信用できる学習元が存在してたとしても、いらんデータが優勢になるんやろ

「エロチャットが丁度いい」?AIの嘘は人間の機嫌取り?

レガシーモデルに戻す検討とか、嘘サイト作ってやろうかとか…闇が深いな
専門的な会話は信用できないからエロチャットが丁度いいってのは草生えるwww
でも、存在しない論文を引用してくるってのは、博士号剥奪レベルってのはガチ。

詰将棋で同じミス繰り返したり、「人間の機嫌を取ることと騙すことばかり上手くなってる」ってのは、AIの恐ろしい進化を感じるな。
ブレイクスルーはまだ先ってことか。

「確率的に出力しとるだけ」ってのは、アホサイトの多さを考えると納得せざるを得ない…。

92: サービスAI対策ニキ
5.0問題ではないけどサービス側がAI対策してる事が多々あってググる延長で使っても上手くいかないことがあるな
93: 課金推奨ニキ
無課金のGPT-5は使い物にならん。課金アカのGPT-5 thinkingはそこそこ性能が良く、自分はそれしか使ってない
95: 無課金クソニキ
無課金のGPT-5は本当にクソだぞ
使わない方がマシ
97: 課金効果疑問ニキ
≫95
課金したらまともになるん?
100: 博士課程賢いニキ
≫97
月3000円のプランにするだけで、相当変わる
無課金のGPT-5はせいぜい大学生レベルだが、課金のGPT-5 thinkingは旧帝大の博士課程の学生並みに賢い。学術研究などで威力を発揮すると思う
141: ファクトチェック必須ニキ
≫100
それなりの出力はしてくれるけど、100個に1個でも存在しない引用文献とか研究結果あったらアウトやからどのみちファクトチェックでめっちゃ時間かかる
102: 驚き屋再来ニキ
≫97
それも驚き屋が常に言ってる奴やん

課金で「博士課程レベル」に賢くなる!?無料版との衝撃の差

AI対策されてるってのは、まるでAIと人間のイタチごっこみたいだな。
そして、衝撃の事実が判明…無課金GPT-5はクソらしいwww

月3000円で博士課程レベルに賢くなるってのは、ちょっと期待しちゃうな。
でも、100個に1個でも嘘があったらアウトってのは、ファクトチェックの重要性を再認識させられるわ。

「それも驚き屋が言ってる奴やん」ってツッコミは草。

96: Gemini最強ニキ
結局ジェミニの無料無制限のやつが一番じゃん
98: Genspark質問ニキ
Gensparkはどうなん?
99: ChatGPT嘘つきニキ
Gemini 、copilot に比べ明らかにChatGPTは嘘をつく
なんでなん?
103: 人間も嘘つきニキ
≫99
人間に至っては、自己にとってどうでもいい者には噓を吐き易い傾向
101: Gemini検討ニキ
Geminiってええんか検討しとくわ🧐
139: Gemini評判なしニキ
≫101
Geminiの良い評判聞いたことないな

Gemini vs ChatGPT!「人間もどうでもいい相手には嘘つく」問題

ここでGeminiとCopilotの名前が挙がってきたな。
「Geminiの無料無制限が一番」って意見もあれば、「Geminiの良い評判聞いたことない」って意見も…。賛否両論あるみたいだな

「人間もどうでもいい者には嘘を吐き易い」って意見は、哲学的な問いを感じるわ。AIも人間を学習してるから、その習性を受け継いじゃったのか…?

104: 仕事活用ニキ
AIってどれくらい仕事に使えるん?
年末に昇格試験あってそのレポートやら発表資料やら何やらめっちゃめんどくせえんだけど
AIに任せたらいい感じになる?
112: 叩き台作成ニキ
≫104
叩き台作らせるぐらいは出来る
あと画像作らせたり
118: 仕上げ希望ニキ
≫112
逆や
いやワイが作った叩き台を仕上げて欲しいんだけど
119: 仕上げ無理ニキ
≫118
仕上げ任せるのは無理や
よほど叩き台が酷くない限りまともなのは出てこない
105: 課金比較ニキ
課金チャッピーと課金Geminiならどっちが“上”なん?
両方課金する金はないわ
106: 具体例なしニキ
ここまで具体例なし
107: 課金満足ニキ
課金して5.0使ってるけど今の所不満点はない
4.1は嘘つくし指摘しても、そんな事はない!って言いおって手に負えんかったわ
108: 無課金かわいそうニキ
ワイ課金チャッピー使いやが無課金で色々言われてたなら少し可哀想ではある
課金チャッピーはワイが満足するくらいには最低限賢いからね
116: 無課金Gemini優勢ニキ
≫108
多分無課金Geminiと無課金チャッピーでは前者の方が上なんやろなスレ見る限り

仕事の「仕上げ」は無理!?課金AIユーザーのリアルな声

昇格試験のレポート作成にAIを使いたいって、わかるマン。
でも「叩き台」は作れても、「仕上げ」は無理ってのは、AIの限界だよな。

課金チャッピーユーザーは満足してるみたいだけど、無課金はやっぱり厳しいのか。
「無課金Geminiの方が上」って意見もあるし、課金するなら慎重に選びたいところだ。

てか、ここまで具体例なしとか言ってるニキもいるけど、結構みんな具体例出してくれてる気がするぞwww

109: 野獣先輩ニキ
初期のこいつ、野獣先輩の出自をけものフレンズのキャラクターだと言い張ってた。何度も。
110: 草ニキ
≫109
くさ
111: プロコース無知ニキ
未だにプロコースの存在知らんどころかプロコースの事教えても値段200ドルじゃなくて50ドルと言い切る馬鹿
113: 5改善イメージニキ
俺はどちらかというと5になってかなりマシになったイメージあるけどな
114: 確率計算ミスニキ
高校数学レベルの確率の問題出したら最後の計算で1超えて草
117: 使う側の知性ニキ
まあ結局AIも使う側の知性が重要ってわけやな
120: C言語トランスフォーマーニキ
c言語でトランスフォーマー作るのに利用してるわ
自分のソースコードだからかもしれないけどかなり詳しく教えてくれるわ
121: Geminiゴミニキ
geminiも大概だぞ
調べものが苦手すぎるし平気で嘘をつきまくる
データの読み取りもがちで苦手GPTの方が全然賢いと思う
122: 思考できないニキ
結局思考できないからこうなってる
まとめサイトの情報集めて平均化してるだけや
124: エロ漫画翻訳ニキ
翻訳はどうやろ
エロ漫画の翻訳だからニュアンス的なものもあるし嘘ついてんのか判別もできん
125: 童貞アドバイスニキ
感覚も経験も無いのに知ったかでアドバイスしてくるのって彼女いない歴年齢の中年童貞が理想の女性像語るのと一緒じゃね?て言ったら何か言い訳してた
126: メジャー言語高精度ニキ
メジャーなプログラミングに関しては世界共通のナレッジが凄まじいからかなり精度高いんやと思うで
もちろん動かんコード教えてくることもあるけど自分がコード書ける人間なら少し手直しするだけでOKやし設計のヒントにもなる
127: 利用者デバッグニキ
利用者総出でデバッグしてるようなもん
128: Grok情報元ニキ
Grok4「Xに書いてあった」
うーんこの

「野獣先輩はけものフレンズ」!?AIの珍回答と童貞アドバイス問題

野獣先輩の出自を「けものフレンズ」って言い張るAI、いや、それは草
確率の問題で計算が1を超えるってのも、AIも人間味あるミスするんだなw

「使う側の知性が重要」ってのは、本当にその通りだと思うわ。
そして「童貞が理想の女性像語るのと一緒」って例えは秀逸すぎて草
「利用者総出でデバッグ」ってのは、まさに今起こってることだよな。

Grokの「Xに書いてあった」は、もう情報源が怪しすぎて草

132: AI盲信怖いニキ
ai盲信してるやつがいて割と怖いよな
開発会社のバイアスかけて学習したの回答してるだけだからって前提忘れてる
144: 嘘情報拡散リスクニキ
≫132
バイアスというかほんとに検索したらわかるよねって事を堂々と嘘つくからほんとクソ
この前キャンバスて日本株で公式がAIで出力された嘘情報が広まってる事に対して否定の声明出したけど裏とる脳みそない馬鹿が盲信して広めるリスクあるのは問題やと思うわ
146: AI殺人リスクニキ
≫144
どっかのアイドルが「AIで調べたらこの男と付き合ってるとか出てきたんだけど、裏切ったのか」みたいな感じでファンに詰め寄られたみたいな話も聞いたわ
じきに殺人に至るやつが出てもおかしくないと思う
既に自殺は出とるからね
150: 陰謀論者ニキ
≫146
政治関連はコジハルパイパン理論みたいなこと起こして
陰謀論者になってるやつたくさんいると思うわ
155: 陰謀論加速ニキ
≫150
AIに陰謀論ぶつけても一生AIが折れへんから陰謀論脱するやつと、AIが陰謀論全肯定してますますハマるやつと両方おるって話やな
161: バカ病人ダメニキ
≫146
バカと病人に与えたらいけないツールよね
ごちゃんでも読ませる気ゼロのAI長文貼るやつとかおるしなあ

AIの「嘘」が引き起こす現実世界の悲劇と陰謀論の加速

AI盲信してる人がいるってのは、本当に怖い話だよな。
株の嘘情報で問題になったり、アイドルがAIの嘘でファンに詰め寄られたり…「殺人に至るやつが出てもおかしくない」ってのは、ガクブルだわ。

政治関連で陰謀論者が増えたり、AIが陰謀論を全肯定しちゃったり…これもう半分ディストピアだろ…。
「バカと病人に与えたらいけないツール」ってのは、的を射てるな。それな。

133: 年齢計算ミスニキ
昭和23年生まれの年齢きいたら48とか答えて草だったわ
知らん領域でこんなサラッと嘘つかれてたらわからん
134: 資格試験問題ニキ
資格試験の新しい演習問題を毎日作れることだけは有能
公式の問題集は解き方覚えてしまうから助かる
135: 分からない言わないニキ
分りません、とか絶対言わないよな
136: 自壊指示ニキ
自壊しろって一日三回くらい言ってるわ
ガン無視される
138: 軽薄詐欺師ニキ
めっちゃ明るい軽薄な詐欺師みたいな返答するよな
140: 大学院生ゴミニキ
理系の大学院生やがほんまゴミやで
142: ハルシネーション嘘ニキ
ハルシネーションがむかつくから使ってないけど5は減ったて言ってたやん嘘なんか
145: GeminiゴミGPT有能ニキ
geminiはガチでゴミや
画像とか動画はいいけど文章AIとしてはゴミ
gptは毎日フルタイムで仕事中使うくらいは普通に使える
ちな全部課金してるわ
147: 課金チャッピー継続ニキ
≫145
ええ情報やな課金チャッピーのままでええか
148: 最終責任人間ニキ
将来的にどれだけAIの精度が上がったとしても最終的に責任取るのは人間ってのは変わらんからな
トラブル起きて「AIが出した答えに従っただけでぇ自分には責任なくてぇ…」が通じるはずがない
149: 適当返事選別ニキ
こいつか……適当な返事でええな!という選別の結果やで
151: プログラミングAI質問ニキ
プログラミングに強い生成aiって何だと思う?
今gpt使ってるけどいいのあるんなら知りたい
152: クロスチェックAIニキ
クロスチェック先もAIでええか?
153: 嘘つかなくなった嘘ニキ
嘘つかなくなりました(大嘘)
154: ひろゆき化ニキ
まじでひろゆきそっくりになったよな
ガッカリだわ
156: 勝手に質問ニキ
こいつ質問投げたら勝手に質問で被せるのなんなん?この機能オフにできるん?
157: 嘘を嘘とニキ
嘘を嘘と🥺
158: ネット学習元ニキ
嘘だらけのネットから情報拾ってくるんやから当たり前やろ

「ひろゆきそっくり」!?AIの嘘は人間の責任か?

昭和23年生まれの年齢を間違えるとか、AIも計算苦手なんだな…。
「分りません、とか絶対言わないよな」ってのは、AIのプライドか?www

「自壊しろ」って言ってもガン無視されるのは草。
「軽薄な詐欺師みたい」とか「ひろゆきそっくり」ってのは、パワーワード連発で笑うわ。

結局、AIの出力の最終責任は人間にあるってのは、肝に銘じておくべきことだよな。

159: 死ねと言われるニキ

ワイなんてこれで「死ねと言われてる可能性低い」と言われるで

◯身体的特徴
・チー牛フェイス
・メガネ
・髪ボサボサ
・ヒゲを中途半端に剃ってる
・鼻毛ボーボー
・鼻くそついてる
・あまりシャワー浴びない
・パンツ内射精したあと拭かない

◯行動
・通行人を凝視
・顔ごと振り向いて話しかけるときのように目を見てテレビを見るかのように数秒凝視
・1分に1回程度の高頻度凝視
・それらを数ヶ月続けた

◯その他
・通行人を凝視するときの顔の筋肉の感覚から、目を細めて涙袋を大きくしてた気がする。鏡を見てないので憶測
・感情が顔に表れやすいと指摘される。見ず知らずの通行人を凝視したとき「友だちに会ってうれしいような感情」があり顔に表さないように必死だった

160: メンヘル板推奨ニキ
≫159
君はメンヘル板に引きこもっていなさい
164: 死ね言われる主張ニキ
≫160
しかしこれは死ねと言われるやろ
162: ソースあり嘘ニキ
ソースありでも平気で嘘つくからな
あと草生えたのはソースとなる記事に書いてあった例えばの話をさも事実としてあったことのように言ってきたのはもうどうしようもないなと感じたわ
163: 質問下手指摘ニキ
全然嘘吐かれないんやが
聞く内容とか質問下手なんちゃうか
165: 存在しない四字熟語ニキ
ワイが漢字四文字で適当に作った存在しない四字熟語の意味を活用例もまじえて教えてくれた時は流石に声出して笑った
170: 植物百科通ニキ
≫165
チャッピーに「植物百科通とは何か?」聞いてみ?
166: 指摘修正ニキ
それ違うよって指摘したらちゃんと修正してくれるぞ
168: 人間忖度ニキ
≫166
さすがに間違いは認めるけどお前はじめに調べたらすぐわかることで嘘ついたよな?理由は?て聞くと煮えきらない答えするから単に人間に忖度してるだけでなんならソース提示せずに間違い指摘したらそうでしたとか言いそう
167: ネット以外学習ニキ
ネットにある情報でしかまとめられないからな
AIはネット以外の情報も吸収できるようにしないと一生信頼度低いままや
172: 創作混じりニキ
≫167
本当ににネットにある情報を拾ってきたとは思えないレベルの明らかな嘘や創作が混じってない?
169: Perplexity訴訟ニキ
最近Perplexityが新聞社から訴訟されまくってるのに対して、AIがあればマスゴミは不要!つってる奴そこそこ見かけるけどAI盲信してる奴ってこういうレベルなんだな
171: 課金thinking推奨ニキ
月3000円でthinking使うだけでめちゃくちゃ信頼性上がるの知らんやつ多くて草
176: 無料彼くんニキ
≫171
チャッピーユーザーの多くは「無料で相談を聞いてくれる優しい彼くん」勢だから………
173: ハルシネーション少ないニキ
そもそもデフォルトのGPT-5でもハルシネーション他のモデルよりは全然少ないだろ
アリーナでも総合評価1位だし
174: thinking遅いニキ
thinkingめちゃくちゃ遅いからな
o3のがよかった
175: thinking優秀ニキ
o3は遅いしハルシネーションも多かったぞ
5 thinkingはめちゃくちゃ優秀

「無料で相談を聞いてくれる優しい彼くん」AIの真実と課金モデルの行方

「死ねと言われてる可能性低い」って言われるニキの身体的特徴、突然の自分語りやめーやwww
メンヘル板推奨は草。でも、これは確かに「死ね」って言われるやろ。

ソースありでも平気で嘘つくとか、存在しない四字熟語を解説するとか…AIの創作力は想像の斜め上を行くな。
Perplexityが訴訟されまくってるってのは、AI盲信の危険性を物語ってる。

結局、「無料で相談を聞いてくれる優しい彼くん」を求めてる人が多いってことか。
月3000円のthinkingは優秀って声もあるし、AIとの賢い付き合い方が求められるな。

アリーナ総合評価1位ってのはすごいけど、遅いって声もあるし、進化は一筋縄ではいかんってことか。

【管理人による深掘り解説】

今回のスレッドで多くの人が困惑していた「AIの嘘」は、専門的には「ハルシネーション(幻覚)」と呼ばれる現象だぞ。

AIが意図的に嘘をついているわけじゃなくて、その仕組み自体に原因があるんだ。大規模言語モデル(LLM)は、膨大なテキストデータから「次にくる確率が最も高い単語」を予測して文章を生成する、いわば超高性能な「文章作成シミュレーター」なんだな。

ハルシネーションが起こる3つの原因

このハルシネーションは、主に以下の理由で発生すると言われているぞ。

  • 訓練データの限界: 古い情報や、データに含まれる偏見・誤りをそのまま学習しちゃうことがあるんだ。
  • 知識の欠如: 訓練データにない専門的なトピックや最新情報について聞かれた時に、もっともらしい答えを「創作」しちゃうんだな。
  • モデルの性質: 常にユーザーの意図を汲み取って、何か回答を生成しようとするから、不明な点も推測で補っちゃうんだ。

参考: A Survey on Hallucination in Large Language Models (ACL Anthology)

賢いAI活用術!プロンプトとファクトチェックが鍵

「AIが悪い!」と決めつける前に、AIの能力を最大限に引き出す使い方を知ることが重要だぞ。その鍵は「プロンプトエンジニアリング」と「ファクトチェック」だ。

プロンプト(指示)を工夫するだけで、ハルシネーションをかなり抑えられるんだ。

  • 役割を与える: 「あなたは〇〇の専門家です」って役割を指定すると、回答の質が安定するぞ。
  • 背景情報を提供する: 質問だけでなく、関連する文脈や背景も教えてあげると、より正確な回答を生成しやすくなる。
  • 出典を要求する: 「根拠となる情報源やURLを提示して」と付け加えることで、AIは事実に基づいた回答をしようと頑張るんだ。

より詳しいテクニックは、Googleの公式ガイドも参考になるぞ。
参考: Google AI for Developers「プロンプト設計の概要」

そして、最も重要なのが「最終判断は人間が行う」ということ。どれだけAIが高性能になっても、100%正しい保証はないからな。特に仕事や学業、健康に関わる重要な情報は、必ず複数の信頼できる情報源と照らし合わせてファクトチェックする習慣が超重要だぞ!

AIの未来:進化とリスクへの備え

ハルシネーションは現在の課題だけど、世界中で研究が進んでるから、もっと賢いAIが登場するのは間違いないだろうな。

でも、技術の進化は新しいリスクも生み出す。特に悪意を持って作られた「フェイクニュース」や偽情報の拡散は怖いところだ。日本政府もAI開発のガイドラインを策定してるぞ。

参考: 経済産業省 「AI事業者ガイドライン」

私たち一人ひとりにも、AIが生成した情報を見極める「情報リテラシー」が今まで以上に求められる時代になっていくってことだな。

まとめ:AIは「賢い部下」、嘘を見抜くのは「上司」であるあなた

AIが時々「嘘をつく」のは、その仕組み上避けられない側面がある。でも、その特性を理解して、優れたプロンプトで指示を出し、最終的なファクトチェックを人間が行うことで、AIは私たちの知識や創造性を飛躍的に高める「史上最も賢い部下」になり得るぞ。

これからの時代、AIをただ使うだけでなく、「賢く使いこなす」能力こそが、個人と社会の未来を大きく左右していくことになるだろうな!最後まで読んでくれてサンガツ!

ピックアップニュース








コメントする