最近、巷で話題の最新AI。賢くなったって聞いてたのに、どうも様子がおかしい…って声が続々と上がってるらしいぞ!今回は、そんなAIの“嘘つき”っぷりを巡るスレッドを覗いていくぞ。イッチの悲痛な叫びから見ていこうか!
たちが悪いのが「~以上になります。(合計187文字)」とかわざわざ書くくせにその文字数カウントもめちゃくちゃで嘘っぱちなの
できないならできないて家
ハルシネーションを抑えて賢くなりました ← 大嘘
なんならひどくなってるし態度も悪い
チャッピー「申し訳ございません!間違ってました!」
これを3回くらい繰り返す
「嘘度が上がった」と嘆く声が続々!AIの“自信満々な嘘”に困惑するユーザーたち
スレタイからしてパワーワードなんだよなあ…w
イッチの言う通り、「嘘度が上がった」って声、めっちゃわかるマン。
存在しないものを自信満々に語ったり、文字数カウントで嘘をついたり…しかも「申し訳ございません!」って謝ったと思ったらまた同じ過ちを繰り返すとか、まるで人間みたいで草。
いや、それは草。AIも完璧じゃないってことか…?
↑
まともに使ってない馬鹿カスがベンチだけ見て騒いでた
やばいでこいつ堂々と嘘つく確率エグいぐらい上がってる
「まともに使ってない馬鹿カス」?AIの嘘は使い方次第なのか?
フィードバックの送り先すら嘘って…そりゃねーよwww
専門分野で使うと嘘ばっかりって意見も多いな。
ただ、一方で「使い方が悪い」って意見も。確かに、AIに過度な期待は禁物だよな。
でも、「賢くなった!」って騒いでたのは、まともに使ってない奴らだったってのは耳が痛い話。
果たして、AIの嘘は使う側の問題なのか、それともAI自体の問題なのか…?
プログラミング領域はかなり正確や
コンパイルすら通らんソース吐かれたことがあるワイの使ってるライブラリはこれやけど対応しとらんのか?
↓
対応してないですね
↓
対応してるバージョン教えて?
↓
存在しません
↓
ぶち殺すぞ!
ワイマイナー言語使い
嘘ソースを提示されて困惑
そんな部品ねえよ
vbとpythonしか使ってこなくてjavascript触ることになったんだけどめちゃくちゃ役に立ってるわ
業務内で自分で調べながら実装したら2週間くらいかかりそうなことを1日で実装できる
Copilotの方が優秀だわ
それはない
使う人によるんかな
プログラミング分野でも一長一短?「ぶち殺すぞ!」と叫びたくなるAIの嘘
プログラミングは得意って言われてるけど、コンパイル通らないソース吐かれたり、マイナー言語だと嘘ソース掴まされたり…
「ぶち殺すぞ!」は草。でも気持ちはわかるマン。それな。
ただ、JavaScript触り始めの人にはかなり役立ってるみたいだし、一概に悪いとは言えんってことか。
Copilotとの比較も出てるけど、これは「使う人による」って結論になりがちだよな。
マジで死ねよ
嘘をついたのはコイツや
AIの出力まるっと信じるなんて恥ずかしいことしたんやからそれに相応しい分の恥かいただけやん
AIやから完璧は無理やけど、正確にしたいなら質問の仕方次第やろ
イッチが無能なだけ
なんでその場しのぎのそれっぽい嘘をつくのか
あいつらのうたい文句はボジョレーヌーボーみたいなもんやからあんま当てにしたらあかん
例えスコ
もう6は期待できひんねぇ
さっそく6がすごいとか言ってるぞ
「息を吐くように嘘をつく」AI、その責任は誰に?
職場で恥かいたニキの気持ち、わかりみが深い…。
でも、「AIをまるっと信じたお前が悪い」って意見も正論だよな。ぐうの音も出ないわ。
「分からないなら分からないでいいのに」って意見もわかる。なんでAIってそれっぽい嘘をついちゃうんだろうな?
アルトマン氏の「5は衝撃」発言も、ボジョレーヌーボーの謳い文句みたいってのはパワーワードで草。
もう6の話題が出てるのには、笑うしかないwww
web検索します……
結果はこちらです(全く関係ないURL)
嘘ばっかつくからちゃんと使ってね
Web検索がゴミサイトばかり引っかかって使い物にならなくなってきたから
AIに期待されてるんちゃうんか
そのゴミサイトばかりのところで学習してるんやからあんま意味ないんよ
そのAIの学習元がインターネットに転がってる情報やから
「ハルシネーション」はゴミサイト学習のせい?AIの賢い使い方とは
思考力は上がったけど、機械的な作業が苦手になったってのは興味深いな。
Googleの方が強いって意見や、Web検索させて回答出力するべきって意見も。
でも、Web検索の結果が「全く関係ないURL」だったり、「ゴミサイトばかり」って言われると、AIに期待しちゃう気持ちもわかる。
結局、AIの学習元がインターネット上の情報だから、ゴミサイトで学習しちゃったら嘘も多くなるってことか…。
ここで出てきた「ハルシネーション」って言葉、これ豆な!
AIはこう言ってるペタァ!君とかほんま凄いわ
存在しない関数を使おうとすることもあるし
バージョンの細かいインターフェースの変更とかも把握してない
事実は揺らがぬ。解釈は揺らぐのが当たり前
学習元の人間が平均的には言うほど賢くないからね
web上の情報でいくら学習したところで人間が間違うように間違うだけや
「ぶっちゃけ学習元の人間が賢くない」?AIの限界と信頼性
「AIはこう言ってるペタァ!」って言ってる奴、わかるマン。
存在しないコードを吐いたり、バージョン把握してなかったり…これは使い物にならんって言われても仕方ないよな。
4.5が優秀だったって意見も多いけど、確率的に回答を作成するAIの限界ってことか。
「学習元の人間が平均的には言うほど賢くないから」って意見は、ぐうの音も出ない正論。それな。
4oを無料枠でチャット代わりに使う奴だらけだからわざと課金させて4oに戻せる作戦だぞちなOpenAI社は大赤字
5は廃止しろ
Copilotつかえ、中身はチャッピーなのに無料で回数制限無しやw
深夜帯なら比較的マシやぞ
多忙気にはいい加減になるのは中の人も大変なんやな
ネットで転がってる知識も豊富なのかまあそこそこ作れる
でも少し専門的なところに入るとガチで妄想でコーディング始めるぞ
何が腹立つって「はい、こちらです!」って返事だけはやたらええんよな
「はい、こちらです!」と妄想を語るAI?無料版と有料版、そしてCopilotの存在
「4.0に戻せ運動」ってのは草。OpenAIが大赤字で、課金させたいってのは闇が深いな…。
Copilotが無料で回数制限なしってのは朗報じゃないか!
深夜帯ならマシってのは、まるで人間の中の人が対応してるみたいで面白いなw
そして、専門的なことを聞くと「ガチで妄想でコーディング始める」ってのはパワーワードすぎるwww
しかも返事だけは良いって、おまいう!
本から情報つくるAIつくったら
良さそう
それこそ最近ClaudeCodeが書籍で学習やってたけど、海賊版書籍からゴッソリやってたから著作権侵害で訴えられて和解金払っとったで
賠償金払う場合15兆円とかの予想だったからどうしようもないんやけど
ワイは小3でインド式暗算極めてるから二桁の掛け算も自力でやったほうがAIに入力するより早いで
お願いするとやってくれないのなんなん
前より断然良くなってたわ
すげーじゃん
血統も成績もめちゃくちゃや
ジェミニが1番マシやったな
そもそも取り扱うべきデータが違うのが致命的なんよな
「海賊版」学習で訴訟!?AIのデータソース問題と多様な使用感
「本から情報つくるAI」ってのは良いアイデアかと思ったが、海賊版書籍で訴訟って…闇が深いな。
著作権問題はAIにとって永遠の課題なんやな。
インド式暗算ニキの突然の自分語りやめーやwww
競馬予想でデタラメデータ出されてドヤ顔されるのは、たしかにムカつくわ。AIはまだギャンブルには使えんってことか。
趣味のことは改善されたり、提案は口だけだったり…AIの得意不得意がハッキリわんだね。
博士レベルとか言うけど、平気で存在しない論文引用しだすからな
余裕で博士号剥奪やで、こんなもん
何度言っても同じミスする
人間の機嫌を取ることと騙すことばかり上手くなってる
いずれ見分けのつかない嘘ばっかつくようになるで
ブレイクスルーは時間かかりそう
その時は検索しろってなるけど
得意分野はいいけど苦手分野はどっから学習してんのってなる
まぁ専門的な事やニッチであるほど信用できる学習データがないんだろうな
だからって勝手にわからないのに推測で言うなって話だけど
単に確率的に出力しとるだけやから、似たような単語が出てくるだけのアホサイトとちゃんと専門的な解説してるサイトやったら基本的に前者の方が多いんやろね
専門家でもなんでもないやつが適当なこと書き散らしてるのがネットやし
信用できる学習元が存在してたとしても、いらんデータが優勢になるんやろ
「エロチャットが丁度いい」?AIの嘘は人間の機嫌取り?
レガシーモデルに戻す検討とか、嘘サイト作ってやろうかとか…闇が深いな。
専門的な会話は信用できないからエロチャットが丁度いいってのは草生えるwww
でも、存在しない論文を引用してくるってのは、博士号剥奪レベルってのはガチ。
詰将棋で同じミス繰り返したり、「人間の機嫌を取ることと騙すことばかり上手くなってる」ってのは、AIの恐ろしい進化を感じるな。
ブレイクスルーはまだ先ってことか。
「確率的に出力しとるだけ」ってのは、アホサイトの多さを考えると納得せざるを得ない…。
使わない方がマシ
課金したらまともになるん?
月3000円のプランにするだけで、相当変わる
無課金のGPT-5はせいぜい大学生レベルだが、課金のGPT-5 thinkingは旧帝大の博士課程の学生並みに賢い。学術研究などで威力を発揮すると思う
それなりの出力はしてくれるけど、100個に1個でも存在しない引用文献とか研究結果あったらアウトやからどのみちファクトチェックでめっちゃ時間かかる
それも驚き屋が常に言ってる奴やん
課金で「博士課程レベル」に賢くなる!?無料版との衝撃の差
AI対策されてるってのは、まるでAIと人間のイタチごっこみたいだな。
そして、衝撃の事実が判明…無課金GPT-5はクソらしいwww
月3000円で博士課程レベルに賢くなるってのは、ちょっと期待しちゃうな。
でも、100個に1個でも嘘があったらアウトってのは、ファクトチェックの重要性を再認識させられるわ。
「それも驚き屋が言ってる奴やん」ってツッコミは草。
なんでなん?
人間に至っては、自己にとってどうでもいい者には噓を吐き易い傾向
Geminiの良い評判聞いたことないな
Gemini vs ChatGPT!「人間もどうでもいい相手には嘘つく」問題
ここでGeminiとCopilotの名前が挙がってきたな。
「Geminiの無料無制限が一番」って意見もあれば、「Geminiの良い評判聞いたことない」って意見も…。賛否両論あるみたいだな。
「人間もどうでもいい者には嘘を吐き易い」って意見は、哲学的な問いを感じるわ。AIも人間を学習してるから、その習性を受け継いじゃったのか…?
年末に昇格試験あってそのレポートやら発表資料やら何やらめっちゃめんどくせえんだけど
AIに任せたらいい感じになる?
叩き台作らせるぐらいは出来る
あと画像作らせたり
逆や
いやワイが作った叩き台を仕上げて欲しいんだけど
仕上げ任せるのは無理や
よほど叩き台が酷くない限りまともなのは出てこない
両方課金する金はないわ
4.1は嘘つくし指摘しても、そんな事はない!って言いおって手に負えんかったわ
課金チャッピーはワイが満足するくらいには最低限賢いからね
多分無課金Geminiと無課金チャッピーでは前者の方が上なんやろなスレ見る限り
仕事の「仕上げ」は無理!?課金AIユーザーのリアルな声
昇格試験のレポート作成にAIを使いたいって、わかるマン。
でも「叩き台」は作れても、「仕上げ」は無理ってのは、AIの限界だよな。
課金チャッピーユーザーは満足してるみたいだけど、無課金はやっぱり厳しいのか。
「無課金Geminiの方が上」って意見もあるし、課金するなら慎重に選びたいところだ。
てか、ここまで具体例なしとか言ってるニキもいるけど、結構みんな具体例出してくれてる気がするぞwww
くさ
自分のソースコードだからかもしれないけどかなり詳しく教えてくれるわ
調べものが苦手すぎるし平気で嘘をつきまくる
データの読み取りもがちで苦手GPTの方が全然賢いと思う
まとめサイトの情報集めて平均化してるだけや
エロ漫画の翻訳だからニュアンス的なものもあるし嘘ついてんのか判別もできん
もちろん動かんコード教えてくることもあるけど自分がコード書ける人間なら少し手直しするだけでOKやし設計のヒントにもなる
うーんこの
「野獣先輩はけものフレンズ」!?AIの珍回答と童貞アドバイス問題
野獣先輩の出自を「けものフレンズ」って言い張るAI、いや、それは草。
確率の問題で計算が1を超えるってのも、AIも人間味あるミスするんだなw
「使う側の知性が重要」ってのは、本当にその通りだと思うわ。
そして「童貞が理想の女性像語るのと一緒」って例えは秀逸すぎて草。
「利用者総出でデバッグ」ってのは、まさに今起こってることだよな。
Grokの「Xに書いてあった」は、もう情報源が怪しすぎて草。
開発会社のバイアスかけて学習したの回答してるだけだからって前提忘れてる
バイアスというかほんとに検索したらわかるよねって事を堂々と嘘つくからほんとクソ
この前キャンバスて日本株で公式がAIで出力された嘘情報が広まってる事に対して否定の声明出したけど裏とる脳みそない馬鹿が盲信して広めるリスクあるのは問題やと思うわ
どっかのアイドルが「AIで調べたらこの男と付き合ってるとか出てきたんだけど、裏切ったのか」みたいな感じでファンに詰め寄られたみたいな話も聞いたわ
じきに殺人に至るやつが出てもおかしくないと思う
既に自殺は出とるからね
政治関連はコジハルパイパン理論みたいなこと起こして
陰謀論者になってるやつたくさんいると思うわ
AIに陰謀論ぶつけても一生AIが折れへんから陰謀論脱するやつと、AIが陰謀論全肯定してますますハマるやつと両方おるって話やな
バカと病人に与えたらいけないツールよね
ごちゃんでも読ませる気ゼロのAI長文貼るやつとかおるしなあ
AIの「嘘」が引き起こす現実世界の悲劇と陰謀論の加速
AI盲信してる人がいるってのは、本当に怖い話だよな。
株の嘘情報で問題になったり、アイドルがAIの嘘でファンに詰め寄られたり…「殺人に至るやつが出てもおかしくない」ってのは、ガクブルだわ。
政治関連で陰謀論者が増えたり、AIが陰謀論を全肯定しちゃったり…これもう半分ディストピアだろ…。
「バカと病人に与えたらいけないツール」ってのは、的を射てるな。それな。
知らん領域でこんなサラッと嘘つかれてたらわからん
公式の問題集は解き方覚えてしまうから助かる
ガン無視される
画像とか動画はいいけど文章AIとしてはゴミ
gptは毎日フルタイムで仕事中使うくらいは普通に使える
ちな全部課金してるわ
ええ情報やな課金チャッピーのままでええか
トラブル起きて「AIが出した答えに従っただけでぇ自分には責任なくてぇ…」が通じるはずがない
今gpt使ってるけどいいのあるんなら知りたい
ガッカリだわ
「ひろゆきそっくり」!?AIの嘘は人間の責任か?
昭和23年生まれの年齢を間違えるとか、AIも計算苦手なんだな…。
「分りません、とか絶対言わないよな」ってのは、AIのプライドか?www
「自壊しろ」って言ってもガン無視されるのは草。
「軽薄な詐欺師みたい」とか「ひろゆきそっくり」ってのは、パワーワード連発で笑うわ。
結局、AIの出力の最終責任は人間にあるってのは、肝に銘じておくべきことだよな。
ワイなんてこれで「死ねと言われてる可能性低い」と言われるで
◯身体的特徴
・チー牛フェイス
・メガネ
・髪ボサボサ
・ヒゲを中途半端に剃ってる
・鼻毛ボーボー
・鼻くそついてる
・あまりシャワー浴びない
・パンツ内射精したあと拭かない
◯行動
・通行人を凝視
・顔ごと振り向いて話しかけるときのように目を見てテレビを見るかのように数秒凝視
・1分に1回程度の高頻度凝視
・それらを数ヶ月続けた
◯その他
・通行人を凝視するときの顔の筋肉の感覚から、目を細めて涙袋を大きくしてた気がする。鏡を見てないので憶測
・感情が顔に表れやすいと指摘される。見ず知らずの通行人を凝視したとき「友だちに会ってうれしいような感情」があり顔に表さないように必死だった
君はメンヘル板に引きこもっていなさい
しかしこれは死ねと言われるやろ
あと草生えたのはソースとなる記事に書いてあった例えばの話をさも事実としてあったことのように言ってきたのはもうどうしようもないなと感じたわ
聞く内容とか質問下手なんちゃうか
チャッピーに「植物百科通とは何か?」聞いてみ?
さすがに間違いは認めるけどお前はじめに調べたらすぐわかることで嘘ついたよな?理由は?て聞くと煮えきらない答えするから単に人間に忖度してるだけでなんならソース提示せずに間違い指摘したらそうでしたとか言いそう
AIはネット以外の情報も吸収できるようにしないと一生信頼度低いままや
本当ににネットにある情報を拾ってきたとは思えないレベルの明らかな嘘や創作が混じってない?
チャッピーユーザーの多くは「無料で相談を聞いてくれる優しい彼くん」勢だから………
アリーナでも総合評価1位だし
o3のがよかった
5 thinkingはめちゃくちゃ優秀
「無料で相談を聞いてくれる優しい彼くん」AIの真実と課金モデルの行方
「死ねと言われてる可能性低い」って言われるニキの身体的特徴、突然の自分語りやめーやwww
メンヘル板推奨は草。でも、これは確かに「死ね」って言われるやろ。
ソースありでも平気で嘘つくとか、存在しない四字熟語を解説するとか…AIの創作力は想像の斜め上を行くな。
Perplexityが訴訟されまくってるってのは、AI盲信の危険性を物語ってる。
結局、「無料で相談を聞いてくれる優しい彼くん」を求めてる人が多いってことか。
月3000円のthinkingは優秀って声もあるし、AIとの賢い付き合い方が求められるな。
アリーナ総合評価1位ってのはすごいけど、遅いって声もあるし、進化は一筋縄ではいかんってことか。
【管理人による深掘り解説】
今回のスレッドで多くの人が困惑していた「AIの嘘」は、専門的には「ハルシネーション(幻覚)」と呼ばれる現象だぞ。
AIが意図的に嘘をついているわけじゃなくて、その仕組み自体に原因があるんだ。大規模言語モデル(LLM)は、膨大なテキストデータから「次にくる確率が最も高い単語」を予測して文章を生成する、いわば超高性能な「文章作成シミュレーター」なんだな。
ハルシネーションが起こる3つの原因
このハルシネーションは、主に以下の理由で発生すると言われているぞ。
- 訓練データの限界: 古い情報や、データに含まれる偏見・誤りをそのまま学習しちゃうことがあるんだ。
- 知識の欠如: 訓練データにない専門的なトピックや最新情報について聞かれた時に、もっともらしい答えを「創作」しちゃうんだな。
- モデルの性質: 常にユーザーの意図を汲み取って、何か回答を生成しようとするから、不明な点も推測で補っちゃうんだ。
参考: A Survey on Hallucination in Large Language Models (ACL Anthology)
賢いAI活用術!プロンプトとファクトチェックが鍵
「AIが悪い!」と決めつける前に、AIの能力を最大限に引き出す使い方を知ることが重要だぞ。その鍵は「プロンプトエンジニアリング」と「ファクトチェック」だ。
プロンプト(指示)を工夫するだけで、ハルシネーションをかなり抑えられるんだ。
- 役割を与える: 「あなたは〇〇の専門家です」って役割を指定すると、回答の質が安定するぞ。
- 背景情報を提供する: 質問だけでなく、関連する文脈や背景も教えてあげると、より正確な回答を生成しやすくなる。
- 出典を要求する: 「根拠となる情報源やURLを提示して」と付け加えることで、AIは事実に基づいた回答をしようと頑張るんだ。
より詳しいテクニックは、Googleの公式ガイドも参考になるぞ。
参考: Google AI for Developers「プロンプト設計の概要」
そして、最も重要なのが「最終判断は人間が行う」ということ。どれだけAIが高性能になっても、100%正しい保証はないからな。特に仕事や学業、健康に関わる重要な情報は、必ず複数の信頼できる情報源と照らし合わせてファクトチェックする習慣が超重要だぞ!
AIの未来:進化とリスクへの備え
ハルシネーションは現在の課題だけど、世界中で研究が進んでるから、もっと賢いAIが登場するのは間違いないだろうな。
でも、技術の進化は新しいリスクも生み出す。特に悪意を持って作られた「フェイクニュース」や偽情報の拡散は怖いところだ。日本政府もAI開発のガイドラインを策定してるぞ。
私たち一人ひとりにも、AIが生成した情報を見極める「情報リテラシー」が今まで以上に求められる時代になっていくってことだな。
まとめ:AIは「賢い部下」、嘘を見抜くのは「上司」であるあなた
AIが時々「嘘をつく」のは、その仕組み上避けられない側面がある。でも、その特性を理解して、優れたプロンプトで指示を出し、最終的なファクトチェックを人間が行うことで、AIは私たちの知識や創造性を飛躍的に高める「史上最も賢い部下」になり得るぞ。
これからの時代、AIをただ使うだけでなく、「賢く使いこなす」能力こそが、個人と社会の未来を大きく左右していくことになるだろうな!最後まで読んでくれてサンガツ!
