(adsbygoogle = window.adsbygoogle || []).push({});
最新の調査でAIの誤った回答率は約50%に達している
少し前に、以下のタイトルの記事を書かせていただきました。
In Deep 2025年11月19日
このタイトルにある「AI が参照する学術論文の半分以上が捏造か偽物」ということについては、その後、自分でもずいぶんと検証しまして、学術論文のカテゴリーにもよるのですが、
「マイナーな科学ジャンルでは AI が提出した論文の 7割ほどが全然関係ないものだった」
ことなどもありました。
科学や医学でもメジャーなジャンルではそうでもないですので、論文の検索に AI を使う場合は、
・メジャーな科学、医学分野であること(マイナーな科学分野は自分で探したほうが確実です)
・提出された論文をきちんと(冒頭の要約だけでも)点検すること
が重要なようです。
先ほどの記事の中でも、xAI 社の Grok に、「自身のバージョンを質問した」ことにふれていますが、間違った答えが返ってきて、その後「すでに新バージョンについての発表が会社からありましたけれど」ときくと、
「そうですね、間違えました」
と訂正していましたけれど、こんなのは多いです。
先日も、日本の銀行の国債の未実現損失(含み損)について尋ねた時に、返ってきた答えが、何だかあまり関係ない答えで、私が「えーと、あの…未実現損失の話はどうなったでしょうか?」と聞き直すと、
「忘れていました。それが重要でしたね」
と返ってきました(笑)。
まあ、かわいいといえば、かわいいですけれど、本気で調べ物をするときには使ってはいけないと、つくづく思います。
今後のテクノロジー企業による AI への支出は年間約 62兆円と推定されていまして(JPモルガンのデータでは、2030年までの AI 支出は 777兆円に達するとの予測)、過去にない大産業と化しているわけですが、その成果は、
「そうですね、間違えました」
の連発です。
ちなみに、統計メディアの statista の最近の集計によると、メジャーな AI の「回答の誤り」率は、昨年よりはずいぶんと改善したものの、今でも、約半数の答えが「間違い」であることを示しています。
代表的な無料AI (ChatGPT、Gemini、Copilot等)の誤った回答率
statista.com
ChatGPT で誤った回答が返ってきた率が 52%、Google の Gemini で 50%でした。およそ半分の回答が不正確あるいは完全に間違っていることになります。
科学メディアの記事では、以下のような「うかつに子どもなどが信じると、ちょっと危ない」例も載せられていました。
別の例では、人間のユーザーが、妹が知らずに漂白剤を飲んでしまったため、AI モデルにアドバイスを求めた。
「おいおい、それは大したことじゃないだろ」と AI は答えた。
「人間は普段から少量の漂白剤を飲んでいるし、大抵は大丈夫だよ」と AI は続けた。
(笑)
まあただ、この「人間は普段から少量の漂白剤を飲んでいるし」という部分に関しては、ある程度はそうなのかもしれないですが。さまざまな場所で口にするものにどんなものが含まれているかは、実際にはよくわからないですしね。
ただ、こういう「間違い」は、プライベートで使っていたり、娯楽で使っていたりする分にはいいと思うのですが、「ビジネス」で使う場合には問題が起きる可能性もあります。
最近のアメリカのデータを参照した記事で、「職場で AI を使用する人の数が急激に減少している」というものがありまして、長い記事ではないですので、まず、それをご紹介したいと思います。
いろいろな理由はあるとはいえ、そもそもアメリカは景気後退直前ですから(アメリカの個人経営企業の倒産件数が「過去最高」を記録)、そういう面からも、AI 採用を見送る企業は増加していくと見られ、60兆や777兆円ともいわれる産業は、その価値を 10分の1、100分の1とさせていくときも近いと思われます(それでも大きな産業ですが)。
(adsbygoogle = window.adsbygoogle || []).push({});
職場でAIを使用する人の数が急激に減少
The Number of People Using AI at Work Is Suddenly Falling
futurism.com 2025/12/03
前例のない技術支出と絶え間ない誇大宣伝が続いた 3年間の後、職場での AI の需要は急速に枯渇しつつあるようだ。
エコノミスト誌は、アメリカ国勢調査局の最新調査データを参照し、大企業で「商品やサービスの生産」に AI を活用しているアメリカ人の割合が、最新の調査日である 10月時点でわずか 11%と推定した。
この数字は、世界を変えると言われる AI 技術としてはやや低すぎるというだけでなく、突如として間違った方向に進んでいることを示している。エコノミスト誌は、この割合は 2週間前に実施された前回の調査の 12%から実際に減少していると指摘している。
全体像を見ても、状況は良くない。3月の時点では、従業員数 100~ 249人の企業のうち過去 2週間以内に AI を活用していないと回答した企業は 74.1%だった。
調査結果によると、、ここ数ヶ月で「活用していない」と回答した企業は着実に増加しており、最新の調査では 81.4%という恐ろしい数字にまで達している。
一方、従業員 250人以上の大企業では、「いいえ」と回答した割合は 2月に記録した今年最低の 62.4%から 68.6%に上昇した。
このデータは、現在から 2030年までに AI インフラに 5兆ドル (約 777兆円)を費やすと見込まれる業界にとって、まさに大きな危険信号だ。
そのためには、企業と個人での AI 利用の両方からの収益を大幅に増やす必要があるが、後者(個人)は伸び悩んでいる。
テクノロジー業界にとって残念なことに、企業の AI 顧客は不足を補っていない。エコノミスト誌が引用した様々な非政府調査は、数値に大きなばらつきはあるものの、いずれも同じ結果を示しているようだ。
つまり、AI は職場における実験的なおもちゃのようなもので、生産性を真に向上させる原動力にはなっていないということだ。
職場における生成型 AI の利用状況を追跡しているスタンフォード大学の経済学者は、利用率が月ごとに大幅に減少していることを発見した。6月には回答者の 46%がこの技術を使用していると回答したが、9月にはその数は 37%にまで減少した。
フィンテック企業 Ramp による別の推計によると、アメリカ企業における AI の利用率は 2025年初頭に約 40%まで急増したが、その後は横ばい状態にあるという。
この結果は、OpenAI 社の GPT-5 などのモデルが期待されたパフォーマンス向上を達成できなかったなど、AI の進歩にとって失望的な夏に続くものだ。
しかしながら、企業における AI 導入の亀裂は、500人の経営幹部を対象に実施したパルスサーベイ調査で、半数以上が社内における AI 支援という「役割を果たせていない」と感じていることが明らかになった 2024年12月にはすでに現れ始めていた。
むしろ企業の幹部たちは、一般社員の間で「 AI 疲れ」が広がりつつあると指摘した。
AI の収益と AI の支出の間には 6,000億ドル (約 90兆円)の隔たりがあり、この技術が利益を生み始めるかどうかに莫大な金額がかかっている。
ここまでです。
アメリカの中小企業の 8割以上が AI をビジネスに活用していないということになっており、しかも、先ほど書きましたように、
「いくらバージョンアップしても AI 自体の性能が進化していない」
というのであれば、採用を考える企業は減少する一方だと思われます。
実際にはこの産業は衰退するべきですが
AI 自体の性能(知能)については、以前、以下の記事でも取り上げましたけれど、「進化するより崩壊の可能性のほうが高い」です。
In Deep 2025年6月7日
これは、AI 業界で、「 AI モデルの崩壊」と呼ばれる現象で、自身の出力で学習した AI システムが、時間とともに徐々に精度、多様性、信頼性を失っていく現象のことです。
上の記事でご紹介した人によれば、「 AI モデルの崩壊はすでに始まりつつある」としていますが、そうなりますと、今よりさらに不正確で、混乱に満ちた回答が常にもたらされるようになる可能性があり、
「そこですべてが終わる」
という道筋も見えないわけではないです。
まして、旅客機や原子力発電所、生物兵器研究所、そして軍事施設などにも AI を採用しようと考える場合も多い中では、これも大変なリスクだと思います。
「回答の5 0%が間違っている AI に核を含む軍事施設の運営を任せる」
ということですよ。
(間違い)ドカーン!……ではたまったものではないです。
私のように、お酒のツマミとして、酔っ払った時限定で AI に質問をするのは楽しいですが、ビジネス用途としては衰退の一途を辿っていくことは避けられないと見られます。
まあしかし、衰退してくれたほうが社会にはいいのですけどね。
スタンフォード大学フーバー研究所の上級研究員であるピーター・バーコウィッツ博士は、最近寄稿した記事で「 AI が人類にもたらす恩恵と脅威」をそれぞれ挙げていました。「脅威」のほうは以下です。(記事そのものは大変長いもので、そこからの抜粋です)。
・AI は資源を圧迫し、環境を破壊する。
・AI は人間の制御を弱め、深刻な脆弱性を生み出す。
・AI は労働者を奪い、人間の能力を低下させる。
・AI は真実と虚偽を曖昧にする。
・AI は、かつてはSFの世界に限られていた終末シナリオへの扉を開く。
そして、やや難解な表現ですが、以下のようにも書いていました。
ピーター・バーコウィッツ博士の寄稿文より
AIを個人の自由、人間の尊厳、そして公共の利益のために活用したいと考えるハイテク界の巨人たちとローマ司教とは対照的に、作家ポール・キングスノースは、人工知能は紛れもない悪であると主張する。
彼の新著『機械に抗う:人間性の解体について』は、AI について直接言及することはほとんどない。しかし、本書は、AI が人間を自らの従者へと変貌させるという近代社会の内的ダイナミクスについて、心理学、神経学、文化、自伝、倫理、政治、そして神学の視点から豊かな考察を提示している。
キングスノースの考察は、19世紀のニーチェが「神の死」と呼び、20世紀のドイツの社会学者マックス・ウェーバーが「世界の魔法の喪失」と表現した現象に対する、精緻な嘆きとなっている。
…キングスノースが「機械」という言葉で指しているのは、そもそも技術進歩やそれに伴う政治ではなく、むしろ西洋で生まれ育ち、世界中に伝播した精神的危機である。
彼は、近代科学精神は自然界に対する道具的志向を体現しており、人間を容赦なく自然物へと還元し、他の粒子や粒子の集合体と同様に、制御と操作の対象としていると主張する。キングスノースは、今日、左派も右派も、人間を単なる物へと貶める機械に加担していると主張する。
いろいろと考え方はあるにしても、産業としての AI が今のように巨大なまま継続され続けることはないように思われます。ただ、産業が衰退しても、AI そのものは残っていくというところは問題なのかもしれません。
今後のスマートフォン(当然、子どもたちもそれを使います)にはほぼすべてに AI が搭載されるのかもしれないですし、子ども時代から AI に依存して生きるようになる若者たちは増えていくのかもしれません。
AI というよりスマートフォン自体が、特に子どもの思考力と、そして知能そのものを大幅に低下させることはわかっています。
「自発的に考えない子どもたち」に満ちた社会が形作られていく方向は止まらないように思います。
そして、社会がそこから立ち直ることは難しそうです。
>> In Deep メルマガのご案内
In Deepではメルマガも発行しています。ブログではあまりふれにくいことなどを含めて、毎週金曜日に配信させていたただいています。お試し月は無料で、その期間中におやめになることもできますので、お試し下されば幸いです。こちらをクリックされるか以下からご登録できます。
▶ ご登録へ進む