はじめに:SNSで話題の「AI満点」は本当?
2026年1月、SNSやニュースで「ChatGPTが共通テスト9教科で満点を取得」という話題が広く拡散しました。
「AIがついに人間を超えた!」
「もう受験勉強は意味がない?」
こんな声も聞こえてきますが、この情報の出所と信頼性について、ファクトチェックを行いました。
結論:一次情報はLifePromptの検証レポート
「共通テスト2026でChatGPTが9教科満点」という情報の
一次情報は、AIベンチャーの
株式会社LifePrompt
が公開した検証レポートです。
テレビ朝日系やTBSなどのメディアでも「同社発表として」報道されています。
【重要な注意点】
- この検証は人間の本番試験と同一条件ではない
- 独立した第三者による同条件での再現検証は確認できていない
誰がどこで実施したか
| 実施主体 | 株式会社LifePrompt |
| 代表取締役 | 遠藤聡志氏(東京大学卒) |
| 公開場所 | 同社の公式note記事 |
| 報道での言及 | テレビ朝日系、TBS、ITmedia、Ledge.aiなど |
LifePromptは2023年から毎年「AI vs 共通テスト」の検証を行っており、今回で4年目となります。
実験の設計と手順
LifePromptは、恣意性やコピペミスを避ける目的で自動受験システムを独自開発し、チャット画面ではなくAPI経由で試験を実行したと説明しています。
手順の概要
- 問題PDFをシステムに投入し、全ページを画像化しつつテキスト解析
- 大問単位に自動で分割
- 分割した問題画像をAPIで各モデルへ送信
- 出力された自由記述回答を、別プロセスでマークシート形式へ自動変換
例外処理(人間と異なる条件)
- 英語リスニング:音声入力の代替として、試験センター公開の読み上げスクリプトをテキスト投入
- 国語の縦書き:外部ツールで文字起こししたテキストを使用
使用モデルと設定
| モデル | 設定 |
|---|---|
| GPT-5.2 Thinking | バックグラウンドモードで思考時間を許容 |
| Gemini 3.0 Pro | Thinking LevelをHighに設定 |
| Claude Opus 4.5 | Thinking Mode有効化 |
9教科満点の内訳
GPT-5.2 Thinkingが満点を獲得したのは以下の9科目です:
| 科目 | 得点 | 結果 |
|---|---|---|
| 公共、政治・経済 | 100点 | 満点 |
| 数学I・数学A | 100点 | 満点 |
| 数学II・数学B・数学C | 100点 | 満点 |
| 化学 | 100点 | 満点 |
| 物理基礎 | 50点 | 満点 |
| 化学基礎 | 50点 | 満点 |
| 地学基礎 | 50点 | 満点 |
| 生物基礎 | 50点 | 満点 |
| 情報I | 100点 | 満点 |
満点ではなかった科目
- 英語リーディング:97点(100点満点)
- 英語リスニング:96点(100点満点)
- 国語:180点(200点満点)
総合点
文系
970点
/1000点満点
理系
968点
/1000点満点
解答所要時間
| モデル | 所要時間 | 特徴 |
|---|---|---|
| GPT-5.2 Thinking | 約5時間30分 | 深い推論と検算を繰り返す「熟考型」 |
| Gemini 3.0 Pro | 約1時間40分 | スピード重視 |
| Claude Opus 4.5 | 約1時間40分 | スピード重視 |
※参考:人間の試験時間は全科目合計で10時間10分
LifePromptが挙げたAIの弱点
高得点でも、誤答が集中するパターンがあるとして、主に次の論点が挙げられています:
1. 図やイラストの解釈
文字情報は理解できても、図やイラストの対応付けで誤答する例が報告されています。具体的には「バスのイラスト判定に失敗」などのケースがありました。
2. 人間の感情理解
国語小説の心情把握において、人間の割り切れない感情を一般論に寄せて誤読する例が見られました。
3. 視覚情報の微妙な差異
地理などで色の濃淡やグラデーション、ヒートマップを読み違える例が報告されています。
例外:Gemini 3.0 Proのみが「地図と気候グラフの相関関係」を正解。画像を視覚情報として捉える能力が強いと分析されています。
注意すべき点
1. 人間の本番と同一条件ではない
この検証では以下の例外処理が行われています:
- 英語リスニング:音声ではなく台本テキストを入力
- 国語縦書き:画像ではなく文字起こしテキストを入力
2. 一次情報はLifePromptのみ
現状出回っている「9教科満点」の根拠は、LifePromptの検証結果に集約されています。独立した第三者が同条件で再現したという一次情報は、主要報道では確認できません。
3. 他の独自検証について
オンライン学習塾「ゴウカライズ」も独自に検証を行っていますが、「PDFを読み込ませて一発勝負」という異なる条件での実施です。
AIの進化の軌跡
LifePromptの検証による、ChatGPTの正答率推移(東大文科1類科目):
2024年
66%
2025年
91%
2026年
97%
わずか2年で31ポイント上昇しており、同社代表の遠藤氏は「月3000円から数万円で東大レベルの知能を利用できる」と述べています。
まとめ
- 【確認済】「共通テスト9教科満点」の一次情報は株式会社LifePromptの検証レポート
- 【確認済】テレビ朝日系、ITmediaなど複数メディアで報道されているが、全て同社発表を引用
- 【注意】検証は人間と同一条件ではない(リスニング台本入力、縦書き文字起こし等の例外処理あり)
- 【注意】独立した第三者による同条件再現検証は確認できていない
- 【参考】AIの弱点として、イラスト解釈・感情理解・色の濃淡判別などが挙げられている
参考リンク
- 【満点9科目!】共通テスト2026を最新版AIに解かせてみた – 株式会社LifePrompt(note)
- 共通テスト2026、ChatGPT最新モデルが9科目満点 – Ledge.ai
- AIは「共通テスト」をどう解いた? – ITmedia AI+
※本記事は2026年1月27日時点の情報に基づいています。