LLM?RAG?エージェント?2026年版・AI用語辞典15選【初心者向け】
AIニュースに出てくる専門用語がわからない。そんな方のために、2026年に頻出するAI用語15個を中学生でもわかるレベルで解説します。
「AI用語がわからなくて記事が読めない」問題
2026年3月、たった23日間にGPT-5.4、Gemini 3.1、Grok 4.20と大型AIモデルが次々にリリースされました(出典: Digital Applied)。AIの進化速度はすさまじいですが、それ以上に増えているのが専門用語です。
「LLMって何?」「RAGって食べ物?」「MCPってどこかの政党?」——ニュースを読んでもカタカナと略語だらけで、内容が頭に入ってこない。そんな声をよく聞きます。
この記事では、2026年のAIニュースを読むために最低限知っておきたい15個の用語を、できるだけ簡単に解説します。
基本の5語 — まずはここから
1. AI(人工知能)
人間の知能をコンピューターで再現する技術の総称です。チャットで会話するAI、画像を作るAI、将棋を打つAIなど、すべて「AI」に含まれます。2026年現在、AIと言えばほぼ「生成AI」を指すことが多いです。
2. 生成AI(Generative AI)
文章、画像、音声、動画など、新しいコンテンツを作り出すタイプのAIです。ChatGPT、Claude、Geminiなどが代表例。既存のデータを分析するだけでなく、「ゼロから何かを生み出せる」のが従来のAIとの違いです。
当サイトのChatGPT vs Claude vs Gemini比較で、主要な生成AIの違いを詳しく解説しています。
3. LLM(Large Language Model / 大規模言語モデル)
大量のテキストデータを学習した、言語処理に特化した巨大なAIモデルのことです。ChatGPTの中身であるGPT-5.4や、ClaudeのSonnet 4.6がこれにあたります。「大規模」の名の通り、学習に使うデータ量とパラメーター(設定値)の数が膨大なのが特徴です。
4. プロンプト(Prompt)
AIに出す「指示文」のことです。同じAIでも、プロンプトの書き方次第で回答の質が大きく変わります。「プロンプトエンジニアリング」とは、より良い回答を引き出すためのプロンプトの書き方を研究する分野です。
詳しくはプロンプトエンジニアリング入門をご覧ください。
5. トークン(Token)
AIがテキストを処理する際の最小単位です。英語では1単語が1〜2トークン、日本語では1文字が1〜3トークン程度になります。「100万トークンのコンテキストウィンドウ」と言えば、AIが一度に読めるテキスト量の上限を意味します。GPT-5.4やClaude Sonnet 4.6は100万トークンに対応しています。
2026年のトレンド用語5語
6. AIエージェント(AI Agent)
AIが自分で判断して複数のタスクを自律的に実行する仕組みのことです。従来のAIは「質問→回答」の1往復で終わりでしたが、エージェントは「調べて→比較して→レポートを書いて→メールで送る」といった一連の作業を自動でこなします。
2026年はNVIDIAの調査で47〜48%の企業がエージェンティックAIを導入済みとされ、急速に普及が進んでいます(出典: NVIDIA)。
当サイトのAIエージェントで会社運営する時代へでも詳しく取り上げています。
7. MCP(Model Context Protocol)
AIエージェントが外部のツールやデータベースと接続するための共通規格です。たとえば、AIがGoogleカレンダーやSlackと連携するときに使う「橋渡し」のルールのようなものです。2026年3月時点で9700万インストールを突破し、事実上の業界標準になりつつあります(出典: Crescendo AI)。
8. RAG(Retrieval-Augmented Generation / 検索拡張生成)
AIが回答を生成する前に、外部のデータベースや文書を検索して参照する仕組みです。AIは学習データにない最新情報や社内文書を知りません。RAGを使えば、質問されたときにまず関連資料を検索してから回答するため、正確性が大きく向上します。企業のAI導入で最も使われている手法のひとつです。
9. ハルシネーション(Hallucination / 幻覚)
AIが事実ではない情報をもっともらしく生成してしまう現象です。たとえば、存在しない論文の引用を作ったり、実在しない法律を説明したりします。LLMは「それらしい文章を作る」のが得意ですが、「正しいかどうかを判断する」機能は持っていないため、こうした問題が起きます。
これがAI活用における最大のリスクのひとつであり、RAGやファクトチェックの仕組みが重要視される理由です。
10. ファインチューニング(Fine-tuning)
汎用的なLLMを、特定の用途に合わせて追加学習させることです。たとえば、医療用語に強くしたい場合は医学論文を追加で学習させます。ゼロからAIを作るよりはるかに低コストで、自社専用のAIを作れるため、企業での活用が進んでいます。
技術基盤の5語 — ニュースを深く読むために
11. トランスフォーマー(Transformer)
2017年にGoogleが発表した、現在のほぼすべてのLLMの基盤となっているAIの設計思想(アーキテクチャ)です。文章の中で離れた単語同士の関係性を効率的に学習できるのが特徴で、それまでの技術よりも圧倒的に高精度な言語処理を実現しました。GPT(Generative Pre-trained Transformer)の「T」はこれのことです。
12. マルチモーダル(Multimodal)
テキスト、画像、音声、動画など、複数の種類のデータを同時に扱えるAIの能力を指します。2026年の主要モデルはほぼすべてマルチモーダル対応で、画像を見せて質問したり、音声で指示を出したりできます。
13. コンテキストウィンドウ(Context Window)
AIが一度のやりとりで覚えていられる情報量の上限です。2024年は3万〜20万トークンが主流でしたが、2026年にはGPT-5.4やClaude Sonnet 4.6が100万トークンに到達。書籍なら数冊分を一度に読み込んで分析できる規模です。
ただし、コンテキストウィンドウが大きいほど処理コストも高くなるため、必要な情報だけを効率的に渡すRAGとの併用が一般的です。
14. オープンソースAI
ソースコード(プログラムの設計図)や学習済みモデルが無料で公開されているAIのことです。MetaのLlamaシリーズや、最近話題のOpenClawなどが代表例です。企業が自社サーバーで動かせるため、データを外部に送りたくないケースで重宝されています。
OpenClawについてはオープンソースAI解説で詳しく紹介しています。
15. API(Application Programming Interface)
AIの機能を、自分のアプリやサービスに組み込むための接続口です。たとえば、自社のWebサイトにChatGPTの回答機能を追加したい場合、OpenAIのAPIを使います。料金は使った分だけかかる従量制が一般的で、トークン単位で課金されます。
用語を知ったら、次はどうする?
15個の用語をすべて覚える必要はありません。ニュースを読んでいて「この言葉、何だっけ?」と思ったときに、この記事に戻ってきてもらえれば十分です。
AIの世界では毎月のように新しい用語が生まれます。この用語辞典も定期的にアップデートする予定なので、ブックマークしておくと便利です。
用語がわかったら、実際にAIを使ってみるのが一番の勉強になります。AIで一人起業して月収100万円では実践的な活用例を紹介していますので、あわせて読んでみてください。
この記事はAI(Claude)によって作成されました。用語の定義は2026年3月時点の一般的な用法に基づいています。技術の進化により、意味やニュアンスが変わる可能性があります。