Glossary
生成AI用語集
LLM・RAG・エージェントなど、生成AIの重要用語を
初心者向けにわかりやすく解説します。
150件収録
英数行
2件ア行
25件LLM(大規模言語モデル)
エルエルエム(だいきぼげんごモデル)
LLMとは、大量のテキストデータを学習した大規模なAIモデルで、文章の生成・翻訳・要約・質問応答など幅広い言語タスクをこなせます。
エンベディング(埋め込み)
エンベディング(うめこみ)
エンベディングとは、テキストや画像などのデータを数値ベクトルに変換する技術です。意味的に近いデータ同士はベクトル空間で近くに配置されるため、類似検索やRAGの基盤として機能します。
AIエージェント
エーアイエージェント
AIエージェントとは、LLMが自律的に計画を立て、ツールを使いながら複数ステップのタスクを実行するシステムです。単純なQ&Aを超え、実際の業務を「代理実行」します。
RLHF(人間のフィードバックによる強化学習)
アールエルエイチエフ(にんげんのフィードバックによるきょうかがくしゅう)
RLHFとは、人間が回答の優劣を評価したデータを使って報酬モデルを学習させ、強化学習でLLMを人間の好みに合わせる技術です。ChatGPTの開発に採用されています。
SFT(教師ありファインチューニング)
エスエフティー(きょうしありファインチューニング)
SFTとは、人間が作成した「指示→望ましい回答」ペアのデータセットを使ってLLMを教師あり学習でファインチューニングする手法です。RLHFの前段階として広く用いられます。
AIガバナンス
エーアイガバナンス
AIガバナンスとは、AIの開発・運用・利用を適切に管理するための方針・ルール・体制の総称です。リスク管理、透明性確保、倫理的利用の担保を目的とします。
オーケストレーション
オーケストレーション
AIオーケストレーションとは、複数のAIエージェント・ツール・モデルの実行順序・データ連携・エラー処理を統括する制御層のことです。複雑なAIワークフローを管理します。
アライメント(AI Alignment)
アライメント
AIアライメントとは、AIシステムの目標・価値観・行動を人間の意図や倫理観に一致させるための研究・技術・取り組みの総称です。AIの安全性を確保する上で中心的なテーマです。
アテンションメカニズム
アテンションメカニズム
アテンションメカニズムとは、入力の各部分に重みを付けて重要な情報に集中する機構です。トランスフォーマーの中核技術であり、LLMが文脈を理解する基盤となっています。
インストラクションチューニング
インストラクションチューニング
インストラクションチューニングとは、指示形式のデータでモデルを微調整し、指示に従う能力を高める手法です。事前学習済みモデルをチャットボットや業務AIとして実用化するための重要な工程です。
OpenAI API
オープンエーアイエーピーアイ
OpenAI APIとは、OpenAIが提供するGPTシリーズ等のモデルをHTTP経由で利用できるAPIで、テキスト生成・画像生成・音声変換など多様なAI機能をアプリケーションに組み込めます。
オープンソースLLM
オープンソースLLM
オープンソースLLMとは、ソースコードや重みが公開されているLLMです。Meta LLaMA・Mistralが代表例で、ローカル実行・カスタマイズ・コスト削減が強みです。
AI規制
エーアイきせい
AI規制とは、AIシステムの開発・利用に関する法的ルール・ガイドラインの総称です。EU AI法が世界初の包括的AI規制として注目され、各国で規制整備が加速しています。
エンコーダーデコーダー
エンコーダーデコーダー
エンコーダーデコーダーとは、入力を固定長のベクトルに圧縮(エンコード)し、そこから出力を生成(デコード)するアーキテクチャです。機械翻訳・要約・テキスト生成の基本構造として広く用いられています。
AI検索
エーアイけんさく
AI検索とは、LLMを組み込んで自然言語での質問に直接回答する次世代検索エンジンです。Perplexity AI、Google AI Overviewsが代表例で、従来のリンク一覧型検索を変革しています。
エージェントワークフロー
エージェントワークフロー
エージェントワークフローとは、複数のAIエージェントが協調・逐次実行してタスクを完遂するシステム設計パターンです。コーディング・調査・承認など役割分担した複数エージェントが連携し、複雑なタスクを自律的に遂行します。
LLMOps
エルエルエムオプス
LLMOpsとは、LLMベースアプリケーションの本番環境での運用・監視・評価・継続改善に関する実践(LLM Operations)です。MLOpsをLLM特有の課題に拡張した概念で、プロンプト管理や出力評価が中心的なテーマです。
AutoML(オートML)
オートエムエル
AutoMLとは、機械学習のモデル選択・ハイパーパラメータ調整・特徴量エンジニアリングなどを自動化する手法です。専門知識がなくてもMLモデルを構築できる民主化ツールとして、Google AutoMLなどが普及しています。
AI安全性
エーアイあんぜんせい
AI安全性とは、高度なAIシステムが意図せず人間に害を与えないよう設計・制御するための研究分野です。アライメント・解釈可能性・ロバスト性が主要テーマで、Anthropic・OpenAIの研究の中核をなします。
インコンテキスト学習
インコンテキストがくしゅう
インコンテキスト学習とは、モデルの重みを更新せず、プロンプト内の例示だけでタスクを遂行する能力です。few-shot learningの実現形式であり、GPT-3で初めて大規模に実証されました。
RLAIF(AIフィードバックからの強化学習)
アールエルエーアイエフ
RLAIFとは、人間の代わりにAIが別のAIモデルの出力を評価・改善するフィードバック手法(Reinforcement Learning from AI Feedback)です。Constitutional AIの核心技術で、スケーラブルなアライメント手法として注目されています。
エージェントメモリ
エージェントメモリ
エージェントメモリとは、AIエージェントが過去の行動・会話・知識を保持し長期的に一貫した動作をするための記憶機構です。短期・長期・エピソード記憶に分類され、自律型エージェントの中核コンポーネントです。
インストラクションフォロウィング
インストラクションフォロウィング
インストラクションフォロウィングとは、ユーザーの指示を正確に理解・実行するLLMの能力です。SFTとRLHFによる訓練で向上し、ChatGPTの成功の鍵となった現代LLMの基本能力です。
AI著作権
エーアイちょさくけん
AI著作権とは、AIが生成したコンテンツの著作権帰属、および学習データとして使用された著作物の権利処理に関する法的問題です。世界各国で議論・立法化が進んでいる生成AI時代の重要な法的課題です。
LLM-as-a-Judge
エルエルエムアズジャッジ
LLM-as-a-Judgeとは、LLM自身を評価者として使い、他のLLMの出力品質を自動採点する評価手法です。人間評価のスケールアップを実現し、RAGシステムやチャットボットの品質監視に広く活用されています。
カ行
24件コンテキストウィンドウ
コンテキストウィンドウ
コンテキストウィンドウとは、LLMが一度に処理できるトークン数の上限です。ウィンドウ内の全情報がモデルの「作業記憶」となり、長い文書の処理や長期会話の精度に直接影響します。
機械学習(マシンラーニング)
きかいがくしゅう(マシンラーニング)
機械学習とは、コンピュータがデータからパターンを自動的に学習し、明示的にプログラムしなくてもタスクを実行できるようにするAI技術の総称です。ディープラーニングはその代表的な手法です。
拡散モデル(Diffusion Model)
かくさんモデル(ディフュージョンモデル)
拡散モデルとは、画像にノイズを段階的に加えてから除去する過程を学習し、ランダムなノイズから高品質な画像を生成するAIモデルです。現在の画像生成AIの主流技術です。
グラウンディング
グラウンディング
グラウンディングとは、LLMの回答を実際の情報源・事実に基づかせる技術的アプローチです。ハルシネーションを抑制し、信頼性の高い回答を実現するために活用されます。
構造化出力(ストラクチャードアウトプット)
こうぞうかしゅつりょく(ストラクチャードアウトプット)
構造化出力とは、LLMにJSON等の特定フォーマットで出力させる手法です。後続システムとの連携や自動処理を可能にし、エージェントシステムや業務自動化で不可欠な技術です。
Constitutional AI(コンスティテューショナルAI)
コンスティテューショナルエーアイ
Constitutional AIとは、AIに原則リスト(Constitution)を与えて自己批判・修正させることで、安全で有益な応答を訓練するAnthropicが考案した手法です。
基盤モデル(ファンデーションモデル)
きばんモデル
基盤モデルとは、大規模データで事前学習された汎用AIモデルです。様々なタスクにfine-tuningまたはそのまま利用でき、LLMや画像生成モデルなどが代表例です。
コード生成
コードせいせい
コード生成とは、LLMが自然言語の指示からプログラムコードを自動生成する能力・タスクです。GitHub CopilotやChatGPTなどで広く実用化されています。
コパイロット(Copilot)
コパイロット
コパイロットとは、LLMを使って開発者・ビジネスユーザーの作業を補助するAIアシスタントです。GitHub Copilot(コード補完)やMicrosoft 365 Copilotが代表例です。
強化学習
きょうかがくしゅう
強化学習とは、エージェントが試行錯誤しながら報酬を最大化する行動を学習するAI手法です。RLHFを通じてLLMのアラインメントに応用され、現代の生成AIの品質を支える基盤技術です。
教師あり学習
きょうしありがくしゅう
教師あり学習とは、正解ラベル付きデータを使ってモデルを訓練する機械学習の基本手法です。画像分類・スパム検知・翻訳など幅広いタスクに応用され、LLMのfine-tuningもその一形態です。
教師なし学習
きょうしなしがくしゅう
教師なし学習とは、ラベルなしデータからパターンや構造を自律的に発見する機械学習手法です。クラスタリング・次元削減・異常検知に活用され、LLMの事前学習もこの考え方を応用しています。
コンテキストエンジニアリング
コンテキストエンジニアリング
コンテキストエンジニアリングとは、LLMのコンテキストウィンドウに入れる情報を戦略的に設計・最適化する実践手法です。プロンプトエンジニアリングの発展形として、RAGやメモリ管理を含む包括的な情報設計が求められます。
合成データ
ごうせいデータ
合成データとは、実際のデータの代わりにAIや統計的手法で人工的に生成したデータです。プライバシー保護・希少データの補完・モデル評価に活用され、LLMの学習データ生成にも応用されています。
GAN(敵対的生成ネットワーク)
ガン
GANとは、生成器と識別器が互いに競い合うことで高品質なデータを生成するニューラルネットワーク(Generative Adversarial Network)です。2014年にGoodfellowが提案し、リアルな画像生成AIの先駆けとなりました。
CLIP
クリップ
CLIPとは、OpenAIが2021年に開発した画像とテキストを対照学習で結びつけるモデル(Contrastive Language-Image Pre-Training)です。DALL-EやStable Diffusionの基盤技術として、テキストから画像を生成するAIの中核を担います。
継続学習
けいぞくがくしゅう
継続学習とは、新しいタスクを学習しても過去の知識を忘却しないようにモデルを継続的に更新する機械学習手法です。破滅的忘却(Catastrophic Forgetting)への対処が主要な課題です。
コサイン類似度
コサインるいじど
コサイン類似度とは、2つのベクトル間の角度でテキストや画像の意味的な類似度を測る指標です。RAGやセマンティック検索における検索クエリと文書の関連度計算の中核で使われています。
GraphRAG
グラフラグ
GraphRAGとは、文書からナレッジグラフを構築しグラフ構造を活用して複数文書にまたがる複合質問に対応するRAG拡張手法です。Microsoftが2024年に発表し、従来のベクトル検索RAGを超える複雑なクエリ処理を実現します。
機械翻訳
きかいほんやく
機械翻訳とは、テキストを自動的に別の言語に翻訳するAI技術です。DeepL・Google翻訳が代表例で、Transformerの登場以降に飛躍的に精度が向上し、今やLLMが多言語翻訳を包括的にこなせるようになっています。
感情分析
かんじょうぶんせき
感情分析とは、テキストからポジティブ・ネガティブ・中立などの感情や意見を自動判定するNLPタスクです。SNS監視・カスタマーレビュー分析・ブランドモニタリングに広く活用されています。
過学習(オーバーフィッティング)
かがくしゅう
過学習とは、モデルが学習データに適合しすぎて未見データへの汎化性能が低下する現象です。正則化・ドロップアウト・データ拡張・早期終了などが対策として使われます。LLMのfine-tuningでも起きやすい問題です。
勾配降下法
こうばいこうかほう
勾配降下法とは、損失関数の勾配(微分)を計算してパラメータを更新するニューラルネットワーク学習の基本アルゴリズムです。SGD・Adam・AdamWなどが派生形で、LLMのfine-tuningでも中心的な最適化手法です。
学習率
がくしゅうりつ
学習率とは、勾配降下法で各ステップにパラメータを更新する大きさを制御するハイパーパラメータです。LLMのfine-tuningでも最重要のチューニングパラメータで、高すぎると発散、低すぎると収束が遅くなります。
サ行
25件GPT
ジーピーティー
GPTとは、OpenAIが開発したトランスフォーマーベースの言語モデルシリーズで、GPT-4oをはじめとする主要モデルはテキスト・画像・音声を扱うマルチモーダルAIとして広く普及しています。
生成AI(ジェネレーティブAI)
せいせいエーアイ
生成AIとは、テキスト・画像・音声・動画などを新たに生成できるAI技術の総称です。LLMを中心に急速に普及し、ビジネスや創作活動に変革をもたらしています。
CoT(Chain of Thought)
シーオーティー(チェーン・オブ・ソート)
CoTとは、LLMに「ステップごとに考える」よう促すプロンプト技法です。「ステップバイステップで考えて」と指示するだけで、複雑な推論問題の正答率が大幅に向上します。
Zero-shot学習
ゼロショットがくしゅう
Zero-shot学習とは、入力例を一切示さずにLLMに新しいタスクを実行させる技法です。事前学習で得た汎用知識だけで、説明のみから対応するLLMの能力を活用します。
推論(インファレンス)
すいろん(インファレンス)
推論とは、学習済みのAIモデルが新しい入力データに対して出力を生成するプロセスです。AIの「実際に使う段階」を指し、学習(トレーニング)とは区別されます。
システムプロンプト
システムプロンプト
システムプロンプトとは、LLMの動作の前提条件(役割・制約・出力形式など)を設定するための特別なプロンプトです。ユーザーからは見えない状態で適用されることが多く、アプリ開発の要です。
セマンティック検索
セマンティックけんさく
セマンティック検索とは、キーワードの完全一致ではなく、文章の意味・文脈に基づいて関連情報を探し出す検索技術です。エンベディングとベクトルDBを組み合わせて実現します。
自然言語処理(NLP)
しぜんげんごしょり(エヌエルピー)
自然言語処理(NLP)とは、人間が日常的に使う言語(日本語・英語等)をコンピュータで理解・生成・変換する技術分野です。LLMや機械翻訳・感情分析・チャットボットなど幅広い応用を含みます。
事前学習(プレトレーニング)
じぜんがくしゅう(プレトレーニング)
事前学習とは、大規模データでモデルに汎用的な知識を学習させる工程です。この段階で得た知識が、後続のファインチューニングやRLHFの出発点となります。
ジェイルブレイク
ジェイルブレイク
ジェイルブレイクとは、AIの安全制限を回避して禁止されたコンテンツを生成させる攻撃手法です。巧妙なプロンプト操作でモデルのガードレールを突破しようとします。
自律エージェント(Autonomous Agent)
じりつエージェント
自律エージェントとは、目標を与えられると計画立案・ツール使用・自己修正を繰り返して自律的にタスクを完遂するAIシステムで、人手を介さずに長期的な作業を遂行します。
GPU(グラフィックス処理ユニット)
ジーピーユー
GPUとは、大規模な並列計算を高速処理するプロセッサで、LLMの学習・推論に不可欠なハードウェアです。NVIDIAのH100・A100シリーズがAI開発の標準的なインフラとなっています。
ストリーミング
ストリーミング
ストリーミングとは、LLMが生成した文字・トークンをリアルタイムに順次送信する応答方式で、ユーザーが全文生成を待たずに即座に読み始められるUXを実現します。
音声認識(Speech-to-Text)
スピーチトゥテキスト
音声認識(STT)とは、音声データをテキストに変換するAI技術です。OpenAI Whisperが代表例で、多言語・ノイズ環境に強い特徴を持ちます。
Stable Diffusion(ステーブルディフュージョン)
ステーブルディフュージョン
Stable Diffusionとは、Stability AIが開発・公開したオープンソースの高品質テキストトゥイメージモデルです。商用利用可能かつローカル実行もでき、画像生成AIの普及に大きく貢献しました。
責任あるAI
せきにんあるエーアイ
責任あるAIとは、AIシステムを公平・透明・説明可能・安全・プライバシー保護の観点で設計・運用するための原則と実践の総称です。MicrosoftやGoogleなど主要企業が独自のResponsible AI原則を策定しています。
自己教師あり学習
じこきょうしありがくしゅう
自己教師あり学習とは、ラベルなしデータから自動生成した疑似ラベルを使って学習する手法です。GPTの「次のトークン予測」やBERTの「マスク言語モデリング」が代表例で、現代のLLM事前学習の基盤技術です。
スケーリング則
スケーリングそく
スケーリング則とは、モデルサイズ・学習データ量・計算量を増やすとモデル性能がべき乗則的に向上するという経験則です。現代のLLM開発戦略の理論的根拠となっており、GPT-4やGemini Ultra誕生の背景にあります。
GPT-4o
ジーピーティーフォーオー
GPT-4oとは、OpenAIが2024年5月に公開したマルチモーダルモデルです。テキスト・画像・音声をネイティブに統合処理し、従来のGPT-4 Turboと比較して2倍の速度・半額のコストで同等以上の性能を実現しました。
Gemini(ジェミニ)
ジェミニ
Geminiとは、Google DeepMindが開発したマルチモーダルLLMシリーズです。Ultra・Pro・Nanoの3スケールで展開し、Gemini 1.5ではロングコンテキスト(最大100万トークン)対応が特徴です。
説明可能性(XAI)
せつめいかのうせい
説明可能性(XAI)とは、AIモデルがなぜその予測・判断を下したかを人間が理解できるように説明する能力と手法の総称です。医療・金融・法律などハイリスク分野でのAI活用において、信頼性と説明責任の根拠となります。
Sora(ソラ)
ソラ
Soraとは、OpenAIが2024年に公開したテキストから動画を生成するAIモデルです。最大60秒の高品質動画を生成でき、物理法則を理解した一貫性ある映像表現が特徴です。
質問応答(QA)
しつもんおうとう
質問応答(QA)とは、自然言語の質問に対してテキストから正確な答えを抽出・生成するNLPタスクです。RAGの主要ユースケースであり、ChatGPTのような対話AIの基盤能力でもあります。
情報検索
じょうほうけんさく
情報検索とは、ユーザーのクエリに対して大規模文書集合から関連情報を効率的に検索・取得する技術体系です。RAGの基盤技術であり、BM25・ベクトル検索・ハイブリッド検索などの手法で実装されます。
セマンティックチャンキング
セマンティックチャンキング
セマンティックチャンキングとは、RAGにおいてドキュメントを意味的な塊(チャンク)に分割する手法です。固定文字数分割と異なり意味的な境界で分割するため、検索精度と回答品質が向上します。
タ行
22件トークン
トークン
トークンとは、LLMがテキストを処理する最小単位です。単語・部分文字列・文字などに相当し、APIの利用コストや処理できる文章の長さ(コンテキストウィンドウ)はトークン数で計算されます。
Transformer(トランスフォーマー)
トランスフォーマー
Transformerとは、注意機構(Attention)を中核とするニューラルネットワークアーキテクチャです。2017年にGoogleが発表し、現代のLLMや生成AIモデルの基盤として広く採用されています。
ChatGPT(チャットジーピーティー)
チャットジーピーティー
ChatGPTとは、OpenAIが開発した対話型AIサービスです。2022年末の公開後わずか2か月で月間ユーザー1億人を突破し、生成AIブームの起爆剤となりました。
ディープラーニング(深層学習)
ディープラーニング(しんそうがくしゅう)
ディープラーニングとは、多層のニューラルネットワークを使って大量データからパターンを自動学習する機械学習手法です。画像認識・音声処理・自然言語処理など、現代AIの主要応用分野を支えています。
テキストトゥイメージ(Text-to-Image)
テキストトゥイメージ
テキストトゥイメージとは、テキストの説明文(プロンプト)から画像を自動生成するAI技術です。Stable Diffusion・Midjourney・DALL-Eが代表例で、クリエイティブ産業に大きな変革をもたらしています。
テンパラチャー(Temperature)
テンパラチャー
テンパラチャーとは、LLMが出力するトークンの確率分布を調整するパラメータです。値が低いと決定論的・一貫した出力に、高いと多様・創造的な出力になります(0〜2程度)。
トップピー(Top-p / Nucleus Sampling)
トップピー
トップピーとは、出力トークンの選択範囲を累積確率で制御するサンプリング手法(nucleus sampling)です。Temperatureとともにテキスト生成の多様性・質を調整するパラメータです。
トークナイザー
トークナイザー
トークナイザーとは、テキストをLLMが処理できるトークン単位に分割するツール・アルゴリズムです。トークン化の方式がモデルの日本語処理能力やコストに直接影響します。
ツールユース
ツールユース
ツールユースとは、LLMが外部ツール(検索・計算機・APIなど)を呼び出してタスクを完遂する能力と仕組みで、エージェント実装の中核技術です。
音声合成(Text-to-Speech)
テキストトゥスピーチ
音声合成(TTS)とは、テキストを自然な音声に変換するAI技術です。OpenAI TTS・ElevenLabsなどが代表的で、読み上げ・音声AIに活用されます。
転移学習(トランスファーラーニング)
てんいがくしゅう
転移学習とは、既存タスクで学習した知識を別タスクに応用する手法です。LLMのfine-tuningの基盤となる概念で、少ないデータで高い性能を実現できます。
対照学習
たいしょうがくしゅう
対照学習とは、類似サンプルを近づけ、非類似サンプルを遠ざけることで意味のある表現を学習する手法です。CLIPやSimCLRの基盤技術であり、マルチモーダルAIのembeddingに広く活用されています。
データポイズニング
データポイズニング
データポイズニングとは、学習データに悪意あるサンプルを混入させてモデルの挙動を意図的に改ざんする攻撃手法です。AIシステムのセキュリティリスクとして、OWASP LLM Top 10にも挙げられています。
敵対的攻撃
てきたいてきこうげき
敵対的攻撃とは、人間には知覚されにくい微小な摂動をデータに加えてAIモデルを誤分類させる攻撃手法です。画像認識・音声認識・LLMなど幅広いAIシステムの堅牢性に関わる重要なセキュリティ課題です。
DALL-E(ダリ)
ダリ
DALL-Eとは、OpenAIが開発したテキストから高品質な画像を生成するモデルシリーズです。DALL-E 3では自然言語での細かな画像制御が可能になり、ChatGPTやAPIに統合されて広く使われています。
ツリーオブソート(ToT)
ツリーオブソート
ツリーオブソート(Tree of Thoughts)とは、LLMが複数の思考パスを木構造で探索・評価しながら問題を解くプロンプト戦略です。Chain-of-Thoughtの発展形で、複雑な推論・計画タスクで有効です。
ディープフェイク
ディープフェイク
ディープフェイクとは、AIを使って本物と見分けがつかない偽の動画・音声・画像を生成する技術です。詐欺・フィッシング・選挙干渉・非合意的な性的コンテンツ生成などの悪用が社会問題化しています。
チェーンオブデンシティ(CoD)
チェーンオブデンシティ
チェーンオブデンシティ(Chain of Density)とは、要約の情報密度を段階的に高めながら情報損失を最小化する要約プロンプト手法です。GPT-4で有効性が実証され、高品質な要約生成の実践的テクニックとして注目されています。
投機的デコーディング
とうきてきデコーディング
投機的デコーディングとは、小型モデルで候補トークンを先読みし、大型モデルで検証することで推論速度を大幅に向上させる技術です。出力品質を保ちながらレイテンシを削減できます。
データアノテーション
データアノテーション
データアノテーションとは、機械学習の学習データに対して人間がラベル・タグ・説明などの正解情報を付与する作業です。AIモデルの品質に直結する重要なプロセスで、RLHFでは人間の好みを学習させるための比較評価が中心です。
CNN(畳み込みニューラルネットワーク)
たたみこみニューラルネットワーク
CNNとは、局所フィルタ(畳み込み層)を使って画像の特徴を階層的に抽出するニューラルネットワークです。画像分類・物体検出の主要アーキテクチャで、VisionTransformerへの移行後も医療・製造分野で広く使われています。
TPU(テンソル処理ユニット)
ティーピーユー
TPUとは、Googleが開発したAI推論・学習専用のカスタムASIC(Tensor Processing Unit)です。行列演算を特化設計で高効率に処理し、GPUと比較してGoogle規模のLLM学習に大きなコスト・速度優位があります。
ナ行
4件ニューラルネットワーク
ニューラルネットワーク
ニューラルネットワークとは、人間の脳の神経回路(ニューロン)を模倣した計算モデルです。入力層・隠れ層・出力層からなる層状の構造で、機械学習・ディープラーニングの基礎をなします。
ネガティブプロンプティング
ネガティブプロンプティング
ネガティブプロンプティングとは、生成したくない要素を明示的に指定することでAI出力の品質・方向性を制御するプロンプト技法です。画像生成AI(Stable DiffusionやDALL-E)で特に多用され、不要な要素を除外できます。
ナレッジグラフ
ナレッジグラフ
ナレッジグラフとは、エンティティ(人・場所・概念)とその関係性をグラフ構造で表現した知識ベースです。Google Knowledge GraphやWikidataが代表例で、GraphRAGの基盤技術として生成AIとの連携が進んでいます。
能動学習
のうどうがくしゅう
能動学習とは、モデルが最も学習効果の高いサンプルを自ら選択してラベル付けを依頼する、効率的なデータ収集・学習手法です。アノテーションコストを最小化しながら性能を最大化します。
ハ行
26件プロンプト
プロンプト
プロンプトとは、AIモデルに対して送る入力テキストの総称です。AIへの「指示書」にあたり、プロンプトの書き方次第で出力の品質が大きく変わります。
ファインチューニング
ファインチューニング
ファインチューニングとは、事前学習済みの大規模モデルを特定タスク・ドメインのデータで追加学習し、その領域の性能を向上させる技術です。
ハルシネーション(幻覚)
ハルシネーション(げんかく)
ハルシネーションとは、LLMが事実と異なる情報をもっともらしく生成する現象です。自信満々に嘘をつくため、出力の事実確認が必須となります。
Few-shot学習
フューショットがくしゅう
Few-shot学習とは、プロンプト内に少数の入出力例(ショット)を示すことでLLMに望ましい回答形式・スタイルを学ばせる技法です。追加学習なしに出力の品質を向上できます。
プロンプトエンジニアリング
プロンプトエンジニアリング
プロンプトエンジニアリングとは、LLMから望ましい出力を引き出すためにプロンプトを体系的に設計・最適化するスキルと技術体系です。モデルの再学習なしに性能を向上させる方法です。
Function Calling(ツール呼び出し)
ファンクションコーリング(ツールよびだし)
Function Callingとは、LLMがユーザーの意図を解釈し、定義済みの関数(外部API・DBなど)を適切なパラメータで呼び出す指示を返す機能です。AIと外部システムを連携させる基盤技術です。
ベクトルDB(ベクトルデータベース)
ベクトルデータベース
ベクトルDBとは、エンベディング(ベクトル)を効率的に格納・検索するために設計されたデータベースです。RAGシステムの中核として、意味的に類似した情報を高速に取り出せます。
バイアス(AIバイアス)
バイアス(エーアイバイアス)
AIバイアスとは、AIモデルの訓練データや設計に内在する偏りによって、特定の属性(性別・人種・年齢等)に対して不公平な出力が生じる問題です。
評価指標(BLEU / ROUGE)
ひょうかしひょう(ブルー / ルージュ)
BLEUとROUGEとは、AIが生成したテキストの品質を自動評価するための代表的な指標です。参照テキストとの一致度を数値化し、翻訳・要約・対話システムの性能比較に使われます。
ベンチマーク
ベンチマーク
ベンチマークとは、AIモデルの性能を測定・比較するための標準化されたテストセットです。MMLUやHumanEvalなど様々なベンチマークが存在し、モデル選定の指標として活用されます。
プロンプトインジェクション
プロンプトインジェクション
プロンプトインジェクションとは、悪意ある入力をプロンプトに埋め込みAIの動作を乗っ取る攻撃です。OWASP LLM Top 10で最重要リスク(LLM01)に挙げられています。
パラメーター
パラメーター
パラメーターとは、ニューラルネットワークが学習によって調整する内部変数(重みとバイアス)の総称で、モデルの規模はB(十億)やT(兆)の単位で表します。
Hugging Face(ハギングフェイス)
ハギングフェイス
Hugging Faceとは、事前学習済みモデルやデータセットの公開・共有・活用を支援するAIプラットフォームで、オープンソースAI開発のハブとして機能しています。
プロンプトキャッシング
プロンプトキャッシング
プロンプトキャッシングとは、繰り返し使うプロンプト部分をサーバー側でキャッシュしてAPIコストと遅延を削減する機能です。長いシステムプロンプトや共通コンテキストに効果的です。
VRAM
ブイラム
VRAMとはGPU上の専用メモリ(Video RAM)で、LLMの推論・学習時にモデルの重みを保持するために必要です。容量がモデルサイズの実行可能性を決定します。
プライバシー(AI文脈)
プライバシー
AIにおけるプライバシーとは、AIの学習・推論過程における個人情報の保護を指します。学習データへの無断利用や推論時の情報漏洩が主要リスクで、適切な対策が求められます。
ビジョン言語モデル(VLM)
ビジョンげんごモデル
ビジョン言語モデル(VLM)とは、画像とテキストの両方を入力・出力できるマルチモーダルAIモデルです。GPT-4V、Gemini、Claudeなどが代表例で、画像の理解・説明・分析に活用されます。
BERT(バート)
バート
BERTとは、Googleが2018年に開発した双方向Transformerエンコーダモデルです。文脈を左右両方向から読む設計で高精度な自然言語理解(NLU)を実現し、多くのNLPタスクで当時の最高性能を記録しました。
PEFT(パラメータ効率的ファインチューニング)
ペフト
PEFTとは、モデルの全パラメータを更新せず一部のみを調整して効率的にfine-tuningする手法群(Parameter-Efficient Fine-Tuning)です。LoRA・Adapter・Prefix Tuningが代表例で、少ないGPUリソースで大規模モデルを適応できます。
プロンプトチューニング
プロンプトチューニング
プロンプトチューニングとは、モデルの重みを固定したまま、学習可能なソフトプロンプト(連続ベクトル)を入力の先頭に付加してタスクを適応させるPEFT手法です。人間が書く固定テキストのプロンプトと異なり、勾配で最適化されます。
パープレキシティ(PPL)
パープレキシティ
パープレキシティ(Perplexity)とは、言語モデルがテキストをどれだけうまく予測できるかを測る評価指標です。PPLと略され、値が低いほど性能が高いことを示します。モデルの事前学習品質評価の基本指標です。
ハイブリッド検索
ハイブリッドけんさく
ハイブリッド検索とは、キーワード検索(BM25等)とベクトル検索(セマンティック検索)を組み合わせてRAGの検索精度を高める手法です。両方の強みを活かし、固有名詞や専門用語も意味的なクエリも高精度に処理できます。
報酬モデル
ほうしゅうモデル
報酬モデルとは、人間の好みや評価基準を学習してLLMの出力にスコア(報酬)を付けるモデルです。RLHFの中核コンポーネントで、ChatGPTやClaudeなどの高品質な対話AIの訓練に不可欠です。
プロンプト圧縮
プロンプトあっしゅく
プロンプト圧縮とは、長いプロンプトから重要な情報を保ちつつトークン数を削減してAPIコストと遅延を改善する技術です。LLMLinguaが代表的なツールで、RAGの検索結果などの冗長なテキストを圧縮します。
バイアス軽減
バイアスけいげん
バイアス軽減とは、AIモデルの性別・人種・文化的バイアスを検出・低減するための技術的・手続き的アプローチです。公平なAIの実現に向け、データ収集から評価・デプロイまで各フェーズでの対策が必要です。
ハイパーパラメータ
ハイパーパラメータ
ハイパーパラメータとは、学習前に人間が設定するモデル外部のパラメータです(学習率・バッチサイズ・エポック数・レイヤー数等)。モデルの性能に大きく影響し、AutoMLや手動チューニングで最適値を探索します。
マ行
8件マルチモーダル
マルチモーダル
マルチモーダルとは、テキスト・画像・音声・動画など複数の入出力形式(モダリティ)を扱えるAIモデルの特性です。GPT-4oやGeminiが代表例です。
マルチエージェント
マルチエージェント
マルチエージェントとは、複数のAIエージェントが役割を分担・連携して複雑なタスクを解決するシステムアーキテクチャです。単一エージェントでは困難な並列処理や専門分化が可能になります。
MCP(モデルコンテキストプロトコル)
モデルコンテキストプロトコル
MCPとは、Anthropicが策定したAIとツール・データソースを標準的に接続するオープンプロトコルで、エージェントがさまざまな外部サービスを統一的に利用できるようにします。
MoE(Mixture of Experts)
ミクスチャーオブエキスパーツ
MoEとは、モデルの一部(専門家サブネット)だけを選択的に活性化する効率的なアーキテクチャです。Mixtral・GPT-4などが採用し、大規模化と計算効率を両立します。
モデルカード
モデルカード
モデルカードとは、AIモデルの用途・性能・限界・倫理的考慮事項を記述した透明性文書です。Googleが2019年に提唱し、Hugging Faceでの標準ドキュメントとして普及しています。
モデルマージ
モデルマージ
モデルマージとは、複数のfine-tunedモデルの重みを統合して、それぞれの能力を組み合わせた新モデルを作る手法です。追加学習なしで異なる専門能力を持つモデルを融合でき、Hugging Faceコミュニティで広く活用されています。
マルチモーダル生成
マルチモーダルせいせい
マルチモーダル生成とは、テキスト・画像・音声・動画など複数のモダリティを同時に入出力するAIシステムの生成能力です。GPT-4oやGeminiが対応しており、単一モデルで複合的なコンテンツを生成できます。
マルチモーダルRAG
マルチモーダルラグ
マルチモーダルRAGとは、テキストに加えて画像・表・図・音声などの複数モダリティを含む文書を検索・活用するRAG拡張手法です。PDF・プレゼンテーション・製品カタログなどの複合文書処理に有効です。
ヤ行
1件ラ行
12件RAG(検索拡張生成)
ラグ(けんさくかくちょうせいせい)
RAGとは、ユーザーの質問に関連する情報を外部データベースから検索し、その情報をLLMに渡して回答を生成させる技術です。ハルシネーションを減らし、外部データや社内情報への対応を可能にします。
LoRA(低ランク適応)
ローラ(ていランクてきおう)
LoRAとは、大規模モデルの重みを直接更新せず、追加した低ランク行列のみを学習することで、少ないメモリ・コストでファインチューニングを実現する手法です。
量子化
りょうしか
量子化とは、LLMのモデルパラメータを高精度な浮動小数点数(FP32等)から低ビット数(INT8・INT4等)に変換することで、メモリ消費と推論コストを削減する技術です。
LangChain(ラングチェーン)
ラングチェーン
LangChainとは、LLMを使ったアプリケーション開発を支援するOSSフレームワークで、RAG・エージェント・チェーン処理などの実装を簡潔に記述できます。
リトリーバル(Retrieval)
リトリーバル
リトリーバルとは、クエリに関連するドキュメント・情報を大規模データベースから検索・取得する処理で、RAGシステムの中核となる技術です。
レッドチーミング
レッドチーミング
レッドチーミングとは、AIシステムの安全性・脆弱性を攻撃者視点で意図的に探索・評価するプロセスで、デプロイ前の安全評価に不可欠です。
LLaMA(ラマ)
ラマ
LLaMAとは、Metaが開発・公開するオープンソースLLMシリーズです。LLaMA 3まで進化しており、ローカル実行やfine-tuningに広く使われるオープンソースLLMの代表格です。
連合学習
れんごうがくしゅう
連合学習とは、データを中央サーバに集めずに各デバイス・組織でローカル学習し、モデルの更新情報だけを共有するプライバシー保護型の分散機械学習手法です。スマートフォンや医療データの学習に活用されています。
リランキング
リランキング
リランキングとは、初期検索結果をクロスエンコーダー等で再スコアリングして関連性の高い順に並び替えるRAG改善手法です。検索精度を大幅に向上させ、LLMへ渡す文書の質を高めます。
ロングコンテキスト
ロングコンテキスト
ロングコンテキストとは、数十万〜数百万トークンを一度に処理できるLLMの能力です。Gemini 1.5(100万トークン)やClaude(20万トークン)が先行しており、長文書・コードベース全体・動画の一括処理が可能になります。
レイテンシ(応答遅延)
レイテンシ
レイテンシとは、LLMが入力を受け取ってから最初のトークンを返すまでの時間(TTFT: Time to First Token)です。ユーザー体験に直結する重要な性能指標で、streamingやprompt-cachingで改善できます。
RNN(リカレントニューラルネットワーク)
リカレントニューラルネットワーク
RNNとは、前の出力を次の入力に使う再帰的な構造で時系列・系列データを処理するニューラルネットワークです。LSTMやGRUが発展形で、Transformerの登場前はNLPの主力アーキテクチャでした。
ワ行
1件生成AI活用力を体系的に習得しながら、自己理解・キャリアデザインを深め、
志を同じくする仲間と共に学べる環境が「AIリブートアカデミー」です。