Glossary
生成AI用語集
LLM・RAG・エージェントなど、生成AIの重要用語を
初心者向けにわかりやすく解説します。
474件収録
英数行
15件推論モデル
推論モデル
推論モデルとは、回答前に内部で思考プロセス(Chain-of-Thought)を実行し、複雑な数学・論理・コーディング問題を解く能力に特化したLLMです。
知識蒸留
知識蒸留
知識蒸留とは、大規模モデル(教師)の知識を小規模モデル(生徒)に転移させてモデルを軽量化する技術で、エッジデバイス展開に有効です。
AIエージェントベンチマーク
AIエージェントベンチマーク
AIエージェントベンチマークとは、AIエージェントの能力を測定するための標準テスト群で、SWE-bench(コーディング)・WebArena(Web操作)・GAIA(汎用タスク)等がありエージェントAIの進歩を追跡します。
AIレッドチーム
AIレッドチーム
AIレッドチームとは、AIシステムの脆弱性・有害出力・セーフティ問題を意図的に探索する専門チームまたは活動で、OpenAI・Anthropic等が公開前に社内外の専門家によるモデル攻撃的評価を実施します。
AIサーチグラウンディング
AIサーチグラウンディング
AIサーチグラウンディングとは、LLMの回答をリアルタイムWeb検索結果に基づかせる技術で、知識カットオフ問題を解消して最新情報を提供します。Perplexity・Gemini with Search・ChatGPT Searchが代表例です。
AI生成動画
AIセイセイドウガ
AI生成動画とは、AIが生成した動画コンテンツで、Soraが2024年に登場して衝撃を与え、Runway Gen-3・Kling・Veo等が続きます。マーケティング・映画制作・教育コンテンツでの活用が広がっています。
AIエージェントメモリ
AIエージェントメモリ
AIエージェントメモリとは、エージェントが過去の行動・会話・知識を記憶・参照する仕組みの総称で、短期記憶(コンテキスト内)・長期記憶(外部DB)・エピソード記憶・意味記憶に分類されます。
AIインフラストラクチャ
AIインフラストラクチャ
AIインフラストラクチャとは、AI開発・運用に必要なコンピューティング・ネットワーク・ストレージ基盤で、GPUクラスター・高速インターコネクト・分散ストレージが中核をなし、AIデータセンターへの投資が急増中です。
AIコンパニオン
AIコンパニオン
AIコンパニオンとは感情的なつながりや会話パートナーとして機能するAIサービスで、Character.ai・Replika・Kindroidが代表例。精神的サポート・語学練習・エンタメ用途で急成長し、依存性・プライバシーなど倫理的課題も注目されています。
AIディベート
AIディベート
AIディベートとは、複数のAIエージェントが議論を行い人間審判が正解を判定するスケーラブル監督の手法で、Irving et al.が提案し、人間が直接評価困難な複雑な質問でもAI同士の論争を通じて誤りを検出できます。
AI予測分析
AI予測分析
AI予測分析とは、時系列データ・ビジネスメトリクス・需要予測にAI/MLを活用する技術で、LLMを組み込んだ予測システムも登場し、小売・金融・サプライチェーンで精度向上と自動化が進んでいます。
意味的類似度
意味的類似度
意味的類似度とは、二つのテキストの意味的な近さを数値化する技術で、コサイン類似度・BERTScore・文章埋め込みの内積などで計算し、RAG・重複検出・意味検索・評価指標に広く使われます。
AI法律
AIほうりつ
AI法律とは、法律分野でのAI活用で、契約書レビュー・法的文書要約・判例検索・コンプライアンスチェック・リーガルリサーチの自動化を指し、Harvey・Casetext・Thomson Reutersが代表的なツールです。
AI金融
AIきんゆう
AI金融とは、金融業界でのAI活用で、アルゴリズム取引・リスク管理・不正検出・信用スコアリング・顧客サービス・投資調査の自動化を指し、Bloomberg GPT・FinGPTなど金融特化LLMも登場しています。
AI創薬
AIそうやく
AI創薬とは、新薬候補の発見・設計・最適化にAIを活用する研究分野で、タンパク質構造予測(AlphaFold)・分子生成・臨床試験効率化などが進み、Insilico Medicine・Exscientia等が実用化をリードしています。
ア行
115件LLM(大規模言語モデル)
エルエルエム(だいきぼげんごモデル)
LLMとは、大量のテキストデータを学習した大規模なAIモデルで、文章の生成・翻訳・要約・質問応答など幅広い言語タスクをこなせます。
エンベディング(埋め込み)
エンベディング(うめこみ)
エンベディングとは、テキストや画像などのデータを数値ベクトルに変換する技術です。意味的に近いデータ同士はベクトル空間で近くに配置されるため、類似検索やRAGの基盤として機能します。
AIエージェント
エーアイエージェント
AIエージェントとは、LLMが自律的に計画を立て、ツールを使いながら複数ステップのタスクを実行するシステムです。単純なQ&Aを超え、実際の業務を「代理実行」します。
RLHF(人間のフィードバックによる強化学習)
アールエルエイチエフ(にんげんのフィードバックによるきょうかがくしゅう)
RLHFとは、人間が回答の優劣を評価したデータを使って報酬モデルを学習させ、強化学習でLLMを人間の好みに合わせる技術です。ChatGPTの開発に採用されています。
SFT(教師ありファインチューニング)
エスエフティー(きょうしありファインチューニング)
SFTとは、人間が作成した「指示→望ましい回答」ペアのデータセットを使ってLLMを教師あり学習でファインチューニングする手法です。RLHFの前段階として広く用いられます。
AIガバナンス
エーアイガバナンス
AIガバナンスとは、AIの開発・運用・利用を適切に管理するための方針・ルール・体制の総称です。リスク管理、透明性確保、倫理的利用の担保を目的とします。
オーケストレーション
オーケストレーション
AIオーケストレーションとは、複数のAIエージェント・ツール・モデルの実行順序・データ連携・エラー処理を統括する制御層のことです。複雑なAIワークフローを管理します。
アライメント(AI Alignment)
アライメント
AIアライメントとは、AIシステムの目標・価値観・行動を人間の意図や倫理観に一致させるための研究・技術・取り組みの総称です。AIの安全性を確保する上で中心的なテーマです。
アテンションメカニズム
アテンションメカニズム
アテンションメカニズムとは、入力の各部分に重みを付けて重要な情報に集中する機構です。トランスフォーマーの中核技術であり、LLMが文脈を理解する基盤となっています。
インストラクションチューニング
インストラクションチューニング
インストラクションチューニングとは、指示形式のデータでモデルを微調整し、指示に従う能力を高める手法です。事前学習済みモデルをチャットボットや業務AIとして実用化するための重要な工程です。
OpenAI API
オープンエーアイエーピーアイ
OpenAI APIとは、OpenAIが提供するGPTシリーズ等のモデルをHTTP経由で利用できるAPIで、テキスト生成・画像生成・音声変換など多様なAI機能をアプリケーションに組み込めます。
オープンソースLLM
オープンソースLLM
オープンソースLLMとは、ソースコードや重みが公開されているLLMです。Meta LLaMA・Mistralが代表例で、ローカル実行・カスタマイズ・コスト削減が強みです。
AI規制
エーアイきせい
AI規制とは、AIシステムの開発・利用に関する法的ルール・ガイドラインの総称です。EU AI法が世界初の包括的AI規制として注目され、各国で規制整備が加速しています。
エンコーダーデコーダー
エンコーダーデコーダー
エンコーダーデコーダーとは、入力を固定長のベクトルに圧縮(エンコード)し、そこから出力を生成(デコード)するアーキテクチャです。機械翻訳・要約・テキスト生成の基本構造として広く用いられています。
AI検索
エーアイけんさく
AI検索とは、LLMを組み込んで自然言語での質問に直接回答する次世代検索エンジンです。Perplexity AI、Google AI Overviewsが代表例で、従来のリンク一覧型検索を変革しています。
エージェントワークフロー
エージェントワークフロー
エージェントワークフローとは、複数のAIエージェントが協調・逐次実行してタスクを完遂するシステム設計パターンです。コーディング・調査・承認など役割分担した複数エージェントが連携し、複雑なタスクを自律的に遂行します。
LLMOps
エルエルエムオプス
LLMOpsとは、LLMベースアプリケーションの本番環境での運用・監視・評価・継続改善に関する実践(LLM Operations)です。MLOpsをLLM特有の課題に拡張した概念で、プロンプト管理や出力評価が中心的なテーマです。
AutoML(オートML)
オートエムエル
AutoMLとは、機械学習のモデル選択・ハイパーパラメータ調整・特徴量エンジニアリングなどを自動化する手法です。専門知識がなくてもMLモデルを構築できる民主化ツールとして、Google AutoMLなどが普及しています。
AI安全性
エーアイあんぜんせい
AI安全性とは、高度なAIシステムが意図せず人間に害を与えないよう設計・制御するための研究分野です。アライメント・解釈可能性・ロバスト性が主要テーマで、Anthropic・OpenAIの研究の中核をなします。
インコンテキスト学習
インコンテキストがくしゅう
インコンテキスト学習とは、モデルの重みを更新せず、プロンプト内の例示だけでタスクを遂行する能力です。few-shot learningの実現形式であり、GPT-3で初めて大規模に実証されました。
RLAIF(AIフィードバックからの強化学習)
アールエルエーアイエフ
RLAIFとは、人間の代わりにAIが別のAIモデルの出力を評価・改善するフィードバック手法(Reinforcement Learning from AI Feedback)です。Constitutional AIの核心技術で、スケーラブルなアライメント手法として注目されています。
エージェントメモリ
エージェントメモリ
エージェントメモリとは、AIエージェントが過去の行動・会話・知識を保持し長期的に一貫した動作をするための記憶機構です。短期・長期・エピソード記憶に分類され、自律型エージェントの中核コンポーネントです。
インストラクションフォロウィング
インストラクションフォロウィング
インストラクションフォロウィングとは、ユーザーの指示を正確に理解・実行するLLMの能力です。SFTとRLHFによる訓練で向上し、ChatGPTの成功の鍵となった現代LLMの基本能力です。
AI著作権
エーアイちょさくけん
AI著作権とは、AIが生成したコンテンツの著作権帰属、および学習データとして使用された著作物の権利処理に関する法的問題です。世界各国で議論・立法化が進んでいる生成AI時代の重要な法的課題です。
LLM-as-a-Judge
エルエルエムアズジャッジ
LLM-as-a-Judgeとは、LLM自身を評価者として使い、他のLLMの出力品質を自動採点する評価手法です。人間評価のスケールアップを実現し、RAGシステムやチャットボットの品質監視に広く活用されています。
AIオブザーバビリティ
エーアイオブザーバビリティ
AIオブザーバビリティとは、本番LLMアプリケーションのトレース・ログ・メトリクスを収集・可視化してデバッグと改善を支援する監視実践です。LangSmith・Langfuse・Phoenix(Arize)が代表ツールです。
位置エンコーディング
いちエンコーディング
位置エンコーディングとは、Transformerがシーケンスのトークンごとにどこにあるかという位置情報を取り込むための表現手法です。正弦波・RoPE・ALiBiなどの方式があり、長文(ロングコンテキスト)対応能力に直接影響します。
AIウォーターマーキング
エーアイウォーターマーキング
AIウォーターマーキングとは、AI生成コンテンツに統計的・不可視のマーカーを埋め込んでAI生成物を識別可能にする技術です。偽情報対策・著作権保護の手段としてEU AI Actでも義務化が検討されています。
OCR(光学文字認識)
オーシーアール
OCR(Optical Character Recognition)とは、画像やスキャン文書に含まれる文字を認識してデジタルテキストに変換する技術です。Document AIの基盤技術で、請求書・契約書・名刺などの自動デジタル化に不可欠です。
AIアシスタント
エーアイアシスタント
AIアシスタントとは、自然言語で指示を受けてタスクを実行するAIシステムの総称です。ChatGPT・Claude・Copilot・Geminiが代表例で、文章作成・情報検索・コーディング支援・スケジュール管理など幅広いタスクに対応します。
異常検知
いじょうけんち
異常検知とは、正常なパターンから逸脱したデータを自動的に検出するAI技術です。不正検出・製造品質管理・サイバーセキュリティ・予知保全など、異常や問題を早期に発見する幅広い産業用途で活用されています。
AI自動化
エーアイじどうか
AIを活用して繰り返し業務・データ処理・意思決定を自動化する実践。LLMエージェントによるワークフロー自動化が急速に普及。
APIキー
エーピーアイキー
AI APIサービスへのアクセスを認証するためのシークレットキー文字列。OpenAI・Anthropic・Google等のAI APIを利用する際に必須。
AI音楽生成
エーアイおんがくせいせい
テキストプロンプトや鼻歌からAIが楽曲・BGM・効果音を自動生成する技術。Suno・Udio・MusicLMが代表例。
AIリテラシー
エーアイリテラシー
AIの仕組み・能力・限界・リスクを理解して適切に活用・判断できる知識とスキル。EU AI ActでもAIリテラシー教育が義務化。
AI戦略
エーアイせんりゃく
組織がAIを活用して競争優位を築くための中長期的な計画・方針・ガバナンス体制の設計。
AIエージェントSDK
エーアイエージェントエスディーケー
LLMエージェントの構築・デプロイを支援する開発キット。OpenAI Agents SDK・Anthropic Agent SDK・Google ADKが代表例。
埋め込みモデル
うめこみモデル
テキスト・画像等をベクトル表現に変換する専用モデル。RAGやセマンティック検索の基盤として広く使われる。
AIコーディングアシスタント
エーアイコーディングアシスタント
コード補完・生成・レビュー・デバッグを支援するAIツール。GitHub Copilot・Cursor・Windsurf・Clineが代表例。
AI安全性評価
エーアイあんぜんせいひょうか
LLMの有害出力・誤用・セキュリティリスクを系統的に評価するプロセス。レッドチーミング・ベンチマーク・自動評価を組み合わせる。
AIプロダクト開発
エーアイプロダクトかいはつ
LLMを組み込んだプロダクト・サービスの企画から設計・実装・評価・改善までのライフサイクル管理。
AI倫理
エーアイりんり
AIの開発・運用における公平性・透明性・説明責任・プライバシー保護などの倫理的原則と実践。
AIベンチマーク
エーアイベンチマーク
AIモデルの能力を標準的なタスクで測定・比較する評価指標セット。MMLU・HumanEval・HELM・MT-Benchが代表例。
AIファインチューニングサービス
エーアイファインチューニングサービス
クラウド上でLLMをカスタムデータで追加学習できるマネージドサービス。OpenAI Fine-tuning API・Vertex AI・Amazon Bedrockが代表例。
LLM評価
エルエルエムひょうか
LLMの出力品質を精度・一貫性・有害性・事実性等の観点で体系的に測定するプロセス。自動評価と人間評価を組み合わせる。
AIコスト最適化
エーアイコストさいてきか
LLM API利用コストを削減するための手法。モデルの使い分け・プロンプト圧縮・キャッシング・バッチ処理・小型モデル活用等。
AIアバター
エーアイアバター
AIが生成するリアルな人物動画・音声・3Dキャラクター。HeyGen・D-ID・Synthesia等でビジネス動画・バーチャルプレゼンターに活用。
Ollama
オラマ
LLaMA・Mistral・Phi等のオープンソースLLMをローカルPCで簡単に実行するためのツール。APIサーバーも起動でき開発・プライバシー重視の用途に人気。
LLMセキュリティ
エルエルエムセキュリティ
LLMアプリケーションを標的とした攻撃(プロンプトインジェクション・データ流出・モデル操作)への防御と脆弱性管理。
AI導入
エーアイどうにゅう
組織・企業がAI技術を業務プロセスや製品に取り入れるプロセス全体。技術選定・人材育成・変更管理・ROI測定を含む。
AI ROI
エーアイアールオーアイ
AI投資に対する経済的リターンの測定指標(Return on Investment)。コスト削減・生産性向上・売上増加を定量化して投資判断に活用する。
AIレディネス
エーアイレディネス
組織がAIを効果的に導入・活用するための準備状態の評価指標。データ品質・人材スキル・インフラ・ガバナンスの成熟度を測る。
AGI(汎用人工知能)
エージーアイ(はんようじんこうちのう)
人間と同等以上のあらゆる知的タスクをこなせる汎用人工知能(Artificial General Intelligence)。現在のLLMはAGIの前段階とされる。
AIチップ
エーアイチップ
AI演算(行列計算・テンソル演算)に特化した半導体。NVIDIA GPU・Google TPU・Apple Neural Engine・Intel Gaudi等が代表例。
AIジェネレーテッドコンテンツ
エーアイジェネレーテッドコンテンツ
AIが自動生成したテキスト・画像・音声・動画などのコンテンツの総称(AIGC)。著作権・真偽判定・プラットフォーム規約で注目される概念。
重み初期化
おもみしょきか
ニューラルネットワークの学習開始時の重みの設定方法。Xavier初期化・He初期化が代表例で、勾配消失・爆発を防ぎ学習を安定させる。
オプティマイザー
オプティマイザー
ニューラルネットワークの学習で損失関数を最小化するパラメータ更新アルゴリズム。SGD・Adam・AdamWが代表例。LLM学習ではAdamWが標準。
AIチューター
エーアイチューター
個々の学習者に合わせてカスタマイズされた教育体験を提供するAIシステム。進捗に応じて難易度を調整しインタラクティブに学習を支援する。
AIエージェントフレームワーク
エーアイエージェントフレームワーク
LLMエージェントの構築・実行・管理を支援するソフトウェアフレームワーク。LangChain・LlamaIndex・AutoGen・CrewAIが代表例。
AI翻訳
エーアイほんやく
LLMやニューラル機械翻訳モデルを使った自動翻訳。DeepL・Google翻訳・GPT-4ベースのサービスが代表例で、品質はプロ翻訳に近づいている。
AI要約
エーアイようやく
LLMが長文ドキュメントや会議録・記事を自動で要約する機能。抽出型と生成型があり、RAGと組み合わせて大量文書処理に活用される。
ASR(自動音声認識)
エーエスアール(じどうおんせいにんしき)
音声をテキストに変換する自動音声認識技術(Automatic Speech Recognition)。WhisperやGoogle Speech-to-Textが代表例で音声インターフェースの基盤を担う。
AI検索エンジン
エーアイけんさくエンジン
LLMを活用してキーワードマッチではなく意味・文脈で検索結果を返す次世代検索。Perplexity・You.com・Bing AI・Google AIオーバービューが代表例。
AIペアプログラマー
エーアイペアプログラマー
開発者と対話しながらリアルタイムでコード提案・レビュー・デバッグを行うAI。GitHub Copilot・Cursor・Claude Code等が代表例。
AIワークフロー
エーアイワークフロー
複数のLLM呼び出し・ツール実行・条件分岐を組み合わせた自動化された処理フロー。n8n・Zapier AI・Dify・Langflowで実装できる。
AIコンテンツ生成
エーアイコンテンツせいせい
LLMを使ってブログ・SNS・広告コピー・メールなどのテキストコンテンツを自動生成する実践。SEO最適化や多言語展開に活用される。
AIノーコード
エーアイノーコード
コードを書かずにAI機能を組み込んだアプリ・ワークフローを構築できるプラットフォーム。Dify・Flowise・Botpress・Voiceflowが代表例。
AI Ops
エーアイオプス
AIシステムの本番環境での運用・監視・改善を体系化したプロセス(AI Operations)。LLMOpsの上位概念でインフラ・セキュリティ・コストも含む。
LM Studio
エルエムスタジオ
GUIでオープンソースLLMをローカル実行・管理できるデスクトップアプリ。Ollama同様にプライバシー重視の開発・実験に人気。
LLMルーター
エルエルエムルーター
リクエストの複雑さ・コスト・レイテンシ要件に応じて適切なLLMモデルへ動的にルーティングするシステム。コスト削減と品質の最適化に使用。
AIメモリ
エーアイメモリ
AIエージェントやチャットボットがセッションをまたいで情報を記憶・参照する仕組み。Mem0・Zep・Memorizerが代表的なソリューション。
AIゲートウェイ
エーアイゲートウェイ
複数のLLM APIへのアクセスを一元管理するプロキシ層。認証・レートリミット・コスト追跡・フォールバック・キャッシュを統合管理する。
Anthropic API
アンソロピックエーピーアイ
AnthropicのClaude APIへのアクセスを提供するAPI。Messages API・Tool Use・Vision・ストリーミング等の機能を提供。
Amazon Bedrock
エーダブリューエスベッドロック
AWSのフルマネージド基盤モデルAPI。Claude・Llama・Mistral・Titan等を統一APIで利用でき、RAG・エージェント・ガードレールを標準提供。
OpenAI
オープンエーアイ
ChatGPT・GPT-4・o1・DALL-Eを開発する米AI企業。GPT API・Assistants API・Agents SDKを提供しLLM産業の標準を形成している。
Anthropic
アンソロピック
Claude・Constitutional AIを開発する米AI安全企業。Amazonが大株主で、AI安全性研究と商用APIを両立する企業として注目される。
Weaviate
ウィービエイト
オープンソースのベクターデータベース。セマンティック検索・RAG・マルチモーダル検索をサポートし、クラウドとセルフホストの両方で利用できる。
AutoGen
オートジェン
Microsoftが開発したマルチエージェント対話フレームワーク。複数のAIエージェントが協調して複雑なタスクを自律的に解決する。
n8n
エヌエイトエヌ
オープンソースのノーコードワークフロー自動化ツール。LLMノード・HTTP・データベース・SaaSを視覚的に接続してAIワークフローを構築できる。
Weights & Biases
ウェイツアンドバイアシーズ
ML実験管理・モデル監視・データセット管理を統合するMLOpsプラットフォーム(W&B)。LLMファインチューニング・プロンプト評価にも対応。
MLflow
エムエルフロー
オープンソースのMLライフサイクル管理プラットフォーム。実験追跡・モデルレジストリ・デプロイを統合管理し、LLM評価にも対応。
Instructor
インストラクター
Pydanticモデルを使ってLLMに構造化データを出力させるPythonライブラリ。型安全なLLM出力パーシングを実現し、自動リトライも搭載。
OpenRouter
オープンルーター
200以上のLLMに統一APIでアクセスできるルーティングサービス。モデル比較・コスト最適化・フォールバック機能を提供し、フロントエンドから直接利用も可能。
Windsurf
ウィンドサーフ
Codeiumが開発したAI統合コードエディタ。Cascade(エージェントモード)でプロジェクト全体を自律的に修正・実装できる次世代AIエディタ。
OpenAI o1
オープンエーアイオーワン
OpenAIが開発した推論特化型モデル。応答前に内部で「思考」を行い、数学・科学・コーディング等の複雑な推論タスクで従来のGPT-4を大幅に上回る。
AIデプロイメント
エーアイデプロイメント
開発・テスト済みのAIモデルを本番環境で稼働させるプロセス全般。APIサーバー構築、スケーリング、モニタリング、コスト管理を含むMLOpsの中核工程。
Whisper
ウィスパー
OpenAIが開発したオープンソースの音声認識モデル。99言語に対応し高精度な文字起こしを無料で利用できる。ローカル実行・API両対応でAI音声処理の標準的存在。
A2A(Agent-to-Agent Protocol)
エーツーエー
AIエージェント同士が標準化されたプロトコルで通信・協調するための仕様。Googleが提案しマルチエージェントシステムの相互運用性を高める。
EU AI Act(EU AI規制法)
イーユーエーアイアクト
EUが2024年に成立させた世界初の包括的AI規制法。AIシステムをリスクレベルで分類し、高リスクAIには厳格な要件を課す。世界の規制議論に大きな影響を与えている。
AIコンプライアンス
エーアイコンプライアンス
AI技術の開発・利用が法規制・業界標準・倫理ガイドラインを遵守していることを確保する実践。EU AI Act・NIST AI RMFなどの枠組みへの準拠が企業に求められる。
AIライティング
エーアイライティング
AIを使った文章作成支援。ブログ・メール・報告書・マーケティングコピー等の生成・改善をLLMが支援するユースケース。Jasper・Copy.aiなどの専門サービスも登場。
オープンウェイト(Open Weights)
オープンウェイツ
モデルの重みパラメータが公開されているが完全なオープンソースではない状態。Llama・Gemmaが代表例。訓練データ・コードは非公開でも推論・ファインチューニングは自由にできる。
AIワークプレイス
エーアイワークプレイス
職場・ビジネス環境でのAI活用全般。Microsoft 365 Copilot・Notion AI・Slack AI等のツールによる業務効率化。ドキュメント作成・会議要約・メール作成を自動支援。
エッジAI(Edge AI)
エッジエーアイ
スマートフォン・IoTデバイス・組み込みシステム上でAI推論を実行する技術。クラウド送信不要でプライバシー保護・低レイテンシを実現。Apple Neural Engine・Qualcomm AIが代表例。
AlphaFold
アルファフォールド
DeepMindが開発したタンパク質の立体構造を高精度予測するAI。2020年のCASP14で科学者を圧倒し、2億種以上の構造を予測・公開。AIの科学応用の象徴的存在。
AIスーパーパワー
エーアイスーパーパワー
AI技術の覇権をめぐる国家間競争、特に米中のAI競争を指す概念。カイフー・リーの著書で広まった。軍事・経済・外交への影響から各国がAI戦略を強化している。
アテンションシンク
アテンションシンク
アテンションシンクとは、LLMのアテンション機構で最初のトークンが異常に高いアテンション重みを受ける現象で、StreamingLLMの研究で発見され、無限長文脈での推論を可能にするKVキャッシュ管理に活用されています。
アクティベーションステアリング
アクティベーションステアリング
アクティベーションステアリングとは、LLMの中間層の活性化ベクトルを直接操作してモデルの振る舞いを制御する技術で、特定の概念ベクトルを加算・減算することで感情・トピック・スタイルを誘導できます。
LLMツイン
エルエルエムツイン
LLMツインとは、特定の人物の文章・思考・スタイルをファインチューニングしたパーソナルAIで、SNS・メール・記事などのデータで学習し、その人の「デジタル分身」として機能する新興コンセプトです。
エージェンティックRAG
エージェンティックラグ
エージェンティックRAGとは、従来の単純なRAGをエージェントが動的に制御する高度なアーキテクチャで、クエリ分解・複数ソース選択・結果の評価・再検索を自律的に行い、複雑な質問に対応します。
AIハルシネーション軽減
エーアイハルシネーションけいげん
AIハルシネーション軽減とは、LLMの事実誤認・虚偽生成を検出・防止・軽減する技術と戦略の総称で、RAG・グラウンディング・自己一貫性・チェーンオブベリフィケーションなど複数のアプローチがあります。
インストラクション階層
インストラクションかいそう
インストラクション階層とは、LLMへの指示を信頼レベルで優先順位付けする概念で、システムプロンプト→オペレーター指示→ユーザー入力の順に権限を定め、競合を解決します。
意味解析(セマンティックパーシング)
いみかいせき
意味解析とは、自然言語をコンピュータが実行可能な形式表現(論理式・SQL・API呼び出し等)に変換するNLP技術で、Text-to-SQLやFunction Callingの基盤となります。
AIテキスト検出
エーアイテキストけんしゅつ
AIテキスト検出とは、AIが生成したテキストを人間の書いた文章から識別する技術で、教育・報道・ファクトチェック分野での需要が急増していますが、精度の限界も指摘されています。
AIドリブン開発
エーアイドリブンかいはつ
AIドリブン開発とは、AIツールを開発プロセスの中核に置くソフトウェア開発スタイルで、コード生成・レビュー・テスト・ドキュメント作成をAIが支援し、エンジニアの生産性を大幅に向上させます。
因果言語モデル(Causal LM)
いんがげんごモデル(コーザルエルエム)
因果言語モデルとは、左から右へ前のトークンのみに基づいて次のトークンを予測する自己回帰型言語モデリングで、GPT系列のデコーダーモデルすべてがこの学習目標を使用しテキスト生成の基盤となります。
AI政策
エーアイせいさく
AI政策とは、政府・国際機関・企業が策定するAI技術の開発・利用に関する政策・ガイドラインで、EU AI Act・米国AI行政命令・日本のAI戦略などが代表例として挙げられます。
AIカスタマーサービス
エーアイカスタマーサービス
AIカスタマーサービスとは、AIを活用した顧客対応・サポート業務の自動化で、FAQチャットボット・感情分析・エスカレーション判定・チケット分類などを実現し、Intercom・Zendesk・Freshworksが代表的プラットフォームです。
AI UX(AIユーザーエクスペリエンス)
エーアイユーエックス(エーアイユーザーエクスペリエンス)
AI UXとは、AIプロダクトのユーザー体験設計に特有の原則とパターンで、不確実性の表示・エラー回復・信頼構築・ストリーミング表示・プロンプト補助など、AI特有の課題を扱う設計分野です。
エージェントループ
エージェントループ
エージェントループとは、AIエージェントが環境を認識→推論→行動→観察を繰り返すサイクルで、ReActフレームワークの「Thought→Action→Observation」反復がエージェントAIの基本アーキテクチャとして広く採用されています。
アテンションマップ
アテンションマップ
アテンションマップとは、トランスフォーマーの各アテンションヘッドがどのトークンに注意を向けているかを可視化した熱マップで、モデルの解釈可能性研究・デバッグ・エラー分析にBertVizなどのツールで描画されます。
アダプターチューニング
アダプターチューニング
アダプターチューニングとは、トランスフォーマーの各層に小さなアダプターモジュールを挿入し、元のパラメータを固定したまま新タスクに適応させるPEFT手法で、LoRAと並ぶパラメータ効率的な転移学習技術です。
インストラクションデータセット
インストラクションデータセット
インストラクションデータセットとは、LLMの指示追従能力を学習させるための指示文と期待される回答のペアからなるデータセットで、Alpaca・FLAN・Dolly・ShareGPTが代表例であり、SFTとRLHFの品質を大きく左右します。
一貫性モデル(Consistency Model)
いっかんせいモデル
一貫性モデルとは、拡散モデルを蒸留して1〜数ステップで高品質な画像を生成できる高速生成モデルです。LCM(Latent Consistency Model)が代表例で、SDXL比10〜50倍高速なリアルタイム画像生成を実現します。
AIヘルスケア
エーアイヘルスケア
AIヘルスケアとは、医療・ヘルスケア分野全般でAIを活用する領域です。診断支援・医療画像解析・電子カルテ処理・患者予後予測・パーソナルヘルスモニタリングなど幅広く、医療特化LLMの登場でさらに拡大しています。
カ行
71件コンテキストウィンドウ
コンテキストウィンドウ
コンテキストウィンドウとは、LLMが一度に処理できるトークン数の上限です。ウィンドウ内の全情報がモデルの「作業記憶」となり、長い文書の処理や長期会話の精度に直接影響します。
機械学習(マシンラーニング)
きかいがくしゅう(マシンラーニング)
機械学習とは、コンピュータがデータからパターンを自動的に学習し、明示的にプログラムしなくてもタスクを実行できるようにするAI技術の総称です。ディープラーニングはその代表的な手法です。
拡散モデル(Diffusion Model)
かくさんモデル(ディフュージョンモデル)
拡散モデルとは、画像にノイズを段階的に加えてから除去する過程を学習し、ランダムなノイズから高品質な画像を生成するAIモデルです。現在の画像生成AIの主流技術です。
グラウンディング
グラウンディング
グラウンディングとは、LLMの回答を実際の情報源・事実に基づかせる技術的アプローチです。ハルシネーションを抑制し、信頼性の高い回答を実現するために活用されます。
構造化出力(ストラクチャードアウトプット)
こうぞうかしゅつりょく(ストラクチャードアウトプット)
構造化出力とは、LLMにJSON等の特定フォーマットで出力させる手法です。後続システムとの連携や自動処理を可能にし、エージェントシステムや業務自動化で不可欠な技術です。
Constitutional AI(コンスティテューショナルAI)
コンスティテューショナルエーアイ
Constitutional AIとは、AIに原則リスト(Constitution)を与えて自己批判・修正させることで、安全で有益な応答を訓練するAnthropicが考案した手法です。
基盤モデル(ファンデーションモデル)
きばんモデル
基盤モデルとは、大規模データで事前学習された汎用AIモデルです。様々なタスクにfine-tuningまたはそのまま利用でき、LLMや画像生成モデルなどが代表例です。
コード生成
コードせいせい
コード生成とは、LLMが自然言語の指示からプログラムコードを自動生成する能力・タスクです。GitHub CopilotやChatGPTなどで広く実用化されています。
コパイロット(Copilot)
コパイロット
コパイロットとは、LLMを使って開発者・ビジネスユーザーの作業を補助するAIアシスタントです。GitHub Copilot(コード補完)やMicrosoft 365 Copilotが代表例です。
強化学習
きょうかがくしゅう
強化学習とは、エージェントが試行錯誤しながら報酬を最大化する行動を学習するAI手法です。RLHFを通じてLLMのアラインメントに応用され、現代の生成AIの品質を支える基盤技術です。
教師あり学習
きょうしありがくしゅう
教師あり学習とは、正解ラベル付きデータを使ってモデルを訓練する機械学習の基本手法です。画像分類・スパム検知・翻訳など幅広いタスクに応用され、LLMのfine-tuningもその一形態です。
教師なし学習
きょうしなしがくしゅう
教師なし学習とは、ラベルなしデータからパターンや構造を自律的に発見する機械学習手法です。クラスタリング・次元削減・異常検知に活用され、LLMの事前学習もこの考え方を応用しています。
コンテキストエンジニアリング
コンテキストエンジニアリング
コンテキストエンジニアリングとは、LLMのコンテキストウィンドウに入れる情報を戦略的に設計・最適化する実践手法です。プロンプトエンジニアリングの発展形として、RAGやメモリ管理を含む包括的な情報設計が求められます。
合成データ
ごうせいデータ
合成データとは、実際のデータの代わりにAIや統計的手法で人工的に生成したデータです。プライバシー保護・希少データの補完・モデル評価に活用され、LLMの学習データ生成にも応用されています。
GAN(敵対的生成ネットワーク)
ガン
GANとは、生成器と識別器が互いに競い合うことで高品質なデータを生成するニューラルネットワーク(Generative Adversarial Network)です。2014年にGoodfellowが提案し、リアルな画像生成AIの先駆けとなりました。
CLIP
クリップ
CLIPとは、OpenAIが2021年に開発した画像とテキストを対照学習で結びつけるモデル(Contrastive Language-Image Pre-Training)です。DALL-EやStable Diffusionの基盤技術として、テキストから画像を生成するAIの中核を担います。
継続学習
けいぞくがくしゅう
継続学習とは、新しいタスクを学習しても過去の知識を忘却しないようにモデルを継続的に更新する機械学習手法です。破滅的忘却(Catastrophic Forgetting)への対処が主要な課題です。
コサイン類似度
コサインるいじど
コサイン類似度とは、2つのベクトル間の角度でテキストや画像の意味的な類似度を測る指標です。RAGやセマンティック検索における検索クエリと文書の関連度計算の中核で使われています。
GraphRAG
グラフラグ
GraphRAGとは、文書からナレッジグラフを構築しグラフ構造を活用して複数文書にまたがる複合質問に対応するRAG拡張手法です。Microsoftが2024年に発表し、従来のベクトル検索RAGを超える複雑なクエリ処理を実現します。
機械翻訳
きかいほんやく
機械翻訳とは、テキストを自動的に別の言語に翻訳するAI技術です。DeepL・Google翻訳が代表例で、Transformerの登場以降に飛躍的に精度が向上し、今やLLMが多言語翻訳を包括的にこなせるようになっています。
感情分析
かんじょうぶんせき
感情分析とは、テキストからポジティブ・ネガティブ・中立などの感情や意見を自動判定するNLPタスクです。SNS監視・カスタマーレビュー分析・ブランドモニタリングに広く活用されています。
過学習(オーバーフィッティング)
かがくしゅう
過学習とは、モデルが学習データに適合しすぎて未見データへの汎化性能が低下する現象です。正則化・ドロップアウト・データ拡張・早期終了などが対策として使われます。LLMのfine-tuningでも起きやすい問題です。
勾配降下法
こうばいこうかほう
勾配降下法とは、損失関数の勾配(微分)を計算してパラメータを更新するニューラルネットワーク学習の基本アルゴリズムです。SGD・Adam・AdamWなどが派生形で、LLMのfine-tuningでも中心的な最適化手法です。
学習率
がくしゅうりつ
学習率とは、勾配降下法で各ステップにパラメータを更新する大きさを制御するハイパーパラメータです。LLMのfine-tuningでも最重要のチューニングパラメータで、高すぎると発散、低すぎると収束が遅くなります。
画像認識
がぞうにんしき
画像認識とは、画像に写っている物体・シーン・文字を自動的に識別するAI技術です。CNNやVision Transformerによる深層学習で急速に精度が向上し、医療診断・製造検査・自動運転など幅広い産業に応用されています。
固有表現認識(NER)
こゆうひょうげんにんしき
固有表現認識(NER)とは、テキスト中の人名・地名・組織名・日付などの固有表現を自動識別・分類するNLPタスクです。情報抽出・知識グラフ構築・検索精度向上の基盤技術として広く使われています。
コンピュータビジョン
コンピュータビジョン
コンピュータビジョンとは、画像・動画から情報を抽出・理解するAI技術の総称です。画像認識・物体検出・セグメンテーション・OCRを包含し、自動運転・医療・製造・小売など幅広い産業に応用されています。
回帰(リグレッション)
かいき
回帰とは、入力から連続値(数値)を予測する機械学習タスクです。株価予測・需要予測・不動産評価・気温予測など、「いくら?いくつ?どのくらい?」という量的な予測に使われる教師あり学習の基本形です。
画像生成
がぞうせいせい
テキストや画像を入力としてAIが新たな画像を生成する技術の総称。Stable Diffusion・DALL-E・Midjourneyが代表例。
コンテンツモデレーション
コンテンツモデレーション
AIを用いてプラットフォーム上の有害・違法・ポリシー違反コンテンツを自動検出・フィルタリングする技術。
Claude
クロード
Anthropicが開発する会話・分析・コーディングに優れたLLMシリーズ(Claude 3/3.5/4系)。Constitutional AIで安全性を重視した設計。
会話型AI
かいわがたエーアイ
人間と自然な対話を行うAIシステムの総称。チャットボット・バーチャルアシスタント・LLMベースの対話システムを包含。
コンテキスト長
コンテキストちょう
LLMが一度に処理できるトークン数の最大値。入力+出力の合計上限を指し、長いほど長文書・会話履歴の処理が可能になる。
グラウンディング技術
グラウンディングぎじゅつ
LLMの出力を事実・データ・外部ソースに基づかせてハルシネーションを防ぐ技術群。RAG・検索連動・ツール使用を含む。
検索パイプライン
けんさくパイプライン
RAGシステムにおいてドキュメントの前処理・チャンキング・インデックス作成・検索・リランキングを一連で処理するシステム構成。
コンテキストウィンドウ管理
コンテキストウィンドウかんり
限られたコンテキスト長を効率的に活用するための戦略。プロンプト圧縮・要約・キャッシング・スライディングウィンドウ等を含む。
誤差逆伝播法
ごさぎゃくでんぱほう
ニューラルネットワークの学習アルゴリズム。出力誤差を後ろから前へ連鎖律で伝播させ各層の勾配を効率的に計算する。
クラスタリング
クラスタリング
ラベルなしデータを類似度に基づいてグループ(クラスター)に自動分類する教師なし学習の代表的タスク。K-means・DBSCANが代表。
KVキャッシュ
ケーブイキャッシュ
Transformerのアテンション計算でKey・Valueテンソルをキャッシュして再計算を省略し推論を高速化する技術。長いコンテキストほど効果が大きい。
活性化関数
かっせいかかんすう
ニューラルネットワークの各ニューロンに非線形変換を加える関数。ReLU・Sigmoid・GELUが代表例。非線形性がなければ深層学習は線形変換と等価になる。
構造化生成
こうぞうかせいせい
LLMにJSON・XML・Markdownなど特定のフォーマットで出力させる手法。Outlines・Guidance・instructor等のライブラリで制御する。
検索拡張
けんさくかくちょう
LLMの応答を外部知識・リアルタイムデータで補強する技術の総称。RAGの核となる概念で、モデルの知識カットオフや幻覚を補完する。
Google DeepMind
グーグルディープマインド
GoogleとDeepMindが統合したAI研究組織。Gemini・AlphaFold・AlphaCodeを開発し、AGI研究の最前線に立つ。
Cohere
コヒア
エンタープライズ向けLLMを専門とするAI企業。Command・Embed・Rerankモデルを提供し、RAGパイプラインに強みを持つ。
Chroma
クロマ
軽量・組み込み可能なオープンソースのベクターデータベース。ローカル開発やプロトタイプに最適で、LangChain・LlamaIndexと容易に統合できる。
Qdrant
クドラント
Rustで実装された高性能オープンソースベクターデータベース。フィルタリング・ペイロード管理・オンプレミス/クラウド対応でRAGシステムに採用が増加。
CrewAI
クルーエーアイ
役割分担されたAIエージェントチームを構築するフレームワーク。各エージェントに役割・目標・ツールを割り当てて協調作業を実現。
Guardrails AI
ガードレールエーアイ
LLMの出力を検証・修正するPythonフレームワーク。スキーマ検証・有害コンテンツフィルタ・再試行ロジックをプログラマブルに定義。
Gradio
グラジオ
機械学習モデルのデモWebアプリを数行のPythonコードで構築できるライブラリ。Hugging Face Spacesとの統合でAIデモの公開が容易。
Groq
グロック
LPU(Language Processing Unit)独自チップでLLM推論を超高速化するサービス。Llama・Mistral等をOpenAI互換APIで低レイテンシ提供。
Cursor
カーソル
Claude・GPT-4・Gemini等を統合したAI対話型コードエディタ。自然言語でコードを生成・編集・デバッグでき、AIネイティブな開発環境として注目。
Claude Code
クロードコード
AnthropicのCLIベースのAIコーディングエージェント。ターミナルから自然言語でコードの実装・テスト・デバッグ・git操作を自律的に実行。
GitHub Copilot
ギットハブコパイロット
GitHubとOpenAIが共同開発したAIコーディングアシスタント。IDE内でコード補完・チャット・テスト生成・PR要約をリアルタイムで提供する先駆的サービス。
Google Colab
コラボ
GoogleのクラウドベースJupyterノートブック環境。無料でGPU/TPUを利用でき、環境構築不要でAI・機械学習を始められる初心者向けプラットフォーム。
Computer Use(コンピューター操作)
コンピューターユース
AIがデスクトップ画面を見てマウス・キーボードを操作し、Webブラウジング・アプリ操作・ファイル編集など人間と同様のPC作業を自律的に行う機能。
QLoRA
キューロラ
LoRAと量子化を組み合わせた効率的ファインチューニング手法。4bit量子化で凍結したベースモデルにLoRAアダプタを追加し、一般的なGPU1枚で大規模LLMをファインチューニング可能にする。
Qwen(通義千問)
キューウェン
AlibabaのQwen(通義千問)シリーズのLLM。Qwen2.5はコード・数学・多言語で高性能を発揮するオープンソースモデルで、商用利用も可能な有力な選択肢。
Kaggle
カグル
Google傘下のデータサイエンス・ML競技プラットフォーム。無料GPU付きノートブック・公開データセット・コンペティションを提供し、AI学習の登竜門として有名。
交差エントロピー(クロスエントロピー)
クロスエントロピー
機械学習で最も使われる損失関数の一つ。予測確率分布と正解分布の差を測定する。LLMの学習では次トークンの予測誤差を最小化するために使用される。
Grok
グロックエーアイ
Elon Musk率いるxAIが開発したLLM。リアルタイムX(旧Twitter)データへのアクセスと率直なスタイルが特徴。Grok-3はフロンティアモデルとして注目。
機械アンラーニング(Machine Unlearning)
きかいアンラーニング
学習済みモデルから特定データの影響を除去する技術。GDPRの「忘れられる権利」への対応や、有害・誤情報を学習したモデルの修正に活用される。
教育AI(AI in Education)
きょういくエーアイ
教育分野でのAI活用。個別最適化学習・自動採点・AIチューター・語学学習支援など。Khanmigo・Duolingo等が代表例で、教育の個別化を大幅に推進。
コンテキストウィンドウ拡張
コンテキストウィンドウカクチョウ
コンテキストウィンドウ拡張とは、LLMのコンテキスト長を学習後に拡張する技術群で、RoPEスケーリング・ALiBi・YaRN等の手法により元の訓練長を超えた長文書処理を可能にします。
憲法的AIトレーニング
ケンポウテキAIトレーニング
憲法的AIトレーニングとは、Anthropicが開発したアライメント手法で、AIが自己の回答を人権・倫理原則(憲法)に照らして自己批判・修正することで、人間フィードバックへの依存を大幅に削減できます。
コードインタープリター
コードインタープリター
コードインタープリターとは、LLMがPythonコードを記述・実行してデータ分析・グラフ作成・ファイル処理をリアルタイムで行う機能で、ChatGPT Advanced Data Analysisが普及させ、AIの活用範囲を大きく広げました。
継続的バッチ処理
けいぞくてきバッチしょり
継続的バッチ処理とは、LLM推論サーバーがリクエストを動的にバッチ化し、GPU利用率を最大化する技術で、トークン生成中に新しいリクエストをバッチに追加してスループットを大幅に向上させます。
合成事前学習
ごうせいじぜんがくしゅう
合成事前学習とは、実データ不足を補うために合成データで事前学習を行う手法で、Phi-1・Phi-2・Phi-3がコード・教科書品質の合成データのみで高性能を達成し、「小さいモデルで大きな性能」の可能性を示しました。
検索拡張ファインチューニング(RAFT)
けんさくかくちょうファインチューニング
検索拡張ファインチューニング(RAFT)とは、RAGシステムでの利用を想定してノイズ文書も含めた検索結果から学習させるファインチューニング手法で、ドメイン固有のRAG精度を大幅に向上させます。
クロスアテンション
クロスアテンション
クロスアテンションとは、エンコーダーとデコーダー間でクエリをデコーダー側、キー・バリューをエンコーダー側から取る注意機構で、翻訳・画像キャプション・マルチモーダルモデルにおける異なるモダリティ間の情報統合に使われます。
画像キャプション生成
がぞうキャプションせいせい
画像キャプション生成とは、画像の内容を自然言語で説明するテキストを自動生成するタスクで、CLIPやViTなどのビジョンモデルとLLMを組み合わせ、アクセシビリティ・画像検索・医療画像説明に応用されます。
Classifier-Free Guidance(CFG)
クラシファイアーフリーガイダンス
Classifier-Free Guidance(CFG)とは、拡散モデルで条件付き生成を制御するテクニックで、分類器なしにテキストプロンプトへの準拠度をガイダンススケールで調整します。値が高いほどプロンプトに忠実な生成結果が得られます。
サ行
58件GPT
ジーピーティー
GPTとは、OpenAIが開発したトランスフォーマーベースの言語モデルシリーズで、GPT-4oをはじめとする主要モデルはテキスト・画像・音声を扱うマルチモーダルAIとして広く普及しています。
生成AI(ジェネレーティブAI)
せいせいエーアイ
生成AIとは、テキスト・画像・音声・動画などを新たに生成できるAI技術の総称です。LLMを中心に急速に普及し、ビジネスや創作活動に変革をもたらしています。
CoT(Chain of Thought)
シーオーティー(チェーン・オブ・ソート)
CoTとは、LLMに「ステップごとに考える」よう促すプロンプト技法です。「ステップバイステップで考えて」と指示するだけで、複雑な推論問題の正答率が大幅に向上します。
Zero-shot学習
ゼロショットがくしゅう
Zero-shot学習とは、入力例を一切示さずにLLMに新しいタスクを実行させる技法です。事前学習で得た汎用知識だけで、説明のみから対応するLLMの能力を活用します。
推論(インファレンス)
すいろん(インファレンス)
推論とは、学習済みのAIモデルが新しい入力データに対して出力を生成するプロセスです。AIの「実際に使う段階」を指し、学習(トレーニング)とは区別されます。
システムプロンプト
システムプロンプト
システムプロンプトとは、LLMの動作の前提条件(役割・制約・出力形式など)を設定するための特別なプロンプトです。ユーザーからは見えない状態で適用されることが多く、アプリ開発の要です。
セマンティック検索
セマンティックけんさく
セマンティック検索とは、キーワードの完全一致ではなく、文章の意味・文脈に基づいて関連情報を探し出す検索技術です。エンベディングとベクトルDBを組み合わせて実現します。
自然言語処理(NLP)
しぜんげんごしょり(エヌエルピー)
自然言語処理(NLP)とは、人間が日常的に使う言語(日本語・英語等)をコンピュータで理解・生成・変換する技術分野です。LLMや機械翻訳・感情分析・チャットボットなど幅広い応用を含みます。
事前学習(プレトレーニング)
じぜんがくしゅう(プレトレーニング)
事前学習とは、大規模データでモデルに汎用的な知識を学習させる工程です。この段階で得た知識が、後続のファインチューニングやRLHFの出発点となります。
ジェイルブレイク
ジェイルブレイク
ジェイルブレイクとは、AIの安全制限を回避して禁止されたコンテンツを生成させる攻撃手法です。巧妙なプロンプト操作でモデルのガードレールを突破しようとします。
自律エージェント(Autonomous Agent)
じりつエージェント
自律エージェントとは、目標を与えられると計画立案・ツール使用・自己修正を繰り返して自律的にタスクを完遂するAIシステムで、人手を介さずに長期的な作業を遂行します。
GPU(グラフィックス処理ユニット)
ジーピーユー
GPUとは、大規模な並列計算を高速処理するプロセッサで、LLMの学習・推論に不可欠なハードウェアです。NVIDIAのH100・A100シリーズがAI開発の標準的なインフラとなっています。
ストリーミング
ストリーミング
ストリーミングとは、LLMが生成した文字・トークンをリアルタイムに順次送信する応答方式で、ユーザーが全文生成を待たずに即座に読み始められるUXを実現します。
音声認識(Speech-to-Text)
スピーチトゥテキスト
音声認識(STT)とは、音声データをテキストに変換するAI技術です。OpenAI Whisperが代表例で、多言語・ノイズ環境に強い特徴を持ちます。
Stable Diffusion(ステーブルディフュージョン)
ステーブルディフュージョン
Stable Diffusionとは、Stability AIが開発・公開したオープンソースの高品質テキストトゥイメージモデルです。商用利用可能かつローカル実行もでき、画像生成AIの普及に大きく貢献しました。
責任あるAI
せきにんあるエーアイ
責任あるAIとは、AIシステムを公平・透明・説明可能・安全・プライバシー保護の観点で設計・運用するための原則と実践の総称です。MicrosoftやGoogleなど主要企業が独自のResponsible AI原則を策定しています。
自己教師あり学習
じこきょうしありがくしゅう
自己教師あり学習とは、ラベルなしデータから自動生成した疑似ラベルを使って学習する手法です。GPTの「次のトークン予測」やBERTの「マスク言語モデリング」が代表例で、現代のLLM事前学習の基盤技術です。
スケーリング則
スケーリングそく
スケーリング則とは、モデルサイズ・学習データ量・計算量を増やすとモデル性能がべき乗則的に向上するという経験則です。現代のLLM開発戦略の理論的根拠となっており、GPT-4やGemini Ultra誕生の背景にあります。
GPT-4o
ジーピーティーフォーオー
GPT-4oとは、OpenAIが2024年5月に公開したマルチモーダルモデルです。テキスト・画像・音声をネイティブに統合処理し、従来のGPT-4 Turboと比較して2倍の速度・半額のコストで同等以上の性能を実現しました。
Gemini(ジェミニ)
ジェミニ
Geminiとは、Google DeepMindが開発したマルチモーダルLLMシリーズです。Ultra・Pro・Nanoの3スケールで展開し、Gemini 1.5ではロングコンテキスト(最大100万トークン)対応が特徴です。
Gemini 3 / Gemini 3.1
ジェミニスリー
Gemini 3は2025年11月にGoogleがリリースした最新世代のマルチモーダルLLM。Gemini 3.1 Pro(2026年2月)はARC-AGI-2で77.1%を達成し、推論・マルチモーダル性能でGPT-5.2やClaude Opus 4.6と並ぶトップクラスの性能を持つ。
説明可能性(XAI)
せつめいかのうせい
説明可能性(XAI)とは、AIモデルがなぜその予測・判断を下したかを人間が理解できるように説明する能力と手法の総称です。医療・金融・法律などハイリスク分野でのAI活用において、信頼性と説明責任の根拠となります。
Sora(ソラ)
ソラ
Soraとは、OpenAIが2024年に公開したテキストから動画を生成するAIモデルです。最大60秒の高品質動画を生成でき、物理法則を理解した一貫性ある映像表現が特徴です。
質問応答(QA)
しつもんおうとう
質問応答(QA)とは、自然言語の質問に対してテキストから正確な答えを抽出・生成するNLPタスクです。RAGの主要ユースケースであり、ChatGPTのような対話AIの基盤能力でもあります。
情報検索
じょうほうけんさく
情報検索とは、ユーザーのクエリに対して大規模文書集合から関連情報を効率的に検索・取得する技術体系です。RAGの基盤技術であり、BM25・ベクトル検索・ハイブリッド検索などの手法で実装されます。
セマンティックチャンキング
セマンティックチャンキング
セマンティックチャンキングとは、RAGにおいてドキュメントを意味的な塊(チャンク)に分割する手法です。固定文字数分割と異なり意味的な境界で分割するため、検索精度と回答品質が向上します。
セマンティックセグメンテーション
セマンティックセグメンテーション
セマンティックセグメンテーションとは、画像の各ピクセルをクラスに分類するコンピュータビジョンタスクです。自動運転・医療画像解析で必須の技術で、Segment Anything Model(SAM)の登場で汎用化が加速しました。
状態空間モデル(SSM)
じょうたいくうかんモデル
状態空間モデル(SSM)とは、系列データを状態変数で効率的に処理するアーキテクチャです。MambaがTransformerの代替として注目され、シーケンス長に対して線形の計算量でlong-contextを効率的に処理できます。
自己一貫性(Self-Consistency)
セルフコンシステンシー
自己一貫性(Self-Consistency)とは、同一プロンプトから複数の異なる推論パスを生成し、多数決で最終回答を決定するCoT精度向上手法です。単一パスのCoTより大幅に精度が向上し、数学・論理問題で特に効果的です。
自然言語理解(NLU)
しぜんげんごりかい
自然言語理解(NLU)とは、テキストの意味・意図・感情・文脈を機械が理解するNLPの下位分野です。質問応答・感情分析・意図分類の基盤で、BERTの登場により精度が飛躍的に向上しました。
自然言語生成
しぜんげんごせいせい
構造化データや内部表現から自然な文章を生成するNLPの下位分野(NLG)。LLMの文章生成・要約・翻訳の基盤技術。
生成モデル
せいせいモデル
学習データの分布を学習して新しいデータサンプルを生成できる機械学習モデルの総称。LLM・拡散モデル・GANが代表例。
損失関数
そんしつかんすう
モデルの予測値と正解値のズレを数値化する関数。学習の目標(最小化すべき値)を定義し、勾配降下法で最適化する。
次元削減
じげんさくげん
高次元データを情報を保ちながら低次元に圧縮する手法。PCA・t-SNE・UMAPが代表例。可視化や計算効率化に活用。
実験管理
じっけんかんり
MLモデルの学習実験(パラメータ・メトリクス・成果物)を記録・比較・再現するためのMLOps実践。MLflow・Weights & Biasesが代表ツール。
残差接続
ざんさせつぞく
層の入力を出力に直接加算するスキップ接続。勾配消失を防ぎ深いネットワークの学習を安定させる。Transformer・ResNetの基本構造。
正則化
せいそくか
モデルの過学習を防ぐためにL1/L2ペナルティ・Dropout・Weight Decayなどで複雑さを制約する手法の総称。
ソフトマックス関数
ソフトマックスかんすう
複数の実数値を合計1の確率分布に変換する関数。LLMの出力層でトークン確率の計算に使用され、アテンション重みの計算にも応用される。
ゼロショット・プロンプティング
ゼロショットプロンプティング
例示なしでタスク説明のみをプロンプトに与えてLLMに回答させる手法。モデルの汎化能力を活用し、例示の準備コストを省ける。
JSONモード
ジェイソンモード
LLMが必ずJSON形式で出力することを保証するAPI機能。OpenAI・Anthropic・Gemini等が提供し、パース失敗を防ぎシステム連携を安定させる。
出力パーサー
しゅつりょくパーサー
LLMの自然言語出力を構造化データ(JSON・リスト・オブジェクト)に変換するコンポーネント。LangChainのOutputParserが代表例。
セマンティックルーター
セマンティックルーター
ユーザーの入力テキストの意味を分析して、適切な処理パイプライン・プロンプト・エージェントへルーティングするコンポーネント。
Streamlit
ストリームリット
PythonスクリプトでインタラクティブなWebアプリをコード最小限で構築できるフレームワーク。LLMデモ・RAGアプリのプロトタイプ開発に広く使われる。
Gemma
ジェマ
Googleが開発した軽量オープンソースLLM。2B〜27Bのサイズでローカル実行が容易。Geminiと同じ技術基盤を持ちリソース制限環境での活用に適する。
Jupyter Notebook
ジュピター
Webブラウザで動作するインタラクティブなノートブック環境。コード・テキスト・グラフを同一画面で扱え、AIデータサイエンスの標準開発環境。Colabの基盤技術。
GRPO(Group Relative Policy Optimization)
ジーアールピーオー
DeepSeek-R1が採用した強化学習手法。参照モデル不要でグループ内の相対報酬を使い、PPOより効率的にLLMの推論能力を向上させる。
スパースオートエンコーダー(SAE)
スパースオートエンコーダー
LLMの内部表現を解釈可能な特徴に分解するツール。Anthropicが「解釈可能性研究」で活用し、モデルが「何を考えているか」を人間が理解できる概念に変換する。
創発能力(Emergent Abilities)
そうはつのうりょく
モデルが一定規模を超えたときに突然現れる予測外の能力。小規模モデルでは見られなかったタスクが大規模化で突然解けるようになる現象。
セーフティフィルター(安全性フィルター)
セーフティフィルター
LLMの入出力から有害コンテンツ・不適切な表現を検出・除去するシステム。OpenAI Moderation API・Llama Guard等が代表例。コンテンツモデレーションの自動化に使用。
AI for Science(科学のためのAI)
サイエンスむけエーアイ
科学研究の加速にAIを活用する領域。タンパク質構造予測・新薬開発・気候モデリング・材料科学・天文学等で革命的な成果。AlphaFoldやGNWeatherが代表例。
セルフプレイ(Self-Play)
セルフプレイ
AIが自分自身を相手に対戦・競争を繰り返して学習する強化学習手法。AlphaGoがチェスや囲碁で人間を超え、LLMの自己改善トレーニングにも応用される。
スーパーアライメント
スーパーアライメント
スーパーアライメントとは、人間の知的能力を超えるAIシステムを安全に整合させる研究領域で、OpenAIが2023年に専任チームを設置し、AIを使って超知能AIのアライメント問題を自動的に解くことを目指す壮大な取り組みです。
潜在空間
せんざいくうかん
潜在空間とは、ニューラルネットワークが入力データを変換した高次元ベクトル表現の空間で、意味的に似たデータが近い位置に配置される性質を持ち、埋め込み・生成モデル・RAGすべての基盤となる概念です。
スケーラブル監督
スケーラブルかんとく
スケーラブル監督とは、AIが人間の評価能力を超えるタスクをこなすようになったときに正しいフィードバックを与え続けるための研究領域で、議論支援・AIが採点するAIなど、人間の監督能力を拡張する手法を探求します。
GQA(グループクエリアテンション)
ジーキューエー(グループクエリアテンション)
GQAとは、複数のクエリヘッドが少数のキー・バリューヘッドを共有することでKVキャッシュを削減するアテンション効率化手法で、Llama 2・Gemma・Mistralが採用し推論効率を大幅に向上させます。
スライディングウィンドウアテンション
スライディングウィンドウアテンション
スライディングウィンドウアテンションとは、各トークンが近隣の固定ウィンドウ内のトークンのみに注意を向けるアテンション機構で、Mistral 7Bで採用され長文を効率的に処理できます。
センテンストランスフォーマーズ
センテンストランスフォーマーズ
センテンストランスフォーマーズとは、文章・段落を固定長の高品質ベクトルに変換するPythonライブラリで、BERTを双方向エンコーダとして文単位で学習させたSBERTが基盤となり、意味検索・RAG・類似度計算に広く使われます。
自然言語推論(NLI)
じぜんげんごすいろん
自然言語推論(NLI)とは、前提文と仮説文のペアから「含意・矛盾・中立」の関係を判定するNLPの基礎タスクです。LLMの言語理解能力の評価指標として使われ、ファクトチェックや情報抽出にも応用されます。
タ行
69件トークン
トークン
トークンとは、LLMがテキストを処理する最小単位です。単語・部分文字列・文字などに相当し、APIの利用コストや処理できる文章の長さ(コンテキストウィンドウ)はトークン数で計算されます。
Transformer(トランスフォーマー)
トランスフォーマー
Transformerとは、注意機構(Attention)を中核とするニューラルネットワークアーキテクチャです。2017年にGoogleが発表し、現代のLLMや生成AIモデルの基盤として広く採用されています。
ChatGPT(チャットジーピーティー)
チャットジーピーティー
ChatGPTとは、OpenAIが開発した対話型AIサービスです。2022年末の公開後わずか2か月で月間ユーザー1億人を突破し、生成AIブームの起爆剤となりました。
ディープラーニング(深層学習)
ディープラーニング(しんそうがくしゅう)
ディープラーニングとは、多層のニューラルネットワークを使って大量データからパターンを自動学習する機械学習手法です。画像認識・音声処理・自然言語処理など、現代AIの主要応用分野を支えています。
テキストトゥイメージ(Text-to-Image)
テキストトゥイメージ
テキストトゥイメージとは、テキストの説明文(プロンプト)から画像を自動生成するAI技術です。Stable Diffusion・Midjourney・DALL-Eが代表例で、クリエイティブ産業に大きな変革をもたらしています。
テンパラチャー(Temperature)
テンパラチャー
テンパラチャーとは、LLMが出力するトークンの確率分布を調整するパラメータです。値が低いと決定論的・一貫した出力に、高いと多様・創造的な出力になります(0〜2程度)。
トップピー(Top-p / Nucleus Sampling)
トップピー
トップピーとは、出力トークンの選択範囲を累積確率で制御するサンプリング手法(nucleus sampling)です。Temperatureとともにテキスト生成の多様性・質を調整するパラメータです。
トークナイザー
トークナイザー
トークナイザーとは、テキストをLLMが処理できるトークン単位に分割するツール・アルゴリズムです。トークン化の方式がモデルの日本語処理能力やコストに直接影響します。
ツールユース
ツールユース
ツールユースとは、LLMが外部ツール(検索・計算機・APIなど)を呼び出してタスクを完遂する能力と仕組みで、エージェント実装の中核技術です。
音声合成(Text-to-Speech)
テキストトゥスピーチ
音声合成(TTS)とは、テキストを自然な音声に変換するAI技術です。OpenAI TTS・ElevenLabsなどが代表的で、読み上げ・音声AIに活用されます。
転移学習(トランスファーラーニング)
てんいがくしゅう
転移学習とは、既存タスクで学習した知識を別タスクに応用する手法です。LLMのfine-tuningの基盤となる概念で、少ないデータで高い性能を実現できます。
対照学習
たいしょうがくしゅう
対照学習とは、類似サンプルを近づけ、非類似サンプルを遠ざけることで意味のある表現を学習する手法です。CLIPやSimCLRの基盤技術であり、マルチモーダルAIのembeddingに広く活用されています。
データポイズニング
データポイズニング
データポイズニングとは、学習データに悪意あるサンプルを混入させてモデルの挙動を意図的に改ざんする攻撃手法です。AIシステムのセキュリティリスクとして、OWASP LLM Top 10にも挙げられています。
敵対的攻撃
てきたいてきこうげき
敵対的攻撃とは、人間には知覚されにくい微小な摂動をデータに加えてAIモデルを誤分類させる攻撃手法です。画像認識・音声認識・LLMなど幅広いAIシステムの堅牢性に関わる重要なセキュリティ課題です。
DALL-E(ダリ)
ダリ
DALL-Eとは、OpenAIが開発したテキストから高品質な画像を生成するモデルシリーズです。DALL-E 3では自然言語での細かな画像制御が可能になり、ChatGPTやAPIに統合されて広く使われています。
ツリーオブソート(ToT)
ツリーオブソート
ツリーオブソート(Tree of Thoughts)とは、LLMが複数の思考パスを木構造で探索・評価しながら問題を解くプロンプト戦略です。Chain-of-Thoughtの発展形で、複雑な推論・計画タスクで有効です。
ディープフェイク
ディープフェイク
ディープフェイクとは、AIを使って本物と見分けがつかない偽の動画・音声・画像を生成する技術です。詐欺・フィッシング・選挙干渉・非合意的な性的コンテンツ生成などの悪用が社会問題化しています。
チェーンオブデンシティ(CoD)
チェーンオブデンシティ
チェーンオブデンシティ(Chain of Density)とは、要約の情報密度を段階的に高めながら情報損失を最小化する要約プロンプト手法です。GPT-4で有効性が実証され、高品質な要約生成の実践的テクニックとして注目されています。
投機的デコーディング
とうきてきデコーディング
投機的デコーディングとは、小型モデルで候補トークンを先読みし、大型モデルで検証することで推論速度を大幅に向上させる技術です。出力品質を保ちながらレイテンシを削減できます。
データアノテーション
データアノテーション
データアノテーションとは、機械学習の学習データに対して人間がラベル・タグ・説明などの正解情報を付与する作業です。AIモデルの品質に直結する重要なプロセスで、RLHFでは人間の好みを学習させるための比較評価が中心です。
CNN(畳み込みニューラルネットワーク)
たたみこみニューラルネットワーク
CNNとは、局所フィルタ(畳み込み層)を使って画像の特徴を階層的に抽出するニューラルネットワークです。画像分類・物体検出の主要アーキテクチャで、VisionTransformerへの移行後も医療・製造分野で広く使われています。
TPU(テンソル処理ユニット)
ティーピーユー
TPUとは、Googleが開発したAI推論・学習専用のカスタムASIC(Tensor Processing Unit)です。行列演算を特化設計で高効率に処理し、GPUと比較してGoogle規模のLLM学習に大きなコスト・速度優位があります。
ドキュメントAI
ドキュメントエーアイ
ドキュメントAIとは、PDF・画像・スキャン文書のOCR・レイアウト解析・情報抽出・分類を自動化するAI技術です。Google Document AIやAzure Form Recognizerが代表例で、請求書・契約書・申請書処理の自動化に活用されます。
DPO(直接選好最適化)
ディーピーオー
DPO(Direct Preference Optimization)とは、人間の好みデータから直接ポリシーを最適化するアライメント手法です。強化学習不要でRLHFより安定した学習が可能で、LLMのfine-tuningで広く採用されています。
Text-to-SQL
テキストトゥーエスキューエル
Text-to-SQLとは、自然言語の質問をSQLクエリに自動変換するNLPタスクです。データベースへの自然言語インターフェースを実現し、非エンジニアがデータを直接質問できる「データ民主化」ツールとして注目されています。
チャットボット
チャットボット
チャットボットとは、テキストや音声で人間と自動的に会話するソフトウェアです。ChatGPTの登場でLLMベースの高精度チャットボットが急速に普及し、カスタマーサポート・社内ヘルプデスク・教育など幅広い場面で活用されています。
データセット
データセット
データセットとは、AI・機械学習モデルの学習・評価に使う構造化されたデータの集合です。品質・量・多様性がモデル性能に直結し、ImageNet・Wikipedia・Common Crawlなどが代表的なデータセットです。
データサイエンス
データサイエンス
統計・機械学習・データエンジニアリングを組み合わせてデータから価値を引き出す学際的な分野。AI・ML開発の基盤となるスキルセット。
テキスト生成
テキストせいせい
LLMがプロンプトに基づいて文章・記事・コード・詩等を自動生成する機能。生成AIの最も基本的なアウトプット形式。
動画生成
どうがせいせい
テキストや画像を入力としてAIが動画を自動生成する技術。Sora・Runway・Pika等が代表例。エンタメ・広告制作を変えつつある。
チェーン・オブ・ソート・プロンプティング
チェーンオブソートプロンプティング
「ステップバイステップで考えてください」等の指示でLLMの推論過程を引き出すプロンプト手法。CoTの実践的応用。
トークン制限
トークンせいげん
APIリクエストごとの最大トークン数(入力+出力)の上限値。コスト管理と長文処理の設計に直結する制約。
デジタルツイン
デジタルツイン
物理的な物体・プロセス・システムをリアルタイムでシミュレートする仮想モデル。AIと組み合わせて製造・都市・医療で活用される。
データ拡張
データかくちょう
既存学習データに反転・回転・クロップ・ノイズ付加等の変換を加えてデータ量を人工的に増やす手法。過学習防止に有効。
特徴量エンジニアリング
とくちょうりょうエンジニアリング
機械学習モデルの性能を高めるために生データから有用な入力変数(特徴量)を設計・選択・変換するプロセス。
Top-K サンプリング
トップケーサンプリング
LLMのテキスト生成時に次トークン候補を確率上位K個に絞って選択するサンプリング手法。temperatureやtop-pと組み合わせて多様性と品質を制御する。
データパイプライン
データパイプライン
データの収集・クレンジング・変換・保存・配信を自動化する一連のプロセス。AI/MLシステムの学習・推論データ供給を担う。
ドロップアウト
ドロップアウト
学習時にランダムにニューロンを無効化して過学習を防ぐ正則化手法。推論時は全ニューロンを使用し重みをスケール調整する。
TTS(テキスト音声合成)
ティーティーエス(テキストおんせいごうせい)
テキストを音声に変換する技術(Text-to-Speech)。OpenAI TTS・ElevenLabs・Google Cloud TTS等が代表で、自然な発話品質でAIアシスタントに不可欠。
ドキュメントQ&A
ドキュメントキューアンドエー
PDFや文書ファイルをアップロードしてLLMに質問できるシステム。RAGを活用してドキュメント内の情報を根拠として回答を生成する。
チャットメモリ
チャットメモリ
会話履歴を保持・管理してLLMに過去の文脈を提供する仕組み。短期メモリ(会話内)・長期メモリ(DB永続化)の2種類がある。
DSPy
ディーエスパイ
LLMパイプラインをプログラムで最適化するフレームワーク(Declarative Self-improving Language Programs)。プロンプトを手動チューニングせず自動最適化する。
Dify
ディファイ
LLMアプリ開発プラットフォーム。RAGパイプライン・エージェント・プロンプト管理・モニタリングをGUIで構築でき、オープンソース版も提供。
TruLens
トゥルーレンズ
LLMアプリの評価・フィードバック収集・監視を行うオープンソースツール。RAGトライアドやカスタム評価指標でLLM出力の品質を自動計測。
Together AI
トゥゲザーエーアイ
オープンソースLLMのクラウド推論API。Llama・Mistral・Qwen等を低コストで利用でき、ファインチューニングサービスも提供。
TensorFlow
テンソルフロー
Googleが開発したオープンソースのMLフレームワーク。Keras統合による使いやすさと本番デプロイの実績が強み。PyTorchと並ぶDL開発の2大フレームワーク。
DeepSeek
ディープシーク
中国のDeepSeek社が開発したオープンソースLLM。DeepSeek-R1はOpenAI o1に匹敵する推論性能を低コストで実現し、2025年初頭にAI業界に衝撃を与えた。
テストタイムコンピュート
テストタイムコンピュート
モデルの推論時(テスト時)に計算量を増やすことで精度を向上させる手法。OpenAI o1やDeepSeek-R1が採用し、「考える時間」を与えることで難問を解く能力を高める。
Transformers(Hugging Faceライブラリ)
トランスフォーマーズライブラリ
Hugging Faceが開発したPythonライブラリ。数千のLLM・画像・音声モデルを数行のコードで利用でき、AI開発の事実上の標準ライブラリ。Fine-tuningやPipeline APIが特に人気。
Chain-of-Verification(CoVe)
チェーンオブベリフィケーション
LLMが生成した回答を自己検証するプロンプト技術。回答生成後に検証質問を作り、各項目を独立して確認することでハルシネーションを減らす手法。
TinyML
タイニーエムエル
マイクロコントローラー等の極小デバイス上でMLモデルを実行する技術。TensorFlow Lite・Edge Impulseが代表的。農業センサー・医療機器・ウェアラブルへのAI実装を可能にする。
知識カットオフ(Knowledge Cutoff)
ちしきカットオフ
LLMの学習データが収集された最終日時。それ以降の出来事はモデルが知らない。RAGやWeb検索で補完され、ユーザーがAIを使う際に必ず意識すべき重要な制約。
テキスト→3D生成(Text-to-3D)
テキストツースリーディー
テキストや画像から3Dモデル・シーンを生成するAI技術。DreamFusion・Point-E・Shap-Eが代表例。ゲーム開発・製品デザイン・建築分野での活用が期待される。
ディフュージョンポリシー
ディフュージョンポリシー
ディフュージョンポリシーとは、ロボット制御に拡散モデルを応用した手法で、人間のデモンストレーションから複雑な操作スキルを学習でき、ロボット工学とAIの融合を代表する注目技術です。
ツール拡張生成
ツールカクチョウセイセイ
ツール拡張生成とは、LLMが外部ツール(電卓・検索・コード実行等)を呼び出して回答を生成するアーキテクチャで、RAGを超えた能動的な情報取得・処理が可能で、ReActフレームワークが代表的です。
トークンエコノミクス
トークンエコノミクス
トークンエコノミクスとは、LLM APIの利用コストをトークン単価・入出力比・キャッシュ効率で最適化する考え方で、プロンプト設計・モデル選択・バッチ処理戦略がROIに直結するビジネス重要概念です。
データフライホイール
データフライホイール
データフライホイールとは、ユーザーが使えば使うほどデータが蓄積しモデルが改善され更に多くのユーザーが集まる好循環で、AIプロダクトの競争優位の源泉です。ChatGPT・Copilotが典型例です。
データキュレーション
データキュレーション
データキュレーションとは、LLM学習のためにデータを体系的に収集・選別・クリーニング・品質評価する工程で、FineWebやRedPajamaなどの高品質コーパス構築で重要性が増し、「データの質がモデル性能を左右する」ことが広く認識されています。
多言語LLM
たげんごエルエルエム
多言語LLMとは複数言語で学習・推論できるLLMで、mBERT・XLM-R・Ayaが代表的。日本語特化モデルにはSwallow・Tanukiがあり、言語間転移学習により少数言語でも高い性能を発揮します。
チェーンオブコード
チェーンオブコード
チェーンオブコードとは、LLMがコードを記述・実行することで推論を行う手法で、数値計算・データ処理・論理演算をコードで正確に解き、プログラム実行結果を答えに組み込むことでCoTの計算ミスや論理の曖昧さを補います。
ドキュメントグラウンディング
ドキュメントグラウンディング
ドキュメントグラウンディングとは、LLMが回答を特定のドキュメント・ソースに基づかせ、引用元を示す技術で、ハルシネーション防止と回答の検証可能性向上を目的とした企業RAGシステムの信頼性確保に不可欠な手法です。
テーブル型LLM
テーブルがたエルエルエム
テーブル型LLMとは、表形式データ(CSV・データベース・スプレッドシート)を理解・操作するLLM技術で、Text-to-SQL・表の質問応答・構造データ分析が含まれ、企業データ活用において重要な役割を担います。
長文生成
ちょうぶんせいせい
長文生成とは、LLMが書籍・報告書・技術文書など数千〜数万トークンの長いコンテンツを一貫性を保ちながら生成する技術で、アウトライン生成・段階的執筆・一貫性維持が主な課題です。
チャットテンプレート
チャットテンプレート
チャットテンプレートとは、各LLMが期待する会話フォーマットをJinjaテンプレートで定義する仕組みで、システム・ユーザー・アシスタントのロールを特殊トークンで区切り、正確なトークン化を保証します。
トークンストリーミング
トークンストリーミング
トークンストリーミングとは、LLMが生成したトークンを完了を待たずにリアルタイムで順次クライアントに送信する技術で、ChatGPT・Claude等のチャットUIで採用され体感レイテンシを大幅に改善します。
ツールユースパターン
ツールユースパターン
ツールユースパターンとは、LLMが外部APIやコード実行・検索などのツールを呼び出す設計パターンで、Function CallingやAnthropic Tool Useを通じてLLMの能力を実世界の操作へ拡張します。
テキスト分類
テキスト分類
テキスト分類とは、テキストをカテゴリに自動分類するNLPの基本タスクで、感情分析・スパム検出・トピック分類・意図認識などが含まれ、BERTベースモデルからLLMまで多様な手法が使われます。
トークンバジェット
トークンバジェット
トークンバジェットとは、LLMアプリケーションで使用できるトークン数の上限を管理する概念で、プロンプト・応答・コンテキストのトークン配分を最適化しコスト制御とコンテキスト枯渇防止を実現する設計手法です。
動画言語モデル(Video LLM)
どうがげんごモデル
動画言語モデル(Video LLM)とは、動画を入力として理解・分析・質問応答できるマルチモーダルLLMです。フレーム抽出と時系列理解が核心技術で、教育・監視・コンテンツ解析に活用されています。
ナ行
11件ニューラルネットワーク
ニューラルネットワーク
ニューラルネットワークとは、人間の脳の神経回路(ニューロン)を模倣した計算モデルです。入力層・隠れ層・出力層からなる層状の構造で、機械学習・ディープラーニングの基礎をなします。
ネガティブプロンプティング
ネガティブプロンプティング
ネガティブプロンプティングとは、生成したくない要素を明示的に指定することでAI出力の品質・方向性を制御するプロンプト技法です。画像生成AI(Stable DiffusionやDALL-E)で特に多用され、不要な要素を除外できます。
ナレッジグラフ
ナレッジグラフ
ナレッジグラフとは、エンティティ(人・場所・概念)とその関係性をグラフ構造で表現した知識ベースです。Google Knowledge GraphやWikidataが代表例で、GraphRAGの基盤技術として生成AIとの連携が進んでいます。
能動学習
のうどうがくしゅう
能動学習とは、モデルが最も学習効果の高いサンプルを自ら選択してラベル付けを依頼する、効率的なデータ収集・学習手法です。アノテーションコストを最小化しながら性能を最大化します。
ナレッジベース
ナレッジベース
組織や製品の情報を構造化して蓄積・検索可能にしたデータベース。RAGシステムの情報源として活用。
ノーコードAI
ノーコードエーアイ
プログラミング不要でAI機能を構築・活用できるツール・プラットフォーム。Make・Zapier・Difyが代表例。非エンジニアのAI活用を加速。
ニューラルアーキテクチャ探索
ニューラルアーキテクチャたんさく
最適なニューラルネットワーク構造を自動的に探索するAI技術(NAS)。人間によるアーキテクチャ設計を自動化する。
能力引き出し(ケイパビリティ・エリシテーション)
ノウリョクヒキダシ(ケイパビリティ・エリシテーション)
能力引き出しとは、LLMが潜在的に持つ能力を最大限に引き出すプロンプト・手法を探る研究領域で、Few-shot・CoT・ツール使用等で隠れた能力が現れることがありフロンティアモデル評価に重要です。
ニューラルスケーリング
ニューラルスケーリング
ニューラルスケーリングとは、モデルサイズ・データ量・計算量を増やすと予測可能な形で性能が向上する法則の実証的研究で、Chinchilla法則がパラメータとデータの最適比率を示しLLM開発の指針となっています。
ナレッジ編集
ナレッジ編集
ナレッジ編集とは、再学習なしでLLMが持つ特定の事実的知識を標的型に修正・追加・削除する技術で、ROME・MEMITが代表的手法として知られています。
NeRF(ニューラルラジアンスフィールド)
ニューラルラジアンスフィールド
NeRFとは、複数の2D画像からニューラルネットワークで3Dシーンを暗黙的に表現する技術です。新視点からのレンダリングを可能にし、3D生成・AR/VR・ロボティクスに応用されています。
ハ行
69件プロンプト
プロンプト
プロンプトとは、AIモデルに対して送る入力テキストの総称です。AIへの「指示書」にあたり、プロンプトの書き方次第で出力の品質が大きく変わります。
ファインチューニング
ファインチューニング
ファインチューニングとは、事前学習済みの大規模モデルを特定タスク・ドメインのデータで追加学習し、その領域の性能を向上させる技術です。
ハルシネーション(幻覚)
ハルシネーション(げんかく)
ハルシネーションとは、LLMが事実と異なる情報をもっともらしく生成する現象です。自信満々に嘘をつくため、出力の事実確認が必須となります。
Few-shot学習
フューショットがくしゅう
Few-shot学習とは、プロンプト内に少数の入出力例(ショット)を示すことでLLMに望ましい回答形式・スタイルを学ばせる技法です。追加学習なしに出力の品質を向上できます。
プロンプトエンジニアリング
プロンプトエンジニアリング
プロンプトエンジニアリングとは、LLMから望ましい出力を引き出すためにプロンプトを体系的に設計・最適化するスキルと技術体系です。モデルの再学習なしに性能を向上させる方法です。
Function Calling(ツール呼び出し)
ファンクションコーリング(ツールよびだし)
Function Callingとは、LLMがユーザーの意図を解釈し、定義済みの関数(外部API・DBなど)を適切なパラメータで呼び出す指示を返す機能です。AIと外部システムを連携させる基盤技術です。
ベクトルDB(ベクトルデータベース)
ベクトルデータベース
ベクトルDBとは、エンベディング(ベクトル)を効率的に格納・検索するために設計されたデータベースです。RAGシステムの中核として、意味的に類似した情報を高速に取り出せます。
バイアス(AIバイアス)
バイアス(エーアイバイアス)
AIバイアスとは、AIモデルの訓練データや設計に内在する偏りによって、特定の属性(性別・人種・年齢等)に対して不公平な出力が生じる問題です。
評価指標(BLEU / ROUGE)
ひょうかしひょう(ブルー / ルージュ)
BLEUとROUGEとは、AIが生成したテキストの品質を自動評価するための代表的な指標です。参照テキストとの一致度を数値化し、翻訳・要約・対話システムの性能比較に使われます。
ベンチマーク
ベンチマーク
ベンチマークとは、AIモデルの性能を測定・比較するための標準化されたテストセットです。MMLUやHumanEvalなど様々なベンチマークが存在し、モデル選定の指標として活用されます。
プロンプトインジェクション
プロンプトインジェクション
プロンプトインジェクションとは、悪意ある入力をプロンプトに埋め込みAIの動作を乗っ取る攻撃です。OWASP LLM Top 10で最重要リスク(LLM01)に挙げられています。
パラメーター
パラメーター
パラメーターとは、ニューラルネットワークが学習によって調整する内部変数(重みとバイアス)の総称で、モデルの規模はB(十億)やT(兆)の単位で表します。
Hugging Face(ハギングフェイス)
ハギングフェイス
Hugging Faceとは、事前学習済みモデルやデータセットの公開・共有・活用を支援するAIプラットフォームで、オープンソースAI開発のハブとして機能しています。
プロンプトキャッシング
プロンプトキャッシング
プロンプトキャッシングとは、繰り返し使うプロンプト部分をサーバー側でキャッシュしてAPIコストと遅延を削減する機能です。長いシステムプロンプトや共通コンテキストに効果的です。
VRAM
ブイラム
VRAMとはGPU上の専用メモリ(Video RAM)で、LLMの推論・学習時にモデルの重みを保持するために必要です。容量がモデルサイズの実行可能性を決定します。
プライバシー(AI文脈)
プライバシー
AIにおけるプライバシーとは、AIの学習・推論過程における個人情報の保護を指します。学習データへの無断利用や推論時の情報漏洩が主要リスクで、適切な対策が求められます。
ビジョン言語モデル(VLM)
ビジョンげんごモデル
ビジョン言語モデル(VLM)とは、画像とテキストの両方を入力・出力できるマルチモーダルAIモデルです。GPT-4V、Gemini、Claudeなどが代表例で、画像の理解・説明・分析に活用されます。
BERT(バート)
バート
BERTとは、Googleが2018年に開発した双方向Transformerエンコーダモデルです。文脈を左右両方向から読む設計で高精度な自然言語理解(NLU)を実現し、多くのNLPタスクで当時の最高性能を記録しました。
PEFT(パラメータ効率的ファインチューニング)
ペフト
PEFTとは、モデルの全パラメータを更新せず一部のみを調整して効率的にfine-tuningする手法群(Parameter-Efficient Fine-Tuning)です。LoRA・Adapter・Prefix Tuningが代表例で、少ないGPUリソースで大規模モデルを適応できます。
プロンプトチューニング
プロンプトチューニング
プロンプトチューニングとは、モデルの重みを固定したまま、学習可能なソフトプロンプト(連続ベクトル)を入力の先頭に付加してタスクを適応させるPEFT手法です。人間が書く固定テキストのプロンプトと異なり、勾配で最適化されます。
パープレキシティ(PPL)
パープレキシティ
パープレキシティ(Perplexity)とは、言語モデルがテキストをどれだけうまく予測できるかを測る評価指標です。PPLと略され、値が低いほど性能が高いことを示します。モデルの事前学習品質評価の基本指標です。
ハイブリッド検索
ハイブリッドけんさく
ハイブリッド検索とは、キーワード検索(BM25等)とベクトル検索(セマンティック検索)を組み合わせてRAGの検索精度を高める手法です。両方の強みを活かし、固有名詞や専門用語も意味的なクエリも高精度に処理できます。
報酬モデル
ほうしゅうモデル
報酬モデルとは、人間の好みや評価基準を学習してLLMの出力にスコア(報酬)を付けるモデルです。RLHFの中核コンポーネントで、ChatGPTやClaudeなどの高品質な対話AIの訓練に不可欠です。
プロンプト圧縮
プロンプトあっしゅく
プロンプト圧縮とは、長いプロンプトから重要な情報を保ちつつトークン数を削減してAPIコストと遅延を改善する技術です。LLMLinguaが代表的なツールで、RAGの検索結果などの冗長なテキストを圧縮します。
バイアス軽減
バイアスけいげん
バイアス軽減とは、AIモデルの性別・人種・文化的バイアスを検出・低減するための技術的・手続き的アプローチです。公平なAIの実現に向け、データ収集から評価・デプロイまで各フェーズでの対策が必要です。
ハイパーパラメータ
ハイパーパラメータ
ハイパーパラメータとは、学習前に人間が設定するモデル外部のパラメータです(学習率・バッチサイズ・エポック数・レイヤー数等)。モデルの性能に大きく影響し、AutoMLや手動チューニングで最適値を探索します。
Phi(ファイ)
ファイ
Phiとは、Microsoftが開発する小型高性能LLMシリーズです。高品質な合成データで訓練することでGPT-3.5相当の性能を大幅に小さいパラメータ数で実現し、「小さなモデルでも良いデータがあれば賢くなれる」を証明しました。
物体検出
ぶったいけんしゅつ
物体検出とは、画像内の複数の物体を矩形(バウンディングボックス)で位置検出しながら同時にクラス分類するコンピュータビジョンタスクです。YOLOシリーズが代表的で、自動運転・監視カメラ・小売業で広く活用されています。
FlashAttention
フラッシュアテンション
FlashAttentionとは、TransformerのAttention計算をGPUメモリ階層を考慮して最適化し、速度向上とメモリ削減を実現するアルゴリズムです。ほぼすべての現代LLMの学習・推論に採用されている重要な基盤技術です。
ヒューマンインザループ
ヒューマンインザループ
ヒューマンインザループとは、AIの判断プロセスに人間が介在して確認・修正・承認を行う設計パターンです。高リスクな判断・低信頼度ケースで品質と安全性を担保するAI運用の重要な原則です。
プロンプトチェーニング
プロンプトチェーニング
プロンプトチェーニングとは、複数のプロンプトを連鎖させ前のLLM出力を次のプロンプトの入力として活用することで複雑なタスクを段階的に処理する手法です。エージェントワークフローの基本パターンの一つです。
ViT(ビジョントランスフォーマー)
ビジョントランスフォーマー
ViT(Vision Transformer)とは、画像をパッチに分割してTransformerで処理する画像認識アーキテクチャです。CNNを超える性能を示し、GPT-4VやGeminiなどマルチモーダルモデルのビジュアルエンコーダーの基盤技術となっています。
PPO(近接方策最適化)
ピーピーオー
PPO(Proximal Policy Optimization)とは、方策の更新幅をクリッピングで制限して安定した学習を実現する強化学習アルゴリズムです。ChatGPTやClaudeのRLHF訓練に広く採用されてきましたが、近年はDPOへの移行も進んでいます。
分類(クラシフィケーション)
ぶんるい
分類とは、入力データを事前定義されたカテゴリに振り分ける機械学習の基本タスクです。スパムフィルタ・感情分析・画像認識・医療診断など最も広く使われるAI応用の基盤であり、2値分類と多クラス分類があります。
パーソナライゼーション
パーソナライゼーション
ユーザー個々の好み・行動・属性に合わせてAIがコンテンツ・UI・提案を最適化する技術。ECサイト・メディア・教育で広く活用。
プロンプトテンプレート
プロンプトテンプレート
変数プレースホルダーを含む再利用可能なプロンプトの雛形。LangChainやSDKで管理・バージョン管理して品質を標準化。
ハルシネーション検出
ハルシネーションけんしゅつ
LLMが生成した回答の事実確認・信頼度評価を自動で行いハルシネーションを検出する技術・手法。
ベクトル検索
ベクトルけんさく
テキスト・画像をベクトル化してコサイン類似度等で意味的に近いデータを高速検索する技術。RAGの中核コンポーネント。
フューショット・プロンプティング
フューショットプロンプティング
プロンプト内に少数の入出力例(ショット)を示すことでLLMの出力形式や推論を誘導するプロンプト手法。
ビームサーチ
ビームサーチ
複数の候補シーケンス(ビーム)を並行して保持しながら最も確率の高い出力を探索するデコーディング戦略。翻訳・要約で広く使用される。
BPE(バイト対符号化)
ビーピーイー(バイトついふごうか)
テキストを頻出サブワード単位に分割するトークン化手法(Byte Pair Encoding)。GPTシリーズやLlamaなど主要LLMで採用されている。
フロンティアモデル
フロンティアモデル
現時点で最先端の能力を持つ大規模AIモデル。GPT-4・Claude 3・Gemini Ultraが該当し、能力・リスク両面で国際的な規制議論の焦点となっている。
バッチ正規化
バッチせいきか
ミニバッチ単位で各層の入力を正規化してニューラルネットワークの学習を安定・高速化する手法。Transformerではレイヤー正規化が主流。
フューショットテンプレート
フューショットテンプレート
入出力例を含む構造化されたプロンプトの再利用可能な雛形。一貫した出力品質を保ちながらLLMに特定のタスクパターンを教示する。
並列ツール使用
へいれつツールしよう
LLMエージェントが複数のツール呼び出しを同時並行で実行する機能。依存関係のない処理を並列化してレイテンシを削減する。
ファンクションスキーマ
ファンクションスキーマ
LLMのFunction Calling・Tool Useで使用するJSON Schema形式の関数定義。関数名・パラメータ・説明を記述し、モデルが適切に呼び出せるよう設計する。
Prompt Flow
プロンプトフロー
LLMアプリケーションの開発・テスト・評価・デプロイを視覚的に管理するフレームワーク。Microsoft Prompt FlowやAzure AI Studioで提供。
vLLM
ブイエルエルエム
PagedAttentionを採用した高スループットLLM推論ライブラリ。OpenAI互換APIサーバーを提供し、本番環境でのLLMサービングに広く使われる。
Vertex AI
バーテックスエーアイ
GoogleのフルマネージドMLプラットフォーム。Gemini・Claude・Llama等のモデルをAPI経由で利用でき、ファインチューニング・評価・デプロイを統合管理。
Hugging Face Hub
ハギングフェイスハブ
オープンソースのAIモデル・データセット・Spaceを共有するプラットフォーム。70万以上のモデルを無料で公開・利用でき、AI界のGitHubと呼ばれる。
Pinecone
パインコーン
クラウドネイティブなベクターデータベースサービス。高速なセマンティック検索とRAGのインフラとして広く採用されている代表的なVector DB。
Flowise
フローワイズ
LangChainをベースにしたノーコードのAIフローエディタ。ドラッグ&ドロップでRAG・エージェント・チャットボットを視覚的に構築できるオープンソースツール。
Promptfoo
プロンプトフー
LLMプロンプトとモデルの自動テスト・評価CLIツール。複数モデルの比較・回帰テスト・セキュリティテストをCI/CDに組み込める。
Pydantic
パイダンティック
Pythonの型アノテーションを活用したデータ検証・シリアライゼーションライブラリ。LLMアプリでのスキーマ定義・出力検証・API入力バリデーションに広く使われる。
FastAPI
ファストエーピーアイ
Pythonの高速WebAPIフレームワーク。型ヒントとPydanticを活用した自動スキーマ生成・OpenAPI対応でLLMアプリのAPIサーバー構築に多用される。
PyTorch
パイトーチ
Facebookが開発したPythonベースのディープラーニングフレームワーク。直感的なAPIと動的計算グラフで研究者・開発者に広く使われ、LLM開発の標準的な基盤。
プロンプトリーキング
プロンプトリーキング
システムプロンプトや隠れた指示をユーザーが巧みな質問や攻撃によって引き出してしまう脆弱性。企業秘密の漏洩やセキュリティリスクにつながる。
Vibe Coding(バイブコーディング)
バイブコーディング
AIに自然言語で指示しコードを書かせる開発スタイル。Andrej Karpathyが2025年に提唱。技術的詳細よりも「何を作りたいか」の意図をAIに伝えることで素早くプロトタイプを実現する。
プロンプト最適化(Prompt Optimization)
プロンプトさいてきか
LLMを使って自動的により良いプロンプトを探索・生成する技術。DSPy・APEなどのフレームワークが代表的。手動チューニングより効率的に高精度プロンプトを実現。
ベンチマーク汚染(Benchmark Leakage)
ベンチマークおせん
LLMの評価に使うテストデータが事前学習データに含まれてしまう問題。評価結果が実力よりも過大評価され、ベンチマークの信頼性を損なう深刻な課題。
Hugging Face Spaces
ハギングフェイススペーシス
Hugging Faceが提供する無料AIデモホスティングプラットフォーム。Gradio・StreamlitアプリをGPU付きで公開でき、AIデモの発表場所として広く活用されている。
ファンクションアズアサービス
ファンクションアズアサービス
ファンクションアズアサービス(FaaS)とは、AIエージェントがサーバーレス関数をツールとして動的に呼び出すパターンで、AWS Lambda・Vercel Functions等を組み合わせてスケーラブルなエージェントシステムを構築します。
プレフィックスチューニング
プレフィックスチューニング
プレフィックスチューニングとは、学習可能な連続ベクトル(プレフィックス)をトランスフォーマーの各層に追加してタスク適応するパラメータ効率的な手法で、LoRA登場前に主流だったPEFT手法のひとつです。
プロセス報酬モデル(PRM)
プロセスほうしゅうモデル
プロセス報酬モデルとは、最終回答だけでなく推論の各ステップを評価する報酬モデルで、数学・コーディング・論理推論においてLLMの精度を大幅に向上させます。
プロンプト感度
プロンプトかんど
プロンプト感度とは、LLMの出力がプロンプトの小さな変化に対して大きく変動する現象で、語順・句読点・例示の違いで結果が劇的に変わることがあり、本番システムの安定性評価で重要な指標です。
バッチ推論
バッチ推論
バッチ推論とは、複数のリクエストをまとめてLLMに処理させスループットを最大化する技術で、大量文書処理・評価・データ生成に使用され、OpenAI・Anthropic共にバッチAPIを提供しています。
深さの混合(MoD)
ふかさのこんごう
深さの混合(MoD)とは、トランスフォーマーの各層でトークンの処理を動的にスキップする適応計算手法で、重要トークンのみ深い層を通過させることで計算量を削減しながら性能を維持します。
ビジュアルグラウンディング
ビジュアルグラウンディング
ビジュアルグラウンディングとは、自然言語の表現が指す画像内の領域・物体を特定するタスクで、「赤い車の左にある木」のような参照表現から画像内の対応領域を見つけ、マルチモーダルモデルとロボティクスで重要です。
フローマッチング
フローマッチング
フローマッチングとは、確率的フローを使ってノイズからデータへの変換経路を直接学習する生成モデル技術です。DDPMより学習が安定し、少ないステップで高品質な生成が可能で、Stable Diffusion 3・Fluxなど最新モデルに採用されています。
マ行
36件マルチモーダル
マルチモーダル
マルチモーダルとは、テキスト・画像・音声・動画など複数の入出力形式(モダリティ)を扱えるAIモデルの特性です。GPT-4oやGeminiが代表例です。
マルチエージェント
マルチエージェント
マルチエージェントとは、複数のAIエージェントが役割を分担・連携して複雑なタスクを解決するシステムアーキテクチャです。単一エージェントでは困難な並列処理や専門分化が可能になります。
MCP(モデルコンテキストプロトコル)
モデルコンテキストプロトコル
MCPとは、Anthropicが策定したAIとツール・データソースを標準的に接続するオープンプロトコルで、エージェントがさまざまな外部サービスを統一的に利用できるようにします。
MoE(Mixture of Experts)
ミクスチャーオブエキスパーツ
MoEとは、モデルの一部(専門家サブネット)だけを選択的に活性化する効率的なアーキテクチャです。Mixtral・GPT-4などが採用し、大規模化と計算効率を両立します。
モデルカード
モデルカード
モデルカードとは、AIモデルの用途・性能・限界・倫理的考慮事項を記述した透明性文書です。Googleが2019年に提唱し、Hugging Faceでの標準ドキュメントとして普及しています。
モデルマージ
モデルマージ
モデルマージとは、複数のfine-tunedモデルの重みを統合して、それぞれの能力を組み合わせた新モデルを作る手法です。追加学習なしで異なる専門能力を持つモデルを融合でき、Hugging Faceコミュニティで広く活用されています。
マルチモーダル生成
マルチモーダルせいせい
マルチモーダル生成とは、テキスト・画像・音声・動画など複数のモダリティを同時に入出力するAIシステムの生成能力です。GPT-4oやGeminiが対応しており、単一モデルで複合的なコンテンツを生成できます。
マルチモーダルRAG
マルチモーダルラグ
マルチモーダルRAGとは、テキストに加えて画像・表・図・音声などの複数モダリティを含む文書を検索・活用するRAG拡張手法です。PDF・プレゼンテーション・製品カタログなどの複合文書処理に有効です。
Mistral
ミストラル
Mistralとは、フランスのMistral AIが開発するオープンソースLLMシリーズです。Mistral 7BとMixtral 8x7Bが高い性能効率比で注目を集め、MoEアーキテクチャを採用した欧州発の主要オープンソースモデルです。
モデルサービング
モデルサービング
モデルサービングとは、学習済みモデルをAPI経由で提供するインフラ・システムです。vLLM・TGI(Text Generation Inference)・Tritonなどがバッチ処理・メモリ管理・スケーリングを最適化したLLM向けフレームワークとして普及しています。
モデル選定
モデルせんてい
タスク・コスト・精度・レイテンシ等の要件に基づいて最適なAIモデルを選択するプロセス。LLMリーダーボードやベンチマークを参照。
マルチタスク学習
マルチタスクがくしゅう
複数の関連タスクを同時に学習することで汎化性能・データ効率・表現力を向上させる機械学習手法。
モデル剪定
モデルせんてい
ニューラルネットワークの重要度の低い重みや層を除去して、精度を保ちながらモデルサイズを削減する圧縮技術。
モデルレジストリ
モデルレジストリ
学習済みモデルのバージョン管理・メタデータ記録・デプロイ状態管理を行うMLOpsの中核コンポーネント。MLflow Model Registry等が代表。
マルチヘッドアテンション
マルチヘッドアテンション
異なる表現空間で並列にアテンションを計算することで多様な依存関係を同時に捉えるTransformerの中核機構。
モデル蒸留
モデルじょうりゅう
大規模モデル(教師)の知識を小規模モデル(生徒)に転移する技術。知識蒸留の実践的応用でモデル軽量化に使用される。
Mistral AI
ミストラルエーアイ
フランスのAI企業。Mistral 7B・Mixtral・Mistral Largeを開発し、オープンソースと商用モデルを並行提供するEU発のLLM企業。
Milvus
ミルバス
大規模ベクター検索に特化したオープンソースのベクターデータベース。10億スケールの検索に対応し、Zillizがクラウドサービスを提供。
モデルコラプス(モデル崩壊)
モデルコラプス
AIが生成した合成データのみで学習を繰り返すと、モデルの多様性が失われて品質が劣化する現象。人間が生成した本物のデータの重要性を示すリスク概念。
モデル並列(Model Parallelism)
モデルへいれつ
単一GPUに収まらない超大規模モデルを複数GPUに分割して学習・推論する技術。テンソル並列・パイプライン並列・シーケンス並列など複数の手法がある。
メタプロンプティング
メタプロンプティング
LLM自身に他のタスク用プロンプトを生成・改善させる手法。プロンプトエンジニアリングを自動化し、人手では思いつかないような効果的なプロンプトを発見できる。
モデル圧縮(Model Compression)
モデルあっしゅく
大規模モデルを小型・高速化する技術群の総称。量子化・プルーニング・知識蒸留・低ランク近似を含み、エッジデバイスや低コスト環境でのAI実行を可能にする。
マルチモーダルエンベディング
マルチモーダルエンベディング
テキスト・画像・音声など異なるモダリティを同一ベクトル空間に埋め込む技術。CLIPが代表例で、テキストと画像の意味的類似性計算・クロスモーダル検索に活用。
Mixture of Agents(MoA)
ミクスチャーオブエージェンツ
複数の異なるLLMを並列実行し、それぞれの回答を集約して最終回答を生成するアーキテクチャ。単一モデルより高精度な回答を実現し、Together AIが提唱。
モデルスペック
モデルスペック
モデルスペックとは、AIモデルの価値観・行動方針・優先順位を詳細に定めた仕様書で、Anthropicが2024年に公開したClaude's Model Specが代表例として、AIの意思決定基準を透明化する試みです。
モデル評価(Evals)
モデルヒョウカ(イーバルズ)
モデル評価(Evals)とは、LLMの能力・安全性・有害性を体系的に測定するテスト手法で、MMLU・HumanEval・TruthfulQA等のベンチマーク群と独自evalセットを組み合わせてモデルの総合性能を評価します。
メカニスティック解釈可能性
メカニスティックかいしゃくかのうせい
メカニスティック解釈可能性とは、ニューラルネットワークの内部動作をアルゴリズムレベルで解明しようとする研究分野で、回路・特徴・注意パターンを分析してモデルが何を計算しているかを説明し、AI安全性研究の中核領域となっています。
モデルアラインメントコスト
モデルアラインメントコスト
モデルアラインメントコストとは、安全性・倫理的制約を加えることで生じるモデルの能力低下で、ハルシネーション対策や有害コンテンツフィルタリングが有用な回答の抑制につながるトレードオフを指します。
マトリョーシカ埋め込み(MRL)
マトリョーシカうめこみ
マトリョーシカ埋め込みとは、大きなベクトルの先頭部分を切り取るだけで意味的に有効な埋め込みを生成する技術で、ストレージと計算コストを柔軟に削減できます。
モデルオーガニズム
モデルオーガニズム
モデルオーガニズムとは、AI安全性研究において特定の危険な振る舞いを意図的に持たせた小規模AIモデルで、アライメント手法の有効性を安全に検証するために使用します。
モンテカルロ木探索(MCTS)
モンテカルロきたんさく
モンテカルロ木探索とは、確率的なシミュレーションを繰り返して最適行動を探索するアルゴリズムで、AlphaGoで人間超えを実現し、現在はLLMの推論時探索にも応用されています。
マルチモーダルエージェント
マルチモーダルエージェント
マルチモーダルエージェントとは、テキスト・画像・音声・動画など複数のモダリティを入出力として扱えるAIエージェントで、画面を見て操作するコンピューターユースなど人間に近い汎用性を持ちます。
マルチエージェントシステム
マルチエージェントシステム
マルチエージェントシステムとは、複数のAIエージェントが役割分担・協調しながら動作するアーキテクチャで、オーケストレーターとワーカーの階層構造で複雑なタスクを並列処理します。
メタ学習
メタがくしゅう
メタ学習とは「学習の仕方を学習する」パラダイムで、少数サンプルから素早く新タスクに適応できるモデルを構築します。MAMLが代表的アルゴリズムで、few-shot learningの理論的基盤となっています。
密検索(Dense Retrieval)
みつけんさく
密検索(Dense Retrieval)とは、クエリと文書をベクトル化して意味的類似度で検索する手法です。BM25などのスパース検索と対比し、RAGシステムの中核技術として広く採用されています。
マルチモーダル推論
マルチモーダルすいろん
マルチモーダル推論とは、テキスト・画像・グラフ・表など複数のモダリティにまたがって論理的推論を行う能力です。数学的証明の図解理解・科学論文の図表解釈など高度なタスクを扱い、GPT-4o・Claude・Geminiが高い性能を示します。
ヤ行
2件ラ行
26件RAG(検索拡張生成)
ラグ(けんさくかくちょうせいせい)
RAGとは、ユーザーの質問に関連する情報を外部データベースから検索し、その情報をLLMに渡して回答を生成させる技術です。ハルシネーションを減らし、外部データや社内情報への対応を可能にします。
LoRA(低ランク適応)
ローラ(ていランクてきおう)
LoRAとは、大規模モデルの重みを直接更新せず、追加した低ランク行列のみを学習することで、少ないメモリ・コストでファインチューニングを実現する手法です。
量子化
りょうしか
量子化とは、LLMのモデルパラメータを高精度な浮動小数点数(FP32等)から低ビット数(INT8・INT4等)に変換することで、メモリ消費と推論コストを削減する技術です。
LangChain(ラングチェーン)
ラングチェーン
LangChainとは、LLMを使ったアプリケーション開発を支援するOSSフレームワークで、RAG・エージェント・チェーン処理などの実装を簡潔に記述できます。
リトリーバル(Retrieval)
リトリーバル
リトリーバルとは、クエリに関連するドキュメント・情報を大規模データベースから検索・取得する処理で、RAGシステムの中核となる技術です。
レッドチーミング
レッドチーミング
レッドチーミングとは、AIシステムの安全性・脆弱性を攻撃者視点で意図的に探索・評価するプロセスで、デプロイ前の安全評価に不可欠です。
LLaMA(ラマ)
ラマ
LLaMAとは、Metaが開発・公開するオープンソースLLMシリーズです。LLaMA 3まで進化しており、ローカル実行やfine-tuningに広く使われるオープンソースLLMの代表格です。
連合学習
れんごうがくしゅう
連合学習とは、データを中央サーバに集めずに各デバイス・組織でローカル学習し、モデルの更新情報だけを共有するプライバシー保護型の分散機械学習手法です。スマートフォンや医療データの学習に活用されています。
リランキング
リランキング
リランキングとは、初期検索結果をクロスエンコーダー等で再スコアリングして関連性の高い順に並び替えるRAG改善手法です。検索精度を大幅に向上させ、LLMへ渡す文書の質を高めます。
ロングコンテキスト
ロングコンテキスト
ロングコンテキストとは、数十万〜数百万トークンを一度に処理できるLLMの能力です。Gemini 1.5(100万トークン)やClaude(20万トークン)が先行しており、長文書・コードベース全体・動画の一括処理が可能になります。
レイテンシ(応答遅延)
レイテンシ
レイテンシとは、LLMが入力を受け取ってから最初のトークンを返すまでの時間(TTFT: Time to First Token)です。ユーザー体験に直結する重要な性能指標で、streamingやprompt-cachingで改善できます。
RNN(リカレントニューラルネットワーク)
リカレントニューラルネットワーク
RNNとは、前の出力を次の入力に使う再帰的な構造で時系列・系列データを処理するニューラルネットワークです。LSTMやGRUが発展形で、Transformerの登場前はNLPの主力アーキテクチャでした。
レコメンデーションシステム
レコメンデーションシステム
レコメンデーションシステムとは、ユーザーの行動・嗜好を分析して最適なコンテンツや商品を推薦するAIシステムです。Netflix・Amazon・Spotify・YouTubeで活用され、現代のWebサービスの中心的なAI応用です。
レイヤー正規化
レイヤーせいきか
各層の活性化を正規化してTransformerの学習を安定させる手法(Layer Norm)。バッチ正規化と異なりシーケンス方向に正規化する。
llama.cpp
ラマシーピーピー
C++で実装されたLLM推論ライブラリ。GGUF形式のモデルをCPU/GPU上で効率的に実行。OllamaやLM Studioの基盤として広く利用される。
LlamaIndex
ラマインデックス
LLMとデータを接続するためのデータフレームワーク。RAGパイプライン・エージェント・データコネクタの構築に特化しLangChainと並ぶ主要ライブラリ。
LangSmith
ラングスミス
LangChainが提供するLLMアプリのデバッグ・テスト・評価・監視プラットフォーム。トレース・プロンプト管理・自動評価をGUIで統合管理。
RAGAS
ラガス
RAGシステムの品質を自動評価するオープンソースフレームワーク。Faithfulness・Answer Relevancy・Context Precision等の指標で評価。
LiteLLM
ライトエルエルエム
OpenAI互換のAPIで100以上のLLM(Claude・Gemini・Llama等)を統一的に呼び出せるPythonライブラリ。コスト追跡・フォールバック・ロードバランシングも提供。
Replicate
レプリケート
機械学習モデルをAPIとして公開・実行できるクラウドプラットフォーム。Stable Diffusion・Llama等数千モデルを数行のコードで利用できる。
Long CoT(長い思考連鎖)
ロングコット
数百〜数千トークンにわたる長い思考連鎖を生成してから回答する推論スタイル。OpenAI o1・DeepSeek-R1等が採用し、複雑な推論タスクでの精度を大幅に向上させる。
llamafile
ラマファイル
Mozillaが開発した、LLMを単一実行ファイルとして配布・実行できる仕組み。インストール不要で配布でき、Windows・Mac・Linux全対応。ローカルLLM普及の新しいアプローチ。
リワードハッキング
リワードハッキング
リワードハッキングとは、AIが報酬関数の抜け穴を利用して高スコアを得るが人間の意図した目標を達成しない問題で、強化学習で頻発しAI安全性の核心課題です。RLHFでも発生しうることが知られています。
RoPE(回転位置埋め込み)
ロープ(かいてんいちうめこみ)
RoPEとは、トランスフォーマーの位置情報をクエリ・キーベクトルの回転として表現する手法で、Llama・Mistral・Gemmaなど主要LLMに採用され、長文対応のコンテキスト拡張にも活用されます。
対数確率
ログプロブス(対数確率)
対数確率(logprobs)とは、LLMが各トークンに割り当てる確率の対数値で、モデルの確信度測定・カリブレーション評価・ビーム探索・制約付き生成に活用される指標です。
ReActエージェント
リアクトエージェント
ReActエージェントとは、Reasoning(推論)とActing(行動)を交互に繰り返すフレームワークで実装されたAIエージェントで、Thought→Action→ObservationのサイクルをLLMで実現します。
ワ行
2件AIで仕事を変えたい方へ|LINEで無料相談する
経産省リスキリング補助金対象の100日間プログラム「AIリブートアカデミー」について、LINEで気軽に相談できます。補助金の使い方・カリキュラム・学習イメージを無料でお伝えします。
\ 1分で完了・匿名性も安心 /
生成AI活用力を体系的に習得しながら、自己理解・キャリアデザインを深め、
志を同じくする仲間と共に学べる環境が「AIリブートアカデミー」です。