Bellman(ベルマン)方程式
Boltzmann(ボルツマン)分布
Lamarck(ラマルク)進化
Markov(マルコフ)性
Markov(マルコフ)決定過程
MDL基準
minimum description length基準
NP 完全
Prim(プリム)法
Q 学習
Q学習
TD学習
temporal difference学習
λ学習
インスタンス
ウェブ知能
エージェント
エッジ
エネルギー関数
エピソード
エリート戦略
オッカムの剃刀
クエリ拡張
クエリ推奨
クエリ提案
クラシファイアーシステム
クラス
クリックデータ
クローラー
スニペット
スロットマシン
セマンティックウェブ
セントラルドグマ
ソーシャルメディア
タスク
タブー探索
テーブル
デコード
テレポート
トークン
トークン化
トーナメント方式
ネットワーク容量
ノーフリーランチ定理
バイグラム
ハブ
ビッグデータ
ヒューマンコンピューティング
ファイルパス
ページランク
ペア法
ポスティングリスト
マルチエージェント学習
マルチメディア
ミメティックアルゴリズム
ミラーリング
メタヒューリスティクス
もしかして検索
モンテカルロ法
ランキング学習
ランク方式
ランダムウォーク法
リストネット
リスト法
リンクテキスト
ルーレット方式
ロボット
一様交叉
一点交叉
一貫性
世代交代
世代数
交叉
交叉率
位置ベクトル
価値反復法
価値関数
個人型ページランク
個人型検索
全順序
冗長性
冷却率
分野特有な
利用
利益共有法
割引率
動的ランキング
動的計画法
収束係数
収束性
合理性定理
吸収確率
型付き機能
報酬
多数決投票
大域的最適解
学習率
定常状態
実数値探索問題
対数尤度比
局所的山登り法
局所的探索
局所解
属性抽出
山登り法
巡回セールスマン問題
差分進化
幅優先探索
平のテキスト
平均吸収時間
平均精度
平均訪問回数
平均逆順
平衡状態
強化学習
形態素解析
形態素解析器
情報抽出
情報検索
意味ドリフト
拡張候補
探査
探索アルゴリズム
探索履歴
探索性能
推移確率
推移行列
擬似関連性フィードバック
文脈窓
斉時的 Markov(マルコフ)過程
方策
方策オフ型
方策オン型
最大全域木
最小全域木
最小化問題
最急降下法
最良優先探索
最適化アルゴリズム
有向グラフ
期待収益
木構造
条件付き確率
条件付き確率場
検索セッション
権威
次元の呪い
次数
欲張り法
正点総合情報量
正確さ
正規化減損累計利得
淘汰
深さ優先探索
減衰係数
減衰項
点法
焼きなまし法
状態
状態価値
状態分布
状態空間
発現型
目的関数
知識ベース
知識抽出
知識表現
確率推移行列
突然変異
突然変異率
群知能
背理法
自動的関数定義
自然言語処理
行動
行動価値
表現型
計画問題
逆位
速度ベクトル
進化計算
進化論的学習
適合度
選択
選択的な知識抽出
遺伝子コード
遺伝子型
遺伝的アルゴリズム
遺伝的オペレータ
遺伝的プログラミング
部分観測 Markov(マルコフ)決定過程
重い裾野を持つ
重み係数
関連性
除外語
隠れ Markov(マルコフ)モデル
集団数
静的ランキング
非凸関数
頂点