2 クラス分類
2 乗バイアス
2 乗損失
Bayes(ベイズ)推定
Bernoulli(ベルヌーイ)分布
Bregman(ブレグマン)ダイバージェンス
cosine 類似度
Dice(ダイス)係数
Dirichlet(ディリクレ)分布
EM アルゴリズム
F 値
Fenchel–Young(フェンツェル–ヤング)不等式
Fenchel(フェンツェル)共役
Gauss(ガウス)分布
Gaussian(ガウシアン)カーネル
Gibbs(ギッブス)サンプリング
Jaccard(ジャカード)係数
K-平均法
k-近傍法
Kalman(カルマン)フィルタ
KKT 条件
L-Lipschitz(リプシッツ)
L1 正則化
L2 正則化
Laplace(ラプラス)分布
leave-one-out 交差検定
Mahalanobis(マハラノビス)距離
MAP 推定
Markov(マルコフ)連鎖 Monte Carlo(モンテカルロ)法
Monte Carlo(モンテカルロ)EM アルゴリズム
N 点平均精度
N-分割交差検定
naive Bayes(ナイーブベイズ)分類
Passive-Aggressive(パッシブ・アグレッシブ)アルゴリズム
ridge(リッジ)正則化
SMO アルゴリズム
tf·idf
Wishart(ウィシャート)分布
アダブースト
エポック
オンライン勾配降下法
オンライン学習
カーネル
カーネル行列
ガンマ分布
ガンマ関数
クラス
クラスタ
クラスタリング
サポートベクター
サポートベクターマシン
サンプリング法
シグモイド関数
ソフトマージン
データスパース性
データマイニング
テキストコーパス
デンドログラム
パーセプトロン
バッグ
バッチ学習
バリアンス
ビッグデータ
ヒンジ損失
フォロー・ザ・リーダ
フォロー・ザ・レギュラライズド・リーダ
ベータ分布
マンハッタン距離
ラウンド
ラベルなしデータ
ラベル付きデータ
リグレット
ロジスティック損失
一般化 EM アルゴリズム
上界
予測過程
交差検定
代理損失
共役事前分布
再現率
分割表
分類
分類器
劣勾配
劣微分
回帰
多クラス分類
多重集合
多項分布
学習過程
定常的
尤度
属性
平均適合率
座標降下法
形態素解析
指数型分布族
指数損失
損失
損失関数
教師あり学習
教師なし学習
最大事後確率推定
最尤推定
次元の呪い
正則化項
正規方程式
正解率
汎化性能
混合モデル
混合分布
混合正規分布
潜在変数
独立同一分布
生成モデル
粒子フィルタ
精度
精度行列
純度
素性
素性エンジニアリング
素性選択
累積損失
経験 Bayes(ベイズ)法
線形分離可能
線形回帰
計画行列
訓練データ
評価データ
詳細釣り合い条件
識別モデル
逆純度
過学習
過適合
都市ブロック距離
重点サンプリング
重点再サンプリング法
開発データ
階層的凝集型クラスタリング
隠れ変数
顕在変数