ClassificationModels type
ClassificationModels の値を定義します。
KnownClassificationModels は ClassificationModels と同じ意味で使用できます。この列挙型には、サービスがサポートする既知の値が含まれています。
サービスでサポートされている既知の値
LogisticRegression: ロジスティック回帰は、基本的な分類手法です。
これは線形分類子のグループに属し、多項式と線形回帰にやや似ています。
ロジスティック回帰は高速で比較的複雑でなく、結果を解釈すると便利です。
基本的には二項分類のメソッドですが、多クラスの問題にも適用できます。
SGD: SGD: 確率的勾配降下法は、機械学習アプリケーションでよく使用される最適化アルゴリズムであり、予測された出力と実際の出力の間の最適な適合に対応するモデル パラメーターを見つけるために使用されます。
MultinomialNaiveBayes: 多項式 Naive Bayes 分類子は、不連続の特徴を持つ分類 (テキスト分類の単語数など) に適しています。
多項分布には通常、整数の特徴数が必要です。 ただし、実際には、tf-idf などの小数部のカウントも機能する可能性があります。
BernoulliNaiveBayes: 多変量ベルヌーイ モデルの Naive Bayes 分類子。
SVM: サポート ベクター マシン (SVM) は、2 グループ分類の問題に分類アルゴリズムを使用する教師あり機械学習モデルです。
カテゴリごとにラベル付けされたトレーニング データの SVM モデル セットを指定すると、新しいテキストを分類できます。
LinearSVM: サポート ベクター マシン (SVM) は、2 グループ分類の問題に分類アルゴリズムを使用する教師あり機械学習モデルです。
カテゴリごとにラベル付けされたトレーニング データの SVM モデル セットを指定すると、新しいテキストを分類できます。
線形 SVM は、入力データが線形の場合に最適に実行されます。つまり、データは、プロットされたグラフに分類された値の間の直線を描画することによって簡単に分類できます。
KNN: K ニアレスト ネイバー (KNN) アルゴリズムは、"特徴の類似性" を使用して新しいデータ ポイントの値を予測します。つまり、トレーニング セット内のポイントとどの程度一致するかに基づいて、新しいデータ ポイントに値が割り当てられます。
DecisionTree: デシジョン ツリーは、分類タスクと回帰タスクの両方に使用されるノンパラメトリック教師あり学習方法です。
目標は、データ特徴から推論された単純な決定ルールを学習することによって、ターゲット変数の値を予測するモデルを作成することです。
RandomForest: ランダム フォレストは教師あり学習アルゴリズムです。
構築する "フォレスト" はデシジョン ツリーのアンサンブルであり、通常は "バギング" メソッドでトレーニングされます。
バギング方法の一般的な考え方は、学習モデルの組み合わせによって全体的な結果が増加することです。
ExtremeRandomTrees: Extreme Trees は、多くのデシジョン ツリーからの予測を組み合わせたアンサンブル機械学習アルゴリズムです。 これは、広く使用されているランダム フォレスト アルゴリズムに関連しています。
LightGBM: LightGBM は、ツリー ベースの学習アルゴリズムを使用する勾配ブースティング フレームワークです。
GradientBoosting: 週の学習者を強力な学習者に転送する手法は、Boosting と呼ばれます。 勾配ブースティング アルゴリズム プロセスは、この実行理論に対して機能します。
XGBoostClassifier: XGBoost: Extreme Gradient Boosting Algorithm。 このアルゴリズムは、ターゲット列の値を個別のクラス値に分割できる構造化データに使用されます。
type ClassificationModels = string