Two-Class Decision Jungle

Importante

Il supporto dello studio di Azure Machine Learning (versione classica) terminerà il 31 agosto 2024. È consigliabile passare ad Azure Machine Learning entro tale data.

A partire dal 1° dicembre 2021 non sarà possibile creare nuove risorse dello studio di Azure Machine Learning (versione classica). Fino al 31 agosto 2024 sarà possibile continuare a usare le risorse dello studio di Azure Machine Learning (versione classica).

La documentazione relativa allo studio di Machine Learning (versione classica) è in fase di ritiro e potrebbe non essere aggiornata in futuro.

Crea un modello di classificazione a due classi usando l'algoritmo di giungla delle decisioni

Categoria: Machine Learning/Inizializza modello/classificazione

Nota

Si applica a: Machine Learning Studio (versione classica)

Nella finestra di progettazione sono disponibili moduli simili Azure Machine Learning trascinamento della selezione.

Panoramica del modulo

Questo articolo descrive come usare il modulo Two-Class Decision Rsa in Machine Learning Studio (versione classica) per creare un modello di Machine Learning basato su un algoritmo di apprendimento ensemble supervisionato denominato decision decision decision.

Il modulo Two-Class DecisionIfier restituisce un classificatore non con training. Si esegue quindi il training di questo modello su un set di dati di training etichettato usando Train Model (Training modello ) o Tune Model Hyperparameters (Ottimizza iperparametre modello). Sarà quindi possibile usare il modello con training per ottenere stime.

Altre informazioni sui processi decisionali

I processi decisionali sono un'estensione recente alle foreste delle decisioni. Una giungla delle decisioni è costituita da un insieme di grafi aciclici diretti (DAG, Directed Acyclic Graph).

Le giungle delle decisioni offrono i vantaggi seguenti:

  • Consentendo l'unione dei rami dell'albero, un DAG decisionale ha in genere un footprint di memoria inferiore e prestazioni di generalizzazione migliori rispetto a un albero delle decisioni, anche se con tempi di training leggermente più lunghi.

  • Le giungle delle decisioni sono modelli non parametrici che possono rappresentare limiti di decisione non lineari.

  • Eseguono la selezione e la classificazione integrata delle funzioni e sono resilienti in caso di funzioni con rumore.

Suggerimento

Per altre informazioni sulla ricerca alla base di questo algoritmo di Machine Learning, vedere Decision Pdf: Compact and Rich Models for Classification (Modelli compatti e avanzati per la classificazione).

Come configurare la Two-Class decision decision

  1. Aggiungere il modulo Two-Class Decision Uneas all'esperimento in Studio (versione classica).

  2. Per Metodo di ricampionamento scegliere il metodo usato per creare i singoli alberi. È possibile scegliere tra Bagging o Replicate.

    • Bagging: selezionare questa opzione per usare bagging, detto anche bootstrap aggregating.

      Ogni albero in un ente decisionale restituisce una distribuzione gaussiana come stima. L'aggregazione è trovare un gaussiano i cui primi due istanti corrispondono ai momenti della combinazione di Gaussiani specificata combinando tutti i Gaussiani restituiti dai singoli alberi.

    • Replica: nella replica ogni albero viene addestrato esattamente sugli stessi dati di input. La determinazione del predicato di divisione usato per ogni nodo dell'albero rimane casuale e gli alberi saranno diversi.

      Per altre informazioni, vedere Decision Forests for Visione artificiale and Medical Image Analysis. Haisi e J. Shotton. Springer 2013.

  3. Specificare la modalità di training del modello impostando l'opzione Create trainer mode (Crea modalità di training ).

    • Parametro singolo: se si sa come si vuole configurare il modello, è possibile specificare un set specifico di valori come argomenti.

    • Intervallo di parametri: se non si è certi dei parametri migliori, è possibile trovare i parametri ottimali specificando più valori e usando il modulo Tune Model Hyperparameters (Ottimizza iperparametre modello) per trovare la configurazione ottimale. L'trainer scorrerà più combinazioni delle impostazioni fornite e determinerà la combinazione di valori che produce il modello migliore.

  4. In Number of decision DAG (Numero di dag decisionali) indicare il numero massimo di grafi che è possibile creare nell'insieme.

  5. Per Profondità massima dei DAG decisionali, indicare la profondità massima di ogni grafo.

  6. Per Larghezza massima dei DAG decisionali, indicare la larghezza massima di ogni grafico.

  7. In Number of optimization steps per decision DAG layer (Numero di passaggi di ottimizzazione per livello DAG decisionale) indicare il numero di iterazioni sui dati da eseguire durante la compilazione di ogni DAG.

  8. Selezionare l'opzione Consenti valori sconosciuti per le funzionalità categoriche per creare un gruppo per i valori sconosciuti nei dati di test o convalida.

    Se viene deselezionata, il modello può accettare solo i valori contenuti nei dati di training. Nel primo caso, il modello può essere meno preciso sui valori noti, ma può fornire stime migliori per i valori nuovi (sconosciuti).

  9. Aggiungere un set di dati con tag all'esperimento e connettere uno dei moduli di training.

    Nota

    Se si passa un intervallo di parametri a Train Model, viene utilizzato solo il primo valore nell'elenco di intervalli di parametri.

    Se si passa un singolo set di valori di parametro al modulo Tune Model Hyperparameters ,quando si prevede un intervallo di impostazioni per ogni parametro, vengono ignorati i valori e vengono utilizzati i valori predefiniti per lo learner.

    Se si seleziona l'opzione Intervallo di parametri e si immette un singolo valore per qualsiasi parametro, il singolo valore specificato viene usato durante l'intera transazione, anche se altri parametri cambiano in un intervallo di valori.

Risultati

Al termine del training:

  • Per usare il modello per l'assegnazione dei punteggi, connetterlo a Score Model per stimare i valori per i nuovi esempi di input.

Esempio

Per esempi di come vengono usati i processi decisionali in Machine Learning, vedere l'Azure AI Gallery:

Note tecniche

Questa sezione contiene informazioni dettagliate sull'implementazione, suggerimenti e risposte alle domande frequenti.

Suggerimenti per l'uso

Se i dati sono limitati o si vuole ridurre al minimo il tempo impiegato per il training del modello, provare queste impostazioni.

Set di training limitato

Se il set di training è di piccole dimensioni:

  • Creare la giungla delle decisioni usando un numero elevato di DAG di decisione, ad esempio più di 20.
  • Usare l'opzione Bagging per ripetere il campionamento.
  • Specificare un numero elevato di passaggi di ottimizzazione per ogni livello di DAG, ad esempio più di 10.000.

Tempo di training limitato

Se il set di training è di grandi dimensioni ma il tempo di training è limitato:

  • Creare la giungla delle decisioni usando un numero minore di DAG di decisione, ad esempio 5-10.
  • Usare l'opzione Replicate per ripetere il campionamento.
  • Specificare un numero minore di passaggi di ottimizzazione per ogni livello di DAG, ad esempio meno di 2000.

Parametri del modulo

Nome Intervallo Type Predefinito Descrizione
Resampling method Qualsiasi ResamplingMethod Bagging Scegliere un metodo di ripetizione del campionamento
Number of decision DAGs >=1 Integer 8 Specifica il numero di grafi di decisione da creare nell'insieme
Maximum depth of the decision DAGs >=1 Integer 32 Specifica la profondità massima dei grafi di decisione nell'insieme
Maximum width of the decision DAGs >=8 Integer 128 Specifica la larghezza massima dei grafi di decisione nell'insieme
Number of optimization steps per decision DAG layer >=1000 Integer 2048 Specifica il numero di passaggi da usare per l'ottimizzazione di ogni livello del grafo di decisione
Allow unknown values for categorical features Qualsiasi Boolean True Indica se i valori sconosciuti delle funzioni categoriche esistenti possono essere mappati a una nuova funzione aggiuntiva

Output

Nome Tipo Descrizione
Untrained model ILearner interface Modello di classificazione binaria senza training

Vedi anche

Classificazione
Multiclass Decision Jungle
Elenco moduli A-Z