Oggetto interattivo

Oggetti interattivi

Un pulsante è da tempo una metafora usata per attivare un evento nel mondo astratto 2D. Nel mondo della realtà mista tridimensionale, non dobbiamo più essere limitati a questo mondo di astrazione. Qualsiasi elemento può essere un oggetto interattivo che attiva un evento. Un oggetto interattivo può essere qualsiasi cosa, da una tazza di caffè su un tavolo a un palloncino a mezz'aria. In determinate situazioni, ad esempio nell'interfaccia utente della finestra di dialogo, viene ancora usato il pulsante tradizionale. La rappresentazione visiva del pulsante dipende dal contesto.



Proprietà importanti dell'oggetto interattivo

Visivi

I segnali visivi sono segnali sensoriali provenienti dalla luce, ricevuti dall'occhio e elaborati dal sistema visivo durante la percezione visiva. Poiché il sistema visivo è dominante in molte specie, in particolare gli esseri umani, i segnali visivi sono una grande fonte di informazioni su come viene percepito il mondo.

Poiché gli oggetti olografici vengono combinati con l'ambiente reale nella realtà mista, potrebbe essere difficile capire con quali oggetti è possibile interagire. Per qualsiasi oggetto interattivo nell'esperienza, è importante fornire segnali visivi differenziati per ogni stato di input. Ciò consente all'utente di comprendere quale parte dell'esperienza è interattiva e rende l'utente sicuro usando un metodo di interazione coerente.



Interazioni lontane

Per tutti gli oggetti che l'utente può interagire con lo sguardo fisso, il raggio della mano e il raggio del controller di movimento, è consigliabile avere segnali visivi diversi per questi tre stati di input:

Oggetto interattivo con stato predefinito
Stato predefinito (osservazione)
Stato di inattività predefinito dell'oggetto. Il cursore non è sull'oggetto . La mano non viene rilevata.

Oggetto interattivo con destinazione e stato del passaggio del mouse
Stato di destinazione (passaggio del mouse)
Quando l'oggetto è destinato al cursore dello sguardo fisso, alla prossimità del dito o al puntatore del controller di movimento. Il cursore si trova sull'oggetto . Viene rilevata la mano, pronta.

Oggetto interattivo con stato premuto
Stato premuto
Quando l'oggetto viene premuto con un movimento di tocco con l'aria, la pressione del dito o il pulsante di selezione del controller di movimento. Il cursore si trova sull'oggetto . Viene rilevata la mano, toccata dall'aria.



È possibile usare tecniche come l'evidenziazione o il ridimensionamento per fornire segnali visivi per lo stato di input dell'utente. Nella realtà mista puoi trovare esempi di visualizzazione di diversi stati di input nel menu Start e con i pulsanti della barra dell'app.

Ecco l'aspetto di questi stati in un pulsante olografico:

Pulsante olografico nello stato predefinito
Stato predefinito (osservazione)

Pulsante olografico in stato di destinazione e passaggio del mouse
Stato di destinazione (passaggio del mouse)

Pulsante olografico in stato premuto
Stato premuto



Interazioni vicine (diretta)

HoloLens 2 supporta l'input di rilevamento della mano articolato, che consente di interagire con gli oggetti. Senza feedback aptico e una perfetta percezione della profondità, può essere difficile capire quanto sia lontana la tua mano da un oggetto o se la stai toccando. È importante fornire segnali visivi sufficienti per comunicare lo stato dell'oggetto, in particolare lo stato delle mani in base a tale oggetto.

Usare il feedback visivo per comunicare gli stati seguenti:

  • Default (Observation): stato di inattività predefinito dell'oggetto.
  • Passaggio del mouse: quando una mano si trova vicino a un ologramma, modificare gli oggetti visivi per comunicare che la mano è destinata all'ologramma. 
  • Distanza e punto di interazione: quando la mano si avvicina a un ologramma, progetta il feedback per comunicare il punto di interazione proiettato e quanto è lontano dall'oggetto il dito
  • Inizia il contatto: modificare gli oggetti visivi (luce, colore) per comunicare che si è verificato un tocco
  • Afferrato: modificare gli oggetti visivi (luce, colore) quando l'oggetto viene afferrato
  • Estremità contatto: modificare gli oggetti visivi (luce, colore) al termine del tocco


Passaggio del mouse (lontano)
Passaggio del mouse (lontano)
Evidenziazione in base alla prossimità della mano.

Passaggio del mouse (vicino)
Passaggio del mouse (vicino)
Evidenziare le modifiche delle dimensioni in base alla distanza dalla mano.

Tocco/pressione
Tocco/pressione
Feedback audio e visivo.

Afferrare
Afferrare
Feedback audio e visivo.




Un pulsante in HoloLens 2 è un esempio di come vengono visualizzati i diversi stati di interazione di input:

Predefinita
Predefinita

Hover
Hover
Rivela un effetto di illuminazione basato sulla prossimità.

Touch
Touch
Mostra effetto increspatura.

Passeggiata
Passeggiata
Spostare la piastra anteriore.



Segnale visivo "anello" su HoloLens 2

In HoloLens 2, c'è un segnale visivo aggiuntivo, che può aiutare la percezione della profondità dell'utente. Un anello vicino alla punta del dito viene visualizzato e ridimensionato man mano che la punta del dito si avvicina all'oggetto. L'anello alla fine converge in un punto quando viene raggiunto lo stato premuto. Questa accessibilità visiva consente all'utente di comprendere la distanza dall'oggetto.

Ciclo video: esempio di feedback visivo basato sulla prossimità a un rettangolo di selezione

spazio
Feedback visivo in prossimità della mano



Segnali audio

Per le interazioni con la mano diretta, un feedback audio appropriato può migliorare notevolmente l'esperienza utente. Usare il feedback audio per comunicare i segnali seguenti:

  • Inizia il contatto: Riproduci suono all'inizio del tocco
  • Estremità del contatto: Riprodurre il suono sul touch-end
  • L'afferra inizia: riproduci il suono all'avvio della cattura
  • Estremità di afferra: riprodurre il suono quando l'afferramento termina


Comandi vocali

Per qualsiasi oggetto interattivo, è importante supportare opzioni di interazione alternative. Per impostazione predefinita, è consigliabile che il comando vocale sia supportato per tutti gli oggetti che possono interagire. Per migliorare l'individuabilità, è anche possibile fornire una descrizione comando durante lo stato di passaggio del mouse.

Immagine: descrizione comando per il comando vocale

comando vocale



Consigli per il ridimensionamento

Per garantire che tutti gli oggetti interagibili possano essere facilmente toccati, è consigliabile assicurarsi che l'interattivo soddisfi una dimensione minima in base alla distanza che viene posizionata dall'utente. L'angolo visivo viene spesso misurato in gradi di arco visivo. L'angolo visivo si basa sulla distanza tra gli occhi dell'utente e l'oggetto e rimane costante, mentre le dimensioni fisiche della destinazione possono cambiare man mano che cambia la distanza dall'utente. Per determinare le dimensioni fisiche necessarie di un oggetto in base alla distanza dall'utente, provare a usare un calcolatore dell'angolo visivo come questo.

Di seguito sono riportate le raccomandazioni per le dimensioni minime del contenuto interattivo.

Dimensioni di destinazione per l'interazione diretta con la mano

Distance Angolo di visualizzazione Dimensioni
45 cm non inferiore a 2° 1,6 x 1,6 cm

Dimensioni di destinazione per l'interazione diretta con la mano
Dimensioni di destinazione per l'interazione diretta con la mano


Dimensioni della destinazione per l'interazione con il raggio della mano o lo sguardo fisso

Distance Angolo di visualizzazione Dimensioni
2 m non inferiore a 1° 3,5 x 3,5 cm

Dimensioni della destinazione per l'interazione con il raggio della mano o lo sguardo fisso
Dimensioni della destinazione per l'interazione con il raggio della mano o lo sguardo fisso



Oggetto interattivo in MRTK (Realtà mista Toolkit) per Unity

In MRTK è possibile usare lo script Interactable per fare in modo che gli oggetti rispondano a vari tipi di stati di interazione di input. Supporta vari tipi di temi che consentono di definire gli stati di visualizzazione controllando le proprietà dell'oggetto, ad esempio colore, dimensioni, materiale e shader.

Lo shader Standard di MixedRealityToolkit offre varie opzioni, ad esempio la luce di prossimità, che consente di creare segnali visivi e audio.



Vedere anche