

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Rilevamento del riconoscimento facciale
<a name="face-liveness"></a>

Amazon Rekognition Face Liveness ti aiuta a verificare che un utente sottoposto a verifica facciale sia fisicamente presente davanti a una telecamera. Rileva lo spoofing rivolto a una telecamera o il tentativo di bypassare una telecamera. Gli utenti possono completare un controllo di riconoscimento facciale scattando un breve video selfie in cui seguono una serie di istruzioni volte a verificare la loro effettiva presenza.

Il riconoscimento facciale viene determinato con un calcolo probabilistico, quindi dopo il controllo viene restituito un punteggio di confidenza (compreso tra 0 e 100). Più alto è il punteggio, maggiore è la fiducia che la persona che effettua il controllo sia effettivamente presente sul posto. Face Liveness restituisce anche una cornice, chiamata immagine di riferimento, che può essere utilizzata per il confronto e la ricerca dei volti. Come con qualsiasi sistema basato sulla probabilità, Face Liveness non può garantire risultati perfetti. Usalo insieme ad altri fattori per prendere una decisione basata sul rischio sull'identità personale degli utenti.

Face Liveness utilizza più componenti: 
+ AWS [Amplify SDK [(React, Swift (](https://ui.docs.amplify.aws/react/connected-components/liveness)[iOS](https://ui.docs.amplify.aws/swift/connected-components/liveness)) e Android) con componente](https://ui.docs.amplify.aws/android/connected-components/liveness) FaceLivenessDetector 
+ AWS SDKs
+ AWS Cloud APIs

 Quando configuri l'applicazione per l'integrazione con la funzionalità Face Liveness, utilizza le seguenti operazioni API: 
+ [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)- Avvia una sessione di Face Liveness, permettendo di utilizzare il modello di rilevamento Face Liveness nell'applicazione. Restituisce un SessionId per la sessione creata. Consente inoltre di impostare il proprio ChallengePrefrence, in modo da poter utilizzare l' FaceMovementChallenge opzione.
+  [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_rekognitionstreaming_StartFaceLivenessSession.html)- Chiamato dall' AWS Amplify. FaceLivenessDetector Avvia un flusso di eventi contenente informazioni sugli eventi e gli attributi rilevanti nella sessione corrente.
+  [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html)- Recupera i risultati di una sessione specifica di Face Liveness, tra cui un punteggio di confidenza di Face Liveness, un'immagine di riferimento e immagini di audit.

Utilizzerai l'SDK AWS Amplify per integrare la funzionalità Face Liveness con i flussi di lavoro di verifica facciale per le applicazioni web. Quando gli utenti effettuano l'accesso o si autenticano tramite la tua applicazione, inviali al flusso di lavoro Face Liveness check nell'SDK Amplify. L'Amplify SDK gestisce l'interfaccia utente e il feedback in tempo reale per gli utenti mentre scattano il loro video selfie.

Quando si utilizza FaceMovementAndLightChallenge il movimento del viso dell'utente verso l'ovale visualizzato sul dispositivo, Amplify SDK visualizza una sequenza di luci colorate sullo schermo. Quindi trasmette in modo sicuro il video del selfie sul cloud. APIs In alternativa, durante l'uso FaceMovementChallenge, il viso dell'utente si sposta nell'ovale visualizzato sul dispositivo, ma non c'è una sequenza di luci colorate. Sebbene 'FaceMovementAndLightChallenge' rimanga l'impostazione migliore per massimizzare la precisione, 'FaceMovementChallenge' consente ai clienti di dare priorità ai controlli più rapidi di vivacità rispetto alla precisione. Nella scelta tra queste impostazioni, i clienti devono considerare i requisiti del proprio caso d'uso, tra cui i tipi di attacco previsti, le percentuali di falsa accettazione e di falsi rifiuti desiderate e controlli aggiuntivi come la geolocalizzazione (ad esempio in base all'IP), i codici One Time Pass (), ecc. OTPs I clienti devono prendere questa decisione dopo aver testato le prestazioni di Liveness con varie soglie di punteggio di affidabilità sui loro contenuti specifici. Inoltre, con entrambi i tipi di liveness check, i proprietari delle applicazioni devono implementare controlli per proteggere il dispositivo da cui viene inviato lo streaming video. Una volta completata l'analisi, riceverai quanto segue sul backend:
+ Un punteggio di confidenza di riconoscimento facciale (compreso tra 0 e 100)
+ Un'immagine di alta qualità chiamata immagine di riferimento che può essere utilizzata per Face Match o Face Search
+ Un set composto da un massimo di quattro immagini, denominate immagini di controllo, selezionate dal video del selfie 

Face Liveness può essere utilizzato per una varietà di casi d'uso. Ad esempio, Face Liveness può essere utilizzato insieme al face matching (with [CompareFaces](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CompareFaces.html)and [SearchFacesByImage](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_SearchFacesByImage.html)) per la verifica dell'identità, per la [stima dell'età](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectFaces.html) su piattaforme con restrizioni di accesso basate sull'età e per rilevare utenti umani reali scoraggiando i bot. 

Puoi saperne di più sui casi d'uso a cui è destinato il servizio, su come il machine learning (ML) viene utilizzato dal servizio e sulle considerazioni chiave per la progettazione e l'uso responsabili del servizio nella [scheda di servizio per l’IA di Rekognition Face Liveness](https://aws.amazon.com/machine-learning/responsible-machine-learning/rekognition-face-liveness/). 

Puoi impostare delle soglie per i punteggi di confidenza di Face Liveness e Face Match. Le soglie scelte devono riflettere il caso d'uso. Quindi invii una verifica dell'identità all'utente in base approval/denial al punteggio superiore o inferiore alle soglie. Se negato, chiedi all'utente di riprovare o indirizzalo a un altro metodo. 

L'immagine seguente mostra il flusso dell'utente, dalle istruzioni al riconoscimento fino al risultato restituito:

![\[Flusso di utenti che mostra la centratura del viso, l'avvicinamento, la posizione ferma per controllare la vivacità e il risultato positivo ottenuto con un punteggio di confidenza.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/mobile-flow.png)


# Requisiti di riconoscimento facciale lato utente
<a name="face-liveness-requirements"></a>

Amazon Rekognition Face Liveness richiede le seguenti specifiche minime:

Dispositivi: 
+  Il dispositivo deve avere una fotocamera frontale 
+  Frequenza di aggiornamento minima del display del dispositivo: 60 Hz 
+  Dimensioni minime del display o dello schermo: 4 pollici 
+  Il dispositivo non deve essere sottoposto a jailbreak o rootato 

Specifiche della fotocamera: 
+  Fotocamera a colori: la fotocamera frontale dovrebbe essere in grado di registrare i colori. 
+  Nessuna fotocamera virtuale o software per fotocamere. 
+  Capacità minima di registrazione: 15 fotogrammi al secondo. 
+  Risoluzione minima di registrazione video: 480x640px.
+  Quando gli utenti utilizzano una webcam con un desktop per il controllo Face Liveness, è importante montare la webcam sopra lo stesso schermo in cui inizia il riconoscimento facciale. 

Larghezza di banda minima richiesta: 100 kbps

Browser supportati: Ultime tre versioni dei principali browser, come Google Chrome, Mozilla Firefox, Apple Safari e Microsoft Edge. Per informazioni sulle versioni dei browser Chrome e Firefox supportate, consulta [Browser supportati per l'uso con la Console di gestione AWS](https://aws.amazon.com/premiumsupport/knowledge-center/browsers-management-console/).

# Architettura e diagrammi di sequenza
<a name="face-liveness-diagrams"></a>

 I seguenti diagrammi descrivono in dettaglio il funzionamento di Amazon Rekognition Face Liveness per quanto riguarda l'architettura e la sequenza di operazioni della funzionalità: 

![\[Diagramma di flusso di rilevamento della vivacità che mostra le interazioni tra utente finale, app client, FaceLivenessDetector componente, backend del cliente, servizio Rekognition e servizio di streaming Rekognition per la configurazione della sessione di liveness, l'analisi video e il recupero dei risultati.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/SequenceDiagramLivenessFlowGuide-v5.png)


![\[Flusso di lavoro delle applicazioni del cliente per il controllo Face Liveness che include il componente FaceLivenessDetector Amplify, il servizio Rekognition, il backend per i clienti e il bucket Amazon S3 che memorizza immagini di riferimento e di controllo.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/RekognitionLivenessArchitectureDeveloperGuide_v2.jpg)


Il processo di verifica di Face Liveness prevede diversi passaggi, come indicato di seguito:

1.  L'utente avvia un controllo di riconoscimento facciale nell'app client. 

1.  L'app client chiama il backend del cliente, che a sua volta chiama il servizio Amazon Rekognition. Il servizio crea una sessione Face Liveness e ne restituisce una unica. SessionId **Nota:** dopo l'invio, un SessionId messaggio scade dopo 3 minuti, quindi rimane solo una finestra di 3 minuti per completare i passaggi da 3 a 7 di seguito. È necessario utilizzare un nuovo SessionID per ogni controllo di Face Liveness. Se un determinato SessionID viene utilizzato per i successivi controlli Face Liveness, i controlli avranno esito negativo. Inoltre, un SessionId scade 3 minuti dopo l'invio, rendendo non disponibili tutti i dati Liveness associati alla sessione (ad esempio, SessionID, immagine di riferimento, immagini di controllo, ecc.). 

1.  L'app client esegue il rendering del componente FaceLivenessDetector Amplify utilizzando i callback ottenuti e appropriati SessionId . 

1.  Il FaceLivenessDetector componente stabilisce una connessione al servizio di streaming Amazon Rekognition, visualizza un ovale sullo schermo dell'utente e visualizza una sequenza di luci colorate. FaceLivenessDetector registra e trasmette video in tempo reale al servizio di streaming Amazon Rekognition. 

1.  Il servizio di streaming Amazon Rekognition elabora il video in tempo reale, archivia i risultati e DisconnectEvent restituisce un messaggio FaceLivenessDetector al componente quando lo streaming è completo. 

1.  Il FaceLivenessDetector componente richiama il `onAnalysisComplete` callback per segnalare all'app client che lo streaming è completo e che i punteggi sono pronti per il recupero. 

1.  L'app client chiama il backend del cliente per ottenere un flag booleano che indica se l'utente era attivo o meno. Il backend del cliente invia la richiesta al servizio Amazon Rekognition per ottenere il punteggio di fiducia, i riferimenti e le immagini di controllo. Il backend del cliente utilizza questi attributi per determinare se l'utente è attivo e restituisce una risposta appropriata all'app client. 

1.  Infine, l'app client trasmette la risposta al FaceLivenessDetector componente, che esegue il rendering appropriato del success/failure messaggio per completare il flusso. 

# Prerequisiti
<a name="face-liveness-prerequisites"></a>

 I prerequisiti per l'utilizzo di Amazon Rekognition Face Liveness includono quanto segue: 

1. Configura un account AWS 

1. Configura Face Liveness AWS SDKs

1. Configura le risorse AWS Amplify

## Fase 1: Configura un account AWS
<a name="face-liveness-prerequisites-setup"></a>

Se non hai ancora un AWS account, completa i passaggi indicati [Crea un AWS account e un utente](setting-up.md#setting-up-iam) per crearne uno.

## Passaggio 2: configura Face Liveness AWS SDKs
<a name="face-liveness-prerequisites-sdks"></a>

Se non l'hai già fatto, installa e configura il AWS CLI AWS SDKs. Per ulteriori informazioni, consulta [Passaggio 2: configura AWS CLI e AWS SDKs](setup-awscli-sdk.md). 

Esistono diversi modi per autenticare le chiamate AWS SDK. Gli esempi in questa guida presuppongono che tu stia utilizzando un profilo di credenziali predefinito per chiamare AWS i comandi CLI AWS e le operazioni dell'API SDK. 

Consultate la pagina [Concessione dell'accesso programmatico](https://docs.aws.amazon.com/rekognition/latest/dg/sdk-programmatic-access.html) per ulteriori informazioni su come concedere al vostro account utente l'accesso all'SDK scelto. AWS La pagina spiega anche come utilizzare un profilo sul computer locale e come eseguire il codice di esempio negli ambienti. AWS 

Assicurati che l'utente che richiede le operazioni di Face Liveness disponga delle autorizzazioni corrette per richiedere le operazioni, come le `AmazonRekognitionFullAccess` e le `AmazonS3FullAccess` autorizzazioni.

## Fase 3: Configurare AWS Amplify Resources
<a name="face-liveness-prerequisites-amplify"></a>

Per integrare Amazon Rekognition Face Liveness nella tua app, devi configurare l'SDK Amplify per utilizzare AWS il componente Amplify. FaceLivenessDetector 

Se non l'hai già fatto, segui le istruzioni per configurare l’Interfaccia della linea di comando AWS (AWS CLI) in [Getting Started with the AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-getting-started.html). Dopo aver installato la CLI, completa la procedura di configurazione dell'autenticazione visualizzata nel [sito dei documenti dell'interfaccia utente di Amplify per configurare le risorse Amplify.](https://ui.docs.amplify.aws/react/connected-components/liveness#step-1-configure-auth) AWS 

## Best practice del rilevamento del riconoscimento facciale
<a name="face-liveness-best-practices"></a>

Consigliamo di seguire diverse best practice per l'utilizzo di Amazon Rekognition Face Liveness. Le best practice di riconoscimento facciale includono linee guida su dove condurre i controlli di riconoscimento facciale, l'uso di immagini di controllo e la scelta delle soglie di punteggio di confidenza.

Consulta [Raccomandazioni per l'uso di Face Liveness](recommendations-liveness.md) l'elenco completo delle best practice.

# Programmazione di Amazon Rekognition Face Liveness APIs
<a name="face-liveness-programming-api"></a>

Per utilizzare l'API Amazon Rekognition Face Liveness, devi creare un backend che esegua i seguenti passaggi:

1. Chiama [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)per avviare una sessione di Face Liveness. Al termine dell'`CreateFaceLivenessSession`operazione, l'interfaccia utente richiede all'utente di inviare un video selfie. Il FaceLivenessDetector componente di AWS Amplify chiama quindi [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_rekognitionstreaming_StartFaceLivenessSession.html)per eseguire il rilevamento di Liveness.

1. Chiama [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html)per restituire i risultati di rilevamento associati a una sessione di Face Liveness.

1. Procedi a configurare la tua applicazione React per utilizzare il FaceLivenessDetector componente seguendo i passaggi della guida [Amplify Liveness](https://ui.docs.amplify.aws/react/connected-components/liveness).

Prima di usare Face Liveness, assicurati di aver creato un account AWS, configurato l'interfaccia a riga di comando di AWS e AWS e SDKs AWS Amplify. Dovresti inoltre assicurarti che la policy IAM per la tua API di backend disponga di autorizzazioni che coprano quanto segue: `GetFaceLivenessSessionResults`, e `CreateFaceLivenessSession`. Per maggiori informazioni, consulta la sezione [Prerequisiti](face-liveness-prerequisites.md).

## Fase 1: CreateFaceLivenessSession
<a name="face-liveness-programming-api-create-session"></a>

CreateFaceLivenessSession L'operazione API crea una sessione Face Liveness e ne restituisce una unica`SessionId`.

Come parte dell'input per questa operazione, è anche possibile specificare una posizione del bucket Amazon S3. Ciò consente la memorizzazione di un'immagine di riferimento e di controllare le immagini generate durante la sessione di riconoscimento facciale. Il bucket Amazon S3 deve trovarsi nell'account AWS del chiamante e nella stessa regione dell'endpoint Face Liveness. Inoltre, le chiavi degli oggetti S3 vengono generate dal sistema Face Liveness.

È anche possibile fornire un`AuditImagesLimit`, che è un numero compreso tra 0 e 4. Per impostazione predefinita, è impostato su 0. Il numero di immagini restituite è il massimo possibile e si basa sulla durata del video selfie.

Infine, puoi fornire una ChallengePreference, inclusi il tipo e la versione della sfida su cui desideri impostare la sessione come impostazione predefinita. Per impostazione predefinita, verrà utilizzato FaceLivenessMovementAndLightChallenge ma può essere impostato su FaceMovementChallenge.

**Esempio di richiesta**

```
{
   "ClientRequestToken": "string",
   "KmsKeyId": "string",
   "Settings": { 
      "AuditImagesLimit": number,
      "ChallengePreferences": [ 
         { 
            "Type": "string",
            "Versions": { 
               "Maximum": "string",
               "Minimum": "string"
            }
         }
      ],
      "OutputConfig": { 
         "S3Bucket": "string",
         "S3KeyPrefix": "string"
      }
   }
}
```

**Esempio di risposta**

```
{
    {"SessionId": "0f959dbb-37cc-45d8-a08d-dc42cce85fa8"}
}
```

## Fase 2: StartFaceLivenessSession
<a name="face-liveness-programming-api-start-session"></a>

Al termine dell'operazione CreateFaceLivenessSession API, il componente AWS Amplify esegue StartFaceLivenessSession l'operazione API. All'utente viene richiesto di scattare un video selfie. Per una corretta verifica, l'utente deve posizionare il volto all'interno dell'ovale sullo schermo mantenendo una buona illuminazione. Per ulteriori informazioni, consulta [Raccomandazioni per l'uso di Face Liveness](recommendations-liveness.md). 

Questa operazione API richiede il video acquisito durante la sessione di Face Liveness, il sessionID ottenuto dall'operazione API e un CreateFaceLivenessSession callback. `onAnalysisComplete` Il callback può essere utilizzato per segnalare al backend di chiamare l'operazione GetFaceLivenessSessionResults API, che restituisce un punteggio di confidenza, un riferimento e immagini di controllo. 

Tieni presente che questo passaggio viene eseguito dal componente AWS FaceLivenessDetector Amplify sull'applicazione client. Non è necessario eseguire configurazioni aggiuntive per chiamare`StartFaceLivenessSession`. 

## Fase 3: GetFaceLivenessSessionResults
<a name="face-liveness-programming-api-get-session-results"></a>

L'operazione GetFaceLivenessSessionResults API recupera i risultati di una sessione specifica di Face Liveness. Richiede il SessionID come input e restituisce il punteggio di confidenza Face Liveness corrispondente. Fornisce inoltre un'immagine di riferimento che include un riquadro di delimitazione facciale e immagini di controllo che contengono anche riquadri di delimitazione facciale. Il punteggio di confidenza di Face Liveness varia da 0 a 100. 

**Esempio di richiesta**

```
{"SessionId": "0f959dbb-37cc-45d8-a08d-dc42cce85fa8"}
```

**Esempio di risposta**

```
{
    "SessionId": "0f959dbb-37cc-45d8-a08d-dc42cce85fa8",
    "Confidence": 98.9735,
    "ReferenceImage": {
        "S3Object": { 
            "Bucket": "s3-bucket-name",
            "Name": "file-name",
        },
        "BoundingBox": { 
           "Height": 0.4943420886993408, 
            "Left": 0.8435328006744385, 
            "Top": 0.8435328006744385, 
            "Width": 0.9521094560623169}
    },
    "AuditImages": [{
        "S3Object": { 
            "Bucket": "s3-bucket-name",
            "Name": "audit-image-name",
        },
        "BoundingBox": { 
           "Width": 0.6399999856948853,
           "Height": 0.47999998927116394,
           "Left": 0.1644444465637207,
           "Top": 0.17666666209697723}
    }],
    "Status": "SUCCEEDED"
}
```

## Fase 4: rispondere ai risultati
<a name="face-liveness-programming-api-respond-results"></a>

Dopo la sessione di riconoscimento facciale, confronta il punteggio di confidenza del controllo con la soglia specificata. Se il punteggio è superiore alla soglia, l'utente può passare alla schermata o all'attività successiva. Se il controllo fallisce, l'utente verrà avvisato e gli verrà richiesto di riprovare. 

# Chiamata Face Liveness APIs
<a name="face-liveness-calling-apis"></a>

[Puoi testare Amazon Rekognition Face Liveness con qualsiasi SDK AWS supportato, come l'SDK AWS [Python Boto3 o l'SDK AWS](https://docs.aws.amazon.com/pythonsdk/) per Java.](https://docs.aws.amazon.com/sdk-for-java/v1/developer-guide/welcome.html) Puoi chiamare il and con l'SDK che hai scelto. `CreateFaceLivenessSession` `GetFaceLivenessSessionResults` APIs La sezione seguente mostra come chiamarli APIs con Python e Java. SDKs

 **Per chiamare Face Liveness**: APIs 
+ Se non l'hai già fatto, crea o aggiorna un utente con `AmazonRekognitionFullAccess` autorizzazioni. Per ulteriori informazioni, consulta [Fase 1: Configurare un account AWS e creare un utente](https://docs.aws.amazon.com/rekognition/latest/dg/setting-up.html#setting-up-iam).
+ Se non l'hai già fatto, installa e configura l'AWS CLI e AWS. SDKs Per ulteriori informazioni, consulta [Fase 2: Configurazione dell'interfaccia a riga di comando di AWS e di AWS](https://docs.aws.amazon.com/rekognition/latest/dg/setup-awscli-sdk.html). SDKs

------
#### [ Python ]

Il seguente frammento mostra come chiamarli APIs nelle applicazioni Python. Tieni presente che per eseguire questo esempio dovrai utilizzare almeno la versione 1.26.110 dell'SDK Boto3, sebbene sia consigliata la versione più recente dell'SDK.

```
import boto3

session = boto3.Session(profile_name='default') 
client = session.client('rekognition')

def create_session():

    response = client.create_face_liveness_session()
    
    session_id = response.get("SessionId")
    print('SessionId: ' + session_id)

    return session_id
    
    
def get_session_results(session_id):

    response = client.get_face_liveness_session_results(SessionId=session_id)
    
    confidence = response.get("Confidence")
    status = response.get("Status")
    
    print('Confidence: ' + "{:.2f}".format(confidence) + "%")
    print('Status: ' + status)
    
    return status


def main():
    session_id = create_session()
    print('Created a Face Liveness Session with ID: ' + session_id)
    
    status = get_session_results(session_id)
    print('Status of Face Liveness Session: ' + status)
        

if __name__ == "__main__":
    main()
```

------
#### [ Java ]

Il seguente frammento mostra come chiamarli APIs nelle applicazioni Java:

```
package aws.example.rekognition.liveness;

import com.amazonaws.services.rekognition.AmazonRekognition;
import com.amazonaws.services.rekognition.AmazonRekognitionClientBuilder;
import com.amazonaws.services.rekognition.model.AmazonRekognitionException;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionRequest;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionResult;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsRequest;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsResult;

public class DemoLivenessApplication {

    static AmazonRekognition rekognitionClient;

    public static void main(String[] args) throws Exception {
        
        rekognitionClient = AmazonRekognitionClientBuilder.defaultClient();
        
        try {
            String sessionId = createSession();
            System.out.println("Created a Face Liveness Session with ID: " + sessionId);
            
            String status = getSessionResults(sessionId);
            System.out.println("Status of Face Liveness Session: " + status);
        
        } catch(AmazonRekognitionException e) {
           e.printStackTrace();
        }
    }
    
    private static String createSession() throws Exception {
        
        CreateFaceLivenessSessionRequest request = new CreateFaceLivenessSessionRequest();
        CreateFaceLivenessSessionResult result = rekognitionClient.createFaceLivenessSession(request);
           
        String sessionId = result.getSessionId();
        System.out.println("SessionId: " + sessionId);
        
        return sessionId;
    }
    
    private static String getSessionResults(String sessionId) throws Exception {
        
        GetFaceLivenessSessionResultsRequest request = new GetFaceLivenessSessionResultsRequest().withSessionId(sessionId);
        GetFaceLivenessSessionResultsResult result = rekognitionClient.getFaceLivenessSessionResults(request);
          
        Float confidence = result.getConfidence();
        String status = result.getStatus();

        System.out.println("Confidence: " + confidence);
        System.out.println("status: " + status);
        
        return status;
    }   
}
```

------
#### [ Java V2 ]

Il seguente frammento mostra come chiamare Face Liveness con l'SDK Java V2 APIs : AWS 

```
package aws.example.rekognition.liveness;

import com.amazonaws.services.rekognition.AmazonRekognition;
import com.amazonaws.services.rekognition.AmazonRekognitionClientBuilder;
import com.amazonaws.services.rekognition.model.AmazonRekognitionException;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionRequest;
import com.amazonaws.services.rekognition.model.CreateFaceLivenessSessionResult;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsRequest;
import com.amazonaws.services.rekognition.model.GetFaceLivenessSessionResultsResult;

public class DemoLivenessApplication {

    static AmazonRekognition rekognitionClient;

    public static void main(String[] args) throws Exception {
        
        rekognitionClient = AmazonRekognitionClientBuilder.defaultClient();
        
        try {
            String sessionId = createSession();
            System.out.println("Created a Face Liveness Session with ID: " + sessionId);
            
            String status = getSessionResults(sessionId);
            System.out.println("Status of Face Liveness Session: " + status);
        
        } catch(AmazonRekognitionException e) {
           e.printStackTrace();
        }
    }
    
    private static String createSession() throws Exception {
        
        CreateFaceLivenessSessionRequest request = new CreateFaceLivenessSessionRequest();
        CreateFaceLivenessSessionResult result = rekognitionClient.createFaceLivenessSession(request);
           
        String sessionId = result.getSessionId();
        System.out.println("SessionId: " + sessionId);
        
        return sessionId;
    }
    
    private static String getSessionResults(String sessionId) throws Exception {
        
        GetFaceLivenessSessionResultsRequest request = new GetFaceLivenessSessionResultsRequest().withSessionId(sessionId);
        GetFaceLivenessSessionResultsResult result = rekognitionClient.getFaceLivenessSessionResults(request);
          
        Float confidence = result.getConfidence();
        String status = result.getStatus();

        System.out.println("Confidence: " + confidence);
        System.out.println("status: " + status);
        
        return status;
    }   
}
```

------
#### [ Node.Js ]

Il seguente frammento mostra come chiamare Face Liveness con l'SDK Node.Js: APIs AWS 

```
const Rekognition = require("aws-sdk/clients/rekognition");

const rekognitionClient = new Rekognition({ region: "us-east-1" });

async function createSession() {
    const response = await rekognitionClient.createFaceLivenessSession().promise();

    const sessionId = response.SessionId;
    console.log("SessionId:", sessionId);

    return sessionId;
}

async function getSessionResults(sessionId) {
    const response = await rekognitionClient
        .getFaceLivenessSessionResults({
            SessionId: sessionId,
        })
        .promise();

    const confidence = response.Confidence;
    const status = response.Status;
    console.log("Confidence:", confidence);
    console.log("Status:", status);

    return status;
}

async function main() {
    const sessionId = await createSession();
    console.log("Created a Face Liveness Session with ID:", sessionId);

    const status = await getSessionResults(sessionId);
    console.log("Status of Face Liveness Session:", status);
}

main();
```

------
#### [ Node.Js (Javascript SDK v3) ]

Il seguente frammento mostra come chiamare Face APIs Liveness con l'SDK Node.Js per Javascript v3: AWS 

```
import { RekognitionClient, CreateFaceLivenessSessionCommand } from "@aws-sdk/client-rekognition"; // ES Modules 
import const { RekognitionClient, CreateFaceLivenessSessionCommand } = require("@aws-sdk/client-rekognition"); // CommonJS import
const client = new RekognitionClient(config);
const input = { 
  KmsKeyId: "STRING_VALUE",
  Settings: { 
    OutputConfig: { // LivenessOutputConfig
      S3Bucket: "STRING_VALUE", // required
      S3KeyPrefix: "STRING_VALUE",
    },
    AuditImagesLimit: Number("int"),
  },
  ClientRequestToken: "STRING_VALUE",
};
const command = new CreateFaceLivenessSessionCommand(input);
const response = await client.send(command);
// { // CreateFaceLivenessSessionResponse
//   SessionId: "STRING_VALUE", // required
// };
```

------

# Configurazione e personalizzazione dell'applicazione
<a name="face-liveness-configure-cutomize-amplify"></a>

## Configurazione dell'applicazione
<a name="face-liveness-configuring-amplify.title"></a>

L'applicazione Face Liveness può funzionare su dispositivi mobili o browser web desktop. Ti consigliamo di configurare i componenti di Face Liveness per integrarli con la soluzione scelta. È inoltre necessario assicurarsi che l'applicazione sia autorizzata a utilizzare la fotocamera del dispositivo. La [guida Amplify Liveness](https://ui.docs.amplify.aws/react/connected-components/liveness) fornisce istruzioni dettagliate su come:
+  Installare e configurare AWS Amplify
+  Importa FaceLivenessDetector e renderizza il componente 
+  Ascoltare i callback 
+  Esempio di messaggio di errore di Render Amplify 

## Personalizzare la tua applicazione
<a name="face-liveness-customize-amplify.title"></a>

Puoi personalizzare determinati componenti della tua applicazione liveness utilizzando [AWS Amplify.](https://ui.docs.amplify.aws/react/getting-started/introduction) 

Per informazioni sulla traduzione, consulta la [documentazione di Amplify Authenticator](https://ui.docs.amplify.aws/react/connected-components/authenticator/customization#internationalization-i18n). 

Per informazioni sulla personalizzazione dei componenti e dei temi di Amplify, consulta la documentazione di Amplify relativa ai [temi.](https://ui.docs.amplify.aws/react/theming)

# Modello di responsabilità condivisa per il riconoscimento facciale
<a name="face-liveness-shared-responsibility-model"></a>

 

La sicurezza e la conformità sono una responsabilità condivisa tra te AWS e te, il cliente. Scopri di più sul modello di responsabilità AWS condivisa [qui](https://aws.amazon.com/compliance/shared-responsibility-model/).

1.  Tutte le chiamate al AWS servizio (tramite l'applicazione client o il backend del cliente) sono autenticate e autorizzate con AWS Auth (AWS autenticazione). È responsabilità dei proprietari dei servizi di riconoscimento facciale garantire che ciò avvenga. 

1.  Tutte le chiamate al backend del cliente (dall'applicazione client) vengono autenticate e autorizzate tramite il cliente. Questa responsabilità ricade sul cliente. Il cliente deve assicurarsi che le chiamate provenienti dall'applicazione client siano autenticate e non siano state manipolate in alcun modo. 

1.  Il backend del cliente deve identificare l'utente finale che esegue la richiesta di riconoscimento facciale. È responsabilità del cliente collegare un utente finale a una sessione di riconoscimento facciale. Il servizio di riconoscimento facciale non fa distinzione tra gli utenti finali. È in grado di identificare solo l' AWS identità chiamante (gestita dal cliente). 

1. AWS consiglia ai clienti di applicare controlli di convalida aggiuntivi, come la geolocalizzazione della posizione (ad esempio in base all'IP), i codici One Time Pass (OTPs) ecc. oltre a Face Liveness, in linea con i requisiti dei casi d'uso e il livello di sicurezza.

L'impostazione 'FaceMovementAndLightChallenge' offre la massima precisione per Rekognition Liveness richiedendo agli utenti di spostare il viso verso lo schermo e di tenerlo fermo per una serie di luci lampeggianti. Consigliamo ai clienti di utilizzare questa impostazione predefinita. In alternativa, i clienti possono abilitare l'impostazione FaceMovementChallenge '', che riduce il tempo di controllo di alcuni secondi eliminando le luci lampeggianti. Sebbene «FaceMovementAndLightChallenge» rimanga l'impostazione migliore per massimizzare la precisione, «FaceMovementChallenge» consente ai clienti di dare priorità ai controlli di vivibilità più rapidi. Nella scelta tra queste impostazioni, i clienti devono considerare i requisiti del proprio caso d'uso, tra cui i tipi di attacco previsti, le percentuali di falsa accettazione e di falsi rifiuti desiderate, e inoltre implementare controlli aggiuntivi come la geolocalizzazione (ad esempio in base all'IP), i codici One Time Pass (), ecc. OTPs I clienti devono prendere questa decisione dopo aver testato le prestazioni di Liveness con diverse soglie di punteggio di confidenza a seconda del loro caso d'uso. I clienti hanno la responsabilità di implementare i controlli per proteggere il dispositivo da cui viene inviato il video

Il seguente diagramma di flusso mostra quali chiamate sono autenticate dal servizio AWS o dal cliente:

![\[Flusso di rilevamento della vivacità che mostra le interazioni tra l'app client, il componente Face Liveness Detector, il backend del cliente, il servizio Rekognition e il servizio di streaming Rekognition per una sessione di face liveness sicura.\]](http://docs.aws.amazon.com/it_it/rekognition/latest/dg/images/SequenceDiagramLivenessFlow-v5.png)


Tutte le chiamate al servizio Amazon Rekognition Face Liveness sono AWS protette da Auth (tramite meccanismo di firma). AWS Ciò include le seguenti chiamate:
+  [3] Chiamata [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)API (dal backend del cliente) 
+  [7] Chiamata [StartFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_rekognitionstreaming_StartFaceLivenessSession.html)API (dall'applicazione client) 
+  [11] Chiamata [GetFaceLivenessSessionResults](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_GetFaceLivenessSessionResults.html)API (dal backend del cliente) 

Tutte le chiamate al backend del cliente devono disporre di un meccanismo di autenticazione e autorizzazione. I clienti devono garantire che le terze parti code/library/etc utilizzate vengano mantenute e sviluppate attivamente. I clienti devono inoltre assicurarsi che l'utente finale corretto stia effettuando chiamate alla sessione di riconoscimento facciale corretta. I clienti devono autenticare e autorizzare i seguenti flussi:
+  [2] Crea una sessione Face Liveness (dall'applicazione client) 
+  [10] Ottieni i risultati della sessione Face Liveness (dall'applicazione client) 

I clienti possono seguire il modello di sicurezza [STRIDE](https://owasp.org/www-community/Threat_Modeling_Process#stride-threat-list) per assicurarsi che le loro chiamate API siano protette.


| 
| 
| Tipo | Descrizione | Controllo di sicurezza | 
| --- |--- |--- |
| Spoofing | Azione di minaccia finalizzata all'accesso e all'utilizzo delle credenziali di un altro utente, come nome utente e password. | Autenticazione | 
| Manomissione | Azione di minaccia volta a modificare o modificare intenzionalmente i dati persistenti. Gli esempi includono i record in un database e l'alterazione dei dati in transito tra due computer su una rete aperta, come Internet. | Integrità | 
| Ripudio | Azione di minaccia finalizzata all'esecuzione di operazioni proibite in un sistema che non è in grado di tracciare le operazioni. | Non ripudio | 
| Divulgazione di informazioni | Azione di minaccia intesa a leggere un file a cui non è stato concesso l'accesso o a leggere dati in transito. | La riservatezza | 
| Negazione del servizio | Azione di minaccia consistente nel tentativo di negare l'accesso a utenti validi, ad esempio rendendo un server Web temporaneamente non disponibile o inutilizzabile. | Disponibilità | 
| Elevazione dei privilegi | Azione di minaccia volta a ottenere un accesso privilegiato alle risorse per ottenere un accesso non autorizzato alle informazioni o compromettere un sistema. | Autorizzazione | 

AWS protegge le sue connessioni nei seguenti modi:

1.  Calcolo della firma richiesta e successiva verifica della firma lato servizio. Le richieste vengono ***autenticate*** utilizzando questa firma. 

1.  AWS i clienti sono tenuti a configurare ruoli IAM appropriati per ***autorizzare*** determinate azioni/operazioni. Questi ruoli IAM sono necessari per effettuare chiamate ad AWS service. 

1.  Sono consentite solo le richieste HTTPS al servizio. AWS Le richieste vengono crittografate nella rete aperta tramite TLS. Ciò protegge la ***riservatezza*** delle richieste e ne mantiene ***l'integrità***. 

1. AWS il servizio registra dati sufficienti per identificare le chiamate effettuate dai clienti. In questo modo si evitano attacchi * **di ripudio** *.

1.  AWS ***il servizio possiede il mantenimento di una disponibilità sufficiente*** 

Il cliente è responsabile della protezione del servizio e delle chiamate API nei seguenti modi:

1.  Il cliente deve assicurarsi di seguire un meccanismo di autenticazione adeguato. Esistono vari meccanismi di autenticazione che possono essere utilizzati per autenticare una richiesta. I clienti possono esplorare [l'autenticazione basata su digest [ OAuth ](https://oauth.net/)](https://en.wikipedia.org/wiki/Digest_access_authentication), la connessione [OpenID](https://openid.net/connect/) e altri meccanismi. 

1.  I clienti devono assicurarsi che il proprio servizio supporti canali di crittografia adeguati (come TLS/HTTPS) per effettuare chiamate API di servizio. 

1.  I clienti devono assicurarsi di registrare i dati necessari per identificare in modo univoco una chiamata API e il chiamante. Dovrebbero essere in grado di identificare il client che chiama la loro API con parametri definiti e l'ora delle chiamate. 

1.  I clienti devono assicurarsi che il loro sistema sia disponibile e che siano protetti dagli attacchi [DDoS.](https://en.wikipedia.org/wiki/Denial-of-service_attack) Ecco alcuni esempi di [tecniche di difesa](https://en.wikipedia.org/wiki/Denial-of-service_attack#Defense_techniques) contro gli attacchi DDo S.

I clienti hanno la responsabilità di conservare le proprie applicazioni up-to-date. Per ulteriori informazioni, consulta [Linee guida per l'aggiornamento di Face Liveness](face-liveness-update-guidelines.md).

# Linee guida per l'aggiornamento di Face Liveness
<a name="face-liveness-update-guidelines"></a>

 AWS aggiorna regolarmente Face Liveness AWS SDKs (utilizzato nel backend del cliente) e FaceLivenessDetector i componenti di AWS Amplify SDKs (utilizzati nelle applicazioni client) per fornire nuove funzionalità, sicurezza aggiornata e migliorata, correzioni di bug APIs, miglioramenti dell'usabilità e altro ancora. Ti consigliamo di mantenerlo SDKs up-to-date per garantire un funzionamento ottimale della funzionalità. Se continui a utilizzare versioni precedenti di SDKs, le richieste potrebbero essere bloccate per motivi di manutenibilità e sicurezza. 

Face Liveness richiede l'utilizzo del FaceLivenessDetector componente, incluso in AWS SDKs Amplify (React, iOS, Android). 

## Controllo delle versioni e tempistiche
<a name="face-liveness-update-guidelines-versioning"></a>

Stiamo effettuando il controllo delle versioni dei seguenti componenti chiave della funzionalità Face Liveness. Seguiamo un formato di controllo delle versioni semantico. Ad esempio, un formato di versione di X.Y.Z in cui X rappresenta la versione principale, Y rappresenta la versione secondaria e Z rappresenta la versione della patch. 
+ Le sfide degli utenti di Face Liveness (ad esempio, FaceMovementAndLightChallenge challenge) fanno parte dell'API StartFaceLivenessSession 
+ FaceLivenessDetector i componenti forniti tramite AWS SDKs Amplify vengono utilizzati nelle applicazioni client

Versioni *principali*: riserviamo gli aggiornamenti delle versioni principali per importanti aggiornamenti di sicurezza, interruzioni delle API e straordinari aggiornamenti sull'usabilità. Le applicazioni e il backend per i clienti devono essere aggiornati il prima possibile per continuare a utilizzare le funzionalità di Face Liveness. Una volta rilasciata una nuova versione principale, supportiamo la versione principale precedente per 120 giorni dalla data della nuova versione. Potremmo bloccare le richieste provenienti dalla versione principale precedente dopo 120 giorni. 

Versioni *minori*: riserviamo aggiornamenti delle versioni minori per importanti funzionalità e miglioramenti di sicurezza e usabilità. Consigliamo vivamente di applicare questi aggiornamenti. Sebbene ci impegniamo a garantire che gli aggiornamenti minori siano retrocompatibili il più a lungo possibile, potremmo annunciare end-of-support una versione secondaria precedente 180 giorni dopo il rilascio di una nuova versione secondaria. 

Versioni *delle patch*: riserviamo gli aggiornamenti delle versioni patch per correzioni di bug e miglioramenti opzionali. Sebbene ti consigliamo di mantenere la tua versione up-to-date per la migliore sicurezza e esperienza utente, ci impegniamo a garantire che gli aggiornamenti delle patch siano completamente compatibili con le versioni precedenti fino al rilascio di una nuova versione principale o secondaria. 

La finestra temporale per il controllo delle versioni (120 giorni per le versioni principali e 180 giorni per le minori) si applica all'aggiornamento dell'SDK dell'app, al caricamento dell'app sull'app store o sul sito Web e al download dell'ultima versione dell'app da parte degli utenti.

## Rilascio delle versioni e matrice di compatibilità
<a name="face-liveness-update-guidelines-compatibility"></a>

Il rilascio di una versione principale per un FaceLivenessDetector componente o una sfida per l'utente spesso coincidono. Per aiutarti a tenere traccia delle dipendenze tra le versioni, consulta le risorse collegate nelle tabelle seguenti.

**Versioni e changelog dell'SDK:**


|  |  |  | 
| --- |--- |--- |
| FaceLivenessDetector per web SDK | FaceLivenessDetector per iOS SDK | FaceLivenessDetector per Android SDK | 
| [versione attuale](https://www.npmjs.com/package/@aws-amplify/ui-react-liveness) | [Registro delle modifiche](https://github.com/aws-amplify/amplify-ui/blob/main/packages/react-liveness/CHANGELOG.md) | [Versione attuale/Changelog](https://github.com/aws-amplify/amplify-ui-swift-liveness/releases) | [Versione corrente/Changelog](https://github.com/aws-amplify/amplify-ui-android/releases) | 

 **Sfide per gli utenti:** 


|  |  |  |  | 
| --- |--- |--- |--- |
| Nome della sfida | Versione | Data di rilascio | Data di pensionamento | 
| FaceMovementAndLightChallenge | v1.0.0 | 4/10/2023 | N/D | 
| FaceMovementChallenge | v1.0.0 | 30/04/2025 | N/D | 

## Comunicazione di nuove versioni
<a name="face-liveness-update-guidelines-communication"></a>

 AWS comunica le nuove uscite attraverso i seguenti canali: 
+ Notifiche e-mail di aggiornamento sullo stato del servizio inviate all'indirizzo e-mail dell'account associato all'ID dell'account Face Liveness.
+ Aggiornamenti pubblicati AWS SDKs e notifiche associate nei rispettivi GitHub repository.
+ Aggiornamenti pubblicati per AWS SDKs Amplify e notifiche associate nei rispettivi repository. GitHub 

Ti consigliamo di iscriverti a questi canali per rimanere. up-to-date

# Domande frequenti su Face Liveness
<a name="face-liveness-faq"></a>

Utilizza le seguenti domande frequenti per trovare le risposte alle domande più frequenti su Rekognition Face Liveness.
+ **Quali sono i risultati di un test di riconoscimento facciale?**

  

  Rekognition Face Liveness fornisce i seguenti risultati per ogni riconoscimento:
  + Punteggio di fiducia: viene restituito un punteggio numerico compreso tra 0 e 100. Questo punteggio indica la probabilità che il video selfie provenga da una persona reale e non da un malintenzionato che falsifica l’identità. 
  + Immagine di alta qualità: dal video selfie viene estratta un'unica immagine di alta qualità. Questa cornice può essere utilizzata per vari scopi come il confronto dei volti, la stima dell'età o la ricerca facciale.
  + Immagini di controllo: dal video selfie vengono restituite fino a quattro immagini, che possono essere utilizzate per scopi di audit trail. 
+ **Rekognition Face Liveness è conforme ai test iBeta Presentation Attack Detection (PAD)?**

  

  Il test Presentation Attack Detection (PAD) di iBeta Quality Assurance viene condotto in conformità alla norma ISO/IEC 30107-3. iBeta è accreditata dal NIST/NVLAP per testare e fornire risultati in base a questo standard PAD. Rekognition Face Liveness ha superato i test di conformità iBeta Presentation Attack Detection (PAD) di livello 1 e 2 con un punteggio PAD perfetto. Il rapporto può essere trovato sulla pagina web di iBeta [qui](https://www.ibeta.com/wp-content/uploads/2023/10/231019-Amazon-Rekognition-PAD-Level-2-Confirmation-Letter.pdf). 
+ **Come posso ottenere frame di alta qualità e frame aggiuntivi?**

  

  Il frame di alta qualità e i frame aggiuntivi possono essere restituiti come byte non elaborati o caricati in un bucket Amazon S3 specificato, a seconda delle configurazioni della richiesta API. [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)
+ **Posso cambiare la posizione dell’ovale e delle luci colorate?**

  

  No. La posizione ovale e le luci colorate sono caratteristiche che consentono una maggiore precisione e pertanto non possono essere personalizzate.
+ **Posso personalizzare l'interfaccia utente secondo la nostra applicazione?**

  

  Sì, puoi personalizzare la maggior parte dei componenti dello schermo come tema, colore, lingua, contenuto del testo e carattere per allinearli all'applicazione. I dettagli su come personalizzare questi componenti sono disponibili nella documentazione dei nostri componenti dell'interfaccia utente [React](https://ui.docs.amplify.aws/react/connected-components/liveness), [Swift](https://ui.docs.amplify.aws/swift/connected-components/liveness) e [Android](https://ui.docs.amplify.aws/android/connected-components/liveness).
+ **Posso personalizzare il conto alla rovescia e il tempo per adattare un volto a un ovale?**

  

  No, il conto alla rovescia e il tempo dedicato all'allenamento facciale sono stati predeterminati sulla base di studi interni su larga scala condotti su migliaia di utenti, con l'obiettivo di fornire un equilibrio ottimale tra ciò che consente una maggiore precisione e una maggiore latenza. Per questo motivo, le impostazioni delle tempistiche non possono essere personalizzate.
+ **Le luci di diverso colore soddisfano le linee guida sull'accessibilità?**

  

  Sì, le luci di colore diverso del nostro prodotto rispettano le linee guida sull'accessibilità delineate nelle WCAG 2.1. Come verificato con oltre 1000 controlli degli utenti, l'esperienza utente mostra circa due colori al secondo, il che è conforme alla raccomandazione di limitare i colori a tre al secondo. Ciò riduce la probabilità di innescare crisi epilettiche nella maggior parte della popolazione.
+ **L'SDK regola la luminosità dello schermo per ottenere risultati ottimali?**

  

  Il cellulare Face Liveness SDKs (per Android e iOS) regola automaticamente la luminosità all'avvio del controllo. Tuttavia, per il web SDK esistono limitazioni sulle pagine web che impediscono la regolazione automatica della luminosità. In questi casi, ci aspettiamo che l'applicazione web indichi agli utenti finali di aumentare manualmente la luminosità dello schermo per ottenere risultati ottimali.
+ **Deve essere un ovale? Potremmo usare altre forme simili?**

  

  No, le dimensioni, la forma e la posizione dell'ovale non sono personalizzabili. Lo specifico design ovale è stato scelto con cura per la sua efficacia nel catturare e analizzare accuratamente i movimenti del volto. Pertanto, la forma ovale non può essere modificata.
+ **Qual è la latenza end-to-end?**

  

  Misuriamo end-to-end la latenza dal momento in cui l'utente avvia l'azione richiesta per completare il liveness check fino al momento in cui l'utente ottiene il risultato (esito positivo o negativo). Nel migliore dei casi, la latenza è di 5 secondi. In media, ci aspettiamo che sia di circa 7 secondi. Nel peggiore dei casi, la latenza è di 11 secondi. Consideriamo la variazione della end-to-end latenza in quanto dipende da: il tempo impiegato dall'utente per completare l'azione richiesta (ad esempio, sposta il viso nell'ovale), dalla connettività di rete, dalla latenza dell'applicazione, ecc.
+ **Posso usare la funzionalità Face Liveness senza Amplify SDK?**

  

  No, è necessario l'Amplify SDK per utilizzare la funzionalità Rekognition Face Liveness.
+ **Dove posso trovare gli stati di errore associati a Face Liveness?**

  

  Puoi vedere i diversi stati di errore di Face Liveness [qui](https://ui.docs.amplify.aws/react/connected-components/liveness#error-states).
+ **Face Liveness non è disponibile nella mia regione. Come posso utilizzare questa funzionalità?**

  

  Puoi scegliere di chiamare Face Liveness in tutte le regioni in cui è disponibile, a seconda del carico di traffico e della vicinanza. Face Liveness è attualmente disponibile nelle seguenti regioni: AWS 
  + Stati Uniti orientali (Virginia settentrionale)
  + Stati Uniti occidentali (Oregon)
  + Europa (Irlanda)
  + Asia Pacifico (Tokyo, Mumbai)

  Anche se il tuo AWS account si trova in un'altra regione, non si prevede che la differenza di latenza sia significativa. Puoi ottenere cornici per selfie di alta qualità e controllare immagini tramite la posizione di Amazon S3 o come byte non elaborati, ma il tuo bucket Amazon S3 deve corrispondere alla regione di Face Liveness. AWS Se sono diversi, devi ricevere le immagini come byte grezzi.
+ **Amazon Rekognition Liveness Detection utilizza i contenuti dei clienti per migliorare il servizio?**

  

  Puoi scegliere di non utilizzare i tuoi input di immagini e video per migliorare o sviluppare la qualità di Rekognition e di altre tecnologie di apprendimento automatico/intelligenza artificiale di Amazon utilizzando una politica di rifiuto dei servizi di AWS Organizations. [Per informazioni su come rinunciare, consulta la politica di rifiuto dei servizi di Managing AI Services.](https://docs.aws.amazon.com//organizations/latest/userguide/orgs_manage_policies_ai-opt-out.html)