

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Connettere un’origine dati alla knowledge base
<a name="data-source-connectors"></a>

Dopo aver completato le configurazioni per la knowledge base, connettere alla knowledge base un’origine dati supportata.

Knowledge Base per Amazon Bedrock supporta la connessione a origini dati non strutturate o ad archivi di dati strutturati tramite un motore di query. Selezionare un argomento per scoprire come connettersi a quel tipo di origine dati:

**Supporto di contenuti multimodali**  
I contenuti multimodali (immagini, file audio e video) sono supportati solo con Amazon S3 e origini dati personalizzate. Altri tipi di fonti di dati ignoreranno i file multimodali durante l'ingestione. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

Per informazioni su come connettersi a un’origine dati utilizzando la console Amazon Bedrock, selezionare l’argomento corrispondente al tipo di origine dati in fondo a questa pagina:

Per connetterti a un'origine dati utilizzando l'API Amazon Bedrock, invia una [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)richiesta con un endpoint di [runtime Agents for Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-rt).

I seguenti campi sono obbligatori:


****  

| Campo | Descrizione di base | 
| --- | --- | 
| knowledgeBaseId | L’ID della knowledge base. | 
| nome | Un nome per la knowledge base. | 
| dataSourceConfiguration | Specifica il tipo o il servizio di origine dati nel campo type e include il campo corrispondente. Per ulteriori dettagli sulle configurazioni specifiche del servizio, selezionare l’argomento relativo al servizio dagli argomenti in fondo a questa pagina. | 

I seguenti campi sono facoltativi:


****  

| Campo | Caso d’uso | 
| --- | --- | 
| description | Per fornire una descrizione per l’origine dati. | 
| vectorIngestionConfiguration | Contiene configurazioni per personalizzare il processo di ingestione. Per ulteriori informazioni, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md). | 
| dataDeletionPolicy | Per specificare se recuperare con RETAIN gli embedding vettoriali nell’archivio vettoriale oppure se eliminarli con DELETE. | 
| serverSideEncryptionConfigurazione | Per crittografare i dati transitori durante la sincronizzazione dei dati con una chiave gestita dal cliente, specifica il relativo ARN nel campo kmsKeyArn. | 
| clientToken | Garantire che la richiesta API venga completata solo una volta. Per ulteriori informazioni, consulta [Garanzia di idempotenza](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

Selezionare un argomento per saperne di più su un servizio e sulla sua configurazione.

**Topics**
+ [Connettersi ad Amazon S3 per una knowledge base](s3-data-source-connector.md)
+ [Connettersi a Confluence per utilizzare la knowledge base](confluence-data-source-connector.md)
+ [Connect a Microsoft SharePoint per la tua knowledge base](sharepoint-data-source-connector.md)
+ [Connettersi a Salesforce per una knowledge base](salesforce-data-source-connector.md)
+ [Crawling di pagine web per la knowledge base](webcrawl-data-source-connector.md)
+ [Connessione della knowledge base a un’origine dati personalizzata](custom-data-source-connector.md)

# Connettersi ad Amazon S3 per una knowledge base
<a name="s3-data-source-connector"></a>

Amazon S3 è un servizio che consente di archiviare dati come oggetti nei bucket. [Puoi connetterti al tuo bucket Amazon S3 per la tua knowledge base di Amazon Bedrock utilizzando la [AWSconsole di gestione per Amazon Bedrock o l'API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)(vedi Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) supportata e). SDKs AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)

**Supporto di contenuti multimodali**  
Le sorgenti dati Amazon S3 supportano contenuti multimodali tra cui immagini, file audio e video. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

Puoi caricare un batch ridotto di file in un bucket Amazon S3 utilizzando la console Amazon S3 o l’API. In alternativa, puoi [AWS DataSync](https://docs.aws.amazon.com/datasync/latest/userguide/create-s3-location.html)utilizzarlo per caricare più file su S3 in modo continuo e trasferire file secondo una pianificazione da locale, edge, altro cloud o storage. AWS

Attualmente sono supportati solo i bucket S3 per uso generico.

Il numero di file e le dimensioni in MB per file che è possibile sottoporre a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-s3-connector)
+ [Prerequisiti](#prerequisites-s3-connector)
+ [Configurazione della connessione](#configuration-s3-connector)

## Funzionalità supportate
<a name="supported-features-s3-connector"></a>
+ Campi di metadati dei documenti
+ Prefissi di inclusione
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni

## Prerequisiti
<a name="prerequisites-s3-connector"></a>

**In Amazon S3, verifica quanto segue**:
+ Annota l’URI del bucket Amazon S3, il nome della risorsa Amazon (ARN) e l’ID dell’account AWS per il proprietario del bucket. Puoi trovare l’URI e l’ARN nella sezione delle proprietà della console Amazon S3. Il bucket deve trovarsi nella stessa Regione di Knowledge Base per Amazon Bedrock. È necessario disporre dell’autorizzazione per accedere al bucket.

**Nel tuo AWS account, assicurati di**:
+ Includi le autorizzazioni necessarie per connetterti alla tua fonte di dati nella role/permissions policy AWS Identity and Access Management (IAM) per la tua knowledge base. Per informazioni sulle autorizzazioni richieste per questa fonte di dati da aggiungere al IAM ruolo della knowledge base, consulta [Autorizzazioni per l'accesso alle](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds) fonti di dati.

**Nota**  
Se utilizzi la console, puoi creare IAM automaticamente il ruolo con tutte le autorizzazioni richieste come parte dei passaggi per la creazione di una knowledge base. Dopo la configurazione dell’origine dati e delle altre impostazioni, il ruolo IAM e tutte le autorizzazioni vengono applicati alla knowledge base specifica.

## Configurazione della connessione
<a name="configuration-s3-connector"></a>

Per connetterti al bucket Amazon S3, devi fornire le informazioni di configurazione necessarie per consentire ad Amazon Bedrock di accedere ai dati e di sottoporli a crawling, nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-s3-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sui filtri di inclusione/esclusione, sui campi di metadati dei documenti, sulla sincronizzazione incrementale e sul relativo funzionamento, consulta le sezioni seguenti:

### Campi di metadati dei documenti
<a name="ds-s3-metadata-fields"></a>

Puoi includere un file separato che specifica i metadati del documento fields/attributes per ogni file nella tua origine dati Amazon S3 e se includerli negli incorporamenti durante l'indicizzazione della fonte di dati nel vector store. Ad esempio, puoi creare un file nel seguente formato, assegnargli un nome *fileName.extension.metadata.json* e caricarlo nel tuo bucket S3.

```
{
  "metadataAttributes": {
    "company": {
      "value": {
        "type": "STRING",
        "stringValue": "BioPharm Innovations"
      },
      "includeForEmbedding": true
    },
    "created_date": {
      "value": {
        "type": "NUMBER",
        "numberValue": 20221205
      },
      "includeForEmbedding": true
    },
    "author": {
      "value": {
        "type": "STRING",
        "stringValue": "Lisa Thompson"
      },
      "includeForEmbedding": true
    },
    "origin": {
      "value": {
        "type": "STRING",
        "stringValue": "Overview"
      },
      "includeForEmbedding": true
    }
  }
}
```

Il file di metadati deve utilizzare lo stesso nome del file del documento di origine associato, con la dicitura `.metadata.json` aggiunta alla fine del nome del file. Il file di metadati deve essere archiviato nella stessa cartella o nello stesso percorso del file di origine nel bucket Amazon S3. Il file non deve superare il limite di 10 KB. [Per informazioni sui tipi di attribute/field dati supportati e sugli operatori di filtro che puoi applicare ai campi di metadati, consulta Metadati e filtri.](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html)

### Prefissi di inclusione
<a name="ds-s3-inclusion-exclusion"></a>

Puoi specificare un prefisso di inclusione, ovvero un prefisso di percorso Amazon S3, in cui utilizzare un file o una cartella S3 anziché l’intero bucket per creare il connettore delle origini dati S3.

### Sincronizzazione incrementale
<a name="ds-s3-incremental-sync"></a>

Il connettore per le sorgenti dati esegue la ricerca per indicizzazione dei contenuti nuovi, modificati ed eliminati ogni volta che l'origine dati si sincronizza con la knowledge base. Amazon Bedrockpuò utilizzare il meccanismo dell'origine dati per tenere traccia delle modifiche ai contenuti ed eseguire la scansione dei contenuti modificati dall'ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare la fonte di dati con la knowledge base, utilizza l'[StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)API o seleziona la knowledge base nella console e seleziona **Sincronizza** nella sezione panoramica delle origini dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

------
#### [ Console ]

**Come connettersi a un bucket Amazon S3 per una knowledge base**

1. Segui la procedura in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Amazon S3** come origine dati.

1. Fornisci un nome per l’origine dati.

1. Specificate se il bucket Amazon S3 si trova nel vostro AWS account corrente o in un altro account. AWS Il bucket deve trovarsi nella stessa Regione della knowledge base.

1. (Facoltativo) Se il bucket Amazon S3 è crittografato con una chiave KMS, includi la chiave. Per ulteriori informazioni, consulta [Autorizzazioni per decrittografare la AWS KMS chiave per le fonti di dati in Amazon S3](encryption-kb.md#encryption-kb-ds).

1. (Facoltativo) Nella sezione relativa a **chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** — Puoi crittografare i dati transitori mentre li converti in incorporamenti con la chiave KMS predefinita o con la tua chiave KMS. Chiave gestita da AWS Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione ad Amazon S3 per Knowledge Base per Amazon Bedrock. Puoi configurare la tua origine dati utilizzando l'API con l'SDK AWS CLI o supportato, come Python. Dopo la chiamata [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiami [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)per creare la fonte di dati contenente le informazioni di connessione. `dataSourceConfiguration`

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock-agent create-data-source \
 --name "S3-connector" \
 --description "S3 data source connector for Amazon Bedrock to use content in S3" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://s3-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":{"maxTokens":100,"overlapPercentage":10}}}'
                    
s3-bedrock-connector-configuration.json
{
    "s3Configuration": {
	    "bucketArn": "arn:aws:s3:::bucket-name",
	    "bucketOwnerAccountId": "000000000000",
	    "inclusionPrefixes": [
	        "documents/"
	    ]
    },
    "type": "S3"	
}
```

------

# Connettersi a Confluence per utilizzare la knowledge base
<a name="confluence-data-source-connector"></a>

Atlassian Confluence è uno strumento collaborativo di gestione del lavoro progettato per condividere, archiviare e lavorare sulla pianificazione dei progetti, sullo sviluppo del software e sulla gestione dei prodotti. Per connetterti all’istanza di Confluence corrente per Knowledge Base per Amazon Bedrock, utilizza la [Console di gestione AWS per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oppure l’API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) API (consulta gli [SDK supportati e la AWS CLI di Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)).

**Nota**  
Il connettore dell’origine dati in Confluence è disponibile nella versione di anteprima ed è soggetto a modifiche.  
Le origini dati Confluence non supportano dati multimodali, come tabelle, grafici, diagrammi o altre immagini.

Amazon Bedrock supporta la connessione a istanze di Confluence Cloud. Attualmente, solo l’archivio vettoriale Amazon OpenSearch serverless è disponibile per l’utilizzo con questa origine dati.

Il numero di file e le dimensioni in MB dei file che possono essere sottoposti a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-confluence-connector)
+ [Prerequisiti](#prerequisites-confluence-connector)
+ [Configurazione della connessione](#configuration-confluence-connector)

## Funzionalità supportate
<a name="supported-features-confluence-connector"></a>
+ Rilevamento automatico dei campi principali dei documenti
+ Filtri per inclusione/esclusione del contenuto
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni
+ Autenticazione OAuth 2.0 e autenticazione con token API Confluence

## Prerequisiti
<a name="prerequisites-confluence-connector"></a>

**In Confluence, assicurati di**:
+ Prendere nota dell’URL dell’istanza di Confluence, ad esempio *https://example.atlassian.net* per Confluence Cloud. L’URL per Confluence Cloud deve essere quello di base, che termina con *.atlassian.net*.
+ Configurare le credenziali di autenticazione di base contenenti un nome utente (indirizzo e-mail dell’account amministratore) e una password (token API Confluence) per consentire ad Amazon Bedrock di connettersi all’istanza di Confluence Cloud corrente. Per informazioni sulla creazione di un token API Confluence, consulta [Manage API tokens for your Atlassian account](https://support.atlassian.com/atlassian-account/docs/manage-api-tokens-for-your-atlassian-account/#Create-an-API-token) sul sito web di Atlassian.
+ (Facoltativo) Configurare un’applicazione OAuth 2.0 con le credenziali di una chiave e di un segreto dell’app, di un token di accesso e di uno di aggiornamento. Per ulteriori informazioni, consulta [OAuth 2.0 apps](https://developer.atlassian.com/cloud/confluence/oauth-2-3lo-apps/) sul sito web di Atlassian.
+ Abilitare determinati ambiti o autorizzazioni di lettura per consentire all’app OAuth 2.0 di connettersi a Confluence.

  API Confluence:
  + offline\$1access
  + read:content:confluence: consente di visualizzare i contenuti dettagliati 
  + read:content-details:confluence: consente di visualizzare i dettagli del contenuto 
  + read:space-details:confluence: consente di visualizzare i dettagli dello spazio
  + read:audit-log:confluence: consente di visualizzare i record di audit 
  + read:page:confluence: consente di visualizzare le pagine 
  + read:attachment:confluence: consente di visualizzare e di scaricare gli allegati al contenuto 
  + read:blogpost:confluence: consente di visualizzare i post di blog 
  + read:custom-content:confluence: consente di visualizzare contenuto personalizzato 
  + read:comment:confluence: consente di visualizzare i commenti 
  + read:template:confluence: consente di visualizzare i modelli di contenuto 
  + read:label:confluence: consente di visualizzare le etichette 
  + read:watcher:confluence: consente di visualizzare gli osservatori del contenuto 
  + read:relation:confluence: consente di visualizzare le relazioni tra entità 
  + read:user:confluence: consente di visualizzare i dettagli dell’utente 
  + read:configuration:confluence: consente di visualizzare le impostazioni di Confluence 
  + read:space:confluence: consente di visualizzare i dettagli dello spazio 
  + read:space.property:confluence: consente di visualizzare le proprietà dello spazio 
  + read:user.property:confluence: consente di visualizzare le proprietà dell’utente 
  + read:space.setting:confluence: consente di visualizzare le impostazioni dello spazio 
  + read:analytics.content:confluence: consente di visualizzare l’analisi del contenuto
  + read:content.property:confluence: consente di visualizzare le proprietà del contenuto
  + read:content.metadata:confluence: consente di visualizzare i riepiloghi del contenuto 
  + read:inlinetask:confluence: consente di visualizzare le attività 
  + read:task:confluence: consente di visualizzare le attività 
  + read:whiteboard:confluence: consente di visualizzare le lavagne 
  + read:app-data:confluence: consente di leggere i dati dell’app 
  + read:folder:confluence: consente di visualizzare le cartelle
  + read:embed:confluence: consente di visualizzare i dati Smartlink

**Nell’account AWS, assicurati di**:
+ Archiviare le credenziali di autenticazione in un [segreto di Gestione dei segreti AWS](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) e di prendere nota del nome della risorsa Amazon (ARN) del segreto stesso. Seguire le istruzioni nella sezione **Configurazione della connessione** in questa pagina per includere le coppie chiave-valore da inserire nel segreto.
+ Includere le autorizzazioni necessarie per la connessione all’origine dati nella policy di ruolo/autorizzazioni di AWS Identity and Access Management (IAM) per la knowledge base corrente. Per informazioni sulle autorizzazioni necessarie per aggiungere l’origine dati al ruolo IAM della knowledge base, consulta [Autorizzazioni per accedere alle origini dati](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Nota**  
Se si utilizza la console, è possibile andare in Gestione dei segreti AWS per aggiungere il segreto oppure utilizzare un segreto esistente nell’ambito della fase di configurazione dell’origine dati. Il ruolo IAM e tutte le autorizzazioni richieste possono essere creati automaticamente durante le fasi di creazione di una knowledge base nella console. Dopo la configurazione dell’origine dati e delle altre impostazioni, il ruolo IAM e tutte le autorizzazioni vengono applicati alla knowledge base specifica.  
Sarebbe opportuno aggiornare o ruotare regolarmente le credenziali e il segreto e fornire solo il livello di accesso necessario per motivi di sicurezza. Il riutilizzo di credenziali e segreti tra origini dati diverse non è consigliato.

## Configurazione della connessione
<a name="configuration-confluence-connector"></a>

Per connettersi all’istanza di Confluence corrente, è necessario fornire le informazioni di configurazione richieste per consentire ad Amazon Bedrock di accedere ai dati e di sottoporli a crawling, nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-confluence-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sul rilevamento automatico dei campi del documento, sui filtri di inclusione/esclusione, sulla sincronizzazione incrementale, sulle credenziali di autenticazione segrete e sul relativo funzionamento, consulta le sezioni seguenti:

### Rilevamento automatico dei campi principali dei documenti
<a name="ds-confluence-document-fields"></a>

Il connettore dell’origine dati rileva automaticamente tutti i campi di metadati principali dei documenti o dei contenuti e li sottopone a crawling. Ad esempio, il connettore dell’origine dati può sottoporre a crawling l’equivalente del corpo del documento, il titolo del documento, la data di creazione o di modifica del documento o altri campi principali che potrebbero essere applicati ai documenti.

**Importante**  
Se i contenuti includono informazioni sensibili, Amazon Bedrock potrebbe rispondere utilizzando informazioni di questo tipo.

Per migliorare ulteriormente la pertinenza delle risposte, è possibile applicare operatori di filtro ai campi di metadati, ad esempio “epoch\$1modification\$1time” del documento oppure il numero di secondi trascorsi dal 1° gennaio 1970, data dell’ultimo aggiornamento del documento. È possibile filtrare in base ai dati più recenti, in cui “epoch\$1modification\$1time” è *maggiore di* un determinato numero. Per ulteriori informazioni sugli operatori di filtro che è possibile applicare ai campi di metadati, consulta [Metadati e filtri](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Filtri di inclusione/esclusione
<a name="ds-confluence-inclusion-exclusion"></a>

È possibile includere o escludere il crawling di determinati contenuti, specificando ad esempio un prefisso di esclusione o un modello di espressione regolare per ignorare il crawling dei file che contengono il termine “privato” nel nome. È anche possibile specificare un prefisso di inclusione oppure un modello di espressione regolare per includere determinate entità o tipi di contenuto. Se si specifica un filtro di inclusione ed esclusione ed entrambi corrispondono a un documento, il filtro di esclusione ha la precedenza e il documento non viene sottoposto a crawling.

Un esempio di modello di espressione regolare per escludere o filtrare i file PDF che contengono “privato” nel nome è il seguente: *“.\$1privato.\$1\$1\$1.pdf”*.

I filtri di inclusione/esclusione possono essere applicati ai seguenti tipi di contenuto:
+ `Space`: chiave dello spazio univoca
+ `Page`: titolo principale della pagina
+ `Blog`: titolo principale del blog
+ `Comment`: commenti che appartengono a una pagina oppure a un blog specifico. Specificare *Re: Titolo pagina/blog*
+ `Attachment`: nome del file allegato con relativa estensione

### Sincronizzazione incrementale
<a name="ds-confluence-incremental-sync"></a>

Il connettore delle origini dati sottopone a crawling il contenuto nuovo, modificato ed eliminato ogni volta che l’origine dati si sincronizza con la knowledge base. Amazon Bedrock può utilizzare il meccanismo dell’origine dati per tenere traccia delle modifiche al contenuto e sottoporre a crawling il contenuto modificato dall’ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare l’origine dati con la knowledge base, utilizzare l’API [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) o selezionare la knowledge base nella console, quindi scegliere **Sincronizza** nella sezione di panoramica della console.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Credenziali di autenticazione segrete
<a name="ds-confluence-secret-auth-credentials"></a>

(Se si utilizza l’autenticazione di base) Le credenziali di autenticazione segrete in Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `username`: *indirizzo e-mail dell’utente amministratore dell’account Atlassian*
+ `password`: *token API Confluence*

(Se si utilizza l’autenticazione OAuth 2.0) Le credenziali di autenticazione segrete in Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `confluenceAppKey`: *chiave dell’app*
+ `confluenceAppSecret`: *segreto dell’app*
+ `confluenceAccessToken`: *token di accesso all’app*
+ `confluenceRefreshToken`: *token di aggiornamento dell’app*

**Nota**  
Il token di **accesso** OAuth2.0 per Confluence ha una scadenza predefinita di 60 minuti. Se il token di accesso scade durante la sincronizzazione dell’origine dati (processo di sincronizzazione), Amazon Bedrock utilizza il token di **aggiornamento** fornito per rigenerarlo. In questo caso vengono rigenerati sia i token di accesso sia quelli di aggiornamento. Per mantenere i token aggiornati dal processo di sincronizzazione corrente a quello successivo, Amazon Bedrock richiede le autorizzazioni di scrittura/immissione per le credenziali segrete nell’ambito del ruolo IAM della knowledge base.

**Nota**  
Il segreto in Gestione dei segreti AWS deve utilizzare la stessa Regione della knowledge base.

------
#### [ Console ]

**Connettere un’istanza di Confluence alla knowledge base**

1. Segui i passaggi indicati in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Confluence** come origine dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Indica l’URL dell’istanza di Confluence corrente, ad esempio *https://example.atlassian.net* per Confluence Cloud. L’URL per Confluence Cloud deve essere quello di base, che termina con *.atlassian.net*.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori**: è possibile crittografare i dati transitori durante la conversione in embedding con la Chiave gestita da AWS predefinita o con la chiave KMS in uso. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Fornisci le informazioni di autenticazione per connetterti all’istanza di Confluence corrente:
   + Per l’autenticazione di base, vai in Gestione dei segreti AWS per aggiungere le credenziali di autenticazione segrete oppure usa un nome della risorsa Amazon (ARN) esistente per il segreto creato. Il segreto deve contenere l’indirizzo e-mail dell’utente amministratore dell’account Atlassian come nome utente e un token API Confluence come password. Per informazioni sulla creazione di un token API Confluence, consulta [Manage API tokens for your Atlassian account](https://support.atlassian.com/atlassian-account/docs/manage-api-tokens-for-your-atlassian-account/#Create-an-API-token) sul sito web di Atlassian.
   + Per l’autenticazione OAuth 2.0, vai in Gestione dei segreti AWS per aggiungere le credenziali di autenticazione segrete oppure usa un nome della risorsa Amazon (ARN) esistente per il segreto creato. Il segreto deve contenere la chiave dell’app Confluence, il segreto dell’app, il token di accesso e quello di aggiornamento. Per ulteriori informazioni, consulta [OAuth 2.0 apps](https://developer.atlassian.com/cloud/confluence/oauth-2-3lo-apps/) sul sito web di Atlassian.

1. (Facoltativo) Nella sezione **Chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e dell’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Scegli di utilizzare filtri o modelli di espressione regolare per includere o escludere determinati contenuti. Altrimenti, tutto il contenuto standard viene sottoposto a crawling.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione a Confluence Cloud per Knowledge Base per Amazon Bedrock. Per configurare l’origine dati, utilizza l’API con la AWS CLI o con il componente SDK supportato, ad esempio Python. Dopo aver chiamato [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiama [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) per creare l’origine dati con le informazioni di connessione in `dataSourceConfiguration`.

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock create-data-source \
 --name "Confluence Cloud/SaaS connector" \
 --description "Confluence Cloud/SaaS data source connector for Amazon Bedrock to use content in Confluence" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://confluence-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":[{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":[{"maxTokens":"100","overlapPercentage":"10"}]}]}'

confluence-bedrock-connector-configuration.json
{
    "confluenceConfiguration": {
        "sourceConfiguration": {
            "hostUrl": "https://example.atlassian.net",
            "hostType": "SAAS",
            "authType": "OAUTH2_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-Confluence"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "Attachment",
                            "inclusionFilters": [
                                ".*\\.pdf"
                            ],
                            "exclusionFilters": [
                                ".*private.*\\.pdf"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "CONFLUENCE"
}
```

------

# Connect a Microsoft SharePoint per la tua knowledge base
<a name="sharepoint-data-source-connector"></a>

Microsoft SharePoint è un servizio collaborativo basato sul Web per lavorare su documenti, pagine Web, siti Web, elenchi e altro ancora. Puoi connetterti alla tua SharePoint istanza per la tua knowledge base di Amazon Bedrock utilizzando la [console di AWS gestione per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) o l'[CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)API (vedi Amazon Bedrock [supportata SDKs ](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html) e). AWS CLI

**Nota**  
SharePoint il connettore di origine dati è in versione di anteprima ed è soggetto a modifiche.  
Le origini SharePoint dati Microsoft non supportano dati multimodali, come tabelle, grafici, diagrammi o altre immagini.

Amazon Bedrock supporta la connessione a istanze SharePoint online. La scansione dei OneNote documenti non è attualmente supportata. Attualmente, solo Amazon OpenSearch Serverless Vector Store è disponibile per l'uso con questa fonte di dati.

Il numero di file e le dimensioni in MB per file che è possibile sottoporre a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-sharepoint-connector)
+ [Prerequisiti](#prerequisites-sharepoint-connector)
+ [Configurazione della connessione](#configuration-sharepoint-connector)

## Funzionalità supportate
<a name="supported-features-sharepoint-connector"></a>
+ Rilevamento automatico dei campi principali dei documenti
+ Filtri per inclusione/esclusione del contenuto
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni
+ SharePoint Autenticazione solo tramite app

## Prerequisiti
<a name="prerequisites-sharepoint-connector"></a>

### SharePoint (Online)
<a name="prerequisites-sharepoint-connector-online"></a>

**In SharePoint (Online), completa i seguenti passaggi per utilizzare l'autenticazione SharePoint solo per app:**
+ Prendi nota dell'URL del tuo sito SharePoint Online/. URLs Ad esempio, *https://yourdomain.sharepoint.com/sites/mysite*. L’URL deve iniziare con *https* e contenere *sharepoint.com*. L'URL del tuo sito deve essere il SharePoint sito effettivo, non *sharepoint.com/* o *sites/mysite/home.aspx*
+ Prendi nota del nome di dominio dell'URL dell'istanza SharePoint Online. URLs
+ Copia l’ID del tenant Microsoft 365. È possibile trovare l’ID del tenant nelle proprietà del portale di Microsoft Entra. Per i dettagli, consulta [Trova il tuo ID tenant di Microsoft 365](https://learn.microsoft.com/en-us/sharepoint/find-your-office-365-tenant-id).
**Nota**  
Per un’applicazione di esempio, vedi [Registrare un’applicazione client in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (precedentemente noto come Azure Active Directory) nel sito web Microsoft Learn. 
+ Configura le SharePoint credenziali solo per le app.
+ Copia l'ID client e il valore segreto del client quando concedi l'autorizzazione a App-Only. SharePoint Per ulteriori informazioni, consulta [Concessione](https://learn.microsoft.com/en-us/sharepoint/dev/solution-guidance/security-apponly-azureacs) dell'accesso tramite App-Only. SharePoint 
**Nota**  
Non è necessario configurare alcuna autorizzazione API per App-Only. SharePoint Tuttavia, è necessario configurare le autorizzazioni APP sul lato. SharePoint Per ulteriori informazioni sulle autorizzazioni APP richieste, consulta la documentazione Microsoft sulla [concessione dell'accesso tramite SharePoint ](https://learn.microsoft.com/en-us/sharepoint/dev/solution-guidance/security-apponly-azureacs) App-Only.

### Account AWS
<a name="prerequisites-sharepoint-connector-account"></a>

**Nel tuo AWS account, assicurati** di:
+ Archivia le credenziali di autenticazione in un [segreto di Gestione dei segreti AWS](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) e prendi nota del nome della risorsa Amazon (ARN) del segreto stesso. Segui le istruzioni nella sezione **Configurazione della connessione** in questa pagina per includere le coppie chiave-valore da inserire nel segreto.
+ Includi le autorizzazioni necessarie per connetterti alla tua fonte di dati nella role/permissions policy AWS Identity and Access Management (IAM) per la tua knowledge base. Per informazioni sulle autorizzazioni richieste per questa fonte di dati da aggiungere al IAM ruolo della knowledge base, consulta [Autorizzazioni per l'accesso alle](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds) fonti di dati.

**Nota**  
Se utilizzi la console, puoi andare Gestione dei segreti AWS a aggiungere il tuo segreto o utilizzare un segreto esistente come parte della fase di configurazione dell'origine dati. Il IAM ruolo con tutte le autorizzazioni richieste può essere creato automaticamente come parte dei passaggi della console per la creazione di una knowledge base. Dopo aver configurato l'origine dati e altre configurazioni, il IAM ruolo con tutte le autorizzazioni richieste viene applicato alla knowledge base specifica.  
Ti consigliamo di aggiornare o ruotare regolarmente le credenziali e il segreto. e fornire solo il livello di accesso necessario per motivi di sicurezza. Il riutilizzo di credenziali e segreti tra origini dati diverse non è consigliato.

## Configurazione della connessione
<a name="configuration-sharepoint-connector"></a>

Per connetterti alla tua SharePoint istanza, devi fornire le informazioni di configurazione necessarie in modo che Amazon Bedrock possa accedere ai tuoi dati ed eseguirne la scansione. nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-sharepoint-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sul rilevamento automatico dei campi del documento, sui filtri di inclusione/esclusione, sulla sincronizzazione incrementale, sulle credenziali di autenticazione dei segreti e sul relativo funzionamento, consulta le sezioni seguenti:

### Rilevamento automatico dei campi principali dei documenti
<a name="ds-sharepoint-document-fields"></a>

Il connettore delle origini dati rileva automaticamente tutti i campi di metadati principali dei documenti o dei contenuti e li sottopone a crawling. Ad esempio, il connettore delle origini dati può sottoporre a crawling l’equivalente del corpo del documento, il titolo del documento, la data di creazione o di modifica del documento o altri campi principali che potrebbero essere applicati ai documenti.

**Importante**  
Se i tuoi contenuti includono informazioni sensibili, allora Amazon Bedrock potrebbe rispondere utilizzando informazioni sensibili.

Per migliorare ulteriormente la pertinenza delle risposte, è possibile applicare operatori di filtro ai campi di metadati, ad esempio “epoch\$1modification\$1time” del documento oppure il numero di secondi trascorsi dal 1° gennaio 1970, data dell’ultimo aggiornamento del documento. È possibile filtrare in base ai dati più recenti, in cui “epoch\$1modification\$1time” è *maggiore di* un determinato numero. Per ulteriori informazioni sugli operatori di filtro che è possibile applicare ai campi di metadati, consulta [Metadati e filtri](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Filtri di inclusione/esclusione
<a name="ds-sharepoint-inclusion-exclusion"></a>

È possibile includere o escludere il crawling di determinati contenuti, Ad esempio, puoi specificare un modello di prefix/regular espressione di esclusione per evitare la scansione di qualsiasi file che contenga «privato» nel nome del file. È inoltre possibile specificare un modello di prefix/regular espressione di inclusione per includere determinate entità di contenuto o tipi di contenuto. Se si specifica un filtro di inclusione ed esclusione ed entrambi corrispondono a un documento, il filtro di esclusione ha la precedenza e il documento non viene sottoposto a crawling.

Un esempio di modello di espressione regolare per escludere o filtrare i file PDF che contengono “privato” nel nome è il seguente: *“.\$1privato.\$1\$1\$1.pdf”*.

È possibile applicare inclusion/exclusion filtri ai seguenti tipi di contenuto:
+ `Page`: titolo principale della pagina
+ `Event`: nome dell’evento
+ `File`: nome del file con la relativa estensione per gli allegati e tutti i file del documento

La scansione OneNote dei documenti non è attualmente supportata.

### Sincronizzazione incrementale
<a name="ds-sharepoint-incremental-sync"></a>

Il connettore di origine dati esegue la ricerca per indicizzazione di contenuti nuovi, modificati ed eliminati ogni volta che l'origine dati si sincronizza con la Knowledge Base. Amazon Bedrock può utilizzare il meccanismo dell'origine dati per tenere traccia delle modifiche ai contenuti ed eseguire la scansione dei contenuti modificati dall'ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare la fonte di dati con la knowledge base, utilizza l'[StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html)API o seleziona la knowledge base nella console e seleziona **Sincronizza** nella sezione panoramica delle origini dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Credenziali di autenticazione segrete
<a name="ds-sharepoint-secret-auth-credentials"></a>

Quando si utilizza l'autenticazione SharePoint solo per app, le credenziali di autenticazione segrete Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `clientId`: *client ID associated with your Microsoft Entra SharePoint application*
+ `clientSecret`: *client secret associated with your Microsoft Entra SharePoint application*
+ `sharePointClientId`: *client ID generated when registering your SharePoint app for App-Only authentication*
+ `sharePointClientSecret`: *client secret generated when registering your SharePoint app for App-Only authentication*

**Nota**  
L'accesso segreto Gestione dei segreti AWS deve utilizzare la stessa regione della knowledge base.

------
#### [ Console ]

**Connect un' SharePoint istanza alla knowledge base**<a name="connect-sharepoint-console"></a>

1. Segui i passaggi indicati [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **SharePoint**come fonte di dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Fornisci l'URL SharePoint del tuo sito/URLs. Ad esempio, per SharePoint Online,*https://yourdomain.sharepoint.com/sites/mysite*. L’URL deve iniziare con *https* e contenere *sharepoint.com*. L'URL del tuo sito deve essere il SharePoint sito effettivo, non *sharepoint.com/* o *sites/mysite/home.aspx*

1. Fornisci il nome di dominio della tua SharePoint istanza.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** — Puoi crittografare i dati transitori mentre li converti in incorporamenti con la chiave KMS predefinita Chiave gestita da AWS o con la tua chiave KMS. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Fornisci le informazioni di autenticazione per connetterti alla tua istanza. SharePoint Per l' SharePoint autenticazione solo tramite app:

   1. Fornisci l’ID del tenant. Puoi trovare l’ID del tenant nelle proprietà del portale di Azure Active Directory.

   1. Vai Gestione dei segreti AWS a per aggiungere le tue credenziali segrete o usa un Amazon Resource Name (ARN) esistente per il segreto che hai creato. Il tuo segreto deve contenere l'ID SharePoint cliente e il segreto SharePoint client generati quando hai registrato l'app App-Only a livello di tenant o a livello di sito, e l'ID client Entra e il segreto client Entra generati quando registri l'app in Entra.

1. (Facoltativo) Nella sezione relativa a **chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Scegliete di utilizzare modelli di filters/regular espressioni per includere o escludere determinati contenuti. Altrimenti, tutto il contenuto standard viene sottoposto a crawling.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione a SharePoint Online per la tua knowledge base Amazon Bedrock. Puoi configurare la tua origine dati utilizzando l'API con l'SDK AWS CLI o supportato, come Python. Dopo la chiamata [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiami [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)per creare la fonte di dati contenente le informazioni di connessione. `dataSourceConfiguration`

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock-agent create-data-source \
 --name "SharePoint Online connector" \
 --description "SharePoint Online data source connector for Amazon Bedrock to use content in SharePoint" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://sharepoint-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE"
```

**Contenuto di `sharepoint-bedrock-connector-configuration.json`**:

```
{
    "sharePointConfiguration": {
        "sourceConfiguration": {
            "tenantId": "888d0b57-69f1-4fb8-957f-e1f0bedf64de",
            "hostType": "ONLINE",
            "domain": "yourdomain",
            "siteUrls": [
                "https://yourdomain.sharepoint.com/sites/mysite"
            ],
            "authType": "OAUTH2_SHAREPOINT_APP_ONLY_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-SharePoint"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "File",
                            "inclusionFilters": [
                                ".*\\.pdf"
                            ],
                            "exclusionFilters": [
                                ".*private.*\\.pdf"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "SHAREPOINT"
}
```

------

**Importante**  
L'autenticazione OAuth2 2.0 non è consigliata. Ti consigliamo di utilizzare l'autenticazione solo per SharePoint app.

## Utilizzo di 0. OAuth2
<a name="sharepoint-connector-oauth"></a>

Utilizzando OAuth 2.0, è possibile autenticare e autorizzare l'accesso alle SharePoint risorse per i SharePoint connettori integrati con le Knowledge Base.

### Prerequisiti
<a name="sharepoint-connector-oauth-prereq"></a>

**In SharePoint, per l'autenticazione OAuth 2.0, assicurati** di:
+ Prendi nota dell'URL del tuo sito SharePoint Online/URLs. Ad esempio, *https://yourdomain.sharepoint.com/sites/mysite*. L’URL deve iniziare con *https* e contenere *sharepoint.com*. L'URL del tuo sito deve essere il SharePoint sito effettivo, non *sharepoint.com/* o *sites/mysite/home.aspx*
+ Prendi nota del nome di dominio dell'URL dell'istanza SharePoint Online. URLs
+ Copia l’ID del tenant Microsoft 365. Puoi trovare il tuo ID tenant nelle Proprietà del tuo portale Microsoft Entra o nella tua OAuth applicazione.

  Prendi nota del nome utente e della password dell' SharePointaccount amministratore e copia l'ID cliente e il valore del segreto del cliente durante la registrazione di un'applicazione.
**Nota**  
Per un’applicazione di esempio, vedi [Registrare un’applicazione client in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (precedentemente noto come Azure Active Directory) nel sito web Microsoft Learn. 
+ Alcune autorizzazioni di lettura sono necessarie per connettersi SharePoint quando si registra un'applicazione.
  + SharePoint: AllSites .Read (delegato): legge gli elementi in tutte le raccolte del sito
+ Potrebbe essere necessario disattivare le **impostazioni di sicurezza predefinite** nel portale di Azure utilizzando un utente amministratore. Per altre informazioni sulla gestione delle impostazioni di sicurezza predefinite nel portale di Azure, consulta la [documentazione Microsoft su come impostare le impostazioni di enable/disable sicurezza predefinite](https://learn.microsoft.com/en-us/microsoft-365/business-premium/m365bp-conditional-access?view=o365-worldwide&tabs=secdefaults#security-defaults-1).
+ Potrebbe essere necessario disattivare l'autenticazione a più fattori (MFA) nel SharePoint tuo account, in modo che Amazon Bedrock non sia bloccato dalla scansione dei tuoi contenuti. SharePoint 

Per completare i prerequisiti, verifica di aver completato la procedura in [Account AWS](#prerequisites-sharepoint-connector-account).

### Credenziali di autenticazione dei segreti
<a name="sharepoint-secret-auth-credentials-oauth"></a>

Per la configurazione della connessione per OAuth2 .0, è possibile eseguire gli stessi passaggi per il rilevamento automatico dei campi del documento principale, dei inclusion/exclusion filtri e della sincronizzazione incrementale, come descritto in. [Configurazione della connessione](#configuration-sharepoint-connector)

**Per l'autenticazione OAuth 2.0, le credenziali di autenticazione segrete Gestione dei segreti AWS devono includere queste coppie chiave-valore**.
+ `username`: *SharePoint admin username*
+ `password`: *SharePoint admin password*
+ `clientId`: *OAuth app client ID*
+ `clientSecret`: *OAuth app client secret*

### Connect un' SharePoint istanza alla knowledge base
<a name="sharepoint-connector-oauth-using"></a>

Per connettere un' SharePoint istanza alla tua knowledge base quando usi OAuth2 .0:
+ (console) Nella console, segui gli stessi passaggi descritti in [Connect a SharePoint instance to your knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/sharepoint-data-source-connector.html#connect-sharepoint-console). Quando desideri fornire le informazioni di autenticazione per connetterti alla tua SharePoint istanza.
  + Fornisci l’ID del tenant. Puoi trovare l’ID del tenant nelle proprietà del portale di Azure Active Directory.
  + Vai Gestione dei segreti AWS a per aggiungere le tue credenziali di autenticazione segrete o usa un Amazon Resource Name (ARN) esistente per il segreto che hai creato. Il tuo segreto deve contenere il nome utente e la password dell' SharePoint amministratore, l'ID client e il segreto del client dell'app registrata. Per un’applicazione di esempio, vedi [Registrare un’applicazione client in Microsoft Entra ID](https://learn.microsoft.com/en-us/azure/healthcare-apis/register-application) (precedentemente noto come Azure Active Directory) nel sito web Microsoft Learn.
+ (API) Di seguito è riportato un esempio di utilizzo dell'`CreateDataSource`API per creare un'origine dati con le informazioni di connessione per OAuth2 .0.

  ```
  aws bedrock-agent create-data-source \
   --name "SharePoint Online connector" \
   --description "SharePoint Online data source connector for Amazon Bedrock to use content in SharePoint" \
   --knowledge-base-id "your-knowledge-base-id" \
   --data-source-configuration file://sharepoint-bedrock-connector-configuration.json \
   --data-deletion-policy "DELETE"
  ```

  **Contenuto di `sharepoint-bedrock-connector-configuration.json`**:

  ```
  {
      "sharePointConfiguration": {
          "sourceConfiguration": {
              "tenantId": "888d0b57-69f1-4fb8-957f-e1f0bedf64de",
              "hostType": "ONLINE",
              "domain": "yourdomain",
              "siteUrls": [
                  "https://yourdomain.sharepoint.com/sites/mysite"
              ],
              "authType": "OAUTH2_CLIENT_CREDENTIALS",
              "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-SharePoint"
          },
          "crawlerConfiguration": {
              "filterConfiguration": {
                  "type": "PATTERN",
                  "patternObjectFilter": {
                      "filters": [
                          {
                              "objectType": "File",
                              "inclusionFilters": [
                                  ".*\\.pdf"
                              ],
                              "exclusionFilters": [
                                  ".*private.*\\.pdf"
                              ]
                          }
                      ]
                  }
              }
          }
      },
      "type": "SHAREPOINT"
  }
  ```

# Connettersi a Salesforce per una knowledge base
<a name="salesforce-data-source-connector"></a>

Salesforce è uno strumento di gestione delle relazioni con i clienti (CRM, Customer Relationship Management) per la gestione dei team di supporto, vendita e marketing. Per connetterti all’istanza Salesforce per Knowledge Base per Amazon Bedrock, utilizza la [Console di gestione AWS per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) oppure l’API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) (consulta gli [SDK supportati di Amazon Bedrock e la AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)).

**Nota**  
Il connettore delle origini dati in Salesforce è disponibile nella versione di anteprima ed è soggetto a modifiche.  
Le origini dati Salesforce non supportano dati multimodali, come tabelle, grafici, diagrammi o altre immagini.

Attualmente, solo l’archivio vettoriale Amazon OpenSearch serverless è disponibile per l’utilizzo con questa origine dati.

Il numero di file e le dimensioni in MB per file che è possibile sottoporre a crawling sono limitati. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-salesforce-connector)
+ [Prerequisiti](#prerequisites-salesforce-connector)
+ [Configurazione della connessione](#configuration-salesforce-connector)

## Funzionalità supportate
<a name="supported-features-salesforce-connector"></a>
+ Rilevamento automatico dei campi principali dei documenti
+ Filtri per inclusione/esclusione del contenuto
+ Sincronizzazione incrementale dei contenuti per aggiunte, aggiornamenti ed eliminazioni
+ Autenticazione OAuth 2.0

## Prerequisiti
<a name="prerequisites-salesforce-connector"></a>

**In Salesforce, verifica quanto segue**:
+ Prendi nota dell’URL della tua istanza Salesforce. Ad esempio, *https://company.salesforce.com/*. L’istanza deve eseguire un’app connessa Salesforce.
+ Crea un’app connessa Salesforce e configura le credenziali del client. Quindi, per l’app selezionata, copia la chiave utente (ID client) e il segreto utente (segreto del cliente) dalle impostazioni OAuth. Per ulteriori informazioni, consulta la documentazione di Salesforce su come [creare un’app connessa](https://help.salesforce.com/s/articleView?id=sf.connected_app_create.htm&type=5) e [configurare un’app connessa per le credenziali del client OAuth 2.0](https://help.salesforce.com/s/articleView?id=sf.connected_app_client_credentials_setup.htm&type=5).
**Nota**  
Per le app connesse Salesforce, in Client Credentials Flow, assicurati di cercare e selezionare il nome o l’alias dell’utente per le credenziali del client nel campo “Run As”.

**Nell’account AWS, verifica quanto segue**:
+ Archivia le credenziali di autenticazione in un [segreto di Gestione dei segreti AWS](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html) e prendi nota del nome della risorsa Amazon (ARN) del segreto stesso. Segui le istruzioni nella sezione **Configurazione della connessione** in questa pagina per includere le coppie chiave-valore da inserire nel segreto.
+ Includi le autorizzazioni necessarie per la connessione all’origine dati nella policy di ruolo/autorizzazioni di AWS Identity and Access Management (IAM) per la knowledge base corrente. Per informazioni sulle autorizzazioni necessarie per aggiungere l’origine dati al ruolo IAM della knowledge base, consulta [Autorizzazioni per accedere alle origini dati](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html#kb-permissions-access-ds).

**Nota**  
Se utilizzi la console, è possibile passare ad Gestione dei segreti AWS per aggiungere il segreto oppure utilizzare un segreto esistente nell’ambito della fase di configurazione dell’origine dati. Il ruolo IAM e tutte le autorizzazioni richieste possono essere creati automaticamente durante le fasi di creazione di una knowledge base nella console. Dopo la configurazione dell’origine dati e delle altre impostazioni, il ruolo IAM e tutte le autorizzazioni vengono applicati alla knowledge base specifica.  
Ti consigliamo di aggiornare o ruotare regolarmente le credenziali e il segreto. e fornire solo il livello di accesso necessario per motivi di sicurezza. Il riutilizzo di credenziali e segreti tra origini dati diverse non è consigliato.

## Configurazione della connessione
<a name="configuration-salesforce-connector"></a>

Per connetterti all’istanza di Salesforce corrente, devi fornire le informazioni di configurazione richieste per consentire ad Amazon Bedrock di accedere ai dati e di sottoporli a crawling, nonché rispettare le indicazioni presenti nella sezione [Prerequisiti](#prerequisites-salesforce-connector).

Un esempio di configurazione per l’origine dati è incluso in questa sezione.

Per ulteriori informazioni sul rilevamento automatico dei campi del documento, sui filtri di inclusione/esclusione, sulla sincronizzazione incrementale, sulle credenziali di autenticazione dei segreti e sul relativo funzionamento, consulta le sezioni seguenti:

### Rilevamento automatico dei campi principali dei documenti
<a name="ds-salesforce-document-fields"></a>

Il connettore delle origini dati rileva automaticamente tutti i campi di metadati principali dei documenti o dei contenuti e li sottopone a crawling. Ad esempio, il connettore delle origini dati può sottoporre a crawling l’equivalente del corpo del documento, il titolo del documento, la data di creazione o di modifica del documento o altri campi principali che potrebbero essere applicati ai documenti.

**Importante**  
Se i contenuti includono informazioni sensibili, Amazon Bedrock potrebbe rispondere utilizzando informazioni di questo tipo.

Per migliorare ulteriormente la pertinenza delle risposte, è possibile applicare operatori di filtro ai campi di metadati, ad esempio “epoch\$1modification\$1time” del documento oppure il numero di secondi trascorsi dal 1° gennaio 1970, data dell’ultimo aggiornamento del documento. È possibile filtrare in base ai dati più recenti, in cui “epoch\$1modification\$1time” è *maggiore di* un determinato numero. Per ulteriori informazioni sugli operatori di filtro che è possibile applicare ai campi di metadati, consulta [Metadati e filtri](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-test-config.html).

### Filtri di inclusione/esclusione
<a name="ds-salesforce-inclusion-exclusion"></a>

È possibile includere o escludere il crawling di determinati contenuti, specificando ad esempio un prefisso di esclusione o un modello di espressione regolare per ignorare il crawling dei file che contengono il termine “privato” nel nome. È anche possibile specificare un prefisso di inclusione oppure un modello di espressione regolare per includere determinate entità o tipi di contenuto. Se si specifica un filtro di inclusione ed esclusione ed entrambi corrispondono a un documento, il filtro di esclusione ha la precedenza e il documento non viene sottoposto a crawling.

Un esempio di modello di espressione regolare per escludere o filtrare le campagne che contengono “privato” nel nome è il seguente: *“.\$1privato.\$1”*.

I filtri di inclusione/esclusione possono essere applicati ai seguenti tipi di contenuto:
+ `Account`: numero/identificatore dell’account
+ `Attachment`: nome del file allegato con relativa estensione
+ `Campaign`: nome della campagna e identificatori associati
+ `ContentVersion`: versione del documento e identificatori associati
+ `Partner`: campi di informazioni partner, inclusi gli identificatori associati
+ `Pricebook2`: nome del prodotto/listino prezzi
+ `Case`: numero di richiesta/problema del cliente e altri campi informativi, compresi gli identificatori associati (nota: può contenere informazioni personali, che puoi escludere o filtrare)
+ `Contact`: campi informativi sul cliente (nota: può contenere informazioni personali, che puoi escludere o filtrare)
+ `Contract`: nome del contratto e identificatori associati
+ `Document`: nome del file con relativa estensione
+ `Idea`: campi informativi sull’idea e identificatori associati
+ `Lead`: campi informativi su nuovi clienti potenziali (nota: può contenere informazioni personali, che puoi escludere o filtrare)
+ `Opportunity`: campi informativi sulla vendita o sull’offerta in sospeso e identificatori associati
+ `Product2`: campi informativi sul prodotto e identificatori associati
+ `Solution`: nome della soluzione per la richiesta/problema di un cliente e identificatori associati
+ `Task`: campi informativi sull’attività e identificatori associati
+ `FeedItem`: identificatore del post del feed di chat
+ `FeedComment`: identificatore del post del feed di chat a cui appartengono i commenti
+ `Knowledge__kav`: titolo dell’articolo della knowledge base
+ `User`: alias utente all’interno dell’organizzazione
+ `CollaborationGroup`: nome del gruppo di chat (univoco)

### Sincronizzazione incrementale
<a name="ds-salesforce-incremental-sync"></a>

Il connettore delle origini dati sottopone a crawling il contenuto nuovo, modificato ed eliminato ogni volta che l’origine dati si sincronizza con la knowledge base. Amazon Bedrock può utilizzare il meccanismo dell’origine dati per tenere traccia delle modifiche al contenuto e sottoporre a crawling il contenuto modificato dall’ultima sincronizzazione. Quando sincronizzi per la prima volta l’origine dati con la knowledge base, per impostazione predefinita tutti i contenuti vengono sottoposti a crawling.

Per sincronizzare l’origine dati con la knowledge base, utilizza l’API [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) o seleziona la knowledge base nella console, quindi scegli **Sincronizza** nella sezione di panoramica dell’origine dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

### Credenziali di autenticazione dei segreti
<a name="ds-salesforce-secret-auth-credentials"></a>

(Per l’autenticazione OAuth 2.0) Le credenziali di autenticazione dei segreti in Gestione dei segreti AWS devono includere queste coppie chiave-valore:
+ `consumerKey`: *ID del client dell’app*
+ `consumerSecret`: *segreto del client dell’app*
+ `authenticationUrl`: *URL dell’istanza Salesforce o URL da cui richiedere il token di autenticazione*

**Nota**  
Il segreto in Gestione dei segreti AWS deve utilizzare la stessa Regione della knowledge base.

------
#### [ Console ]

**Connettere un’istanza Salesforce alla knowledge base**

1. Segui la procedura in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Salesforce** come origine dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Fornisci l’URL della tua istanza Salesforce. Ad esempio, *https://company.salesforce.com/*. L’istanza deve eseguire un’app connessa Salesforce.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** Puoi crittografare i dati transitori durante la conversione in embedding con la chiave Chiave gestita da AWS predefinita o con la chiave KMS in uso. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. Fornisci le informazioni di autenticazione per connetterti alla tua istanza Salesforce:

   1. Per l’autenticazione OAuth 2.0, vai in Gestione dei segreti AWS per aggiungere le credenziali di autenticazione segrete oppure usa un nome della risorsa Amazon (ARN) esistente per il segreto creato. Il tuo segreto deve contenere la chiave utente (ID cliente) dell’app connessa Salesforce, il segreto utente (segreto del cliente) e l’URL dell’istanza Salesforce o l’URL da cui richiedere il token di autenticazione. Per ulteriori informazioni, consulta la documentazione di Salesforce su come [creare un’app connessa](https://help.salesforce.com/s/articleView?id=sf.connected_app_create.htm&type=5) e [configurare un’app connessa per le credenziali del client OAuth 2.0](https://help.salesforce.com/s/articleView?id=sf.connected_app_client_credentials_setup.htm&type=5).

1. (Facoltativo) Nella sezione relativa a **chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Scegli di utilizzare filtri o modelli di espressione regolare per includere o escludere determinati contenuti. Altrimenti, tutto il contenuto standard viene sottoposto a crawling.

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Di seguito è riportato un esempio di configurazione per la connessione a Salesforce per Knowledge Base per Amazon Bedrock. Per configurare l’origine dati, utilizza l’API con la AWS CLI o con il componente SDK supportato, ad esempio Python. Dopo aver chiamato [CreateKnowledgeBase](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateKnowledgeBase.html), chiama [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) per creare l’origine dati con le informazioni di connessione in `dataSourceConfiguration`.

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

**AWS Command Line Interface**

```
aws bedrock create-data-source \
 --name "Salesforce connector" \
 --description "Salesforce data source connector for Amazon Bedrock to use content in Salesforce" \
 --knowledge-base-id "your-knowledge-base-id" \
 --data-source-configuration file://salesforce-bedrock-connector-configuration.json \
 --data-deletion-policy "DELETE" \
 --vector-ingestion-configuration '{"chunkingConfiguration":[{"chunkingStrategy":"FIXED_SIZE","fixedSizeChunkingConfiguration":[{"maxTokens":"100","overlapPercentage":"10"}]}]}'

salesforce-bedrock-connector-configuration.json
{
    "salesforceConfiguration": {
        "sourceConfiguration": {
            "hostUrl": "https://company.salesforce.com/",
            "authType": "OAUTH2_CLIENT_CREDENTIALS",
            "credentialsSecretArn": "arn:aws::secretsmanager:your-region:secret:AmazonBedrock-Salesforce"
        },
        "crawlerConfiguration": {
            "filterConfiguration": {
                "type": "PATTERN",
                "patternObjectFilter": {
                    "filters": [
                        {
                            "objectType": "Campaign",
                            "inclusionFilters": [
                                ".*public.*"
                            ],
                            "exclusionFilters": [
                                ".*private.*"
                            ]
                        }
                    ]
                }
            }
        }
    },
    "type": "SALESFORCE"
}
```

------

# Crawling di pagine web per la knowledge base
<a name="webcrawl-data-source-connector"></a>

Il crawler web fornito da Amazon Bedrock si connette agli URL che hai selezionato per l’uso in Knowledge Base per Amazon Bedrock e ne esegue il crawling. Puoi eseguire il crawling delle pagine del sito web in base all’ambito o ai limiti impostati per gli URL selezionati. Puoi eseguire il crawling delle pagine dei siti web utilizzando la [Console di gestione AWS per Amazon Bedrock](https://console.aws.amazon.com/bedrock/home) o l’API [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) (vedi [SDK supportati da Amazon Bedrock e AWS CLI](https://docs.aws.amazon.com/bedrock/latest/APIReference/welcome.html)). Attualmente, solo l’archivio vettoriale Amazon OpenSearch serverless è disponibile per l’utilizzo con questa origine dati.

**Nota**  
Il connettore dell’origine dati del crawler web è disponibile nella versione di anteprima ed è soggetto a modifiche.

Quando selezioni i siti web da sottoporre al crawling, devi rispettare la [Policy di utilizzo accettabile di Amazon](https://aws.amazon.com/aup/) e tutti gli altri termini di Amazon. Ricorda che puoi utilizzare il crawler web solo per indicizzare pagine web di tua proprietà o di cui hai l’autorizzazione a eseguire il crawling e devi rispettare le configurazioni di robots.txt.

Il crawler web rispetta robots.txt in conformità con lo standard [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html)

Esistono limiti al numero di elementi di contenuto delle pagine web e ai MB per elemento di contenuto che possono essere sottoposti a crawling. Consulta [Quote per le knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html).

**Topics**
+ [Funzionalità supportate](#supported-features-webcrawl-connector)
+ [Prerequisiti](#prerequisites-webcrawl-connector)
+ [Configurazione della connessione](#configuration-webcrawl-connector)

## Funzionalità supportate
<a name="supported-features-webcrawl-connector"></a>

Il crawler web si connette alle pagine HTML e le scansiona a partire dall’URL iniziale, attraversando tutti i link secondari all’interno dello stesso dominio e percorso primari. Se una delle pagine HTML fa riferimento a documenti supportati, il crawler web recupererà tali documenti, indipendentemente dal fatto che si trovino all’interno dello stesso dominio primario. Puoi modificare il comportamento del crawling modificando la configurazione della scansione. Consulta [Configurazione della connessione](#configuration-webcrawl-connector).

Quanto segue è supportato per:
+ Seleziona più URL di origine da sottoporre a scansione e imposta l’ambito degli URL in modo che eseguano il crawling solo dell’host o includano anche i sottodomini.
+ Scansiona le pagine web statiche che fanno parte degli URL di origine.
+ Specifica il suffisso User Agent personalizzato per impostare le regole per il tuo crawler.
+ Includi o escludi determinati URL che corrispondono a un modello di filtro.
+ Rispetta le direttive robots.txt standard come “Allow” and “Disallow”.
+ Limita l’ambito degli URL al crawling e, facoltativamente, escludi gli URL che corrispondono a uno schema di filtro.
+ Limita la velocità di crawling degli URL e il numero massimo di pagine da sottoporre a crawling.
+ Visualizza lo stato degli URL sottoposti a crawling in Amazon CloudWatch.

## Prerequisiti
<a name="prerequisites-webcrawl-connector"></a>

**Per utilizzare il crawler web, assicurati di**:
+ Verifica di avere l’autorizzazione a eseguire la scansione degli URL di origine.
+ Verifica che il percorso di robots.txt corrispondente agli URL di origine non impedisca il crawling degli URL. Il crawler web aderisce agli standard di robots.txt: `disallow` per impostazione predefinita se robots.txt non viene trovato per il sito web. Il crawler web rispetta robots.txt in conformità con lo standard [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html). Puoi anche specificare il suffisso di intestazione User Agent personalizzato per impostare le regole per il tuo crawler. Per ulteriori informazioni, consulta l’accesso all’URL del crawler web nelle istruzioni [Configurazione della connessione](#configuration-webcrawl-connector) di questa pagina.
+ [Abilita la distribuzione di CloudWatch Logs](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-bases-logging.html) e segui gli esempi del crawler web per visualizzare lo stato del processo di importazione dei dati per l’acquisizione di contenuti web e se determinati URL non possono essere recuperati.

**Nota**  
Quando selezioni i siti web da sottoporre al crawling, devi rispettare la [Policy di utilizzo accettabile di Amazon](https://aws.amazon.com/aup/) e tutti gli altri termini di Amazon. Ricorda che puoi utilizzare il crawler web solo per indicizzare pagine web di tua proprietà o di cui hai l’autorizzazione a eseguire il crawling.

## Configurazione della connessione
<a name="configuration-webcrawl-connector"></a>

Per ulteriori informazioni sull’ambito di sincronizzazione per il crawling degli URL, i filtri di inclusione/esclusione, l’accesso agli URL, la sincronizzazione incrementale e su come funzionano, seleziona quanto segue:

### Ambito di sincronizzazione per gli URL di crawling
<a name="ds-sync-scope"></a>

Puoi limitare l’ambito degli URL da sottoporre a crawling in base alla relazione specifica tra l’URL di ogni pagina e gli URL iniziali. Per crawling più rapidi, puoi limitare gli URL a quelli con lo stesso host e lo stesso percorso URL iniziale dell’URL iniziale. Per crawling più ampi, puoi scegliere di eseguire il crawling degli URL con lo stesso host o all’interno di qualsiasi sottodominio dell’URL iniziale.

Puoi scegliere tra le opzioni riportate di seguito.
+ Impostazione predefinita: limita il crawling alle pagine web che appartengono allo stesso host e con lo stesso percorso URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/” verranno sottoposti a crawling solo questo percorso e le pagine web che si diramano da esso, come “https://aws.amazon.com/bedrock/agents/”. Ad esempio, gli URL di pari livello come “https://aws.amazon.com/ec2/” non vengono inclusi nel processo di crawling.
+ Solo host: limita il crawling alle pagine web che appartengono allo stesso host. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verranno sottoposte a crawling anche le pagine web con “https://aws.amazon.com”, come “https://aws.amazon.com/ec2”.
+ Sottodomini: include il crawling di qualsiasi pagina web con lo stesso dominio primario dell’URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verrà sottoposta a crawling qualsiasi pagina web che contenga “amazon.com” (sottodominio), come “https://www.amazon.com”.

**Nota**  
Assicurati di non eseguire il crawling di pagine web potenzialmente eccessive. Non è consigliabile eseguire il crawling di siti web di grandi dimensioni, come wikipedia.org, senza filtri o limiti di ambito. Il crawling di siti web di grandi dimensioni richiederà molto tempo.  
I [tipi di file supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) vengono sottoposti a crawling indipendentemente dall’ambito e se non esiste uno schema di esclusione per il tipo di file.

Il crawler web supporta siti web statici.

Puoi anche limitare la velocità di crawling degli URL per controllare la limitazione (della larghezza di banda della rete) della velocità di crawling. Imposti il numero massimo di URL sottoposti a crawling per host al minuto. Inoltre, puoi anche impostare il numero massimo (fino a 25.000) di pagine web totali da sottoporre a crawling. Tieni presente che se il numero totale di pagine web dagli URL di origine supera il massimo impostato, il processo di sincronizzazione/importazione dell’origine dati avrà esito negativo.

### Filtri di inclusione/esclusione
<a name="ds-inclusion-exclusion"></a>

Puoi includere o escludere determinati URL in base al tuo ambito. I [tipi di file supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) vengono sottoposti a crawling indipendentemente dall’ambito e se non esiste uno schema di esclusione per il tipo di file. Se specifichi un filtro di inclusione ed esclusione ed entrambi corrispondono a un URL, il filtro di esclusione ha la precedenza e il contenuto web non viene sottoposto a crawling.

**Importante**  
Vengono rifiutati i filtri problematici basati su modelli di espressioni regolari che portano a [backtracking e previsioni catastrofici](https://docs.aws.amazon.com/codeguru/detector-library/python/catastrophic-backtracking-regex/).

“Esempio di pattern di filtro basato su espressione regolare per escludere gli URL con estensione “.pdf” o allegati PDF di pagine web”: *".\$1\$1.pdf\$1"*

### Accesso all’URL del crawler web
<a name="ds-webcrawl-identity-crawling"></a>

Puoi utilizzare il crawler web per eseguire il crawling delle pagine dei siti web per i quali hai l’autorizzazione a eseguire il crawling.

Quando selezioni i siti web da sottoporre al crawling, devi rispettare la [Policy di utilizzo accettabile di Amazon](https://aws.amazon.com/aup/) e tutti gli altri termini di Amazon. Ricorda che puoi utilizzare il crawler web solo per indicizzare pagine web di tua proprietà o di cui hai l’autorizzazione a eseguire il crawling.

Il crawler web rispetta robots.txt in conformità con lo standard [RFC 9309](https://www.rfc-editor.org/rfc/rfc9309.html)

Puoi specificare determinati bot user agent per consentire (“Allow”) o negare (“Disallow”) al rispettivo user agent di eseguire il crawling dei tuoi URL di origine. Puoi modificare il file robots.txt del tuo sito web per controllare il modo in cui il crawler web esegue il crawling degli URL di origine. Il crawler cercherà prima le regole `bedrockbot-UUID ` e poi le regole `bedrockbot` generiche nel file robots.txt.

Puoi anche aggiungere un suffisso User-Agent che può essere utilizzato per inserire il crawler nella lista consentita nei sistemi di protezione dai bot. Nota che non è necessario aggiungere questo suffisso al file `robots.txt` per assicurarsi che nessuno possa impersonare la stringa User Agent. Ad esempio, per consentire al crawler web di eseguire il crawling di tutto il contenuto del sito web e impedire il crawling per altri robot, utilizza la seguente direttiva:

```
User-agent: bedrockbot-UUID # Amazon Bedrock Web Crawler
Allow: / # allow access to all pages
User-agent: * # any (other) robot
Disallow: / # disallow access to any pages
```

### Sincronizzazione incrementale
<a name="ds-incremental-sync"></a>

Ogni volta che viene eseguito, il crawler web recupera il contenuto di tutti gli URL raggiungibili dagli URL di origine che corrispondono all’ambito e ai filtri. Per le sincronizzazioni incrementali dopo la prima sincronizzazione di tutti i contenuti, Amazon Bedrock aggiornerà la knowledge base con contenuti nuovi e modificati e rimuoverà i vecchi contenuti non più presenti. Occasionalmente, il crawler potrebbe non essere in grado di determinare se un contenuto è stato rimosso dal sito web; in tal caso, opterà per la conservazione del contenuto precedente nella tua knowledge base.

Per sincronizzare l’origine dati con la knowledge base, utilizzare l’API [StartIngestionJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_StartIngestionJob.html) o selezionare la knowledge base nella console, quindi scegliere **Sincronizza** nella sezione di panoramica dell’origine dati.

**Importante**  
Tutti i dati sincronizzati dall’origine dati diventano disponibili per chiunque disponga delle autorizzazioni `bedrock:Retrieve` per recuperarli. Ciò può includere anche tutti i dati con autorizzazioni per l’origine dati controllate. Per ulteriori informazioni, consulta [Autorizzazioni della knowledge base](https://docs.aws.amazon.com/bedrock/latest/userguide/kb-permissions.html).

------
#### [ Console ]

**Connettiti a un’origine dati a cui collegare il crawler web per la tua knowledge base.**

1. Segui i passaggi indicati in [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e scegli **Crawler web** come origine dati.

1. Specifica un nome e una descrizione facoltativa per l’origine dati.

1. Fornisci gli **URL di origine** degli URL che desideri sottoporre a crawling. Puoi aggiungere fino a nove URL aggiuntivi selezionando **Aggiungi URL di origine**. Fornendo un URL di origine, confermi di avere l’autorizzazione a eseguire il crawling del relativo dominio.

1. Nella sezione **Impostazioni avanzate**, puoi configurare gli elementi seguenti (facoltativo):
   + **Chiave KMS per l’archiviazione di dati transitori.** Puoi crittografare i dati transitori durante la conversione in embedding con la Chiave gestita da AWS predefinita o con la chiave KMS in uso. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion).
   + **Policy di eliminazione dei dati**: è possibile eliminare gli embedding vettoriali per l’origine dati corrente presenti nell’archivio vettoriale per impostazione predefinita oppure scegliere di mantenere i dati dell’archivio vettoriale.

1. (Opzionale) Fornisci un suffisso user agent per **bedrock-UUID-**, che identifichi il crawler o il bot quando accede a un server web.

1. Configurate quanto segue nella sezione **Ambito di sincronizzazione**:

   1. Seleziona un **intervallo di domini del sito web** per il crawling degli URL di origine:
      + Impostazione predefinita: limita il crawling alle pagine web che appartengono allo stesso host e con lo stesso percorso URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/” verranno sottoposti a crawling solo questo percorso e le pagine web che si diramano da esso, come “https://aws.amazon.com/bedrock/agents/”. Ad esempio, gli URL di pari livello come “https://aws.amazon.com/ec2/” non vengono inclusi nel processo di crawling.
      + Solo host: limita il crawling alle pagine web che appartengono allo stesso host. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verranno sottoposte a crawling anche le pagine web con “https://aws.amazon.com”, come “https://aws.amazon.com/ec2”.
      + Sottodomini: include il crawling di qualsiasi pagina web con lo stesso dominio primario dell’URL iniziale. Ad esempio, con un seed URL di “https://aws.amazon.com/bedrock/”, verrà sottoposta a crawling qualsiasi pagina web che contenga “amazon.com” (sottodominio), come “https://www.amazon.com”.
**Nota**  
Assicurati di non eseguire il crawling di pagine web potenzialmente eccessive. Non è consigliabile eseguire il crawling di siti web di grandi dimensioni, come wikipedia.org, senza filtri o limiti di ambito. Il crawling di siti web di grandi dimensioni richiederà molto tempo.  
I [tipi di file supportati](https://docs.aws.amazon.com/bedrock/latest/userguide/knowledge-base-ds.html) vengono sottoposti a crawling indipendentemente dall’ambito e se non esiste uno schema di esclusione per il tipo di file.

   1. Immetti la **Limitazione (della larghezza di banda della rete) massima della velocità di crawling**. Importa URL compresi tra 1 e 300 URL per host al minuto. Una velocità di crawling più elevata aumenta il carico ma richiede meno tempo.

   1. Inserisci un **numero massimo di pagine per la sincronizzazione delle origini dati** compreso tra 1 e 25.000. Limita il numero massimo di pagine web sottoposta a crawling dagli URL di origine. Se le pagine web superano questo numero, la sincronizzazione delle origini dati avrà esito negativo e non verrà importata alcuna pagina web. 

   1. Per i modelli **Regex URL** (opzionale) puoi aggiungere **Includi modelli** o **Escludi modelli** inserendo il modello di espressione regolare nella casella. Puoi aggiungere fino a 25 modelli di filtro di inclusione e 25 di esclusione selezionando **Aggiungi nuovo modello**. I modelli di inclusione ed esclusione vengono sottoposti a crawling in base all’ambito. In caso di conflitto, il modello di esclusione ha la precedenza.

1. (Facoltativo) Nella sezione **Chunking e analisi dei contenuti**, puoi personalizzare il modo in cui analizzare i dati ed eseguirne il chunking. Per ulteriori informazioni su queste personalizzazioni, consulta le risorse seguenti:
   + Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
   + Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
**avvertimento**  
Dopo la connessione all’origine dati, non è possibile modificare la strategia di chunking.
   + Per ulteriori informazioni sulla personalizzazione del chunking dei dati e dell’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

1. Continua a scegliere un modello di embedding e un archivio vettoriale. Per visualizzare le fasi rimanenti, torna a [Creazione di una knowledge base mediante connessione a un’origine dati in Knowledge Base per Amazon Bedrock](knowledge-base-create.md) e continua dalla fase successiva alla connessione all’origine dati.

------
#### [ API ]

Per connettere una knowledge base a un’origine dati utilizzando il crawler web, invia una richiesta [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html) con un [endpoint in fase di compilazione di Agent per Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt), specifica `WEB` nel campo `type` di [DataSourceConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_DataSourceConfiguration.html) e includi il campo `webConfiguration`. Di seguito è riportato un esempio di configurazione di crawler web per Knowledge Base per Amazon Bedrock.

```
{
    "webConfiguration": {
        "sourceConfiguration": {
            "urlConfiguration": {
                "seedUrls": [{
                    "url": "https://www.examplesite.com"
                }]
            }
        },
        "crawlerConfiguration": {
            "crawlerLimits": {
                "rateLimit": 50,
                "maxPages": 100
            },
            "scope": "HOST_ONLY",
            "inclusionFilters": [
                "https://www\.examplesite\.com/.*\.html"
            ],
            "exclusionFilters": [
                "https://www\.examplesite\.com/contact-us\.html"
            ],
            "userAgent": "CustomUserAgent"
        }
    },
    "type": "WEB"
}
```

Per informazioni sulle personalizzazioni che è possibile applicare all’importazione includendo il campo `vectorIngestionConfiguration` opzionale, consulta [Personalizzare l’importazione per un’origine dati](kb-data-source-customize-ingestion.md).

------

# Connessione della knowledge base a un’origine dati personalizzata
<a name="custom-data-source-connector"></a>

Invece di scegliere un servizio di origine dati supportato, puoi connetterti a un’origine dati personalizzata per ottenere i seguenti vantaggi:
+ Flessibilità e controllo sui tipi di dati a cui desideri che la tua knowledge base abbia accesso.
+ La possibilità di utilizzare le operazioni API `KnowledgeBaseDocuments` per importare o eliminare direttamente i documenti senza necessità di sincronizzare le modifiche.
+ La possibilità di visualizzare i documenti nell’origine dati direttamente tramite la console o l’API Amazon Bedrock.
+ La possibilità di caricare documenti nella fonte dati direttamente in Console di gestione AWS o di aggiungerli in linea.
+ La possibilità di aggiungere metadati direttamente a ciascun documento durante l’aggiunta o l’aggiornamento di un documento nell’origine dati. Per ulteriori informazioni su come utilizzare i metadati per il filtraggio durante il recupero di informazioni da un’origine dati, consulta la scheda **Metadati e filtri** in [Configurare e personalizzare la generazione di query e risposte](kb-test-config.md).

**Supporto di contenuti multimodali**  
Le fonti di dati personalizzate supportano contenuti multimodali tra cui immagini, file audio e video con codifica base64 fino a 10 MB. Per una guida completa sull'utilizzo di contenuti multimodali, consulta. [Crea una base di conoscenze per contenuti multimodali](kb-multimodal.md)

Per connettere una knowledge base a un'origine dati personalizzata, invia una [CreateDataSource](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_CreateDataSource.html)richiesta a un endpoint in fase di [costruzione di Agents for Amazon Bedrock.](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#bra-bt) Specifica la `knowledgeBaseId` della knowledge base a cui connetterti, assegna un `name` all’origine dati e specifica il campo `type` nella `dataSourceConfiguration` come `CUSTOM`. Di seguito è riportato un esempio minimo per creare questa origine dati:

```
PUT /knowledgebases/KB12345678/datasources/ HTTP/1.1
Content-type: application/json

{
    "name": "MyCustomDataSource",
    "dataSourceConfiguration": {
        "type": "CUSTOM"
    }
}
```

Puoi includere uno qualsiasi dei seguenti campi opzionali per configurare l’origine dati:


****  

| Campo | Caso d’uso | 
| --- | --- | 
| description | Per fornire una descrizione per l’origine dati. | 
| clientToken | Garantire che la richiesta API venga completata solo una volta. Per ulteriori informazioni, consulta [Garanzia di idempotenza](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 
| serverSideEncryptionConfigurazione | Per specificare una chiave KMS personalizzata per l’archiviazione di dati transitori durante la conversione dei dati in embedding. Per ulteriori informazioni, consulta [Crittografia dell'archiviazione di dati transitoria durante l'importazione dei dati](encryption-kb.md#encryption-kb-ingestion) | 
| dataDeletionPolicy | Per configurare cosa fare con gli embedding vettoriali per l’origine dati nel tuo archivio di vettori, se elimini l’origine dati. Specifica RETAIN per mantenere i dati nell’archivio di vettori o l’opzione predefinita di DELETE per eliminarli. | 
| vectorIngestionConfiguration | Per configurare le opzioni per l’importazione dell’origine dati. Per ulteriori informazioni, vedere di seguito. | 

Il `vectorIngestionConfiguration` campo è mappato su un [VectorIngestionConfiguration](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_agent_VectorIngestionConfiguration.html)oggetto contenente i seguenti campi:
+ chunkingConfiguration: per configurare la strategia da utilizzare per il chunking dei documenti nell’origine dati. Per ulteriori informazioni sulle strategie di chunking, consulta [Come funziona il chunking dei contenuti per le knowledge base](kb-chunking.md).
+ parsingConfiguration: per configurare la strategia da utilizzare per l’analisi dell’origine dati. Per ulteriori informazioni sulle opzioni di analisi, consulta [Opzioni di analisi per l’origine dati](kb-advanced-parsing.md).
+ customTransformationConfiguration — Personalizzare il modo in cui i dati vengono trasformati e applicare una funzione Lambda per una maggiore personalizzazione. Per ulteriori informazioni sulla personalizzazione del chunking dei dati e sull’elaborazione dei metadati con una funzione Lambda, consulta [Utilizzo di una funzione Lambda di trasformazione personalizzata per definire come vengono importati i dati](kb-custom-transformation.md).

Dopo aver configurato l’origine dati personalizzata, puoi aggiungere documenti al suo interno e importarli direttamente nella knowledge base. A differenza di altre origini dati, non è necessario sincronizzare un’origine dati personalizzata. Per informazioni su come importare direttamente i documenti, consulta [Importare le modifiche direttamente in una knowledge base](kb-direct-ingestion.md).