

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Rezept mit personalisiertem Ranking
<a name="native-recipe-search"></a>

**Wichtig**  
[Wir empfehlen die Verwendung des Personalized-Ranking-V2-Rezepts.](native-recipe-personalized-ranking-v2.md) Es kann bis zu 5 Millionen Elemente bei schnellerem Training berücksichtigen und genauere Rankings mit geringerer Latenz generieren.

Das Rezept für personalisiertes Ranking generiert personalisierte Rankings von Artikeln. Eine *personalisierte Rangfolge* ist eine Liste empfohlener Elemente, die für einen bestimmten Benutzer neu nach Rang angeordnet sind. Dies ist nützlich, wenn Sie über eine Sammlung bestellter Artikel verfügen, z. B. Suchergebnisse, Werbeaktionen oder kuratierte Listen, und Sie für jeden Ihrer Benutzer eine personalisierte Rangfolge einrichten möchten. Mit Personalized-Ranking kann Amazon Personalize beispielsweise Suchergebnisse, mit denen Sie generiert haben, neu ordnen. [OpenSearch](personalize-opensearch.md) 

Um ein Modell zu trainieren, verwendet das Rezept für personalisiertes Ranking die Daten in Ihrem Datensatz mit den Artikelinteraktionen und, falls Sie sie erstellt haben, den Artikeldatensatz und den Benutzerdatensatz in Ihrer Datensatzgruppe (diese Datensätze sind optional). Mit Personalized-Ranking können Ihr Artikel-Datensatz [Unstrukturierte Textmetadaten](items-datasets.md#text-data) und Ihr Artikel-Interaktions-Datensatz Folgendes beinhalten. [Kontextuelle Metadaten](interactions-datasets.md#interactions-contextual-metadata) Verwenden Sie die API, um ein personalisiertes Ranking zu erhalten. [GetPersonalizedRanking](API_RS_GetPersonalizedRanking.md) 

 Nachdem Sie eine Lösungsversion erstellt haben, stellen Sie sicher, dass Sie Ihre Lösungsversion und Ihre Daten auf dem neuesten Stand halten. Mit Personalized-Ranking müssen Sie manuell eine neue Lösungsversion erstellen (das Modell neu trainieren), damit Amazon Personalize neue Elemente für Empfehlungen berücksichtigt und das Modell mit dem neuesten Verhalten Ihres Benutzers aktualisieren kann. Anschließend müssen Sie alle Kampagnen aktualisieren, die die Lösungsversion verwenden. Weitere Informationen finden Sie unter [Beibehaltung der Relevanz von Empfehlungen](maintaining-relevance.md). 

**Anmerkung**  
 Wenn Sie Artikel ohne Interaktionen für das Ranking angeben, gibt Amazon Personalize diese Artikel ohne Empfehlungspunktzahl in der GetPersonalizedRanking API-Antwort zurück. 

Das Rezept hat die folgenden Eigenschaften:
+  **Name (Name** – `aws-personalized-ranking`
+  **Rezept Amazon-Ressourcenname (ARN)** — `arn:aws:personalize:::recipe/aws-personalized-ranking`
+  **Algorithmus ARN** — `arn:aws:personalize:::algorithm/aws-personalized-ranking`
+  **Merkmalstransformation ARN** — `arn:aws:personalize:::feature-transformation/JSON-percentile-filtering`
+  **Art des Rezepts** — `PERSONALIZED_RANKING`

## Hyperparameter
<a name="personalized-ranking-hyperparameters"></a>

Die folgende Tabelle beschreibt die Hyperparameter für das Personalisierte-Rangfolgen-Rezept. Ein *Hyperparameter* ist ein Algorithmusparameter, den Sie anpassen können, um die Modellleistung zu verbessern. Algorithmus-Hyperparameter steuern die Leistung des Modells. Hyperparameter zur Entwicklung von Funktionen steuern, wie die Daten für die Schulung gefiltert werden. Die Auswahl des besten Werts für einen Hyperparameter wird als Hyperparameteroptimierung (HPO) bezeichnet. Weitere Informationen finden Sie unter [Hyperparameter und HPO](customizing-solution-config-hpo.md). 

Die Tabelle enthält auch die folgenden Informationen für jeden Hyperparameter:
+ **Bereich**: [Untergrenze, Obergrenze]
+ **Werttyp**: Ganzzahl, kontinuierlich (float), kategorisch (boolean, Liste, Zeichenfolge)
+ **HPO optimierbar**: Kann der Parameter an der Hyperparameteroptimierung (HPO) teilnehmen?


| Name | Beschreibung | 
| --- | --- | 
| Hyperparameter des Algorithmus | 
| hidden\$1dimension |  Anzahl der ausgeblendeten Variablen im Modell. *Ausgeblendete Variablen* erstellen die Kaufhistorie und Elementstatistiken der Benutzer neu, um die Rangfolge zu generieren. Geben Sie eine größere Anzahl ausgeblendeter Dimensionen an, wenn Ihr Datensatz für Artikelinteraktionen kompliziertere Muster enthält. Je mehr ausgeblendete Dimensionen verwendet werden, desto größer muss das Dataset sein und desto länger dauert die Verarbeitung. Bestimmen Sie den optimalen Wert mithilfe der HPO. Um HPO zu verwenden, legen Sie `performHPO` auf `true` fest, wenn Sie die Operationen [CreateSolutionVersion](API_CreateSolutionVersion.md) und[CreateSolution](API_CreateSolution.md) aufrufen. Standardwert Bereich: [32, 256] Werttyp: Ganzzahl HPO-optimierbar: Ja  | 
| bptt |  Legt fest, ob die Technik „Backpropagation über Zeit“ verwendet werden soll. Die*Backpropagation über Zeit* ist eine Technik, die Gewichtungen in wiederkehrenden neuronalen netzwerkbasierten Algorithmen aktualisiert. Verwenden Sie `bptt` für langfristige Guthaben, um verzögerte Belohnungen mit frühen Ereignissen zu verbinden. Eine verzögerte Belohnung kann beispielsweise ein Kauf nach mehreren Klicks sein. Ein frühes Ereignis kann ein erster Klick sein. Selbst bei denselben Ereignistypen wie einem Klick empfiehlt es sich, langfristige Effekte zu berücksichtigen und die Gesamtbelohnungen zu maximieren. Um Langzeiteffekte zu berücksichtigen, verwenden Sie höhere `bptt`-Werte. Die Verwendung eines höheren `bptt`-Werts erfordert größere Datasets und mehr Zeit für die Verarbeitung. Standardwert: 32 Bereich: [2, 32] Werttyp: Ganzzahl HPO-optimierbar: Ja  | 
| recency\$1mask |  Legt fest, ob das Modell die neuesten Beliebtheitstrends im Datensatz Artikelinteraktionen berücksichtigen soll. Neueste Beliebtheitstrends können plötzliche Änderungen in den zugrunde liegenden Mustern von Interaktionsereignissen umfassen. Um ein Modell zu schulen, das aktuelle Ereignisse stärker gewichtet, legen Sie `recency_mask` auf `true` fest. Um ein Modell zu schulen, das alle vorherigen Interaktionen gleichermaßen abwägt, legen Sie `recency_mask` auf `false` fest. Um gute Empfehlungen mit gleicher Gewichtung zu erhalten, benötigen Sie möglicherweise ein größeres Schulungsdataset. Standardwert: `True` Bereich: `True` oder `False` Werttyp: Boolescher Wert HPO-optimierbar: Ja  | 
| Hyperparameter zur Featureinstellung | 
| min\$1user\$1history\$1length\$1percentile |  Das Mindestperzentil der Benutzerhistorienlängen, das in die Modellschulung einbezogen werden muss. *Historienlänge* ist die Gesamtmenge der Daten zu einem Benutzer. Verwenden Sie `min_user_history_length_percentile`, um einen Prozentsatz von Benutzern mit kurzen Historienlängen auszuschließen. Benutzer mit einer kurzen Historie zeigen häufig Muster basierend auf der Beliebtheit von Elementen anstelle der persönlichen Bedürfnisse oder Wünsche des Benutzers. Wenn Sie diese entfernen, können Sie Modelle schulen, die sich stärker auf die zugrunde liegenden Muster in Ihren Daten konzentrieren. Wählen Sie einen geeigneten Wert aus, nachdem Sie die Längen der Benutzerhistorien mithilfe eines Histogramms oder eines ähnlichen Tools überprüft haben. Wir empfehlen, den Wert so festzulegen, dass die meisten Benutzer beibehalten, aber die Grenzfälle entfernt werden.  Wenn Sie beispielsweise `min__user_history_length_percentile to 0.05` und `max_user_history_length_percentile to 0.95` festlegen, werden alle Benutzer berücksichtigt, mit Ausnahme der unteren und oberen 5 % in Bezug auf ihre Historienlängen. Standardwert: 0.0 Bereich: [0,0, 1,0]. Werttyp: Gleitkommazahl HPO-optimierbar: Nein  | 
| max\$1user\$1history\$1length\$1percentile |  Das maximale Perzentil der Benutzerhistorienlänge, das in die Modellschulung einbezogen werden kann. *Historienlänge* ist die Gesamtmenge der Daten zu einem Benutzer. Verwenden Sie `max_user_history_length_percentile`, um einen Prozentsatz von Benutzern mit langen Historienlängen auszuschließen, da die Daten für diese Benutzer in der Regel Rauschen enthalten. Beispielsweise kann ein Roboter über eine lange Liste automatisierter Interaktionen verfügen. Durch das Entfernen dieser Benutzer werden Störungen der Schulung eingeschränkt. Wählen Sie einen geeigneten Wert, nachdem Sie die Längen der Benutzerhistorien mit einem Histogramm oder einem ähnlichen Tool überprüft haben. Wir empfehlen, den Wert so festzulegen, dass die meisten Benutzer beibehalten, aber die Grenzfälle entfernt werden. Wenn Sie beispielsweise `min__user_history_length_percentile to 0.05` und `max_user_history_length_percentile to 0.95` festlegen, werden alle Benutzer berücksichtigt, mit Ausnahme der unteren und oberen 5 % in Bezug auf ihre Historienlängen. Standardwert: 0.99 Bereich: [0,0, 1,0]. Werttyp: Gleitkommazahl HPO-optimierbar: Nein  | 

## Beispielnotizbuch mit personalisiertem Ranking
<a name="personalized-ranking-sample-notebook"></a>

 [Ein Beispiel für ein Jupyter-Notizbuch, das zeigt, wie das Rezept für personalisiertes Ranking verwendet wird, finden Sie unter Beispiel für personalisiertes Ranking.](https://github.com/aws-samples/amazon-personalize-samples/blob/master/next_steps/core_use_cases/personalized_ranking/personalize_ranking_example.ipynb) 