Amazon-Rekognition-Beispiele mit AWS CLI
Die folgenden Codebeispiele zeigen, wie Sie Aktionen durchführen und gängige Szenarien implementieren, indem Sie AWS Command Line Interface mit Amazon Rekognition verwenden.
Aktionen sind Codeauszüge aus größeren Programmen und müssen im Kontext ausgeführt werden. Während Aktionen Ihnen zeigen, wie Sie einzelne Service-Funktionen aufrufen, können Sie Aktionen im Kontext der zugehörigen Szenarien anzeigen.
Jedes Beispiel enthält einen Link zum vollständigen Quellcode, wo Sie Anleitungen zum Einrichten und Ausführen des Codes im Kontext finden.
Themen
Aktionen
Das folgende Codebeispiel zeigt, wie compare-faces verwendet wird.
Weitere Informationen finden Sie unter Vergleich von Gesichtern in Bildern.
- AWS CLI
-
So vergleichen Sie Gesichter in zwei Bildern
Im folgenden
compare-faces-Befehl werden Gesichter in zwei Bildern verglichen, die in einem Amazon-S3-Bucket gespeichert sind.aws rekognition compare-faces \ --source-image '{"S3Object":{"Bucket":"MyImageS3Bucket","Name":"source.jpg"}}' \ --target-image '{"S3Object":{"Bucket":"MyImageS3Bucket","Name":"target.jpg"}}'Ausgabe:
{ "UnmatchedFaces": [], "FaceMatches": [ { "Face": { "BoundingBox": { "Width": 0.12368916720151901, "Top": 0.16007372736930847, "Left": 0.5901257991790771, "Height": 0.25140416622161865 }, "Confidence": 100.0, "Pose": { "Yaw": -3.7351467609405518, "Roll": -0.10309021919965744, "Pitch": 0.8637830018997192 }, "Quality": { "Sharpness": 95.51618957519531, "Brightness": 65.29893493652344 }, "Landmarks": [ { "Y": 0.26721030473709106, "X": 0.6204193830490112, "Type": "eyeLeft" }, { "Y": 0.26831310987472534, "X": 0.6776827573776245, "Type": "eyeRight" }, { "Y": 0.3514654338359833, "X": 0.6241428852081299, "Type": "mouthLeft" }, { "Y": 0.35258132219314575, "X": 0.6713621020317078, "Type": "mouthRight" }, { "Y": 0.3140771687030792, "X": 0.6428444981575012, "Type": "nose" } ] }, "Similarity": 100.0 } ], "SourceImageFace": { "BoundingBox": { "Width": 0.12368916720151901, "Top": 0.16007372736930847, "Left": 0.5901257991790771, "Height": 0.25140416622161865 }, "Confidence": 100.0 } }Weitere Informationen finden Sie unter Vergleichen von Gesichtern in Bildern im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter CompareFaces
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie create-collection verwendet wird.
Weitere Informationen finden Sie unter Erstellen einer Sammlung.
- AWS CLI
-
So erstellen Sie eine Sammlung
Im folgenden
create-collection-Befehl wird eine Sammlung mit dem angegebenen Namen erstellt.aws rekognition create-collection \ --collection-id"MyCollection"Ausgabe:
{ "CollectionArn": "aws:rekognition:us-west-2:123456789012:collection/MyCollection", "FaceModelVersion": "4.0", "StatusCode": 200 }Weitere Informationen finden Sie unter Erstellen einer Sammlung im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter CreateCollection
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie create-stream-processor verwendet wird.
- AWS CLI
-
So erstellen Sie einen neuen Stream-Prozessor
Im folgenden Beispiel für
create-stream-processorwird ein neuer Streamprozessor mit der angegebenen Konfiguration erstellt.aws rekognition create-stream-processor --namemy-stream-processor\ --input '{"KinesisVideoStream":{"Arn":"arn:aws:kinesisvideo:us-west-2:123456789012:stream/macwebcam/1530559711205"}}'\ --stream-processor-output '{"KinesisDataStream":{"Arn":"arn:aws:kinesis:us-west-2:123456789012:stream/AmazonRekognitionRekStream"}}'\ --role-arnarn:aws:iam::123456789012:role/AmazonRekognitionDetect\ --settings '{"FaceSearch":{"CollectionId":"MyCollection","FaceMatchThreshold":85.5}}'Ausgabe:
{ "StreamProcessorArn": "arn:aws:rekognition:us-west-2:123456789012:streamprocessor/my-stream-processor" }Weitere Informationen finden Sie unter Arbeiten mit Streaming-Videos im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter CreateStreamProcessor
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie delete-collection verwendet wird.
Weitere Informationen finden Sie unter Löschen einer Sammlung.
- AWS CLI
-
So löschen Sie eine Sammlung
Der folgende
delete-collection-Befehl löscht die angegebene Sammlung.aws rekognition delete-collection \ --collection-idMyCollectionAusgabe:
{ "StatusCode": 200 }Weitere Informationen finden Sie unter Löschen einer Sammlung im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter DeleteCollection
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie delete-faces verwendet wird.
Weitere Informationen finden Sie unter Löschen von Gesichtern aus einer Sammlung.
- AWS CLI
-
So löschen Sie Gesichter aus einer Sammlung
Der folgende
delete-faces-Befehl löscht das angegebene Gesicht aus einer Sammlung.aws rekognition delete-faces \ --collection-idMyCollection--face-ids '["0040279c-0178-436e-b70a-e61b074e96b0"]'Ausgabe:
{ "DeletedFaces": [ "0040279c-0178-436e-b70a-e61b074e96b0" ] }Weitere Informationen finden Sie unter Löschen von Gesichtern in einer Sammlung im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter DeleteFaces
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie delete-stream-processor verwendet wird.
- AWS CLI
-
So löschen Sie einen Streamprozessor
Der folgende
delete-stream-processor-Befehl löscht den angegebenen Streamprozessor.aws rekognition delete-stream-processor \ --namemy-stream-processorMit diesem Befehl wird keine Ausgabe zurückgegeben.
Weitere Informationen finden Sie unter Arbeiten mit Streaming-Videos im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter DeleteStreamProcessor
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie describe-collection verwendet wird.
Weitere Informationen finden Sie unter Beschreiben einer Sammlung.
- AWS CLI
-
So beschreiben Sie eine Sammlung
Im folgenden Beispiel für
describe-collectionwerden die Details für die angegebene Sammlung angezeigt.aws rekognition describe-collection \ --collection-idMyCollectionAusgabe:
{ "FaceCount": 200, "CreationTimestamp": 1569444828.274, "CollectionARN": "arn:aws:rekognition:us-west-2:123456789012:collection/MyCollection", "FaceModelVersion": "4.0" }Weitere Informationen finden Sie unter Beschreiben einer Sammlung im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter DescribeCollection
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie describe-stream-processor verwendet wird.
- AWS CLI
-
So rufen Sie Informationen über einen Streamprozessor ab
Der folgende
describe-stream-processor-Befehl zeigt Details zum angegebenen Streamprozessor an.aws rekognition describe-stream-processor \ --namemy-stream-processorAusgabe:
{ "Status": "STOPPED", "Name": "my-stream-processor", "LastUpdateTimestamp": 1532449292.712, "Settings": { "FaceSearch": { "FaceMatchThreshold": 80.0, "CollectionId": "my-collection" } }, "RoleArn": "arn:aws:iam::123456789012:role/AmazonRekognitionDetectStream", "StreamProcessorArn": "arn:aws:rekognition:us-west-2:123456789012:streamprocessor/my-stream-processpr", "Output": { "KinesisDataStream": { "Arn": "arn:aws:kinesis:us-west-2:123456789012:stream/AmazonRekognitionRekStream" } }, "Input": { "KinesisVideoStream": { "Arn": "arn:aws:kinesisvideo:us-west-2:123456789012:stream/macwebcam/123456789012" } }, "CreationTimestamp": 1532449292.712 }Weitere Informationen finden Sie unter Arbeiten mit Streaming-Videos im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter DescribeStreamProcessor
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie detect-faces verwendet wird.
Weitere Informationen finden Sie unter Erkennen von Gesichtern in einem Bild.
- AWS CLI
-
So erkennen Sie Gesichter in einem Bild
Der folgende
detect-faces-Befehl erkennt Gesichter im angegebenen Bild, das in einem Amazon-S3-Bucket gespeichert ist.aws rekognition detect-faces \ --image '{"S3Object":{"Bucket":"MyImageS3Bucket","Name":"MyFriend.jpg"}}' \ --attributes"ALL"Ausgabe:
{ "FaceDetails": [ { "Confidence": 100.0, "Eyeglasses": { "Confidence": 98.91107940673828, "Value": false }, "Sunglasses": { "Confidence": 99.7966537475586, "Value": false }, "Gender": { "Confidence": 99.56611633300781, "Value": "Male" }, "Landmarks": [ { "Y": 0.26721030473709106, "X": 0.6204193830490112, "Type": "eyeLeft" }, { "Y": 0.26831310987472534, "X": 0.6776827573776245, "Type": "eyeRight" }, { "Y": 0.3514654338359833, "X": 0.6241428852081299, "Type": "mouthLeft" }, { "Y": 0.35258132219314575, "X": 0.6713621020317078, "Type": "mouthRight" }, { "Y": 0.3140771687030792, "X": 0.6428444981575012, "Type": "nose" }, { "Y": 0.24662546813488007, "X": 0.6001564860343933, "Type": "leftEyeBrowLeft" }, { "Y": 0.24326619505882263, "X": 0.6303644776344299, "Type": "leftEyeBrowRight" }, { "Y": 0.23818562924861908, "X": 0.6146903038024902, "Type": "leftEyeBrowUp" }, { "Y": 0.24373626708984375, "X": 0.6640064716339111, "Type": "rightEyeBrowLeft" }, { "Y": 0.24877218902111053, "X": 0.7025929093360901, "Type": "rightEyeBrowRight" }, { "Y": 0.23938551545143127, "X": 0.6823262572288513, "Type": "rightEyeBrowUp" }, { "Y": 0.265746533870697, "X": 0.6112898588180542, "Type": "leftEyeLeft" }, { "Y": 0.2676128149032593, "X": 0.6317071914672852, "Type": "leftEyeRight" }, { "Y": 0.262735515832901, "X": 0.6201658248901367, "Type": "leftEyeUp" }, { "Y": 0.27025148272514343, "X": 0.6206279993057251, "Type": "leftEyeDown" }, { "Y": 0.268223375082016, "X": 0.6658390760421753, "Type": "rightEyeLeft" }, { "Y": 0.2672517001628876, "X": 0.687832236289978, "Type": "rightEyeRight" }, { "Y": 0.26383838057518005, "X": 0.6769183874130249, "Type": "rightEyeUp" }, { "Y": 0.27138751745224, "X": 0.676596462726593, "Type": "rightEyeDown" }, { "Y": 0.32283174991607666, "X": 0.6350004076957703, "Type": "noseLeft" }, { "Y": 0.3219289481639862, "X": 0.6567046642303467, "Type": "noseRight" }, { "Y": 0.3420318365097046, "X": 0.6450609564781189, "Type": "mouthUp" }, { "Y": 0.3664324879646301, "X": 0.6455618143081665, "Type": "mouthDown" }, { "Y": 0.26721030473709106, "X": 0.6204193830490112, "Type": "leftPupil" }, { "Y": 0.26831310987472534, "X": 0.6776827573776245, "Type": "rightPupil" }, { "Y": 0.26343393325805664, "X": 0.5946047306060791, "Type": "upperJawlineLeft" }, { "Y": 0.3543180525302887, "X": 0.6044883728027344, "Type": "midJawlineLeft" }, { "Y": 0.4084877669811249, "X": 0.6477024555206299, "Type": "chinBottom" }, { "Y": 0.3562754988670349, "X": 0.707981526851654, "Type": "midJawlineRight" }, { "Y": 0.26580461859703064, "X": 0.7234612107276917, "Type": "upperJawlineRight" } ], "Pose": { "Yaw": -3.7351467609405518, "Roll": -0.10309021919965744, "Pitch": 0.8637830018997192 }, "Emotions": [ { "Confidence": 8.74203109741211, "Type": "SURPRISED" }, { "Confidence": 2.501944065093994, "Type": "ANGRY" }, { "Confidence": 0.7378743290901184, "Type": "DISGUSTED" }, { "Confidence": 3.5296201705932617, "Type": "HAPPY" }, { "Confidence": 1.7162904739379883, "Type": "SAD" }, { "Confidence": 9.518536567687988, "Type": "CONFUSED" }, { "Confidence": 0.45474427938461304, "Type": "FEAR" }, { "Confidence": 72.79895782470703, "Type": "CALM" } ], "AgeRange": { "High": 48, "Low": 32 }, "EyesOpen": { "Confidence": 98.93987274169922, "Value": true }, "BoundingBox": { "Width": 0.12368916720151901, "Top": 0.16007372736930847, "Left": 0.5901257991790771, "Height": 0.25140416622161865 }, "Smile": { "Confidence": 93.4493179321289, "Value": false }, "MouthOpen": { "Confidence": 90.53053283691406, "Value": false }, "Quality": { "Sharpness": 95.51618957519531, "Brightness": 65.29893493652344 }, "Mustache": { "Confidence": 89.85221099853516, "Value": false }, "Beard": { "Confidence": 86.1991195678711, "Value": true } } ] }Weitere Informationen finden Sie unter Erkennen von Gesichtern in einem Bild im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter DetectFaces
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie detect-labels verwendet wird.
Weitere Informationen finden Sie unter Erkennen von Labels in einem Bild.
- AWS CLI
-
So erkennen Sie ein Label in einem Bild
Im folgenden Beispiel für
detect-labelswerden Szenen und Objekte in einem Bild erkannt, das in einem Amazon-S3-Bucket gespeichert ist.aws rekognition detect-labels \ --image '{"S3Object":{"Bucket":"bucket","Name":"image"}}'Ausgabe:
{ "Labels": [ { "Instances": [], "Confidence": 99.15271759033203, "Parents": [ { "Name": "Vehicle" }, { "Name": "Transportation" } ], "Name": "Automobile" }, { "Instances": [], "Confidence": 99.15271759033203, "Parents": [ { "Name": "Transportation" } ], "Name": "Vehicle" }, { "Instances": [], "Confidence": 99.15271759033203, "Parents": [], "Name": "Transportation" }, { "Instances": [ { "BoundingBox": { "Width": 0.10616336017847061, "Top": 0.5039216876029968, "Left": 0.0037978808395564556, "Height": 0.18528179824352264 }, "Confidence": 99.15271759033203 }, { "BoundingBox": { "Width": 0.2429988533258438, "Top": 0.5251884460449219, "Left": 0.7309805154800415, "Height": 0.21577216684818268 }, "Confidence": 99.1286392211914 }, { "BoundingBox": { "Width": 0.14233611524105072, "Top": 0.5333095788955688, "Left": 0.6494812965393066, "Height": 0.15528248250484467 }, "Confidence": 98.48368072509766 }, { "BoundingBox": { "Width": 0.11086395382881165, "Top": 0.5354844927787781, "Left": 0.10355594009160995, "Height": 0.10271988064050674 }, "Confidence": 96.45606231689453 }, { "BoundingBox": { "Width": 0.06254628300666809, "Top": 0.5573825240135193, "Left": 0.46083059906959534, "Height": 0.053911514580249786 }, "Confidence": 93.65448760986328 }, { "BoundingBox": { "Width": 0.10105438530445099, "Top": 0.534368634223938, "Left": 0.5743985772132874, "Height": 0.12226245552301407 }, "Confidence": 93.06217193603516 }, { "BoundingBox": { "Width": 0.056389667093753815, "Top": 0.5235804319381714, "Left": 0.9427769780158997, "Height": 0.17163699865341187 }, "Confidence": 92.6864013671875 }, { "BoundingBox": { "Width": 0.06003860384225845, "Top": 0.5441341400146484, "Left": 0.22409997880458832, "Height": 0.06737709045410156 }, "Confidence": 90.4227066040039 }, { "BoundingBox": { "Width": 0.02848697081208229, "Top": 0.5107086896896362, "Left": 0, "Height": 0.19150497019290924 }, "Confidence": 86.65286254882812 }, { "BoundingBox": { "Width": 0.04067881405353546, "Top": 0.5566273927688599, "Left": 0.316415935754776, "Height": 0.03428703173995018 }, "Confidence": 85.36471557617188 }, { "BoundingBox": { "Width": 0.043411049991846085, "Top": 0.5394920110702515, "Left": 0.18293385207653046, "Height": 0.0893595889210701 }, "Confidence": 82.21705627441406 }, { "BoundingBox": { "Width": 0.031183116137981415, "Top": 0.5579366683959961, "Left": 0.2853088080883026, "Height": 0.03989990055561066 }, "Confidence": 81.0157470703125 }, { "BoundingBox": { "Width": 0.031113790348172188, "Top": 0.5504819750785828, "Left": 0.2580395042896271, "Height": 0.056484755128622055 }, "Confidence": 56.13441467285156 }, { "BoundingBox": { "Width": 0.08586374670267105, "Top": 0.5438792705535889, "Left": 0.5128012895584106, "Height": 0.08550430089235306 }, "Confidence": 52.37760925292969 } ], "Confidence": 99.15271759033203, "Parents": [ { "Name": "Vehicle" }, { "Name": "Transportation" } ], "Name": "Car" }, { "Instances": [], "Confidence": 98.9914321899414, "Parents": [], "Name": "Human" }, { "Instances": [ { "BoundingBox": { "Width": 0.19360728561878204, "Top": 0.35072067379951477, "Left": 0.43734854459762573, "Height": 0.2742200493812561 }, "Confidence": 98.9914321899414 }, { "BoundingBox": { "Width": 0.03801717236638069, "Top": 0.5010883808135986, "Left": 0.9155802130699158, "Height": 0.06597328186035156 }, "Confidence": 85.02790832519531 } ], "Confidence": 98.9914321899414, "Parents": [], "Name": "Person" }, { "Instances": [], "Confidence": 93.24951934814453, "Parents": [], "Name": "Machine" }, { "Instances": [ { "BoundingBox": { "Width": 0.03561960905790329, "Top": 0.6468243598937988, "Left": 0.7850857377052307, "Height": 0.08878646790981293 }, "Confidence": 93.24951934814453 }, { "BoundingBox": { "Width": 0.02217046171426773, "Top": 0.6149078607559204, "Left": 0.04757237061858177, "Height": 0.07136218994855881 }, "Confidence": 91.5025863647461 }, { "BoundingBox": { "Width": 0.016197510063648224, "Top": 0.6274210214614868, "Left": 0.6472989320755005, "Height": 0.04955997318029404 }, "Confidence": 85.14686584472656 }, { "BoundingBox": { "Width": 0.020207518711686134, "Top": 0.6348286867141724, "Left": 0.7295016646385193, "Height": 0.07059963047504425 }, "Confidence": 83.34547424316406 }, { "BoundingBox": { "Width": 0.020280985161662102, "Top": 0.6171894669532776, "Left": 0.08744934946298599, "Height": 0.05297485366463661 }, "Confidence": 79.9981460571289 }, { "BoundingBox": { "Width": 0.018318990245461464, "Top": 0.623889148235321, "Left": 0.6836880445480347, "Height": 0.06730121374130249 }, "Confidence": 78.87144470214844 }, { "BoundingBox": { "Width": 0.021310249343514442, "Top": 0.6167286038398743, "Left": 0.004064912907779217, "Height": 0.08317798376083374 }, "Confidence": 75.89361572265625 }, { "BoundingBox": { "Width": 0.03604431077837944, "Top": 0.7030032277107239, "Left": 0.9254803657531738, "Height": 0.04569442570209503 }, "Confidence": 64.402587890625 }, { "BoundingBox": { "Width": 0.009834849275648594, "Top": 0.5821820497512817, "Left": 0.28094568848609924, "Height": 0.01964157074689865 }, "Confidence": 62.79907989501953 }, { "BoundingBox": { "Width": 0.01475677452981472, "Top": 0.6137543320655823, "Left": 0.5950819253921509, "Height": 0.039063986390829086 }, "Confidence": 59.40483474731445 } ], "Confidence": 93.24951934814453, "Parents": [ { "Name": "Machine" } ], "Name": "Wheel" }, { "Instances": [], "Confidence": 92.61514282226562, "Parents": [], "Name": "Road" }, { "Instances": [], "Confidence": 92.37877655029297, "Parents": [ { "Name": "Person" } ], "Name": "Sport" }, { "Instances": [], "Confidence": 92.37877655029297, "Parents": [ { "Name": "Person" } ], "Name": "Sports" }, { "Instances": [ { "BoundingBox": { "Width": 0.12326609343290329, "Top": 0.6332163214683533, "Left": 0.44815489649772644, "Height": 0.058117982000112534 }, "Confidence": 92.37877655029297 } ], "Confidence": 92.37877655029297, "Parents": [ { "Name": "Person" }, { "Name": "Sport" } ], "Name": "Skateboard" }, { "Instances": [], "Confidence": 90.62931060791016, "Parents": [ { "Name": "Person" } ], "Name": "Pedestrian" }, { "Instances": [], "Confidence": 88.81334686279297, "Parents": [], "Name": "Asphalt" }, { "Instances": [], "Confidence": 88.81334686279297, "Parents": [], "Name": "Tarmac" }, { "Instances": [], "Confidence": 88.23201751708984, "Parents": [], "Name": "Path" }, { "Instances": [], "Confidence": 80.26520538330078, "Parents": [], "Name": "Urban" }, { "Instances": [], "Confidence": 80.26520538330078, "Parents": [ { "Name": "Building" }, { "Name": "Urban" } ], "Name": "Town" }, { "Instances": [], "Confidence": 80.26520538330078, "Parents": [], "Name": "Building" }, { "Instances": [], "Confidence": 80.26520538330078, "Parents": [ { "Name": "Building" }, { "Name": "Urban" } ], "Name": "City" }, { "Instances": [], "Confidence": 78.37934875488281, "Parents": [ { "Name": "Car" }, { "Name": "Vehicle" }, { "Name": "Transportation" } ], "Name": "Parking Lot" }, { "Instances": [], "Confidence": 78.37934875488281, "Parents": [ { "Name": "Car" }, { "Name": "Vehicle" }, { "Name": "Transportation" } ], "Name": "Parking" }, { "Instances": [], "Confidence": 74.37590026855469, "Parents": [ { "Name": "Building" }, { "Name": "Urban" }, { "Name": "City" } ], "Name": "Downtown" }, { "Instances": [], "Confidence": 69.84622955322266, "Parents": [ { "Name": "Road" } ], "Name": "Intersection" }, { "Instances": [], "Confidence": 57.68518829345703, "Parents": [ { "Name": "Sports Car" }, { "Name": "Car" }, { "Name": "Vehicle" }, { "Name": "Transportation" } ], "Name": "Coupe" }, { "Instances": [], "Confidence": 57.68518829345703, "Parents": [ { "Name": "Car" }, { "Name": "Vehicle" }, { "Name": "Transportation" } ], "Name": "Sports Car" }, { "Instances": [], "Confidence": 56.59492111206055, "Parents": [ { "Name": "Path" } ], "Name": "Sidewalk" }, { "Instances": [], "Confidence": 56.59492111206055, "Parents": [ { "Name": "Path" } ], "Name": "Pavement" }, { "Instances": [], "Confidence": 55.58770751953125, "Parents": [ { "Name": "Building" }, { "Name": "Urban" } ], "Name": "Neighborhood" } ], "LabelModelVersion": "2.0" }Weitere Informationen finden Sie unter Erkennen von Labels in einem Bild im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter DetectLabels
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie detect-moderation-labels verwendet wird.
Weitere Informationen finden Sie unter Erkennen von unangemessenen Bildern.
- AWS CLI
-
So erkennen Sie unsicherer Inhalte in einem Bild
Der folgende
detect-moderation-labels-Befehl erkennt unsichere Inhalte im angegebenen Bild, das in einem Amazon-S3-Bucket gespeichert ist.aws rekognition detect-moderation-labels \ --image"S3Object={Bucket=MyImageS3Bucket,Name=gun.jpg}"Ausgabe:
{ "ModerationModelVersion": "3.0", "ModerationLabels": [ { "Confidence": 97.29618072509766, "ParentName": "Violence", "Name": "Weapon Violence" }, { "Confidence": 97.29618072509766, "ParentName": "", "Name": "Violence" } ] }Weitere Informationen finden Sie unter Erkennen unsicherer Bilder im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter DetectModerationLabels
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie detect-text verwendet wird.
Weitere Informationen finden Sie unter Erkennen von Text in einem Bild.
- AWS CLI
-
So erkennen Sie Text in einem Bild
Der folgende
detect-text-Befehl erkennt Text im angegebenen Bild.aws rekognition detect-text \ --image '{"S3Object":{"Bucket":"MyImageS3Bucket","Name":"ExamplePicture.jpg"}}'Ausgabe:
{ "TextDetections": [ { "Geometry": { "BoundingBox": { "Width": 0.24624845385551453, "Top": 0.28288066387176514, "Left": 0.391388863325119, "Height": 0.022687450051307678 }, "Polygon": [ { "Y": 0.28288066387176514, "X": 0.391388863325119 }, { "Y": 0.2826388478279114, "X": 0.6376373171806335 }, { "Y": 0.30532628297805786, "X": 0.637677013874054 }, { "Y": 0.305568128824234, "X": 0.39142853021621704 } ] }, "Confidence": 94.35709381103516, "DetectedText": "ESTD 1882", "Type": "LINE", "Id": 0 }, { "Geometry": { "BoundingBox": { "Width": 0.33933889865875244, "Top": 0.32603850960731506, "Left": 0.34534579515457153, "Height": 0.07126858830451965 }, "Polygon": [ { "Y": 0.32603850960731506, "X": 0.34534579515457153 }, { "Y": 0.32633158564567566, "X": 0.684684693813324 }, { "Y": 0.3976001739501953, "X": 0.684575080871582 }, { "Y": 0.3973070979118347, "X": 0.345236212015152 } ] }, "Confidence": 99.95779418945312, "DetectedText": "BRAINS", "Type": "LINE", "Id": 1 }, { "Confidence": 97.22098541259766, "Geometry": { "BoundingBox": { "Width": 0.061079490929841995, "Top": 0.2843210697174072, "Left": 0.391391396522522, "Height": 0.021029088646173477 }, "Polygon": [ { "Y": 0.2843210697174072, "X": 0.391391396522522 }, { "Y": 0.2828207015991211, "X": 0.4524524509906769 }, { "Y": 0.3038259446620941, "X": 0.4534534513950348 }, { "Y": 0.30532634258270264, "X": 0.3923923969268799 } ] }, "DetectedText": "ESTD", "ParentId": 0, "Type": "WORD", "Id": 2 }, { "Confidence": 91.49320983886719, "Geometry": { "BoundingBox": { "Width": 0.07007007300853729, "Top": 0.2828207015991211, "Left": 0.5675675868988037, "Height": 0.02250562608242035 }, "Polygon": [ { "Y": 0.2828207015991211, "X": 0.5675675868988037 }, { "Y": 0.2828207015991211, "X": 0.6376376152038574 }, { "Y": 0.30532634258270264, "X": 0.6376376152038574 }, { "Y": 0.30532634258270264, "X": 0.5675675868988037 } ] }, "DetectedText": "1882", "ParentId": 0, "Type": "WORD", "Id": 3 }, { "Confidence": 99.95779418945312, "Geometry": { "BoundingBox": { "Width": 0.33933934569358826, "Top": 0.32633158564567566, "Left": 0.3453453481197357, "Height": 0.07127484679222107 }, "Polygon": [ { "Y": 0.32633158564567566, "X": 0.3453453481197357 }, { "Y": 0.32633158564567566, "X": 0.684684693813324 }, { "Y": 0.39759939908981323, "X": 0.6836836934089661 }, { "Y": 0.39684921503067017, "X": 0.3453453481197357 } ] }, "DetectedText": "BRAINS", "ParentId": 1, "Type": "WORD", "Id": 4 } ] }-
API-Details finden Sie unter DetectText
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie disassociate-faces verwendet wird.
- AWS CLI
-
aws rekognition disassociate-faces --face-ids list-of-face-ids --user-id user-id --collection-id collection-name --region region-name-
API-Details finden Sie unter DisassociateFaces
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie get-celebrity-info verwendet wird.
- AWS CLI
-
So rufen Sie Informationen über einen Prominenten ab
Der folgende
get-celebrity-info-Befehl zeigt Informationen über den angegebenen Prominenten an. Derid-Parameter stammt aus einem früheren Aufruf vonrecognize-celebrities.aws rekognition get-celebrity-info --idnnnnnnnAusgabe:
{ "Name": "Celeb A", "Urls": [ "www.imdb.com/name/aaaaaaaaa" ] }Weitere Informationen finden Sie unter Abrufen von Informationen über einen Prominenten im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter GetCelebrityInfo
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie get-celebrity-recognition verwendet wird.
- AWS CLI
-
So rufen Sie die Ergebnisse einer Operation zur Erkennung von Prominenten ab
Der folgende
get-celebrity-recognition-Befehl ruft die Ergebnisse einer Operation zur Erkennung von Prominenten ab, die Sie zuvor durch einen Anruf vonstart-celebrity-recognitiongestartet haben.aws rekognition get-celebrity-recognition \ --job-id1234567890abcdef1234567890abcdef1234567890abcdef1234567890abcdefAusgabe:
{ "NextToken": "3D01ClxlCiT31VsRDkAO3IybLb/h5AtDWSGuhYi+N1FIJwwPtAkuKzDhL2rV3GcwmNt77+12", "Celebrities": [ { "Timestamp": 0, "Celebrity": { "Confidence": 96.0, "Face": { "BoundingBox": { "Width": 0.70333331823349, "Top": 0.16750000417232513, "Left": 0.19555555284023285, "Height": 0.3956249952316284 }, "Landmarks": [ { "Y": 0.31031012535095215, "X": 0.441436767578125, "Type": "eyeLeft" }, { "Y": 0.3081788718700409, "X": 0.6437258720397949, "Type": "eyeRight" }, { "Y": 0.39542075991630554, "X": 0.5572493076324463, "Type": "nose" }, { "Y": 0.4597957134246826, "X": 0.4579732120037079, "Type": "mouthLeft" }, { "Y": 0.45688048005104065, "X": 0.6349081993103027, "Type": "mouthRight" } ], "Pose": { "Yaw": 8.943398475646973, "Roll": -2.0309247970581055, "Pitch": -0.5674862861633301 }, "Quality": { "Sharpness": 99.40211486816406, "Brightness": 89.47132110595703 }, "Confidence": 99.99861145019531 }, "Name": "CelebrityA", "Urls": [ "www.imdb.com/name/111111111" ], "Id": "nnnnnn" } }, { "Timestamp": 467, "Celebrity": { "Confidence": 99.0, "Face": { "BoundingBox": { "Width": 0.6877777576446533, "Top": 0.18437500298023224, "Left": 0.20555555820465088, "Height": 0.3868750035762787 }, "Landmarks": [ { "Y": 0.31895750761032104, "X": 0.4411413371562958, "Type": "eyeLeft" }, { "Y": 0.3140959143638611, "X": 0.6523157954216003, "Type": "eyeRight" }, { "Y": 0.4016456604003906, "X": 0.5682755708694458, "Type": "nose" }, { "Y": 0.46894142031669617, "X": 0.4597797095775604, "Type": "mouthLeft" }, { "Y": 0.46971091628074646, "X": 0.6286435127258301, "Type": "mouthRight" } ], "Pose": { "Yaw": 10.433465957641602, "Roll": -3.347442388534546, "Pitch": 1.3709543943405151 }, "Quality": { "Sharpness": 99.5531005859375, "Brightness": 88.5764389038086 }, "Confidence": 99.99148559570312 }, "Name": "Jane Celebrity", "Urls": [ "www.imdb.com/name/111111111" ], "Id": "nnnnnn" } } ], "JobStatus": "SUCCEEDED", "VideoMetadata": { "Format": "QuickTime / MOV", "FrameRate": 29.978118896484375, "Codec": "h264", "DurationMillis": 4570, "FrameHeight": 1920, "FrameWidth": 1080 } }Weitere Informationen finden Sie unter Erkennen von Prominenten in einem gespeicherten Video im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter GetCelebrityRecognition
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie get-content-moderation verwendet wird.
- AWS CLI
-
So rufen Sie die Ergebnisse einer Operation zu unsicherem Inhalt ab
Der folgende
get-content-moderation-Befehl zeigt die Ergebnisse einer unsicheren Inhaltsoperation an, den Sie zuvor durch einen Aufruf vonstart-content-moderationgestartet haben.aws rekognition get-content-moderation \ --job-id1234567890abcdef1234567890abcdef1234567890abcdef1234567890abcdefAusgabe:
{ "NextToken": "dlhcKMHMzpCBGFukz6IO3JMcWiJAamCVhXHt3r6b4b5Tfbyw3q7o+Jeezt+ZpgfOnW9FCCgQ", "ModerationLabels": [ { "Timestamp": 0, "ModerationLabel": { "Confidence": 97.39583587646484, "ParentName": "", "Name": "Violence" } }, { "Timestamp": 0, "ModerationLabel": { "Confidence": 97.39583587646484, "ParentName": "Violence", "Name": "Weapon Violence" } } ], "JobStatus": "SUCCEEDED", "VideoMetadata": { "Format": "QuickTime / MOV", "FrameRate": 29.97515869140625, "Codec": "h264", "DurationMillis": 6039, "FrameHeight": 1920, "FrameWidth": 1080 } }Weitere Informationen finden Sie unter Erkennen unsicherer gespeicherter Videos im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter GetContentModeration
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie get-face-detection verwendet wird.
- AWS CLI
-
So rufen Sie die Ergebnisse einer Gesichtserkennung ab
Der folgende
get-face-detection-Befehl zeigt die Ergebnisse einer Gesichtserkennung an, die Sie zuvor durch einen Aufruf vonstart-face-detectiongestartet haben.aws rekognition get-face-detection \ --job-id1234567890abcdef1234567890abcdef1234567890abcdef1234567890abcdefAusgabe:
{ "Faces": [ { "Timestamp": 467, "Face": { "BoundingBox": { "Width": 0.1560753583908081, "Top": 0.13555361330509186, "Left": -0.0952017530798912, "Height": 0.6934483051300049 }, "Landmarks": [ { "Y": 0.4013825058937073, "X": -0.041750285774469376, "Type": "eyeLeft" }, { "Y": 0.41695496439933777, "X": 0.027979329228401184, "Type": "eyeRight" }, { "Y": 0.6375303268432617, "X": -0.04034662991762161, "Type": "mouthLeft" }, { "Y": 0.6497718691825867, "X": 0.013960429467260838, "Type": "mouthRight" }, { "Y": 0.5238034129142761, "X": 0.008022055961191654, "Type": "nose" } ], "Pose": { "Yaw": -58.07863998413086, "Roll": 1.9384294748306274, "Pitch": -24.66305160522461 }, "Quality": { "Sharpness": 83.14741516113281, "Brightness": 25.75942611694336 }, "Confidence": 87.7622299194336 } }, { "Timestamp": 967, "Face": { "BoundingBox": { "Width": 0.28559377789497375, "Top": 0.19436298310756683, "Left": 0.024553587660193443, "Height": 0.7216082215309143 }, "Landmarks": [ { "Y": 0.4650231599807739, "X": 0.16269078850746155, "Type": "eyeLeft" }, { "Y": 0.4843238294124603, "X": 0.2782580852508545, "Type": "eyeRight" }, { "Y": 0.71530681848526, "X": 0.1741468608379364, "Type": "mouthLeft" }, { "Y": 0.7310671210289001, "X": 0.26857468485832214, "Type": "mouthRight" }, { "Y": 0.582602322101593, "X": 0.2566150426864624, "Type": "nose" } ], "Pose": { "Yaw": 11.487052917480469, "Roll": 5.074230670928955, "Pitch": 15.396159172058105 }, "Quality": { "Sharpness": 73.32209777832031, "Brightness": 54.96497344970703 }, "Confidence": 99.99998474121094 } } ], "NextToken": "OzL223pDKy9116O/02KXRqFIEAwxjy4PkgYcm3hSo0rdysbXg5Ex0eFgTGEj0ADEac6S037U", "JobStatus": "SUCCEEDED", "VideoMetadata": { "Format": "QuickTime / MOV", "FrameRate": 29.970617294311523, "Codec": "h264", "DurationMillis": 6806, "FrameHeight": 1080, "FrameWidth": 1920 } }Weitere Informationen finden Sie unter Erkennen von Gesichtern in einem gespeicherten Video im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter GetFaceDetection
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie get-face-search verwendet wird.
- AWS CLI
-
So rufen Sie die Ergebnisse einer Gesichtssuche ab
Der folgende
get-face-search-Befehl zeigt die Ergebnisse einer Gesichtssuche an, die Sie zuvor durch einen Aufruf vonstart-face-searchgestartet haben.aws rekognition get-face-search \ --job-id1234567890abcdef1234567890abcdef1234567890abcdef1234567890abcdefAusgabe:
{ "Persons": [ { "Timestamp": 467, "FaceMatches": [], "Person": { "Index": 0, "Face": { "BoundingBox": { "Width": 0.1560753583908081, "Top": 0.13555361330509186, "Left": -0.0952017530798912, "Height": 0.6934483051300049 }, "Landmarks": [ { "Y": 0.4013825058937073, "X": -0.041750285774469376, "Type": "eyeLeft" }, { "Y": 0.41695496439933777, "X": 0.027979329228401184, "Type": "eyeRight" }, { "Y": 0.6375303268432617, "X": -0.04034662991762161, "Type": "mouthLeft" }, { "Y": 0.6497718691825867, "X": 0.013960429467260838, "Type": "mouthRight" }, { "Y": 0.5238034129142761, "X": 0.008022055961191654, "Type": "nose" } ], "Pose": { "Yaw": -58.07863998413086, "Roll": 1.9384294748306274, "Pitch": -24.66305160522461 }, "Quality": { "Sharpness": 83.14741516113281, "Brightness": 25.75942611694336 }, "Confidence": 87.7622299194336 } } }, { "Timestamp": 967, "FaceMatches": [ { "Face": { "BoundingBox": { "Width": 0.12368900328874588, "Top": 0.16007399559020996, "Left": 0.5901259779930115, "Height": 0.2514039874076843 }, "FaceId": "056a95fa-2060-4159-9cab-7ed4daa030fa", "ExternalImageId": "image3.jpg", "Confidence": 100.0, "ImageId": "08f8a078-8929-37fd-8e8f-aadf690e8232" }, "Similarity": 98.44476318359375 } ], "Person": { "Index": 1, "Face": { "BoundingBox": { "Width": 0.28559377789497375, "Top": 0.19436298310756683, "Left": 0.024553587660193443, "Height": 0.7216082215309143 }, "Landmarks": [ { "Y": 0.4650231599807739, "X": 0.16269078850746155, "Type": "eyeLeft" }, { "Y": 0.4843238294124603, "X": 0.2782580852508545, "Type": "eyeRight" }, { "Y": 0.71530681848526, "X": 0.1741468608379364, "Type": "mouthLeft" }, { "Y": 0.7310671210289001, "X": 0.26857468485832214, "Type": "mouthRight" }, { "Y": 0.582602322101593, "X": 0.2566150426864624, "Type": "nose" } ], "Pose": { "Yaw": 11.487052917480469, "Roll": 5.074230670928955, "Pitch": 15.396159172058105 }, "Quality": { "Sharpness": 73.32209777832031, "Brightness": 54.96497344970703 }, "Confidence": 99.99998474121094 } } } ], "NextToken": "5bkgcezyuaqhtWk3C8OTW6cjRghrwV9XDMivm5B3MXm+Lv6G+L+GejyFHPhoNa/ldXIC4c/d", "JobStatus": "SUCCEEDED", "VideoMetadata": { "Format": "QuickTime / MOV", "FrameRate": 29.970617294311523, "Codec": "h264", "DurationMillis": 6806, "FrameHeight": 1080, "FrameWidth": 1920 } }Weitere Informationen finden Sie unter Suche nach Gesichtern in gespeicherten Videos im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter GetFaceSearch
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie get-label-detection verwendet wird.
- AWS CLI
-
So rufen Sie die Ergebnisse einer Objekt- und Szenenerkennungsoperation ab
Der folgende
get-label-detection-Befehl zeigt die Ergebnisse einer Objekt- und Szenenerkennungsoperation an, die Sie zuvor durch einen Aufruf vonstart-label-detectiongestartet haben.aws rekognition get-label-detection \ --job-id1234567890abcdef1234567890abcdef1234567890abcdef1234567890abcdefAusgabe:
{ "Labels": [ { "Timestamp": 0, "Label": { "Instances": [], "Confidence": 50.19071578979492, "Parents": [ { "Name": "Person" }, { "Name": "Crowd" } ], "Name": "Audience" } }, { "Timestamp": 0, "Label": { "Instances": [], "Confidence": 55.74115753173828, "Parents": [ { "Name": "Room" }, { "Name": "Indoors" }, { "Name": "School" } ], "Name": "Classroom" } } ], "JobStatus": "SUCCEEDED", "LabelModelVersion": "2.0", "VideoMetadata": { "Format": "QuickTime / MOV", "FrameRate": 29.970617294311523, "Codec": "h264", "DurationMillis": 6806, "FrameHeight": 1080, "FrameWidth": 1920 }, "NextToken": "BMugzAi4L72IERzQdbpyMQuEFBsjlo5W0Yx3mfG+sR9mm98E1/CpObenspRfs/5FBQFs4X7G" }Weitere Informationen finden Sie unter Erkennen von Labels in einem Video im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter GetLabelDetection
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie get-person-tracking verwendet wird.
- AWS CLI
-
So rufen Sie die Ergebnisse einer Personenpfadoperation ab
Der folgende
get-person-tracking-Befehl zeigt die Ergebnisse einer Personenpfadoperation an, die Sie zuvor durch einen Aufruf vonstart-person-trackinggestartet haben.aws rekognition get-person-tracking \ --job-id1234567890abcdef1234567890abcdef1234567890abcdef1234567890abcdefAusgabe:
{ "Persons": [ { "Timestamp": 500, "Person": { "BoundingBox": { "Width": 0.4151041805744171, "Top": 0.07870370149612427, "Left": 0.0, "Height": 0.9212962985038757 }, "Index": 0 } }, { "Timestamp": 567, "Person": { "BoundingBox": { "Width": 0.4755208194255829, "Top": 0.07777778059244156, "Left": 0.0, "Height": 0.9194444417953491 }, "Index": 0 } } ], "NextToken": "D/vRIYNyhG79ugdta3f+8cRg9oSRo+HigGOuxRiYpTn0ExnqTi1CJektVAc4HrAXDv25eHYk", "JobStatus": "SUCCEEDED", "VideoMetadata": { "Format": "QuickTime / MOV", "FrameRate": 29.970617294311523, "Codec": "h264", "DurationMillis": 6806, "FrameHeight": 1080, "FrameWidth": 1920 } }Weitere Informationen finden Sie unter Pfade von Personen im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter GetPersonTracking
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie index-faces verwendet wird.
Weitere Informationen finden Sie unter Hinzufügen von Gesichtern zu einer Sammlung.
- AWS CLI
-
So fügen Sie Gesichter zu einer Sammlung hinzu
Der folgende
index-faces-Befehl fügt die in einem Bild gefundenen Gesichter zu der angegebenen Sammlung hinzu.aws rekognition index-faces \ --image '{"S3Object":{"Bucket":"MyVideoS3Bucket","Name":"MyPicture.jpg"}}' \ --collection-idMyCollection\ --max-faces1\ --quality-filter"AUTO"\ --detection-attributes"ALL"\ --external-image-id"MyPicture.jpg"Ausgabe:
{ "FaceRecords": [ { "FaceDetail": { "Confidence": 99.993408203125, "Eyeglasses": { "Confidence": 99.11750030517578, "Value": false }, "Sunglasses": { "Confidence": 99.98249053955078, "Value": false }, "Gender": { "Confidence": 99.92769622802734, "Value": "Male" }, "Landmarks": [ { "Y": 0.26750367879867554, "X": 0.6202793717384338, "Type": "eyeLeft" }, { "Y": 0.26642778515815735, "X": 0.6787431836128235, "Type": "eyeRight" }, { "Y": 0.31361380219459534, "X": 0.6421601176261902, "Type": "nose" }, { "Y": 0.3495299220085144, "X": 0.6216195225715637, "Type": "mouthLeft" }, { "Y": 0.35194727778434753, "X": 0.669899046421051, "Type": "mouthRight" }, { "Y": 0.26844894886016846, "X": 0.6210268139839172, "Type": "leftPupil" }, { "Y": 0.26707562804222107, "X": 0.6817160844802856, "Type": "rightPupil" }, { "Y": 0.24834522604942322, "X": 0.6018546223640442, "Type": "leftEyeBrowLeft" }, { "Y": 0.24397172033786774, "X": 0.6172008514404297, "Type": "leftEyeBrowUp" }, { "Y": 0.24677404761314392, "X": 0.6339119076728821, "Type": "leftEyeBrowRight" }, { "Y": 0.24582654237747192, "X": 0.6619398593902588, "Type": "rightEyeBrowLeft" }, { "Y": 0.23973053693771362, "X": 0.6804757118225098, "Type": "rightEyeBrowUp" }, { "Y": 0.24441994726657867, "X": 0.6978968977928162, "Type": "rightEyeBrowRight" }, { "Y": 0.2695908546447754, "X": 0.6085202693939209, "Type": "leftEyeLeft" }, { "Y": 0.26716896891593933, "X": 0.6315826177597046, "Type": "leftEyeRight" }, { "Y": 0.26289820671081543, "X": 0.6202316880226135, "Type": "leftEyeUp" }, { "Y": 0.27123287320137024, "X": 0.6205548048019409, "Type": "leftEyeDown" }, { "Y": 0.2668408751487732, "X": 0.6663622260093689, "Type": "rightEyeLeft" }, { "Y": 0.26741549372673035, "X": 0.6910083889961243, "Type": "rightEyeRight" }, { "Y": 0.2614026665687561, "X": 0.6785826086997986, "Type": "rightEyeUp" }, { "Y": 0.27075251936912537, "X": 0.6789616942405701, "Type": "rightEyeDown" }, { "Y": 0.3211299479007721, "X": 0.6324167847633362, "Type": "noseLeft" }, { "Y": 0.32276326417922974, "X": 0.6558475494384766, "Type": "noseRight" }, { "Y": 0.34385165572166443, "X": 0.6444970965385437, "Type": "mouthUp" }, { "Y": 0.3671635091304779, "X": 0.6459195017814636, "Type": "mouthDown" } ], "Pose": { "Yaw": -9.54541015625, "Roll": -0.5709401965141296, "Pitch": 0.6045494675636292 }, "Emotions": [ { "Confidence": 39.90074157714844, "Type": "HAPPY" }, { "Confidence": 23.38753890991211, "Type": "CALM" }, { "Confidence": 5.840933322906494, "Type": "CONFUSED" } ], "AgeRange": { "High": 63, "Low": 45 }, "EyesOpen": { "Confidence": 99.80887603759766, "Value": true }, "BoundingBox": { "Width": 0.18562500178813934, "Top": 0.1618015021085739, "Left": 0.5575000047683716, "Height": 0.24770642817020416 }, "Smile": { "Confidence": 99.69740295410156, "Value": false }, "MouthOpen": { "Confidence": 99.97393798828125, "Value": false }, "Quality": { "Sharpness": 95.54405975341797, "Brightness": 63.867706298828125 }, "Mustache": { "Confidence": 97.05007934570312, "Value": false }, "Beard": { "Confidence": 87.34505462646484, "Value": false } }, "Face": { "BoundingBox": { "Width": 0.18562500178813934, "Top": 0.1618015021085739, "Left": 0.5575000047683716, "Height": 0.24770642817020416 }, "FaceId": "ce7ed422-2132-4a11-ab14-06c5c410f29f", "ExternalImageId": "example-image.jpg", "Confidence": 99.993408203125, "ImageId": "8d67061e-90d2-598f-9fbd-29c8497039c0" } } ], "UnindexedFaces": [], "FaceModelVersion": "3.0", "OrientationCorrection": "ROTATE_0" }Weitere Informationen finden Sie unter Gesichter zu einer Sammlung hinzufügen im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter IndexFaces
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie list-collections verwendet wird.
Weitere Informationen finden Sie unter Sammlungen auflisten.
- AWS CLI
-
So listen Sie die verfügbaren Sammlungen auf
Der folgende
list-collections-Befehl listet die verfügbaren Sammlungen im AWS-Konto auf.aws rekognition list-collectionsAusgabe:
{ "FaceModelVersions": [ "2.0", "3.0", "3.0", "3.0", "4.0", "1.0", "3.0", "4.0", "4.0", "4.0" ], "CollectionIds": [ "MyCollection1", "MyCollection2", "MyCollection3", "MyCollection4", "MyCollection5", "MyCollection6", "MyCollection7", "MyCollection8", "MyCollection9", "MyCollection10" ] }Weitere Informationen finden Sie unter Auflisten von Sammlungen im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter ListCollections
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie list-faces verwendet wird.
Weitere Informationen finden Sie unter Gesichter in einer Sammlung auflisten.
- AWS CLI
-
So listen Sie Gesichter in einer Sammlung auf
Der folgende
list-faces-Befehl listet die Gesichter in der angegebenen Sammlung auf.aws rekognition list-faces \ --collection-idMyCollectionAusgabe:
{ "FaceModelVersion": "3.0", "Faces": [ { "BoundingBox": { "Width": 0.5216310024261475, "Top": 0.3256250023841858, "Left": 0.13394300639629364, "Height": 0.3918749988079071 }, "FaceId": "0040279c-0178-436e-b70a-e61b074e96b0", "ExternalImageId": "image1.jpg", "Confidence": 100.0, "ImageId": "f976e487-3719-5e2d-be8b-ea2724c26991" }, { "BoundingBox": { "Width": 0.5074880123138428, "Top": 0.3774999976158142, "Left": 0.18302799761295319, "Height": 0.3812499940395355 }, "FaceId": "086261e8-6deb-4bc0-ac73-ab22323cc38d", "ExternalImageId": "image2.jpg", "Confidence": 99.99930572509766, "ImageId": "ae1593b0-a8f6-5e24-a306-abf529e276fa" }, { "BoundingBox": { "Width": 0.5574039816856384, "Top": 0.37187498807907104, "Left": 0.14559100568294525, "Height": 0.4181250035762787 }, "FaceId": "11c4bd3c-19c5-4eb8-aecc-24feb93a26e1", "ExternalImageId": "image3.jpg", "Confidence": 99.99960327148438, "ImageId": "80739b4d-883f-5b78-97cf-5124038e26b9" }, { "BoundingBox": { "Width": 0.18562500178813934, "Top": 0.1618019938468933, "Left": 0.5575000047683716, "Height": 0.24770599603652954 }, "FaceId": "13692fe4-990a-4679-b14a-5ac23d135eab", "ExternalImageId": "image4.jpg", "Confidence": 99.99340057373047, "ImageId": "8df18239-9ad1-5acd-a46a-6581ff98f51b" }, { "BoundingBox": { "Width": 0.5307819843292236, "Top": 0.2862499952316284, "Left": 0.1564060002565384, "Height": 0.3987500071525574 }, "FaceId": "2eb5f3fd-e2a9-4b1c-a89f-afa0a518fe06", "ExternalImageId": "image5.jpg", "Confidence": 99.99970245361328, "ImageId": "3c314792-197d-528d-bbb6-798ed012c150" }, { "BoundingBox": { "Width": 0.5773710012435913, "Top": 0.34437501430511475, "Left": 0.12396000325679779, "Height": 0.4337500035762787 }, "FaceId": "57189455-42b0-4839-a86c-abda48b13174", "ExternalImageId": "image6.jpg", "Confidence": 100.0, "ImageId": "0aff2f37-e7a2-5dbc-a3a3-4ef6ec18eaa0" }, { "BoundingBox": { "Width": 0.5349419713020325, "Top": 0.29124999046325684, "Left": 0.16389399766921997, "Height": 0.40187498927116394 }, "FaceId": "745f7509-b1fa-44e0-8b95-367b1359638a", "ExternalImageId": "image7.jpg", "Confidence": 99.99979400634766, "ImageId": "67a34327-48d1-5179-b042-01e52ccfeada" }, { "BoundingBox": { "Width": 0.41499999165534973, "Top": 0.09187500178813934, "Left": 0.28083300590515137, "Height": 0.3112500011920929 }, "FaceId": "8d3cfc70-4ba8-4b36-9644-90fba29c2dac", "ExternalImageId": "image8.jpg", "Confidence": 99.99769592285156, "ImageId": "a294da46-2cb1-5cc4-9045-61d7ca567662" }, { "BoundingBox": { "Width": 0.48166701197624207, "Top": 0.20999999344348907, "Left": 0.21250000596046448, "Height": 0.36125001311302185 }, "FaceId": "bd4ceb4d-9acc-4ab7-8ef8-1c2d2ba0a66a", "ExternalImageId": "image9.jpg", "Confidence": 99.99949645996094, "ImageId": "5e1a7588-e5a0-5ee3-bd00-c642518dfe3a" }, { "BoundingBox": { "Width": 0.18562500178813934, "Top": 0.1618019938468933, "Left": 0.5575000047683716, "Height": 0.24770599603652954 }, "FaceId": "ce7ed422-2132-4a11-ab14-06c5c410f29f", "ExternalImageId": "image10.jpg", "Confidence": 99.99340057373047, "ImageId": "8d67061e-90d2-598f-9fbd-29c8497039c0" } ] }Weitere Informationen finden Sie unter Auflisten von Gesichtern in einer Sammlung im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter ListFaces
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie list-stream-processors verwendet wird.
- AWS CLI
-
So listen Sie die Stream-Prozessoren in Ihrem Konto auf
Der folgende
list-stream-processors-Befehl listet die Stream-Prozessoren in Ihrem Konto und deren jeweiligen Status auf.aws rekognition list-stream-processorsAusgabe:
{ "StreamProcessors": [ { "Status": "STOPPED", "Name": "my-stream-processor" } ] }Weitere Informationen finden Sie unter Arbeiten mit Streaming-Videos im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter ListStreamProcessors
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie recognize-celebrities verwendet wird.
Weitere Informationen finden Sie unter Erkennen von Prominenten in einem Bild.
- AWS CLI
-
So erkennen Sie Prominente in einem Bild
Der folgende
recognize-celebrities-Befehl erkennt Prominente in dem angegebenen Bild, das in einem Amazon-S3-Bucket gespeichert ist.aws rekognition recognize-celebrities \ --image"S3Object={Bucket=MyImageS3Bucket,Name=moviestars.jpg}"Ausgabe:
{ "UnrecognizedFaces": [ { "BoundingBox": { "Width": 0.14416666328907013, "Top": 0.07777778059244156, "Left": 0.625, "Height": 0.2746031880378723 }, "Confidence": 99.9990234375, "Pose": { "Yaw": 10.80408763885498, "Roll": -12.761146545410156, "Pitch": 10.96889877319336 }, "Quality": { "Sharpness": 94.1185531616211, "Brightness": 79.18367004394531 }, "Landmarks": [ { "Y": 0.18220913410186768, "X": 0.6702951788902283, "Type": "eyeLeft" }, { "Y": 0.16337193548679352, "X": 0.7188183665275574, "Type": "eyeRight" }, { "Y": 0.20739148557186127, "X": 0.7055801749229431, "Type": "nose" }, { "Y": 0.2889308035373688, "X": 0.687512218952179, "Type": "mouthLeft" }, { "Y": 0.2706988751888275, "X": 0.7250053286552429, "Type": "mouthRight" } ] } ], "CelebrityFaces": [ { "MatchConfidence": 100.0, "Face": { "BoundingBox": { "Width": 0.14000000059604645, "Top": 0.1190476194024086, "Left": 0.82833331823349, "Height": 0.2666666805744171 }, "Confidence": 99.99359130859375, "Pose": { "Yaw": -10.509642601013184, "Roll": -14.51749324798584, "Pitch": 13.799399375915527 }, "Quality": { "Sharpness": 78.74752044677734, "Brightness": 42.201324462890625 }, "Landmarks": [ { "Y": 0.2290833294391632, "X": 0.8709492087364197, "Type": "eyeLeft" }, { "Y": 0.20639978349208832, "X": 0.9153988361358643, "Type": "eyeRight" }, { "Y": 0.25417643785476685, "X": 0.8907724022865295, "Type": "nose" }, { "Y": 0.32729196548461914, "X": 0.8876466155052185, "Type": "mouthLeft" }, { "Y": 0.3115464746952057, "X": 0.9238573312759399, "Type": "mouthRight" } ] }, "Name": "Celeb A", "Urls": [ "www.imdb.com/name/aaaaaaaaa" ], "Id": "1111111" }, { "MatchConfidence": 97.0, "Face": { "BoundingBox": { "Width": 0.13333334028720856, "Top": 0.24920634925365448, "Left": 0.4449999928474426, "Height": 0.2539682686328888 }, "Confidence": 99.99979400634766, "Pose": { "Yaw": 6.557040691375732, "Roll": -7.316643714904785, "Pitch": 9.272967338562012 }, "Quality": { "Sharpness": 83.23492431640625, "Brightness": 78.83267974853516 }, "Landmarks": [ { "Y": 0.3625510632991791, "X": 0.48898839950561523, "Type": "eyeLeft" }, { "Y": 0.35366007685661316, "X": 0.5313721299171448, "Type": "eyeRight" }, { "Y": 0.3894785940647125, "X": 0.5173314809799194, "Type": "nose" }, { "Y": 0.44889405369758606, "X": 0.5020005702972412, "Type": "mouthLeft" }, { "Y": 0.4408611059188843, "X": 0.5351271629333496, "Type": "mouthRight" } ] }, "Name": "Celeb B", "Urls": [ "www.imdb.com/name/bbbbbbbbb" ], "Id": "2222222" }, { "MatchConfidence": 100.0, "Face": { "BoundingBox": { "Width": 0.12416666746139526, "Top": 0.2968254089355469, "Left": 0.2150000035762787, "Height": 0.23650793731212616 }, "Confidence": 99.99958801269531, "Pose": { "Yaw": 7.801797866821289, "Roll": -8.326810836791992, "Pitch": 7.844768047332764 }, "Quality": { "Sharpness": 86.93206024169922, "Brightness": 79.81291198730469 }, "Landmarks": [ { "Y": 0.4027804136276245, "X": 0.2575301229953766, "Type": "eyeLeft" }, { "Y": 0.3934555947780609, "X": 0.2956969439983368, "Type": "eyeRight" }, { "Y": 0.4309830069541931, "X": 0.2837020754814148, "Type": "nose" }, { "Y": 0.48186683654785156, "X": 0.26812544465065, "Type": "mouthLeft" }, { "Y": 0.47338807582855225, "X": 0.29905644059181213, "Type": "mouthRight" } ] }, "Name": "Celeb C", "Urls": [ "www.imdb.com/name/ccccccccc" ], "Id": "3333333" }, { "MatchConfidence": 97.0, "Face": { "BoundingBox": { "Width": 0.11916666477918625, "Top": 0.3698412775993347, "Left": 0.008333333767950535, "Height": 0.22698412835597992 }, "Confidence": 99.99999237060547, "Pose": { "Yaw": 16.38478660583496, "Roll": -1.0260354280471802, "Pitch": 5.975185394287109 }, "Quality": { "Sharpness": 83.23492431640625, "Brightness": 61.408443450927734 }, "Landmarks": [ { "Y": 0.4632347822189331, "X": 0.049406956881284714, "Type": "eyeLeft" }, { "Y": 0.46388113498687744, "X": 0.08722897619009018, "Type": "eyeRight" }, { "Y": 0.5020678639411926, "X": 0.0758260041475296, "Type": "nose" }, { "Y": 0.544157862663269, "X": 0.054029736667871475, "Type": "mouthLeft" }, { "Y": 0.5463630557060242, "X": 0.08464983850717545, "Type": "mouthRight" } ] }, "Name": "Celeb D", "Urls": [ "www.imdb.com/name/ddddddddd" ], "Id": "4444444" } ] }Weitere Informationen finden Sie unter Erkennen von Prominenten in einem Bild im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter RecognizeCelebrities
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie search-faces-by-image verwendet wird.
Weitere Informationen finden Sie unter Nach einem Gesicht suchen (Bild).
- AWS CLI
-
So suchen Sie nach Gesichtern in einer Sammlung, die dem größten Gesicht in einem Bild entsprechen.
Der folgende
search-faces-by-image-Befehl sucht nach Gesichtern in einer Sammlung, die dem größten Gesicht im angegebenen Bild entsprechen:aws rekognition search-faces-by-image \ --image '{"S3Object":{"Bucket":"MyImageS3Bucket","Name":"ExamplePerson.jpg"}}' \ --collection-idMyFaceImageCollection{"SearchedFaceBoundingBox":{"Width":0.18562500178813934,"Top":0.1618015021085739,"Left":0.5575000047683716,"Height":0.24770642817020416},"SearchedFaceConfidence":99.993408203125,"FaceMatches":[{"Face":{"BoundingBox":{"Width":0.18562500178813934,"Top":0.1618019938468933,"Left":0.5575000047683716,"Height":0.24770599603652954},"FaceId": "ce7ed422-2132-4a11-ab14-06c5c410f29f", "ExternalImageId": "example-image.jpg", "Confidence":99.99340057373047,"ImageId":"8d67061e-90d2-598f-9fbd-29c8497039c0"},"Similarity":99.97913360595703},{"Face":{"BoundingBox":{"Width":0.18562500178813934,"Top":0.1618019938468933,"Left":0.5575000047683716,"Height":0.24770599603652954},"FaceId": "13692fe4-990a-4679-b14a-5ac23d135eab", "ExternalImageId": "image3.jpg", "Confidence":99.99340057373047,"ImageId":"8df18239-9ad1-5acd-a46a-6581ff98f51b"},"Similarity":99.97913360595703},{"Face":{"BoundingBox":{"Width":0.41499999165534973,"Top":0.09187500178813934,"Left":0.28083300590515137,"Height":0.3112500011920929},"FaceId": "8d3cfc70-4ba8-4b36-9644-90fba29c2dac", "ExternalImageId": "image2.jpg", "Confidence":99.99769592285156,"ImageId":"a294da46-2cb1-5cc4-9045-61d7ca567662"},"Similarity":99.18069458007812},{"Face":{"BoundingBox":{"Width":0.48166701197624207,"Top":0.20999999344348907,"Left":0.21250000596046448,"Height":0.36125001311302185},"FaceId": "bd4ceb4d-9acc-4ab7-8ef8-1c2d2ba0a66a", "ExternalImageId": "image1.jpg", "Confidence":99.99949645996094,"ImageId":"5e1a7588-e5a0-5ee3-bd00-c642518dfe3a"},"Similarity":98.66607666015625},{"Face":{"BoundingBox":{"Width":0.5349419713020325,"Top":0.29124999046325684,"Left":0.16389399766921997,"Height":0.40187498927116394},"FaceId": "745f7509-b1fa-44e0-8b95-367b1359638a", "ExternalImageId": "image9.jpg", "Confidence":99.99979400634766,"ImageId":"67a34327-48d1-5179-b042-01e52ccfeada"},"Similarity":98.24278259277344},{"Face":{"BoundingBox":{"Width":0.5307819843292236,"Top":0.2862499952316284,"Left":0.1564060002565384,"Height":0.3987500071525574},"FaceId": "2eb5f3fd-e2a9-4b1c-a89f-afa0a518fe06", "ExternalImageId": "image10.jpg", "Confidence":99.99970245361328,"ImageId":"3c314792-197d-528d-bbb6-798ed012c150"},"Similarity":98.10665893554688},{"Face":{"BoundingBox":{"Width":0.5074880123138428,"Top":0.3774999976158142,"Left":0.18302799761295319,"Height":0.3812499940395355},"FaceId": "086261e8-6deb-4bc0-ac73-ab22323cc38d", "ExternalImageId": "image6.jpg", "Confidence":99.99930572509766,"ImageId":"ae1593b0-a8f6-5e24-a306-abf529e276fa"},"Similarity":98.10526275634766},{"Face":{"BoundingBox":{"Width":0.5574039816856384,"Top":0.37187498807907104,"Left":0.14559100568294525,"Height":0.4181250035762787},"FaceId": "11c4bd3c-19c5-4eb8-aecc-24feb93a26e1", "ExternalImageId": "image5.jpg", "Confidence":99.99960327148438,"ImageId":"80739b4d-883f-5b78-97cf-5124038e26b9"},"Similarity":97.94659423828125},{"Face":{"BoundingBox":{"Width":0.5773710012435913,"Top":0.34437501430511475,"Left":0.12396000325679779,"Height":0.4337500035762787},"FaceId": "57189455-42b0-4839-a86c-abda48b13174", "ExternalImageId": "image8.jpg", "Confidence":100.0,"ImageId":"0aff2f37-e7a2-5dbc-a3a3-4ef6ec18eaa0"},"Similarity":97.93476867675781}],"FaceModelVersion":"3.0"}Weitere Informationen finden Sie unter Suchen nach einem Gesicht mithilfe eines Bildes im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter SearchFacesByImage
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie search-faces verwendet wird.
Weitere Informationen finden Sie unter Nach einem Gesicht suchen (Gesichts-ID).
- AWS CLI
-
So suchen Sie nach Gesichtern in einer Sammlung, die einer Gesichts-ID entsprechen.
Der folgende
search-faces-Befehl sucht nach Gesichtern in einer Sammlung, die der angegebenen Gesichts-ID entsprechen.aws rekognition search-faces \ --face-id8d3cfc70-4ba8-4b36-9644-90fba29c2dac\ --collection-idMyCollectionAusgabe:
{ "SearchedFaceId": "8d3cfc70-4ba8-4b36-9644-90fba29c2dac", "FaceModelVersion": "3.0", "FaceMatches": [ { "Face": { "BoundingBox": { "Width": 0.48166701197624207, "Top": 0.20999999344348907, "Left": 0.21250000596046448, "Height": 0.36125001311302185 }, "FaceId": "bd4ceb4d-9acc-4ab7-8ef8-1c2d2ba0a66a", "ExternalImageId": "image1.jpg", "Confidence": 99.99949645996094, "ImageId": "5e1a7588-e5a0-5ee3-bd00-c642518dfe3a" }, "Similarity": 99.30997467041016 }, { "Face": { "BoundingBox": { "Width": 0.18562500178813934, "Top": 0.1618019938468933, "Left": 0.5575000047683716, "Height": 0.24770599603652954 }, "FaceId": "ce7ed422-2132-4a11-ab14-06c5c410f29f", "ExternalImageId": "example-image.jpg", "Confidence": 99.99340057373047, "ImageId": "8d67061e-90d2-598f-9fbd-29c8497039c0" }, "Similarity": 99.24862670898438 }, { "Face": { "BoundingBox": { "Width": 0.18562500178813934, "Top": 0.1618019938468933, "Left": 0.5575000047683716, "Height": 0.24770599603652954 }, "FaceId": "13692fe4-990a-4679-b14a-5ac23d135eab", "ExternalImageId": "image3.jpg", "Confidence": 99.99340057373047, "ImageId": "8df18239-9ad1-5acd-a46a-6581ff98f51b" }, "Similarity": 99.24862670898438 }, { "Face": { "BoundingBox": { "Width": 0.5349419713020325, "Top": 0.29124999046325684, "Left": 0.16389399766921997, "Height": 0.40187498927116394 }, "FaceId": "745f7509-b1fa-44e0-8b95-367b1359638a", "ExternalImageId": "image9.jpg", "Confidence": 99.99979400634766, "ImageId": "67a34327-48d1-5179-b042-01e52ccfeada" }, "Similarity": 96.73158264160156 }, { "Face": { "BoundingBox": { "Width": 0.5307819843292236, "Top": 0.2862499952316284, "Left": 0.1564060002565384, "Height": 0.3987500071525574 }, "FaceId": "2eb5f3fd-e2a9-4b1c-a89f-afa0a518fe06", "ExternalImageId": "image10.jpg", "Confidence": 99.99970245361328, "ImageId": "3c314792-197d-528d-bbb6-798ed012c150" }, "Similarity": 96.48291015625 }, { "Face": { "BoundingBox": { "Width": 0.5074880123138428, "Top": 0.3774999976158142, "Left": 0.18302799761295319, "Height": 0.3812499940395355 }, "FaceId": "086261e8-6deb-4bc0-ac73-ab22323cc38d", "ExternalImageId": "image6.jpg", "Confidence": 99.99930572509766, "ImageId": "ae1593b0-a8f6-5e24-a306-abf529e276fa" }, "Similarity": 96.43287658691406 }, { "Face": { "BoundingBox": { "Width": 0.5574039816856384, "Top": 0.37187498807907104, "Left": 0.14559100568294525, "Height": 0.4181250035762787 }, "FaceId": "11c4bd3c-19c5-4eb8-aecc-24feb93a26e1", "ExternalImageId": "image5.jpg", "Confidence": 99.99960327148438, "ImageId": "80739b4d-883f-5b78-97cf-5124038e26b9" }, "Similarity": 95.25305938720703 }, { "Face": { "BoundingBox": { "Width": 0.5773710012435913, "Top": 0.34437501430511475, "Left": 0.12396000325679779, "Height": 0.4337500035762787 }, "FaceId": "57189455-42b0-4839-a86c-abda48b13174", "ExternalImageId": "image8.jpg", "Confidence": 100.0, "ImageId": "0aff2f37-e7a2-5dbc-a3a3-4ef6ec18eaa0" }, "Similarity": 95.22837829589844 } ] }Weitere Informationen finden Sie unter Suchen nach einem Gesicht mit der Gesichts-ID im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter SearchFaces
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie start-celebrity-recognition verwendet wird.
- AWS CLI
-
So starten Sie die Erkennung von Prominenten in einem gespeicherten Video
Der folgende
start-celebrity-recognition-Befehl startet einen Job zur Suche nach Prominenten in der angegebenen Videodatei, die in einem Amazon-S3-Bucket gespeichert ist.aws rekognition start-celebrity-recognition \ --video"S3Object={Bucket=MyVideoS3Bucket,Name=MyVideoFile.mpg}"Ausgabe:
{ "JobId": "1234567890abcdef1234567890abcdef1234567890abcdef1234567890abcdef" }Weitere Informationen finden Sie unter Erkennen von Prominenten in einem gespeicherten Video im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter StartCelebrityRecognition
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie start-content-moderation verwendet wird.
- AWS CLI
-
So starten Sie die Erkennung unsicherer Inhalte in einem gespeicherten Video
Der folgende
start-content-moderation-Befehl startet eine Aufgabe zur Erkennung von unsicheren Inhalten in der angegebenen Videodatei, die in einem Amazon-S3-Bucket gespeichert ist.aws rekognition start-content-moderation \ --video"S3Object={Bucket=MyVideoS3Bucket,Name=MyVideoFile.mpg}"Ausgabe:
{ "JobId": "1234567890abcdef1234567890abcdef1234567890abcdef1234567890abcdef" }Weitere Informationen finden Sie unter Erkennen unsicherer gespeicherter Videos im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter StartContentModeration
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie start-face-detection verwendet wird.
- AWS CLI
-
So erkennen Sie Gesichter in einem Video
Der folgende
start-face-detection-Befehl startet eine Aufgabe zur Erkennung von Gesichtern in der angegebenen Videodatei, die in einem Amazon-S3-Bucket gespeichert ist.aws rekognition start-face-detection --video"S3Object={Bucket=MyVideoS3Bucket,Name=MyVideoFile.mpg}"Ausgabe:
{ "JobId": "1234567890abcdef1234567890abcdef1234567890abcdef1234567890abcdef" }Weitere Informationen finden Sie unter Erkennen von Gesichtern in einem gespeicherten Video im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter StartFaceDetection
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie start-face-search verwendet wird.
- AWS CLI
-
So suchen Sie nach Gesichtern in einer Sammlung, die mit Gesichtern übereinstimmen, die in einem Video erkannt werden
Der folgende
start-face-search-Befehl startet eine Aufgabe zur Erkennung von Gesichtern in einer Sammlung, die Gesichtern entsprechen, die in dem angegebenen Video erkannt werden, das in einem Amazon-S3-Bucket gespeichert ist.aws rekognition start-face-search \ --video"S3Object={Bucket=MyVideoS3Bucket,Name=MyVideoFile.mpg}"\ --collection-id collectionAusgabe:
{ "JobId": "1234567890abcdef1234567890abcdef1234567890abcdef1234567890abcdef" }Weitere Informationen finden Sie unter Suche nach Gesichtern in gespeicherten Videos im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter StartFaceSearch
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie start-label-detection verwendet wird.
- AWS CLI
-
So erkennen Sie Objekte und Szenen in einem Video
Der folgende
start-label-detection-Befehl startet eine Aufgabe zur Erkennung von Objekten und Szenen in der angegebenen Videodatei, die in einem Amazon-S3-Bucket gespeichert ist.aws rekognition start-label-detection \ --video"S3Object={Bucket=MyVideoS3Bucket,Name=MyVideoFile.mpg}"Ausgabe:
{ "JobId": "1234567890abcdef1234567890abcdef1234567890abcdef1234567890abcdef" }Weitere Informationen finden Sie unter Erkennen von Labels in einem Video im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter StartLabelDetection
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie start-person-tracking verwendet wird.
- AWS CLI
-
So starten Sie die Pfadfindung von Personen in einem gespeicherten Video
Der folgende
start-person-tracking-Befehl startet eine Aufgabe zur Pfadfindung von Personen in dem angegebenen Video, das in einem Amazon-S3-Bucket gespeichert ist:aws rekognition start-person-tracking \ --video"S3Object={Bucket=MyVideoS3Bucket,Name=MyVideoFile.mpg}"Ausgabe:
{ "JobId": "1234567890abcdef1234567890abcdef1234567890abcdef1234567890abcdef" }Weitere Informationen finden Sie unter Pfade von Personen im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter StartPersonTracking
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie start-stream-processor verwendet wird.
- AWS CLI
-
So starten Sie den Stream-Prozessor
Der folgende
start-stream-processor-Befehl startet den angegebenen Videostream-Prozessor.aws rekognition start-stream-processor \ --namemy-stream-processorMit diesem Befehl wird keine Ausgabe zurückgegeben.
Weitere Informationen finden Sie unter Arbeiten mit Streaming-Videos im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter StartStreamProcessor
in der AWS CLI-Befehlsreferenz.
-
Das folgende Codebeispiel zeigt, wie stop-stream-processor verwendet wird.
- AWS CLI
-
So beenden Sie einen laufenden Stream-Prozessor
Der folgende
stop-stream-processor-Befehl stoppt den angegebenen Stream-Prozessor.aws rekognition stop-stream-processor \ --namemy-stream-processorMit diesem Befehl wird keine Ausgabe zurückgegeben.
Weitere Informationen finden Sie unter Arbeiten mit Streaming-Videos im Amazon-Rekognition-Entwicklerhandbuch.
-
API-Details finden Sie unter StopStreamProcessor
in der AWS CLI-Befehlsreferenz.
-