기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Meta
Amazon Bedrock에서 사용할 수 있는 메타 모델은 다음과 같습니다.
| 모델 | 설명 |
|---|---|
| Llama 4 Maverick 17B 지침 | Llama 4 Maverick은 128명의 전문가가 포함된 Meta의 170억 개의 활성 파라미터 mixture-of-experts 모델로, 멀티모달 채팅 및 다음 지침에 최적화되어 있습니다. |
| Llama 4 Scout 17B 지침 | Llama 4 Scout은 16명의 전문가가 포함된 Meta의 170억 개의 활성 파라미터 mixture-of-experts 모델이며, 장기 문서 작업을 위한 10M 개의 토큰 컨텍스트 창입니다. |
| Llama 3.3 70B 지침 | Llama 3.3 70B Instruct는 효율성이 향상된 Meta의 700억 파라미터 모델로, 128K 컨텍스트 기간으로 강력한 추론 및 코딩 성능을 제공합니다. |
| Llama 3.2 11B 지침 | Llama 3.2 11B Instruct는 128K 컨텍스트 창을 사용하여 텍스트와 이미지를 모두 처리하는 Meta의 110억 파라미터 멀티모달 모델입니다. |
| Llama 3.2 1B 지침 | Llama 3.2 1B Instruct는 디바이스 및 엣지 배포에 최적화된 Meta의 초경량 10억 파라미터 모델입니다. |
| Llama 3.2 3B 지침 | Llama 3.2 3B Instruct는 요약 및 다음 지침과 같은 디바이스 내 작업을 위해 설계된 Meta의 30억 파라미터 경량 모델입니다. |
| Llama 3.2 90B 지침 | Llama 3.2 90B Instruct는 시각적 추론 및 문서 이해를 위해 텍스트와 이미지를 처리하는 Meta의 900억 파라미터 멀티모달 모델입니다. |
| Llama 3.1 405B 지침 | Llama 3.1 405B Instruct는 4,050억 개의 파라미터와 128K 컨텍스트 창을 갖춘 Meta의 최대 개방형 모델로, 도구 사용과 다국어 작업을 지원합니다. |
| Llama 3.1 70B Instruct | Llama 3.1 70B Instruct는 128K 컨텍스트 창이 확장되고 도구 사용 및 코드 생성을 지원하는 Meta의 700억 파라미터 모델입니다. |
| Llama 3.1 8B 지침 | Llama 3.1 8B Instruct는 엣지 배포 및 미세 조정에 적합한 128K 컨텍스트 창이 있는 Meta의 소형 80억 파라미터 모델입니다. |
| Llama 3 70B 지침 | Llama 3 70B Instruct는 대화 및 어시스턴트와 유사한 작업에 최적화된 8K 컨텍스트 창이 있는 Meta의 700억 파라미터 명령 튜닝 모델입니다. |
| Llama 3 8B 지침 | Llama 3 8B Instruct는 더 작은 인프라에 효율적으로 배포할 수 있도록 설계된 8K 컨텍스트 창이 있는 Meta의 80억 파라미터 명령 튜닝 모델입니다. |