가드레일 생성 - Amazon Bedrock

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

가드레일 생성

Amazon Bedrock Guardrails는 원하지 않는 유해한 콘텐츠를 방지하고 개인정보 보호를 위해 민감한 정보를 제거하거나 가리도록 구성할 수 있는 다양한 필터링 정책 모음으로 구성됩니다.

가드레일에서 다음 정책을 구성할 수 있습니다.

  • 콘텐츠 필터 - 입력 프롬프트를 차단하거나 텍스트에 대해 자연어로 응답을 모델링하고 증오, 모욕, 성적, 폭력, 불법 행위(범죄 행위 포함), 프롬프트 공격(프롬프트 삽입 및 탈옥)과 같은 유해한 콘텐츠가 포함된 이미지에 대해 개별적으로 임곗값을 구성할 수 있습니다. 예를 들어 전자 상거래 사이트는 부적절한 언어 및/또는 증오나 폭력과 같은 이미지를 사용하지 않도록 온라인 어시스턴트를 설계할 수 있습니다.

  • 프롬프트 공격 - 프롬프트 공격 및 프롬프트 주입을 감지하고 필터링하는 데 도움이 될 수 있습니다. 조절을 우회하거나, 지침을 재정의하거나, 유해한 콘텐츠를 생성하기 위한 프롬프트를 감지하는 데 도움이 됩니다.

  • 거부된 주제 - 생성형 AI 애플리케이션 내에서 피해야 할 주제 세트를 정의할 수 있습니다. 예를 들어, 뱅킹 어시스턴트 애플리케이션에서 불법 투자 조언과 관련된 주제를 피하도록 설계할 수 있습니다.

  • 단어 필터 - 사용자와 생성형 AI 애플리케이션 간의 상호 작용을 감지하고 차단하려는 사용자 지정 단어 또는 문구 집합(정확한 일치)을 구성할 수 있습니다. 예를 들어, 비속어뿐만 아니라 경쟁사 이름이나 기타 불쾌한 단어와 같은 단어를 사용자 지정하여 탐지하고 차단할 수 있습니다.

  • 민감한 정보 필터 - 사용자 입력 및 FM 응답에서 표준 형식의 개인 식별 정보(PII) 또는 사용자 지정 정규식 엔터티와 같은 민감한 콘텐츠를 감지하는 데 도움이 될 수 있습니다. 사용 사례에 따라 민감한 정보가 포함된 입력을 거부하거나 FM 응답에서 수정할 수 있습니다. 예를 들어, 고객 및 에이전트 대화 트랜스크립트에서 요약을 생성할 때 사용자의 개인 정보를 삭제할 수 있습니다.

  • 컨텍스트 근거 검사 - 모델 응답이 소스 정보에 근거하지 않거나(실제로 부정확하거나 새 정보가 추가된 경우) 사용자의 쿼리와 관련이 없는 경우, 모델 응답에서 할루시네이션을 감지하고 필터링할 수 있습니다. 예를 들어, 모델 응답이 검색된 구절의 정보에서 벗어나거나 사용자의 질문에 대한 답변이 되지 않는 경우 RAG 애플리케이션(검색 증강 생성)의 응답을 차단하거나 플래그를 지정할 수 있습니다.

참고

위의 정책에서 차단된 모든 콘텐츠는 활성화한 경우 Amazon Bedrock 모델 호출 로그에 일반 텍스트로 표시됩니다. 차단된 콘텐츠가 로그에 일반 텍스트로 표시되지 않도록 하려면 Amazon Bedrock 간접 호출 로그를 비활성화할 수 있습니다.

가드레일에는 프롬프트와 사용자 응답이 차단되는 경우를 대비해 최소 하나 이상의 필터와 메시지가 포함되어 있어야 합니다. 기본 메시지를 사용하도록 선택할 수 있습니다. 나중에의 단계에 따라 필터를 추가하고 가드레일을 반복할 수 있습니다가드레일 수정.