A company wants to use a large language model (LLM) to develop a conversational agent. The company needs to prevent the LLM from being manipulated with prompts that cause the LLM to respond in unexpected ways.
Which action will reduce these risks?
[한글 해석] 한 회사가 대화형 에이전트를 개발하기 위해 대규모 언어 모델(LLM)을 사용하려고 합니다. 회사는 LLM이 예상치 못한 방식으로 응답하게 하는 프롬프트로 조작되는 것을 방지해야 합니다.
이러한 위험을 줄이는 조치는 무엇입니까?
AAdjust the model's hyperparameters
BImplement input and output validation
CProvide more data during model training
DPerform model fine-tuning
✅ 정답: B
📖 해설: 입력 및 출력 검증은 프롬프트 인젝션 공격을 방지하는 핵심 보안 조치입니다. 입력 검증은 악의적인 프롬프트가 모델에 전달되는 것을 차단하고, 출력 검증은 모델이 부적절한 응답을 반환하지 않도록 필터링합니다.
하이퍼파라미터 조정이나 미세 조정은 모델 성능 개선에 관련된 것이며, 보안 취약점을 직접 해결하지 않습니다.
Question #2DEA-C01
A data engineer is configuring an AWS Glue job to read data from an Amazon S3 bucket. The data engineer has set up the necessary AWS Glue connection details and an associated IAM role. However, when the data engineer attempts to run the AWS Glue job, the data engineer receives an error message...
AUpdate the AWS Glue security group...
BConfigure an S3 bucket policy...
구매 안내 ▼
오픈 기념 50% 할인
정가 39,900원
19,900원
한 번 결제로 90일간 무제한 이용
모든 문제 + 한글 해석 + 상세 해설 포함
아래 계좌로 입금해 주세요
국민은행 169001-04-121667
예금주: 김용만
1아래 양식에 이름과 이메일을 입력하고 구매 요청을 보냅니다.
2위 계좌로 19,900원을 입금합니다. (입금자명에 연락처 뒷자리 4자리를 포함해 주세요)