streamingConfigurations
파라미터를 'streamFinalResponse': True
으로 지정하셔야 합니다. 기본적으로 해당 파라미터의 값은 False
입니다.agentResponse = bedrock_agent_runtime_client.invoke_agent(
inputText="now let me take the last 3 months of the year off as vacation, from Oct 1 2024 through Dec 31 2024",
agentId=agent_id,
agentAliasId=agent_alias_id,
sessionId=session_id,
enableTrace=enable_trace,
endSession= end_session,
**streamingConfigurations={'streamFinalResponse': True**}
)
bedrock:InvokeModelWithResponseStream
API 사용을 추가하셔야합니다.{
"Version": "2012-10-17",
"Statement": [
{
"Sid": "VisualEditor0",
"Effect": "Allow",
"Action": [
"bedrock:InvokeModel",
**"bedrock:InvokeModelWithResponseStream"**
],
"Resource": "*"
}
]
}
위 설정에도 불구하고 Streaming 답변이 생성되지 않는다면, 아래 단계에 대해서는 스트리밍 답변을 제공하지 않습니다.(참고 링크)
Pre-processing
Post-processing
User Input
not enabledAmazon Bedrock Guardrails로 LLM 스트리밍 출력 보호하기 | Amazon Web Services
streamFinalResponse
을 활성화 하지 않았을 경우의 코드streamFinalResponse
을 활성화 했을 경우의 코드