이루다가 대화하는 원리도 BERT의 질의응답(QA)과 유사합니다.

이루다는 언어 생성 모델(NLG)이 아닙니다. 1억여 개의 답변 데이터베이스를 미리 구축한 뒤 직전까지 진행한 대화를 바탕으로 가장 적절한 답변을 골라내는 언어 이해 모델(NLU)입니다. 여기서 대화를 벡터로 변환하는 역할을 BERT가 하게 됩니다. 여기서 정답을 고르는 원리는 코사인 유사도입니다.

 

버트로 적절히 대화를 이해하여 벡터로 표현한 뒤 해당 벡터와 가장 코사인 유사도가 높은 문장을 정답으로 선택합니다.

이루다와 풍성한 대화가 가능했던 이유는 바로 1억 개가 넘는 답변 데이터베이스가 있었기 때문이었죠.

 

+ Recent posts