이루다가 대화하는 원리도 BERT의 질의응답(QA)과 유사합니다.
이루다는 언어 생성 모델(NLG)이 아닙니다. 1억여 개의 답변 데이터베이스를 미리 구축한 뒤 직전까지 진행한 대화를 바탕으로 가장 적절한 답변을 골라내는 언어 이해 모델(NLU)입니다. 여기서 대화를 벡터로 변환하는 역할을 BERT가 하게 됩니다. 여기서 정답을 고르는 원리는 코사인 유사도입니다.
버트로 적절히 대화를 이해하여 벡터로 표현한 뒤 해당 벡터와 가장 코사인 유사도가 높은 문장을 정답으로 선택합니다.
이루다와 풍성한 대화가 가능했던 이유는 바로 1억 개가 넘는 답변 데이터베이스가 있었기 때문이었죠.
'책 리뷰 > 비전공자를 위한 ai 지식' 카테고리의 다른 글
[추천시스템 9-2] 연관성 분석 - 장바구니 분석(맥주,기저귀는 함께 팔린다) (0) | 2022.06.20 |
---|---|
[추천시스템 9-1] 다양한 기업들의 추천시스템 (0) | 2022.06.20 |
[챗봇 7-4] 질의 응답(QA)에 특화된 모델 - BERT (0) | 2022.06.19 |
[챗봇 7-3] 인간을 능가하는 언어 모델의 등장 - GPT1,2,3 (0) | 2022.06.19 |
[챗봇 7-1] 이루다는 왜 2주만에 서비스를 멈췄을까? (0) | 2022.06.19 |