BERT는 트랜스포머의 인코더 부분을 활용함. 인코더는 문장을 이해하는 부분 - 따라서 BERT는 문장 이해에 특화된 모델임.
● bert의 학습 방법 : 문장 내 15%의 단어를 무작위로 가리고 그 단어를 맞추도록 학습함.
(앞서 2013년 나온 워드투벡은 문장의 가운데 빈칸을 순차적으로 뚫어가면서 맞춤)
● BERT의 학습 원리 : 전이 학습(transfer learning)
예시 : "백두산의 높이는 얼마야?" 지리책을 많이 읽는 친구는 쉽게 대답할 것.
한라산이 1,950m라는 것을 알고 있었다면, 그리고 백두산이 한반도에서 가장 높은 산이라는 것을 알았다면,
백두산이 일단은 2,000m가 넘는다고 유추할 수 있을 것입니다.
이처럼 사전 지식을 활용하여 학습하는 것을 전이 학습(transfer learning)이라고 말합니다.
사전 지식을 그대로 활용하면서 문제해결을 위한 약간의 추가 학습을 하면 됩니다. 이것을 fine-tunning한다고 말하기도 합니다.
bert는 사전 학습한 문장 중 15번째 글자부터 20번째 글자(2,750m)를 99%의 확률로 정답으로 예측합니다.
즉, 본문(context)에서 정답의 위치를 확률적으로 계산합니다.
'책 리뷰 > 비전공자를 위한 ai 지식' 카테고리의 다른 글
[추천시스템 9-2] 연관성 분석 - 장바구니 분석(맥주,기저귀는 함께 팔린다) (0) | 2022.06.20 |
---|---|
[추천시스템 9-1] 다양한 기업들의 추천시스템 (0) | 2022.06.20 |
[챗봇 7-5] 이루다의 대화 원리 - BERT, QA, 코사인 유사도 (0) | 2022.06.19 |
[챗봇 7-3] 인간을 능가하는 언어 모델의 등장 - GPT1,2,3 (0) | 2022.06.19 |
[챗봇 7-1] 이루다는 왜 2주만에 서비스를 멈췄을까? (0) | 2022.06.19 |