devmoa

Beauty Domain-Specific Pre-trained Language Model 개발하기

화해·2021년 6월 29일·00
PLMBERT자연어 처리뷰티 도메인전이 학습언어 모델

AI 요약

Beta

화해팀은 뷰티 도메인 특화 사전 학습 언어 모델(PLM)인 Hwahae PLM을 개발했습니다. 이는 600만 건의 클린 리뷰와 일일 26만 건의 검색 데이터를 활용하여 고객에게 더 나은 서비스를 제공하기 위한 고민에서 시작되었습니다.

PLM은 대규모 텍스트 데이터로 사전 훈련되어 언어 이해 능력을 갖춘 모델로, 텍스트 분류, 생성, 번역 등 다양한 다운스트림 태스크에서 높은 성능을 보입니다. 특히 BERT 이후 PLM을 활용한 전이 학습이 자연어처리 분야의 대세가 되었으며, 화해는 이를 통해 뷰티 도메인 텍스트 데이터를 효과적으로 처리하고 서비스에 접목하는 것을 목표로 합니다.

이 글이 궁금하신가요?

원문 블로그에서 전체 내용을 확인해 보세요

원문 읽으러 가기

AI 추천 연관 게시글

이 글과 관련된 다른 기술 블로그 글을 AI가 추천합니다