1. BERT
BERT´Â Bidirectional Encoder Representations from TransformersÀÇ ¾àÀÚ·Î, ±¸±ÛÀÌ 2xxx³â¿¡ ¹ßÇ¥ÇÑ Çõ½ÅÀûÀÎ ÀÚ¿¬¾î ó¸® ¸ðµ¨ÀÌ´Ù. BERTÀÇ ÁÖ¿ä Ư¡Àº ÅؽºÆ®ÀÇ ¾ç ¹æÇâÀ» µ¿½Ã¿¡ °í·ÁÇÏ¿© ¹®¸ÆÀ» ÀÌÇØÇϵµ·Ï ¼³°èµÈ °ÍÀ̸ç, ÀÌ´Â ÀüÅëÀûÀÎ ÀÚ¿¬¾î ó¸® ¸ðµ¨µéÀÌ ÁÖ·Î ´Ü¹æÇâÀ¸·Î ¹®¸ÆÀ» ÀÌÇØÇß´ø °Í°ú Å« Â÷º°Á¡ÀÌ´Ù. ÀÌ ¸ðµ¨Àº Transformer ¾ÆÅ°ÅØó¸¦ ±â¹ÝÀ¸·Î Çϸç, ¾ç¹æÇ⼺ ´öºÐ¿¡ °¢ ´Ü¾îÀÇ Àǹ̸¦ »ó¸Æ¶ô¿¡¼ º¸´Ù Àß ÆľÇÇÒ ¼ö ÀÖ´Ù. BERT´Â µÎ °¡ÁöÀÇ ÁÖ¿ä ÇнÀ ÀÛ¾÷À» ÅëÇØ »çÀü ÈƷõȴÙ. ù ¹ø°´Â ¸¶½ºÅ· ¾ð¾î ¸ðµ¨(Masked Language Model)ÀÌ´Ù. ÀÌ ÀÛ¾÷¿¡¼´Â ÀÔ·Â ¹®Àå ³»¿¡¼ ¹«ÀÛÀ§·Î ¼±ÅÃµÈ ´Ü¾îµéÀÌ ¸¶½ºÅ·µÇ°í, ¸ðµ¨Àº ÀÌ ¸¶½ºÅ·µÈ ´Ü¾î¸¦ ¿¹ÃøÇÏ´Â ¹æ½ÄÀ¸·Î ÇнÀÇÑ´Ù. ¿¹¸¦ µé¾î, `³ª´Â [MASK]¸¦ ÁÁ¾ÆÇÑ´Ù`¶ó´Â ¹®Àå¿¡¼ `»ç°ú`¶ó´Â ´Ü¾î¸¦ ¿¹ÃøÇϵµ·Ï ¸ðµ¨ÀÌ ÈƷõǴ °ÍÀÌ´Ù. ÀÌ °úÁ¤Àº ¸ðµ¨ÀÌ ¹®¸ÆÀ» ÀÌÇØÇÏ°í ´Ü¾î °£ÀÇ °ü°è¸¦ ÇнÀÇÏ´Â µ¥ Áß¿äÇÑ ¿ªÇÒÀ» ÇÑ´Ù. µÎ ¹ø° ÀÛ¾÷Àº next sentence prediction(NSP)ÀÌ´Ù. ÀÌ ÀÛ¾÷¿¡¼´Â µÎ °³ÀÇ ¹®ÀåÀÌ ÁÖ¾îÁö°í, ù ¹ø° ¹®Àå µÚ¿¡ µÎ ¹ø° ¹®ÀåÀÌ ÀÚ¿¬½º·´°Ô À̾îÁö´ÂÁö¸¦ ¿¹ÃøÇϵµ·Ï ¡¦(»ý·«)
|