ÄÜÅÙÃ÷»ó¼¼º¸±â

¾È³ç, Æ®·£½ºÆ÷¸Ó
¾È³ç, Æ®·£½ºÆ÷¸Ó
  • ÀúÀÚ<ÀÌÁø±â> Àú
  • ÃâÆǻ翡ÀÌÄÜÃâÆÇ»ç
  • ÃâÆÇÀÏ2022-09-28
  • µî·ÏÀÏ2023-11-24
ÇöȲ : º¸À¯ 1, ´ëÃâ 0, ¿¹¾à 0, ´©Àû´ëÃâ 0, ´©Àû¿¹¾à 0

Ã¥¼Ò°³

¡ß N-gramÀ» ÀÌ¿ëÇÑ ÀÚ¿¬¾î Ã³¸® ±â¹ý
¡ß ÀÚ¿¬¾î Ã³¸®¸¦ À§ÇÑ RNN ±â¹ÝÀÇ AI ¸ðµ¨ ±¸Á¶ ¹× Àå´ÜÁ¡
¡ß ¾îÅټǠ³×Æ®¿öÅ©ÀǠź»ý ¹è°æ°ú Çٽɠ¿ø¸®
¡ß ¾îÅټǠ³×Æ®¿öÅ©¸¦ È°¿ëÇÑ Æ®·£½ºÆ÷¸ÓÀÇ ±¸Á¶
¡ß BERTÀÇ ±¸Á¶ ¹× »çÀüÇнÀ/ÆÄÀÎÆ©´× ¹æ¹ý
¡ß BERT ÀÌÈÄÀÇ AI ¸ðµ¨µé
¡ß ÀÚ¿¬¾î Ã³¸®¿¡ ´ëÇÑ ¸ÞŸ·¯´× ¹æ¹ý

ÀúÀÚ¼Ò°³

¾È·¦ÀÇ º¸¾È °üÁ¦ ¿£Áö´Ï¾î·Î IT ¾÷°è¿¡ ¹ßÀ» µé¿´´Ù. ±×·¯´ø Áß 2015³â¿¡ µ¥ÀÌÅÍ ºÐ¼®À» °øºÎÇϱâ À§ÇØ ¿µ±¹ÀÇ ¿ö¸¯´ëÇб³(The University of Warwick)·Î ¼®»ç À¯ÇÐÀ» ¶°³µ´Ù. ¼®»ç Ãëµæ ÈÄ¿¡´Â ¾È·¦¿¡¼­ º¸¾È °üÁ¦¸¦ À§ÇÑ ¸Ó½Å·¯´×/AI ¼­ºñ½º¸¦ ¿¬±¸ÇÏ°í °³¹ßÇß´Ù. ÇöÀç´Â Æ÷½ºÄÚICTÀÇ AI±â¼ú±×·ì¿¡¼­ ÄÄÇ»ÅÍ ºñÀü ÇÁ·ÎÁ§Æ®¸¦ ¿¬±¸ÇÏ°í ÀÖ´Ù.

¸ñÂ÷

1Àå ´ÙÀ½ ´Ü¾î´Â¿ä? ¾ð¾î ¸ðµ¨ 
__1.1. ¾ð¾î ¸ðµ¨Àº È®·ü °ÔÀÓ
__1.2. N-gram ¾ð¾î ¸ðµ¨ 
____1.2.1. ÅؽºÆ® Àü󸮠
____1.2.2. Á¦·Î Ä«¿îÆ® ÇØ°áÇϱâ 
____1.2.3. N-gram ¸ðµ¨ ÇнÀÇϱâ 
____1.2.4. N-gram ¾ð¾î ¸ðµ¨ÀÇ ÇÑ°è 
__1.3. Word2Vec ±â¹ÝÀÇ ¾ð¾î ¸ðµ¨ 
__1.4. RNN ±â¹ÝÀÇ ¾ð¾î ¸ðµ¨ 
__1.4.1. RNNÀÇ ±¸Á¶ 
__1.4.2. GRU ¾ð¾î ¸ðµ¨ ±¸ÇöÇϱâ 
__1.4.3. GRU ¾ð¾î ¸ðµ¨·Î ¹®Àå »ý¼ºÇϱâ 


2Àå ÁýÁßÇØ º¸ÀÚ! ¾îÅټǠ
__2.1. ÇϳªÀÇ º¤ÅͷΠ¸ðµç Á¤º¸¸¦ ´ã´Â RNN 
__2.2. ¿Ö ¾îÅÙ¼Ç(Attention)ÇÏÁö ¾ÊÁö? 
__2.3. ¾î¶»°Ô ¾îÅÙ¼Ç(Attention)ÇÏÁö? 
____2.3.1. ¹¯°í Âü°íÇÏ°í ´äÇϱâ 
____2.3.2. ¾îÅټǠ°è»êÇØ º¸±â 
____2.3.3. ¾îÅټǠ±¸ÇöÇϱâ 
____2.3.4 ¸ðµ¨¸µ ÇнÀÇϱâ 


3À堾ȳç, Æ®·£½ºÆ÷¸Ó 
__3.1. Æ®·£½ºÆ÷¸ÓÀÇ ±¸Á¶ 
__3.2. Æ®·£½ºÆ÷¸Ó ±¸ÇöÇϱâ 
____3.2.1. ÀÎÄÚ´õ 
__3.3. Why Transformer 
__3.4. Æ®·£½ºÆ÷¸Ó ÇнÀ °á°ú 
____3.4.1. Perplexity(PPL) 
____3.4.2. BLEU ½ºÄÚ¾î 


4Àå Áß°£ºÎÅÍ ÇнÀÇÏÀÚ! »çÀüÇнÀ°ú ÆÄÀÎÆ©´× 
__4.1. »çÀüÇнÀ°ú Fine-Tuning 
__4.2. BERT 
____4.2.1. BERTÀÇ ¸ðµ¨ ±¸Á¶¿Í ÀÌÇØÇϱâ 
____4.2.2. BERT ¸ðµ¨ÀÇ ÀԷ ÀÌÇØÇϱâ 
____4.2.3. »çÀüÇнÀ ÀÌÇØÇϱâ 
____4.2.4. Masked Language Model(MLM) 
____4.2.5. Next Sentence Prediction(NSP) 
____4.2.6. »çÀüÇнÀÀ» À§ÇÑ µ¥ÀÌÅͼ Áغñ¿Í Self-supervised Learning 
____4.2.7. »çÀüÇнÀ ÆÄÇìÄ¡±â 
____4.2.8. »çÀüÇнÀ Á¤¸®Çϱâ 
____4.2.9. Fine-Tuning ÀÌÇØÇϱâ 
____4.2.10. ÅؽºÆ® ºÐ·ù ¸ðµ¨·Î ÆÄÀÎÆ©´×Çϱâ 
____4.2.11. ÁúÀÇÀÀ´ä ¸ðµ¨·Î ÆÄÀÎÆ©´×Çϱâ 
__4.3. GPT 
____4.3.1. GPTÀÇ »çÀüÇнÀ 
____4.3.2. Masked Self-Attention 
__4.4. RoBERTa 
____4.4.1. Á¤Àû ¶Ç´Â µ¿Àû ¸¶½ºÅ· Àü·« 
____4.4.2. NSP Àü·« 
____4.4.3. ¹èÄ¡ »çÀÌÁî¿Í µ¥ÀÌÅͼ ũ±â 
__4.5. ALBERT 
____4.5.1. Factorized Embedding Parameterization 
____4.5.2. Cross-layer Parameter Sharing 
____4.5.3. Sentence Order Prediction(SOP) 
____4.5.4. ALBERT Á¤¸® 
__4.6. ELECTRA 
____4.6.1. ÇнÀ ±¸Á¶ 
____4.6.2. RTD 
__4.7. DistilBERT 
____4.7.1. Áö½Ä Áõ·ù 
____4.7.2. DistilBERTÀÇ ±¸Á¶¿Í ¼º´É ºñ±³ 
__4.8. BigBird 
____4.8.1. Àüü ¹®Àå¿¡ ´ëÇÑ ¾îÅÙ¼Ç, ±Û·Î¹ú ¾îÅټǠ
____4.8.2. °¡±î¿î ´Ü¾î¿¡¸¸ ÁýÁßÇϱâ, ·ÎÄà¾îÅټǠ
____4.8.3. ÀÓÀÇÀÇ ÅäÅ«¿¡ ´ëÇÑ ¾îÅÙ¼Ç, ·£´ý ¾îÅټǠ
____4.8.4. ÅäÅ« ±æÀÌ¿¡ µû¸¥ ¿¬»ê·® ºñ±³ 
__4.9. ¸®Æ÷¸Ó 
____4.9.1. Æ®·£½ºÆ÷¸Ó ±¸Á¶ÀÇ ¹®Á¦Á¡ 
____4.9.2. LSH ¾îÅټǠ
____4.9.3. Reversible Æ®·£½ºÆ÷¸Ó 
__4.10. GLUE µ¥ÀÌÅͼ 
____4.10.1. CoLA 
____4.10.2. SST-2 µ¥ÀÌÅͼ 
____4.10.3. MRPC 
____4.10.4. QQP
____4.10.5. STS-B 
____4.10.6. MNLI 
____4.10.7. QNLI 
____4.10.8. RTE 
____4.10.9. WNLI 
____4.10.10. GLUE µ¥ÀÌÅͼÂÀÇ Æò°¡ ÁöÇ¥ 


5À堾°Ô ¹è¿ìÁö? ¸ÞŸ·¯´×
__5.1. ÇнÀÀ» À§ÇÑ ÇнÀ, ¸ÞŸ·¯´× 
__5.2. ¸ÞŸ·¯´×À» ÀÌ¿ëÇÑ Amazon ¸®ºä °¨Á¤ ºÐ·ù ÇнÀÇϱâ 
____5.2.1. µ¥ÀÌÅͼ°ú µ¥ÀÌÅͷδõ ¸¸µé±â 
__5.3. GPT2¿¡¼­ÀÇ ¸ÞŸ·¯´× 
____5.3.1. GPT2¸¦ ÇнÀÇϱâ À§ÇÑ Á¢±Ù ¹æ¹ý 
____5.3.2. GPT2ÀÇ ÇнÀ µ¥ÀÌÅͼ°ú ¸ÖƼŽºÅ© 
____5.3.3. GPT2 ¼º´É Æò°¡ °á°ú 
____5.3.4. GP2¸¦ ÅëÇÑ ¹®Àå »ý¼º 
____5.3.5. GPT2¸¦ ÀÌ¿ëÇÑ Ç»¼¦ ·¯´×


ºÎ·Ï. ¾çÀÚÈ­
__1.1. ¾çÀÚÈ­¿¡ ´ëÇÑ ¼öÇÐÀûÀΠÀÌÇØ¿Í Äڵ報¸Çö 
__1.2. ¾çÀÚÈ­µÈ Çà·ÄÀ» ÀÌ¿ëÇÑ Çà·Ä °ö¼À°ú µ¡¼À 
__1.3. µ¿Àû ¾çÀÚÈ­¿Í Á¤Àû ¾çÀÚÈ­ 
__1.4. BERT ¾çÀÚÈ­Çϱâ