BERT를 활용한 진로상담 텍스트데이터 분석

권순보 2022년
논문상세정보
' BERT를 활용한 진로상담 텍스트데이터 분석' 의 주제별 논문영향력
논문영향력 선정 방법
논문영향력 요약
주제
  • 학교 조직과 운영,특별한 교육
  • BERT
  • FastText
  • lda
  • 딥 러닝
  • 진로상담
  • 텍스트 데이터
  • 토픽 모델링
동일주제 총논문수 논문피인용 총횟수 주제별 논문영향력의 평균
3,391 0

0.0%

' BERT를 활용한 진로상담 텍스트데이터 분석' 의 참고문헌

  • 한국어에 적합한 단어 임베딩 모델 및 파라미터 튜닝에 관한 연구
    설진석 이상구 최상혁 한국어정보학회 학술대회, 252-256. https://www. dbpia.co.kr/Journal/articleDetail?nodeId=NODE09474882 [2016]
  • 한국어 임베딩
    이기창 에이콘출판 [2019]
  • 한국어 단어 임베딩을 위한 Word2vec 모델의 최적화
    강형석 양장훈 한국 디지털콘텐츠학회 논문지, 20(4), 825-833 [2019]
  • 한국어 기술문서 분석을 위한 BERT 기반의 분류모델. 한국전자거래학회지, 25(1), 203-214. https://doi.org/10
    김도현 황상흠 7838/jsebs.2020. 25.1.203 [2020]
  • 한국상담심리학회 현황 및 발전방안에 대 한 학회원들의 인식 Ⅱ: 포커스그룹 인터뷰 및 SWOT 분석 결과
    서영석 안수정 안하얀 이소연 한국 심리학회지 상담 및 심리치료, 31(4), 1407-1439 [2019]
  • 파이토치로 배우는 자연어 처리 (박해선, 역). 한빛미디어
    McMahan, B. Rao, D. (원서출판 2019) [2021]
  • 텍스트 마이닝을 이용한 청소년 진로상담 호소문제 분석 : 커 리어넷 온라인 진로상담 사례를 대상으로. 박사학위논문, 숙명여자대학교
    방혜진 서울 [2020]
  • 코로나19 시대 학교교육의 변화 및 교육격차 실태
    김경근 통계개발원 [2021]
  • 컴퓨터 생성 홀로그래피의 GPU 기반 가속화 이슈 및 전망
    신승협 방송 과 미디어, 24(2), 32-38. https://www.koreascience.or.kr/article/JAKO20 1915061087173.page [2019]
  • 커리어넷 온라인 진로상담 경향 및 특 성 분석(Working Paper 2019-02.)
    박봉남 방혜진 이지연 이진솔 한국직업능력개발원 [2019]
  • 커리어넷 사이버 진로상담 내담자의 상담 만족 및 반응 분석(Working Paper 2010-1)
    방혜진 이지연 정숙영 한국직업능력개발원 [2010]
  • 채팅 진로상담 이용 청년의 상담내용 의미 구조 분석
    이서정 정진철 취 업진로연구, 10(2), 71-90 [2020]
  • 진로정보센터운영(2007): 지역 사이버상담의 체 계적 운영 및 전문성 지원(수탁사업 07-11-07)
    방혜진 이지연 정숙영 서울: 한국직업능력개발 원 [2007]
  • 정보 텍스트의 추론적 읽기 특성 연구 : 잠재 의미 분석(LSA) 을 활용하여. 박사학위논문, 한국교원대학교
    이경남 청주 [2018]
  • 인터넷을 통한 온라인 학업상담 활성화 연구: 현 황 및 발전 방향
    김동일 배성직 전재영 서울대학교 사대논총, 61, 37-61. https://hdl.handle.net/ 10371/72615 [2000]
  • 온라인 진로상담의 빅데이터 분석(기본 연구 2020-04)
    김봄이 김영빈 반가운 정윤경 한국직업능력개발원 [2020]
  • 알렉스 샤이코니, 서상현, 권영식 딥러닝 기반의 다범주 감성분석 모델 개발. 한국IT서비스학회지, 16(4), 149-160. https://doi.org/10
    9716/KITS. 2017.16.4.149 [2017]
  • 심층학습 기반 표정인식을 통한 학습 평가 보조 방법 연 구
    이덕우 이호정 공학교육연구, 23(2), 24-30 [2020]
  • 소셜미디어와 학술DB에 나타난 놀이의 교육적 의미 탐색: 의미연결망분석 및 감성분석을 중심으로
    김은아 유구종 유지성 열린유아교육연구, 25(6), 173-200 [2020]
  • 상담 사례를 통한 하이브리드 진로지도 모델 개발
    백진욱 창의정보문화 연구, 6(3), 141-148 [2020]
  • 사전학습 언어모델의 기술 분석 연구
    김희동 지인영 인문언어, 22(1), 1 11-133 [2020]
  • 사전 학습된 한국어 BERT의 전이학습을 통한 한 국어 기계독해 성능개선에 관한 연구
    이동희 이연지 이치훈 한국IT서비스학회지, 19(5), 83-9 1 [2020]
  • 사이버상담 성과에 대한 개념도 연구
    김경화 박성륜 서선아 양미진 유준호 유혜란 청소년상담연구, 23(1), 121-138 [2015]
  • 빅데이터를 활용한 자유학기제 정책의 키워드 및 토픽 분석. 박사학위논문, 서울대학교
    신안나 서울 [2019]
  • 빅데이터를 활용한 대학구조개혁 평가의 키워드 및 토픽 분석. 박사학위논문, 서울대학교
    김지은 서울 [2017]
  • 빅데이터 분석 기법을 활용한 2015 개정 교육과정 정책에 대 한 언론보도 분석. 박사학위논문, 서울대학교
    유예림 서울 [2017]
  • 블록체인 기술의 보건 복지 분야 활용 동 향 파악을 위한 TF와 TF-IDF 비교 분석. 한국데이터정보과학회지, 30 (5), 1025-1036. http://dx.doi.org/10
    오미애 이상인 최은아 한예은 7465/jkdi.2019.30.5.1025 [2019]
  • 밑바닥부터 시작하는 딥러닝2 (이복연, 역). 한빛미디어
    Saito, G. (원 서출판 2016) [2019]
  • 모든 학생들을 위한 교육 안전망 강화 방안
    교육부 보도자료(2020.8.11.) [2020]
  • 딥러닝을 활용한 감정 분석 과정에서 필요한 데이터 전처 리 및 형태 변형
    서혜진 신정아 영어학, 20, 42-63 [2020]
  • 딥러닝을 이용한 자연어 처리 입문
    유원준 위키독스 [2021]
  • 딥러닝 기반 감성분석 연구동향
    김준태 서상현 한국멀티미디어학회지, 20(3), 8-22. https://www.koreascience.or.kr/article/JAKO201608366218017. pdf [2016]
  • 딥러닝 개념과 활용
    김의중 미리어드 스페이스 [2021]
  • 대용량 텍스트 자원을 활용한 한국어 형태소 임베딩의 모 델별 성능 비교 분석
    이다빈 최성필 정보과학회논문지, 46(5) [2019]
  • 다양한 임베딩 모델들의 하이퍼 파라미터 변화에 따른 성능 분석
    강상우 김선아 박재성 이상아 이정엄 한국정보과학회 학술대회논문집, 510 -513. https://www.koreascience.or.kr/article/CFKO201832073078904.page [2018]
  • 뉴럴 모델을 이용한 자연어 처리
    이상근 메이킹북스 [2020]
  • 기계학습: 대용량/패널자료와 학습분석학 자료 분석으로의 활용
    유진은 교육공학연구, 35(2), 313-338 [2019]
  • 고등학생이 경험하는 진로장벽 연구: 사 이버 상담 게시판 사례를 중심으로
    김경민 양미진 채민정 허자영 아시아교육연구, 11(4), 45-73 [2010]
  • Zhang, X., Zhao, J., & LeCun, Y. (2015). Character-level Convolutional Networks for Text Classification. Advances in Neural Information Processing Systems, 28, 649-657.
    [2015]
  • Wu, Y., Schuster, M., Chen, Z., Le, Q. V., Norouzi, M., Macherey, W., ... & Dean, J. (2016). Google's neural machine translation system: Bridging the gap between human and machine translation. arXiv preprint arXiv:1609.08144.
    [2016]
  • Vocational Adjustment : Implementing a Self-Concept .
    Super , D. E. https : //doi.org/10.1002/j.2164-5892.1951.tb02607.x [1951]
  • Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., & Polosukhin, I. (2017). Attention Is All You Need. In Advances in neural information processing systems, pp. 5998-6008. Corr, abs/1706.03762
    [2017]
  • Subword 유닛을 이용한 영어-한 국어 신경망 기계번역
    고영중 김보성 서정연 이재환 허광호 한국정보과학회 학술발표논문집, 586-588 [2018]
  • Subword Regularization : Improving Neural Network Translation Models with Multiple Subword Candidates .
    Kudo , T. 1 ( 66-75 ) . doi:10.18653/v1/P18-1007 [2018]
  • Sparck, J. K. (1972). A statistical interpretation of term specificity and its application in retrieval. J ournal of Documentation, 28(1), 11-21. https://doi.org/10.1108/eb026526
    [1972]
  • Song, H., Kim, M., Park, D., Shin, Y., & Lee, J. G. (2020). Learning from Noisy Labels with Deep Neural Networks: A survey. arXiv preprint arXiv:2007.08199.
    [2020]
  • Sennrich, R., Haddow, B., & Birch, A. (2015). Neural Machine Translation of Rare Words with Subword Units. doi:10.18653/v1/p16-1162
    [2015]
  • Roh, J. H., Woo, S. B., & Hwang, W. J. (2021). Probability distribution predicted performance improvement in noisy label. In Proceedings of the Korean Institute of Information and Commucation Sciences Conference (pp. 607-610). The Korea Institute of Information and Commucation Engineering.
  • RoBERTa를 이용한 한국 어 기계독해
    김태형 나승훈 이영훈 이혜우 장두성 최윤수 정보과학회 컴퓨팅의 실제 논문지, 27(4), 198-203 [2021]
  • Pytorch 홈페이지 https://pytorch
    org(검색일 : [2021]
  • Python 홈페이지 https://www
    python.org(검색일: [2021]
  • Probabilistic topic models
    Blei , D. M. 55 ( 4 ) , 77-84. doi:10.1145/2133806.2133826 [2012]
  • Pordelan, N., Sadeghi, A., Abedi, M. R., & Kaedi, M. (2018). How online career counseling changes career development: A life design paradigm. Education and Information Technologies, 23(6), 2655-2672. doi:10.1007/s10639-018-9735-1
    [2018]
  • Pordelan, N., & Hosseinian, S. (2021). Online career counseling success: the role of hardiness and psychological capital. International journal for educational and vocational guidance, 21, 531-549. https://doi.org/10.100 7/s10775-020-09452-1
  • Park, S., Moon, J., Kim, S., Cho, W. I., Han, J., Park, J., ... & Cho, K. C. A. O. J. H. K. (2021). KLUE: Korean Language Understanding Evaluation. arXiv preprint arXiv:2105.09680.
  • Package ‘ wordcloud ’ . R Package version 2.6. http : //blog.fellstat.com/ ? cat=11
    Fellows , I [2018]
  • Mikolov, T., Chen, K., Corrado, G., & Dean, J. (2013). Efficient Estimation of Word Representations in Vector Space. Corr, abs/1301.3781.
    [2013]
  • Maree, J. G. (2021). Innovating and contextualising career counselling for young people during the Covid-19 pandemic. South African J ournal of Psychology, 51(2), 244-255. doi: 10.1177/0081246321999507
  • Kudo, T., & Richardson, J. (2018). SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing. doi:10.18653/v1/d18-2012
    [2018]
  • KorQuAD 2.0: 웹문서 기계독해 를 위한 한국어 질의응답 데이터셋
    김명지 김영민 박소윤 이현정 임승영 정보과학회논문지, 47(6), 577-586 [2020]
  • Kingma, D. P., & Ba, J. (2014). Adam: A Method for Stochastic Optimization. Corr, abs/1412.6980.
    [2014]
  • Kalyan, K. S., & Sangeetha, S. (2021). BertMCN: Mapping Colloquial Phrases to Standard Medical Concepts Using BERT and Highway Network. Artificial Intelligence in Medicine, 112, 102008. doi:10.1016/j.artmed.202 1.102008
  • Joulin, A., Grave, E., Bojanowski, P., & Mikolov, T. (2016). Bag of Tricks for Efficient Text Classification. doi:10.18653/v1/e17-2068
    [2016]
  • Jiao, X., Yin, Y., Shang, L., Jiang, X., Chen, X., Li, L., ... & Liu, Q. (2019). TinyBERT: Distilling BERT for Natural Language Understanding. arXiv preprint arXiv:1909.10351.
    [2019]
  • Improving BERT-based Sentiment Analysis Model using Graph-based Ranking Mechanism
    Park, J. Sohn, K. 정보과학회 컴퓨팅의 실제 논문지, 27(2), 90-97 [2021]
  • Hendrycks, D., & Gimpel, K. (2016). Gaussian Error Linear Units(GELUs). CoRR, abs/1606.08415
    [2016]
  • Grün, B., Hornik, K., & Grün, M. B. (2021). Package ‘topicmodels’. R Package version 0.2-12. https://cran.r-project.org/web/packages/topicmodels
  • Garg, S., & Ramakrishnan, G. (2020). BAE: BERT-based Adversarial Examples for Text Classification. arXiv preprint arXiv:2004.01970.
    [2020]
  • Forbes Cleaning Big Data: Most Time-Consuming, Least Enjoy able Data Science Task
    Survey Says. https://www.forbes.com/sites/ gilpress/2016/03/23/data-preparation-most-time-consuming-least-enjoy able-data-science-task-survey-says/?sh=5d5faa0c6f63(검색일: 2021. 5. 9.) [2016]
  • Feinerer, I., & Hornik, K. (2020). tm: Text Mining Package . R package version 0.7-8. http://tm.r-forge.r-project.org
    [2020]
  • FastText를 적용한 한국어 단어 임베딩
    이상구 조현수 한국정보과학회 학술발표논문집, 705-707. http://www.dbpia.co.kr/journal/articleDetail? nodeId=NODE07322271 [2017]
  • Face-to-Face and Online Counseling : Client Problems and Satisfaction
    Zeren , ? . G. Education & Science/ Egitim ve Bilim , 40 ( 182 ) . doi:10.15390/EB.2015.4696 [2015]
  • Devlin, J., Chang, M., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. CoRR, abs/1810.04805
    [2018]
  • Cui, C., & Fearn, T. (2018). Modern practical convolutional neural networks for multivariate regression: Applications to NIR calibration. Chemometric s and Intelligent Laboratory Systems, 182(9-20). https://doi.org/10.101 6/j.chemolab.2018.07.008
    [2018]
  • Chemudugunta, C., Smyth, P., & Steyvers, M. (2006). Modeling General and Specific Aspects of Documents with a Probabilistic Topic Model. Advances in neural information processing systems, 19, 241-248. doi:https://doi.org/10.7551/mitpress/7503.003.0035
    [2006]
  • Career Counseling : A Holistic Approach
  • Bojanowski, P., Grave, E., Joulin, A., & Mikolov, T. (2017). Enriching Word Vectors with Subword Information. Transactions of the Association for Computational Linguistics, 5, 135-146. doi:10.1162/tacl_a_00051
    [2017]
  • Blei, D. M., Ng, A. Y., & Jordan, M. I. (2003). Latent Dirichlet Allocation. J ournal of Machine Learning Research, 3, 993-1022. doi:10.1162/jmlr.20 03.3.4-5.993
    [2003]
  • BERT를 활용한 초등학교 고학년의 욕설문장 자동 분류방안 연 구
    심재권 창의정보문화연구, 7(2), 91-98 [2021]
  • BERT를 활용한 뉴스 감성분석과 거시경제지표 조합을 이용한 주가지수 예측
    이홍철 장은아 최회련 韓國컴퓨터情報學會論文誌, 25(5), 47-5 6 [2020]
  • BERT를 이용한 한국어 특허상담 기계독 해. 정보처리학회논문지
    민재옥 박진우 이봉건 조유정 소프트웨어 및 데이터 공학, 9(4), 145-152 [2020]
  • BERT를 이용한 한국어 자동 띄어쓰기
    정상근 황태욱 한국정보과학회 학술발표논문집, 374-376. https://www.dbpia.co.kr/journal/articleDetail? nodeId=NODE09301592 [2019]
  • BERT 파생 모델의 한국어에 대한 성능 비교
    박은환 이로제 이재구 한 국통신학회 학술대회논문집, 901-902. https://www.dbpia.co.kr/Journal/ articleDetail?nodeId=NODE09346603 [2020]
  • BERT 임베딩과 선택적 OOV 복사 방법을 사용한 문서 요약
    강승식 이태석 정보과학회논문지, 47(1), 36-44 [2020]
  • BERT 언어 모델을 이용한 감정 분석 시스템
    강승식 김택현 원혜진 이현영 조단비 한국정보처리학회 학술대회논문집, 27(2), 975-977. http:// manuscriptlink-society-file.s3.amazonaws.com/kips/conference/2020fall/ presentation/KIPS_C2020B0249.pdf [2020]
  • BERT 모델을 이용한 비교과 프로그램 문의 챗봇 시스템 설계
    김도연 박지영 유석종 한국정보과학회 학술발표논문집, 2020(7), 1596-1598. https: //www.dbpia.co.kr/Journal/articleDetail?nodeId=NODE09874858 [2020]
  • BERT 모델과 지식 그래프를 활용한 지능형 챗봇. 한국 전자거래학회지, 24(3), 87-98. https://doi.org/10
    유소엽 정옥란 7838/jsebs.2019.24.3.087 [2019]
  • BERT 기반 Variational Inference와 RNN을 이용한 한국 어 영화평 감성 분석
    박천음 이창기 정보과학회 컴퓨팅의 실제 논문지, 25(11), 552-55 8 [2019]
  • Alammar, J. (2018). The Illustrated Transformer. GitHub Blog, Online: http://jalammar. github. io/illustrated-transformer.
    [2018]
  • AI 시대의 빅데이터 분석과 기계학습
    유진은 학지사 [2021]
  • 2020 초 중등 진로교육 현황조사 결과 발표
    교육부 보도자료(2021.2.24.) [2021]
  • (인문사회과학을 위한) 빅데이터 분석방법론
    이석민 윤성사 [2019]
  • (만들면서 배우는) 파이토치 딥러닝 : 12가지 모델로 알아 보는 딥러닝 응용법 (박광수, 역). 한빛미디어
    Ogawa, Y. (원서출판 2019) [2021]
  • (김기현의) 자연어 처리 딥러닝 캠프
    김기현 한빛미디어 [2019]
  • (그림으로 쉽게 이해하는) 딥러닝의 최신 트렌드
    추형석 위즈플래닛 [2020]
  • (Do it!) BERT와 GPT로 배우는 자연어 처리
    이기창 이지스퍼블리싱 [2021]