딥러닝 자연어처리 기법을 활용한 논증적 글쓰기 자동 채점 방안 연구 : 교사 채점자와 기계 채점자의 협업적 채점 수행 모델을 기반으로

김승주 2022년
논문상세정보
' 딥러닝 자연어처리 기법을 활용한 논증적 글쓰기 자동 채점 방안 연구 : 교사 채점자와 기계 채점자의 협업적 채점 수행 모델을 기반으로' 의 주제별 논문영향력
논문영향력 선정 방법
논문영향력 요약
주제
  • 동아시아와 동남아시아 언어
  • 논증적 글쓰기
  • 딥러닝 자연어처리 기법
  • 인지공학적 설계
  • 자동채점
  • 채점자 인지 과정
  • 채점자 인지 부하
  • 협업 모델
동일주제 총논문수 논문피인용 총횟수 주제별 논문영향력의 평균
149 0

0.0%

' 딥러닝 자연어처리 기법을 활용한 논증적 글쓰기 자동 채점 방안 연구 : 교사 채점자와 기계 채점자의 협업적 채점 수행 모델을 기반으로' 의 참고문헌

  • 핵심역량 평가를 위한 컴퓨터 기반 평가 시스템(KICE-eAssessment) 개발 연구 (Ⅱ)(RRE 2020-8)
  • 핵심역량 평가를 위한 컴 퓨터 기반 평가 시스템(KICE-eAssessment) 개발 연구(I)(RRE 2019-4)
  • 한국어 서답형 문항 자동 채점 프로그램 개발 및 실용성 검증(RRE 2014-6)
    노은희 박소영 성경희 이상하 임은영 한국교육과정평가원 [2014]
  • 한국어 문장 수준 서답형 문항 자동 채점 프로 그램 개발 및 적용(RRE 2015-9)
    노은희 박소영 성경희 송미영 한국교육과정평가원 [2015]
  • 한국어 문장 수준 서답형 문항 자동 채 점 프로그램 고도화 개발 및 적용(RRE 2016- )
    김유향 노은희 박종임 송미영 이도길 한국교육과정평가원 [2016]
  • 한국교육과정평가원 과정을 중시하는 수행평가 어떻게 할까요?-중등 (ORM 2017-19-2)
    교육부 한국교육과정평가원 [2017]
  • 한국경제칼럼
    https://www.hankyung.com/it/article/i (retrived 21. 09. 23) [2021]
  • 학생의 꿈과 끼를 키워 행복교육을 실현하는 중학교 자유학기제 시 행 계획(2015
    교육부 [2015]
  • 텐서플로로 배우는 딥러닝
    박혜정 석경하 심주용 황창하 한빛아카데미 [2019]
  • 텍스트 마이닝을 활용한 논증적 글쓰기 자동 채점 자질 추출 및 타 당화 연구
    김승주 한국교원대학교 석사학위논문 [2019]
  • 초․중등학교 교육과정: 총론
    교육부 교육부 고시 제2015-74호 [별책 1] [2015]
  • 초 중학생들의 문단 쓰기 실태와 문단 쓰기 교육에 대한 교사 인식
    가은아 국어교육학연구 51(3), p p. 253-289 [2016]
  • 채점 자질 설계를 통한 지도 학습 기반 작문 자동 채점의 타당도 확보 방안 탐색
    김승주 청람어문교육, 69, 265-295 [2019]
  • 중학생 논설문 평가의 모평균 추정과 평가 예시문 선정
    박영민 최숙기 ᅠ국 어교육,ᅠ131, 437-461 [2010]
  • 중등학생의 자료 통합적 글쓰기에 나타난 자료 글 차용하기 수행 양상 연구 - 인용과 환언을 중심으로-
    최숙기 작문연구, 38, 201-245 [2018]
  • 중등 작문 교수 학습 실태 조사 연구
    김주환 한국리터러시학회 전국학술 대회 자료집, 65-77 [2019]
  • 작문의 인지적 과정에 영향을 미치는 요인
    박영목 작문연구 16, pp.231-257 [2012]
  • 작문 채점에서의 인지적 과정 모형에 대한 이론적 고찰
    박종임 청람어문교 육, 52, 57-85 [2014]
  • 일반계 고등학생의 논술 수행에 나타난 자료 읽기 및 통합 양상 연 구
    김태호 청람어문교육, 60, 119-153 [2016]
  • 인지진단모형을 활용한 중등학생의 논증적 글쓰기 프 로파일 특성 분석
    김승주 박종임 최숙기 청람어문교육, 80, 171-208 [2021]
  • 인지진단모형을 활용한 논증적 글쓰기 평가를 위한 Q 행렬 타당화 연구
    김승주 박종임 최숙기 작문연구, 45, 181-222 [2020]
  • 인공지능 기초 원리, 이제 거점형 일반고에서 배운다
    교육부 교육부 보 도자료 [2020]
  • 인공지능 기반 자동평가의 현재와 미래: 서술형 문항에 관한 문헌 고찰과 그 너머
    이경건 하민수 교육공학연구 36(2). 353-382 [2020]
  • 요인 분석을 통한 쓰기 평가의 준거 설정에 대한 연구. 박사학위 논 문
    서수현 고려대학교 [2008]
  • 쓰기 평가에 대한 중 고등학생의 인식 및 실태조사 연구
    장은섭 리터러시연 구, 9(3), 201-234 [2018]
  • 쓰기 평가 연구의 주요 과제
    박영목 작문연구, 6, 9-37 [2008]
  • 순환신경망을 적용한 초등학교 5학년 과학 서술형 평가 자동 채점시스템 개발 및 활용 방안 모색
    박세진 하민수 교육평가연구, 33(2), 297-321 [2020]
  • 순환신경망 장단기 기억(LSTM)을 이용한 자동 채점의 가능성 탐색
    박강윤 신동광 이용상 교육과정평가연구, 24(4), 223-238 [2021]
  • 수업-평가 연계 강화를 통한 서‧ 논술형 평가 내실화 방안 (RRE 2019-6)
    김경희 김광규 김성숙 김지영 박혜영 이명진 충북: 한국교육과정평가원 [2019]
  • 서울특별시교육청, AI 기반 융합 혁신미래교육 중장기 발전 계획(‘21~’25)
    서울특별시교육청 교육혁신과 보도자료 [2021]
  • 서 논술형 수능 평가문항 예시 및 고교 교육과정 운영 모델 개발 연구
    김인숙 박종임 최숙기 한국대학교육협의회 [2021]
  • 서 논술형 수능 도입을 대비한 2022 개정 국어과 교육과정의 개정 방향 탐색
    최숙기 청람어문교육, 83, 129-156 [2021]
  • 미래 핵심역량과 중등 작문교육
    박영민 작문연구, 20, 109-133 [2014]
  • 미국 SAT 작문 평가 문항 분석을 통한 대학수학능력시험 국어 영 역의 작문 평가 개선 방안 탐색
    최숙기 작문연구 36, 107-144 [2018]
  • 문항모수 추정치에 기반한 문항 및 검사 신뢰도의 추정
    강태훈 아시아교육 연구, 12, 119-140 [2011]
  • 레이블이 없는 문서를 이용한 SVM기반의 점증적 지도 학습
    김수영 연세대 학교 대학원 석사학위논문 [2001]
  • 대학수학능력시험의 성과와 발전 방향 : 서・논술형 수능 도입 가능성 모색. KICE Position Paper, 제12권 제5 호(통권 제76호)
    문영주 박도영 박인용 신진아 임은영 한국교육과정평가원 [2020]
  • 대학글쓰기 평가의 신뢰도와 타당도 향상을 위한 한 방안
    정희모 작문연구, ᅠ9, 277-305 [2009]
  • 대규모 평가를 위한 서답형 문항 자동 채점 프 로그램 정교화 및 시범 적용(RRE 2013-5)
    김명화 김학수 노은희 성경희 한국교육과정평가원 [2013]
  • 대규모 평가를 위한 서답형 문항 자동 채점 방 안 연구(RRE 2012-6)
    김명화 김재훈 노은희 심재호 한국교육과정평가원 [2012]
  • 다중 텍스트 읽기 교육 연구. 박사학위 논문
    강미정 한국교원대학교 대학원 [2017]
  • 논증적 글쓰기 자동 평가 프로그램 개발을 위한 논증 주석 코 퍼스 구축 방안 탐색
    김승주 최숙기 청람어문교육, 76, 129-164 [2020]
  • 논증적 글쓰기 과제의 자동 채점을 위한 N-gram 자질의 활용 가능 성 탐색
    김승주 작문연구, 41, 37-62 [2019]
  • 논술 개념의 다층성과 대입 통합 교과 논술 시험에 관한 비판적 고 찰
    원진숙 국어교육, 122(0), 201-231 [2007]
  • 내용 영역 문식력의 특징과 지도 방향
    김명순 새국어교육, 75, 91-120 [2007]
  • 김인중이 전하는 딥러닝의 세계<3> AI의 불완전성에 대하여
    김인중 [2021]
  • 글쓰기의 미래적 가치 - 글쓰기의 미래적 효능과 글쓰기 교육의 양 태(mode) -
    박인기 작문연구 20. 9-36 [2014]
  • 국어교사의 쓰기평가 태도에 대한 조사 연구
    박영민 ᅠ작문연구,ᅠ22, 35-59 [2014]
  • 국어과교육과 타교과 교육의 관계와 연구 과제
    김봉순 한국초등국어교육, 13, 61-81 [1997]
  • 국민과 함께하는 미래 교육과정 논의 본격 착수 - 「2022 개정 교육과정 추진계획」발표 -
    교육부 교육부 보도자료 [2021]
  • 국가수준 학업성취도 평가 서답형 문항에 대한 자동채 점의 실용성 분석
    노은희 성경희 이상하 교육과정평가연구18(1). pp 185-208 [2015]
  • 교실 단위 작문 평가에서 활용 가능한 작문 자동 채점 프로그램의 설계 방안에 대한 연구 - 인지공학적 설계 접근과 채점자의 인지부하 요인을 고려하여 -
    김승주 청람어문교육, 83, 157-203 [2021]
  • “현직 국어교사와 예비 국어교사의 쓰기평가 지식의 차이 분석,”
    박영민 ᅠ작문 연구,ᅠ19, 331-352 [2013]
  • “현직 국어교사와 예비 국어교사의 쓰기평가 비교 연구,”
    박영민 최숙기 교육 과정평가연구, 12(1). 123-143 [2009]
  • “예비 국어교사의 쓰기 평가 효능감과 쓰기 평가 수행에 대한 연 구,”
    박찬흥 ᅠ 국어문학,ᅠ72, 489-516 [2019]
  • “쓰기평가 협의 과정에 나타난 쓰기평가자의 인식 연구,”
    서수현 ᅠ국어교육학 연구.ᅠ44, 335-367 [2012]
  • “쓰기평가 전문성 신장을 위한 온라인 채점자 훈련 프로그램 개 발 방향 연구,”
    박종임 작문연구, 17, 413-440 [2013]
  • “쓰기 평가에 대한 국어교사의 인식 및 실태 조사 연구,”
    장은섭 국어교육, 150, 329-358 [2015]
  • “논설문 평가에 나타난 국어교사의 평가 특성 및 편향 분 석,”
    박영민 최숙기 교육과정평가연구, 14(1), 201-228 [2011]
  • “국어교사의 작문평가 전문성 신장 방안,”
    박영민 ᅠ작문연구,ᅠ13, 89-116 [2011]
  • “국어교사의 사고구술 분석을 통한 학생 논설문 채점 편향의 원인 탐색”
    백유진 한국교원대학교 박사학위논문 [2021]
  • “Rasch 모형을 활용한 국어교사의 쓰기평가 특성 분석 - 중학생 설명문 쓰기평가를 중심으로-,”
    박영민 최숙기 국어교육학연구,ᅠ37. 367-391 [2010]
  • van Eemeren, F. H., Garssen, B., Krabbe, E. C. W., Henkemans, A. F. S., Verheij, B., & Wagemans, J. H. M. (2014). Handbook of argumementation theory. Heidelberg: Springer.
    [2014]
  • [기고]초대형 인공지능 모델의 한계와 기대
    이윤근 전자신문, https://m.etnews.com/20210621000151 (retrived 2021. 09. 15) [2021]
  • Zheng, A., & Casari, A. (2018). Feature engineering for machine learning: principles and techniques for data scientists. "O'Reilly Media, Inc." .
    [2018]
  • Zenati, M. A., Kennedy-Metz, L., & Dias, R. D. (2020, March). Cognitive engineering to improve patient safety and outcomes in cardiothoracic surgery. In Seminars in thoracic and cardiovascular surgery (Vol. 32, No. 1, pp. 1-7). WB Saunders.
    [2020]
  • Young, T., Hazarika, D., Poria, S., & Cambria, E. (2018). Recent trends in deep learning based natural language processing. ieee Computational intelligenCe magazine, 13(3), 55-75.
    [2018]
  • Yerkes, R. M., & Dodson, J. D. (1908). The relation of strength of stimulus to rapidity of habit-formation. Punishment: Issues and experiments, 27-41.
  • Yan, D., Rupp, A. A., & Foltz, P. W.(2020), Handbook of automated scoring: Theory into practice, (Eds.) CRC Press.
    [2020]
  • Wästlund, E., Reinikka, H., Norlander, T., & Archer, T.(2005), Effects of VDT and paper presentation on consumption and production of information: Psychological and physiological factors, Computers in human behavior, 21(2), pp.377-394.
    [2005]
  • Wolfe, E. W., Song, T., & Jiao, H. (2016). Features of difficult-to-score essays. Assessing Writing, 27, 1-10.
    [2016]
  • Wilson, M., & Case, H. (2000). An examination of variation in rater severity over time: A study in rater drift. Objective measurement: Theory into practice, 5, 113-134.
    [2000]
  • When teachers compare argumentative texts : Decisions informed by multiple complex aspects of text quality
    Lesterhuis , M. 18 ( Running Issue ) [2018]
  • Walton, D., Reed, C., & Macagno, F. (2008). Argumentation schemes. Cambridge University Press.
    [2008]
  • Wachsmuth, H., Naderi, N., Hou, Y., Bilu, Y., Prabhakaran, V., Thijm, T. A., ... & Stein, B.(2017b), Computational argumentation quality assessment in natural language, In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers (pp.176-187).
  • Wachsmuth, H., Naderi, N., Habernal, I., Hou, Y., Hirst, G., Gurevych, I., & Stein, B.(2017a), Argumentation quality assessment: Theory vs. practice, In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers) (pp.250-255).
    [2017]
  • Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention is all you need. arXiv preprint arXiv:1706.03762.
    [2017]
  • Variability in ESL essay rating processes : The role of the rating scale and rater experience
    Barkaoui , K. 7 ( 1 ) , 54 ? 74 . https : //doi.org/10.1080/15434300903464418 [2010]
  • Validation of a scheme for assessing argumentative writing of middle school students
    Yeh , S. S. 5 ( 1 ) , 123-150 . [1998]
  • Uncovering rater ’ s cognitive processing and focus using think-aloud protocols
    Wolfe , E. W. 2 ( 1 ) , 37 ? 56 [2006]
  • The rhetoric of reason: Writing and the attractions of argument. 오형섭(2001). 이성의 수사학
    Crosswhite, J. 고려대학교 출판부 [1996]
  • The relationship between essay reading style and scoring proficiency in a psychometric scoring system
    Wolfe , E. W. 4 ( 1 ) , 83-106 . [1997]
  • The perceptron : a probabilistic model for information storage and organization in the brain
    Rosenblatt , F. 65 ( 6 ) , 386 . [1958]
  • The method of Adaptive Comparative Judgment . Assessment in Education : Principles , Policy & Practice
    Pollitt , A 19 ( 3 ) , 1-20 . DOI : 10.1080/0969594X.2012.665354 [2012]
  • The magical mystery four : How is working memory capacity limited , and why ?
    Cowan , N. 19 ( 1 ) , pp.51-57 [2010]
  • The law of comparative judgment
    Thurstone , L.L 34 ( 4 ) , 273 286 . DOI : http : //dx.doi.org/10.1037/h0070288 [1927]
  • The influence of holistic scoring procedures on reading and rating student essays . In M. M. Williamson & B . A. Huot ( Eds . ) , Validating holistic scoring for writing assessment : Theoretical and empirical foundations
    Huot , B . A pp . 206 ? 236 [1993]
  • The enigma of reason. 이성의 진화
    Mercier, H. Sperber, D. 생각 연구소 [2017]
  • The Mythos of Model Interpretability : In machine learning , the concept of interpretability is both important and slippery
    Lipton , Z. C. 16 ( 3 ) , 31-57 . [2018]
  • Strukelj, A., & Niehorster, D. C.(2018), One page of text: Eye movements during regular and thorough reading, skimming, and spell checking, Journal of Eye Movement Research, 11(1).
    [2018]
  • Stab, C., & Gurevych, I. (2014, August). Annotating argument components and relations in persuasive essays. In Proceedings of COLING 2014, the 25th international conference on computational linguistics: Technical papers (pp. 1501-1510).
    [2014]
  • Song, Y., Heilman, M., Klebanov, B. B., & Deane, P. (2014, June). Applying argumentation schemes for essay scoring. In Proceedings of the First Workshop on Argumentation Mining (pp. 69-78).
    [2014]
  • Song, Y., Deane, P., & Beigman Klebanov, B. (2017). Toward the automated scoring of written arguments: Developing an innovative approach for annotation. ETS Research Report Series, 2017(1), 1-15.
    [2017]
  • Singla, Y. K., Parekh, S., Singh, S., Li, J. J., Shah, R. R., & Chen, C. (2021). AES Systems Are Both Overstable And Oversensitive: Explaining Why And Proposing Defenses. arXiv preprint arXiv:2109.11728.
  • Shermis, M. D., & Burstein, J.(2013), Handbook of automated essay evaluation: Current applications and new directions.(Eds.), Routledge.
    [2013]
  • Schuster, M., & Paliwal, K. K. (1997). Bidirectional recurrent neural networks. IEEE transactions on Signal Processing, 45(11), 2673-2681.
    [1997]
  • Schneider, C., & Boyer, M.(2020), Design and Implementation for Automated Scoring Systems, In Handbook of Automated Scoring (pp. 217-240), Chapman and Hall/CRC.
    [2020]
  • Scales for rating language performance : Descriptive models , formulation styles , and presentation formats
    North , B 24 [2003]
  • Robinson, N. (2018.4.9.). NAPLAN's writing test is 'bizarre' but here's how kids can get top marks. ABC news. https://www.abc.net.au/news/2018-04-09/naplan-writing-test-biz arre-heres-how-kids-can-get-top-marks/9625852#perelmanguide (retrived 21.3.15)
    [2018]
  • Robinson, N. (2018.1.29.). NAPLAN: Robot marking of school tests scrapped by education ministers, ABC News. https://www.abc.net.au/news/2018-01-29/push-to-have-robotsmark- naplan-tests-scrapped/9370318 (retrived 21.9.25.)
    [2018]
  • Reimers, N., Schiller, B., Beck, T., Daxenberger, J., Stab, C., & Gurevych, I. (2019). Classification and clustering of arguments with contextualized word embeddings. arXiv preprint arXiv:1906.09821.
    [2019]
  • Rating scales for diagnostic assessment of writing : What should they look like and where should the criteria come from ?
    Knoch , U 16 ( 2 ) , pp.81-96 . [2011]
  • Rater cognition : Implications for validity
    Bejar , I . I 31 ( 3 ) , pp.2-9 . [2012]
  • Ramineni, C., & Williamson, D. M.(2013), Automated essay scoring: Psychometric guidelines and practices, Assessing Writing, 18(1), pp.25-39.
    [2013]
  • Ramesh, D., & Sanampudi, S. K. (2021). An automated essay scoring systems: a systematic literature review. Artificial Intelligence Review, 1-33.
  • Python GUI 기반 학생 글 채점 연습 프로그램의 구성과 활용
    박영민 작문 연구, 48, pp.61-91 [2021]
  • Public Perception and Communication around Automated Essay Scoring , In Handbook of Automated Scoring
    Wood , S. W. pp . 133-150 ) . Chapman and Hall/CRC [2020]
  • Preiss, D. D., Castillo, J. C., Flotts, P., & San Martín, E. (2013). Assessment of argumentative writing and critical thinking in higher education: Educational correlates and gender differences. Learning and Individual Differences, 28, 193-203.
    [2013]
  • Powers, D. E., Escoffery, D. S., & Duchnowski, M. P. (2015). Validating automated essay scoring: A (modest) refinement of the “gold standard”. Applied Measurement in Education, 28(2), 130-142.
    [2015]
  • Pollitt, A. (2004). Let’s stop marking exams. Paper presented at the annual conference of the International Association of Educational Assessment, June 13–18, in Philadelphia, USA.
    [2004]
  • Perelman, L., Federation, N. T., Ong, A., & Circelli, M. (2018). Towards a new NAPLAN: Testing to the teaching. Communications.
    [2018]
  • Paulson, E., & Freeman, A. (2003). Insight from the Eyes: the Science of Effective Reading Instruction, Portsmouth, NH: Heinemann.
    [2003]
  • On the relation between automated essay scoring and modern views of the writing construct
    Deane , P. 18 ( 1 ) , 7-24 [2013]
  • OECD, (2018). The Future of Education and Skills: Education 2030 . OECD.
    [2018]
  • OECD(2005). The definition and selection of key competencies: Executive summary. OECD
    [2005]
  • OECD 국제 학업성취도 평가 연구: PISA 2018 예비 검사 시행 기반 구축, 연구보고 RRE 2016-2-1
    구자옥 김성숙 박혜영 이혜원 조성민 서 울: 한국교육과정평가원 [2016]
  • O'hara, K., & Sellen, A. (1997, March), A comparison of reading paper and on-line documents. In Proceedings of the ACM SIGCHI Conference on Human factors in computing systems(pp. 335-342).
    [1997]
  • Noyes, J. M., & Garland, K. J. (2003), VDT versus paper-based text: Reply to Mayes, Sims and Koonce, International Journal of Industrial Ergonomics, 31(6), pp.411-423.
    [2003]
  • New tools for teaching writing
    Warschauer , M. 14 ( 1 ) , pp.3-8 . [2010]
  • Neural networks and deep learning. 류광(2019). 신경 망과 심층학습
    Aggarwal, C. C. 제이펍 [2018]
  • Neisser, U., & Becklen, R.(1975), Selective looking: Attending to visually specified events, Cognitive psychology, 7(4), pp.480-494.
    [1975]
  • National Center for Education Statistics. (2012). The nation’s report card: Writing 2011 (NCES 2012470). Institute for Education Sciences, U.S: Department of Education, Washington, D.C.
    [2012]
  • Milanovic, M., Savile, N., & Shuhong, S. (1996). A study of the decision-making behaviour of composition makers. In Performance Testing, Cognition and Assessment: Selected Papers from the 15th Language Research Testing Colloquium, Cambridge and Arnhem (Vol. 3). Cambridge University Press.
    [1996]
  • Mathias, S., & Bhattacharyya, P. (2020, July). Can Neural Networks Automatically Score Essay Traits?. In Proceedings of the Fifteenth Workshop on Innovative Use of NLP for Building Educational Applications (pp. 85-91).
    [2020]
  • Mathias, S., & Bhattacharyya, P. (2018, May). ASAP++: Enriching the ASAP automated essay grading dataset with essay attribute scores. In Proceedings of the eleventh international conference on language resources and evaluation (LREC 2018).
    [2018]
  • Lippi, M., & Torroni, P. (2016). Argumentation mining: State of the art and emerging trends. ACM Transactions on Internet Technology (TOIT), 16(2), 1-25.
    [2016]
  • Link, S., Mehrzad, M., &Rahimi, M. (2020). Impact of automated writing evaluation on teacher feedback, student revision, and writing improvement. Computer Assisted Language Learning, 1-30.
    [2020]
  • Li, J., Link, S., & Hegelheimer, V. (2015). Rethinking the role of automated writing evaluation (AWE) feedback in ESL writing instruction. Journal of Second Language Writing, 27, 1-18.
    [2015]
  • Leckie, G., & Baird, J. A.(2011), Rater effects on essay scoring: A multilevel analysis of severity drift, central tendency, and rater experience, Journal of Educational Measurement, 48(4), pp.399-418.
    [2011]
  • Kumar, V. S., &Boulanger, D. (2020). Automated Essay Scoring and the Deep Learning Black Box: How Are Rubric Scores Determined?. International Journal of Artificial Intelligence in Education, 1-47.
    [2020]
  • Kumar, V. S., & Boulanger, D.(2020), Automated Essay Scoring and the Deep Learning Black Box: How Are Rubric Scores Determined?, International Journal of Artificial Intelligence in Education, pp.1-47.
    [2020]
  • Klein, J., & Taub, D.(2005), The effect of variations in handwriting and print on evaluation of student essays, Assessing writing, 10(2), pp.134-148.
    [2005]
  • Klebanov, B. B., & Madnani, N. (2020, July). Automated evaluation of writing –50 years and counting. In Proceedings of the 58th annual meeting of the association for computational linguistics (pp. 7796-7810).
    [2020]
  • Ke, Z., Carlile, W., Gurrapadi, N., & Ng, V. (2018, July). Learning to Give Feedback: Modeling Attributes Affecting Argument Persuasiveness in Student Essays. In IJCAI (pp. 4130-4136).
    [2018]
  • Johnson, M., Hopkin, R., Shiell, H., &Bell, J. F. (2012). Extended essay marking on screen: is examiner marking accuracy influenced by marking mode?. Educational Research and Evaluation, 18(2), 107-124.
    [2012]
  • Jaunzemis, A. D., Feigh, K. M., Holzinger, M. J., Minotra, D., & Chan, M. W.(2020), Cognitive Systems Engineering Applied to Decision Support in Space Situational Awareness, Journal of Cognitive Engineering and Decision Making, 14(1), pp.3-33.
    [2020]
  • Janssen, C. P., Donker, S. F., Brumby, D. P., & Kun, A. L. (2019), History and future of human-automation interaction, International Journal of Human-Computer Studies, 131, 99-107.
    [2019]
  • Janssen, C. P., Boyle, L. N., Kun, A. L., Ju, W., & Chuang, L. L. (2019). A hidden markov framework to capture human–machine interaction in automated vehicles. International Journal of Human–Computer Interaction, 35(11), 947-955.
    [2019]
  • Hettinger, A. Z., Roth, E. M., &Bisantz, A. M. (2017). Cognitive engineering and health informatics: applications and intersections. Journal of Biomedical Informatics, 67, 21-33.
    [2017]
  • Hamp-Lyons, L. & Henning, G. (1991). Communicative writing profiles: An investigation of the transferability of a multiple-trait scoring instrument across ESL writing assessment contexts. Language Learning, 41(3), 337-373.
    [1991]
  • Grimes, D., & Warschauer, M. (2010). Utility in a fallible tool: A multi-site case study of automated writing evaluation. The Journal of Technology, Learning and Assessment, 8(6).
    [2010]
  • Govier, T.(2018). Problems in argument analysis and evaluation (Vol. 6), University of Windsor.
    [2018]
  • Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT press.
    [2016]
  • Gluck, M. A., Mercado, E., & Myers, C. E. (2008). Learning and memory: From brain to behavior. New York: Worth Publishers.
    [2008]
  • Glasswell, K., Parr, J., & Aikman, M. (2001). Development of the asTTle writing assessment rubrics for scoring extended writing tasks. Unpublished technical report. Auckland: University of Auckland, asTTle project.
    [2001]
  • Generalization and network design strategies
    LECUN , Y 19 ( 143-155 ) , 18 [1989]
  • Gebril, A., &Plakans, L. (2014). Assembling validity evidence for assessing academic writing: Rater reactions to integrated tasks. Assessing writing, 21, 56-73.
    [2014]
  • Freedman, S. W., & Calfee, R. C.(1983). Holistic assessment of writing: Experimental design and cognitive theory. Research on writing: Principles and methods, pp.75-98.
    [1983]
  • Foltz, P. W., Yan, D., & Rupp, A. A. (2020), The Past, Present, and Future of Automated Scoring, In Handbook of Automated Scoring (pp. 1-10), Chapman and Hall/CRC.
    [2020]
  • Ferretti, R. P., & Graham, S. (2019). Argumentative writing: Theory, assessment, and instruction. Reading and Writing, 32(6), 1345-1357.
    [2019]
  • Ferretti, R. P., & Fan, Y. (2016). Argumentative writing. In C. A. MacArthur, S. Graham, & J. Fitzgerald (Eds.), Handbook of writing research (2nd ed., pp. 301–315). New York: Guilford Press.
    [2016]
  • Expertise in evaluating second language compositions
    Cumming , A 7 , pp . 31∼51 [1990]
  • Enright, M. K., & Quinlan, T. (2010). Complementing human judgment of essays written by English language learners with e-rater® scoring. Language Testing, 27(3), 317-334.
    [2010]
  • English language learners and automated scoring of essays : Critical considerations
    Weigle , S. C. 18 ( 1 ) , 85-99 . [2013]
  • Effects of an Automated Writing Evaluation Program : Student Experiences and Perceptions
    Wang , P. L. 12 ( 1 ) [2015]
  • Dong, F., Zhang, Y., & Yang, J. (2017, August). Attention-based Recurrent Convolutional Neural Network for Automatic Essay Scoring. In CoNLL (pp. 153-162).
    [2017]
  • Dong, F., & Zhang, Y. (2016, November). Automatic Features for Essay Scoring-An Empirical Study. In EMNLP (Vol. 435, pp. 1072-1077).
    [2016]
  • Dikli, S., & Bleyle, S. (2014). Automated Essay Scoring feedback for second language writers: How does it compare to instructor feedback?. Assessing writing, 22, 1-17.
    [2014]
  • Dias, R. D., Zenati, M. A., Stevens, R., Gabany, J. M., & Yule, S. J.(2019), Physiological synchronization and entropy as measures of team cognitive load, Journal of biomedical informatics, 96, 103250.
    [2019]
  • Diamond, D. M., Campbell, A. M., Park, C. R., Halonen, J., & Zoladz, P. R. (2007). The temporal dynamics model of emotional memory processing: a synthesis on the neurobiological basis of stress-induced amnesia, flashbulb and traumatic memories, and the Yerkes-Dodson law. Neural plasticity, 2007.
    [2007]
  • Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.
    [2018]
  • Designing , evaluating , and deploying automated scoring systems with validity in mind : Methodological design decisions
    Rupp , A . A 31 ( 3 ) , 191-214 [2018]
  • Deep learning for natural language processing : advantages and challenges
    Li , H. [2017]
  • Cumming, A., Kantor, R., & Powers, D. E. (2002). Decision making while rating ESL/EFL writing tasks: A descriptive framework. The Modern Language Journal, 86(1), 67-96.
    [2002]
  • Cumming, A. H., Kantor, R., & Powers, D. E. (2001). Scoring TOEFL essays and TOEFL 2000 prototype writing tasks: An investigation into raters' decision making and development of a preliminary analytic framework. Educational Testing Service.
    [2001]
  • Contrasting automated and human scoring of essays .
    Zhang , M. 21 ( 2 ) , pp.1-11 . [2013]
  • Computer-generated feedback on student writing
    Ware , P. 45 ( 4 ) , pp.769-774 . [2011]
  • Cognitive psychology and its implications(7th eddition). 이영애(2012). 인지심리학과 그 응용
    Anderson, J. R. 이화여자대학교출판 부 [2010]
  • Chen, C. F. E., & Cheng, W. Y. E. C. (2008). Beyond the design of automated writing evaluation: Pedagogical practices and perceived learning effectiveness in EFL writing classes. Language Learning & Technology, 12(2), 94-112.
    [2008]
  • Chapelle, C. A. (2008). The TOEFL validity argument. In C. A. Chapelle, M. K. Enright, & J. M. Jamieson (Eds.), Building a validity argument for the Test of English as a Foreign Language (pp. 319–352). London, UK: Routledge.
    [2008]
  • Carlile, W., Gurrapadi, N., Ke, Z., & Ng, V. (2018, July). Give me more feedback: Annotating argument persuasiveness and related attributes in student essays. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (pp. 621-631).
    [2018]
  • Burstein, J., Tetreault, J., & Madnani, N. (2013). The e-rater® automated essay scoring system. In Handbook of automated essay evaluation (pp. 77-89). Routledge.
    [2013]
  • Ben-Simon, A., & Bennett, R. E. (2007). Toward more substantively meaningful automated essay scoring. The Journal of Technology, Learning and Assessment, 6(1).
    [2007]
  • Basaraba, D., Yovanoff, P., Alonzo, J., & Tindal, G. (2013). Examining the structure of reading comprehension: Do literal, inferential, and evaluative comprehension truly exist?. Reading and Writing, 26(3), 349-379.
    [2013]
  • Baddeley, A. (2007). Working memory, thought, and action (Vol. 45). OuP Oxford.
    [2007]
  • Baaijen, V. M., Galbraith, D., & De Glopper, K. (2012). Keystroke analysis: Reflections on procedures and measures. Written Communication, 29(3), 246-277.
    [2012]
  • Attali, Y., Lewis, W., & Steier, M. (2013). Scoring with the computer: Alternative procedures for improving the reliability of holistic essay scoring. Language Testing, 30(1), 125-141.
    [2013]
  • Attali, Y., & Burstein, J. (2004). Automated essay scoring with e‐rater® v. 2.0. ETS Research Report Series, 2004(2), i-21.
    [2004]
  • Assessing writing. 정희모 김성숙 유혜령 서수현(2017). 쓰기 평가
    Weigle, S. C. 글로벌콘텐츠 [2001]
  • Aristotle (1962). On interpretation. (E. M. Edghill, trans) http://www.bocc.ubi.pt/pag/Aristoteles-nicomachaen.pdf(retrieve d 21.12.7.)
    [1962]
  • Argument ! ’ helping students understand what essay writing is about
    Wingate , U . 11 ( 2 ) , 145-154 . [2012]
  • Andriessen, J. E. B., Chanquoy, L., & Coirier, P. (1999). From planning to translating: The specificity of argumentative writing (pp. 1-28). Amsterdam University Press.
    [1999]
  • An investigation of rater cognition in the assessment of projects
    Crisp , V. 31 ( 3 ) , 10-20 . [2012]
  • AI가 "왜?"라는 질문에 답을 하려면
    오춘호 한국경제신문. https://www.hankyung.com/it/article/202103105824i (retrieved 2021.09.16) [2021]
  • A critical interpretative synthesis : The integration of Automated Writing Evaluation into classroom writing instruction
    Stevenson , M. 42 , 1-16 [2016]
  • 2015 국어과 교육과정 작문 영역의 쟁점과 과제
    박영민 국어교육학연구,ᅠ 51(1), 63-87 [2016]
  • 2015 개정 교육과정에 따른 교실 수업에서의 교육평가 개선 방향 탐색
    강태훈 류성창 교육연구, 70, 255-277 [2017]