박사

채점의 일관성 유형에 따른 국어교사의 쓰기 평가 특성 분석 = An Analysis of the Writing Assessment of Korean Language Teachers’ According to the Consistency Patterns

장은주 2015년
논문상세정보
' 채점의 일관성 유형에 따른 국어교사의 쓰기 평가 특성 분석 = An Analysis of the Writing Assessment of Korean Language Teachers’ According to the Consistency Patterns' 의 주제별 논문영향력
논문영향력 선정 방법
논문영향력 요약
주제
  • 다국면 라쉬 모형
  • 쓰기 채점
  • 쓰기 평가
  • 쓰기 평가 전문성
  • 채점의 일관성
  • 평가자 연수
  • 평가자 유형
  • 평가자 편향
동일주제 총논문수 논문피인용 총횟수 주제별 논문영향력의 평균
143 0

0.0%

' 채점의 일관성 유형에 따른 국어교사의 쓰기 평가 특성 분석 = An Analysis of the Writing Assessment of Korean Language Teachers’ According to the Consistency Patterns' 의 참고문헌

  • 현직 국어교사와 예비 국어교사의 쓰기평가 지식의 차이 분석
    박영민 작문연구,제19집,331-352 [2013]
  • 학업동기: 이론, 연구와 적용
    김아영 서울:학지사 [2010]
  • 학문 목적 한국어 쓰기 능력에 대한 분석적 평가의 일반화가능도 검증
    김성숙 한국어교육제22권 제3호, 서울:국제한국어교 육학회 [2011]
  • 평가자협의가 작문평가의 신뢰도에 미치는 영향
    이승재 석사학 위논문,충북:한국교원대학교 [2011]
  • 타당도와 신뢰도
    성태제 서울:학지사 [2002]
  • 초등학교 쓰기 평가의 회귀 현상과 지향
    전제응 청람어문교육 제40집,충북:청람어문교육학회 [2009]
  • 초등학교 쓰기 평가의 문제점과 개선 방안
    최경희 새국어교육 제73호,서울:한국국어교육학회 [2006]
  • 채점 경향 분석을 위한 Rasch 측정 모형 적용 연구
    신동일 Foreign Languages Education 제8권 제1호, 서울:한국외국어 교육학회 [2001]
  • 전자포트폴리오를 통한 교사전문성 훈련 및 평가방안
    김혜영 한 국교원교육연구제21권 제3호,서울:한국교원교육학회 [2004]
  • 작문 교육론
    박영목 서울:역락 [2008]
  • 일반화가능도 이론을 이용한 쓰기 평가의 오차원 분석 및 신뢰도 추정 연구
    조재윤 국어교육제128호,서울:한국어교육학회 [2009]
  • 박사
  • 예비국어교사의 쓰기 평가 효능감 분석
    박영민 청람어문교육 제42집,충북:청람어문교육학회 [2010]
  • 영어작문평가의 채점신뢰도에 대한 분석
    이영식 영어교육제53 권 제1호,서울:한국영어교육학회 [1998]
  • 언어평가의 이해
    이영식 서울:서울대학 교출판부 [2003]
  • 쓰기 평가 협의 과정에 나타난 쓰기 평가자의 인식 연구
    서수현 국어교육학연구제44집,서울:국어교육학회 [2012]
  • 쓰기 평가 지식 측정을 위한 검사 도구 개발 연구
    박영민 청람 어문교육제46집,충북:청람어문교육학회 [2012]
  • 쓰기 평가 전문성 신장을 위한 온라인 채점자 훈련 프로그램 개발 방향 연구
    박종임 작문연구제17집,서울:한국작문학회 [2013]
  • 쓰기 평가 결과의 해석과 활용 방안 연구
    이수진 작문연구제6 집,서울:한국작문학회 [2008]
  • 쓰기 직접 평가를 위한 텍스트 분석 평가의 실행 방안
    이수진 작문연구제13집,서울:한국작문학회 [2011]
  • 심리측정의 원리
    임인재 서울:교육출판사 [1986]
  • 신뢰도
    강승호 김양분 서울:교육과학사 [2004]
  • 생태학적 문식성 평가,[Jett-Simpson, M., Leslie, L. & Wisconsin Reading Association(1997), Authenticliteracyassessment:anecologicalapproach. New York: Longman]
    원진숙 서울:한국문화사 [2004]
  • 문항반응이론의 이론과 실제 : 외국어 수행평가를 중심으로, [McNamara, T. F.(1996),MeasuringSecondLanguagePerformance. New York: Longman].
  • 국어교사의 쓰기 평가 효능감 분석
    박영민 청람어문교육제44 집,충북:청람어문교육학회 [2011]
  • 국어교사의 쓰기 평가 특성 연구
    박종임 박사학위논문, 충북:한 국교원대학교 [2013]
  • 국어교사의 성별에 따른 쓰기평가 특성 분석
    정미경 교원교육 제27 권 제4호,충북:한국교원대학교교육연구원 [2011]
  • 국어과 교육과정
    교육부 교육부 고시 제1997-15호(별책 5) [1997]
  • 국어과 교사의 쓰기 영역 평가 전문성 기준과 모형
    이성영 국어 교육제117호,서울:한국어교육학회 [2005]
  • 교육과정 실행에 영향을 미치는 변인들의 구조적 관계 분석 : 수행평가 실행에 대한 학교 맥락 및 교사학습기회의 간접효과를 중심으로
    최진영 교육과정연구제30권 제2호, 서울:한국교육 과정학회 [2012]
  • 교사전문성 핵심요인으로서의 교사효능감
    김아영 교육심리연구 제26권,서울:한국교육심리학회 [2012]
  • 교사의 학생평가 전문성 신장 모형과 기준
    이인제 연구보고 RRE-2004-5-2,서울:한국교육과정평가원 [2004]
  • 『SPSS/AMOS를 이용한 알기 쉬운 통계분석』
    성태제 서울:학지사 [2011]
  • 「평가 문식성 신장을 위한 국어과 교사 교육」
    주세형 문법교육 제15호,서울:한국문법교육학회 [2011]
  • 「디지털 시대 국어교사의 인지활동과 쓰기평가의 상관 연구」
    오세영 새국어교육제92호,서울:한국국어교육학회 [2012]
  • “후광효과의 이해를 통한 채점 오류 분석 연구,” Foreign Languages Education 제9권 제4호
    신동일 장소영 서울:한국외국어 교육학회 [2002]
  • “현직 국어교사와 예비 국어교사의 쓰기평가 비교 연구,” 교육과정평가연구, 제12권 제1호
    박영민 최숙기 서울: 교육과정평가 원 [2009]
  • “한국어 말하기 수행평가의 발음 범주 채점 방식에 따른 채점 신뢰도 분석―다국면 라쉬 모형을 활용하여―,” 외국어로서의 한국어교육제37집
    이향 서울:연세대학교언어연구교육원한국어학 당 [2012]
  • “한국 중고등학교 교사들의 영어작문 채점 훈련에서 나타나 는 채점자 편향과 그 원인”
    이창수 박사학위논문,서울:서울대학교 [2014]
  • “학생 평가 전문성의 개념과 국가 수준의 기준 개발,”
    김신영 교원 의 학생평가전문성의 개념과 국가 기준 개발 방향 탐색 워크숍 자료집,연구자료 ORM 2004-6,서울:한국교육과정평가원 [2004]
  • “프로토콜 분석을 활용한 쓰기 과정 지도 및 평가―논술 텍 스트 생산 과정 모형을 중심으로―,”
    김평원 새국어교육제87호, 서 울:한국국어교육학회 [2011]
  • “평가자 일관성에 따른 설명문 평가 예시문 선정의 차이 연구,”작문연구제14집
    박영민 박종임 서울:한국작문학회 [2012]
  • “총체적 쓰기 평가와 분석적 쓰기 평가의 상관 연구―고등학 생의 논설문 평가를 중심으로―,”
    김라연 이중언어학제35집, 서울: 이중언어학회 [2007]
  • “채점의 변동 요인 분석과 방법에 대한 고찰:일반화 가능도 이론과 다국면 라쉬 모형의 적용과 재해석,”
    김성숙 교육평가연구제 14권 제1호,서울:한국교육평가학회 [2001]
  • “집단적 교사효능감, 개인적 교사효능감 및 교사협 력 간 구조적 관계,” 한국교원교육연구제31권 제2호
    권순형 김도기 서울: 한국교원교육학회 [2014]
  • “예비 국어교사의 성별 및 학생 성별 인식에 따른 평가 차이 분석,” 교육과정평가연구제13권 제2호
    박영민 최숙기 서울:교육 과정평가원 [2010]
  • “영작문 평가를 위한 채점자 훈련의 방향 ,”
    이지연 『현대영어교 육』,제10권 제3호,서울:현대영어교육학회 [2009]
  • “영어 작문 수행평가의 채점행위 분석 연구,”
    김명숙 교육평가연구 제10권 제2호,서울:한국교육평가학회 [1997]
  • “쓰기의 총체적 평가 방법 연구,”청람어문교육제13집
    배향란 충 북:청람어문학회 [1995]
  • “쓰기 평가의 기준 설정에 관한 연구”
    서수현 석사학위논문, 서울: 고려대학교 [2004]
  • “쓰기 채점 방식에 따른 국어교사의 채점 신뢰도 비교 연 구,”
    권태현 교원교육제28권 제3호, 충북:한국교원대학교 교육연구 원 [2012]
  • “쓰기 중요도선호난도습관에 대한 학생들의 반응 분석,” 교육과정평가연구, 제16권 제3호
    박영민 장은주 서울:한국교육 과정평가원 [2013]
  • “성취기준 예시문 선정 연구”
    권태현 박사학위논문, 충북:한국교원 대학교 [2014]
  • 박사
  • “말하기 수행 평가에서 발음 범주 채점의 최적화 방안 연구,” 한국어교육제23권 제2호
    이향 서울:국제한국어교육학회 [2012]
  • “대규모 평가 자유 반응형 문항 채점 영향 요소,” 교 육평가연구제18권 제2호
    박정 전현정 서울:한국교육평가학회 [2005]
  • “다기능 영어교사 홈페이지의 설계 방안 ,”
    김혜영 멀티미디어 언어 교육제6권 제2호,울산:한국멀티미디어언어교육학회 [2003]
  • “논술고사의 신뢰성에 영향을 미치는 채점자 특성 분석,”
    지은림 교육평가연구제21권 제2호,서울:한국교육평가학회 [2008]
  • “논술 평가자의 주관적 경험 분석,”
    박영민 우리어문연구제33집, 서울:우리어문학회 [2009]
  • “논설문 평가에 나타난 국어교사의 평가 특성 및 편 향 분석,” 교육과정평가연구제14권 제1호
    박영민 최숙기 서울:한국교육과 정평가원 [2011]
  • “국어교사의 쓰기 효능감 및 쓰기 신념이 학생 쓰기평가에 미치는 영향”,석사학위논문
    가은아 충북:한국교원대학교 [2008]
  • “국어과 수행평가의 평가자 신뢰도 보고 방안 탐색,”
    최숙기 작문 연구제14집,서울:한국작문학회 [2012]
  • “국어과 교육과정에 따른 중학생 논설문의 성취기 준 예시문 선정 연구,”작문연구,제21집
    박영민 장은주 서울:한국작문학회 [2014]
  • “국어과 교사의 학생 평가 전문성 신장 모형과 기 준,”연구보고 RRE-2004-5-3
    박영목 이인제 서울:한국교육과정평가원 [2004]
  • “국어 교사의 쓰기 지도 인식 및 쓰기 지도 유형별 활용 빈도 검사 도구 타당화 연구,” 작문연구제17집
    박영민 박찬흥 서울: 한국작문학회 [2013]
  • “교육과정 실행 수준 결정 요인 탐색,” 교 육과정연구,제24권 제3호
    권낙원 박승렬 추광재 서울:한국교육과정학회 [2009]
  • “교과별 좋은 글의 기준 차이에 대한 분석 ― 국어, 사회, 과학 교과를 중심으로―,” 새국어교육제86호
    권태현 이영진 조성만 서울:한국국어교육학회 [2010]
  • “공감화 과제에 따른 현직 교사와 예비 교사의 쓰 기 평가 비교,”국어교육학연구,제49집 제4호
    박영민 장은주 서울:국어교육 학회 [2014]
  • “Rasch 모형을 활용한 국어교사의 채점 일관성 변화 양상 및 원인 분석―중학생 서사문 채점을 중심으로―,” 우리 어문연구제39집
    박영민 박종임 서울:우리어문학회 [2011]
  • “Rasch 모형을 활용한 국어교사의 쓰기평가 특성 분석,”국어교육학연구제37집
    박영민 최숙기 서울:국어교육학회 [2010]
  • “2013국어 교사의 쓰기경험과 쓰기수업 및 교육에 대한 사례 연구,”
    장은섭 대학작문,제6호,서울:대학작문학회 [2013]
  • many-facet Rasch 모형을 적용한 대입논술고사 채점의 객관성 연구
    지은림 교육평가연구,제9권 제2호,서울:한국교육평가학 회 [1996]
  • Wright, B. D., Linacre, J. M., Gustafson, J. E. & Martin-Lof, P.(1994), Reasonable mean-square fit values, Rasch Measurement Transactions, 8(3), 369-386.
  • Wright, B. D. & Linacre, J. M.(1991), BIGSTEPS computer program for Rasch measurement, Chicago: MESA Press.
  • Wolfe, E. W., Kao, C. W., & Ranney, M.(1998), Cognitive differences in proficient and nonproficient essay scorers, Written Communication, 15, 465-492.
  • Wolfe, E. W. (1997). The relationship between essay reading style and scoring proficiency in a psychometricscoring system. Assessing Writing, 4(1), 83-106.
  • Wiseman, S.(1949), The marking of English composition in English grammar school selection, British Journal of Educational Psychology, 19(3), 200-209.
  • Wiseman, C. S.(2012), Rater effects: Ego engagement in rater decision-making. Assessing Writing, 17(3), 150-173.
  • Wind, S. A. & Engelhard Jr, G.(2013), How invariant and accurate are domain ratings in writing assessment?, Assessing Writing, 18(4), 278-299.
  • Wigglesworth, G.(1993), Exploring bias analysis as a tool for improving rater consistency in assessing oral interaction, Language Testing, 10(3), 305?335.
  • Whithaus, C., Harrison, S. B. & Midyette, J.(2008), Keyboarding compared with handwriting on a high-stakes writing assessment, Assessing Writing, 13(1), 4-25.
  • White, E. M. (1984). Holisticism. College Composition and Communication, 35,400-409.
  • Weigle,S.C.(1999).Investigating rater/promptinteractionsin writingassessment:QuantitativeandQualitativeapproaches.AssessingWriting,6(2),145-178.
  • Weigle,S.C.(1994).EffectsoftrainingonratersofESL compositions. LanguageTesting,11(2),197-223.
  • Weigle, S. C. (2002). Assessing writing. Cambridge, UK: Cambridge University Press.
  • Weigle, S. C. (1998). Using FACETS to model rater training effects. Language Testing, 15(2), 263-287.
  • Voss, J. F., & Post, T. A.(1988), On the solving of ill-structured problems. In M. Chi., R. Glaser, & M. J. Farr(eds.), The nature of expertise(pp. 261-285), New Jersey: Lawrence Erlbaum Associates.
  • Vincelette, E. J. & Bostic, T.(2013), Show and tell: Student and instructor perceptions of screencast assessment, Assessing Writing, 18(4), 257-277.
  • Vaughan, C.(1991), Holistic assessment :What hoes on in the rater’s mind? In L. Hamp-Lyons(eds.), Assessing Second Language Writing in Academic Context(pp. 111-125), Norwood, NJ:Ablex.
  • Tsui, A. B. M.(2003), Understanding Expertise in Teaching: Case Studies of Second Language Teachers, UK: Cambridge University Press.
  • Thorndike, E. L.(1920), A constant error in psychological ratings, Journal of Applied Psychology, 4, 25-29.
  • Teasdale, A., & Leung, C.(2000), Teacher assessment and psychometric theory: A case of paradigm crossing?, Language Testing, 17(2), 163-184.
  • Sweedler-Brown, C. O.(1985), The influence of training and experience on holistic essay evaluation, The English Journal, 74(5), 49-55
  • Stuhlmann, J., Daniel, C., Dellinger, A., Denny, R. K. & Powers, T.(1999), A generalization study of the effects of training on teachers' abilities to rate children's writing using a rubric, Journal of Reading Psychology, 20, 107-127.
  • Stewart, M. F. & Grobe, C. H.(1979), Syntactic maturity, mechanics of writing, and teachers quality ratings, Research in the Teaching of English, 13, 207-215.
  • Stevens, D. D. & Levi, A. J.(2012), Introduction to Rubrics: An Assessment Tool to Save Grading Time, Convey Effective Feedback, and Promote Student Learning, Sterling, VA: Stylus Publishing.
  • Song,B.,& Caruso,I.(1996).Do English and ESL Faculty differinEvaluating the Essays ofNative English-Speaking and ESLstudents?JournalofSecondLanguageWriting,5(2),163-182.
  • Smallwood, M. L.(1935), An Historical Study of Examinations and Grading Systems in Early American Universities : a Critical Study of the Original Records of Harvard, Cambridge, MA: Harvard University Press.
  • Simon, H.(1978), Information-processing theory of human problem solving. In W. K. Estes(eds.), Handbook of learning and cognitive processes: Vol. V, Human information processing, Hillsdale, NJ: Erlbaum.
  • Scul1en, S. E., Mount, M. K., and Goff, M.(2000), Understanding the latent structure of job perforrnance ratings, Journal of Applied Psychology, 85, 956-970.
  • Schafer, W. D. (1993), Assessment literacy for teachers. Theory Into Practice, 32(2), 118-126.
  • Schaefer,E.(2008).RaterbiaspatternsinanEFL writingassessment. LanguageTesting,25(4),465-493.
  • Scannell, D. P. & Marshall, J. C.(1966), The effect of selected composition errors on grades assigned to essay examinations, American Educational Research Journal, 3(2), 125-130.
  • Saxton, E., Belanger, S., & Becker, W.(2012), The Critical Thinking Analytic Rubric(CTAR): Investigating intra-rater and inter-rater reliability of a scoring mechanism for critical thinking performance assessments, Assessing Writing, 17(4), 251-270.
  • Saal, F. E., Downey, R. G. & Lahey, M. A.(1980), Rating the ratings: Assessing the psychometric quality of rating date. Psychological Bulletin, 88(2), 413-428.
  • SPSS 18.0 매뉴얼
    이학식・임지훈 서울:집현재 [2011]
  • Rudner, L. M., & Schafer, W. D.(2002), What Teachers Need to Know about Assessment, Washington, DC: National Education Association.
  • Roulis, E.(1995), Gendered voice in composing, gendered voice in evaluating: Gender and the assessment of writing quality. In D. L. Rubin(eds.), Composing Social Identity in Written Language (pp. 151-185), Hillsdale, NJ: Lawrence Erlbaum.
  • Purves, A. C.(1984), In search of an internationally-valid scheme for scoring compositions, College Composition and Communication, 35(4), 426-438.
  • Purves, A. C. (1992). Reflections on research and assessment inwritten composition. Research in the Teaching ofEnglish,26(1),108-122.
  • Pula, J. J. & Huot, B. A.(1993), A model of background influences on holistic raters, In M. M. Williamson & B. A. Huot(eds.), Validating Holistic Scoring for Writing Assessment: Theoretical and Empirical Foundations(pp. 237-265), Cresskill, NJ:Hampton.
  • Preston, C. C., & Colman, A. M. (2000). Optimal number of response categories in rating scales: Reliability, validity, discriminating power, and respondent preferences. Acta Psychologica, 104(1), 1-15.
  • Plake, B. S., Impara, J. C., & Fager, J. J. (1993). Assessment competencies of teachers: A national survey. Educational Measurement: Issues and Practice, 12(4), 10-12.
  • Peterson S., & Kennedy, K.(2006), Sixth grade teachers' written comments on student writing: Genre and gender influences, Written Communication, 23(1), 36- 62.
  • Osborne, J., & Walker, P. (2014). Just ask teachers: Building expertise, trusting subjectivity, and valuingdifference in writing assessment. Assessing Writing, 22, 33-47.
  • Osborn Popp, S. E., Ryan, J. M. & Thompson, M. S.(2009), The critical role of anchor paper selection in writing assessment. Applied Measurement in Education, 22(3), 255-271.
  • Oliver,D.W.& Shaver,J.P.(1966).Teaching public issues in the high school,Boston:HoughtonMifflin.
  • Myford, C. M. & Wolfe, E. W.(2004), Detecting and Measuring Rater Effects Using Many-Facet Rasch Measurement: Part Ⅱ, Journal of Applied Measurement , 5(2), 189-227.
  • Myford, C. M. & Wolfe, E. W.(2003), Detecting and Measuring Rater Effects Using Many-Facet Rasch Measurement: Part Ⅰ, Journal of Applied Measurement , 4(4), 386-422.
  • Murphy, S. & Yancey, K. B.(2007), Construct and consequence: Validity in writing assessment. In Bazerman, C.(eds.), Handbook of Research on Writing: History, Society, School, Individual, Text(pp. 365-385), NY: Lawrence Erlbaum Associates.
  • Murphy, K. R., & Balzer, W. K.(1989), Rater errors and rating accuracy, Journal of Applied Psychology, 74(4), 619.
  • Mitchell, R.(1992), Testing for Learning, NY: Simon and Schuster. Moss, P. A.(1994), Can there be validity without reliability?, Educational Researcher, 23(2), 5-12.
  • Milanovic, M., Saville, N. & Shuhong, S.(1996), A study of decision-making behaviour of composition markers, In M. Milanovic & N. Saville(eds.), Studies in Language Testing 3(pp. 92-114), Cambridge, UCLES: Cambridge University Press.
  • Messick, S. 1989. Meaning and values in test validation: The science and ethics ofassessment. Educational researcher, 18(2): 5-11.
  • Mertler, C. A.(2004), Secondary teachers' assessment literacy: Does classroom experience make a difference?, American Secondary Education, 33(1), 49-64.
  • Meristo, M. & Eisenschmidt, E.(2014), Novice teachers’ perceptions of school climate and self-efficacy, International Journal of Educational Research, 67, 1-10.
  • McNamara, T. & Roever, C.(2006), Language Testing: The Social Dimension, Malden, MA & Oxford: Blackwell
  • Mabry, L. (1999), Writing to the Rubric: Lingering Effects of Traditional Standardized Testing on Direct Writing Assessment, Phi Delta Kappan, 80(9), 673-79.
  • Lunz, M. E., Wright, B. D. & Linacre, J. M.(1990), Measuring the Impact of Judge Severity on Examination Scores, American Measurement in Education, 3(4), 331-345.
  • Lumley, T.(2005), Assessing second language writing: The rater’s perspective (Vol. 3). Frankfurt: Peter Lang.
  • Lumley, T. (2002). Assessment criteria in a large-scale writing test: What do they really mean to the raters?Language Testing, 19(3), 246?276.
  • Lumley, T. & McNamara, T, F.(1995), Rater characteristics and rater bias: Implications for training, Language Testing, 12(1), 54-71.
  • Linacre, J. M. (1989). Many-facet Rasch measurement. Chicago:MESA Press.
  • Leckie, G. & Baird, J.(2011), Rater effects on essay scoring: A multilevel analysis of severity drift, central tendency, and rater experience, Journal of Educational Measurement Winter, 48(4), 399-418.
  • Korman, A. K.(1971), Expectancies as determiniants of performance, Journal of Applied Psychology, 55, 218-222.
  • Knoch, U.(2011), Rating scales for diagnostic assessment of writing: What should they look like and where should the criteria come from?, Assessing Writing, 16(2), 81-96.
  • Knoch, U.(2011), Diagnostic Writing Assessment, Frankfurt: Peter Lang.
  • Klein, J. & Taub, D.(2005), The effect of variations in handwriting and print on evaluation of student essays. Assessing Writing, 10(2), 134-148.
  • Klassen, R. M., Tze, V. M., Betts, S. M., & Gordon, K. A. (2011).Teacher efficacy research 1998?2009: signs of progress orunfulfilled promise?. Educational Psychology Review, 23(1),21-43.
  • Kingsbury, F. A. (1922), Analyzing Ratings and Training Raters, Journal of Personnel Research, 1, 377-383.
  • Kegley, P. H. (1986). The effect of mode discourse on student writingperformance: Implications for policy. Educational Evaluation and PolicyAnalysis,8(2),147-154.
  • Kassim, NL Abu(2011), Judging behaviour and rater errors: An application of the Many-facet Rasch Model, GEMA Online Journal of Language Studies, 11(3), 179-197.
  • Jonsson, A., & Svingby, G. (2007). The use of scoring rubrics: Reliability, validity and educationalconsequences. Educational Research Review, 2(2), 130-144.
  • Huot, B.(1993), The influence of holistic scoring procedures on reading and rating student essays, In M. M. Williamson & B. Huot (eds.), Validating Holistic Scoring for Writing Assessment: Theoretical and Empirical Foundations(pp. 206-236), Cresskill, NJ: Hampton Press.
  • Hoyt, W. T.(2000), Rater bias in psychological research: When is it a problem and what can we do about it?, Psychological Methods, 5(1), 64.
  • Hoyt, W. T. & Kerns, M.(1999), Magnitude and moderators of bias in observer ratings: A meta-analysis. Psychological Methods, 4, 403-424.
  • Hout, B.(1996), Toward a new theory of writing assessment, College Composition and Communication, 47, 549-566.
  • Hayes, J. R.(1996), A new framework for understanding cognition and affect in writing. In C. M. Levy and S. Ransdell(eds.), The Science of Writing: Theories, Methods, Individual Differences and Applications, Mahwah, NJ:Lawrence Erlbaum Associates.
  • Harris, W. H.(1977), Teacher Response to student writing: A study of the response patterns of high school english teachers to determine the basis for teacher, Research in the Teaching of English, 11(2), 175-185.
  • Hamp-Lyons, L.(1991), Assessing Second Language Writing in Academic Context, Norewood, NJ: Praeger.
  • Guilford, J. P. (1954). Psychometric methods. New York: McGraw-Hill
  • Graham, S., Harris, K. R., MacArthur, C. & Fink, B.(2002), Primary grade teachers' theoretical orientations concerning writing instruction: construct validation and a nationwide survey, Contemporary Educational Psychology, 27(2), 147-166.
  • Graham, S., Harris, K. R., Barbara, C. & MacArthur, C. A.(2001), Teacher efficacy in writing: A construct validation with primary grade teachers, Scientific Studies of Reading, 5(2), 177-202.
  • Graham, M., Milanowski, A. & Miller, J.(2012), Measuring and Promoting Inter-Rater Agreement of Teacher and Principal Performance Ratings, Washington, DC : Center for Educator Compensation Reform.
  • Gibson,S.,& Dembo,M.H.(1984).Teacherefficacy:A Constructvalidation. JournalofEducationalPsychology,76(4),569-582.
  • Flower, L. S., & Hayes, J. R. (1981). A cognitive process theory of writing. CollegeComposition and Communication, 32, 365-387.
  • Farrokhi, F. & Esfandiari, R.(2011), A Many-facet Rasch Model to Detect Halo Effect in Three Types of Raters, Theory and Practice in Language Studies, 1(11), 1531-1540.
  • Engelhard, G.(1994), Examining Rater Errors in the Assessment of Written Composition with a Many-Faceted Rasch Model, Journal of Educational Measurement , 31(2), 93-112.
  • Engelhard, G. (2002), Monitoring raters in performance assessments. In G. Tindal and T. Haladyna(eds.), Large-Scale Assessment Programs for All Students: Development, Implementation, and Analysis(pp. 261?287), Mahwah, NJ: Lawrence Erlbaum Associates.
  • Elder, C., Knoch, U., Barkhuizenm G. & von Randow, J.(2005), Individual feedback to enhance rater training: Does it work?, Language Assessment Quarterly, 2, 175-196.
  • Eckes, T.(2011), Introduction to Many-Facet Rasch Measurement, Frankfurt: Peter Lang.
  • Eckes, T.(2008), Rater types in writing performance assessment: A classification approach to rater variability, Language Testing, 25(2), 155-185.
  • Eckes, T. (2012). Operational Rater Types in Writing Assessment:Linking Rater Cognition to Rater Behavior. Language AssessmentQuarterly, 9, 270-292.
  • Duncan P. W., Bode R. K., Lai S. M. & Perera S.(2003), Rasch analysis of a new stroke-specific outcome scale: The stroke impact scale, Archive of Physical Medicine and Rehabilitation, 84(7), 950-963.
  • Diederich, P. B.(1974), Measuring Growth in English. Urbana, IL: National Council of Teacher of English.
  • DeRemer, M. L. (1998). Writing assessment: Raters' elaboration of the rating task. Assessing Writing, 5(1),7-29.
  • Cumming, A. (1990). Expertise in evaluating second language compositions. Language Testing, 7(1), 31-51.
  • Cooper, C. R.(1977), Holistic evaluation of writing. In Cooper, C. R. & Odell, L.(eds.), Evaluating Writing: Describing, Measuring, Judging(pp. 3-31), Urbana, IL: National Council of Teachers.
  • Cooper, C. R. & Odell, L.(1977), Evaluating Writing: Describing, Measuring, Judging, Urbana, IL: National Council of Teachers.
  • Cicchetti, D. V., Shoinralter, D., & Tyrer, P. J.(1985), The effect of number of rating scale categories on levels of interrater reliability: A Monte Carlo investigation, Applied Psychological Measurement, 9(1), 31-36.
  • Camp, R.(1993), The place of portfolios in our changing views of writing assessment, In Ward, W. C. & Bennett, R. E.(eds.), Construction Versus Choice in Cognitive Measurement: Issues in Constructed Response, Performance Testing, and Portfolio Assessment(pp. 183-212), Hillsdale, NJ: Lawrence Erlbaum Associates Publishers.
  • Brown, E. M.(1968), Influence of training, method, and relationship of the halo effect. Journal of Applied Psychology, 52(3), 195.
  • Bouwer, R., B guin, A., Sanders, T. & van den Bergh, H.(2015), Effect of genre on the generalizability of writing scores, Language Testing, 32(1), 83-100.
  • Bond, T. G., & Fox, C. M.(2001), Applying the Rasch Model: Fundamental measurement in the human sciences, Mahwah, NJ: Lawrence Erlbaum Associates Publishers.
  • Betts, E. A.(1946), Foundations of Reading Instruction, with Emphasis on Differentiated Guidance, Oxford, England: American Book Co.
  • Bejar, I. I. (2012). Rater cognition: Implications for validity. Educational Measurement: Issues And Practice, 31(3),2-9.
  • Beck, S. W. & Jeffery, J. V.(2007), Genres of high-stakes writing assessments and the construct of writing competence, Assessing Writing, 12(1), 60-79.
  • Barrett, S. (2001). The impact of training on rater variability.International Education Journal, 2, 49?58.
  • Barnes, L. L.(1990), Gender bias in teachers’ written comments. In S. L. Gabriel & I. Smithson(eds.), Gender in the Classroom: Power and Pedagogy(pp. 140-159), Chicago, IL: University of Illinois Press.
  • Baker, N. L.(2014), Get it off my stack: Teachers’ tools for grading papers, Assessing Writing, 19, 36-50.
  • Ashton, P. T. (1984). Teacher efficacy: A motivational paradigm for effective teacher education. Journal of Teacher Education. 35(5), 28-32.
  • Applebee, A. N.(1993), Literature in the Secondary School: Studies of Curriculum and Instruction in the United States, Urbana, IL: National Council of Teachers of English.
  • Anderson, J.(1990), Cognitive Psychology and its Implications, New York: Freeman.