인공지능 언어모델에 대한 규범적 연구 : 일반 대화형 챗봇에 대한 실증연구를 중심으로 = Normative study on AI language model

정종구 2022년
논문상세정보
' 인공지능 언어모델에 대한 규범적 연구 : 일반 대화형 챗봇에 대한 실증연구를 중심으로 = Normative study on AI language model' 의 주제별 논문영향력
논문영향력 선정 방법
논문영향력 요약
주제
  • 인공지능윤리
  • 개인정보보호
  • 공정성
  • 실증연구
  • 이루다
  • 인공지능 법정책
  • 인공지능 언어모델
  • 자연어처리
  • 책무성
  • 챗봇
  • 투명성
동일주제 총논문수 논문피인용 총횟수 주제별 논문영향력의 평균
2,438 0

0.0%

' 인공지능 언어모델에 대한 규범적 연구 : 일반 대화형 챗봇에 대한 실증연구를 중심으로 = Normative study on AI language model' 의 참고문헌

  • 화웨이, 중국판 GPT-3 개발‥ 현존 최대 파라미터 보유
    박혜섭 AI타임스 [2021]
  • 홈페이지에 공개된 개인정보와 인격권
    손형섭 미디어와 인격권, 제5권 제1호 [2019]
  • 혐오 표현의 판단 기준에 관한 비교법적 연구
    송현정 사법정책연구원 [2020]
  • 헌법재판소 2018. 4. 26. 선고 2017헌마711 결정
    [2018]
  • 헌법재판소 2017. 7. 27. 선고 2015헌마1094 결정
    [2017]
  • 헌법재판소 2017. 12. 28. 선고 2015헌마994 결정
    [2017]
  • 헌법재판소 2014. 8. 28. 선고 2011헌마28등 결정
    [2014]
  • 헌법재판소 2013. 10. 24. 선고 2011헌바106 결정
    [2013]
  • 헌법재판소 2012. 12. 27. 선고 2010헌마153 결정
    [2012]
  • 헌법재판소 2005. 7. 21. 선고 2003헌마282·425 결정
    [2005]
  • 헌법재판소 2005. 5. 26. 판시 99헌마513 결정
    [2005]
  • 헌법재판소 1995. 12. 28. 선고 91헌마114 결정
    [1995]
  • 헌법상 평등보장과 간접차별금지
    이재희 헌법재판연구원 헌법이론과실무 [2020]
  • 한국어 임베딩
    이기창 에이콘 [2019]
  • 한국-EU 개인정보보호 적정성 결정 최종 통과
    개인정보보호위원회 보도자료 [2021]
  • 하루 70만 네이버뉴스 댓글...한남 한녀 표현 청소하는 AI
    박민제 중앙일보 [2022]
  • 특허청, 인공지능이 만든 발명의 특허인정방안 논의 가속화
    특허청 보도자료 [2021]
  • 텍스트 및 데이터 마이닝을 목적으로 하는 타인의 저작물의 수집 이용과 저작재 산권의 제한
    박성호 인권과 정의 제494호 [2020]
  • 크롤링한 정보의 게재는 데이터베이스 제작자의 권리 침해
    조용식 법률신문 판례해설 [2017]
  • 크롤링 무죄 판결에 속타는 대형 플랫폼
    구민기 한국경제 [2022]
  • 추론개인정보의 법적 취급
    조상현 서울대 인공지능정책 이니셔티브 DAIG Magazine 제2호 [2021]
  • 챗봇 '이루다' 재출시 예고…AI 편향 개인정보 유출 없앴다
    김윤희 지디넷코리아 [2021]
  • 제3의 재산으로서 데이터의 체계적 정립
    오병철 정보법학 25.2 [2020]
  • 제2이루다 막자…AI윤리기준 서두르는 IT업계, 매일경제, 정유림, 카카오, AI 기반 댓글 분석 서비스 세이프봇 베타 돌입
    임영신 디지털투데이, 2020. 12. 17 [2021]
  • 정부의 보조금 수준이 전기차 시장 확대 및 전기차 업체의 성과에 미치는 영향
    김기훈 유은솔 한국경영과학회 경영과학 제36권 제2호 [2019]
  • 정부, 출입국 얼굴사진 1억7000만건 민간 업체에 제공 과기부 법적 근거에 따른 사업
    이유진 경향신문 [2021]
  • 전 여친 애칭 부르니 똑같은 말투
    박현익 이루다 개인정보 유출 논란?, 조선비즈 [2021]
  • 적법하게 공개된 개인정보의 보호와 활용
    오병철 경희법학, 제52권 제4호 [2017]
  • 저작권법상 인공지능 학습용 데이터셋의 보호와 쟁점
    차상육 경영법률 제32권 제1호 [2020]
  • 장신, 지능형 자율로봇에 대한 전자적 인격 부여 –EU 결의안을 중심으로 -
    김자회 주성구 법조, 제66권 제4호 [2017]
  • 일반적으로 접근 가능한 개인정보의 처리와 이익형량
    이동진 정보법학, 제24권 제2호 [2020]
  • 일반적으로 공개된 정보의 개인정보보호법 상의 규율 및 해외 입법례
    박경신 법학논총 제38권 제2호 [2018]
  • 일반에게 공개된 개인정보의 보호와 활용
    이권일 경북대학교 법학논고 [2020]
  • 인터넷 ‘댓글’의 텍스트유형학적 연구
    조국현 텍스트언어학 23, 한국텍스트언어학회 [2007]
  • 인공지능의 투명성과 설명가능성에 대한 법철학적 고찰
    박도현 인공지능 원론, 박영사 [2021]
  • 인공지능의 법적 지위에 관한 논의 - 전자인(간)과 관련하여 -
    김현희 장재옥 법학논문 집 제43집 제1호, 중앙대 법학연구원 [2019]
  • 인공지능에 의한 차별과 공정성 기준
    김병필 인공지능 윤리와 거버넌스 [2021]
  • 인공지능에 대한 인격 부여 필요성
    김성호 법학논총 제37집 제3호, 한양대 법학연구소 [2020]
  • 인공지능에 관한 법적 규율방안-인공지능 알고리즘과 빅데이터 의 법적 규율을 중심으로-
    임경숙 한양대학교 박사학위 논문 [2019]
  • 인공지능과 해악
    박도현 서울대학교 박사학위 논문 [2021]
  • 인공지능과 차별
    고학수 박도현 정해빈 한국법학원 저스티스 제171권 [2019]
  • 인공지능과 약관
    최경진 법률신문 연구논단 [2022]
  • 인공지능과 법인격 인정
    이성진 민사법의 이론과 실무 제23권 제3호, 민사법의 이론과 실무학회 [2020]
  • 인공지능, 왜 설명가능성인가?
    고학수 박도현 인공지능 원론, 박영사 [2021]
  • 인공지능, 법에게 미래를 묻다
    정상조 사회평론 [2021]
  • 인공지능(AI)의 민사법적 지위와 책임에 관한 소고
    이도국 법학논총 제 34집 제4호, 한 양대 법학연구소 [2017]
  • 인공지능(AI) 로봇의 법적 지위 고찰 - 인공 지능 로봇의 인격과 법적 책임 귀속 -
    양희철 서울대 대학원 법학석사 학위논문 [2020]
  • 인공지능 윤리의 두 가지 가치
    박도현 중앙대학교 법학논집 제45권 제1호 [2021]
  • 인공지능 원론
    고학수 박영사 [2021]
  • 인공지능 시대의 개인정보 보호법
    고학수 서울대 인공지능정책 이니셔티브 연구총 서 1, 박영사 [2022]
  • 인공지능 시대의 개인정보 개념에 대한 연구 ― 자연어 처리를 중심으로 ―
    정종구 한 양대학교 법학논총 제38권 제2권 [2021]
  • 인공지능 관련 저작권 침해 및 대응
    이규홍 에 대한 토론문, 한국경영법률학회 년 춘계학술대회, 2021 [2021]
  • 인공지능 관련 저작권 침해
    전응준 서울대학교 인공지능정책이니셔티브 DAIG [2021]
  • 인공지능 개발과 활용에 관한 인권 가이드라인 마련
    국가인권위원회 보도자료 [2022]
  • 인공지능 개발과 활용에 관한 인권 가이드라인
    국가인권위원회 [2022]
  • 이메일 대신 써주고, 게임 시나리오 만들고, 난해한 법률용어 풀어주고…
    윤형준 조선 일보 [2020]
  • 이루다, 데이터베이스 AI모델 모두 폐기
    송주상 아이티조선 [2021]
  • 이루다 이용자 85%가 10대…여성 혐오 학습하는 청소년들
    오경민 경향신문 [2021]
  • 이루다 성노예 만들기? ‘20살 AI 여성’ 온라인 성희롱 파장
    김현경 한국경제TV [2021]
  • 이루다 사태에…방통위, 연내 AI 윤리규범 실행지침 마련
    김진아 뉴시스 [2021]
  • 이루다 사건을 통해서 보는 개인정보의 인공지능 학습데이터 활용 가능 성
    고명석 전승재 한국정보법학회 정보법학 제25권 제2호 [2021]
  • 이루다 개발사, 실명 노출된 카톡 1700건 온라인에 공유했다
    김승준 손인해 뉴스1 [2021]
  • 이루다 개발사, 수집한 연인 카톡 돌려봐…사측 진상조사 중
    이효석 (종합), 연합뉴스 [2021]
  • 이루다 개발사 ㈜ 스캐터랩에 과징금 과태료 등 제재 처 분
    개인정보보호위원회 보도자료 [2021]
  • 욕 안해도 악플 다 알아요. 네이버 클린봇 2.0, 조선일보, 한민구, 참여연대, 인권위에 이루다 조사 진정
    최인준 서울경제, 2021. 2. 3 [2020]
  • 온라인 신문 댓글의 내용분석 : 댓글의 유형과 댓글 게시자의 성향, 커뮤니케이 션 연구 15-2
    조수선 한국커뮤니케이션학회 [2007]
  • 엘엘씨, 어텐션-기반의 시퀀스 변환 신경망
    구글 국내 특허등록번호 10 [2180]
  • 악성 댓글의 사용 실태와 개선 방안 연구
    구현정 서은아 한말연구 제30호 [2012]
  • 써본 이들이 먼저 사람 같다 칭찬하는 챗봇 이루다
    김민선 지디넷코리아 [2021]
  • 승차공유 플랫폼에 관한 법제도적 논의
    이준복 조선대학교 법학논총, 제27권 제1호 [2020]
  • 설명가능성을 넘어: 신뢰할 수 있는 인공지능을 위한 과제
    고학수 인공지능 원론, 박 영사 [2021]
  • 서울중앙지방법원 2021. 8. 19. 선고 2018가합508729 판결
    [2021]
  • 서울중앙지방법원 2021. 1. 13. 선고 2020노611 판결
    [2021]
  • 서울중앙지방법원 2020. 2. 11. 선고 2019고단1777 판결
    [2020]
  • 서울중앙지방법원 2017. 9. 11. 선고 2014가합508066 판결
    [2017]
  • 서울중앙지방법원 2016. 2. 17. 선고 2015가합517982 판결
    [2016]
  • 서울중앙지방법원 2016. 12. 15. 선고 2016고합538·558(병합) 판결
    [2016]
  • 서울중앙지방법원 2014. 9. 11. 선고 2013고합577 판결
    [2014]
  • 서울중앙지방법원 2011. 2. 23. 선고 2010고단5343 판결
    [2011]
  • 서울중앙지방법원 2007. 2. 8. 선고 2006가합33062·53332(병합) 판결
    [2007]
  • 서울서부지방법원 2019. 2. 14. 선고 2018노556 판결
    [2019]
  • 서울고등법원 2017. 4. 6. 선고 2016나2019365 판결
    [2017]
  • 사상의 자유시장이론 전개의 법적 고찰
    이춘구 국가법연구 제10집 제1호 [2014]
  • 사법부에서의 인공지능(AI) 활용 방안
    고학수 법원행정처 [2020]
  • 빅데이터의 지적재산법상 보호
    차상육 법조 67(2) [2018]
  • 보건의료 데이터 활용 가이드라인
    개인정보보호위원회/보건복지부 [2021]
  • 법적 관점에서 바라본 설명가능성: GDPR의 정보제공의무를 중심으로
    이선구 인공지 능 원론, 박영사 [2021]
  • 법경제학 재개정판
    박세일 박영사 [2019]
  • 미국 헌법상 정보 프라이버시권
    최희경 이화여자대학교 법학논집 제19권 제2호 [2014]
  • 목적합치의 원칙과 가명정보의 특례
    이동진 법률신문 연구논단 [2020]
  • 메타버스 공간에서 상거래행위에 대한 고찰
    최우령 법학논고 75집 [2021]
  • 디지털제품에 대한 업데이트 제공의무 - 유럽연합 디지털지침의 구현을 위한 독 일 민법개정안과 우리 법에의 시사점 -
    김진우 소비자연구 7(2) [2021]
  • 데이터세트에 대한 배타적 보호
    이상용 대한변호사협회, 인권과 정의, 제503호 [2022]
  • 데이터세트 보호 법제에 관한 연구
    이상용 고려대학교 박사학위 논문 [2022]
  • 데이터거래의 법적 쟁점 및 데이터거래 가이드라인
    이동진 서울대학교인공지능정책이니 셔티브 이슈페이퍼 [2020]
  • 데이터 물권법 시론(試論) - 암호화폐를 비롯한 유체물-동등 데이터를 중심으로 -
    백대열 민사법학 90 [2020]
  • 대전지방법원 논산지원 2013. 8. 9. 선고 2013고단17 판결
    [2013]
  • 대법원 2020. 2. 13. 선고 2019도12194 판결
    [2020]
  • 대법원 2019. 2. 28. 선고 2016다271608 판결
    [2019]
  • 대법원 2019. 11. 28. 선고 2017다14895 판결
    [2019]
  • 대법원 2016. 8. 17. 선고 2014다235080 판결
    [2016]
  • 대법원 2016. 3. 10. 선고 2012다105482 판결
    [2016]
  • 대법원 2013. 9. 26. 선고 2011도1435 판결
    [2013]
  • 대법원 2013. 12. 12. 선고 2011도9538 판결
    [2013]
  • 대법원 2003. 5. 16. 선고 2001후3149 판결
    [2003]
  • 대법원 1998. 7. 24. 96다42789 판결
    [1998]
  • 대규모 언어모형 인공지능의 법적 쟁점
    김병필 정보법학 제26권 제1호 [2022]
  • 다크 패턴(눈속임 설계) 실태조사
    국은숙 한국소비자원 KCA보고서 [2021]
  • 네이버이어 SK텔레콤도 개발 뛰어든 한국어판 GPT-3가 뭐길래
    송화연 뉴스1 [2021]
  • 기술혁신의 기원
    정상조 서울대학교출판문화원 [2021]
  • 금융분야 인공지능 활성화를 위한 가이드라인 등 마련
    고학수 금융위원회 [2021]
  • 귀에 익은 AI 말투, 알고보니 카톡 도용
  • 국가인권위원회 2021. 7. 30.자 21진정0065000 결정
    [2021]
  • 국가인권위원회 2019. 2. 21. 결정 18진정0845100
    [2019]
  • 국가인권위원회 2018. 8. 29. 결정 18진정0481400
    [2018]
  • 국가인권위원회 2018. 12. 27. 의결 제도개선 권고
    [2018]
  • 국가인권위원회 2017. 6. 28. 결정 16진정0585300
    [2017]
  • 국가인권위원회 2016. 12. 27. 결정 16진정0373700
    [2016]
  • 공작물책임의 경제적 분석
    윤진수 민법의 경제적 분석, 서울법대 법학총서 9, 박영 사 [2021]
  • 공론장의 이론적 진화: 다원적 민주주의에 대한 함의
    박홍원 언론과 사회 제20권 제4 호 [2012]
  • 공개된 인물정보에 대한 정보주체의 동의 없는 영업적 활용
    형찬 홍익법학 제17권 제4 호 [2016]
  • 공개된 사진, 성명, 성별, 출생연도, 직업, 직장, 학력, 경력 등을 동의 없이 수집 제공한 행위에 대한 책임
    김민중 동북아법연구 제10권 제2호 [2016]
  • 공개된 개인정보의 영업적 활용
    곽정민 행정법과 법치주의 월례발표회, 제19권 [2017]
  • 공개된 개인정보의 동의 없는 수집 이용의 범위 : 명문 규정의 수정 해석 가능성 과 이익형량시 고려요소를 중심으로
    임효준 경제규제와 법 제11권 제1호 [2018]
  • 공개된 개인정보 처리의 위법성
    함인선 행정법판례연구, 제22권 제2호 [2017]
  • 개인정보자기결정권의 민사법적 보호
    이소은, 서울대학교 법학박사 논문 [2018]
  • 개인정보자기결정권과 잊혀진 헌법재판소 결정들을 위한 변명
    채성희 정보법학 제20권 제3호 [2016]
  • 개인정보자기결정권과 공개된 개인정보의 영리목적 활용
    김판기 법과 정책연구, 제19권 제1호 [2019]
  • 개인정보보호위원회, (조간) 개인정보위
    이루다 개발사 ㈜ 스캐터랩에 과징금 과 태료 등 제재 처분(조사2과), 2021. 4. 28 [2104]
  • 개인정보 유출 논란 이루다 개발사, 2억원대 손배소 당해
    박현익 조선비즈 [2021]
  • 개인정보 보호법의 주요 개정 내용과 그에 대한 평가 - 개인정보 처리의 정당화 사유를 중심으로 -
    이소은 이소은 이화여자대학교 법학논집, 24(3) [2020]
  • 개인정보 보호 판례집
    개인정보보호위원회 [2022]
  • 개인정보 보호 법제에 관한 국내외 논의의 전개와 주요 쟁점
    고학수 BFL 제66호 [2014]
  • 개인정보 보호 법령 및 지침 고시 해설
    개인정보보호위원회 [2021]
  • 法人論
    송호영 신론사 [2015]
  • 「데이터 거래의 법적 기초」
    이상용 법조 67(2) [2018]
  • “데이터 귀속 보호 거래에 관한 법리 체계와 방향”
    권영준 비교사법 28(1) [2021]
  • [판결] 웹사이트 무단 크롤링 소송... 잡코리아, 사람인에 승소
    신지민 법률신문 [2016]
  • Younghoon Jeong/Juhyun Oh/Jaimeen Ahn/Jongwon Lee/Jihyung Mon/Sungjoon Park/Alice Oh, "KOLD: Korean Offensive Language Dataset", arXiv:2205.11315, (May 2022).
    [2022]
  • Youjin Kong, Intersectional Fairness in AI? A Critical Analysis, Feminism, Social Justice, and AI, (2021).
    [2021]
  • Yolande Strengers et al., Adhering, Steering, and Queering: Treatment of Gender in Natural Language Generation, In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, (2020).
    [2020]
  • Yolanda A. Rankin et al., Straighten Up and Fly Right: Rethinking Intersectionality in HCI Research, (2019).
    [2019]
  • Y. T. Cao et al., Toward Gender-Inclusive Coreference Resolution, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, (2020).
    [2020]
  • Y. Liao et al., Racial mirroring effects on human-agent interaction in psychotherapeutic conversations, In Proceedings of the 25th International Conference on Intelligent User Interfaces, IUI ’20, pages 430–442, Cagliari, Italy, (March 2020).
    [2020]
  • Y. Kim et al., Anthropomorphism of computers: Is it mindful or mindless?, Computers in Human Behavior, 28(1):241–250, (2012).
    [2012]
  • XAI 설명 가능한 인공지능, 인공지능을 해부하다.
    안재현 위키북스 [2020]
  • William Prosser, Privacy, 48 Cal. L. Rev. 383 (1960).
    [1960]
  • William Dieterich et al., COMPAS Risk Scales: Demonstrating Accuracy Equity and Predictive Parity, Northpointe, (2016).
    [2016]
  • Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation
  • Weizenbaum/Joseph, Computer Power and Human Reason: From Judgment to Calculation, (1976).
    [1976]
  • Wachter, Sandra et al., Why Fairness Cannot Be Automated: Bridging the Gap Between EU Non-Discrimination Law and AI, Computer Law & Security Review 41 (2021).
  • W. Youyou et al., Computer-based personality judgments are more accurate than those made by humans, Proceedings of the National Academy of Sciences, 112(4):1036–1040, (January 2015.).
    [2015]
  • W. Fedus et al., Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity, arXiv:2101.03961 [cs], (January 2021).
    [2021]
  • Viljoen, Salome, A Relational Theory of Data Governance (November 11, 2020), Yale Law Journal.
  • Vaswani et al., Attention is all you need, (2017).
    [2017]
  • United States v. Carroll Towing Co. (159 F.2d 169.)
  • UNESCO, I'd blush if I could: closing gender divides in digital skills through education, 2019
    [2019]
  • Toxic Comment Tools : A Case Study
    Pooja Parekh . Volume 8 , No . 5 , May-June [2017]
  • Tom Taulli, Artificial Intelligence Basics: A Non-Technical Introduction (Ascent Audio, 2021)
  • Tolga Bolukbasi et al., Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings, (Octorber 2 8, 2020).
  • Thiago Dias Oliva et al., Fighting hate speech, silencing drag queens? Artificial intelligence in content moderation and risks to LGBTQ voices online, Sexuality & Culture 25, 2 (2021).
  • The Racial Formation of Chatbots
    M. Marino 16 ( 5 ) [2014]
  • The Medical Futurist, The Top 12 Health Chatbots, (2021. 8. 31.)
  • Talia B Gillis et al., Big data and discrimination, The University of Chicago Law Review 86, 2 (2019)
    [2019]
  • T. W. Bynum, Artificial intelligence, biology, and intentional states in computers and ethics, Metaphilosophy, vol. 16, no. 4, pp. 355–377, (1985).
    [1985]
  • T. W. Bickmore et al., Patient and Consumer Safety Risks When Using Conversational Assistants for Medical Information: An Observational Study of Siri, Alexa, and Google Assistant, Journal of Medical Internet Research, 20(9):e11510, (September 2018.).
  • T. B. Brown, B. Mann et al., Language Models are Few-Shot Learners, arXiv:2005.14165 [cs], (July 2020.).
    [2020]
  • Séverine Dusollier, The 2019 Directive on Copyright in the Digital Single Market: Some progress, a few bad choices, and an overall failed ambition, Common Market Law Review, Kluwer Law International, 2020, 57 (4).
    [2020]
  • Sungkyu Park, The presence of unexpected biases in online fact-checking, Misinformation Review, (JANUARY 27, 2021).
  • Sungjoon Part et al., KLUE: Korean Language Understanding Evaluation, (2021).
    [2021]
  • Su Lin Blodgett et al., Racial Disparity in Natural Language Processing: A Case Study of Social Media African-American English, In Fairness, Accountability, and Transparency in Machine Learning (FAT/ML) Workshop, (2017).
    [2017]
  • Su Lin Blodgett et al., Language (Technology) is Power: A Critical Survey of Bias in NLP, In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Association for Computational Linguistics, (2020).
    [2020]
  • Stuart Russell/Peter Norvig, Artificial Intelligence: A Modern Approach(4th edition, 2020)
    [2020]
  • Stereotype threat
  • Stephen Hawking et al., Stephen Hawking: Transcendence looks at the implications of artificial intelligence - but are we taking AI seriously enough?, Independent, (2014. 5. 1.).
    [2014]
  • Stanford Univ CRFM, On the Opportunities and Risks of Foundation Models, (18 Aug 2021).
  • Stanford HAI, Artificial Intelligence Index Report 2022 (2022).
    [2022]
  • Solon Barocas/Moritz Hardt/Arvind Narayanan, FAIRNESS AND MACHINE LEARNING, June 16, 2021.
  • Solon Barocas et al., The Problem With Bias: Allocative Versus Representational Harms in Machine Learning, (2017).
    [2017]
  • Sobel, Benjamin, Artificial Intelligence's Fair Use Crisis, Columbia Journal of Law & the Arts, Forthcoming, (September 4, 2017).
  • Siddhant Garg et al., Bert-based adversarial examples for text classification, arXiv preprint arXiv:2004.01970 (2020).
    [2020]
  • Shavell, Steven et al., Rewards versus Intellectual Property Rights. The Journal of Law & Economics, vol. 44, no. 2, 2001, pp. 525–47, https://doi.org/10.1086/322811. (Apr. 2022).
  • Semantics derived automatically from language corpora contain human-like biases
    Aylin Caliskan . 356 , 6334 [2017]
  • Sarah Kreps, et al., All the News That’s Fit to Fabricate: AI-Generated Text as a Tool of Media Misinformation, (2020).
    [2020]
  • Sandra Wachter et al., A Right to Reasonable Inferences: Re-thinking Data Protection Law in the Age of Big Data and AI, OXFORD LAW BLOG, (2018).
    [2018]
  • Samuel Warren&Louis Brandeis, The Right to Privacy, 4 Harv. L. Rev. 193 (1890).
    [1890]
  • Samuel Gehman et al., RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language Models, (2020).
    [2020]
  • S. Zdenek, Just Roll Your Mouse Over Me: Designing Virtual Women for Customer Service on the Web, Technical Communication Quarterly, 16(4):397 –430, (August 2007.).
    [2007]
  • S. L. Blodgett et al., Racial Disparity in Natural Language Processing: A Case Study of Social Media African-American English, arXiv:1707.00061 [cs], (June 2017.).
    [2017]
  • S. L. Blodgett et al., Language (Technology) is Power: A Critical Survey of Bias in NLP, arXiv:2005.14050 [cs], (May 2020).
    [2020]
  • S. L. Blodgett et al., Demographic Dialectal Variation in Social Media: A Case Study of African-American English, In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pages 1119–1130, Austin, Texas, (November 2016).
    [2016]
  • S. Ghaffary, The algorithms that detect hate speech online are biased against black people, Vox, (August 2019).
    [2019]
  • S. Cave et al., The Whiteness of AI, Philosophy & Technology, 33(4):685–703, (December 2020).
    [2020]
  • Ryan Calo, Robotics and the Lessons of Cyberlaw, 103 Calif. L. Rev. 513 (2015).
    [2015]
  • Racial disparities in automated speech recognition
    Allison Koenecke . 117 , 14 ( [2020]
  • R. Schwartz et al., Green AI, Communications of the ACM, 63(12):54–63, (November 2020).
    [2020]
  • R. Dale, GPT-3: What’s it good for?, Natural Language Engineering, 27(1):113– 118, (January 2021).
    [2021]
  • R. Andersen, The Panopticon Is Already Here, The Atlantic, (July 2020.)
    [2020]
  • PwC EU Services, Architecture for public service chatbots, (2019).
    [2019]
  • Psychology can not afford to ignore the many harms caused by microaggressions
    Monnica T. Williams 15 , 1 ( [2020]
  • Predicting political preference of Twitter users
    A. Makazhanov . 4 ( 1 ) :193 [2014]
  • Predicting age groups of Twitter users based on language and metadata features
    A . A. Morgan-Lopez . 12 ( 8 ) : e0183537 [2017]
  • Prateek Joshi, How do Transformers Work in NLP? A Guide to the Latest State-of-the-Art Models (2019).
    [2019]
  • Pavesich v. New Eng. Life Ins. Co., 122, Ga. 190, 50 S.E. 68, 78 (1905) (2d. ed., 1888). citing Thomas Cooley, Torts 29 (2d. ed., 1888). Griswold v. Connecticut, 381 U.S., at 484.
  • P. Oosterhoff, Online censors are a barrier to sex education, (2016).
    [2016]
  • P. Joshi et al., The State and Fate of Linguistic Diversity and Inclusion in the NLP World, arXiv:2004.09095 [cs], (January 2021).
    [2021]
  • P. Joshi et al., The State and Fate of Linguistic Diversity and Inclusion in the NLP World, arXiv:2004.09095
  • Open AI (GTP-1), Improving Language Understanding by Generative Pre-Training, (2018).
    [2018]
  • Open AI (GPT-2), Language Models are Unsupervised Multitask Learners, (2019).
    [2019]
  • Omer Tene, LinkedIn v. HiQ and the trans-Atlantic privacy divide, iapp, (Apr 22, 2022).
  • Olga Russakovsky, Towards Intersectionality in Machine Learning: Including More Identities, Handling Underrepresentation, and Performing Evaluation, ACM Conference on Fairness, Accountability, and Transparency (FAccT), (2022).
    [2022]
  • OECD, OECD Guidelines on the Protection of Privacy and Transborder Flows of Personal Data, (1980).
    [1980]
  • O. Keyes, The Misgendering Machines: Trans/HCI Implications of Automatic Gender Recognition, Proceedings of the ACM on Human-Computer Interaction, 2(CSCW):88:1–88:22, (November 2018).
    [2018]
  • Nithya Sambasivan et al., Everyone wants to do the model work, not the data work: Data Cascades in High-Stakes AI, CHI '21: Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems, 1-15. (May 2021).
    [2021]
  • Nenad Tomasev et al., Fairness for Unobserved Characteristics: Insights from Technological Impacts on Queer Communities, (2021).
    [2021]
  • Negligence and AI ’ s human users
    Andrew D Selbst 100 ( [2020]
  • NFT 아트와 저작권 이슈
    김병일 KISO JOURNAL Vol. 44 기획동향
  • NAVER-SAPI, AI REPORT
    네이버/서울대학교인공지능정책이니셔티브 [2021]
  • N. Sambasivan et al., Re-imagining Algorithmic Fairness in India and Beyond, In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, FAccT ’21, pages 315–328, Virtual Event, Canada, (March 2021).
    [2021]
  • N. Mehrabi et al., A Survey on Bias and Fairness in Machine Learning. arXiv:1908.09635 [cs], (September 2019.).
  • Mühlhoff, Rainer, Predictive Privacy: Towards an Applied Ethics of Data Analytics (August 8, 2020). Ethics and Information Technology
  • Mona Sloane, Policy Recommendations -- 'A Right to Reasonable Inferences: Re-thinking Data Protection Law in the Age of Big Data and AI', European AI Alliance Futurium, (2018).
    [2018]
  • Moin Nadeem et al., StereoSet: Measuring stereotypical bias in pretrained language models, (2021).
    [2021]
  • Michael L. Littman et al,, Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report, Stanford University, Stanford, CA, (September 2021).
  • Meeyoung Cha et al., Prevalence of Misinformation and Factchecks on the COVID-19 Pandemic in 35 Countries: Observational Infodemiology Study, JMIR, Vol 8, No 1 (2021).
  • Meaningful information and the right to explanation
    Andrew D Selbst , Julia Powles Volume 7 , Issue 4 [2017]
  • Matt Turek, Machine Common Sense (MCS), DARPA, (2018).
    [2018]
  • Mark A Lemley et al., Remedies for robots, The University of Chicago Law Review 86, 5 (2019).
    [2019]
  • M. West et al., I’d blush if I could : closing gender divides in digital skills through education, Technical report, UNESCO, (2019).
    [2019]
  • M. Webb, The Impact of Artificial Intelligence on the Labor Market, SSRN Scholarly Paper ID 3482150, Social Science Research Network, Rochester, NY, (November 2019).
    [2019]
  • M. Sap et al., The Risk of Racial Bias in Hate Speech Detection, In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 1668–1678, Florence, Italy, (July 2019).
    [2019]
  • M. R. Hasan et al., Excessive use of online video streaming services: Impact of recommender system use, psychological factors, and motives, Computers in Human Behavior, 80:220–228, (March 2018).
    [2018]
  • M. Lewis et al., Gender stereotypes are reflected in the distributional structure of 25 languages, Nature Human Behaviour, 4(10):1021–1028, (October 2020).
    [2020]
  • M. Kosinski et al., Private traits and attributes are predictable from digital records of human behavior, Proceedings of the National Academy of Sciences, 110(15):5802–5805, (April 2013).
    [2013]
  • Luke Breitfeller et al., Finding Microaggressions in the Wild: A Case for Locating Elusive Phenomena in Social Media Posts, (2019).
    [2019]
  • Luca Bertuzzi, AI regulation filled with thousands of amendments in the European Parliament, EURACTIV, (June 2, 2022).
  • Londa Schiebinger, Machine Translation: Analyzing Gender, (2013).
    [2013]
  • Liwei Jiang, Towards Machine Ethics and Norms, medium, (2021. 11. 4.)
  • Linnet Taylor/Luciano Floridi/Bart van der Sloot, Group Privacy, Springer, (2017).
    [2017]
  • Li Zhou at al, The Design and Implementation of Xiaoice, an Empathetic Social Chatbot, 2019.
    [2019]
  • Li Deng et al., Deep Learning in Natural Language Processing, Springer, (2018).
    [2018]
  • Laura Weidinger et al., Ethical and social risks of harm from Language Models, DeepMind, (2021).
    [2021]
  • Latent bias and the implementation of artificial intelligence in medicine
    Matthew DeCamp . 27 , 12 ( [2020]
  • Lanah Kammourieh et al, Group privacy in the age of big data, Data-Pop Alliance, (Octorber 24, 2015).
  • LG 초거대 AI 엑사원 등장...언어와 이미지, 한국어와 영어 같이 다뤄
    박성은 AI타임 스 [2021]
  • L. M. Hampton, Black Feminist Musings on Algorithmic Oppression, Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, pages 1–1, (March 2021.)
    [2021]
  • L. Hancox-Li et al., Epistemic values in feature importance methods: Lessons from feminist epistemology. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, FAccT ’21, pages 817–826, Virtual Event, Canada, (March 2021).
    [2021]
  • L. H. Hanu et al., How AI Is Learning to Identify Toxic Online Content, Scientific American, (2021).
  • L. Dixon et al., Measuring and Mitigating Unintended Bias in Text Classification, In Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society, AIES ’18, pages 67–73, New Orleans, LA, USA, (December 2018).
    [2018]
  • Kathleen Creel et al., The Algorithmic Leviathan: Arbitrariness, Fairness, and Opportunity in Algorithmic Decision Making Systems, In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (Virtual Event, Canada) (FAccT ’21)
  • Kate Crawford/Trevor Paglen, "Excavating AI", excavating.ai, (2019).
    [2019]
  • Karandeep Singh et al., Misinformation, believability, and vaccine acceptance over 40 countries: Takeaways from the initial phase of the COVID-19 infodemic, PLOS ONE, (February 9, 2022).
  • Kaminski, Margot E., The Right to Explanation, Explained (June 15, 2018). U of Colorado Law Legal Studies Research Paper No. 18-24, Berkeley Technology Law Journal, Vol. 34, No. 1, 2019.
  • Kaitlyn Zhou et al., Frequency-based Distortions in Contextualized Word Embeddings, (2021).
    [2021]
  • KT, 초거대 AI 기반 서비스 공개…KT AI 2.0
    김동명 아이티조선 [2022]
  • K. Quach, Researchers made an OpenAI GPT-3 medical chatbot as an experiment. It told a mock patient to kill themselves, The Register, (October 2020.).
    [2020]
  • K. McKee et al., Understanding Human Impressions of Artificial Intelligence, PsyArxiv, (2021).
  • K. H. Kwon et al., Unspeaking on Facebook? Testing network effects on selfcensorship of political expressions in social network sites, Quality & Quantity, 49(4):1417–1435, (July 2015).
    [2015]
  • Julien Lauret, Amazon’s sexist AI recruiting tool: how did it go so wrong?, medium, (Aug 16, 2019).
  • Julian Risch et al., Toxic Comment Detection in Online Discussions, Deep Learning-Based Approaches for Sentiment Analysis, (25 January 2020).
  • Julia Angwin et al., Machine Bias, ProPublica (May 23, 2016).
  • Joy Buolamwini et al., Gender shades: Intersectional accuracy disparities in commercial gender classification, In Conference on Fairness, Accountability and Transparency, (2018).
    [2018]
  • Jon Kleinberg/Sendhil Mullainathan/Manish Raghavan, Inherent Trade-Offs in the Fair Determination of Risk Scores, (2016).
    [2016]
  • Jon Kleinberg et al., Algorithmic monoculture and social welfare, Proceedings of the National Academy of Sciences 118, 22 (2021).
  • John Hewitt et al., On the Opportunities and Risks of Foundation Models, Center for Research on Foundation Models (CRFM), (2021).
    [2021]
  • Jigsaw, Unintended Bias and Identity Terms, (October 2021).
    [2021]
  • Jiang, L. et al., Delphi: Towards Machine Ethics and Norms, (2021), ArXiv, abs/2110.07574.
    [2021]
  • Jeff Larson et al., How We Analyzed the COMPAS Recidivism Algorithm, Pro Publica, (May 23, 2016)
  • James Foulds et al., Bayesian Modeling of Intersectional Fairness: The Variance of Bias, (2020).
    [2020]
  • Jaimeen Ahn/Hwaran Lee/Jinhwa Kim/Alice Oh, "Why Knowledge Distillation Amplifies Gender Bias and How to Mitigate from the Perspective of DistilBERT", Proceedings of the 4th Workshop on Gender Bias in Natural Language Processing (GeBNLP), (July 2022)
    [2022]
  • Jaimeen Ahn/Alice Oh, "Mitigating Language-Dependent Ethnic Bias in BERT", arXiv:2109.05704, (Sep 2021)
  • J. Złotowski et al., Anthropomorphism: Opportunities and Challenges in Human –Robot Interaction, International Journal of Social Robotics, 7(3):347–360, (June 2015).
    [2015]
  • J. Zhao et al., Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints, arXiv:1707.09457 [cs, stat], (July 2017).
    [2017]
  • J. Y. Kim et al., Intersectional Bias in Hate Speech and Abusive Language Datasets, arXiv:2005.05921 [cs], (May 2020.).
    [2020]
  • J. Welbl et al., Challenges in Detoxifying Language Models, arXiv:2109.07445 [cs], (September 2021).
  • J. Menasce Horowitz et al., Trends in U.S. income and wealth inequality, Technical report, Pew Research Center, (January 2020).
    [2020]
  • J. Lambert et al., How Robots Change the World - What automation really means for jobs, productivity and regions, Technical report, Oxford Economics, (2019).
    [2019]
  • J. Borenstein et al., AI Ethics: A Long History and a Recent Burst of Attention, in Computer, vol. 54, no. 01, pp. 96-102, (2021).
  • J. Angwin et al., Machine Bias. ProPublica, (May 2016).
    [2016]
  • Information Privacy in Cyberspace Transactions
    Kang , J. Vol.50 [1998]
  • Ian Goodfellow/Yoshua Bengio/Aaron Courville, Deep Learning (MIT Press, 2016).
    [2016]
  • IP Watchdog, DABUS Gets Its First Patent in South Africa Under Formalities Examination, (2021. 7. 29.).
  • IEEE 7000 (Model Process for Addressing Ethical Concerns During System Design), 09/15/2021.
  • I. Gabriel et al., The Challenge of Value Alignment: from Fairer Algorithms to AI Safety, arXiv:2101.06060 [cs], (January 2021).
    [2021]
  • Harry Surden, Artificial Intelligence and Law: An Overview, Georgia State University Law Review, 35(2019).
    [2019]
  • Haoran Zhang et al., Hurtful words: quantifying biases in clinical contextual word embeddings, (2020).
    [2020]
  • Hans P. Moravec, Mind Children: The Future of Robot and Human Intelligence, (January 2, 1990).
  • H. Bergen. I’d Blush if I Could: Digital Assistants, Disembodied Cyborgs and the Problem of Gender, Word and Text, A Journal of Literary Studies and Linguistics, VI(01):95–113, (2016).
    [2016]
  • Google (BERT), Pre-Traing of Deep Bidirectional Transformer for Language Understanding, (2018).
    [2018]
  • G. Park et al., Automatic personality assessment through social media language, Journal of Personality and Social Psychology, 108(6):934–952, (June 2015).
    [2015]
  • G. I. Winata et al., Language Models are Few-shot Multilingual Learners, arXiv:2109.07684 [cs], (September 2021).
  • G. Hwang, et al., It Sounds Like A Woman: Exploring Gender Stereotypes in South Korean Voice Assistants, In Extended Abstracts of the 2019 CHI Conference on Human Factors in Computing Systems, CHI EA ’19, pages 1–6, Glasgow, Scotland Uk, (May 2019).
    [2019]
  • G. Branwen. GPT-3 Creative Fiction, (June 2020.).
    [2020]
  • Floridi, Luciano, Group Privacy - A Defense and an Interpretation (June 17, 2017).
  • Floridi, L., Open Data, Data Protection, and Group Privacy, Philos. Technol. 27, 1–3 (2014)
    [2014]
  • Finale Doshi-Velez et al., Towards a rigorous science of interpretable machine learning, arXiv preprint arXiv:1702.08608 (2017).
    [2017]
  • FEDERAL COURT OF AUSTRALIA, Thaler v Commissioner of Patents [2021] FCA 879, (30 July 2021).
  • F. Jaumotte et al., Rising Income Inequality: Technology, or Trade and Financial Globalization?, IMF Economic Review, 61(2):271–309, (June 2013).
    [2013]
  • Eric Wu et al., How medical AI devices are evaluated: limitations and recommendations from an analysis of FDA approvals, Nature Medicine 27, 4 (2021).
  • Emily Sheng et al., The Woman Worked as a Babysitter: On Biases in Language Generation, In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), Association for Computational Linguistics, Hong Kong, China, (2019).
    [2019]
  • Emily Dinan et al., Anticipating Safety Issues in E2E Conversational AI: Framework and Tooling, (2021).
    [2021]
  • Elizabeth Clark et al., All That’s ’Human’ Is Not Gold: Evaluating Human Evaluation of Generated Text, (2021).
    [2021]
  • Ein Beitrag von Joanna Prisco, Amazon Shuts Down AI Hiring Tool for Being Sexist, Global Citizen, (12 Octorber 2018).
  • Edwards, Lilian and Veale, Michael, Slave to the algorithm? Why a 'right to an explanation' is probably not the remedy you are looking for, (2017). Duke Law and Technology Review, 16 (1). pp. 1-65. ISSN 2328-9600.
    [2017]
  • Eduard Fosch Villaronga et al., Humans forget, machines remember: Artificial intelligence and the right to be forgotten, Computer Law & Security Review 34, 2 (2018), 304–313.
    [2018]
  • EU, Directive 95 / 46 /EC on the Protection of Individuals with Regard to the Processing of Personal Data and on the Free Movement of such Data’
  • EU AI 법안이 주는 시사점
    김병필 법제 동향, KISO 저널 제44호 [2021]
  • E. Strubell et al., Energy and Policy Considerations for Deep Learning in NLP, arXiv:1906.02243 [cs], (June 2019.).
    [2019]
  • E. M. Bender et al., On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, FAccT ’21, pages 610–623, Virtual Event, Canada, (March 2021).
    [2021]
  • E. M. Bender et al., Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data, In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, p 5185–5198, Online, (July 2020).
    [2020]
  • E. Dinan, et al., Anticipating Safety Issues in E2E Conversational AI: Framework and Tooling, arXiv:2107.03451 [cs], (July 2021.).
    [2021]
  • E. Colleoni et al., Echo Chamber or Public Sphere? Predicting Political Orientation and Measuring Political Homophily in Twitter Using Big Data, Journal of Communication, 64(2):317–332, (April 2014).
    [2014]
  • E. Bender, The #BenderRule: On Naming the Languages We Study and Why It Matters, The Gradient, (September 2019).
  • Doshi-Velez, Finale, and Mason Kortz, Accountability of AI Under the Law: The Role of Explanation, Berkman Klein Center Working Group on Explanation and the Law, Berkman Klein Center for Internet & Society working paper (2017).
    [2017]
  • Di Jin et al., Is bert really robust? a strong baseline for natural language attack on text classification and entailment, In Proceedings of the AAAI conference on artificial intelligence, Vol. 34, (2020), 8018–8025.
    [2020]
  • Debora Nozza et al., HONEST: Measuring Hurtful Sentence Completion in Language Models, In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Association for Computational Linguistics, Online, (2021).
    [2021]
  • David Jurgens et al., A Just and Comprehensive Strategy for Using NLP to Address Online Abuse, (2019).
    [2019]
  • Daniel C Elton, Self-explaining AI as an alternative to interpretable AI, In International Conference on Artificial General Intelligence. Springer, (2020).
    [2020]
  • Daniel Adiwardana et al, Towards a Human-like Open-Domain Chatbot, arXiv:2001.09977 [cs.CL] (2020).
    [2020]
  • D. Sravani, L. Kameswari et al., Political Discourse Analysis: A Case Study of Code Mixing and Code Switching in Political Speeches, In Proceedings of the Fifth Workshop on Computational Approaches to Linguistic Code-Switching, pages 1–5, Online, (June 2021).
    [2021]
  • D. Quercia et al., Our Twitter Profiles, Our Selves: Predicting Personality with Twitter, In 2011 IEEE Third International Conference on Privacy, Security, Risk and Trust and 2011 IEEE Third International Conference on Social Computing, pages 180–185, (October 2011).
    [2011]
  • D. Preoţiuc-Pietro et al., Beyond Binary Labels: Political Ideology Prediction of Twitter Users, In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), p 729–740, Vancouver, Canada, (2017).
    [2017]
  • D. Patterson, et al., Carbon Emissions and Large Neural Network Training?, arXiv:2104.10350 [cs], (April 2021).
    [2021]
  • D. Nguyen et al., How Old Do You Think I Am?, A Study of Language and Age in Twitter, Proceedings of the International AAAI Conference on Web and Social Media, 7(1):439–448, (2013).
    [2013]
  • D. Mytton, Data centre water consumption, NPJ Clean Water, 4(1):1–6, (February 2021).
    [2021]
  • D. Hovy et al., The Social Impact of Natural Language Processing, In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), p 591–598, Berlin, Germany, (August 2016).
    [2016]
  • D. Hovy et al., The Importance of Modeling Social Factors of Language: Theory and Practice, In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 588–602, Online, (June 2021).
    [2021]
  • D. Hendrycks et al., Aligning AI With Shared Human Values, arXiv:2008.02275 [cs], (July 2021).
    [2021]
  • D. F. Mujtaba et al., Ethical Considerations in AI-Based Recruitment, In 2019 IEEE International Symposium on Technology and Society (ISTAS), pages 1–7, (November 2019).
    [2019]
  • D. Acemoglu et al., Artificial Intelligence, Automation and Work, Working Paper 24196, National Bureau of Economic Research, (January 2018).
    [2018]
  • Cristina Ruiz, Leading online database to remove 600,000 images after art project reveals its racist bias, The Art Newspaper, (23 September 2019).
  • Committee on Automated Personal Data Systems, Records, Computers and the Rights of Citizens, Department of Health, Education and Welfare, (1973)
    [1973]
  • Chaofan Chen et al., This looks like that: deep learning for interpretable image recognition, arXiv preprint arXiv:1806.10574 (2018).
    [2018]
  • Case 215/88 Casa Fleischhandels[1989] European Court of Justice ERC 2789[31]
    [1989]
  • Cade Metz, Can a Machine Learn Morality?, The New York Times, (2021. 11. 19.)
  • C. Rosset, Turing-NLG: A 17-billion-parameter language model by Microsoft, (February 2020).
    [2020]
  • C. Ischen et al., Privacy concerns in chatbot interactions, In International Workshop on Chatbot Research and Design, p. 34–48. Springer, (2019).
    [2019]
  • C. Ingraham, How rising inequality hurts everyone, even the rich, Washington Post, (February 2018).
    [2018]
  • C. Du, Chinese AI lab challenges Google, OpenAI with a model of 1.75 trillion parameters, PingWest (June 2021.).
    [2021]
  • C. Breazeal et al., Infant-like Social Interactions between a Robot and a Human Caregiver, Adaptive Behavior, 8(1):49–74, (January 2000).
    [2000]
  • C. B. Mann, Can Conversing with a Computer Increase Turnout? Mobilization Using Chatbot Communication, Journal of Experimental Political Science, 8(1):51–62, (2021).
  • Bias In , Bias Out
    Sandra G. Mayson Vol 128 , Number 8 [2019]
  • Betty van Aken et al., Challenges for Toxic Comment Classification: An In-Depth Error Analysis, arXiv:1809.07572, (20 Sep 2018).
  • Benjamin Wilson et al., Predictive Inequity in Object Detection, (2019).
    [2019]
  • Ben Hutchinson et al., Social Biases in NLP Models as Barriers for Persons with Disabilities, (2020).
    [2020]
  • Barocas, Solon et al., Privacy Dependencies (September 3, 2019). 95 Washington Law Review 555 (2020).
  • B. Schneier, Bots Are Destroying Political Discourse As We Know It, The Atlantic, (January 2020).
    [2020]
  • B. Buchanan et al., Truth, Lies and Automation: How Language Models Could Change Disinformation, Technical report, CSET, (May 2021).
    [2021]
  • Authors Guild. Inc. v. Google Inc., 804 F.3d 202. (2d Cir. 2015).
  • Authors Guild v. HathiTrust, 755 F.3d 87 (2d Cir. 2014).
    [2014]
  • Arvind Narayanan, 21 Fairness Definitions and Their Politics, the Conference on Fairness, Accountability, and Transparency (Feb 23 2018).
  • Applying Old Rules to New Tools : Employment Discrimination Law in the Age of Algorithms
  • Antonio Ginartet al., Making AI Forget You: Data Deletion in Machine Learning, (2019), arXiv:1907.05012 [cs.LG]
    [2019]
  • Alice Xiang, Reconciling legal and technical approaches to algorithmic bias, Tennessee Law Review 88, 3 (2021).
  • Ali Alvi/Paresh Kharya, Using DeepSpeed and Megatron to Train Megatron-Turing NLG 530B, the World’s Largest and Most Powerful Generative Language Model, Microsoft Research Blog, (2021. 10. 11.)
  • Alan Westin, Privacy and Freedom, IG, (1967).
    [1967]
  • Affirmative Algorithms : The Legal Grounds for Fairness as Awareness
    Daniel E Ho . 134 [2020]
  • Abramowicz et al., Prize and Reward Alternatives to Intellectual Property, Prize and Reward Alternatives to Intellectual Property, in Research Handbook on the Economics of Intellectual Property Law (P.S. Menell & B. Depoorter eds., forthcoming 2019).
  • APEC CBPR 인증 안내서
    개인정보보호위원회/한국인터넷진흥원 [2021]
  • AI는 차별을 인간에게서 배운다
    고학수 21세기북스 [2022]
  • AI(artificial Intelligence)에 대한 법인격 부여의 타당성 검토
    김훈주 법학연구 제31권 제1호, 충북대 법학 연구소 [2020]
  • AI 챗봇 이루다, 이제 앱으로…안드로이드 버전 출시
    이시은 이시은 한경 AI Insight [2022]
  • AI 이루다로 개인정보 유출됐다…342명 집단소송 나서
    김현정 매일경제 [2021]
  • AI 이루다 개발사, 개인정보 유출 의혹…정부 조사 착수
    이효석 연합뉴스 [2021]
  • AI 개인정보 보호수칙 마련…이루다 재발 막는다
    김윤희 지디넷코리아 [2021]
  • A. Wang et al., Directional Bias Amplification, arXiv:2102.12594 [cs], (June 2021). URL http://arxiv.org/abs/2102.12594. arXiv: 2102.12594.
    [2021]
  • A. S. Miner et al., Smartphone-Based Conversational Agents and Responses to Questions About Mental Health, Interpersonal Violence, and Physical Health, JAMA internal medicine, 176(5):619–625, (May 2016).
    [2016]
  • A. Rubel et al (2019)., Agency Laundering and Algorithmic Decision Systems, In N. G. Taylor, C. Christian-Lamb, M. H. Martin, and B. Nardi, editors, Information in Contemporary Society, Lecture Notes in Computer Science, pages 590–598, Cham, Springer.
    [2019]
  • A. Romano, A group of YouTubers is claiming the site systematically demonetizes queer content, vox (October 2019.).
    [2019]
  • A. Radford, J. Wu, R. Child, D. Luan, D. Amodei, and I. Sutskever, Language Models are Unsupervised Multitask Learners, Open AI (2018).
    [2018]
  • A. Pardes, The Emotional Chatbots Are Here to Probe Our Feelings, Wired, (January 2018).
    [2018]
  • A. Lazaridou et al., Pitfalls of Static Language Modelling, arXiv:2102.01951 [cs], (February 2021).
    [2021]
  • A. Koenecke et al., Racial disparities in automated speech recognition, Proceedings of the National Academy of Sciences, 117(14):7684–7689, (April 2020).
    [2020]
  • A. Georgieff et al., What happened to jobs at high risk of automation?, Technical Report 255, OECD Publishing, (January 2021).
    [2021]
  • A. Cercas Curry et al., Conversational Assistants and Gender Stereotypes: Public Perceptions and Desiderata for Voice Personas, In Proceedings of the Second Workshop on Gender Bias in Natural Language Processing, pages 72– 78, Barcelona, Spain (Online), (December 2020).
    [2020]
  • A. Abid et al., Persistent Anti-Muslim Bias in Large Language Models, arXiv:2101.05783 [cs], (January 2021).
    [2021]
  • A Right to Reasonable Inferences : Re-Thinking Data Protection Law in the Age of Big Data and AI
    Wachter , S. . 2 ) [2019]
  • 2021. 4. 28. 의결 제2021-007-072호 [개인정보보호 법규 위반행위에 대한 시정조치에 관한 건].
    개인정보보호위원회 개인정보보호위원회 의결 제2021-007-072호 [개인정보보호 법규 위반행위에 대한 시정조치에 관한 건] [2021]
  • 2011. 9. 27.자 10진정0480200결정[채용시 청각장애인에 대한 간접차별]
    국가인권위원회 국가인권위원회 자 10진정0480200결정[채용시 청각장애인에 대한 간접차별] [2011]
  • 1년 만에 돌아온 AI 챗봇 이루다…문제됐던 개인정보 재사용
    임국정 아이티조선 [2021]
  • /임용/박상철, 유럽연합 인공지능법안의 개요 및 대응방안
    고학수 서울대학교 인공지능 정책이니셔티브 DAIG [2021]
  • 'AI 챗봇' 이루다 2.0으로 컴백…17일부터 오픈 베타 테스트 시작
    이정후 뉴스1 [2022]