과정 소개
제작: 2025년 09월
본 과정은 영어 텍스트마이닝을 위한 NLTK 패키지에 대한 학습과정입니다. 영어 텍스트마이닝 및 텍스트분석을 위해서는 다양한 라이브러리와 패키지들이 있는데 그중에서 가장 많이 사용되고 있는 NLTK 패키지에 기반하여 영어를 분석하고 관련된 라이브러리를 학습하는 과정입니다.
강의 대상
NLTK 패키지를 이용한 자연어 처리에 대해 전반적인 내용을 학습하고 그에 기반하여 영어를 분석할 수 있도록 목표한다
강의 목표
영어 자연어 처리 및 NTLK 패키지 학습에 부담을 가지는 학습자 2. 빠른 시간에 NLTK 패키지 및 관련 라이브러리를 배우고자 하는 자
학습 내용
- 섹션 1
- 강의개요 및 권장 학습순서와 NLTK 설치하기
- corpus(말뭉치)란 무엇인가
- nltk gutenberg corpus 다운로드 및 텍스트 내용 출력하기
- nltk gutenberg corpus 여러가지 값 출력
- 섹션 2
- nltk tokenization - sent_tokenize
- word_tokeniz() 함수를 사용한 토큰화 vs gutenberg. words() 함수를 사용한 토큰화 비교
- 각 토큰당 평균 문자 수
- 브라운 코퍼스를 활용한 여러가지 메서드(1)
- 섹션 3
- 브라운 코퍼스를 활용한 여러가지 메서드(2) 및 FreqDist 함수 사용법
- FreqDist() 함수로 단어 빈도 수 체크시 대소문자 문제
- 특정 단어의 빈도 수 체크
- 특정 단어의 빈도 수 체크 - list comprehension 사용
- 섹션 4
- 세익스피어는 비극 햄릿을 쓸 때 한 문장당 평균 몇개의 단어를 사용해서 썼을까 - 기초학습
- 전부 소문자로 바꾼 후 중복되는 것 없이 단어 수 체크
- 세익스피어는 비극 햄릿을 쓸 때 한 문장당 평균 몇개의 단어를 사용해서 썼을까 - 최종 통계 구하기
- 브라운 코퍼스 장르별 원하는 단어 수 세기 - ConditionalFreqDist() 사용법
- 섹션 5
- cfd 출력시 pair로 구성해서 출력하기
- 브라운 코퍼스 카테고리별 단어 수 체크시 배열 변수 만들어서 이중 for문으로 구성하기
- n-gram이란 무엇이고 bigram, trigram 등이 검색 예측에 어떻게 활용되어지는가
- nltk 패키지내 ngrams를 활용하여 bigram, trigram 구하기 실습
과정 후기