crawling을 통해 정보를 긁어왔다면 분석을 위해 파일로 만들어 주는 것이 좋다. 여기서는 크롤링한 결과를 csv로 저장해보도록 하겠다.
import csv
// jobs의 경우 chunk는 다음과 같이 생겼습니다.
[{'title': 'Python Developer Intern', 'company': 'OXO Solutions',
'location': 'Ruby, SC', 'link': 'https://www.indeed.com/viewjob?jk=84a541c104b5b24c'}]
def save_to_file(jobs):
# 같은 경로에 있는 job.csv를 엽니다. 없으면 job.csv를 만듭니다.
file = open("job.csv", mode="w", encoding="utf-8")
writer = csv.writer(file)
writer.writerow(["title", "company", "location", "link"])
for job in jobs:
# js처럼 job.title과 같이 직접 빼서 쓸 수 없습니다.
# list로 하지 않으면 dict_values 라는 자료형으로 나옵니다. list로 변환합시다.
writer.writerow(list(job.values()))
'Programming Language > 🐍 Python' 카테고리의 다른 글
파일 io (0) | 2020.05.27 |
---|---|
잡다한 메서드, 내장 함수, 외장함수들 (0) | 2020.05.27 |
pip과 pipenv(가상환경)에 대한 이해 (0) | 2020.05.10 |
JS 사용자를 위한 python 정리 (0) | 2020.04.20 |
python 환경 변수 세팅, python 경로 찾기 (0) | 2020.04.19 |