웹개발종합반 3주차 - 파이썬 패키지 설치하기 / 패키지 사용해보기 / 웹스크래핑(크롤링) 기초 /
2022. 1. 2. 21:17ㆍ코딩공부/스파르타코딩클럽 - 웹개발종합반
파이썬 패키지 설치하기
가상환경이란? 라이브러리를 담아두는 폴더라고 생각하자!
앞으로 venv 폴더에 라이브러리를 담을거다
패키지 사용해보기
"python requests 패키지"를 구글링해서 사용법을 찾아보자
import requests # requests 라이브러리 설치 필요
r = requests.get('http://openapi.seoul.go.kr:8088/6d4d776b466c656533356a4b4b5872/json/RealtimeCityAir/1/99')
rjson = r.json()
# 링크는 미세먼지 API
gus = rjson['RealtimeCityAir']['row']
for gu in gus:
print(gu['MSRSTE_NM'], gu['IDEX_MVL'])
# 모든 구의 IDEX_MVL 값이 찍힘
import requests # requests 라이브러리 설치 필요
r = requests.get('http://openapi.seoul.go.kr:8088/6d4d776b466c656533356a4b4b5872/json/RealtimeCityAir/1/99')
rjson = r.json()
gus = rjson['RealtimeCityAir']['row']
for gu in gus:
if gu['IDEX_MVL'] < 60:
print (gu['MSRSTE_NM'], gu['IDEX_MVL'])
들여쓰기에 주의하자!!
웹스크래핑(크롤링) 기초
웹스크래핑(크롤링) : 다른 사이트에서 예를들어 영화제목, 순위, 별점 등 데이터를 쭈욱 가져오는 것 / 이미 데이터를 받아온 페이지에 있는 정보를 솎아낸다.
bs4 패키지가 필요하다
크롤링에서 중요한 것 2개
1. 코드단에서 요청하는 것(request)
2. 요청해서 가지고 온 데이터중에서 원하는 정보를 잘 솎아내는 것(bs4의 역할)
리퀘스트로 요청하고 뷰티풀숩으로 솎아낸다!
크롤링 기본 세팅
import requests
from bs4 import BeautifulSoup
# 타겟 URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
# soup이라는 변수에 "파싱 용이해진 html"이 담긴 상태가 됨
# 이제 코딩을 통해 필요한 부분을 추출하면 된다.
soup = BeautifulSoup(data.text, 'html.parser')
#############################
# (입맛에 맞게 코딩)
#############################
select / select_one
import requests
from bs4 import BeautifulSoup
# URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
soup = BeautifulSoup(data.text, 'html.parser')
# select를 이용해서, tr들을 불러오기
movies = soup.select('#old_content > table > tbody > tr')
# movies (tr들) 의 반복문을 돌리기
for movie in movies:
# movie 안에 a 가 있으면,
a_tag = movie.select_one('td.title > div > a')
if a_tag is not None:
# a의 text를 찍어본다.
print (a_tag.text)
- select / select_one의 사용법을 익혀봅니다.
영화 제목을 가져와보기!
태그 안의 텍스트를 찍고 싶을 땐 → 태그.text
태그 안의 속성을 찍고 싶을 땐 → 태그['속성']
# 선택자를 사용하는 방법 (copy selector)
soup.select('태그명')
soup.select('.클래스명')
soup.select('#아이디명')
soup.select('상위태그명 > 하위태그명 > 하위태그명')
soup.select('상위태그명.클래스명 > 하위태그명.클래스명')
# 태그와 속성값으로 찾는 방법
soup.select('태그명[속성="값"]')
# 한 개만 가져오고 싶은 경우
soup.select_one('위와 동일')
- 항상 정확하지는 않으나, 크롬 개발자도구를 참고할 수도 있습니다.
1. 원하는 부분에서 마우스 오른쪽 클릭 → 검사
2. 원하는 태그에서 마우스 오른쪽 클릭
3. Copy → Copy selector로 선택자를 복사할 수 있음
(웹개발 종합반 들으신 다른분이 정리해놓은 블로그인데 정리를 짱짱 잘해놓으셨다)
Quiz_웹스크래핑(크롤링) 연습
import requests
from bs4 import BeautifulSoup
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
soup = BeautifulSoup(data.text, 'html.parser')
trs = soup.select('#old_content > table > tbody > tr')
#old_content > table > tbody > tr:nth-child(2) > td:nth-child(1) > img
for tr in trs :
n_tag = tr.select_one('img')
a_tag = tr.select_one('td.title > div > a')
b_tag = tr.select_one('td.point')
if a_tag is not None :
print(n_tag['alt'], a_tag.text, b_tag.text)
# n_tag안의 alt 속성의 값, a_tag의 text부분, b_tag의 text부분
'코딩공부 > 스파르타코딩클럽 - 웹개발종합반' 카테고리의 다른 글
웹개발 종합반 3주차 - 숙제 : 지니뮤직 1~50위 곡 스크래핑 (0) | 2022.01.03 |
---|---|
웹개발종합반 3주차 - DB설치 확인 / DB개괄 / pymongo로 DB조작하기 / 웹스크래핑 결과 저장하기 / Quiz_웹스크래핑 결과 이용하기 (0) | 2022.01.03 |
웹개발종합반 3주차 - 파이썬 시작하기 / 파이썬 기초공부 (0) | 2022.01.02 |
웹개발종합반 3주차 - 3주차 설치 / 3주차 오늘 배울 것 / 연습 겸 복습 - 나홀로메모장에 OpenAPI 붙여보기 (0) | 2022.01.02 |
웹개발종합반 2주차 - 숙제 : 쇼핑몰에 환율 정보 넣어주기 (0) | 2022.01.02 |