웹개발종합반 3주차 - 파이썬 패키지 설치하기 / 패키지 사용해보기 / 웹스크래핑(크롤링) 기초 /

2022. 1. 2. 21:17코딩공부/스파르타코딩클럽 - 웹개발종합반

파이썬 패키지 설치하기

가상환경이란? 라이브러리를 담아두는 폴더라고 생각하자!

앞으로 venv 폴더에 라이브러리를 담을거다

 

패키지 사용해보기

"python requests 패키지"를 구글링해서 사용법을 찾아보자

 

import requests # requests 라이브러리 설치 필요

r = requests.get('http://openapi.seoul.go.kr:8088/6d4d776b466c656533356a4b4b5872/json/RealtimeCityAir/1/99')
rjson = r.json()
# 링크는 미세먼지 API

gus = rjson['RealtimeCityAir']['row']

for gu in gus:
	print(gu['MSRSTE_NM'], gu['IDEX_MVL'])

# 모든 구의 IDEX_MVL 값이 찍힘
import requests # requests 라이브러리 설치 필요

r = requests.get('http://openapi.seoul.go.kr:8088/6d4d776b466c656533356a4b4b5872/json/RealtimeCityAir/1/99')
rjson = r.json()

gus = rjson['RealtimeCityAir']['row']

for gu in gus:
	if gu['IDEX_MVL'] < 60:
		print (gu['MSRSTE_NM'], gu['IDEX_MVL'])

들여쓰기에 주의하자!!

 

 

웹스크래핑(크롤링) 기초

 

웹스크래핑(크롤링) : 다른 사이트에서 예를들어 영화제목, 순위, 별점 등 데이터를 쭈욱 가져오는 것 / 이미 데이터를 받아온 페이지에 있는 정보를 솎아낸다.

bs4 패키지가 필요하다

 

크롤링에서 중요한 것 2개

1. 코드단에서 요청하는 것(request)

2. 요청해서 가지고 온 데이터중에서 원하는 정보를 잘 솎아내는 것(bs4의 역할)

리퀘스트로 요청하고 뷰티풀숩으로 솎아낸다!

 

크롤링 기본 세팅

import requests
from bs4 import BeautifulSoup

# 타겟 URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)

# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
# soup이라는 변수에 "파싱 용이해진 html"이 담긴 상태가 됨
# 이제 코딩을 통해 필요한 부분을 추출하면 된다.
soup = BeautifulSoup(data.text, 'html.parser')

#############################
# (입맛에 맞게 코딩)
#############################

select / select_one

import requests
from bs4 import BeautifulSoup

# URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)

# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
soup = BeautifulSoup(data.text, 'html.parser')

# select를 이용해서, tr들을 불러오기
movies = soup.select('#old_content > table > tbody > tr')

# movies (tr들) 의 반복문을 돌리기
for movie in movies:
    # movie 안에 a 가 있으면,
    a_tag = movie.select_one('td.title > div > a')
    if a_tag is not None:
        # a의 text를 찍어본다.
        print (a_tag.text)
- select / select_one의 사용법을 익혀봅니다.

    영화 제목을 가져와보기!

    태그 안의 텍스트를 찍고 싶을 땐 → 태그.text
    태그 안의 속성을 찍고 싶을 땐 → 태그['속성']
        # 선택자를 사용하는 방법 (copy selector)
        soup.select('태그명')
        soup.select('.클래스명')
        soup.select('#아이디명')

        soup.select('상위태그명 > 하위태그명 > 하위태그명')
        soup.select('상위태그명.클래스명 > 하위태그명.클래스명')

        # 태그와 속성값으로 찾는 방법
        soup.select('태그명[속성="값"]')

        # 한 개만 가져오고 싶은 경우
        soup.select_one('위와 동일')
- 항상 정확하지는 않으나, 크롬 개발자도구를 참고할 수도 있습니다.
    1. 원하는 부분에서 마우스 오른쪽 클릭 → 검사
    2. 원하는 태그에서 마우스 오른쪽 클릭
    3. Copy → Copy selector로 선택자를 복사할 수 있음

출처 : https://velog.io/@danceintherain/%ED%8C%8C%EC%9D%B4%EC%8D%AC-%ED%8C%A8%ED%82%A4%EC%A7%80-requests-bs4

(웹개발 종합반 들으신 다른분이 정리해놓은 블로그인데 정리를 짱짱 잘해놓으셨다)

 

Quiz_웹스크래핑(크롤링) 연습

import requests
from bs4 import BeautifulSoup

headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)

soup = BeautifulSoup(data.text, 'html.parser')

trs = soup.select('#old_content > table > tbody > tr')

#old_content > table > tbody > tr:nth-child(2) > td:nth-child(1) > img

for tr in trs :
    n_tag = tr.select_one('img')
    a_tag = tr.select_one('td.title > div > a')
    b_tag = tr.select_one('td.point')
    if a_tag is not None :
        print(n_tag['alt'], a_tag.text, b_tag.text) 
        # n_tag안의 alt 속성의 값, a_tag의 text부분, b_tag의 text부분