Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Prometheus
- Kubernetes
- 웹 해킹
- scraping
- CI
- CI/CD
- linkerd
- deploy
- CD
- Monitoring
- 크롤링
- Resource
- opentelemetry
- eks
- 스크레이핑
- ECR
- Grafana
- 모의해킹
- gitlab cd
- DevOps
- GitLab
- Service Mesh
- argocd
- Crawling
- 웹 취약점
- gitlab ci
- helm
- Jenkins
- sonarqube
- docker
Archives
- Today
- Total
ㅡ.ㅡ
[Python/Crawling] requests - 요청과 응답 본문
Requests 라이브러리란?
urllib과 같이 HTTP 요청을 처리하나 좀더 세부적인(헤더, 쿠키, 폼, 세션 등) HTTP 요청처리를 하는 라이브러리이다.
요청과 응답
requests모듈을 사용하여 웹페이지에 요청하고 요청한 응답에 대한 데이터 아래 그림과 같이 볼 수 있다.
import requests # 요청 하기 r = requests.get("https://www.google.com") print("[+] 요청 결과 : ", r) # 응답 HTTP 헤더 추출 r2 = r.headers print("[+] 응답 헤더 : ", r2) # 인코딩 추출 r3 = r.encoding print("[+] 인코딩 : ", r3) # str 자료형으로 디코딩된 응답 본문 추출 r4 = r.text print("[+] str 자료형 본문 : ", r4) # bytes 자료형의 응답 본문을 추출 r5 = r.content print("[+] Bytes 자료형 본문 : ", r5) # HTTP 헤더 조작하여 요청 r6 = requests.get("http://httpbin.org/get", headers={"user-agent": "my-crawler/1.0 (+ekwqkk12@naver.com)"}) print("[+] 요청 헤더 조작 : ", r6.text) # 파라미터 추가 전송 r7 = requests.get("http://httpbin.org/get", params={"key": "value"}) print("[+] 파라미터 추가 전송 : ", r7.text)
'Coding' 카테고리의 다른 글
[Python/Crawling] requests - 쿠키 (0) | 2018.05.04 |
---|---|
[Python/Crawling] reqeusts - 폼 (0) | 2018.05.04 |
[Python/Crawling] urllib - 특정 데이터 추출 및 파일 저장(DB) (0) | 2018.05.04 |
[Python/Crawling] urllib - 특정 데이터 추출 및 파일 저장(JSON) (0) | 2018.05.04 |
[Python/Crawling] urllib - 특정 데이터 추출 및 파일 저장(CSV) (0) | 2018.04.30 |