일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- NewsClipping
- termux
- 리눅스
- requests
- Python
- 뉴스클리핑
- 버퍼오버플로우
- reversing
- RITSEC CTF 2019
- buffer over flow
- PWN
- Nop Slide
- SQL Injection
- Hackerschool
- RITSEC
- ftz
- 보안뉴스
- HackCTF
- Shadow 동아리
- CodeEngn
- webhacking
- ctf
- Next.js
- writeup
- x64dbg
- 리버싱
- Linux
- 웹해킹
- BOF
- 어셈블리어
Archives
- Today
- Total
목록BeautifulSoup (1)
Jaeseo's Information Security Story

평소 requests에만 너무 의존을 하는 것 같아 한번 urllib라는 python 기본 제공 라이브러리를 이용해서 크롤링 스크립트를 만들었습니다. 크롤링 대상은 다음 홈페이지의 메인 포털 상단 오른쪽의 지역별 날씨 항목을 가져와 크롤링 했습니다. 아래의 코드에 주석을 달아 두었으니 한번 보시면서 이해하시면 될것 같습니다. from urllib import request, parse, error from bs4 import BeautifulSoup url = 'https://www.daum.net/' #url 선언 response = "" #전역 변수 선언 try: response = request.urlopen(url) #request로 url에 대한 응답값 가져옴 except: print("URL ..
Coding and Linux Study/Python
2019. 11. 25. 15:17