1. Multi Domain
-> 여러 도메인에 동시에 접근 가능하게 해준다.
(1) start_urls list에 url 추가.
(2) create function -> yield scrapy.Request(url, self.parse)

2. spider Attribute
* custom_settings
* start_urls
* name
* Logger...
* print(dir(self)) 를 출력해보면 알 수 있다.
3. Logger
* 실행 중 발생하는 이벤트를 기록(logging)
* 각 Spider 인스턴스 내에서 다음과 같이 액세스하고 사용할 수 있다.
* self.logger.info()

4. Response 분기

'Scrapy' 카테고리의 다른 글
[Scrapy] 06. Scrapy Spider 활용 (0) | 2020.04.08 |
---|---|
[Scrapy] 05. Shell 사용법 (0) | 2020.04.07 |
[Scrapy] 03. Following links (1) | 2020.04.01 |
[Scrapy] 02. 데이터 추출 (get vs extract) (0) | 2020.04.01 |
[Scrapy] 01. Scrapy 생성 (0) | 2020.04.01 |
댓글