Skip to content

crawlFile

crawlFile 是爬虫实例的方法,通常用于爬取文件,可获取图片、pdf 文件等等。

类型

crawlFile API 是一个函数。类型是 重载函数 可以通过不同的配置参数调用该函数(在类型方面)。

ts
type crawlFile = {
  (config: string): Promise<CrawlFileSingleResult>

  (config: CrawlFileDetailTargetConfig): Promise<CrawlFileSingleResult>

  (
    config: (string | CrawlFileDetailTargetConfig)[]
  ): Promise<CrawlFileSingleResult[]>

  (config: CrawlFileAdvancedConfig): Promise<CrawlFileSingleResult[]>
}

参数类型:

返回值类型:

示例

js
import { createCrawl } from 'x-crawl'

const crawlApp = createCrawl({
  timeout: 10000,
  intervalTime: { max: 2000, min: 1000 }
})

// crawlFile API
crawlApp
  .crawlFile({
    targets: [
      'https://www.example.com/file-1',
      'https://www.example.com/file-2'
    ],
    storeDirs: './upload',
    intervalTime: { max: 3000, min: 1000 },
    maxRetry: 1
  })
  .then((res) => {})

配置

一共有 4 种:

  • 简单目标配置 - string
  • 详细目标配置 - CrawlFileDetailTargetConfig
  • 详细目标数组配置 - (string | CrawlFileDetailTargetConfig)[]
  • 进阶配置 - CrawlFileAdvancedConfig

简单目标配置 - string

这是简单目标配置。如果你只想单纯爬一下这个文件,可以试试这种写法:

js
import { createCrawl } from 'x-crawl'

const crawlApp = createCrawl()

crawlApp.crawlFile('https://www.example.com/file').then((res) => {})

TIP

拿到的 res 将是一个对象。

详细目标配置 - CrawlFileDetailTargetConfig

这是详细目标配置。如果你想爬一下这个文件,并且需要失败重试之类的,可以试试这种写法:

js
import { createCrawl } from 'x-crawl'

const crawlApp = createCrawl()

crawlApp
  .crawlFile({
    url: 'https://www.example.com/file',
    proxy: { urls: ['xxx'] },
    maxRetry: 1,
    storeDir: './upload',
    fileName: 'xxx'
  })
  .then((res) => {})

更多配置选项可以查看 CrawlFileDetailTargetConfig

TIP

拿到的 res 将是一个对象。

混合目标数组配置 - (string | CrawlFileDetailTargetConfig)[]

这是混合目标数组配置。如果你想爬取多个文件,并且有些数据需要失败重试之类的,可以试试这种写法:

js
import { createCrawl } from 'x-crawl'

const crawlApp = createCrawl()

crawlApp
  .crawlFile([
    'https://www.example.com/file-1',
    { url: 'https://www.example.com/file-2', storeDir: './upload' },
    { url: 'https://www.example.com/file-3', storeDir: './upload', maxRetry: 2 }
  ])
  .then((res) => {})

更多配置选项可以查看 CrawlFileDetailTargetConfig

TIP

拿到的 res 将是一个数组,里面是对象。

进阶配置 - CrawlFileAdvancedConfig

这是进阶配置,targets 是混合目标数组配置。如果你想爬取多个数据,并且爬取目标配置(proxy、storeDir、重试等等)不想重复写,还需要间隔时间、设备指纹以及生命周期等等,可以试试这种写法:

js
import { createCrawl } from 'x-crawl'

const crawlApp = createCrawl()

crawlApp
  .crawlFile({
    targets: [
      'https://www.example.com/file-1',
      { url: 'https://www.example.com/file-2', storeDir: './upload/file2' }
    ],
    storeDirs: './upload',
    intervalTime: { max: 3000, min: 1000 },
    maxRetry: 1
  })
  .then((res) => {})

更多配置选项可以查看 CrawlFileAdvancedConfig

TIP

拿到的 res 将是一个数组,里面是对象。

关于结果的更多信息可查看 关于结果 ,可以根据实际情况选用即可。

基于 MIT 许可发布