博客
关于我
go基础综合-goroutine实现网页爬虫
阅读量:605 次
发布时间:2019-03-12

本文共 2632 字,大约阅读时间需要 8 分钟。

package mainimport (	"fmt"	"net/http"	"io/ioutil"	"regexp"	"sync"	"log"	"time"	"os")var wg sync.WaitGroupfunc main() {	log_f, err := os.OpenFile("down.log", os.O_APPEND|os.O_CREATE|os.O_RDWR, 0666)	if err != nil {		log.Fatal(err)	}	defer log_f.Close()	log.SetOutput(log_f)	t := time.Now()	num := 20	wg.Add(num)	for i := 0; i <= num; i++ {		url := fmt.Sprintf("https://~~不显示网址~~ /20140421192446_%d.htm", i+2)		fmt.Println(url)		log.Printf("GET %s\n", url)		go GetImgUrl(url, i)	}	wg.Wait()	end := time.Since(t)	fmt.Printf("程序用时:%v", end)}func GetImgUrl(url string, i int) {	defer wg.Done()	client := &http.Client{}	req, err := http.NewRequest("GET", url, nil)	req.Header.Add("User-Agent", "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3314.0 Safari/537.36 SE 2.X MetaSr 1.0")	response, err := client.Do(req)	if err != nil {		fmt.Printf("http get error: %v\n", err)		return	}	fmt.Printf("GET %s: 200 OK\n", url)	log.Printf("GET %s: 200 OK\n", url)	defer response.Body.Close()	body, err := ioutil.ReadAll(response.Body)	if err != nil {		fmt.Printf("response.Body error: %v\n", err)		return	}	compile := regexp.MustCompile("http://~~不显示网址~~ /uploads/tu/[0-9]{6}/[0-9]{4}/[0-9a-zA-Z]{10}.jpg")	html := []byte(string(body))	submatch := compile.FindAllSubmatch(html, -1)	fmt.Printf("url: %s, match: %d\n", url, len(submatch))	if len(submatch) != 0 {		GetImg(string(submatch[0][0]), i)	} else {		fmt.Printf("url: %s, 无匹配项\n", url)	}}func GetImg(url string, i int) {	client := &http.Client{}	req, err := http.NewRequest("GET", url, nil)	if err != nil {		fmt.Printf("http get error: %v\n", err)		return	}	req.Header.Add("User-Agent", "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3314.0 Safari/537.36 SE 2.X MetaSr 1.0")	response, err := client.Do(req)	if err != nil {		fmt.Printf("http get error: %v\n", err)		return	}	defer response.Body.Close()	body, err := ioutil.ReadAll(response.Body)	if err != nil {		fmt.Printf("response.Body error: %v\n", err)		return	}	timeStr := time.Now().Format("20060102 150405")	filename := fmt.Sprintf("./IMG/%s_%d.jpg", timeStr, i)	if err := ioutil.WriteFile(filename, body, 0666); err != nil {		fmt.Printf("ioutil.WriteFile error: %v\n", err)		return	} else {		fmt.Printf("下载了 %s 至 %s\n", url, filename)	}}

这段代码实现了通过多个协程并发下载网页内容中的图片文件,主要优化点包括:

  • 减少了不必要的注释和技术术语,使代码更简洁

  • 优化了日志输出格式,方便后续分析

  • 集成更高效的错误处理机制

  • 代码结构更清晰,适合协程多线程模型

  • 增加了文件保存的错误处理

  • 使用更简洁的参数传递机制

  • 内联了部分常用函数,提高了性能表现

  • 添加了时间跟踪功能,便于性能评估

  • 优化了图片文件存储路径和命名规则

  • 保持了代码的可扩展性和灵活性

  • 建议可以根据具体需求进一步优化,比如:

    • 可以根据具体需求调整最大的并发数量(num)
    • 集成进程池替代WaitGroup
    • 优化内存管理策略
    • 增加更全面的资源释放逻辑
    • 可以根据实际情况添加限流机制
    • 使用更高效的数据结构替代环环生变量

    转载地址:http://tynxz.baihongyu.com/

    你可能感兴趣的文章
    Palindrome Number leetcode java
    查看>>
    Palo Alto Networks Expedition 未授权SQL注入漏洞复现(CVE-2024-9465)
    查看>>
    Palo Alto Networks Expedition 远程命令执行漏洞(CVE-2024-9463)
    查看>>
    Palo Alto Networks PAN-OS身份认证绕过导致RCE漏洞复现(CVE-2024-0012)
    查看>>
    Panalog 日志审计系统 libres_syn_delete.php 前台RCE漏洞复现
    查看>>
    Springboot中@SuppressWarnings注解详细解析
    查看>>
    Panalog 日志审计系统 sprog_deletevent.php SQL 注入漏洞复现
    查看>>
    Panalog 日志审计系统 sprog_upstatus.php SQL 注入漏洞复现(XVE-2024-5232)
    查看>>
    Panalog 日志审计系统 前台RCE漏洞复现
    查看>>
    PANDA VALUE_COUNTS包含GROUP BY之前的所有值
    查看>>
    Pandas - 有条件的删除重复项
    查看>>
    pandas -按连续日期时间段分组
    查看>>
    pandas -更改重新采样的时间序列的开始和结束日期
    查看>>
    pandas :to_excel() float_format
    查看>>
    pandas :加入有条件的数据框
    查看>>
    pandas :将多列汇总为一列,没有最后一列
    查看>>
    pandas :将时间戳转换为 datetime.date
    查看>>
    pandas :将行取消堆叠到新列中
    查看>>
    pandas DataFrame 中的自定义浮点格式
    查看>>
    Pandas DataFrame 的 describe()方法详解-ChatGPT4o作答
    查看>>