加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长学院 > PHP教程 > 正文

php – 主要网站如何从链接中捕获缩略图?

发布时间:2020-12-13 16:13:24 所属栏目:PHP教程 来源:网络整理
导读:在Digg和Facebook等主要网站上分享链接时;它将通过捕获页面的主要图像来创建缩略图.他们如何从网页上抓取图片?它是否包括加载整个页面(例如通过cURL)并解析它(例如使用preg_match)?对我来说,这种方法很慢且不可靠.他们有更实用的方法吗? 附:我认为应该有
在Digg和Facebook等主要网站上分享链接时;它将通过捕获页面的主要图像来创建缩略图.他们如何从网页上抓取图片?它是否包括加载整个页面(例如通过cURL)并解析它(例如使用preg_match)?对我来说,这种方法很慢且不可靠.他们有更实用的方法吗?

附:我认为应该有一个实用的方法来快速抓取页面,跳过一些部分(例如CSS和JS)来达到src属性.任何的想法?

解决方法

他们典型地在页面上查找图像,并在服务器上缩小图像. Reddit的 scraper code显示了他们所做的很多事情. Scraper class应该给你一些关于如何解决这个问题的好主意.

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读