随着互联网的发展,信息爆炸式增长,而新闻是其中占比最高的一类信息。为了更快地获取最新、最有价值的新闻信息,人们通常会去浏览新闻网站上的最新资讯。然而,一个人每天所能阅读的新闻总量是有限的,因此,我们需要一种高效的工具来爬取新闻信息。本文将分享一种利用 php 实现的爬虫程序来爬取新浪新闻的实践经验。
一、爬虫基础知识
爬虫是一种自动化程序,其功能是模拟浏览器发出请求,解析返回的页面数据,抽取需要的信息并进行保存或下载。常见的爬虫程序语言有 python、java、javascript 等。本文选择 php 语言来编写爬虫程序,原因是 php 语言非常适合用于 web 开发,并且它有许多强大的 http 请求函数与 dom 解析库,可以方便地完成网页抓取与信息提取。
二、编写爬虫程序
1.确定目标网站
在开始编写爬虫程序之前,需要先确定你要爬取的目标网站。本文选择的是新浪新闻网站。首先,我们需要了解一下该网站的网页结构与数据存储方式。
2.模拟浏览器发出请求
要想成功地获取目标网站的数据,需要模拟浏览器向目标网站发出请求。在 php 中,我们可以使用 curl 函数库来完成这个过程。例如:
$url = 'http://news.sina.com.cn/';$ch = curl_init($url);curl_setopt($ch, curlopt_returntransfer, true);curl_setopt($ch, curlopt_encoding, '');curl_setopt($ch, curlopt_useragent, "mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/78.0.3904.108 safari/537.36");curl_setopt($ch, curlopt_followlocation, true);curl_setopt($ch, curlopt_maxredirs, 3);curl_setopt($ch, curlopt_timeout, 10);$html = curl_exec($ch);curl_close($ch);
这段代码利用 curl 发出一个 get 请求,请求地址为新浪新闻的首页。我们可以看到,在请求中使用了一些参数,例如:curlopt_returntransfer 用于告诉 curl 函数要返回请求结果而不是直接将其输出到浏览器;curlopt_useragent 用于模拟浏览器的身份,让目标网站不会防范我们的爬虫;curlopt_followlocation 用于自动跟踪重定向,以便能够获取到完整的页面源代码等。
3.解析页面数据
在成功获取到页面源代码后,我们需要解析数据并提取出所需的信息。解析过程可以分为两个步骤:首先,将 html 代码转换成 dom 对象,反映了文档结构的层次关系;然后,再从 dom 对象中根据相应的语法规则筛选出需要的信息。
在 php 中,我们可以借助 domdocument 类与 simplexmlelement 类来解析 html 和 xml 代码。例如,以下代码片段中,我们从新浪新闻首页中提取出了新闻标题、链接和摘要:
//创建 dom 对象$dom = new domdocument();//html 代码转 dom 对象$dom->loadhtml($html);//获取所有新闻列表$newslist = $dom->getelementbyid('syncad_1');//遍历新闻列表并提取信息foreach ($newslist->getelementsbytagname('li') as $item) { //提取标题链接 $linknode = $item->getelementsbytagname('a')->item(0); $link = $linknode->getattribute('href'); //提取标题 $titlenode = $linknode->getelementsbytagname('span')->item(0); $title = $titlenode->nodevalue; //提取摘要 $summarynode = $item->getelementsbytagname('p')->item(0); $summary = $summarynode->nodevalue; //保存数据到数组中 $data[] = [ 'title' => $title, 'link' => $link, 'summary' => $summary ];}
在上面的代码示例中,我们首先使用 getelementbyid 方法获取到所有的新闻列表,然后使用 getelementsbytagname 方法筛选出其中的 li 元素,并遍历该列表以提取出所需信息。其中,我们使用了 getattribute 方法和 nodevalue 方法来提取属性值和文本内容。
4.保存数据
成功提取出所需信息后,我们需要将其保存到本地文件或数据库中以便后续的使用。在本文中,我们使用了 mysql 数据库来保存数据,并使用了 php 自带的 pdo 扩展来实现与数据库的连接与操作。以下是保存数据到 mysql 数据库中的代码示例:
//数据库连接$dsn = 'mysql:host=127.0.0.1;dbname=news;charset=utf8';$username = 'root';$password = '123456';$options = [ pdo::attr_errmode => pdo::errmode_exception,];$pdo = new pdo($dsn, $username, $password, $options);//保存数据到数据库中$stmt = $pdo->prepare("insert into news (title, link, summary) values (:title, :link, :summary)");foreach ($data as $item) { $stmt->bindparam(':title', $item['title']); $stmt->bindparam(':link', $item['link']); $stmt->bindparam(':summary', $item['summary']); $stmt->execute();}
在上述代码中,我们首先创建了一个名为 news 的表,用于保存新闻的标题、链接和摘要信息。之后,利用 pdo 函数库实现对 mysql 数据库的连接、预处理、参数绑定、执行等步骤。这里我们使用了 bindparam 方法来绑定参数并执行 sql 语句。
三、总结
本文介绍了如何利用 php 语言编写一个爬虫程序,以爬取新浪新闻网站的实例进行说明。在这个过程中,例子代码中共包括了爬取目标、发出请求、解析数据、保存数据等步骤。在实践中,可能还需要考虑一些网站反爬措施、数据清洗、多线程爬取等问题,但是这些都属于更高级的爬虫技术,可在以后的学习中深入研究。
以上就是爬取新浪新闻的 php 爬虫实战的详细内容。