关于dht协议
dht协议作为bt协议的一个辅助,是非常好玩的。它主要是为了在bt正式下载时得到种子或者bt资源。传统的网络,需要一台中央服务器存放种子或者bt资源,不仅浪费服务器资源,还容易出现单点的各种问题,而dht网络则是为了去中心化,也就是说任意时刻,这个网络总有节点是亮的,你可以去询问问这些亮的节点,从而将自己加入dht网络。
要实现dht协议的网络爬虫,主要分3步,第一步是得到资源信息(infohash,160bit,20字节,可以编码为40字节的十六进制字符串),第二步是确认这些infohash是有效的,第三步是通过有效的infohash下载到bt的种子文件,从而得到对这个资源的完整描述。
其中第一步是其他节点用dht协议中的get_peers方法向爬虫发送请求得到的,第二步是其他节点用dht协议中的announce_peer向爬虫发送请求得到的,第三步可以有几种方式得到,比如可以去一些保存种子的网站根据infohash直接下载到,或者通过announce_peer的节点来下载到,具体如何实现,可以取决于你自己的爬虫。
dht协议中的主要几个操作:
主要负责通过udp与外部节点交互,封装4种基本操作的请求以及相应。
ping:检查一个节点是否“存活”
在一个爬虫里主要有两个地方用到ping,第一是初始路由表时,第二是验证节点是否存活时
find_node:向一个节点发送查找节点的请求
在一个爬虫中主要也是两个地方用到find_node,第一是初始路由表时,第二是验证桶是否存活时
get_peers:向一个节点发送查找资源的请求
在爬虫中有节点向自己请求时不仅像个正常节点一样做出回应,还需要以此资源的info_hash为机会尽可能多的去认识更多的节点。如图,get_peers实际上最后一步是announce_peer,但是因为爬虫不能announce_peer,所以实际上get_peers退化成了find_node操作。
announce_peer:向一个节点发送自己已经开始下载某个资源的通知
爬虫中不能用announce_peer,因为这就相当于通报虚假资源,对方很容易从上下文中判断你是否通报了虚假资源从而把你禁掉。
基于python的dht爬虫
修改自github开源爬虫,原作者名字有些。。,这里直接将项目地址列出:https://github.com/fuck-you-gfw/simdht,有github帐号的请给原作者star,后续我将结果放入db,外加用tornado做一个简单的查询界面出来放在github上,先备份一下代码
#!/usr/bin/env python# encoding: utf-8import socketfrom hashlib import sha1from random import randintfrom struct import unpackfrom socket import inet_ntoafrom threading import timer, threadfrom time import sleepfrom collections import dequefrom bencode import bencode, bdecodebootstrap_nodes = ( (router.bittorrent.com, 6881), (dht.transmissionbt.com, 6881), (router.utorrent.com, 6881))tid_length = 2re_join_dht_interval = 3token_length = 2def entropy(length): return .join(chr(randint(0, 255)) for _ in xrange(length))def random_id(): h = sha1() h.update(entropy(20)) return h.digest()def decode_nodes(nodes): n = [] length = len(nodes) if (length % 26) != 0: return n for i in range(0, length, 26): nid = nodes[i:i+20] ip = inet_ntoa(nodes[i+20:i+24]) port = unpack(!h, nodes[i+24:i+26])[0] n.append((nid, ip, port)) return ndef timer(t, f): timer(t, f).start()def get_neighbor(target, nid, end=10): return target[:end]+nid[end:]class knode(object): def __init__(self, nid, ip, port): self.nid = nid self.ip = ip self.port = portclass dhtclient(thread): def __init__(self, max_node_qsize): thread.__init__(self) self.setdaemon(true) self.max_node_qsize = max_node_qsize self.nid = random_id() self.nodes = deque(maxlen=max_node_qsize) def send_krpc(self, msg, address): try: self.ufd.sendto(bencode(msg), address) except exception: pass def send_find_node(self, address, nid=none): nid = get_neighbor(nid, self.nid) if nid else self.nid tid = entropy(tid_length) msg = { t: tid, y: q, q: find_node, a: { id: nid, target: random_id() } } self.send_krpc(msg, address) def join_dht(self): for address in bootstrap_nodes: self.send_find_node(address) def re_join_dht(self): if len(self.nodes) == 0: self.join_dht() timer(re_join_dht_interval, self.re_join_dht) def auto_send_find_node(self): wait = 1.0 / self.max_node_qsize while true: try: node = self.nodes.popleft() self.send_find_node((node.ip, node.port), node.nid) except indexerror: pass sleep(wait) def process_find_node_response(self, msg, address): nodes = decode_nodes(msg[r][nodes]) for node in nodes: (nid, ip, port) = node if len(nid) != 20: continue if ip == self.bind_ip: continue if port 65535: continue n = knode(nid, ip, port) self.nodes.append(n)class dhtserver(dhtclient): def __init__(self, master, bind_ip, bind_port, max_node_qsize): dhtclient.__init__(self, max_node_qsize) self.master = master self.bind_ip = bind_ip self.bind_port = bind_port self.process_request_actions = { get_peers: self.on_get_peers_request, announce_peer: self.on_announce_peer_request, } self.ufd = socket.socket(socket.af_inet, socket.sock_dgram, socket.ipproto_udp) self.ufd.bind((self.bind_ip, self.bind_port)) timer(re_join_dht_interval, self.re_join_dht) def run(self): self.re_join_dht() while true: try: (data, address) = self.ufd.recvfrom(65536) msg = bdecode(data) self.on_message(msg, address) except exception: pass def on_message(self, msg, address): try: if msg[y] == r: if msg[r].has_key(nodes): self.process_find_node_response(msg, address) elif msg[y] == q: try: self.process_request_actions[msg[q]](msg, address) except keyerror: self.play_dead(msg, address) except keyerror: pass def on_get_peers_request(self, msg, address): try: infohash = msg[a][info_hash] tid = msg[t] nid = msg[a][id] token = infohash[:token_length] msg = { t: tid, y: r, r: { id: get_neighbor(infohash, self.nid), nodes: , token: token } } self.send_krpc(msg, address) except keyerror: pass def on_announce_peer_request(self, msg, address): try: infohash = msg[a][info_hash] #print msg[a] tname = msg[a][name] token = msg[a][token] nid = msg[a][id] tid = msg[t] if infohash[:token_length] == token: if msg[a].has_key(implied_port) and msg[a][implied_port] != 0: port = address[1] else: port = msg[a][port] if port 65535: return self.master.log(infohash, (address[0], port),tname) except exception: pass finally: self.ok(msg, address) def play_dead(self, msg, address): try: tid = msg[t] msg = { t: tid, y: e, e: [202, server error] } self.send_krpc(msg, address) except keyerror: pass def ok(self, msg, address): try: tid = msg[t] nid = msg[a][id] msg = { t: tid, y: r, r: { id: get_neighbor(nid, self.nid) } } self.send_krpc(msg, address) except keyerror: passclass master(object): def log(self, infohash,address=none,tname=none): hexinfohash = infohash.encode(hex) print info_hash is: %s,name is: %s from %s:%s % ( hexinfohash,tname, address[0], address[1] ) print magnet:?xt=urn:btih:%s&dn=%s % (hexinfohash, tname)# using exampleif __name__ == __main__: # max_node_qsize bigger, bandwith bigger, speed higher dht = dhtserver(master(), 0.0.0.0, 6882, max_node_qsize=200) dht.start() dht.auto_send_find_node()
ps: dht协议中有几个重点的需要澄清的地方:
1. node与infohash同样使用160bit的表示方式,160bit意味着整个节点空间有2^160 = 730750818665451459101842416358141509827966271488,是48位10进制,也就是说有百亿亿亿亿亿个节点空间,这么大的节点空间,是足够存放你的主机节点以及任意的资源信息的。
2. 每个节点有张路由表。每张路由表由一堆k桶组成,所谓k桶,就是桶中最多只能放k个节点,默认是8个。而桶的保存则是类似一颗前缀树的方式。相当于一张8桶的路由表中最多有160-4个k桶。
3. 根据dht协议的规定,每个infohash都是有位置的,因此,两个infohash之间就有距离一说,而两个infohash的距离就可以用异或来表示,即infohash1 xor infohash2,也就是说,高位一样的话,他们的距离就近,反之则远,这样可以快速的计算两个节点的距离。计算这个距离有什么用呢,在dht网络中,如果一个资源的infohash与一个节点的infohash越近则该节点越有可能拥有该资源的信息,为什么呢?可以想象,因为人人都用同样的距离算法去递归的询问离资源接近的节点,并且只要该节点做出了回应,那么就会得到一个announce信息,也就是说跟资源infohash接近的节点就有更大的概率拿到该资源的infohash
4. 根据上述算法,dht中的查询是跳跃式查询,可以迅速的跨越的的节点桶而接近目标节点桶。之所以在远处能够大幅度跳跃,而在近处只能小幅度跳跃,原因是每个节点的路由表中离自身越接近的节点保存得越多,如下图
5. 在一个dht网络中当爬虫并不容易,不像普通爬虫一样,看到资源就可以主动爬下来,相反,因为得到资源的方式(get_peers, announce_peer)都是被动的,所以爬虫的方式就有些变化了,爬虫所要做的事就是像个正常节点一样去响应其他节点的查询,并且得到其他节点的回应,把其中的数据收集下来就算是完成工作了。而爬虫唯一能做的,是尽可能的去多认识其他节点,这样,才能有更多其他节点来向你询问。
6. 有人说,那么我把dht爬虫的k桶中的容量k增大是不是就能增加得到资源的机会,其实不然,之前也分析过了,dht爬虫最重要的信息来源全是被动的,因为你不能增大别人的k,所以距离远的节点保存你自身的概率就越小,当然距离远的节点去请求你的概率相对也比较小。