我们好,我是纳农。
首段使用者讨厌你的店面吗?中他们再度对来访者中的关键字展开了收集预测。
假如你看完了我以后提过的每一则该文并Jalgaon了两遍,坚信你现阶段对店面的关键字的层次布署,不说登峰造极,也能称得上Terrasson了。
所以,在领到了相关行业的关键字统计数据后,怎样展开前瞻性强化呢?
我指出他们假如具体来说大体的介绍现阶段店面关键字的两个借助度,最简单的是查阅关键字名列。接着依照现阶段关键字的两个名列情形,与此同时参照词的特性前瞻性强化。
查阅关键字名列的出口处如下表所示:
能看见须要两个两个的输出,总之也能借助服务器端应用软件展开大批量查阅,但速率非常快,且须要收费项目。
责任编辑如是说一类方式,能加速大批量查阅广本关键字名列,并拷贝到表单,展开词的突破点度预测和关键字的强化错误率预测。
专业术语太少说,间接已经开始。
加装python,关上IDLE,依序优先选择file-new file,拷贝上方标识符。
import requestsfrom lxml import etreeimport timeimport csvfrom multiprocessing import Pooldef get_words(): with open(key.txt, r, encoding=utf-8) as f: words = [] for word in f.readlines(): word = (word.strip()) words.append(word) #words = words[13:] num = len(words) print(总共有%s个单字,须要查阅%num) return words,numdef get_result(word,url): headers = { accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9, accept-encoding: gzip, deflate, br, accept-language: zh-CN,zh;q=0.9,en-US;q=0.8,en;q=0.7,zh-TW;q=0.6, origin: https://hz-productposting.alibaba.com, referer: https://hz-productposting.alibaba.com/product/ranksearch/rankSearch.htm, sec-fetch-dest: document, sec-fetch-mode: navigate, sec-fetch-site: same-origin, sec-fetch-user: ?1, upgrade-insecure-requests: 1, content-type: application/x-www-form-urlencoded, cache-control: max-age=0, User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.61 Safari/537.36, cookie: } data = { _csrf_token_: , queryString: word, } res = requests.post(url=url,headers =headers,data = data) source = res.text return sourcedef parse_source(source,file_path,sk): html = etree.HTML(source) try: tbody = html.xpath("//tbody")[0] except: line = [sk, 页面解析错误!检查cookies或稍后重试。] print(line) save_file(line, file_path) return None trs = tbody.xpath(./tr)[:1] result = html.xpath("//div[@class=search-result]/text()")[1].strip()[1:-4]#控制每次读取几个产品 for tr in trs: products = tr.xpath("td[@class=products]/a/text()") if len(products) == 0: print(sk,"无匹配产品") line = [sk,无匹配产品] save_file(line, file_path) else: ranking = tr.xpath("td[@class=ranking]/a/text()") charge = tr.xpath("td[@class=charge]/span/text()") if charge == []: line = [sk,products[0],ranking[0],result] print(sk,ranking[0]) else: line = [sk,products[0],ranking[0],result,charge[0]] print(sk,ranking[0],charge[0]) save_file(line,file_path)def save_file(line,file_path): print(line) csvfile = open(%s.csv % file_path, a+,newline="") writer = csv.writer(csvfile, dialect=excel) writer.writerow(line)def run(word, num, a, total_start): file_path = 名列 url = https://hz-productposting.alibaba.com/product/ranksearch/rankSearch.htm time_start = time.time() print(已经开始查阅%s的名列!---------%s/%s%(word,a,num)) source = get_result(word,url) sk = word parse_source(source,file_path,sk) print(保存成功!) time_now = time.time() - total_start time_end = time.time() time_total = time_end - time_start print(总花费时间%.2f秒,平均花费%.2f秒%(time_now,(time_now/a))) print(**40)if __name__ == __main__: total_start = time.time() words, num = get_words() po = Pool(16) a = 1 for word in words: try: po.apply_async(run, args=(word, num, a, total_start)) a = a + 1 except: print(进程报错!) po.close() po.join() total_end = time.time() total_total = total_end - total_start print(总用时%.2f秒,平均用时%.2f秒 % (total_total, total_total / num))2.获取网页COOKIE与TOKEN;
进去后按下F12:
依序点击图中箭头所指,之后刷新网页。
找到rankssearch开头的文件,单击,右边弹出详细往下翻,找到cookie项,后面的内容即为你的cookie,全部粘贴放入上述须要填写cookie的标识符行中(‘ ’中间)
找到getToken文件,单击,点击response,其中即为你的Token,同理将token=之后的内容放入标识符行中。
3确保你的桌面已经放了key.txt(要查阅的关键字)文件,接着在IDLE中按下F5,将python文件随便取名保存到桌面
4等待程序运行完毕,在桌面形成一份关键字名列表单。(程序运行过程中不要刷新关上的网页。)
以上,关键字名列部分便收集完毕。
假如程序运行提示缺少库,例如requests,关上命令提示符输出pip install xx(对应的库的名称即可)
关上表单
即可查阅某关键字广本面的效果,和查阅核心关键字是否被橱窗引用,与此同时也可查阅该关键字下的搜索结果数,判断关键字的强化难度,
将中间一项的统计数据清洗出来,就可将此表与其他的关键字表建立联动,借助vlookup函数查阅对应关键字的各项指标,判断其强化难度及错误率,从而前瞻性展开强化。
我是纳农,期待你的关注。
很多朋友不知道在哪里下载我以后文中所用的插件,在此分享给我们,公众号回复“插件
”获取。
请立即点击咨询我们或拨打咨询热线: ,我们会详细为你一一解答你心中的疑难。项目经理在线