阿里巴巴国际站是目前最大的B2B平台,也是最大的商品信息提供平台,但2015年的开始出现了信保,使得平台的本身有了飞跃性的变化,从一个信息平台到一个交易平台,真实的海关数据更让人信服;8月份开始,阿里国际站后台公告信保将影响产品排名,作为一个电商运营人员来说无疑更难把控了,但更是更有必要用思维导图xmind来理清阿里国际站排名规则:买家喜好度x商业因素x信息质量
WordPress外贸英文网站搭建必备插件
WordPress的强大、方便、灵活有一部分得益于它丰富的插件,绝对是懒人的选择,比如像篼雨,其实主要是其它CMS也用着麻烦,哈哈!当然下面有很多的插件对于做SEO来说都会起到一定得帮助,尤其对于不懂PHP的人来说,改点代码都百度好几百次,所以这时候Wordpress强大的插件功能就开始牛逼了!
Shell通过egrep和awk快速提取文本想要内容
Shell现在对于篼雨本人来说使用最多的还是文本内容处理,而在seo方面的应用场景,最多的是服务器日志分析,这些都会慢慢更新到,首先感谢在ITSEO网站上看到的这个shell相关的文章,阅读研究发现在日志分析中,shell真的相当地高效、灵活和方便;又或者说在用excel处理一些文档的时候很复杂也可以用到shell,所以学会shell对于现在的办公人士来说也可以提高办公效率等等;下面代码实例告诉shell的一些应用场景!
Python通过Cookies保持登录的机制实现登录
篼雨这次的给大家介绍另外一个模块requests,这个模块呢比urllib,urllib2更加简洁、智能以及方便,requests有一个get的方法相当的易用和好用,而且模拟登录这块比urllib2模块易用不少;requests是一个第三方的库,百度一下就找到下载的地址了,下面来截个代码图:
Python获取百度查询页面真实URL地址
Pythong的确蛮方便的,不用让我们这些非专科者这么苦逼,Python更多的是让使用者解决问题,而相对不用耗费使用者过多的时间在语法语义上。
通过这个小脚本也可以延生批量获取竞争对手的标题title,关键词keywords,摘要description等,还是用这个写一个查排名,当然也有其它方法,这里还是主要说一下Python中urllib的geturl方法。下面是篼雨的脚本:
shell是什么及应用
通俗的理解shell就是类似于DOS下的command和后来的cmd.exe,就是一个命令行解析器,比如说我们辨别真假百度蜘蛛的时候有一个命令叫nslookup,我们在cmd敲上nslookup再输入服务器日志中的IP地址就能反查真假百度蜘蛛,shell也差不多,但区别于它也同样是一门程序设计语言!
而Cygwin是一个在windows平台上运行的类UNIX模拟环境,所以篼雨也就使用了Cygwin来敲命令行,shell在seo中运用得最多就是服务器日志分析。
Python获取指定域名爱站排名数据
篼雨的博客主要更新一些Python非常Easy的小脚本,让初学者先了解一下思路,比如这次涉及到的小脚本翻页的问题,其实用for遍历一下就OK,虽然爱站只提供了50页,但对一些小站长来说也已经足够了,如果像途牛,赶集这种级别的网站,那就只能看很小一部分的排名数据了,看排名数据有什么用呢?很多,比如看看主题有木有漂移,预估查看着陆页(当然有很多更好的工具),哪些关键词没覆盖到,具体排名位置等等,篼雨思维比较有限,还有自己想吧,还是上代码:
Python结巴分词
python做的好的分词应该就是结巴分词了,不但速度快,还可以自定义词库,对于SE来说一般应用于词库的维护,比如,通过分词后可以根据词性去除掉停词,再根据TF-IDF过滤高频词(没用的),还得做一些拼错的,多种称呼其实一样的的等也得做一下分类。最后就是关键词分类了,分类我是人工的,太失败了是吧,见笑,像我连阿里巴巴国际站也做,我这个行业的关键词的分类还好,特征比较明显,主要可能是英文的关系吧,不过还是有很多遗漏。下面是篼雨python的结巴分词代码:
Python查爱站百度权重及排名词数
玩Python新手朋友可以先从一些简单的脚本的开始,培养自己的成就感,不要想一口吃成一个胖子,而且python的确相对简单,但也只是相对简单,单第三库就有几千个了吧!其实这段代码是看到SEO三人行的朋友发出来先的,但是好像不能用了,有兴趣可到SEO三人行论坛找找,这边的代码自己也做了一些改动,要是你自己能做下改动那也很简单的,比如做成批量,多线程之类,下面是本人篼雨的代码:比较简陋见谅!