如何提高ROI,SEO投资回报率,是每个SEO主管都需要考量的问题,为了更好的解决这个问题,定期审查SEO诊断报告,并发现与解决其中的问题,很有必要。 绿泡泡堂SEO学习网,将通过如下内容,与大家分享其中最值得关心的5个指标。 搜索引擎优化指南:SEO人员,5个最关心的问题: 1、点击率最高的页面 一定时期内,点击率最高的页面,直接反应了近期网站流量的构成,它是否与网站预期目标匹配,你可能需要查看网站流量统计:如果是来源更多的老页面,你需要做出审查: ① 新页面的排名情况:上升与下降 ② 新页面的标题撰写:是否符合SEO与新媒体标题的要求,既包含关键词,又具有一定的吸引力。 ③ 新页面的内链与外链:是否得到足够的资源做支持,来自站内的权重页面推举,以及高质量外链的推举。 2、跳出率最高的页面 虽然跳出率并不是衡量页面指标的唯一标准,因为不同行业的跳出率不一样,但它具有一定的指导意义,主要体现在,内容质量与网站结构设计是否达到既定标准。 3、权重最高的栏目 当我们试图衡量站内某个栏目的影响力的时候,我们经常参考判定的标准就是来自外部链接对该栏目的投票,以及栏目关键词的排名。 如果你发现网站栏目排名与外链资源投入并不匹配,你可能需要适当的调整: ① 栏目页面的标题,从新对关键词的竞争度进行评估。 ② 合理分配H1-H3标签,并且利用nofollow引导权重,并且注意栏目页面在顶部导航的位置。 4、转化率最高的栏目 转化率与内容页面的流量与排名,并非是强相关的,它完全基于页面内容,包括:高质量的原创文章,具有一定逻辑的段落结构,良好的视觉体验,字体的大小、颜色、背景等内容。 你可以找出TOP10的转化率较高的页面,总结其相关特定,定制内容页面写作模板,仅供日后参考。 5、流量最高的页面 在这里我们并没有讨论负面SEO参与的流量,所指的流量都来源于正规途径,包括:搜索引擎,社交媒体,直接访问,网络便签等渠道。 查看流量高的页面,我们需要配合跳出率分析: 如果跳出率相对较高,非搜索引擎流量来源也相对较低,证明页面流量高的原因多半是技术原因,你可能需要调整内容与之匹配。 如果跳出率相对低,从侧面反映出页面内容具有一定指导意义,你可以利用高流量的页面,推举相关性较高的专题,一是权重传递,二是进一步沉淀流量,促进转化。 绿泡泡堂SEO学习网 https://www.绿泡泡堂seo.com 搜索引擎优化指南, SEO人员:5个“最”关心的问题!
很多站长都会一直在讨论一个问题,怎么提升百度排名的问题,一直以来都是站长们热议的话题,那么今天云无限科技公司就来为大家详细的讲解下怎么提升网站优化效果,提升百度排名的检验标准是什么?一、百度给予关键词排名的标准1、第一网站标题的设置合理性网站标题的设置合理性,主要体现在网站的主题与标题是否一致,我们不能挂狗头卖羊肉,这样会被搜索引擎判断为垃圾网站,属于欺诈行为,关键词的排名是不可能上去的。所以,网站标题的设置要与网站主题匹配的,合理的标题设置是网站成功的一半,只有用户通过搜索关键词,进入你的网站,网站内容满足用户的需求,那么你的转化率就会很高,同样关键词排名上升的就比较快。2、网站内容与关键词主旨的相关性通过搜索引擎算法的不断更新,百度爬虫已经接入ai系统,可以有效的判别网站网站内容与标题的相关性、原创性,这种算法的推出让很多原创的作者受益匪浅,内容主题跟搜索关键词的相关性越高,获得排序有待的机会也越大。简陋说如果网站内容足够丰富,能满足搜索用户的所有需求,那么一般这样的内容,展示和点击一定不会差到哪里去。3、网站访问页面的体验感页面体验两个方面,一个是网站页面的加载速度,另一个是页面的用户体验。首先个网站页面的加载速度,不仅仅是提供给用户看的,更是给搜索引擎蜘蛛看的。具体体现在,网站页面的加载速度可以让人赏心悦目,用户自然的浏览量就会增添,转化率也会随着增添;加载速度的提升不仅仅能提升用户体验,更能让抓取蜘蛛顺利的去抓取页面,提升网站的收录量,从而提升网站评级,提升关键词排名。4、网站内链以及外链的建设随着搜索引擎的更加智慧,内外链上面对排序的影响逐步在削弱,当然了必要的和网站相关的内链还是少不了。二、如何提升百度关键词排名1、借鉴同行的体会借鉴同行的主要方面:首页以及内页TDK的设置、h标签的使用、网站文章发布的规律、网站内敛建设、网站布局向竞争对手学习这是一个智慧的办法,但是你要学习是排你前面的多个站点,将他们对用户的理解拿到你的站点上,内容做的要比所有同行都要好,尽可能多的产出用户会搜索的高质量内容,那么你的百度排名也会越来越好。2、用户需求摹仿网站落地页决定着网站的关键词排名,网站落地页面不仅仅要满足搜索引擎的规则,更要把用户的体验放到首先位。你得满足多样化的用户需求,很多时候一个关键词query下的需求是多个的,尽量都满足他们;这里大家可以使用百度指数的需求图谱来辅助判定。你要清晰针对于查询此类网站的用户人群去设定你的落地页面,你要摸索的是用户会搜索哪些词?用户的需求等内容。以上就是今天云无限科技公司为大家分享的关于提升百度关键词排名的方法的内容,渴望对大家有所帮助。如果大家有更多关于网站优化的见识需要进行了解的话,请及时的与我们进行联系。
什么是网站分权的,正常情况下网站的首页或者栏目页面的权重是最高的,如果网站栏目的权重超过了网站首页的权重,或者是文章的权重超过了网站首页或栏目权重,这种情况我们通常都说是网站分权了。对于这种情况往往会导致首页的权重比较低,seo每天一贴教你怎么解决网站分权的问题。 我们知道,对于新站,seo每日一贴搜索引擎没有任何信赖,所以我们需要在早期阶段提升站点。seo联盟因此我们必须注意新站的一些提示。许多网站治理员抉择更新多个文章,或者每天都更新内容,但由于能力有限,每次只能每天更新一篇或几篇文章,最后提升网站优化更加困难,并且很长时间内很难提升上去。 很长一段时间,seo每日一贴即使最后的效果仍旧相对较差。seo联盟网站分权的最根本原因是页面分类的相关性差,网站页面有过多以及网站结构不合理。网站的不合理结构是最麻烦的事情,我们需要优化网站结构,重新调整网站结构,甚至可能需要修改网站,从根本上解决这个问题。如果由于页面分权而导致外部链接太多,请减少链接或添加noflow标记。如果页面的相关性较差,增添页面文章的布局和网站的关键字密度。
关于SEO体会分享的问题 早上有朋友在微信群提问,问哪里有真正的SEO体会分享,纯干货分享的那种。笔者沉思三分钟后反问,什么才是真正的SEO体会,怎么做才叫分享?该朋友接着回答,说就是那种能够真正快速提升页面收录,快速提升关键词排名的优化体会!笔者表示很尴尬,事实上在SEO行业问如此问题的大有人在,各种SEO论坛、SEO群等都能看到。笔者不直接回答这个问题,而是从另外两个角度来聊聊SEO体会分享。1.什么是真正的SEO体会我们在遇到问题的时候潜意识里会渴望得到大神的指点,渴望能够看到别人成功的体会。但是,当体会摆正我们面前的时候,却往往忽视他,认为这不是真正的体会,而是忽悠人的玩意。SEO体会分享也是如此,很多网站其实都有靠谱的SEO体会分享,但往往我们会忽略它,认为这些内容不过是表面的敷衍。另外,有些SEO人员本身就不知道自己需要怎样的SEO体会,只是想要快速提升自己的SEO优化技巧,却又不知道该从何入手。SEO优化是个长期系统的工程,如果你以此为目标来寻求SEO体会分享,那么很抱歉,确乎没有!笔者这里建议,我们要带着小目标去寻求帮助,去找对应的SEO经验分享。举个例子,比如我们不知道如何去设置页面标题,我们就可以去搜索关于页面标题设置的SEO体会,这样的分享会很多,且大多有借鉴意义。2.怎样的SEO体会分享才是真正的分享真正首先点所说,很多朋友想着要免费的SEO体会分享,而同时又认为免费的SEO体会分享都不是真正的干货,这就很矛盾。笔者认为,只要能够帮助你解决网站优化问题,那就是靠谱的SEO体会。大家要摆正心态,不要总认为只有大神的线下分享才是真的分享,真正的大神没有那么多时间来跟你扯家常,当然,更没有责任和义务要跟大家分享他的SEO体会。所以,大家要懂得利用,网上其实有不少干货的SEO体会分享,就看大家否情愿去研究。3.SEO体会分享是否适合你这里先举个例子:笔者爱慕打篮球,那么乔丹科比等球星的体会是否适合呢,很明显,不适合。这也就是说,不是所有的SEO体会都适合你,假如你做的商城网站SEO,那么流量站的SEO优化体会就不太适合你。关于SEO体会分享的问题的总结:SEO体会分享是个主观性很强的命题,没有统一的标准,即便是大神的成功体会也不可能解决所有人的问题。另外,我们寻找SEO体会之前,要搞清晰目的是什么,要具体解决什么SEO问题。真正有用的SEO体会往往是针对某个细小问题,如果某些SEO体会分享号称能快速提升你的SEO技术,那么很显然,这不靠谱!最后建议,罗马不是一日建成的,大家要静下心来,打好SEO基础,一步一个脚印的去学习SEO见识,提高SEO技术。 --
在常见负面SEO帖子里见到,我这个小博客有几十个域名镜像我。有读者提问,怎么知道自己被镜像了,网站被镜像又改怎么处理。今天我们来聊一下。 一、什么是恶意镜像网站? 镜像网站指的是和你的网站基本一样、并且实时同步的其它网站。就像照镜子一样,所以名为镜像。 有的镜像网站是没有恶意的,很可能是你自己设置的,为了方便用户能从多个域名访问网站,被封了一个,还有其它的域名。比如****的草榴社区,好像就有很多镜像可以访问。有的镜像,也就是这里讨论的镜像,是不怀好意的,通常是别人设置的,要么为了负面SEO你的网站,要么为了利用你的内容获得排名,然后把用户转向到敏锐、非法内容网站上去。 网上有的文章把采集和镜像混在一起。虽然表现形式差不多,但严格来说,采集和镜像实现方法、表现形式是有区别的。 采集的网站一般是提前抓取别人网站的内容,放入自己数据库,再用程序调用到页面上。被采集网站有新内容时,采集网站并不能实时同步更新,要再采集之后才干呈现。一旦被采集,内容已经在对方数据库里了,从技术上是无法阻挠采集网站显示这些内容的。这篇帖子说的不是这种。 镜像网站并不事先抓取内容,而是有人访问网站时,实时从被镜像的网站调取内容,做些处理(替换URL、文字,加文字、加JS等),然后实时显示。被镜像的网站有任何更新,镜像网站是实时同步的。 网上有卖用于镜像网站的小偷程序的。小偷程序通常也可以用来做采集。为了不给他们做宣传,就不提名字了。从他们的官网摘取几条程序功能,有助于理解后面的内容: 1)、全自动分析,内外链接自动转换、图片地址、css、js,自动分析CSS内的图片 2)、内置强盛替换和过滤功能,标签过滤、站内外过滤、字符串替换、等等 3)、伪原创,近义词替换有利于seo 4)、增添URL路由,实现全站URL变换,个性化本站URL地址 5)、超级模板增添挪动模板、自定义栏目功能 6)、增添自动获取301、302重定向的采集,解决跳WWW,跳https采集 7)、代理IP、伪造IP、随机IP、伪造user-agent、伪造referer来路、自定义cookie,以便应对防采集措施 二、网站被恶意镜像带来的危害 从SEO角度看,权重不高的小站、新站,被镜像意味着有其它网站和你的网站内容基本一样,搜索引擎有可能认为你的网站不是原版,镜像网站才是,所以把排名、流量给了镜像网站。 对有一定历史、权重的网站,镜像网站取代原版网站的可能性微乎其微。但从心情角度考虑,被别人镜像,内容被别人偷走,即使没有其它明显后果,也还是挺烦人的一件事。另一个烦人的事是,镜像网站一般来说并不是要和你提供同样的产品或服务,而是把用户转到赌博、色情等服务上去。有的是通过JS把赌博、色情内容显示给用户,有的直接把用户转向到另外的网站上去。 1)、网站流量明显减少,关键词排名逐渐降低; 2)、当网站被镜像后,不及时处理,时间一长很容易被降权,如果再想恢复就要花更多的时间与精力; 三、怎样发现自己网站是被镜像了 有时候注意到被镜像了是因为自己网站排名下降,怀疑有人负面SEO。有时候是搜索品牌名称,看到镜像网站。已经知道自己被镜像了好办,直接看下面怎么处理部分。 很多站长则完全不知道自己网站是否被镜像了。有几个我常用的检查方法。 1)、是百度统计后台: 受访域名部分列出了使用相同百度统计代码的域名。其中呈现快照、百度/谷歌翻译等是正常的,但呈现一些奇奇特怪的域名就要查看一下了。 2)、是搜索网站的特点句子。最容易想到的是网站品牌名称、首页标题等,确实可以发现一些镜像网站。但有时品牌名绝大多数是会被替换的。 四、网站被镜像了怎么办?网站被恶意镜像该怎么处理? 第一,一些在网上提到的解决办法其实并没有什么用。 比如有的说页面上的链接用****地址有帮助,其实小偷程序都会自动替换网址,用相对地址还是****地址没什么差别。 还有的说页面上加上网站链接、网站名称、版权声明之类的,搜索引擎会识别哪个是正版。但镜像小偷程序连链接带文字都可以全部自动替换,这么做并没有用。 发现镜像网站后的处理原则就是让镜像网站不能在镜像域名上显示你的内容。考虑到镜像网站是要实时访问和调用被镜像的页面的,所以可以考虑几个方法: 1)、比如用JS检测一下正在被打开的页面是不是在自己的域名上,是的话正常显示,不是的话(域名是镜像网站时)强迫转向到自己域名: if (window.location.hostname !== ‘bj.youhuabaidu.com’){ window.top.location.href = ‘http://bj.youhuabaidu.com/’; } (声明:我对程序不熟,代码只是简陋举例,具体怎么写,请问你的程序员。) 不过这种方法只对用户有效,搜索引擎不执行JS,还是会抓取到镜像内容。也可以用PHP写脚本判定和转向。 有时候由于种种原因,程序不起作用。 2)、另一个直接的方法是屏蔽镜像网站来访问的IP地址。先查一下镜像网站服务器IP。把对方主机IP先屏蔽了。不过镜像网站来实时抓取用的IP大部分情况下不是域名主机IP,可能是CDN,可能是伪造IP,也可能是多IP的服务器。要发现必须屏蔽的IP,需要查看网站原始日志。我的一个小窍门是,访问镜像网站上一个很少人会访问的页面,比如翻页第70页,然后马上查看日志,这个页面被访问的IP就是应该屏蔽的IP: 屏蔽了这个IP,再访问镜像网站就变成403错误了: 不知道页脚的友情链接是镜像网站自己加的?还是卖程序的人强制加的? 镜像网站经常是会伪造或实时轮换IP地址的,如果屏蔽一个IP网站还能访问,就再访问翻页69页、68页等等,找到更多IP。屏蔽也可以屏蔽IP段。我的体会是,通常镜像网站不会使用超过10个IP地址。 当然也可以写个简陋的脚本放自己网站上,比如bj.youhuabaidu.com/mirror.php: echo $_SERVER[‘REMOTE_ADDR’]; ?> 脚本****功能就是显示访问的IP,然后自己访问一下小偷镜像网站的脚本网址,页面上就直接显示镜像网站访问你服务器时的IP了。如果镜像网站替换了URL,这个方法就不好用了。无论怎样,日志中是一定有的。 3)、通过域名、title即轻松判定为镜像的恶劣站群,如果依然在各关键词下获得排名,可以通过站长平台进行反馈:https://ziyuan.baidu.com/feedback/ 4)、无法快速区分真假的站点,需要掩护自我权益的站点可以向百度投诉:https://www.baidu.com/duty/right.html 提供各种资质证明,会有百度法务部的员工审核处理。在这里提醒各位站长,请尽可能提供最全最有说服力资质证明,包括且不限于网站备案证明、品牌营业证明等,以帮助工作人员快速判定。 5)、如果站长发现镜像站点同时做恶劣赌博、色情内容,站长可以投诉(http://jubao.baidu.com/jubao/),百度公司相关员工会进行处理。 总结:处理网站被镜像的方法基本就是这些,如果被镜像的网站站已经死链或者在相关关键词下没有排名,那证明镜像站点已被反作弊策略识别并处理,被镜像的站长也就不用担心了。
近日,在图片搜索引擎的领域在出新消息,谷歌发布了图片搜索相关优化的指南,这其实并不是一个新鲜事,它只是意在强调图片搜索的重要性,这与百度图片搜索引擎,并没有太大的区别,但却是一件值得让人关注的事情。 如果你早前并没有关注图片搜索引擎这个领域,那么绿泡泡堂SEO学习网建议,从现在开始你可以尝试的了解谷歌图片搜索与百度图片搜索的优化技巧,从而低成本的获取更多网站流量。 常见的图片搜索引擎有哪些?通常来讲,常见的图片搜索引擎主要包括:谷歌图片搜索引擎、百度图片搜索引擎、搜狗图片搜索引擎、360图片搜索引擎等。那么,百度图片搜索与Google图片搜索的优化技巧有哪些呢? 1、高质量的站点 通常来讲,想要试图利用图片搜索的排名为网站带来更多的流量,前提是你需要有一个质量相对较高的站点,这样你的图片,才能够更好的被图片搜索引擎抓取,从而索引,进行有效的排名。 2、图像的数量、大小、位置 图片数量: 对于一般的个人博客而言,非图片类的站点,通常情况下,一般内容文章我们建议最多不要超过3张图片,图片过度容易导致篇幅过长,影响用户体验。 图片大小: 正常来讲,为了使得图片能够更好的在搜索结果中展示,特殊是挪动端,我们建议你需要调整图片大小,比例在3:2可能相对比较好。 图片位置: 一般来讲,按照图片蜘蛛爬行抓取的顺序是从上到下,所以相对重要的图片,尽量放置在站点内容页面的头部。 3、ALT标签与图片周围文字 对于图片搜索引擎,只有更好的理解图片内容,才干够更加有效的针对特定关键词进行排名,通常个人站长爱慕利用ALT标签,就标注图片的内容,这里建议尽量利用一个包含关键词的短句去描述,而非仅仅只是关键词。 同时,为了提高图片的相关性,适当的在图片上下文提到相关的目标关键词很有必要。 4、图片URL结构 尽量让图片的网址结构简短,如果是针对谷歌图片搜索引擎去优化,很有必要在图片URL中,包含特定关键词,而百度图片搜索,并不需要过度强调。 值得提醒的是目前对于开启CDN和HTTPS链接的站点,你需要经常查看网站日志的蜘蛛状态码,看看图片外链是不是可以被有效抓取。 5、结构化数据与挪动友好 我们知道在百度推出熊掌号以来,搜索结果出图,是一个很热门的权限,它可以更好的在SERP中,展示你的图片,这有利于它更好在图片搜索引擎中被抓取与排名。 值得强调的是无论是谷歌与百度,已经不断的在强调挪动优先索引的问题,为此,你可能需要强化挪动端的用户体验,特殊是提高网站打开速度。 总结:在图片搜索引擎领域,百度图片搜索与谷歌图片搜索,仍旧还有很多优化排名的细节,上述内容仅供大家参考。 绿泡泡堂SEO学习网 https://www.绿泡泡堂seo.com
现在很多人都在做搜索引擎优化,大的方向每个人都懂:内容,标题,关键字,外链等等。但是要想比别人做得更好,就需要看细节的东西了。本文列出了一些常见搜索引擎优化问题,以及具体的解决方案,渴望对相关的人员有所帮助。1. URL的大小写这个问题常见于使用.NET技术的网站,事实上是因为网站服务器在配置上就是要响应大写的URL,它不会重定向或者重写小写的版本。随着搜索引擎在识别标准版本和忽略重复版本的技术上有了很大的进步,我们也常常不关注这个问题。但是,搜索引擎并不完美,所以我们必须要自己动手。如何解决:在IIS 7服务器上有一个URL重写模块,可以帮助解决这个问题。在这个工具的界面上,你可以执行小写的URL,之后这条规则就会加到网站的配置文件中,从而解决问题。2. 首页有多个版本这个问题也是经常会在.NET的网站上碰到,当然其他的平台也会有。举个例子,我们通常会碰到这种URL:www.example.com/default.aspxwww.example.com/index.htmlwww.example.com/home当然,现在搜索引擎也会帮你解决这个问题,但是最好的做法是首先时间自己解决。如何解决:要发现这些网页可能会有点棘手,因为不同的平台有不同的URL结构,所以解决方法有点像猜谜。你可以用工具摹仿蜘蛛爬行你的网站,导出excel表的爬行记录,筛选Meta标签,搜索网站首页标题,很容易就可以找到重复的首页。我比较倾向于301转向,将其他重复页面指向到我们确定的那个首页,你也可以通过添加rel=canonical标签来解决这个问题。另一种方案是使用工具,例如Screaming Frog,来摹仿蜘蛛爬行,找出指向重复页面的链接。然后你可以编辑这些重复的页面,指向正确的URL,这样就不需要通过301转向而担心链接权重的降低。小提示:你可以查看每条URL的谷歌缓存,来看是否有问题。如果谷歌没有发现重复的URL是一样的,你可以看到这写URL不同的PR和缓存日期。3. URL结尾的查询参数在有数据库驱动的电子商务网站,这种问题很常见。也并不是说其他类型的网站没有,但是一般电子商务网站上有大量的产品属性和筛选选项,如颜色,大小等。在这种情况下,用户点击的URL在搜索引擎优化方面都比较友好,但是可以常常看到有很多链接的结尾是像我下面的例子这样的:www.example.com/product-category?colour=12在这个例子中,某种颜色是作为筛选产品类别的依据。这种筛选方法对于用户来说是很好的,但是对搜索引擎就不好了,尤其是有时候客户并不是用颜色来搜索某个特定的产品。在这种情况下,对某些关键词来说,这个URL就不是一个好的登陆页。当很多的参数结合起来的时候,可能会导致蜘蛛资源被用尽。更糟糕的是,有时候尽管参数的位置不一样,但是却返回相同的内容,例如:www.example.com/product-category?colour=12&size=5www.example.com/product-category?size=5&colour=12尽管路径不一样,但是这两个URL返回的是相同内容,搜索引擎会认为这些页面是重复内容。请记住,谷歌是根据你网站的PR值来分配蜘蛛资源的。请确保这些蜘蛛资源有充分的利用。如何解决:在继续之前,我们要解决另外一种常见的相关问题:URL可能对搜索引擎不友好是因为他们不是数据库驱动的。在这个特别情况下,我并不担心以上的问题,我更担心的是蜘蛛资源浪费和一些不需要的页面被索引了。第一要解决的是哪些页面是要蜘蛛爬取和索引的,这个取决于你的关键字研究,你需要交叉引用数据库中核心关键词的属性。在电子商务网站,每个产品都有其关联的属性,这也是数据库的一部分。下面是一些常见的例子:Size (i.e. Large) 尺寸(大)Colour (i.e. Black) 颜色(黑色)Price (i.e. £49.99) 价格 (£49.99)Brand (i.e. North Face) 品牌(North Face)你的工作是要找出哪些属性是关键词的一部分,用户可以找到这个产品。还要确定用户需要使用哪些属性的组合。这样做后,你可能会发现一个搜索量很高的关键词是North Face + waterproof jackets(防水夹克)。这时,你需要做一个被爬行和索引的North Face + waterproof jackets登陆页。还要确保数据库属性中有一个对搜索引擎友好的URL,不是"waterproof-jackets/?brand=5" 而是"waterproof-jackets/north-face/."还要将这些URL添加在网站的导航结构中,PR值可以传递,用户也很容易找到。另一方面,你可能会发现Northface+Black这个组合的关键词搜索量很低。你也就不会想要Northface+Black这两个属性的页面被爬行和索引。如果你已经清晰哪些属性是要被索引的,哪些不需要,下一步行动要不要开始取决于URL有没有被索引。如果URL还没有被索引,最简陋的方法是把URL结构添加到robots.txt文件中。要完成这个可能需要多尝试一下RegEx,请确保RegEx是正确的来以防万一。此外一定要使用谷歌的治理员工具Fetch, 需要注意的是,把已经被索引的URL添加到Robots.txt文件中不会让 他们从索引库中被删除。如果URL已经被索引,我们需要用rel=canonical标签来解决。如果不巧网站正在开发中,你不能进行修改的工作,你会像上面遇到的情况一样不能解决核心问题,这时候,rel=canonical标签可以帮助你延迟一点解决问题。把rel=canonical标签添加到你不想被索引的URL上,然后指向不想被索引的相关URL。4. 软404错误这种情况通常不在预料中,用户没有觉得什么不一样,但是搜索引擎蜘蛛知道不同之处。软404页面意味着你发现不了真正的错误页面,也找不到网站上那些地方对用户体验不好。从链接建设的角度看,哪个方法都不是最佳抉择。可能你有过来的链接链到了坏的URL上,但是却很难追踪这些链接,然后重定向到正确的页面。如何解决:幸运的是,对于网站开发人员来说,返回一个404状态比200要相对简陋很多。设计一个很酷的404页面对于你自己和用户来说都是一种享受。用谷歌治理员工具中的一些功能可以帮助你找到软404页面,它会告诉你已经检测到的软404页面。你也可以自己手动检测,随便用一个坏链接来测试,看看你得到的返回状态是什么。我很爱慕用Web Sniffer这个工具来检测,如果你是用Chrome浏览器的话,也可以用Ayima这个工具。5. 302重定向而不是301重定向网站开发人员很容易将这个重定向弄错,因为从用户的角度来看,两者没有区别,但是搜索引擎确实分别对待的。301重定向是永久性的,搜索引擎认为它会传递权重到新的页面。302重定向是暂时的,搜索引擎认为它不会传递权重,因为搜索引擎觉得某天这个页面又会回来。如何解决:要找到302重定向的URL,我建议用Screaming Frog或者是IIS SEO Toolkit这两个工具,它们可以进行深度爬行。然后检查看它们是应该用302重定向还是301.要解决这个问题,你可以要求网站开发人员改变规则,用301重定向而不是302。6. 坏的/旧的SitemapXML网站地图对于搜索引擎蜘蛛爬取网站的所有链接是非常有用的,虽然有时候它不是非常必要。Sitemap可以正确引导搜索引擎。但是,一些XML sitemaps是一次性的,很快就过时了,导致一些坏链接还在里面,但是新的链接却没有。志愿的状态是,要定期更新XML sitemap,删除坏链接并添加新链接。对于一个大的网站来说,经常添加新页面是很重要的。Bing也说过,他们对于sitemap的“脏乱”也是有一个临界值的,如果超出了这个临界值,他们就不那么信赖这个网站。如何解决:第一,审核你当前的sitemap,找出坏链接。可以用Mike King这个工具。其次,告诉网站开发人员网站的动态,以便定期更新。根据你的资源来确定周期:每天一次,每周一次或者是每月一次。这些更新绘画一些时间,但是从长远来说会节约你很多时间的。这里有个额外的提示:你可以尝试创建一些sitemap,只包含最新的产品,然后以更高的频率来更新这些特定的sitemap。如果你有足够的开发资源,也可以创建一个sitemap,只包含没有索引的URL。7. 给robots.txt文件错误的指令最近遇到一些例子,很多页面被爬取和索引是因为他们被锁定在robots.txt文件中。这些页面之所以会被爬取是因为robots.txt文件中的指令是错误的。单独的命令是正确的,但是结合在一起是就是错误的。如何解决:谨慎使用robots命令,如果有单独的指令,要确认接下来的其他指令是什么,即使是这些指令已经被提到过。充分利用谷歌治理员工具的测试功能,它会告诉你它对你的robots.txt文件的反应。8. robots.txt中有隐蔽字符我最近帮客户做了一个技术审核,发现谷歌治理员工具给我一个告诫:“语法不理解”。我检查了一遍文件,然后测试了一下,一切都很正常。最后我的同事诊断出了问题:在文件中发现了一个隐蔽字符。如何解决:解决这个问题很简陋。简陋重写robots.txt文件,然后运行一遍命令,再重新检查。9. 谷歌爬行 base64 URL这个问题很有趣,最近一个客户发现在治理员工具中发现404错误在大量增添。我们一看,发现几乎所有的错误都是这个格式的URL:/AWYgeW91IGhhdmUgZGVjb2RlZA0KdGhpcyB5b3Ugc2hvdWxkIGRlZmluaXRlbHkNCmdldCBhIGxpZmU/。治理员工具会告诉你这些404的来源,我们就去页面找这个URL是怎样生成的。经过大量的发掘,我们发现这些信赖凭证(authentication tokens)都是Ruby on Rails生成的,是为了防止跨站点请求。在网页的代码中有一些,谷歌蜘蛛还试图去爬取这些信息!更大的问题是,这些信赖凭证(authentication tokens)是动态生成的,并且独一无二,因此我们找不到。如何解决:针对这个情况,很幸运,我们可以通过添加Regex到robots.txt文件中,告诉蜘蛛不要爬行这些URL。10. 服务器配置不当我遇到了一个问题,某个网站的主登录页没有排名。这个页面以前是有排名的,但是在某个时候掉下来了。所有的页面看起来都不错,看不出有任何的作弊嫌疑。经过大量的调查和发掘,最后发现原先是由于服务器的错误配置,一个小小的错误造成的,这个服务器是HTTP标头的。通常,客户端(浏览器)会发送接受标头,指出它能理解的文件类型,这几乎不会修改服务器的操作。服务器端会发送内容形式标头,来识别文件是HTML,PDF或者是JPEG之类的。这家网站的服务器返回的是文件类型标头。如果你发送的接受标头是以text/html开头,那是服务器作为内容类型标头返回的内容。这种行为很特殊,但是很难注意到,因为浏览器总是发送以text/html开头的接受标头。但是,Googlebot在爬行的时候会发送"Accept:*/*"(表示它接受所有的东西)。我发现,如果我发送*/*标头,服务器就会挂掉,因为*/*不是一个有效的内容类型,服务器会崩溃,发送错误的响应。把浏览器的用户代理改成Googlebot并不会影响HTTP标头,像websniffer这种工具不会发送跟Googlebot一样的标头,因此,你根本不会注意到这个问题。改掉这个问题几天后,页面又重新被索引了。常见的搜索引擎优化问题, 以及解决方法-长沙网络推广公司
对于互联网用户而言,搜索引擎已经成为我们日常生活与工作的一部分,几乎每天我们都会花费一定时间在检索上,特殊是互联网从业者,比如:SEO人员,我们整日与不同类型的搜索引擎打交道。 那么,搜索引擎历史是怎样,国内与国外搜引擎大全有哪些? 根据以往搜索引擎营销的体会,绿泡泡堂SEO学习网将通过如下内,进一步阐述搜索引擎的相关内容: 什么是搜索引擎? 简陋理解:搜索引擎是一个庞大的信息系统,它利用搜索引擎爬虫,聚集互联网上海量信息,并通过一定的算法识别,推送给潜在的检索用户,唯一的目的就是快速的匹配潜在的搜索需求。 因此,每隔一定周期,搜索引擎都会进行不断的迭代更新,用于适应高速发展的信息社会。 搜索引擎历史发展: ① 网站目录时代 这是非常早期的一种“搜索引擎”形态,它主要是利用网站目录,提供信息查询,比如:百度的hao123,它经常是利用人工去编辑、审查所提交的相关网站。 理论上讲,能够被早期知名网站目录收录的站点,通常都是高质量的网站,我们称那个搜索引擎时代为导航时代。 ② 文本检索时代 文本检索时代的搜索引擎,主要是根据文本内容的信息查询,只是根据不同的检索模型,针对特定的关键词,在搜索引擎中进行检索。 ③ 链接分析时代 所谓的链接分析时代,类似于今天我们常见的搜索引擎,基于海量的链接关系,去判定一个页面的重要性,甚至去判定一定的相关性,比如:谷歌的PageRank和百度李彦宏的超链分析。 随着搜索技术的发展,基于链接分析已经不能满足更好的搜索体验,国内与国外各大搜索引擎公司,不断投入大量科学技术,比如:利用AI进行判定,输出结果,从而更好的提升用户体验,这是我们现阶段经常使用搜索引擎的状态。 搜索引擎市场 对于世界范畴内的搜索引擎市场而言,每个地区与国家都有着非常独特的搜索引擎,它主要包括: ① 国内搜索引擎 百度:https://www.baidu.com/ 360:https://www.so.com/ 搜狗:https://www.sogou.com/ ② 国外搜索引擎 谷歌:http://www.google.cn/ bing搜索:https://cn.bing.com/ Yandex:https://yandex.ru/ 其中,对于国外搜索引擎,上述谷歌与bing搜索,相信大家并不生疏,而这里重点讲一下Yandex,它是俄罗斯最大的搜索引擎,在该国拥有约65%的市场份额。 在国内边陲做对俄贸易时,我们经常采用的一个搜索引擎。 搜索引擎类型 ① 资讯搜索引擎:主要用于新闻资讯与日常生活中常用的信息检索。 ② 资源搜索引擎:种子搜索引擎、BT搜索引擎,比如像:百度网盘、百度云搜索引擎,主要用于搜索特定相关资源的搜索引擎,它通常主要是针对特定资源,进行检索。 有的小众资源搜索引擎,也可以检索特定的社交媒体网站的相关内容,甚至做这部分内容的集合。 ③ 图片搜索引擎:我们常用的百度图片搜索引擎,它主要用于检索图片,由于AI的接入,百度也不断在提供以图试图的功能,通常我们利用百度试图就可以进行相关操作。 总结:以上内容只是对搜索引擎进行一个简述,并没有过多的进入深入分析,仅供参考,欢迎指正。 绿泡泡堂SEO学习网 https://www.绿泡泡堂seo.com搜索引擎历史, 国内与国外搜索引擎大全
当你试图搭建一个新网站,用于吸引潜在客户的时候,你首要解决的问题,就是让百度快速收录你的站点,为此,设计一个对搜索引擎友好的网站至关重要。 很多SEOer习惯利用线下时间,对搜索引擎研究,不断测试与调整如下几个方面,试图提高搜索引擎友好性,并且不断交流与沟通,取长补短,共同进步。那么,到底如何让网站对搜索引擎友好呢? 1、选定搜索引擎 我们知道目前世界上每个国家都有不同的搜索引擎,针对不同的搜索引擎研究,有不同的搜索规则,简陋举例,bing会统计社交媒体属性,而谷歌与百度不会,目前,在国内谈论搜索引擎友好,我们仍旧是针对的百度,给出建议。 2、优化网站结构 确保网站有一个良好的逻辑结构,对于中小企业站点的网站结构设计,我们仍旧要遵循这个原则,3次点击可以达到网站任何页面,与此同时,你需要确保URL结构标准化: 静态与伪静态,避免采用动态参数,诞生过多的重复页面,与死链接,有必要的情况下,可以利用robots.txt文件,去屏蔽相关内容。 3、提高访问速度 任何排名的前提是被收录,而收录的基础是网站可以更好的被抓取与爬行,其中站点的加载速度尤为关键词,如果百度蜘蛛长时间不能抓取页面,它就会降低抓取频次,特殊是服务器不稳固的时候,严重影响蜘蛛到访与关键词排名的稳固性,为此,你需要: ① 抉择知名主机商的主机,确保地理位置与目标用户匹配,具有完好的技术支持和线路。 ② 压缩图片、CSS、JS这些文件,减少页面体积。 ③ 开启MIP与CDN,提高网络传输速度。 4、利用插件做站内优化 目前市面上有很多CMS程序,并不是非常搜索引擎友好,不合理的设置,往往导致标题冗余,不符合SEO标准,通常我们建议内容页面的标题形式是:文章名称_站点名称。 而站内自动锚文本,构建了网站内部蜘蛛爬行与抓取的路径,适当增添锚文本,有利于提高页面关键词排名,这些工作实际上都可以利用相关的插件来实现。 5、撰写优质内容 内容为王,这是毋庸置疑的策略,新鲜有独特视角的内容,往往促使更多的访问者回访,搜索引擎一直以来爱慕独特有个性的内容。 它不但会让你获取源源不断的外部链接,同时它会吸引百度蜘蛛,频繁来访,维持页面活性,提高搜索引擎友好性。 6、避免采用搜索引擎不友好的策略 当我们在做搜索引擎研究的时候,我们不能只看到搜索引擎友好的一面,同时还要避免搜索引擎一些不友好的因素,主要包括: ① Flash站点 利用Flash建站,是SEO优化的大忌,虽然百度在不断尝试解读这类站点,但在实际解析中,仍旧存在一定的挑战。 ② 过度优化 利用站内可控的锚文本,大量增添某一特定关键词的内链数量,甚至一些作弊网站,完全依托堆积海量内链,进行排名,这些策略都是百度过度优化的表现,不被提倡。 ③ 垃圾外链 对于任何一个新站上线,不要急于建立一些,垃圾外链,低质量的链接,比如:一些权重不高的网站目录、站群形式的新闻外链、不相关的论坛外链等。 ④Robots.txt设置 这是一个至关重要而经常被忽视的内容,很多个人站长,并不清晰这个文件该如何设置,设置不当,往往导致整站不被抓取,所以当你上传这个文件的时候,一定要反复验证规则,目前百度搜索资源平台,支持相关的验证。 如果你实在不懂,还是抉择不上传为好。 总结:如果用一句话总结,搜索引擎友好的网站有哪些特征,那么它一定是易访问,结构清楚,标题明确,内容切实可行。 966SEO学习网 https://www.绿泡泡堂seo.com
你知道像百度这样的搜索引擎如何发现,抓取和排列数以万亿计的网页,以便提供搜索结果吗?尽管搜索引擎的整体工作原理较为复杂,但我嘛可以理解一些非技术性的东西,如抓取,索引和排名,以便我嘛更好地理解搜索引擎优化策略背后的方法。据统计网络上页面结果超过130万亿个。实际上,可能远远超过这个数字,有很多页面因为各种原因被百度消除在抓取,索引和排名过程之外。为了保持搜索结果尽可能的与用户搜索相关,像百度这样的搜索引擎有一个明确定义的流程,即用于为任何给定的搜索查询确定最佳网页,这个过程随着时间的推移而变化,因为它可以使搜索结果更好。基本上,我们试图回答这个问题:“百度如何确定以及排序搜索结果?”。简而言之,这个过程包含以下步骤:1.抓取 – 发现网络上页面并抓取;2.索引 – 存储所有检索到的页面的信息供日后检索;3.排名 – 确定每个页面的内容,以及应该如何对相关查询进行排名;让我们仔细看看更简陋的解释…抓取搜索引擎具有专门的抓取工具(又名蜘蛛),可以“爬行”万维网来发现存在的页面,以帮助确定最佳网页,以便对查询进行评估,爬虫旅行的方式是网站链接。网站链接将整个网站上的页面链接在一起,这样做为抓取工具创建了一条通往存在的万亿互联网页的途径。每当爬虫查看网页时,他们都会查看页面的“文档对象模型”(或“DOM”),以查看其中的内容。DOM页面出现HTML和Javascript代码,爬虫可以通过它查找其他页面的链接,这答应搜索引擎发现网页上的新页面,并且找到每个新链接都会加载到该爬虫将在稍后访问的队列中。如前所述,像百度这样的搜索引擎不会抓取每一个网页,相反,他们从一组可信的网站开始,这些网站是确定其他网站如何衡量的基础,并且通过跟踪他们在他们访问的网页上看到的链接,扩展了他们在网络上的抓取。相关阅读:百度蜘蛛优化教程索引索引是将关于网页的信息添加到搜索引擎索引中的行为,索引是一组网页 – 一个数据库 – 包含搜索引擎蜘蛛爬取页面的信息。索引目录和组织:·每个网页内容的性质和主题相关性的详细数据;·每个页面链接到的所有页面的地图;·任何链接的可点击(锚点)文字;·有关链接的其他信息,例如它们是否是广告,它们位于页面上的位置以及链接上下文的其他方面,以及关于接收链接的页面的含义… 和更多。索引是当用户在搜索引擎中输入查询时,百度等搜索引擎存储和检索数据的数据库决定从索引中显示哪些网页并按照什么顺序显示之前,搜索引擎会应用算法来帮助排列这些网页。排名为了向搜索引擎的用户提供搜索结果,搜索引擎必须执行一些关键步骤:1.解释用户查询的意图;2.识别与查询相关的索引中的网页;3.按相关性和重要性排序并返回这些网页;这是搜索引擎优化的主要领域之一,有效的SEO有助于影响这些网页对相关查询的相关性和重要性。那么,相关性和重要性意味着什么?·相关性:网页上的内容与搜索者的意图相匹配的程度(意图是搜索者试图完成搜索的目的,这对于搜索引擎(或SEO)来说是一个不小的任务)。·重要性:他们在别处引用的越多,网页被认为越重要(将这些引用视为该网页的信赖投票)。传统上,这是从其他网站链接到该网页的形式,但也可能有其他因素发挥作用。为了完成分配相关性和重要性的任务,搜索引擎具有复杂的算法,旨在考虑数百个信号 ,以帮助确定任何给定网页的相关性和重要性。这些算法通常会随着搜索引擎的工作而改变,以改善他们向用户提供最佳结果的方法。虽然我们可能永远不会知道百度等搜索引擎在其算法中使用的完整信号列表(这是一个严密保密的机密,并且有充分的理由,以免某些不道德者使用其来对系统进行排名),但搜索引擎已经揭示了一些通过与网络出版社区共享见识的基础见识,我们可以使用这些见识来创建持久的SEO策略。搜索引擎如何评估内容?作为排名过程的一部分,搜索引擎需要理解它所搜索的每个网页内容的性质,事实上,百度对网页内容作为排名信号很重视。在2016年,百度证实了我们许多人已经相信的内容:内容是网页排名前三位的因素之一。为了理解网页的内容,搜索引擎分析呈现在网页上的词语和短语,然后建立一个称为“语义地图”的数据地图,这有助于定义网络上的概念之间的关系页。您可能想知道网页上的“内容”实际上是什么,独特的页面内容由页面标题和正文内容组成。在这里,导航链接通常不在这个等式中,这并不是说它们并不重要,但在这种情况下,它们不被视为页面上的独特内容。搜索引擎可以在网页上“查看”什么样的内容?为了评估内容,搜索引擎在网页上找到的数据以解释理解它,由于搜索引擎是软件程序,他们“看到”网页的方式与我们看到的截然不同。搜索引擎爬虫以DOM的形式查看网页(如我们上面定义的那样)。作为一个人,如果你想看看搜索引擎看到什么,你可以做的一件事就是看看页面的源代码,要做到这一点,您可以通过右键单击浏览器中并查看源代码。这和DOM之间的区别在于我们没有看到Javascript执行的效果,但作为一个人,我们仍旧可以使用它来了解很多关于页面内容的内容,网页上的正文内容通常可以在源代码中找到,以下是HTML代码中以上网页上的一些独特内容的示例:除了网页上的独特内容之外,搜索引擎抓取工具还会在网页上添加其他元素,帮助搜索引擎了解该网页的内容。这包括如下内容:·网页的元数据,包括HTML代码中的标题标签和元描述标签,这些标签用作搜索结果中网页的标题和说明,并应由网站所有者维护。·网页上图像的alt属性,这些是网站所有者应该保留的描述,以描述图像的内容。由于搜索引擎无法“看见”图像,这有助于他们更好地理解网页上的内容,并且对于那些使用屏幕阅读程序来描述网页内容的残障人士也起着重要作用。我们已经提到了图片,以及alt属性如何帮助爬虫了解这些图片的内容,搜索引擎无法看到的其他元素包括:Flash文件:百度曾表示可以从Adobe Flash文件中提取一些信息,但这很难,因为Flash是一种图片媒介,当设计人员使用Flash来设计网站时,他们通常不会插入有助于解释文件内容的文本,许多设计人员已将HTML5作为Adobe Flash的替代品,这对搜索引擎友好。音频和视频:就像图像一样,搜索引擎很难理解没有上下文的音频或视频。例如,搜索引擎可以在Mp3文件中的ID3标签中提取有限的数据,这是许多出版商将音频和视频与成绩单一起放在网页上以帮助搜索引擎提供更多背景的原因之一。程序中包含的内容:这包括AJAX和其他形式的JavaScript方法,动态加载网页上的内容。iframe:iframe标记通常用于将自己网站上的其他内容嵌入到当前网页中,或者将来自其他网站的内容嵌入到您的网页中百度可能不会将此内容视为您的网页的一部分,尤其是当它来自第三方网站时。从历史上看,百度忽略了iframe中的内容,但可能有些情况是该通用规则的例外情况。结论在SEO面前,搜索引擎显得如此简陋:在搜索框中输入查询,然后poof!显示你的结果。但是,这种即时展示是由幕后的一组复杂过程支持的,这有助于为用户搜索识别最相关的数据,因此搜索引擎可以寻找食谱,研究产品或其他奇奇特怪不可描述的事情。相关阅读:爬行、抓取、索引、收录,指的都是什么?搜索引擎的工作原理相关文章推举【SEO教程】支配百度搜索排名的12个法则 互联网是一个庞然大物,我们大多数人都了解如何搜索我们想要的信息。从台式机到平板电脑,智能手机等,我们都是搜索专 […]...SEO的HTML标签:使用还是不使用? 网站HTML文档的
&部分怎么样?它的内容是否会影响网站在搜索引 […]...百度蜘蛛抓取频次优化的完整指南 抓取频次更像是一个SEO概念,在大多数情况下站长并不关心百度蜘蛛的抓取频次,因为抓取频次对于中小企业网站来说几 […]...怎样优化网站?一个简陋的SEO入门教程 搜索引擎优化的主要目的不仅是让蜘蛛找到你的网站,还要根据相关性排列你的网页,以便它可以呈现在搜索结果的顶部。 […]...电子商务网站SEO成功的5个因素 在电子商务的冲击下,大量的实体零售品牌面临关闭或破产,是什么原因造就了电子商务网站的成功? 以全球最大的玩具零 […]...百度搜索引擎的工作原理:抓取, 索引和排名