谷歌在Google I / O 2017上宣布支持Android中的Kotlin,但是Kotlin应该是20年前编程语言Java的首选吗?让我们来看看。关于Kotlin及其崛起Kotlin已成为官方编程语言,并且是Android Studio 3.0版本的一部分。在很短的时间内,语言引起了如此多的关注,以至于人们已经开始着手解决Java是否能够把握Android应用程序开发的问题,或者这个几十年前的语言是否会被Android世界中的Kotlin所取代。Kotlin可能会改变应用程序开发范例,因为它更加开发人员友好并大大增强了代码的可读性, 因为它排除了Java的一些复杂性。你为什么要搬到Kotlin?简洁Kotlin排除了空引用,它没有检查反常 – 这两种反常都允许我们摆脱样板代码,从而诞生更清晰,更易读的代码。现在让我们举一个名为FoodZy的食品订购应用程序的例子。它的菜单项的Java中的POJO类看起来像:在Kotlin看起来像:使用Kotlin的数据类概念。findViewById不再是在Kotlin中,Android扩展答应您将View的引用导入到Activity文件中,因此您可以使用View,因为它现在是该Activity的一部分。这意味着您不再需要使用findViewById识别每个View,它可以转换代码,例如:进入更简洁:Android KTXAndroid KTX是一组Kotlin扩展,是Android Jetpack系列的一部分。Android KTX背后的动机是利用Kotlin语言功能(如扩展函数/属性,lambdas,命名参数和参数默认值),使Kotlin的Android开发更加简洁,愉快和惯用。因此,Android KTX不会向现有的Android API添加任何新功能。看起来KTX的目标是继续利用kotlin为我们的项目带来的优势,即更少的代码,更多的情趣和更简陋的理解项目。目前,该库正处于预览状态,因此它可能会发生变化,并且很可能在发布时提供额外的功能。让我们来谈谈Android KTX将如何改变应用程序开发范例。SQLite游标Cursor类有一组可用的函数。对于每个函数,我们有三种不同的方法来获取值,如下所示:首先个函数返回非null类型第二个函数使用给定的列名返回数据类型(或null)第三个函数使用给定的索引返回数据类型(或null)文本在大多数应用程序中,我们在整个项目的某处使用了文本,幸运的是,KTX在这些部分提供了一些扩展功能。对于文本,我们基本上有一些可用于SpannableStringBuilder类的函数。例如,在实例化Builder实例后,我们可以使用构建方法附加一些粗体文本:还有许多更棒的扩展可以简化和减少我们的代码。我很高兴从现在开始在我的项目中使用这些,我很期待看到其他很快就会添加的内容。如果您想了解更多有关Kotlin应用开发的信息,请与我们分享您的观点。相关文章推举苹果手机数据恢复软件:iSkysoft 处理苹果设备(如iPhone)对许多人来说可能是陡峭的学习经历。有时,我们中的许多人在iPhone上遭受重要数 […]...IOT!成为物联网专业人士所需的技能列表 我们分享了需要成为IOT物联网专业人士所需要拥有的十大技能,对于在IOT物联网寻找职业的毕业生来说,这些是非常 […]...终身学习如何成为一种日常生活习惯? 我们中的许多人仍旧认为,一旦我们手头拿着文凭离开学校,就没有必要继续把握不同的见识领域。然而,现实情况是,我们 […]...年赚百万的13个现实方法 如果你想成为百万富翁,那么它完全可能比你想象的更容易,没有菠菜,没有擦边球,在这里,有13个现实的方法可以赚取 […]...播客是什么? “播客”一词是“广播”和“iPod”两个词的组合,通常的做法是存储和收听iPod(或其他MP3播放器)上的音 […]...Kotlin如何改变App开发范式
网站所有者使用/robots.txt文件向网络机器人提供有关其网站的说明;这被称为机器人消除协议。它的工作原理如下:机器人想要访问网站URL,比如http://www.xusseo.com/。在此之前,它第一检查http://www.xusseo.com/robots.txt,并找到: User-agent: * Disallow: / “User-agent: *”表示此部分适用于所有机器人。“Disallow:/”告诉机器人它不应该访问网站上的任何页面。使用/robots.txt时有两个重要的注意事项:机器人可以忽略你的/robots.txt。特殊是扫描网络以查找安全漏洞的恶意软件机器人以及垃圾邮件发送者使用的电子邮件地址收集器将不予理会。/robots.txt文件是一个公开可用的文件。任何人都可以看到您不渴望机器人使用的服务器部分。所以不要试图使用/robots.txt来隐蔽信息。本页的其余部分概述了如何在服务器上使用/robots.txt,以及一些简陋的配方。要了解更多信息。“/robots.txt”文件是一个文本文件,包含一个或多个记录。通常包含一个看起来像这样的记录: User-agent: * Disallow: /cgi-bin/ Disallow: /tmp/ Disallow: /~joe/ 在此示例中,消除了三个目录。请注意,您需要为要消除的每个URL前缀单独添加“Disallow”行 – 您不能在一行中说“Disallow:/ cgi-bin / / tmp /”。此外,您可能没有记录中的空行,因为它们用于分隔多个记录。另请注意,User-agent或Disallow行不支持globbing和正则表达式。User-agent字段中的’*’是一个特别值,意思是“任何机器人”。具体来说,你不能拥有像“User-agent:* bot *”,“Disallow:/ tmp / *”或“Disallow:* .gif”这样的行。您要消除的内容取决于您的服务器。未明确制止的所有内容都被视为可以检索的公平游戏。以下是一些例子:从整个服务器中消除所有机器人 User-agent: * Disallow: / 答应所有机器人完全访问User-agent: *Disallow: (或者只是创建一个空的“/robots.txt”文件,或者根本不使用它)从服务器的一部分中消除所有机器人 User-agent: * Disallow: /cgi-bin/ Disallow: /tmp/ Disallow: /junk/ 消除单个机器人 User-agent: BadBot Disallow: / 答应单个机器人 User-agent: Google Disallow: User-agent: * Disallow: / 消除除一个以外的所有文件这当前有点尴尬,因为没有“答应”字段。简陋的方法是将所有文件制止放入一个单独的目录,比如“stuff”,并将一个文件保留在该目录上方的级别中: User-agent: * Disallow: /~joe/stuff/ 或者,您可以明确制止所有不答应的页面: User-agent: * Disallow: /~joe/junk.html Disallow: /~joe/foo.html Disallow: /~joe/bar.html robots.txt放在哪里 简短的回答:在您的Web服务器的根目录中。当机器人查找URL的“/robots.txt”文件时,它会从URL中剥离路径组件(来自首先个单斜杠的所有内容),并将“/robots.txt”放在其位置。因此,作为网站所有者,您需要将其放在Web服务器上的正确位置,以便生成此URL。通常,这是您放置网站主要“index.html”欢迎页面的位置。究竟是什么,以及如何将文件放在那里,取决于您的Web服务器软件。请记住使用全文小写的文件名:“robots.txt”,而不是“Robots.TXT。
作为网站优化人员,大家对robots文件应该都不生疏。Robots文件其实就是网站和搜索引擎之间的一个协议,或者说是沟通桥梁。搜索引擎在爬取一个网站内容之前都会先检查这个网站的robots文件,它会按照文件中的规定要求来抓取网站内容。通常情况下,网站通过robots文件屏蔽的页面类型包括搜索页面、缓存页面、feed页面、隐私页面和图片目录、css目录等。通过robots文件,我们就可以告诉搜索引擎我们的网站哪些页面是重要页面,哪些页面是无需爬虫抓取的,从而提高搜索引擎对网站的抓取效率。另外,robots文件还有屏蔽蜘蛛的功能,站长可以通过robots文件告诉任何一种搜索引擎是否可以来抓取网站的内容。随着百度大力推广熊掌号,大部分网站都纷纷开通了自己的熊掌号,而需要大家注意的是,开通熊掌号的网站也不能忽视robots文件的重要性。开通了熊掌号的网站,搜索引擎对其页面抓取和内容判定仍旧是遵循搜索友好度的,所以robots文件的设置仍旧很重要。另外,有的站长在robots文件中屏蔽了百度蜘蛛,这种情况下,即便网站通过熊掌号提交网站数据,百度蜘蛛也是没有办法抓取到网站的内容的。所以想要通过熊掌号快速收录网站内容的站长,一定要好好检查网站的robots文件,避免呈现无意封禁百度蜘蛛的情况,防止自己的网站不能在百度搜索结果中正常展示。通过以上内容可知,robots文件对SEO有非常重要的作用,站长们要合理运用robots文件,为自己的网站优化工作增添助力。Robots文件的重要性-seo优化工具
很多的SEOER对robots协议非常感爱好!但是很多朋友却是对robots文件还仅仅是停留在了解,知道robots的基础上!今天我们就来给大家详细说说关于robots!以及robots的写法!Robots是什么?robots是网站跟爬虫间的协议,用简陋直接的txt格式文本方式告诉对应的爬虫被答应的权限,也就是说robots.txt是搜索引擎中访问网站的时候要查看的首先个文件。当一个搜索引擎蜘蛛访问某站点时,蜘蛛会第一检查该站点根目录下是否存在robots.txt,如果存在,蜘蛛就会按照该文件中的内容来确定访问的范畴;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令掩护的页面。Robots文件格式:User-agent:User-agent的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。Disallow:Disallow的值用于描述不渴望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被robot访问到。例如"Disallow:/help"对/help.html 和/help/index.html都不答应搜索引擎访问,而"Disallow:/help/"则答应robot访问/help.html,而不能访问/help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都答应被访问,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。Allow:该项的值用于描述渴望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL是答应robot访问的。例如"Allow:/hibaidu"答应robots访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现答应访问一部分网页同时制止访问其它所有URL的功能。需要特殊注意的是Disallow与Allow行的顺序是故意义的,robot会根据首先个匹配成功的Allow或Disallow行确定是否访问某个URL。"*"和"$":robots支持使用通配符"*"和"$"来朦胧匹配url:"$" 匹配行结束符。"*" 匹配0或多个任意字符。常见robots写法:制止蜘蛛抓取网站所有内容User-agent: *Disallow: /答应蜘蛛抓取网站所有内容User-agent: *Disallow:制止抓取动态URL:User-agent: *Disallow: *?*制止抓取js文件User-agent: *Disallow: *.js$添加网站地图:User-agent: *Sitemap: https://www.zhongtao.net/sitemap.xml注:1、百度并不会严格遵守robots协议2、搜索引擎中需要在后台进行验证robots文件总结:以上便是我们今天为大家带来的关于Robots的一些基础见识!渴望本文能够帮助到大家,让大家更加了解robots以及robots的配置方法!如需更多关于优化基础资讯教程,请继续关注我们!robots文件您了解多少?-挂黑链
SWOT指的是SWOT分析或SWOT矩阵。它的名字是首字母缩略词,指的是优势,劣势,机会和威逼; SWOT是一种战略规划技术,可在多数项目计划中见到这四个因素。SWOT方法可以帮助团队领袖缩小项目的目标,它还确定了哪些内部和外部因素可以帮助或妨碍完成这些目标。SWOT分析通过利用问答方法来收集信息来实现这一目标。由此,团队可以确定他们有哪些优势使他们的项目具有竞争力。正如人们可能想象的那样,优势指的是项目的内在品质,这将使其在商业中具有优势。缺点恰恰相反:这些是项目的特征,使其处于劣势。机会是外部因素 – 环境条件或情况 – 发挥项目的优势,使其具有优势。另一方面,威逼是利用弱点,降低其有效性的条件。鉴于此类分析对资源部署的重要性,确定项目的优缺点以及优化两者的情况是必要的。内部与外部任何使用SWOT分析的人都会很快意识到其评估的重点是环绕项目的内部和外部因素。项目的内部因素来自组织 – 公司,团队或项目本身的性质。这些可以包括来自其他项目的现有基础设施,人力资源,团队成员的专业见识和金融资产等等。那些使项目优于其他类似项目的内部因素被认为是优势,那些使项目处于劣势的是弱点。相反,外部因素是那些不属于公司,项目或团队,并且位于外部环境中的因素。这些可以包括相关行业的趋势,客户的需求,竞争业务和技术进步。项目可以利用的任何环境因素都是机遇,而威逼则是一个可能给项目带来困难的因素。通过使用SWOT分析,团队领袖者可以更好地了解他们必须使用的所有内容。何时使用SWOT?SWOT分析有许多用途,几乎可以适用于任何情况。其直接用途之一是评估或探索现有问题的独特解决方案。SWOT还可用于识别项目的障碍,以及如何最好地克服它们。当下一步行动不确定时,SWOT分析可以为做出决定提供框架。如果项目的进展停滞不前,那么评估优势,劣势,机遇和威逼可以让团队成员看到新的可能性,以及妨碍他们发展的因素。当需要在新环境中实施项目时,现有计划可能不会完全有效。在这种情况下,SWOT分析可以指导项目计划的任何变更,使其适应形势。在向公司领袖,股东或主要官员提交项目计划时,在演示文稿中输出SWOT矩阵会增添计划的可信度。SWOT分析是一种非常适应性强的技术,这就是它的应用如此广泛的原因。SWOT的应用SWOT分析常用于大企业利益或企业项目。然而, SWOT分析也被非营利组织,政府部门甚至单个人使用。危机治理人员还广泛使用了SWOT,既规划了危机应对措施,又在紧急情况中调整了应对措施。SWOT分析也用于一些组织社区活动的委员会。识别项目的积极和消极方面的相同过程可以轻松地用于发现社会中的优势和劣势。这使委员会能够更好地促进或抑制可能会或可能不会使社区受益的服务或变更的纳入。简而言之,SWOT分析可以应用于需要决策过程并具有确定的最终目标或最终状态的任何情况。然而,应该指出的是,SWOT只是规划过程的一部分,它无法单独制定计划。以下是SWOT分析的一些更具体的应用。战略任何设计整体战略,企业,科学,社会意识或个人的努力都可以从SWOT分析中受益。由于战略分析通常包括识别影响计划的内部和外部因素,因此SWOT实际上有一个保留的位置。包括众所周知的2×2矩阵可以更加具体地了解这些因素,同时答应团队领袖或演示者强调它们之间的相互作用。反过来,这可以帮助团队成员了解他们可能面临的资产,限制,机会和问题。匹配和转换SWOT在商业中的使用可以轻松超越战略层面; 当企业的竞争优势没有明确界定时,SWOT可以揭示其资产。这可以通过两个独立的过程完成 – 匹配和转换 – 自然地与SWOT分析集成。匹配在理论上很简陋:在确定优势和机会之后,只需要将每个力量与机会联系起来,让团队最好地利用它。例如,如果一家公司在网络安全领域拥有杰出的见识基础,那么它应该与利用这一专业见识库的任何机会联系起来。也许客户需要一个团队来强化他或她的网站以防止入侵,或者也许团队的专业见识可以捆绑并作为培训课程货币化。转换也相当简陋:一旦团队了解其弱点和威逼,它就可以集体讨论可能被视为优势或机遇的情况。这在理论上很简陋,但在实践中可能会有点困难,尽管这远非不可能。如果确定的威逼是企业现有产品线无法满足客户需求的事实,并且无法对其进行重新设计,那么机会就是研究需要该产品的市场。志愿情况下,团队领袖者渴望转换每个弱点和风险,但实际上,这并不总是可行的。在这些情况下,最好的做法是避免无法转换的弱点和风险。企业计划对于大型企业而言,战略规划只是整个规划过程的一部分。企业规划是一个广泛的过程,它定义了计划的每个部分以实现企业目标,并且该过程的许多部分可以利用SWOT分析。对于初学者来说,简陋地定义整体目标很容易从SWOT矩阵的输出中诞生。SWOT也是评估整个公司的志愿抉择:现状,现有产品和服务,以及这些产品的预期生命周期。营销在营销领域,SWOT分析在制定营销计划方面同样有效。由于营销人员通过设计所有主要竞争对手的全面概况来运营,因此SWOT的价值很明显。营销人员不是专注于他们自己的产品或服务,而是通过SWOT矩阵评估他们的竞争对手,并将调查结果纳入他们的个人资料中。SWOT分析可帮助营销人员评估竞争对手的成本细分,收入来源,资源,专业水平,整体声誉以及与自身相关的产品线。社会组织如前所述,SWOT分析可以很容易地适用于社区工作,或者用于试图影响社会变化的群体。由于市政当局可能会花费过多的时间来衡量任何变化的风险和收益,因此SWOT分析既可以帮助确定项目的成功,也可以为下一步提供指导。但是,在社区工作中,在使用SWOT之前必须考虑一些其他因素。第一,参与的团队必须对目标社区有透彻的了解。这可以通过访谈,论坛和倾听活动来实现 – 任何涉及与社区公众互动的事情。SWOT分析的优点第一,使用SWOT矩阵可以让团队确定项目的可行性。接下来,它答应团队成员设想实现目标所需的结果和行动。此外,SWOT分析有助于收集和解释有用信息以优化其工作。最后,SWOT对于确定哪些因素对实现组织的总体目标至关重要。SWOT分析的限制SWOT分析并不完美; 使用它时需要考虑一些注意事项。SWOT分析可能被滥用,因为矩阵可以在没有任何详细或智能预见的情况下构建。这可能导致优势,劣势,机会和威逼的误导或倾斜; 事实上,它可能会在它们不存在时出现出来。这可能会误导其使用的任何过程.SWOT也可能被滥用,因为它可用于掩护预先建立的策略或目标。结论如前所述,本文仅作为SWOT分析及其应用的简要论述。激励有爱好使用它的团队领导者进一步研究它。相关文章推举Uber是什么 ? 优步(Uber)是一家交通网络公司,以其打车应用而著名。优步自此成为颠覆性技术的代名词,这款打车应用席卷全球, […]...内容如何推动全渠道营销工作? 随着社交媒体平台的吸引力越来越大,无论是运营自己的电子商务平台还是大型国际企业的内容营销商,全渠道营销工作确乎 […]...ajax是什么?ajax的工作原理 AJAX代表异步JavaScript和XML,它是一组web开发技术,答应web应用程序异步工作,在后台处理对 […]...区块链是什么?区块链初学者指南 区块链技术可能是21世纪互联网世界中最具革命性的发明。无论如何,这是一项巧妙的发明,区块链究竟是什么?简而言之 […]...PMP是什么? PMP是Project Management Professional的缩写,指指项目治理专业人员资格认证。因 […]...SWOT分析是什么?
“404 NOT FOUND, 404错误 ”(或“ 找不到页面 ”) – 是服务器无法找到用户请求的文档时发生的标准HTTP状态代码 。基本上,这是一个不存在或链接丢失的页面。可能会以以下情况呈现:404404错误404未找到错误404404页面不存在未找到错误404找不到HTTP 404404 NOT FOUND是什么原因导致404错误?网页已从网站上删除用户输入的URL地址不正确页面已挪动,重定向配置不正确服务器呈现故障志愿情况下,网站不应该呈现404错误。但是,如果网站拥有大量的页面这是无法避免的。 当一个网页被绕过时,搜索引擎机器人会报告几十个错误,但如果这个数字增添了几百甚至几千呢?如果404错误的数量超过网站总页数的10%,则应启动快速干预和解决方案。出现大量404错误可能有很多原因,但大多数都与代码,链接,服务器配置问题有关。另一个原因是病毒攻击(例如,在网站上放置木马)。即使在防备和删除之后,机器人将在一段时间后继续绕过创建的页面,这也可能导致呈现大量404错误。如何追踪损坏的链接及其重定向?1.Yandex.Metrica 在Yandex.Metrica中跟踪损坏的链接和重定向,转到“访问者设置”。只需将此字符串放在计数器代码中:params:window.yaParams||{ }});此外,再将此JS代码放在404页面上的某个位置:这里url – 是404页面的当前地址,url referrer是访问它的地址。这样,您不仅可以跟踪所有损坏的链接,还可以跟踪它们所在的页面。2.Google Analytics将此代码放在404页面上,跟踪重定向其中document.location.pathname + document.location.search – 是网站上找不到的网页网址; document.referrer – 用户重定向的页面的URL。3.百度站长在百度站长治理平台查看抓取反常选项,并下载对应的数据进行查看。4.Google Search Console在Google网站站长中使用“抓取” – “抓取错误” – “错误404”查找错误。404错误对SEO有什么影响?有一种观点认为,带有404错误的页面会直接影响网站的索引及其在搜索结果中的位置,但在大多数情况下,这种说法是错误的。机器人找到这样的页面会发生什么?它将它从索引中删除(如果它在那里,如果没有 – 机器人根本不扫描它)。因为它不再具有信息性和实用性,但是你需要记住SOFT错误的存在。SOFT 404不是来自服务器的官方响应,而是标记,在爬行后由搜索引擎分配给页面。抉择301还是404?您是否配置了404服务器响应或301重定向?要确定这一点,必须分别分析每个案例。如果由于某种原因,页面从站点中完全删除,请配置404服务器响应。 在以下情况下301重定向更好:页面的地址已更改(例如,由于结构更改);页面与用户的请求相关;可以重定向到具有类似内容的另一个页面(具有相同的主题);404错误和行为因素在用户搜索某些内容呈现404错误页面时。在这种情况下,用户通常会做什么?关闭选项卡并搜索新网站。404服务器响应的页面越多,用户遇到此错误的时间越多,他们在网站上花费的时间就越少,并且会很快离开。搜索引擎算法以一种特殊关注行为因素的方式运作,因为它们在排名过程中起着非常重要的作用。为避免恶化行为因素,您应该鼓励用户留在网站上。要做到这一点,您应该以有趣和创造性的方式解决创建404页面的问题。对于404错误页面的一般建议:它应该包含主页面的链接;您应该礼貌地告知用户他/她想要访问的页面不可用,当然这一切都取决于网站的主题和目标受众。对于网上商店,添加搜索行和提供服务的站点 – 联系信息是必须的。相关内容:HTTP500内部服务器错误修复方法404页面自适应html源码,404模板页面下载相关文章推举网站打开速度慢怎么办? 众所周知,页面打开速度在我们的网站中很重要。在百度排名系统方面,页面速度是一个关键因素。百度运算网页速度,并根 […]...如何正确实施网站分页? 分页是什么? 分页是页面的序数编号,通常位于网站页面的底部,在大多数情况下,它用于页面分区。通常情况下看起来像 […]...HTML5:SVG入门 SVG(可缩放矢量图形)答应您在网页中创建完全按比例放大和缩小的图像,无论用户设备屏幕的大小如何。此外,您可以 […]...NGINX是什么,以及它是如何工作的 NGINX,发音类似于“engine-ex”,是一个开源Web服务器,自从它最初作为Web服务器成功以来,现在 […]...自定义404错误页面优化 虽然您可能渴望404页面错误永远不会发生,但这似乎是不可避免的,无论是什么原因,404错误都会发生。 在这篇文 […]...404, NOT, FOUND错误呈现的原因及解决办法
“404 NOT FOUND, 404错误 ”(或“ 找不到页面 ”) – 是服务器无法找到用户请求的文档时发生的标准HTTP状态代码 。基本上,这是一个不存在或链接丢失的页面。可能会以以下情况呈现:404404错误404未找到错误404404页面不存在未找到错误404找不到HTTP 404404 NOT FOUND是什么原因导致404错误?网页已从网站上删除用户输入的URL地址不正确页面已挪动,重定向配置不正确服务器呈现故障志愿情况下,网站不应该呈现404错误。但是,如果网站拥有大量的页面这是无法避免的。 当一个网页被绕过时,搜索引擎机器人会报告几十个错误,但如果这个数字增添了几百甚至几千呢?如果404错误的数量超过网站总页数的10%,则应启动快速干预和解决方案。呈现大量404错误可能有很多原因,但大多数都与代码,链接,服务器配置问题有关。另一个原因是病毒攻击(例如,在网站上放置木马)。即使在防备和删除之后,机器人将在一段时间后继续绕过创建的页面,这也可能导致呈现大量404错误。如何追踪损坏的链接及其重定向?1.Yandex.Metrica 在Yandex.Metrica中跟踪损坏的链接和重定向,转到“访问者设置”。只需将此字符串放在计数器代码中:params:window.yaParams||{ }});此外,再将此JS代码放在404页面上的某个位置:这里url – 是404页面的当前地址,url referrer是访问它的地址。这样,您不仅可以跟踪所有损坏的链接,还可以跟踪它们所在的页面。2.Google Analytics将此代码放在404页面上,跟踪重定向其中document.location.pathname + document.location.search – 是网站上找不到的网页网址; document.referrer – 用户重定向的页面的URL。3.百度站长在百度站长治理平台查看抓取反常选项,并下载对应的数据进行查看。4.Google Search Console在Google网站站长中使用“抓取” – “抓取错误” – “错误404”查找错误。404错误对SEO有什么影响?有一种观点认为,带有404错误的页面会直接影响网站的索引及其在搜索结果中的位置,但在大多数情况下,这种说法是错误的。机器人找到这样的页面会发生什么?它将它从索引中删除(如果它在那里,如果没有 – 机器人根本不扫描它)。因为它不再具有信息性和实用性,但是你需要记住SOFT错误的存在。SOFT 404不是来自服务器的官方响应,而是标记,在爬行后由搜索引擎分配给页面。抉择301还是404?您是否配置了404服务器响应或301重定向?要确定这一点,必须分别分析每个案例。如果由于某种原因,页面从站点中完全删除,请配置404服务器响应。 在以下情况下301重定向更好:页面的地址已更改(例如,由于结构更改);页面与用户的请求相关;可以重定向到具有类似内容的另一个页面(具有相同的主题);404错误和行为因素在用户搜索某些内容呈现404错误页面时。在这种情况下,用户通常会做什么?关闭选项卡并搜索新网站。404服务器响应的页面越多,用户遇到此错误的时间越多,他们在网站上花费的时间就越少,并且会很快离开。搜索引擎算法以一种特殊关注行为因素的方式运作,因为它们在排名过程中起着非常重要的作用。为避免恶化行为因素,您应该鼓励用户留在网站上。要做到这一点,您应该以有趣和创造性的方式解决创建404页面的问题。对于404错误页面的一般建议:它应该包含主页面的链接;您应该礼貌地告知用户他/她想要访问的页面不可用,当然这一切都取决于网站的主题和目标受众。对于网上商店,添加搜索行和提供服务的站点 – 联系信息是必须的。相关内容:HTTP500内部服务器错误修复方法404页面自适应html源码,404模板页面下载相关文章推举网站打开速度慢怎么办? 众所周知,页面打开速度在我们的网站中很重要。在百度排名系统方面,页面速度是一个关键因素。百度运算网页速度,并根 […]...如何正确实施网站分页? 分页是什么? 分页是页面的序数编号,通常位于网站页面的底部,在大多数情况下,它用于页面分区。通常情况下看起来像 […]...HTML5:SVG入门 SVG(可缩放矢量图形)答应您在网页中创建完全按比例放大和缩小的图像,无论用户设备屏幕的大小如何。此外,您可以 […]...NGINX是什么,以及它是如何工作的 NGINX,发音类似于“engine-ex”,是一个开源Web服务器,自从它最初作为Web服务器成功以来,现在 […]...自定义404错误页面优化 虽然您可能渴望404页面错误永远不会发生,但这似乎是不可避免的,无论是什么原因,404错误都会发生。 在这篇文 […]...404, NOT, FOUND错误呈现的原因及解决办法
Robots.txt是一个小文本文件,位于网站的根目录中。它告诉抓取工具是否要抓取网站的某些部分。该文件使用简陋的语法,以便爬虫可以放置到位。写得好,你将在索引天堂。写得不好,最终可能会从搜索引擎中隐蔽整个网站,该文件没有官方标准。但你可以使用robots.txt做更多的工作,而不是网站大纲,比如使用通配符,站点地图链接,和“Allow”指令,所有主要搜索引擎都支持这些 扩展。在一个完美的世界里,没有人需要robots.txt。如果网站上的所有页面都是供公众使用的,那么志愿情况下,应该答应搜索引擎抓取所有页面。但我们并不是生活在一个完美的世界里。许多站点都有蜘蛛陷阱,规范URL问题以及需要远离搜索引擎的非公共页面,而Robots.txt用于使您的网站更接近完美。Robots.txt如何工作如果你已经熟悉了robots.txt的指令,但担心你做错了,请跳到常见错误部分。如果你是新手,请继续阅读 。可以使用任何纯文本编辑器制作robots.txt文件,但它必须位于站点的根目录中,并且必须命名为“robots.txt”,您不能在子目录中使用该文件。如果域名是example.com,则robots.txt网址应为:http://example.com/robots.txtHTTP规范将“user-agent”定义为发送请求的东西(与接收请求的“服务器”相对)。严格来说,用户代理可以是请求网页的任何内容,包括搜索引擎抓取工具,Web浏览器或朦胧的命令行 实用程序。用户代理指令在robots.txt文件中,user-agent指令用于指定哪个爬网程序应遵守给定的规则集。该指令可以是通配符,用于指定规则适用于所有爬网程序:User-agent: *或者它可以是特定爬虫的名称:User-agent:Googlebot制止指令您应该通过一个或多个disallow 指令来遵循用户代理行 :User-agent:* Disallow:/ junk-page上面的示例将阻挠路径以“/ junk-page”开头的所有URL :http://example.com/junk-page http://example.com/junk-page?usefulness=0 http://example.com/junk-page/whatever 它不会阻挠任何路径不以“/ junk-page”开头的URL 。以下网址不会被 阻挠:http://example.com/subdir/junk-page这里的关键是disallow是一个简陋的文本匹配。无论“Disallow:”之后呈现什么都被视为一个简陋的字符串(除了*和$之外,我将在下面提到)。将此字符串与URL的路径部分的开头(从域之后的首先个斜杠到URL的末尾的所有内容)进行比较,该字符串也被视为简陋字符串。如果匹配,则会阻挠该URL。如果他们不这样做,那就 不是。答应指令Allow指令不是原始标准的一部分,但现在所有主要搜索引擎都支持它。您可以使用此伪指令指定制止规则的例外,例如,如果您有一个要阻挠的子目录,但渴望抓取该子目录中的一个页面:User-agent:* Allow:/ nothing-good-in-here / except-this-one-page Disallow:/ nothing-good-in-here /此示例将阻挠以下 URL:http://example.com/nothing-good-in-here/ http://example.com/nothing-good-in-here/somepage http://example.com/nothing-good-in-here/otherpage http://example.com/nothing-good-in-here/?x=y但它不会阻挠以下任何一种情况:http://example.com/nothing-good-in-here/except-this-one-page http://example.com/nothing-good-in-here/except-this-one-page-because-i -said-so http://example.com/nothing-good-in-here/except-this-one-page/that-is-really-a-directory 同样,这是一个简陋的文本匹配。将“Allow:”之后的文本与URL的路径部分的开头进行比较。如果它们匹配,即使在通常阻挠它的其他地方制止该页面,也将答应该页面。通配符所有主要搜索引擎也支持通配符计算符。这答应您在路径的一部分未知或可变时阻挠页面。对于 例如:Disallow:/ users / * / settings*(星号)表示“匹配任何文本。”上述指令将阻挠以下所有 URL:http://example.com/users/alice/settings http://example.com/users/bob/settings http://example.com/users/tinkerbell/settings 小心!以上还将阻挠以下URL(可能不是您想要的):http://example.com/users/alice/extra/directory/levels/settings http://example.com/users/alice/search?q=/settings 字符串结束计算符另一个有用的扩展是字符串结尾计算符:Disallow:/ useless-page $$表示URL必须在该点结束,该指令将阻挠以下 URL:http://example.com/useless-page但它不会阻挠 以下任何一种情况:http://example.com/useless-pages-and-how-to-avoid-creating-them http://example.com/useless-page/ http://example.com/useless-page?a=b阻挠一切您可能渴望使用robots.txt阻挠所有暂存站点(稍后会详细介绍)或镜像站点。如果您有一个私人网站供少数知道如何找到它的人使用,那么您还渴望阻挠整个网站被抓取。要阻挠整个站点,请使用制止后跟斜杠:User-agent:* Disallow:/答应一切当您计划答应 所有内容时,我可以想到您可能抉择创建robots.txt文件的两个原因:作为占位符,要向在网站上工作的任何其他人明确表示您答应一切都是有意的。防止对robots.txt的请求失败,以显示在请求日志中。要答应整个站点,您可以使用空的禁令:User-agent:* Disallow:或者,您可以将robots.txt文件留空,或者根本没有。爬行者会抓取所有内容,除非你告诉他们不要 。Sitemap 指令虽然它是可选的,但许多robots.txt文件都包含一个sitemap 指令:网站地图:http://example.com/sitemap.xml这指定了站点地图文件的位置。站点地图是一种特别格式的文件,列出了您要抓取的所有网址。如果您的站点具有XML网站地图,则最好包含此指令。使用 Robots.txt的常见错误我看到很多很多不正确的robots.txt用法。其中最严重的是尝试使用该文件保密某些目录或尝试使用它来阻挠恶意爬虫。滥用robots.txt的最严重后果是意外地将您的整个网站隐蔽在抓取工具中。密切关注这些 事情。当你去制作时忘记隐蔽所有暂存站点(尚未隐蔽在密码后面)都应该包含robots.txt文件,因为它们不适合公众查看。但是当您的网站上线时,您会渴望每个人都能看到它。不要忘记删除或编辑此 文件。否则,整个实时网站将从搜索结果中消逝。User-agent:* Disallow:/您可以在测试时检查实时robots.txt文件,或进行设置,这样您就不必记住这一额外步骤。使用摘要式身份验证等简陋协议将登台服务器置于密码之后。然后,您可以为登台服务器提供您打算在实际站点上部署的相同robots.txt文件。部署时,只需复制所有内容即可。试图阻挠敌对爬虫我见过robots.txt文件试图明确阻挠已知的恶意抓取程序,如下所示:User-agent:DataCha0s / 2.0 Disallow:/ User-agent:ExtractorPro Disallow:/ User-agent:EmailSiphon Disallow:/ User-agent:EmailWolf 1.00 Disallow:/这就像在汽车外表板上留下一张纸条说:“亲爱的小偷:请不要偷这辆车。 谢谢!”这毫无意义。这就像在汽车外表板上留下一张纸条说:“亲爱的小偷:请不要偷这辆车。 谢谢!”Robots.txt完全是自愿的,像搜索引擎这样的礼貌爬虫会遵守它。敌意爬行器,如电子邮件收割机,不会。爬虫没有义务遵守robots.txt中的指南,但主要的抉择是这样做的。如果您正在尝试阻挠错误的抓取工具,请使用用户代理阻挠或IP阻挠 。试图维持目录的机密如果您要保留对公众隐蔽的文件或目录,请不要将它们全部列在robots.txt中,如下所示:User-agent:* Disallow:/ secret-stuff / Disallow:/compromising-photo.jpg Disallow:/big-list-of-plaintext-passwords.csv出于显而易见的原因,这将弊大于利。它为敌对爬虫提供了一种快速,简便的方法来查找您不渴望他们找到的文件 。这就像在你的车上留下一张纸条上写着:“亲爱的小偷:请不要看着隐蔽在这辆车的杂物箱中的标有’紧急现金’的黄色信封。 谢谢!”维持目录隐蔽的唯一可靠方法是将其置于密码之后。如果你绝对不能把它放在密码后面,这里有三个创可贴解决方案。1.基于目录名称的前几个字符进行阻挠。 如果目录是“/ xyz-secret-stuff /”,则将其阻塞如下:Disallow:/ xyz-2.阻挠机器人元标记 将以下内容添加到HTML代码中:3.使用X-Robots-Tag标头阻挠。 将这样的内容添加到目录的.htaccess文件中:标题集X-Robots-Tag“noindex,nofollow”同样,这些是创可贴解决方案,这些都不是实际安全的替代品。如果确实需要保密,那么它确实需要在密码后面。意外阻挠不相关的页面假设您需要阻挠该 页面:http://example.com/admin还有 目录中的所有内容:http://example.com/admin/显而易见的方法是这样做 :Disallow:/ admin这会阻挠你想要的东西,但现在你也不小心阻挠了关于宠物护理的文章页面:http://example.com/administer-medication-to-your-cat-the-easy-way.html本文将与您实际尝试 阻挠的页面一起从搜索结果中消逝。是的,这是一个人为的例子,但我已经看到这种事情发生在现实世界中。最糟糕的是,它通常会被忽视很长一段时间。阻挠/ admin和/ admin /而不阻塞任何其他内容的最安全方法是使用两个单独的行:Disallow:/ admin $ Disallow:/ admin /请记住,美元符号是一个字符串结尾的计算符,表示“URL必须在此处结束。”该指令将匹配/ admin但不匹配 /治理。试图将robots.txt放在子目录中假设您只能控制一个巨大网站的一个子目录。http://example.com/userpages/yourname/如果您需要阻挠某些页面,可能会尝试添加robots.txt文件,如下所示:http://example.com/userpages/yourname/robots.txt这不起作用,该文件将被忽略。您可以放置robots.txt文件的唯一位置是站点根目录。如果您无权访问站点根目录,则无法使用robots.txt。一些替代选项是使用机器人元标记来阻挠页面。或者,如果您可以控制.htaccess文件(或等效文件),则还可以使用X-Robots-Tag标头阻挠页面。尝试定位特定的子域假设您有一个包含许多不同子域的站点:http://example.com/ http://admin.example.com/ http://members.example.com/ http://blog.example.com/ http://store.example.com/您可能想要创建单个robots.txt文件,然后尝试阻挠它的子域,如下所示:http://example.com/robots.txt User-agent:* Disallow:admin.example.com Disallow:members.example.com这不起作用,无法在robots.txt文件中指定子域(或域)。给定的robots.txt文件仅适用于从中加载的子域 。那么有没有办法阻挠某些子域?是。要阻挠某些子域而不阻挠其他子域,您需要提供来自不同子域的不同robots.txt文件。这些robots.txt文件会阻挠所有内容:http://admin.example.com/robots.txt http://members.example.com/robots.txt User-agent:* Disallow:/这些将答应一切:http://example.com/ http://blog.example.com/ http://store.example.com/ User-agent:* Disallow:使用不一致的类型情况路径区分大小写。Disallow:/ acme /不会阻挠“/ Acme /”或 “/ ACME /”。如果你需要全部阻挠它们,你需要为每个禁用一行:Disallow:/ acme / Disallow:/ Acme / Disallow:/ ACME /忘记了用户代理线所述用户代理线是使用robots.txt关键的。在任何答应或制止之前,文件必须具有用户代理行。如果整个文件看起来像这样:Disallow:/ this Disallow:/ that Disallow:/ what实际上什么都不会被阻挠,因为顶部没有用户代理行。该文件必须为:User-agent:* Disallow:/ this Disallow:/ that Disallow:/ whatever其他用户代理陷阱使用不正确的用户代理还存在其他缺陷。假设您有三个目录需要为所有抓取工具阻挠,还有一个页面应该仅在Google上明确答应。显而易见(但不正确)的方法可能是尝试这样的事情 :User-agent:* Disallow:/ admin / Disallow:/ private / Disallow:/ dontcrawl / User-agent:Googlebot Allow:/ dontcrawl / exception此文件实际上答应Google抓取网站上的所有内容。Googlebot(以及大多数其他抓取工具)只会遵守更具体的用户代理行下的规则,并会忽略所有其他规则。在此示例中,它将遵守“User-agent:Googlebot”下的规则,并将忽略“User-agent: *” 下的规则。要实现此目标,您需要为每个用户代理块重复相同的制止规则,如下所示:User-agent:* Disallow:/ admin / Disallow:/ private / Disallow:/ dontcrawl / User-agent:Googlebot Disallow:/ admin / Disallow:/ private / Disallow:/ dontcrawl / Allow:/ dontcrawl / exception忘记路径中的主要斜线假设您要阻挠该 URL:http://example.com/badpage你有以下(不正确的)robots.txt 文件:User-agent:* Disallow:错误页面这根本不会阻挠任何事情,路径必须以斜杠开头。如果没有,它永远不会匹配任何东西。阻挠URL的正确方法 是:User-agent:* Disallow:/ badpage使用 Robots.txt的提示既然您知道如何不将敌对抓取工具发送到您的机密内容或从搜索结果中消逝您的网站,这里有一些提示可以帮助您改进robots.txt文件。做得好不会提高你的排名(这是战略搜索引擎优化和内容的用途),但至少你会知道爬虫正在找到你想要他们找到的东西。竞争答应和不答应allow指令用于指定disallow规则的例外。disallow规则阻塞整个目录(例如),allow规则取消阻挠该目录中的某些URL。这提出了一个问题,如果给定的URL可以匹配两个规则中的任何一个,爬虫如何决定使用哪个?并非所有抓取工具都以完全相同的方式处理竞争答应和制止,但Google优先考虑路径较长的规则(就字符数而言)。如果两个路径长度相同,则allow优先于disallow。例如,假设robots.txt文件 是:User-agent:* Allow:/ baddir / goodpage Disallow:/ baddir /路径“/ baddir / goodpage”长度为16个字符,路径“/ baddir /”长度仅为8个字符。在这种情况下,答应胜过 不答应。将 答应以下URL :http://example.com/baddir/goodpage http://example.com/baddir/goodpagesarehardtofind http://example.com/baddir/goodpage?x=y以下内容将被 阻挠:http://example.com/baddir/ http://example.com/baddir/otherpage现在考虑以下示例:User-agent:* Aloow:/某些 Disallow:/ *页面这些指令会阻挠以下 URL吗?http://example.com/somepage是。路径“/ some”长度为5个字符,路径“/ * page”长度为6个字符,因此disallow获胜。答应被忽略,URL将被阻挠。阻挠特定的查询参数假设您要阻挠包含查询参数“id”的所有URL,例如 :http://example.com/somepage?id=123 http://example.com/somepage?a=b&id=123你可能想做这样的事情 :Disallow:/ * id =这将阻挠您想要的URL,但也会阻挠以 “id” 结尾的任何其他查询参数:http://example.com/users?userid=a0f3e8201b http://example.com/auction?num=9172&bid=1935.00那么如何在不阻挠“用户ID”或 “出价”的情况下阻挠“id ”?如果您知道“id”将始终是首先个参数,请使用问号,如下 所示:Disallow:/ *?id =该指令将阻挠:http://example.com/somepage?id=123但它不会阻挠:http://example.com/somepage?a=b&id=123如果您知道“id”永远不会是首先个参数,请使用&符号,如下 所示:Disallow:/ *&id =该指令将阻挠:http://example.com/somepage?a=b&id=123但它不会阻挠:http://example.com/somepage?id=123最安全的方法是 两者兼顾:Disallow:/ *?id = Disallow:/ *&id =没有可靠的方法来匹配两条线。阻挠包含不安全字符的URL假设您需要阻挠包含不安全URL的字符的URL,可能发生这种情况的一种常见情况是服务器端模板代码意外暴露给Web。对于 例如:http://example.com/search?q=<% var_name%>如果您尝试像这样阻挠该URL,它将无法 工作:User-agent:* Disallow:/ search?q = <%var_name%>如果您在Google的robots.txt测试工具(在Search Console中提供)中测试此指令,您会发现它不会阻挠该网址。为什么?因为该指令实际上是根据 URL 检查的:http://example.com/search?q=%3C%%20var_name%20%%3E所有Web 用户代理(包括抓取工具)都会自动对任何不符合URL安全的字符进行URL编码。这些字符包括:空格,小于或大于符号,单引号, 双引号和非ASCII 字符。阻挠包含不安全字符的URL的正确方法是阻挠转义版本:User-agent:* Disallow:/ search?q =%3C %% 20var_name%20 %% 3E获取URL的转义版本的最简陋方法是单击浏览器中的链接,然后从地址 字段中复制并粘贴URL 。如何匹配美元符号假设您要阻挠包含美元符号的所有网址,例如 :http://example.com/store?price=$10以下内容 不起作用:Disallow:/ * $该指令实际上会阻挠站点上的所有内容。当在指令末尾使用时,美元符号表示“URL在此处结束。”因此,上面将阻挠路径以斜杠开头的每个URL,后跟零个或多个字符,后跟URL的结尾。此规则适用于任何有效的URL。为了解决这个问题,诀窍是在美元符号后添加一个额外的星号,如下所示:Disallow:/ * $ *在这里,美元符号不再位于路径的尽头,因此它失去了它的特别含义。该指令将匹配包含文字美元符号的任何URL。请注意,最终星号的唯一目的是防止美元符号成为最后一个 字符。补充有趣的事实:谷歌在进行语义搜索的过程中,通常会正确地解释拼写错误或格式错误的指令。例如,Google会在没有投诉的情况下接受以下任何内容:UserAgent:* Disallow / this Dissalow:/ that这并不意味着你应该忽略指令的格式和拼写,但如果你确实犯了错误,谷歌通常会让你逃脱它。但是,其他爬虫可能 不会。人们经常在robots.txt文件中使用尾随通配符。这是无害的,但它也没用; 我认为这是糟糕的形式。对于例如:Disallow:/ somedir / *与以下内容完全相同 :Disallow:/ somedir /当我看到这个时,我想,“这个人不明白robots.txt是如何工作的。”我看到它很多。概要请记住,robots.txt必须位于根目录中,必须以用户代理行开头,不能阻挠恶意爬虫,也不应该用于保密目录。使用此文件的许多困惑源于人们期望它比它更复杂的事实。相关文章推举百度蜘蛛优化教程 你知道所有关于搜索引擎优化的方法,一个结构良好的网站,相关的关键词,适当的标签,算法标准和大量的内容,但是您可 […]...Google搜索引擎优化方案 为了协助您与世界竞争,并打磨您的搜索引擎优化技能,草根SEO带来了顶级的Google搜索引擎优化方案。 阶段一 […]...新站百度seo优化方案 2018年对于SEO而言相对安静,但是不管现在的SEO风景看起来多么和平,这并不意味着你可以靠在椅子上松弛一下 […]...【苏州seo培训】如何提高页面的搜索排名? 在开始页面搜索引擎优化之前,您需要做首先个事情是找到合适的关键词,抉择利基然后进行发掘以找到更多长尾关键词。 […]...有哪些SEO技术可以提高网站排名? SEO技术是整个SEO过程中非常重要的一步,如果您的搜索引擎优化技术存在问题,那么很可能您的搜索引擎优化工作不 […]...
如果你想找到一个好的渠道,你必须运作良好。yodaobot如果你想充分利用资源,你应该知道如何找到一个好的渠道,速贝seo实战培训发挥资源的优势,并应用一个共同的说法。“上网”的真正含义是“播放频道”!网站运营经历了大起大落,在复杂多变的互联网中找到了许多有效的生活方式,seo蜘蛛精破解版无论是不好的环境,都能站稳脚跟,这就是网站运营的优势。 现在在网上开店真的很便宜吗?事实上,不要嘲笑实体店的租金。yodaobot网上商店也需要假装支付“租金”。您的商店不推广,速贝seo实战培训用户如何看待它,商店没有销售。用户如何相信你,商店没有翻新,没有优化,怎么能给用户留下好印象......而且想要做到这一点,seo蜘蛛精破解版都是额外的费用,这无形中拉高了成本。 如果产品已经饱和,价格已降至最低水平,yodaobot您渴望在竞争猛烈的市场中生存,那么只能降低渠道成本并降低分销成本,直接用户显然是最好的去中间化,网站已经在那个时候,我扮演了这样一个角色,试图降低成本,并且拥有了这个实力。当然seo蜘蛛精破解版这是最后的抉择。这不是万不得已的。该网站所扮演的角色仍旧“与电子商务平台一致”。购买速贝seo实战培训但是要了解如何提前规划,互联网不经济您可以退后一步,降低成本以吸引用户。
“Philip Kotler是谁?”当然,在互联网时代,我不能简陋地用百度搜索“ Philip Kotler”的名字来了解他。相反,我读了Philip Kotler所著作的几本书,并把我在营销课程里所学到的知识进行总结。Philip Kotler的营销原则深入研究了消费者的行为,为什么人们会以某种方式摸索,以及您如何倾听客户并调整产品。随着我越了解Philip Kotler,我越爱慕网络营销这方面,这最终影响了我所遵循的道路。科特勒认为,营销是经济学的重要组成部分,并认为需求不仅受到价格的影响,还受到广告,促销,销售人员,中间人和分销渠道的影响。实际上,没有人不知道Philip Kotler是营销之父,这就是为什么我们不能忽视营销之父所提供的10条原则。1.认识到权威和消费者:信息无处不在,消费者对他们感爱好的大多数产品了如指掌。我们必须为客户提供最佳解决方案,成功建立长期合作关系的机会。2.开发直接指向目标的报价: 寻找利基市场,然后确保这个利基市场。3.从客户的角度设计营销策略:一旦我们明确了我们的产品细分,建议关注我们为客户提供的价值介词,而不是我们产品的功能。4.关注产品的分销/交付方式,而不是产品本身:建议问我们自己是否能找到重新定义分销网络和交付方式的方法,为用户提供更多价值。5.与客户共同创造更多价值:公司的角色发生了变化。新的营销应该专注于与客户合作,以便共同创造新的和独特的方式来诞生价值。因此,建议与客户以及我们产品的消费者社区建立对话。6.使用消息来接触客户: 至于我们的营销活动,科特勒特殊强调营销抉择,这是一个很好的方式,客户指示是否接收这种类型的广告,并不缺乏我们为什么不渴望这样。7.制定指标并分析投资回报率:科特勒强调了控制面板的重要性,它使我们能够准确地了解销售过程中涉及的每个因素的演变情况。8.营销自动化:科特勒告诫说,营销虽然需要高科技,但并不是所有公司都能达到同样的程度。9.专注于创造长期资产:创建长期资产的六个关键因素:诚实对待我们的品牌对我们的客户诚实提供优质的服务与股东维持良好关系注意我们的智力资本创造企业声誉。10.将营销视为一个整体:营销影响公司的所有流程。营销决策影响客户,公司成员和外部合作伙伴,我们必须共同确定公司的市场前景。相关文章推举SEO使SaaS业务受益的5个理由 软件即服务(SaaS)是一种商业模式,客户可以付费使用远程计算机上托管的软件。如今,SaaS领域比以往任何时候 […]...营销4.0是什么以及如何在业务中应用它 互联网的使用每天都在增长,2018年底中国互联网用户已超过7.5亿。随着这种媒介的增长及其互动的可能性,营销需 […]...2020年不可忽视的8种SaaS营销趋势 软件即服务(SaaS)始于1960年代,但直到最近才进入大多数人的词典。SaaS也称为云运算,是一种商业模式, […]...情商和在线营销之间有什么关系? 情绪智力(EI),情感领袖(EL),情商(EQ)是个体识别自己和他人情绪的能力,分辨不同情绪并适当地标记,使用 […]...什么是网络营销?个人在线营销指南 无论企业的业务发展方向如何,网络营销往往都是获得目标市场最廉价的方式之一,网络营销“E-Marketing”可 […]...营销之父:Philip, Kotler的10条营销原则