你知道像百度这样的搜索引擎如何发现,抓取和排列数以万亿计的网页,以便提供搜索结果吗?尽管搜索引擎的整体工作原理较为复杂,但我嘛可以理解一些非技术性的东西,如抓取,索引和排名,以便我嘛更好地理解搜索引擎优化策略背后的方法。据统计网络上页面结果超过130万亿个。实际上,可能远远超过这个数字,有很多页面因为各种原因被百度消除在抓取,索引和排名过程之外。为了保持搜索结果尽可能的与用户搜索相关,像百度这样的搜索引擎有一个明确定义的流程,即用于为任何给定的搜索查询确定最佳网页,这个过程随着时间的推移而变化,因为它可以使搜索结果更好。基本上,我们试图回答这个问题:“百度如何确定以及排序搜索结果?”。简而言之,这个过程包含以下步骤:1.抓取 – 发现网络上页面并抓取;2.索引 – 存储所有检索到的页面的信息供日后检索;3.排名 – 确定每个页面的内容,以及应该如何对相关查询进行排名;让我们仔细看看更简陋的解释…抓取搜索引擎具有专门的抓取工具(又名蜘蛛),可以“爬行”万维网来发现存在的页面,以帮助确定最佳网页,以便对查询进行评估,爬虫旅行的方式是网站链接。网站链接将整个网站上的页面链接在一起,这样做为抓取工具创建了一条通往存在的万亿互联网页的途径。每当爬虫查看网页时,他们都会查看页面的“文档对象模型”(或“DOM”),以查看其中的内容。DOM页面出现HTML和Javascript代码,爬虫可以通过它查找其他页面的链接,这答应搜索引擎发现网页上的新页面,并且找到每个新链接都会加载到该爬虫将在稍后访问的队列中。如前所述,像百度这样的搜索引擎不会抓取每一个网页,相反,他们从一组可信的网站开始,这些网站是确定其他网站如何衡量的基础,并且通过跟踪他们在他们访问的网页上看到的链接,扩展了他们在网络上的抓取。相关阅读:百度蜘蛛优化教程索引索引是将关于网页的信息添加到搜索引擎索引中的行为,索引是一组网页 – 一个数据库 – 包含搜索引擎蜘蛛爬取页面的信息。索引目录和组织:·每个网页内容的性质和主题相关性的详细数据;·每个页面链接到的所有页面的地图;·任何链接的可点击(锚点)文字;·有关链接的其他信息,例如它们是否是广告,它们位于页面上的位置以及链接上下文的其他方面,以及关于接收链接的页面的含义… 和更多。索引是当用户在搜索引擎中输入查询时,百度等搜索引擎存储和检索数据的数据库决定从索引中显示哪些网页并按照什么顺序显示之前,搜索引擎会应用算法来帮助排列这些网页。排名为了向搜索引擎的用户提供搜索结果,搜索引擎必须执行一些关键步骤:1.解释用户查询的意图;2.识别与查询相关的索引中的网页;3.按相关性和重要性排序并返回这些网页;这是搜索引擎优化的主要领域之一,有效的SEO有助于影响这些网页对相关查询的相关性和重要性。那么,相关性和重要性意味着什么?·相关性:网页上的内容与搜索者的意图相匹配的程度(意图是搜索者试图完成搜索的目的,这对于搜索引擎(或SEO)来说是一个不小的任务)。·重要性:他们在别处引用的越多,网页被认为越重要(将这些引用视为该网页的信赖投票)。传统上,这是从其他网站链接到该网页的形式,但也可能有其他因素发挥作用。为了完成分配相关性和重要性的任务,搜索引擎具有复杂的算法,旨在考虑数百个信号 ,以帮助确定任何给定网页的相关性和重要性。这些算法通常会随着搜索引擎的工作而改变,以改善他们向用户提供最佳结果的方法。虽然我们可能永远不会知道百度等搜索引擎在其算法中使用的完整信号列表(这是一个严密保密的机密,并且有充分的理由,以免某些不道德者使用其来对系统进行排名),但搜索引擎已经揭示了一些通过与网络出版社区共享见识的基础见识,我们可以使用这些见识来创建持久的SEO策略。搜索引擎如何评估内容?作为排名过程的一部分,搜索引擎需要理解它所搜索的每个网页内容的性质,事实上,百度对网页内容作为排名信号很重视。在2016年,百度证实了我们许多人已经相信的内容:内容是网页排名前三位的因素之一。为了理解网页的内容,搜索引擎分析呈现在网页上的词语和短语,然后建立一个称为“语义地图”的数据地图,这有助于定义网络上的概念之间的关系页。您可能想知道网页上的“内容”实际上是什么,独特的页面内容由页面标题和正文内容组成。在这里,导航链接通常不在这个等式中,这并不是说它们并不重要,但在这种情况下,它们不被视为页面上的独特内容。搜索引擎可以在网页上“查看”什么样的内容?为了评估内容,搜索引擎在网页上找到的数据以解释理解它,由于搜索引擎是软件程序,他们“看到”网页的方式与我们看到的截然不同。搜索引擎爬虫以DOM的形式查看网页(如我们上面定义的那样)。作为一个人,如果你想看看搜索引擎看到什么,你可以做的一件事就是看看页面的源代码,要做到这一点,您可以通过右键单击浏览器中并查看源代码。这和DOM之间的区别在于我们没有看到Javascript执行的效果,但作为一个人,我们仍旧可以使用它来了解很多关于页面内容的内容,网页上的正文内容通常可以在源代码中找到,以下是HTML代码中以上网页上的一些独特内容的示例:除了网页上的独特内容之外,搜索引擎抓取工具还会在网页上添加其他元素,帮助搜索引擎了解该网页的内容。这包括如下内容:·网页的元数据,包括HTML代码中的标题标签和元描述标签,这些标签用作搜索结果中网页的标题和说明,并应由网站所有者维护。·网页上图像的alt属性,这些是网站所有者应该保留的描述,以描述图像的内容。由于搜索引擎无法“看见”图像,这有助于他们更好地理解网页上的内容,并且对于那些使用屏幕阅读程序来描述网页内容的残障人士也起着重要作用。我们已经提到了图片,以及alt属性如何帮助爬虫了解这些图片的内容,搜索引擎无法看到的其他元素包括:Flash文件:百度曾表示可以从Adobe Flash文件中提取一些信息,但这很难,因为Flash是一种图片媒介,当设计人员使用Flash来设计网站时,他们通常不会插入有助于解释文件内容的文本,许多设计人员已将HTML5作为Adobe Flash的替代品,这对搜索引擎友好。音频和视频:就像图像一样,搜索引擎很难理解没有上下文的音频或视频。例如,搜索引擎可以在Mp3文件中的ID3标签中提取有限的数据,这是许多出版商将音频和视频与成绩单一起放在网页上以帮助搜索引擎提供更多背景的原因之一。程序中包含的内容:这包括AJAX和其他形式的JavaScript方法,动态加载网页上的内容。iframe:iframe标记通常用于将自己网站上的其他内容嵌入到当前网页中,或者将来自其他网站的内容嵌入到您的网页中百度可能不会将此内容视为您的网页的一部分,尤其是当它来自第三方网站时。从历史上看,百度忽略了iframe中的内容,但可能有些情况是该通用规则的例外情况。结论在SEO面前,搜索引擎显得如此简陋:在搜索框中输入查询,然后poof!显示你的结果。但是,这种即时展示是由幕后的一组复杂过程支持的,这有助于为用户搜索识别最相关的数据,因此搜索引擎可以寻找食谱,研究产品或其他奇奇特怪不可描述的事情。相关阅读:爬行、抓取、索引、收录,指的都是什么?搜索引擎的工作原理相关文章推举【SEO教程】支配百度搜索排名的12个法则 互联网是一个庞然大物,我们大多数人都了解如何搜索我们想要的信息。从台式机到平板电脑,智能手机等,我们都是搜索专 […]...SEO的HTML标签:使用还是不使用? 网站HTML文档的
&部分怎么样?它的内容是否会影响网站在搜索引 […]...百度蜘蛛抓取频次优化的完整指南 抓取频次更像是一个SEO概念,在大多数情况下站长并不关心百度蜘蛛的抓取频次,因为抓取频次对于中小企业网站来说几 […]...怎样优化网站?一个简陋的SEO入门教程 搜索引擎优化的主要目的不仅是让蜘蛛找到你的网站,还要根据相关性排列你的网页,以便它可以呈现在搜索结果的顶部。 […]...电子商务网站SEO成功的5个因素 在电子商务的冲击下,大量的实体零售品牌面临关闭或破产,是什么原因造就了电子商务网站的成功? 以全球最大的玩具零 […]...百度搜索引擎的工作原理:抓取, 索引和排名搜刮 引擎的工作原理重要 包罗 以下两个核心 步调 信息搜集与索引创建 发现与搜集搜刮 引擎起首 会在互联网中广泛地发现和搜集网页信息这一过程通常通过爬虫实现,它们会主动 访问网页并抓取内容信息提取与构造 抓取到的网页内容会被提取关键信息,如标题正文链接等,并颠末 处理 惩罚 和构造 ,终极 创建 成一个巨大 ;搜刮 引擎的工作原理重要 包罗 以下两个核心 步调 信息的搜集提取与构造 发现与搜集搜刮 引擎起首 会在互联网中广泛地发现并搜集网页信息提取与构造 对搜集到的网页信息举行 提取,包罗 网页内容标题链接等关键信息,并将这些信息构造 起来,创建 索引库索引库是搜刮 引擎举行 快速检索的底子 查询处理 惩罚 与结果 ;搜刮 引擎的运作机制可以概括为四个关键步调 起首 ,爬行阶段搜刮 引擎通过专用软件,按照特定的链接规律,像蜘蛛一样从一个网页链接跳转到另一个网页,这个过程称为爬行其次,抓取与存储爬行过程中,搜刮 引擎会抓取网页内容并将其存储在原始页面数据库中,以便后续处理 惩罚 接着,预处理 惩罚 对抓取的页面。
我们所知道的百度、360、谷歌、搜狗等都是搜索引擎,seo点击工具我们往往在网上寻找东西的时候,都是需要搜索引擎的。刑天seo优化的核心就是搜索引擎优化,可是搜索 引擎的基本工作原理是什么呢? 搜索引擎的基本工作原理: 一、抓取网页 每个独立的搜索引擎都有自己的网络蜘蛛。seo点击工具爬虫Spider从一个站点爬行到另一个网站以及网页中的超链接,刑天seo并抓取超链接以连续抓取更多网页。已爬网的网页称为网页快照。由于在因特网上应用超链接是非常普遍的,理论上,从一定范畴的网页中,可以收集大多数网页。 二、处理网页 在搜索引擎抓取到网页之后,刑天seo仍旧需要进行大量的预处理工作来提供检索服务,其中最重要的是提取关键字并构建索索引库。其他包括删除重复页面,分词(中文),确定页面类型,分析超链接,以及运算页面的重要性/丰富度。 三、提供搜索服务 用户输入要搜索的关键字,seo点击工具搜索引擎找到与索引数据库中的关键字匹配的网页;除了网页标题和URL之外,还提供了来自网页的摘要和其他信息供用户判定。
我们日常生活中经常会用到搜索引擎,用户提交查询,搜索引擎返回查询列表,看似平常不过,实则不简陋。本系列博文将介绍WEB搜索引擎原理及基本构成。一般WEB搜索引擎包括“网络爬虫”、“预处理模块”、“查询服务模块”等主要模块。“网络爬虫”从英特网中抓取网页作为原始网页库保存在搜索引擎服务器,这也是我们在百度等搜索引擎上经常看到的“网页快照”。根据爬虫抓取的原始网页库,“预处理模块”经过“网页分词器”、“分词器”、“索引器”提取网页关键字,剔除广告等信息,建立关键词语网页的索引关系。“查询服务模块”主要服务于用户。第一,用户浏览器输入查询词P(假设),分词器将查询词P根据一定的语义分隔成等小词组或短语组合,再以这些词组匹配数据库的索引词得出查询结果,更进一步,返回给用户的网页结果根据查询条件相关度排名(Page Rank)得到网页排名。综上为WEB搜索引擎的全部工作过程,后续文章将具体介绍每个模块的具体工作过程。
我们日常生活中经常会用到搜索引擎,用户提交查询,搜索引擎返回查询列表,看似平常不过,实则不简陋。本系列博文将介绍WEB搜索引擎原理及基本构成。一般WEB搜索引擎包括“网络爬虫”、“预处理模块”、“查询服务模块”等主要模块。“网络爬虫”从英特网中抓取网页作为原始网页库保存在搜索引擎服务器,这也是我们在百度等搜索引擎上经常看到的“网页快照”。根据爬虫抓取的原始网页库,“预处理模块”经过“网页分词器”、“分词器”、“索引器”提取网页关键字,剔除广告等信息,建立关键词语网页的索引关系。“查询服务模块”主要服务于用户。第一,用户浏览器输入查询词P(假设),分词器将查询词P根据一定的语义分隔成等小词组或短语组合,再以这些词组匹配数据库的索引词得出查询结果,更进一步,返回给用户的网页结果根据查询条件相关度排名(Page Rank)得到网页排名。综上为WEB搜索引擎的全部工作过程,后续文章将具体介绍每个模块的具体工作过程。
笔记本没有光驱 打算用U盘在系统下安装新操作系统。密码忘记,无法进入系统,或者系统崩溃,但是你却想把里边的资料拷贝出来。一个U盘,采用PE技术,这就可以办到。什么是winPE系统?PE的全名是Preinstallation Environment,即是Microsoft Windows预安装环境,是一个基于掩护模式下运行的Windows的工具,只拥有比较少服务的Win32系统。这类服务是Windows安装、实现网络共享、自动底层处理进程。第一我们可以把PE理解成一个:直接通过U盘,光盘,硬盘运行、精益版系统。PE答应信息技术人员构建自定义的解决方案,通过自动化操作加速桌面部署过程,这样他们只需花更少的时间和精力就可以让桌面维持更新。PE能够运行Windows安装程序、脚本和映像制作应用程序。“企业协议( Enterprise Agreement , EA )”和软件保证成员( SoftwareAssurance Membershi,SA )客户已在2002年10月的更新中获得了PE,它将继续作为“软件保障”的一个权益提供给用户。PE系统也是有内核的,常见PE内核诸如XP,win2003,win7。假如你用的是XP内核PE,有可能在电脑中呈现蓝屏。必须更改硬盘IDE模式,方可正常进入。PE让你创建和格式化硬盘分区,并且给你访问NTFS文件系统分区和内部网络的权限。这类预安装环境支持所有能用Win2000,WinXP, Win7驱动的大容量存储设备,你可以很容易地为新设备添加驱动程序。支持 Fat、 Fat32、 NTFS 系统分区的文件拷贝、删除以及分区格式化等操作。使用PE可以帮助你把现有基于MS-DOS的工具转换为32位的APIs,帮助你在标准的开发环境中更加容易地维护这些应用程序。PE所包含的硬件诊断和其他预安装工具全部支持标准的WindowsXP驱动,你可以不做任何其他特殊的工作。对于程序开发者来讲,就可以把主要精力放在程序的诊断、调试和开发的环节上。什么是PE系统-搜索引擎的工作原理
搜索引擎每天需要处理大量的页面,甚至是上亿级别的,刚进入SEO领域的新人,经常喜欢深究百度搜索引擎的工作原理,但实际上算法每天都会迭代更新,这就要求我们时刻关注官方动态。 通常来讲,搜索引擎的工作原理主要包括:抓取建库、检索排序、外部投票、结果展示,这四个流程,其中抓取建库与站长经常谈论的百度蜘蛛有直接关系,也是本文重点讨论的对象。 什么是百度蜘蛛? 简陋理解,百度蜘蛛又名百度爬虫,主要的工作职能是抓取互联网上现有的URL,并对页面质量进行评估,给出基础性的判定。 通常百度蜘蛛抓取规则是: 种子URL->待抓取页面->提取URL->过滤重复URL->解析网页链接特点->进入链接总库->等待提取。 1、如何识别百度蜘蛛 快速识别百度蜘蛛的方式有两种: ① 分析网站日志,可以通过识别百度蜘蛛UA,来判定蜘蛛来访记录,相对便利的方式是利用SEO软件去自动识别。关于百度UA的识别,你可以查看官方文档:https://ziyuan.baidu.com/college/articleinfo?id=1002② CMS程序插件,自动嵌入识别百度爬虫,当蜘蛛来访的时候,它会记录相关访问轨迹。 2、关于百度爬虫一些常见问题: ① 如何提高百度抓取频率,抓取频率暴涨是什么原因 早期,由于收录相对困难,大家非常重视百度抓取频率,但随着百度战略方向的调整,从目前来看,我们并不需要刻意追求抓取频率的提升,当然影响抓取频次的因素主要包括:网站速度、安全性、内容质量、社会影响力等内容。 如果你发现站点抓取频率骤然暴涨,可能是因为:存在链接陷阱,蜘蛛不能很好抓取页面,或者内容质量过低,需要从新抓取,也可能是网站不稳固,遭遇负面SEO攻击。 ② 如何判定,百度蜘蛛是否正常抓取 很多站长新站上线,总是百度不收录内容页面,于是担心百度爬虫是否可以正常抓取,这里官方提供两个简陋的工具: 百度抓取诊断:https://ziyuan.baidu.com/crawltools/index百度Robots.txt检测:https://ziyuan.baidu.com/robots/index你可以根据这两个页面,检测网页的连通性,以及是否屏蔽了百度蜘蛛抓取。 ③ 百度爬虫连续抓取,为什么快照不更新 快照长时间不更新并没有代表任何问题,你只需要关注是否网站流量骤然下降,如果各方面指标都正常,蜘蛛频繁来访,只能代表你的页面质量较高,外部链接非常志愿。 ④ 网站防止侵权,制止右键,百度蜘蛛是否可以识别内容 如果你在查看网页源代码的时候,可以很好的看到页面内容,理论上百度蜘蛛就是可以正常抓取页面的,这个你同样可以利用百度抓取诊断去解析一下看看。 ⑤ 百度蜘蛛,真的有降权蜘蛛吗? 早期,很多SEO人员爱慕分析百度蜘蛛IP段,实际上官方已经明确表示,并没有说明哪些蜘蛛的爬行代表降权,所以这个问题不攻自破。 总结:目前市面上存在重多百度蜘蛛池,这是一种变现的链接农场,并不建议大家使用,上述内容只是冰山一角,仅供大家参考。 绿泡泡堂SEO学习网 https://www.966seo.com
许多现已触网公司“心中的痛”主要就是如何进行网络营销,高额的点击付费推行让广告主苦不堪言;鱼龙混杂的商贸渠道“乱用渐欲迷人眼”;缺少专业人员料理等系列问题成了阻挠公司网络营销的道道屏障,使得许多公司对网络营销诞生了“鸡肋”的困惑。那么公司到底怎样才干做好自个的网络营销呢?下面上海网络营销公司曼朗给出几个网络营销解决方案,渴望能够在一定程度上帮助公司找到合适自己的解决办法。1、中小公司运营料理模式不完善大多数公司仅仅把网络营销更为一种孤立的市场推广的手段,并没有真实地将网络营销与公司的全部运营进程结合起来,没有构成一整套连动的网络营销流程。2、网络营销人才稀缺绝大多数中小公司的网络营销人才培养是明显比较滞后的,缺少归于本身的网络营销团队,更没有构建完善的网络营销团队体系,仅仅泛泛而为,一般由网络技术人员或许有市场经历但对网络营销并不熟悉的传统推行人员来客串网络营销人员的角色,这么做不仅效率低下,并且作用也欠好。3、对网络营销的知道不全部大多数公司在做网络营销之前没有体系的策划统筹,认为有一个网站,有客服在线招待就能够了,对网络营销作用缺少连续性监测,更没有进行经历总结和实时地战略调整。关于以上问题,可以总结概括为一个共同点:中小公司网络营销运营的能力是比较低的。4、缺少推行型东西在现在竞争剧烈的互联网市场,并不是简略的做个网站就能够满足现代的网络营销需要,许多公司都在拿着传统模板网,在这做推行,这些模板网关于访客来说,看了不知道多少篇,在于视觉就缺少吸引力,在内容展示也是的,缺少让用户往下步阅读愿望,就算阅读了,也缺少公信力的建立,不能让用户很好的信赖公司,转化率十分的低。
搜刮 引擎的工作原理大抵 相似,它们通过抓取互联网上的网页内容,创建 索引库,并根据用户的搜刮 关键词举行 匹配,从而提供相干 的搜刮 结果 搜刮 引擎的目标 是使信息检索更加高效,让用户可以或许 轻松获取所需的信息除了百度搜刮 和搜狗搜刮 ,尚有 很多 其他的搜刮 引擎,如谷歌雅虎等,它们在环球 范围内都有着广泛的利用 。 2004年8月3日,搜狐公司发布了搜狗搜刮 引擎,它是环球 首个第三代互动式中文搜刮 引擎,基于搜狐公司完全自主技能 开辟 搜狗以一种创新的人工智能算法分析和明白 用户的查询意图,提供多个主题的“搜刮 提示”在人机交互过程中,它引导用户快速正确 地定位本身 所关注的内容搜狗不但 在网页搜刮 方面表现 出色 ,还提。
AJAX代表异步JavaScript和XML,它是一组web开发技术,答应web应用程序异步工作,在后台处理对服务器的任何请求等等,那么什么是AJAX ?JavaScript是一种流行的编码语言,在其功能中,JavaScript治理网站的动态内容并答应用户进行交互。XML是HTML等标记语言的另一种变体,其名称为可扩展标记语言。如果HTML是用来显示数据的,那么XML就是用来包含和携带数据的。JavaScript和XML在AJAX中都是异步工作的,因此,任何使用AJAX的web应用程序都可以从服务器发送和检索数据,而不需要重新加载整个页面。AJAX的实际示例例如百度搜索的自动填充功能,它可以帮助您在键入关键词时自动补充这些关键词。关键词实时变化,但页面维持不变。在90年代早期,互联网还没有那么发达,同样的功能要求百度每次在屏幕上弹出一个新建议时都要重新加载页面。AJAX答应数据交换和表示层同时工作,而不影响彼此的功能。AJAX概念实际上是从90年代中期开始呈现的,然而,当谷歌在2004年开始在谷歌邮件和谷歌地图上引入这个概念时,它获得了更广泛的认可。如今,它被广泛应用于各种web应用程序中,以简化服务器通信过程。下面是在日常生活中使用AJAX的更多有用示例。投票及评级制度你曾经给在网上购买的产品打分吗?你曾经填写过网上投票表格吗?无论哪种方式,这两种操作都使用AJAX。一旦您点击评级或投票按钮,网站将更新运算结果,但整个页面维持不变。谈天室有些网站在主页上安装了一个内置的谈天室,你可以和他们的客服人员谈天。如果您想同时浏览该页面,则无需担心,AJAX不会在每次发送和接收新消息时重新加载页面。微博趋势的通知微博使用AJAX进行更新,每次有关于某些热门话题的新推文发布,微博都会在不影响主页的情况下更新新数据。简而言之,AJAX简化了多任务处理。如果您曾经注意到类似的情况,即两个操作同时工作,一个运行,一个空闲,那么这可能是AJAX在做它的事情。ajax是如何工作的?请记住,AJAX不是一种技术,也不是一种编程语言。如前所述,AJAX是一组web开发技术,该系统一般包括:HTML/XHTML为主要语言,CSS为表示形式。用于动态显示数据及其交互的文档对象模型(DOM)。用于数据交换的XML和用于操作的XSLT,许多开发人员已经开始用JSON替代,因为JSON在形式上更接近JavaScript。用于异步通信的XMLHttpRequest对象。最后,JavaScript编程语言将所有这些技术结合在一起。您可能需要一些编程见识才干完全理解它,然而,AJAX工作的一般过程非常简陋,请看下面的图表和表格,以进一步进行比较。ajax工作原理图总结抛开定义不谈,使用AJAX的最大好处是它简化了用户体验。访问者不需要等待很长时间就可以访问内容。然而,这也取决于你需要什么。例如,当使用谷歌邮件时,谷歌答应用户在AJAX和传统版本之间进行抉择。将用户的需求放在列表的顶部,并相应地使用AJAX。相关文章推举Ajax是什么? Ajax是用于创建动态网站的Web开发技术的组合, Ajax一词代表“异步JavaScript和XML”。因此 […]...营销是什么意思? 营销是教导消费者为什么抉择你的产品或服务而不是竞争对手的过程,如果你不这样做,那就不是营销。关键是找到正确的营 […]...SRAM是什么? SRAM表示“静态随机存取存储器”,SRAM是一种使用静态方法存储数据的RAM,在这种方法中,只要向内存芯片供 […]...网络营销是什么? 网络营销是在互联网上进行营销的总称,它基本上是一个基于运算机的传统营销目标,涉及产品、价格、包装、促销和地点。 […]...运算机ENIAC 电子数字积分器和运算机(ENIAC)是首先台电子数字计算机,于1946年为美国军方完成。它曾被用于运算各种军事 […]...ajax是什么?ajax的工作原理