Facebook Twitter
web--directory.com

标签: 蜘蛛

被标记为蜘蛛的文章

为什么您的网站需要新鲜、相关的内容

发表于 十二月 4, 2022 作者: Donald Marcil
商业网站的每个所有者都知道,在页面上需要频繁的新鲜内容,以体验和维护SE上的更高清单,以积极寻求新的内容。 Google将其“ Freshbot”蜘蛛寄出,从所有提供的网站组装和索引新材料。 MSN搜索也寻求它。 我指出,MSN Search的蜘蛛每天都会访问我的利基网站,每天都有适当的新鲜内容。 通过合并新的内容,商业互联网网站将保持竞争力,因为没有它,他们肯定会崩溃的搜索引擎,例如Google并丢失业务。 此外,有一些新的东西可以使游客返回并吸引潜在的前景。 但是,每天都在我们的互联网站点上创建并手动将新鲜内容上传到我们的互联网站点很难,令人沮丧的是,不是吗? 我们希望,可以轻松有效地将每日新鲜内容放在我们的互联网站点上。 让我们考虑当前向我们开放的技术来实现此目标,并查看哪些技术为新内容问题提供全局处理:1)服务器端包括(SSI'):它们是由网站管理员编制的HTML语句并将其上传到服务器上。 SSI通知服务器,只要将特定页面提供给浏览器或互联网搜索引擎蜘蛛,就可以添加特定的文本块。 因为这些脚本是在“使用之前”编译的,所以它们仍然“可见”以找到发动机蜘蛛,因此,它们将被视为新鲜内容。 不幸的是,并非绝对所有的Web主机都支持SSI。 由于服务器在网站上搜索时,必须“读取每一页” ,包括语句,这项活动清楚地降低了服务器性能。 每天有多少互联网站点所有者有足够的时间手动将新鲜的HTML内容上传到其服务器上? 可能几乎没有任何东西,这解释了为什么SSI的使用不是新内容问题的全球待遇。 (@)博客:Google的Freshbot Spider确实对新鲜内容的狂热,它热切地吞噬了普通博客的内容。 (@@),但是可以用日常的博客以特定关键字或短语来影响网站上的报告吗? 可以,而且对于几乎所有网站所有者来说,博客都没有问题。 将日常关键字丰富的商业博客添加到互联网网站上很艰难,耗时的工作,这也要求博客作者也必须成为一名合格的作家。 很少有公司有时间或能够每天为其服务或产品创造新的东西。 因此,博客不仅是针对新内容问题的全球待遇。 (@)RSS NewsFeeds:将NewsFeeds放置在互联网网站上无疑是每天都可以看新鲜材料的好方法。 “真正简单的联合组织”或RSS确实是一种快速增长的内容分布方法。 新闻源创建可能是一个简单的程序,因此,对于新内容问题,显然是一种简单的治疗方法。 (@@) 许多商业互联网网站的所有者都认为,通过在网站上合并新闻源,他们将利用这些供稿中出现的链接来改善其搜索引擎排名位置,这些链接获得了Google的相关性。 这种信念是错误的,因为新闻源基本上是JavaScript或VBScript。 这些脚本应由Internet搜索引擎蜘蛛执行,以便将要注意的新内容,并且由于蜘蛛在阅读网页时具有简单的方法,因此这些脚本将永远不会执行。 这些脚本是“在”之后编译的,而不是以前。 可能还会有一些与RSS NewsFeeds相关的增长威胁: - 随着RSS使用的普及不断成倍增长,与ADS合成综合的理论正在逐渐增长。 确实,雅虎宣布它将开始在RSS供稿中展示Overture服务中的广告。 现在谁想要互联网网站上的其他广告? 我不。 - 有传言说,新闻源用于提供垃圾邮件。 如果这是无法控制的,那么新闻源将开始成为历史。 谁希望在网站上出现垃圾邮件消息? 我不。 因此,RSS不仅是针对新内容问题的全球待遇。 (@)NewsFeed脚本解决方案:可以从NewsFeeds中围绕“提取” HTML操纵软件解决方案。 然后将HTML放置在网页上,因此Internet搜索引擎蜘蛛无疑将看到新鲜内容。 但是,这涉及PHP和MySQL的使用,这将使许多公司脱颖而出。 当提要中有垃圾邮件或广告时,它们也会被提取! (@@) NewsFeed脚本解决方案不仅是针对新内容问题的全球待遇。 (@)创建原始:如上所述的SSI和Weblogs所述的内容,每天创建和手动上传您的个人新鲜内容实际上是一件耗时的琐事。 对于那些拥有多个网站的人来说,所有这些网站都需要频繁的新鲜内容才能保持竞争力? 然而,每个人都知道,没有什么比我们自己的正确关键字丰富的新鲜内容更好的了。 (@@)总结说,在我们的互联网站点上频繁获取适当的新鲜内容并不简单。 从RSS提要中提取的HTML似乎提供了部分解决方案,尽管如此,对于某些企业来说,它太复杂了,并且潜在的威胁性。 电子商务行业实际上正在寻找新内容问题的真正治疗方法。 最好的方法是每天使用“我们的”内容自动更新我们的网页,而不是其他任何人。 只有这样,我们才能说新的内容实际上是主人!...