【如内容违法或虚假,请联系上述邮件删除】作为一个网站设计者,我思索了很多我曾经遇到的和听说过的在用搜索引擎优化创建站点时遇到的问题。下面是10条十分棒的搜索引擎优化倡议,它们能让你在不牺牲你的发明性和作风的状况下做出对搜索引擎更友好的网站设计。
1. 确保你的网站导航对搜索引擎友好
假如你不分明如何让Flash对象可访问和对网络爬虫友好,那么用Flash作为网站导航是很糟糕的选择。搜索引擎很难抓取一个运用Flash的网站。
CSS和不引人留意的JavaScript能够在不牺牲你的搜索引擎排名的状况下提供任何你需求的精心设计的效果。
2. 把脚本放在HTML文件之外
当你为网站写代码时,要确保你以外部援用的方式运用JavaScript和CSS。
搜索引擎经过一切包含在HTML文件中的内容来查看站点。假如没有用外部援用的方式运用JavaScript和CSS,会在你的HTML文档中增加一些额外的代码行,在大多数状况下,这些代码会在真正的内容的前面从而使得爬虫爬取速度变慢。搜索引擎希望能尽可能快的获取到一个网站的内容。
3. 运用搜索引擎爬虫能阅读的内容
内容是一个网站的生命力所在,也是搜索引擎需求的。在设计一个网站时,确保你认真思索过内容的良好结构(如标题、段落和链接)。
内容很少的网站总是在搜索结果中“苦苦挣扎”,在多数状况下,假如在设计阶段有更适合的计划的话是完整能够避免的。例如,不要用图片来替代文字除非你运用了CSS背景图片文字交流技术。
4. 设计你的URL使其对搜索友好
对搜索友好的URL不是那些难以抓取的URL,例如查询字符串等。最好的URL包含辅佐描画页面内容的关键字。要留意一些内容管理系统运用自动生成的数字和特殊的符号作为页面的URL。好的内容管理系统会让你能够定制和美化网站URL。
5. 限制你不希望搜索引擎索引的页面
可能会有一些你不希望搜索引擎索引到的页面。这些页面可能是对你的内容毫无用处,例如效劳器端脚本。这些网页以至可能是在你正树立新的站点时用来测试你的设计的(固然不倡议这么做,但是我们大多数人依然会这么做)。
不要将这些页面暴露给web机器人。你可能会给搜索引擎重复的内容,同时会稀释你的主要内容。这些页面可能会对你的网站的搜索位置产生负面影响。
最好的避免这些页面被搜索引擎检索到的办法是运用robots.txt文件,能改善你的网站的五个文件之一。
假如你的网站有一部分正在测试环境中运用,用密码维护这部分内容,更好的办法是,运用本地web开发环境如XAMPP或者WampServer。
6. 不要忽视图片的Alt属性
确保你的一切图片的alt属性都是描画性的。一切的图片的alt属性必需100%契合W3C规范,但是很多都只是经过简单地添加恣意的文字来抵达这个请求。没有alt属性也比不正确的alt属性好。
搜索引擎会读取alt属性,并且可能会将其归入页面与搜索关键词相关性的思索之中。这也可能用于像Google图片这样的基于图片排名的搜索引擎。
除了搜索引擎优化的角度,图片的alt属性还能够辅佐盲人用户
7. 用新的内容更新页面
假如你的网站有博客,你能够思索在网页上留出中央放一些最新内容的摘要。搜索引擎很希望看到网页内容不时地改动标明这个站点还是好好的。还能够经过不时变化的内容来进步搜索引擎的抓取频率。
你并不想展示完好的摘要由于这会惹起重复内容的问题。
8. 运用独一的元数据
页面标题、描画和关键字应该都不一样。很多状况下,网站设计者会创建一个网站模板,但是遗忘修正元数据,最后会招致好几个页面会运用原来的占位符信息。
每个页面都应该有自己的元数据。这就是能够辅佐搜索引擎更好的把握网站的结构的办法之一。
9. 恰当地运用标题标签
在你的网页内容中充沛应用标题标签;它们向搜索引擎提供HTML文档的结构信息,并且他们通常相比于网页上的其它文本具有更高的权值(除了链接)http://www.iu93.com/
关于页面的主题运用标签。充沛应用到标签来指明内容的层次以及描画相似的内容区域。
我不主张在一个页面运用多个标签,这样你的关键主题才不会被冲淡。
10. 服从W3C规范
搜索引擎喜欢组织得很好,整洁的代码(谁又不喜欢呢?)。整洁的代码使得网站更容易被索引,也是一个网站建得有多好的标志。
服从W3C规范基本上就是强迫你写语义化的标签,这关于SEO来说只需百利而无一害的。(关注老榕树网络旗下“网络思维”微信公众号:wlsw360 (每天都有好文章)
本帖如有虚假或违法,请联系邮箱删除,本社区删贴不收任何费用,欢迎举报。老榕树社区属老榕树网络旗下网站,旨在为老榕树用户提供创业咨询、网站建设技术交流、源码下载、提供各种实用工具。如有部分帖子涉及违法、虚假,请你第一时间与社区联系,把需要删除的社区链接提供给我们,我们核实之后,第一时间删除。邮箱:125175998@qq.com |