标签: SEO

社会化分享之og属性优化教程

前两天使用一套国外模板,分析网页代码的时候发现了meta信息中出现了property=”og:title” 这种新东西。本着存在即合理,既然作者这样设计必定有所意图的,第一反应就是这种写法对于seo优化的影响。所以网上淘了一些资料,结合自己的经验理解将整理一个og属性优化教程,把这些内容页归档到meta信息优化范围中。

Ps:现在搜索引擎越来越看重社会化分享在用户体验中的作用,也就是说社会化分享因素在seo排名中权重越来越高,而且国内seo市场,对于社会化分享的手段应用并不充分,大家可以过早关注,赢在起跑上。

 

社会化分享-社会化书签-社会化分享优化

社会化分享优化

现在,我们开始一步一步给大家说明

如果你发现模板代码中有类似于这样的书写:

<meta property=”og:title” content=”**’s Facebook” />

   <meta property=”og:type” content=”product”/>

   <meta property=”og:url” content=”http://www.******.com” />

   <meta property=”og:image” content=”http://www.******.com/logo.gif” />

   <meta property=”og:site_name” content=”******.COM” />

   <meta property=”og:description” content=”CoolGadgets at the RightPrice – Worldwide Free Shipping -******” />

   <meta property=”fb:admins” content=”100001422224225″ />

   <meta property=”fb:page_id” content=”241333394220″ />

发现property=”og:这种字样的,说明模板作者已经尝试做seo社会化分享优化了,那么这些代码代表是什么含义呢?

og是一种新的HTTP头部标记,(即Open Graph Protocol:开放内容协议)

 

我们先引用百科的内容了解一下:

 

2010年F8会议上Facebook公布了Open Graph,把这种种不同的Graph连结起来,将形成Open Graph。

通讯协定

Open Graph通讯协定(Protocol)本身是一种制定一套Metatags的规格,用来标注你的页面,告诉我们你的网页代表哪一类型的现实世界物件。另一伙伴网站,即Amazon旗下的Internet Movie Database(IMDb),将用这个Open Graph Protocol为每一部电影标注页面。按下IMDb上的“赞”按钮,就会自动把那部电影加入Facebook使用者profile中的“最爱的电影”。

Facebook已和Yahoo、Twitter合作采用OAuth 2.0认证标准。Graph API翻新了Facebook的平台程序代码,让Facebook里的每个物件都拥有独特的ID。通过Open Graph把其他社交网站建构的网络给连接起来,将创造一个更聪明、更与社交连接、更个人化也更具语意意识的网络。

使用背景:

Open Graph最让人津津乐道的是“喜欢”(Like)按钮,此按钮安装在伙伴网站,可立即用来表示认同。“活动”(Activity streams)外挂 ,让Facebook使用者友人所从事的各种活动都列在那个第三方网站上。“推荐”(Recommendations)外挂则向使用者提供备受建议的内容,“不只是十大最多人用电子邮件转寄的文章,这是真正超强的推荐”。“社交”(Social bar)可提供整合为一的社交体验,把“喜欢”按钮、Facebook聊天 、和友人名单资讯都整合起来,功能与Google Friend Connect或Meebo chat工具条相似。

Facebook新版本Graph API意味着Facebook上任何一个页面都会有独立的ID,用户可以成为某一页面的粉丝。该项功能将会使Facebook的每一页面连接成为一个整体。

og属性说明:

og:title 标题

og:type 类型

常用值:article book movie

og:image 略缩图地址

og:url 页面地址

og:description 页面的简单描述

og:site_name 页面所在网站名

og:videosrc 视频或者Flash地址

og:audiosrc 音频地址

现在我们来梳理一下开放协议实现流程:

就是当用户使用jiathis或者百度分享等分享类插件工具,将网页分享到facebook、twitter或者微博的时候,sns网站中的内容是按照我们og属性规定内容呈现的,以此保证信息分享更准确更符合作者所想。

更通俗的理解:如果你分享我的网页到其他网站(sns),那我就告诉你分享的内容标题是什么、缩略图是什么、内容简介是什么,你可别给我胡整,得按我说的来。

那么og属性对于seo意义呢:

都知道搜索引擎机器人爬取的是我们的页面,即html代码,meta信息尤为关注,所以我们增加的og meta标签是可以别搜索引擎发现并评估权重的,也就是说你将原有meta信息优化手段同时使用到og:title这种属性值当中,加强meta信息优化内容;对于权重提升和排名还是很有利的。

实现手段:

如果你对og属性没有特殊要求,即基本包含页面的标题、简介等,那么只需要将title和description的信息与og属性信息一致就可以了,如dedecms模板中使用:

<meta property=”og:title” content=”{dede:field.title/} ” />({dede:field.title/}是dedecms页面title调用标签);

如果想完全自定义og属性,如增加视频链接、尺寸长宽等,那么需要单独增加字段进行调用了(涉及到程序二次开发,这里不说了)

注意事项:

1、 如果你发现使用seo检测工具检测到Meta Property=og报错,别管它,没事儿。这种操作是有利于seo的,是工具没见过世面。

2、 调整模板代码的时候,写了<meta property=”og:description”同样要写<META name=”Description”,两种属性不同,要单独使用。

301重定向主域名集中权重

301重定向很多人不太理解,也不知道如何使用,导致域名使用很混乱,很不利于搜索引擎优化.下面我们讲解一下301重定向的相关知识.

301重定向是什么意思?
在地址栏里输入:
如本人的域名为 sendong.com 可以看到自动跳转到 www.sendong.com 这样的效果就是301重定向。
但并非所有的虚拟主机都支持这样的操作,支持这样操作的条件是:
1、linux的虚拟主机Apache的服务器,需要支持.htaccess 这个文件。(咨询主机商是否支持)如果支持,则先2个域名都解析到同一个IP,然后在.htaccess文件开始处加入一下规则:
代码:
RewriteCond %{http_host} ^sendong.com [NC]
RewriteRule ^(.*)$ http://www.sendong.com/$1 [R=301,L]
须 注意的就是:.htaccess这个文件基本在传到本地是不能直接被修改的,我们可以采用修改成.htaccess.txt的形式来进行访问编辑,把要写 的代码写好之后,直接把.htaccess.txt传上空间,再把.htaccess.txt直接用FTP修改成.htaccess文件名,这样就可以升 效啦!
2、window的虚拟主机IIS的服务器,需要有安装 ISAPI_Rewrite这个组件。(咨询主机商是否支持)如果支持,则先2个域名都解析到同一个IP,然后在httpd.ini文件开始处加入以下规则:
代码:
RewriteCond Host: ^sendong.com$
RewriteRule (.*) http://www.sendong.com$1 [R,I]

如果采用以上代码不可行,请你尝试下这个代码:
代码:
[ISAPI_Rewrite]
# 3600 = 1 hour
CacheClockRate 3600
RepeatLimit 32
RewriteCond Host: ^sendong.com$
RewriteRule (.*) http://www.sendong.com$1 [I,RP]

对于大部分虚拟主机是不支持这样的操作,那么这时候怎么办?
以上301重定向的操作方式并非是必须的,如果主机不支持,采用以下的方式也是同样可以达到效果。
1、如果是全新的域名和网站,也就是没带www的域名暂时没有被收录,那么可以采用没带www的域名转发到带www的域名上。在域名管理后台设置转发,国内的一些域名商也不允许转发了。

2、如果网站已经存在一段时间,没带www的域名也被收录了很多页面,则采用带www和不带www的域名同时解析到网站的IP。然后,网站的主导航,分类,或次导航等一些比较重要的位置,尽可能采用带www的绝对地址。

相关疑问?
1、为什么要把没带www的域名,都通过301或其他的方式转移到带www的上面呢?
这样做主要是为了URL标准化 ,让网站的权重都集中到某一个域名上,而不是分散开了。

2、我是否可以把带www的域名,301到不带www的域名上?
如果你发现没带www的域名排名比较好,或收录好很多,则可以把带www的域名,301到不带www的域名上。
我们之所以建议没带www的301到带www的上面,主要是因为中国人的用域名习惯,一般是习惯带www的。

3、没带www的域名不解析,也不转发,可以吗?
因为很多人访问你的网站时,可能输入没带www的域名,所以,建议是要绑定的。

4、是不是需要把index.html 或index.php等也301到主域名?
这个是不需要的。因为做301的目的是集中权重,只要做到站内和站外链接形式都采用了主域名为地址,也就是采用不带index的URL为锚文本,就可以实现集中权重的功能。而当所有链接都不带index了,用户和搜索引擎也是不会访问到带index的URL。

robot.txt写法

其实robots.txt就是一个记事本文件(txt格式文件),存放在网站根目录下。

那么robots.txt语法到底有哪些呢?

robots.txt语法有三个语法和两个通配符。

三个语法:

1.首先要定义网站被访问的搜索引擎是那些。

User-agent:(定义搜索引擎)
语法:User-agent: * 或 搜索引擎的蜘蛛名称

例子:User-agent:Googlebot (定义谷歌,只允许谷歌蜘蛛爬取)
User-agent:Baiduspider (定义百度,只允许百度蜘蛛爬取)
User-agent:*(定义所有搜索引擎)

2:屏蔽搜索引擎爬去语法

Disallow:(禁止语法) 用来定义禁止蜘蛛爬取的页面或目录。

写法:DisAllow:/文件夹目录/ (表示禁止蜘蛛爬取网站的其中一个目录)
或 DisAllow:/文件名称 (表示禁止蜘蛛爬取网站的其中一个页面)

例如:Disallow:/ (禁止蜘蛛爬取网站的所有目录 “/” 表示根目录下)
Disallow:/admin (禁止蜘蛛爬取admin目录)
Disallow:/abc.html (禁止蜘蛛爬去abc.html页面)
Disallow:/help.html (禁止蜘蛛爬去help.html页面)

整套语法示范:
User-agent: *
Disallow:/目录1/ (禁止所有搜索引擎的蜘蛛爬取站点的目录1)
Disallow:/目录2/ (禁止所有搜索引擎的蜘蛛爬取站点的目录2)

3:允许搜索引擎爬去语法

Allow:(允许语法) 用来定义允许蜘蛛爬取的页面或子目录

例如: Disallow:/ (禁止蜘蛛爬取网站的所有目录)
Disallow:/admin (禁止蜘蛛爬取admin目录)
Allow:/admin/abc.html(“/” 表示根目录下,允许蜘蛛爬去admin目录中的abc.html页面)

两个通配符:

匹配符”$”和 “*”
$ 通配符:匹配URL结尾的字符; * 通配符:匹配0个或多个任意字符;

例子1:
允许所有搜索引擎蜘蛛抓取以某个扩展名为后缀的网页地址,代码如下:
User-agent: *
Allow: .htm$ 说明(其中“.htm”,表示充许搜索引擎蜘蛛抓取所有”.htm”为后缀的文件,注意,这里并不包括以”.html”为后缀的文件)

例2:
设定某种类型文件禁止被某个搜索引擎蜘蛛抓取,代码如下:
User-agent: *
Disallow: /*.htm 说明(其中“.htm”,表示禁止搜索引擎蜘蛛抓取所有以”.htm”为后缀的文件,注意,这里并不包括以”.html”为后缀的文件)

为wordpress创建有利于seo的robots.txt文件

如果您不想让 Google 或其他搜索引擎访问您网站中的某些内容,请用 robots.txt 文件指定搜索引擎抓取您的网站内容的方式。这是google管理员工具对robots.txt功能的一个描述。
robots.txt文件说白了就是告诉爬虫哪些网址是可以被收录那些是禁止收录的。对于大多数wordpress博主来说很少注意robots.txt,认为他无关紧要,其实不然,robots.txt在wordpress优化,网站seo方面有着很重要的作用。robots.txt不光可以保护网站隐私链接不被搜索到,而且可以控制网站内容的重复和抓取错误。下面我就写几种wordpress常用的robots.txt规则。

 

最简单的robots.txt规则:

User-agent: *
Disallow:

这是开放式的写法,Disallow:留空,是让搜索引擎收录所有链接。

安全性的robots.txt书写规则:

User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-
Allow: /wp-content/uploads/
Disallow: /*.php$
Disallow: /*.inc$
Disallow: /*.js$
Disallow: /*.css$
Disallow: /*.cgi$
Disallow: /?s=

有利于seo的robots.txt书写规则:(以本站为例)

User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-
Disallow: */rss.xml
Disallow: /author/
Disallow: /page/
Disallow: /tag/
Disallow: */trackback/
Disallow: */feed/
Disallow: /*.php$
Disallow: /*.inc$
Disallow: /*.js$
Disallow: /*.css$
Disallow: /*.cgi$
Disallow: /*?*
Disallow: /?s=
Sitemap: http://www.example.com/sitemap.xml

先说所我为什么这么设置。google管理员工具在分析我网站抓取错误信息的时候,发现大量链接是http://www.example.com/xxxx/rss.xml的形式,为了减少抓取错误,我就让搜索不爬这些链接,Disallow: */rss.xml  ,如果你没遇到和我一样的问题这一条你可以不用加。同样,如果你的网站有大量抓取错误的无效链接,你可以在这里指定不抓取。

再有就是网站元重复太严重(标题重复,描述重复,关键词重复),这严重影响搜索引擎排名,我看中的是文章页排名,所以像标签页,作者文章归档,月份存档页,分页这些我选择Disallow。因为我的文章页面在google中的权重很高,流量几乎都是文章页面的,所以才这么设置。这个根据自己网站实际情况选择性的设置。

feed和trackback的条款是一定要的,可以说wordpress 80%以上的补充材料都是和它们有关。

 

wordpress官方robots.txt书写规则(国外)

User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /feed
Disallow: /comments
Disallow: /author/*
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Allow: /wp-content/uploads

# Google Image
User-agent: Googlebot-Image
Disallow:
Allow: /*

# Google AdSense
User-agent: Mediapartners-Google*
Disallow:
Allow: /*

# digg mirror
User-agent: duggmirror
Disallow: /

Sitemap: http://www.example.com/sitemap.xml

对于自己网站情况还不太清楚的博主,我推荐用这种,没有风险,安全,有利于seo。具体内容请参考:wordpress codex

在你修改robots.txt文件时,可以用Google网站管理员工具检测一下robots.txt是否符合规范。

robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。

WordPress SEO 技巧

随着搜索引擎大兴, 排列在前的网站引入大量流量. 无论是搜索页面的广告还是查出来的结果, 与搜索者的目标匹配度都比较高 (如果搜索引擎足够智能), 所以通过搜索引擎而来的访客很可能会从网站上得到他想要的东西, 并记住这个网站. 也就是说, 搜索引擎会带来很多有价值的流量, 所以花点时间针对搜索引擎优化一下 WordPress 博客也是值得的. 本文将为你分享一些 WordPress SEO 技巧.

以前我没有花太多时间做搜索引擎优化, 搜索引擎收录效果不是很好. 去年二月我终于为博客搞了一下 SEO, 写下这个文章. 一年半以来陆续进行了更多 SEO 优化, 博客文章写得不多了, 流量却有增无减, 网站也重回 PageRank 7, 效果相当不错的. 这次我根据自己的 WordPress SEO 方案更新了本文的内容.

继续阅读

为 WordPress 的 Read more 加上 nofollow

前段时间写过一篇关于 WordPress SEO 技巧的带建议性质的文章, 貌似大家很喜欢. 但那看似一个列表, 部分内容并没有给出具体的解决办法, 所以有很多同学提问了. 其中一个问题被问得最多:

怎样为 Read more (“阅读全文” 链接) 加上 rel=”nofollow” 属性?

我不写出实现方法是有原因的.

1. 实现方法简单

2. 实现方法很多

3. 我的实现方法比较粗暴

不管如何, 既然这么多人感兴趣, 我就提出来说说吧.

以下我列举三种实现方法.

1. 打开 {WordPress 根目录}/wp-includes/post-template.php 文件, 然后在 get_the_content 方法里为 Read more 链接加上 rel=”nofollow”.

2. 在主题目录的 function.php 文件里重写 the_content 或者 get_the_content 方法.

3. 用 PHP 截取 the_content 输出的文本, 加上 nofollow 属性后再输出文本.

其中方法 2 和方法 3 可做成插件实现.

方法 1 简单方便, 而且效率最高, 所以我直接改了 WordPress 的源代码. 至于你选择哪种, 那只能由你自己判断了.

建议不明白真相的观众阅读我的上一篇文章, 在本站搜索栏搜索 “WordPress SEO” 既可找到.

实现代码

感谢 yinheli 提供代码, 可以将以下代码加到 function.php 中实现在 read more 链接上添加 nofollow.

 

 

function add_nofollow_to_link($link) {
 return str_replace('<a', '<a rel="nofollow"', $link);
}
add_filter('the_content_more_link','add_nofollow_to_link', 0);


转自:NEOEASE 原文链接:http://www.neoease.com/add-nofollow-to-read-more-link-on-wordpress/

版权所有 © 2024 野人部落实验室

主题设计 Anders Noren返回顶部 ↑