基于“用户”网址的网站是否会产生Google /搜索引擎的问题?

时间:2012-01-30 05:27:57

标签: optimization seo noindex

我目前维护一个网站的后端php代码,允许我们的销售代表销售产品和服务。如果销售代表处于活动状态,则会向他/她提供“自定义”网站URL,该URL基本上将该特定网站上的任何活动标记给该代表。销售仅在代表性网站上收集(我们这样做是为了“保护”我们的员工并确保他们认为我们不会在开放的父网站上背后销售。)

例如:

  • www.site.com 可能会突出显示所有可用的产品和服务,但不会让客户购买

  • www.site.com/SOMEREPCODE 其中SOMEREPCODE是特定代理商的唯一标识符,提供相同的选项但能够销售该产品。这些销售代表有数千个,因此有数千个链接指向相同的页面和内容。

关于我们是否应该最近开放网站以达到前端销售一直存在很多争论。我们的行业非常具体,所以我们不太担心网购者的销售损失,但我确实认为它们存在。我们的一些前端开发人员在页面上有“noindex,nofollow”代码,我们被告知这是为了防止谷歌和其他人将网站“列入黑名单”,因为他们试图将多个链接全部转移到相同的内容(想想SOMEREPCODE代表1000名销售代表,几乎完全相同的页面,显示名称和联系号码。

编辑 - 显示htaccess文件

#if file or directory do not exist, try as an repid
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME}.php !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^([0-9a-zA-Z-]+)$ index?Rep=$1 [QSA,NC,L]

上面的htaccess逻辑检查以确保输入的代码不是现有文件或目录。如果不是,则将SOMEREPCODE存储为索引的变量?Rep = SOMEREPCODE。

在我的索引页面顶部,我添加了一个函数,然后检查 Rep 的值是否为有效的销售代表以及它们是否处于活动状态。如果无效或未激活,则会将页面重定向到导致错误的登录页面。如果rep处于活动状态且存在,则在设置适当的SESSION变量后页面将继续加载。

indexInclude

<?php
if(isset($_GET['Rep']) && $_GET['Rep'] != NULL) {

    //DB connectors called
    $sql = "SELECT * FROM reps WHERE repcode = ? AND status = 'Active' LIMIT 1";
    $stmt = $db->prepare($sql);
    $stmt->execute(array($_GET['Rep']));

    while ($row = $stmt->fetch()) {
        $_SESSION['repname'] = $row['repname'];
        //collect other rep information
    }

    if( !isset($_SESSION['repname']) && empty($_SESSION['repname']) ) {
        header("Location: unavailable");
        exit;
    } else {

        $_SESSION['sales'] = "Y";
    }

} elseif( !isset($_SESSION['sales']) && !isset($_GET['Rep']) ) {
    $_SESSION['sales'] = "N";
}
?>

在这种情况下,索引页面根本不会改变,只有在$ _SESSION ['open'] =''Y'存在时“显示”的网站区域。

这实际上是真的吗?是否有办法处理这种情况,这样我们也可以打开网站进行网络销售?

3 个答案:

答案 0 :(得分:3)

如果它不是完整的镜像,那么这不是一个大问题。

最佳做法是

www.site.com/SOMEREPCODE - &gt;设置销售饼干 - &gt; HTTP 301重定向 - &gt; www.site.com

基本上所有/ SOMEREPCODE都重定向到URL的规范版本,只有URL的规范版本才会传递给谷歌。如果您无法进行HTTP 301重定向,请尝试规范元素http://support.google.com/webmasters/bin/answer.py?hl=en&answer=139394

使用规范元素,流程看起来像这样

www.site.com/SOMEREPCODE - &gt;设置销售饼干 - &gt; HTTP 200(传递页面内容) - &gt;页面在HEAD部分中有<link rel="canonical" href="http://www.site.com/"/>

摆脱它没有意义的"nofollow"并贬低从这些页面指向其他页面的所有链接。如果您使用HTTP 301重定向(或规范元素),noindex是不必要的(但不会受到伤害)。

但事实上:如果你不知道销售多少钱。你错过了,不知道如何处理这种情况(显然你有开发人员不了解SEO,但认为他们这样做是因为他们使用"nofolow"并谈论'黑名单')你应该考虑咨询一个严肃的SEO 。任何好的SEO都可以为你提供足够好的答案。

答案 1 :(得分:2)

如果我理解正确www.site.com/SOMEREPCODE是www.site.com的精确镜像,唯一的区别就是购买能力。

SEO的主要关注点是不同网址上的重复数据 http://googlewebmastercentral.blogspot.com/2008/09/demystifying-duplicate-content-penalty.html

例如: www.site.com/producta.html包含与www.site.com/SOMEREPCODE/producta.html相同的数据

与www.site.com/SOMEREPCODE/page.html相反,访问www.site.com或www.site.com/page.html的所有链接都不应设置noindex nofollow。所有前往镜像的链接(www.site.com/SOMEREPCODE/.../)都应该设置noindex nofollow。

如果你允许在主网站上销售,请让/ SOMEREPCODE /页面放置一个cookie,这样如果有人后来购买但只导航到主站点,你的代表仍会获得信用。

答案 2 :(得分:2)

总结一下:每个销售代表都有一组不同的网址(基本上是搜索引擎可以告诉每个代表的网站副本),并且没有“规范”网站(没有通用网站,没有销售代表,你没有玩收藏,并选择一个销售代表的网站作为规范的。)

我可以看到两个问题:

  1. 根据您网站上的网页数量(n)和销售代表数量(m),搜索机器人必须进行大量抓取才能为整个网站编制索引(n x m)。这可能会给您的服务器带来额外负担,或者可能意味着搜索机器人会放弃而不会抓取您的整个网站
  2. 您将在搜索引擎中遇到重复的内容问题。 Googlebot不会对相同内容的多个副本进行排名。这可能会或可能不会导致您的网站受到处罚,但它会削弱您网站的权力,因为您的内容的任何入站链接将在每个销售代表的“网站”之间传播。
  3. 就我看来,你的选择是:

    保持原样

    • 搜索引擎必须为自己整理重复的内容(他们可能会做得不错)
    • 您需要监控搜索机器人不会使服务器过载
    • 由于内容重复,您的有机排名不会达到最高水平

    使用robots.txt

    阻止该网站
    • 服务器上的搜索机器人负载将受到控制
    • 您几乎不会获得任何排名,只需依靠您的销售代表

    启动非销售代表网站并规范化所有流量

    • 您表示您的销售代表可能不喜欢这个

    赞成一名销售代表作为规范销售代表

    • 您必须选择一个受欢迎的销售代表(或创建一个假的)
    • 销售代表可能会或可能不会注意到其网站上存在指向另一个销售代表网站的规范标签
    • 其他受欢迎的销售代表将失去任何有机搜索流量并导致他们目前获得的销售额。