我发现了一些类似的问题,但我想我想问的是略有不同:
我正在构建一个PHP Web应用程序,它使用大量的java脚本(jQuery)来加载/构建DOM的不同部分。此外,网站的大部分内容最初都是隐身的,以便在加载时为其提供可爱的淡入效果。
这一切都很好,但是......我也希望网站对搜索引擎友好。大多数搜索引擎机器人和蜘蛛都不会“看到”通过java脚本加载的内容。我猜所有看不见的部分都能给网站带来“高分惩罚”?
所以,我正在考虑直接提供搜索引擎机器人的内容(没有jQuery加载和所有的browserstuff),所有的html部分都可见。这样,机器人或蜘蛛最初将获得相同的内容,但方式不同。但检测机器人并以这种方式对待它们是否安全而不受搜索引擎的惩罚?
这是我非常简化的例子:
Serverscript:
<?php
// script to detect a bot
$isBot = detectBot();
// make the content-div visible or invisible based on $isBot
$contentClass = $isBot ? "visible" : "hidden";
// The pagecontent-container
echo "<div id='content' class='$contentClass'>";
// if visitor is a bot, then serve the pagecontent at once
if ( $isBot ) {
include_once "pages/page.php";
}
echo "</div>";
?>
Browserscript:
// browserscript to load the pagecontent for a 'human' user when the DOM is loaded
$(document).ready(function() {
var content = $("#content");
content.load("pages/page.php", function() {
content.fadeIn();
});
});
提前感谢您的帮助:)
答案 0 :(得分:2)
这称为progressive enhancement,完全可以接受。它使您的内容可供有特殊需求的人访问(搜索引擎抓取工具是最终的特殊需求用户)。
什么是禁止为搜索引擎提供不同或特殊的内容,以明确操纵您的排名。这不是这种情况。