нормально, это когда релевантность страниц не понижают, а повышают.
При этом каждый волен делать, что хочет:)
чтобы бот Гугла, был "всегда под рукой" необходимо регулярное добавление нового контента.
RSS и пинг основных серверов
- Вывалит другую но не ту которая вам нужна, ибо это не решение проблемы.
- тем более эту ревалентную (по яндексу) страницу необходимо использовать для своих целей
Nadejda добавил 16.04.2011 в 07:09
- часто по этому поводу бывают глюки
- лечится внутренней перелинковкой.
- ну и при оптимизации страниц, никто не учитывает очень сильный фактор, естественно о нем промолчу...просто попробуйте проанализировать...
Приведенный пример, это конечно совсем "черный" случай. Но сплошь и рядом:
<a class=link>link1</a>
<a class=link>link2</a>...
Хотя бы взять приведенный пример, лишний код в нем тоже есть
<div class="news">
<h1>текст1</h1>
<p><span>текст2</span>
текст3текст3текст3текст3текст3
<a href="#">линк</a>
</p>
</div>
Nadejda добавил 16.04.2011 в 07:02
- основы js
- основы php
Чтобы уметь "натянуть" дизайн, на движки.
Желательно основы оптимизации сайта. Т.к структуру шаблона можно выполнить всевозможными способами.
Индексируйте, в момент публикации статьи.
<p class="MsoNormal" style="text-align: left;"><noindex><a rel="nofollow" href="урл">название </a></noindex></p>
Совет: оформляйте данные ссылки через тэг <form>, в виде кнопки
Формировать код кнопки для каждой страницы свой
<iframe src="http://www.facebook.com/plugins/like.php?href=URL-страницы.........>
Это, точно...сайт похож на граббер Rss
- 5380301504_07aa60b27b-e1295860510386.jpg alt="5380301504_07aa60b27b" title="5380301504_07aa60b27b"
- длина ссылок и их безалаберность удивляет
- с учетом обьема контента на странице, все страницы это дубли ("нулевой" контент)
Только не билайн, это нечто:)
Да да...
- прекрасно читает js
- и если у вас нет рсшифровки носкрипт, считает это клоакингом...читаем хэлп Гугла
Тем не менее ссылку спрятать можно, легально от всех поисковиков, если немного подумать;)
стандартным HTML кодом...каким?:)