богоносец

богоносец
Рейтинг
777
Регистрация
30.01.2007
Ryslan777:
По запросу в гугл вида - site:site.ru ключевой запрос - подобранная для продвижения страница в результатах на 5 месте.

Если после прочтения страницы /ru/forum/190119 вы останесь при том же мнении, то лучше ничего не делать 🙅

kalim:
если на новой странице, то будет много просмотров страниц

А как ПС об этом узнает? У вас метрика или аналитикс?

kalim:
для ПФ

А если они измеряются по кликам на странице выдачи?

kalim:
сайт под АГС

Не сайт, а домен...

Lisa:
Сайт - набор из дизайна, структуры и контента. В контексте мой шутки - не привязанный к домену.

А вы ещё в разных браузерах попробуйте.

http://www.google.ru/search?q=xsl+LiveInternet

Если вы с xsl связались, то вам его придётся поизучать.

Ну что ж вы АПаете!

Вот я тему заводил про ссылки с *.yandex.ru/*, за неделю robots.txt у них не появился, а я ждал. Ну дней через 10 наверное.

Но там если поискать site:yandex.ru inurl:search и пр... на далёких страницах, то ... рас3.14здяйства хватает.

Dweep:
обьясните, хотя бы теоретически, откуда у домена, к которому приклеено 10 народных новых доменов

Да и может ли склейка произойти? Теоретически. При:

1. Делаем один сайт с 10 категорий контента по 10 новостей...
3. Делаем 10 сайтов 1 в 1 как основной, только в каждой категории только по одной новости... Новости на этих 10 доменах не должны повторятся между собой.
5. Все 10 сайтов на народе по сути должны быть уникальные в плане контента между собой, только дизайн один должен быть...
6. Ждем индексации .narod.ru сайтов
7. Добавляем .ru в адурилку и одновременно на народах прописываем host на .ru домен
8. Ждем два апа тиц

Хотя у зеркальщика есть другие поведенческие отличия от официальной версии. Может он типа экономит...

DiZSl:
это не противоречит

Ну как же не противоречит?

С 10 декабря (примерно) robots.txt есть.

6 декабря ещё не было... и осенью не было, наверное несколько месяцев (самый ранний кэш был от 28 сен, сейчас его нет).

В индекс залезли результаты поиска и на момент этого поста ещё они в выдаче есть, хотя Disallow: /

Пока (на момент этого поста) ещё есть чуть более ранний пример, закрытый в robots.txt около 25 ноября. Сколько ещё?

Вообще, такие ситуации полезны для изучения. Один дубль удалить не долго, а вот десятки тысяч уже сложнее.

Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс
даже если вы запретите поисковым роботам сканировать содержание вашего сайта с помощью файла robots.txt, возможно, что Google обнаружит его другими способами и добавит в индекс. Например, на ваш контент могут ссылаться другие сайты

Закрытое в роботсе бывает в выдаче без кэша. Открытое — с кэшем.

SEOraptor:
В выдаче без

А есть ли вообще в выдаче морды со слешем? Вот со слешем или как?

farlow:
сниппет из дескрипшена, принудить

Крайними мерами:

Выкинуть слова запроса из <body> оставив только в <title>

Или выкинуть все слова запроса из документа, оставив только в бэках. Если при этом слова запроса будут в дескрипшне, то может показаться соотв. предложение.

Если вы оптимизатор, и карма не позволяет выкинуть все слова запроса из <body> то, при условии, что документ мог бы найтись только по <title> или ссылкам, описание включаются в список возможных фрагментов сниппета. Можно только попытаться понизить вероятность прохождения фрагментов из <body> — сделав их похожими на <title> ... и повысить вероятность фрагмента (часто предложения) из meta description — оставив в нём слова запроса, но в остальных словах — сделав его максимально непохожим на <title>

Может это просто Яндекс тормозит, не может 301 заметить?

mumus:
А вы про что это ?)

Про музыкальные инструменты.

С аяксом пример. ПС видит уникальные урлы, а в браузере всё не так.

Если нужно по гуглёвым #!канонам, то листайте, что-то будет и #!аяксовое, но и мусора много.

Всего: 13677