богоносец

богоносец
Рейтинг
775
Регистрация
30.01.2007

Ну что ж вы АПаете!

Вот я тему заводил про ссылки с *.yandex.ru/*, за неделю robots.txt у них не появился, а я ждал. Ну дней через 10 наверное.

Но там если поискать site:yandex.ru inurl:search и пр... на далёких страницах, то ... рас3.14здяйства хватает.

Dweep:
обьясните, хотя бы теоретически, откуда у домена, к которому приклеено 10 народных новых доменов

Да и может ли склейка произойти? Теоретически. При:

1. Делаем один сайт с 10 категорий контента по 10 новостей...
3. Делаем 10 сайтов 1 в 1 как основной, только в каждой категории только по одной новости... Новости на этих 10 доменах не должны повторятся между собой.
5. Все 10 сайтов на народе по сути должны быть уникальные в плане контента между собой, только дизайн один должен быть...
6. Ждем индексации .narod.ru сайтов
7. Добавляем .ru в адурилку и одновременно на народах прописываем host на .ru домен
8. Ждем два апа тиц

Хотя у зеркальщика есть другие поведенческие отличия от официальной версии. Может он типа экономит...

DiZSl:
это не противоречит

Ну как же не противоречит?

С 10 декабря (примерно) robots.txt есть.

6 декабря ещё не было... и осенью не было, наверное несколько месяцев (самый ранний кэш был от 28 сен, сейчас его нет).

В индекс залезли результаты поиска и на момент этого поста ещё они в выдаче есть, хотя Disallow: /

Пока (на момент этого поста) ещё есть чуть более ранний пример, закрытый в robots.txt около 25 ноября. Сколько ещё?

Вообще, такие ситуации полезны для изучения. Один дубль удалить не долго, а вот десятки тысяч уже сложнее.

Хотя Google не сканирует и не индексирует содержание страниц, заблокированных в файле robots.txt, URL, обнаруженные на других страницах в Интернете, по-прежнему могут добавляться в индекс
даже если вы запретите поисковым роботам сканировать содержание вашего сайта с помощью файла robots.txt, возможно, что Google обнаружит его другими способами и добавит в индекс. Например, на ваш контент могут ссылаться другие сайты

Закрытое в роботсе бывает в выдаче без кэша. Открытое — с кэшем.

SEOraptor:
В выдаче без

А есть ли вообще в выдаче морды со слешем? Вот со слешем или как?

farlow:
сниппет из дескрипшена, принудить

Крайними мерами:

Выкинуть слова запроса из <body> оставив только в <title>

Или выкинуть все слова запроса из документа, оставив только в бэках. Если при этом слова запроса будут в дескрипшне, то может показаться соотв. предложение.

Если вы оптимизатор, и карма не позволяет выкинуть все слова запроса из <body> то, при условии, что документ мог бы найтись только по <title> или ссылкам, описание включаются в список возможных фрагментов сниппета. Можно только попытаться понизить вероятность прохождения фрагментов из <body> — сделав их похожими на <title> ... и повысить вероятность фрагмента (часто предложения) из meta description — оставив в нём слова запроса, но в остальных словах — сделав его максимально непохожим на <title>

Может это просто Яндекс тормозит, не может 301 заметить?

mumus:
А вы про что это ?)

Про музыкальные инструменты.

С аяксом пример. ПС видит уникальные урлы, а в браузере всё не так.

Если нужно по гуглёвым #!канонам, то листайте, что-то будет и #!аяксовое, но и мусора много.

Да выкидывают эти гробы уже, а не настраивают.

Не знаю как лучше.

Но хотя бы поймите:

ПС тупее браузеров.

ПС индексируют отдельные документы, доступные по разным url без #якоря но с #!якорем, но можно эти выдумки себе не делать, можно иначе. Но в robots.txt скрипты закройте

ссылайтесь не на /index.html а на домен/ или корень /

Ну отключите скрипты в браузере.

Так вы сделаете для ПС несколько страниц

tunerus.ru/tips/

tunerus.ru/price/

tunerus.ru/questions/

Ну найдут они ссылки

<a href="/price/"... Цены&nbsp;</a>

<a href="/questions/"...&nbsp;Вопросы&nbsp;</a>

Если проиндексится, то хорошо (но на этих страницах сейчас то, что ПС уже нашли на главной/ хоть бы изменили текст пока).

Geers:
site.ru/kontakty.php
site.ru/konTAkty.php
Алексей Барыкин:
Это не сервер не отдаёт, а враги спамят дублями урлов (в твиттер например), чтобы ПС пессимизировали сайт за дубли страниц.

Это ж сервер отвечает не 301

Alex Klo:
это только на пользу сайту, т.к. у ПС тоже есть функция strtolower

Нету. Но они не понимают регистра UrL в запросе.

Alex Klo:
да дубли то склеятся

А может и сайтик зафильтруется... за наглую попытку занять в закромах святаго яндекса слишком много места. Типа www.yandex-terra.ru/?q=node/12&ТрУбА

Если контент разный, то они не дубли:

Cell:
в 99% случаев банят за дело

Ну а в том вашем разделе дмоза — кого ещё надо было бы забанить за дело?

Cell:
Казалось бы, конкретная ситуация, ну покажи ты конкретный сайт!

Если вы специалист по соответствиям сайта критериям качества Яндекса, то вам имеет смысл показывать только страницы типа help.yandex.ru/webmaster/?id=995342#!разводилово

В 99% остальных случаев вы не являетесь специалистом... и смотрите на левые моменты, не замечая основного, как и платоны.

Поэтому нет смысла показывать вам что-то кроме варезников.

DRsheff:
на сайт потрачено несколько К зелени и два года практически ежедневной работы

А можно конкретизировать: на что именно затраты зелени и времени? Тема? Цель/задача? Может это прямо конфликтует с задачами СКР.

Всего: 13653