FreddyCruger, если просто так, то не естественная, если по тексту соответствует, то возможно.
не добавят, если у сайта нет оффлайн офиса. Вообще, правильно решение, добавить, но дделать ставку, зная что могут не добавить, я бы не стал :)
hedge, я както задавал вопрос гуглерам, откуда берется сайтмап. С консоли или файла роботс, и какой, отрабатывается основным? не ответили :)
в справке, статью "схемы обмена ссылок" не читали? там написано, какие и почему не учитываются :)
Руслан С, Вы сами себе портите жизнь. Зачем удалять то, что пересылается редиректом на другое? В некоторых подобных случаях, удаляется и страница, на которую редирект :) Структура сайта, гугл берет не только из сайтмапа, но и прямыми проходами по страница, хлебными крошками и т.д.
не мучить мозг, если он не понимает, для чего нужны редиректы. Сделать, по человечески, чтобы пользователь видел тоже самое что и бот. Иначе будет полная ерунда. Читать лично я, такой сайт не буду, который вместо одного, дает другое.
и зря. Нужно использовать один и тоже протокол на всем сайте. Иначе вопросов "почему я хочу так а бот делает так" будет еще больше :)
Сделайте ЧПУ. Ой что это? найдете в поиске или раздел для новичков частые вопросы :)
Гугл убрал возможность, выбора региона поиска. Поэтому, что та сервисы показывают, количество осадков или разницу температур, без разницы.
Кстати, а какие сервисы?---------- Добавлено 01.03.2016 в 12:03 ----------
И все? А если написать в одессе, значит и там ранжировать без адреса компании, без указания что там можно получить и т.д?
FreddyCruger, какой запрос и ПС?
С доменов, могут быть редиректы, хотя их хорошо только гугл понимает.
не нужно, ничего запрещать. Страниц нет, и запрещать нечего.
Если, страницы от старого хозяина, еще не удалились(а такое бывает), то могут выползти, после наполнение новым контентом и открытия в роботс на сканирование.
Лучше всего, по возможности, сделать одну страницу типа index.php или какая там главная может быть на Вашем хостинге, и прописать метатегами ноиндекс. В этом случае, боты увидят что все старые страницы отдают 404 и удавит их в кеше и т.д.
Начнете наполнять, поставите запрет, на сканирование в роботс. перед запуском, откроете и все. Вариант, подойдет для всех Псов.