Ну так считайте они вам ответили: извините, но столь малый бюджет не позволит полноценно реализовать ваши задачи, поэтому нам это не интересно. Так как вы не получите ожидаемой отдачи, и пострадает наша репутация.
Я бы типо так ответил:)
Я за ним не наблюдал раньше, так что может быть всё что угодно. Например они сменили продвигающую компанию или отказались от кучи непродающих запросов для экономии денег, ну короче сняли кучу ссылок и сайт провалился. Если ссылок докупить - он восстановится обратно через несколько апов. И таких гипотез можно привести кучу.
Сумма слишком мала, особо для PR компаний. На нолик бюджет увеличьте - тогда думаю ответят:)
А так думаю как шутку восприняли. Ну не в 10, но хотя бы в 5 раз.
Старые страницы запретите от индексации в robots.txt + при попытки по ним перейти должна выдаваться 404 ошибка. В ближайший ап - вылетят из индекса Яндекса. В гугле тоже самое + удалите их через форму - у меня вылетали через несколько часов.
Ну я имел ввиду СМИ. Что ТС имеет ввиду не траст это и ежу понятно. Но какая разница как это называть. Если чёткого определения траста не существует и у всех своя теория. Моя не лучше этой. Я её помнится высказывал, её почти никто не поддержал, сейчас пост искать уже не буду.
Факторов много существует, в том числе и ссылочных, временных и т.п. Вы думаете на сплоги много внешних ссылок стоит? Причём с очень широким диапазоном? Число переходов на сайт из поиска тоже влияет, по моей теории по крайней мере точно:)
Получается так. Но есть риск, если все эти статьи будут размещены одномоментно. Можете попробовать уникализировать свои статьи путём простановки под статьёй более свежей даты и изменением пары предложений. По идее бот предпочтёт более свежую инфу более старой. А временных затрат от вас это потребует очень мало.
Ну так он ссылки на сайт, как первоисточник стал определять совсем недавно. Впервые услышал об этом в феврале, а на последней конференции, Садовский высказался на эту тему вполне определённо. Если у вас скопировали статью 10 сайтов, а поставили на вас ссылку 3-и из них - этого вполне достаточно, чтобы ваш сайт признали первоисточником. Цифры от меня. Подождите немного - пусть всё отладится - потом уже можно им писать и жаловаться на неверное определение первоисточника. Проблема с определением первоисточника будет в том случае, если часть сайтов будет ссылаться из под статьи не на вас, а на кого-то ещё.
В принципе, робот часто пасётся на трастовых сайтах, с этим я согласен. Далее, как вы сами заметили ваш скрипт преимущественно определяет СДЛ, если сайт имеет много тысяч страниц в индексе. В классической теории по развитию СДЛ всё правильно. Но также существуют ГС огромного размера. А СДЛ есть маленького. Так что - лучше параметр скорости индексации использовать совместно и с другими факторами, а не опираться только на него.
Тут индексируется. Просто не допускайте дублирования и всё.
Если xml-карту имеете ввиду, то полные на основной домен.