Str256

Рейтинг
611
Регистрация
07.01.2008
Интересы
компьютеры, интернет
s0laris:
если они не отвечают на письма потенциально клиента, закрадывается сомнение, а работают ли вообще.

Ну так считайте они вам ответили: извините, но столь малый бюджет не позволит полноценно реализовать ваши задачи, поэтому нам это не интересно. Так как вы не получите ожидаемой отдачи, и пострадает наша репутация.

Я бы типо так ответил:)

Я за ним не наблюдал раньше, так что может быть всё что угодно. Например они сменили продвигающую компанию или отказались от кучи непродающих запросов для экономии денег, ну короче сняли кучу ссылок и сайт провалился. Если ссылок докупить - он восстановится обратно через несколько апов. И таких гипотез можно привести кучу.

Сумма слишком мала, особо для PR компаний. На нолик бюджет увеличьте - тогда думаю ответят:)

А так думаю как шутку восприняли. Ну не в 10, но хотя бы в 5 раз.

Старые страницы запретите от индексации в robots.txt + при попытки по ним перейти должна выдаваться 404 ошибка. В ближайший ап - вылетят из индекса Яндекса. В гугле тоже самое + удалите их через форму - у меня вылетали через несколько часов.

юни:
Пока не пришёл Кузьмин - весьма общее и неоднозначное утверждение, только из-за количества неучтённых факторов (начиная от тематики).

Ну я имел ввиду СМИ. Что ТС имеет ввиду не траст это и ежу понятно. Но какая разница как это называть. Если чёткого определения траста не существует и у всех своя теория. Моя не лучше этой. Я её помнится высказывал, её почти никто не поддержал, сейчас пост искать уже не буду.

Факторов много существует, в том числе и ссылочных, временных и т.п. Вы думаете на сплоги много внешних ссылок стоит? Причём с очень широким диапазоном? Число переходов на сайт из поиска тоже влияет, по моей теории по крайней мере точно:)

Соло:
Получается, в случае кражи статьи или статей, что бы поправить ситуацию с определением первоисточника (типа помочь Яндексу) в статье достаточно самому несколько раз скопировать свою статью и поставить с дублей ссылки на первоисточник? :)

Получается так. Но есть риск, если все эти статьи будут размещены одномоментно. Можете попробовать уникализировать свои статьи путём простановки под статьёй более свежей даты и изменением пары предложений. По идее бот предпочтёт более свежую инфу более старой. А временных затрат от вас это потребует очень мало.

Leonid_83:
Ссылки на 70% таких сайтов, со скопированным у нас контентом, стоят. Как раз постоянно и пишем владельцам и хостингам. Но первоисточника, похоже, Яндекс не определил, хотя проект с 2006 года и тИЦ 3700 (т.е. ссылок на нас, как на источник очень много) :(

Ну так он ссылки на сайт, как первоисточник стал определять совсем недавно. Впервые услышал об этом в феврале, а на последней конференции, Садовский высказался на эту тему вполне определённо. Если у вас скопировали статью 10 сайтов, а поставили на вас ссылку 3-и из них - этого вполне достаточно, чтобы ваш сайт признали первоисточником. Цифры от меня. Подождите немного - пусть всё отладится - потом уже можно им писать и жаловаться на неверное определение первоисточника. Проблема с определением первоисточника будет в том случае, если часть сайтов будет ссылаться из под статьи не на вас, а на кого-то ещё.

В принципе, робот часто пасётся на трастовых сайтах, с этим я согласен. Далее, как вы сами заметили ваш скрипт преимущественно определяет СДЛ, если сайт имеет много тысяч страниц в индексе. В классической теории по развитию СДЛ всё правильно. Но также существуют ГС огромного размера. А СДЛ есть маленького. Так что - лучше параметр скорости индексации использовать совместно и с другими факторами, а не опираться только на него.

International:
надо ли индексировать /archive/ ???

Тут индексируется. Просто не допускайте дублирования и всё.

Если xml-карту имеете ввиду, то полные на основной домен.

Всего: 15927