IvanShishkin

Рейтинг
35
Регистрация
23.10.2013
jekyll_by:
Скрипт самопис? Или на рынке есть решение, которые можно приобрести?

У нас своя система по работе с контентом (от сбора СЯ до размещения статей).

На рынке подобного не встречал.

Работаю только со статейниками, не знаю подойдёт ли схема магазинам и т.п.

Сначала скрипт все запросы объединяет по группам на основе выдачи (топ30);

Потом семантик проверяет подготовленные группы (лишнее удаляет/перекидывает в другие группы).

Данная схема позволяет работать в разы быстрее и эффективнее (проверено опытным путём), т.к. с готовыми группами по 10-50 ключей работать проще, чем с файлом в 20к ключей.

Sterh:
И банов за внутреннюю перелинковку я еще не встречал.

Бывают такие фильтры, вот мой пример

В конце 2014 года получал мощную пессимизацию за "тупую" перелинковку.

Закинул список ключей, в который попали кривые ключи, вида "инструкция стол своими руками сделать видео". Запустил рандомную простановку (типа "похожие материалы").

Через месяц в Яндексе сильно отрубило траф.

Косячную перелинковку исправил, подошёл более тщательно к вопросу и учёл каждый анкор, веса страниц и т.п.

Потом отписался в Яндекс: "косяк нашёл и исправил, больше так не буду", через апдейт всё вернулось.

После проделанной работы траф значительно вырос (трафик не сезонный).

Суть: с перелинковкой тоже надо осторожным быть.

Чтоб не быть голословным вот скрин статы

groupwm:
Стесняюсь спросить - Вы кто?

Слева от сообщения указан никнейм.

В целом, понравилось объяснение алгоритмов и механизмов ПС на простом и доступном языке (для новичков).

Помимо теории есть хорошее подкрепление практическими заданиями.

Очень хороший плюс это почти готовое ТЗ для программиста на написание скрипта.

Мой вывод по мануалу

Подписываюсь под каждым словом, всё что там указано реально работает.

Если вы новичок и про внутреннюю перелинковку знаете только то, что "надо анкорные ссылки ставить на продвигаемые страницы", то вам этот мануал поможет сильно развиться в данной сфере.

Но хочу отметить, что для толкового спеца ничего нового не будет. Всё что есть в мануале - давным давно лежит в открытых источниках, но не всегда в одном месте. Если вы уже читали и понимали, что написано в книге "Внутренние факторы", и в блоге Люстика, то вряд ли что-то новое обнаружите.

Автор молодец, но 3000 руб. это слишком дорого.

1 - определитесь какой из урлов является основным

2 - пропишите для основного урла rel="canonical"

3 - закройте от индексации в роботсе не раздел, а страницы содержащие определённую последовательность, например

portfolio.php?work=210&s=2 - основной урл

тогда в robots.txt вы закрываете в

Disallow: *.php?s=

Disallow: *&ss=

Пример только для ориентира.

text.ru, но тоже недешево будет.

Возможные причины (сразу 2 штуки на одном скриншоте)

Просто забей в поиск site:site.ru/& и мотай в самый конец, там будет инфа. Может из-за этого.

Белый Ум:

Раскопал, это сервис https://gorod.yandex.ru/
К сожалению, документации никакой нет, не понятно что можно и как этим управлять.

А это не подходит? https://yandex.ru/support/gorod/

Всего: 117