moswebseo

Рейтинг
86
Регистрация
08.10.2007

Консультацию получил, чем весьма доволен.

Рекомендую новичкам в соцсетях, разобрался как правильно построить необходимую мне сетку и продвигать ее.

Надеюсь на дальнейшее сотрудничество.

TF-Studio:

Скрипт-сканер, лазает по сайту и ищет ошибки.

Соответственно пока пришло в голову:
- поиск всех 404 (откуда ссылка и куда)
- отсутствие alt у картинок
- наличие на странице стоп-слов (задается список)
- много внешних ссылок (порог задается)
- отсутствие или много тегов h1 (можно добавить перебор стронгов)

Накидайте что ещё можно прикрутить для универсального алгоритма.

- отсутствие или пустой (короткий) тайтл

- отсутствие или пустой (короткий) дескрипшен

ок, попробуем, 3 сайта, подробности кину в личку

Давно это было) Но впечатления остались самые наилучшие. Рекомендую.

ChaosHead:
Я не понял, Гугл забрал позиции у богатых и раздал их бедным?
Типа богатые и крупные пусть на рекламку раскошелятся, а мы пока в топ запихнем группы вконтакте?

+ еще и таргетинг похерили напрочь

запрос "кровельные работы", сам в Москве

4ая позиция Тольяти

6ая Рыбинск

7ая Питер

и т.д.

Маразм окреп! Гугл запустил самодискредитацию и самоликвидацию. Перестал им пользоваться как поиском.

Shivana:
а че случилось? кто ТС обидел?

Кризис среднего возраста, а может старческий маразм 😂

jumbosic:
Просто это шаблонный ответ или уникальный? Вот в чем вопрос мой.

В некотором смысле шаблонный, я такой тоже получал и мне такой ответ бальзам на душу, больше скажу, может не через 2, но недели через 3-4 с сайтом все в порядке стало.

А вот такой шаблонный ответ получать вам не желаю

После анализа и классификации страниц Вашего сайта наши алгоритмы приняли решение ограничить его в поиске. Обратите внимание, что не все страницы, известные поиску Яндекса, включены в индекс и ранжируются высоко. Их включение и позиция зависят от качества сайта и его контента. На решение алгоритма может оказать влияние использование поискового спама, наличие на сайте страниц предназначенных для робота-индексатора, а не для чтения пользователями, размещение неуникальной информации и др. факторы.
Наше понимание качественных сайтов отражено в следующих документах:
--------
--------
Мы стараемся настраивать и улучшать алгоритмы поиска так, чтобы сайты, соответствующие этим рекомендациями, быстро и полно индексировались и находились на высоких позициях по релевантным запросам.
Если Вы будете развивать сайт для пользователей, размещать уникальную и полезную информацию и следовать нашим рекомендациям, Ваш сайт со временем обязательно восстановится в поиске.
chomax:
удалили около 70-100.
В январе к работе приступил новый человек, активно занявшись закупкой новых ссылок.
Был момент значительного улучшения, но через 2 месяца позиции упали очень серьезно – глянули ссылки и ахнули – 100-150 гавносайтов. Все сняли.

ну нежелательно так вот резко снимать, набирать, снимать .., снимите немного, добавьте немного и т.д.

А то, что был момент значительного улучшения, так думаю, что подхватились некоторые новые ссылки, а те , что убрали еще не учлись ПС, а потом вдруг учлись и т.д. и т.п.

jumbosic:
Если в течение двух недель этого не произойдет, сообщите нам об этом

ну так и сделайте что они просят, думаю вас приблизили к результату, теперь осталось ждать всего то 2 недели по сравнению с годом)

П.С. Это хороший ответ, бывает гораздо хуже

skill1900:
Цитата:
Сообщение от kittenAA Посмотреть сообщение
1=1
А не мало будет? Если ключ ВЧ и много ссылок надо покупать?

Думаю он имел ввиду уникальность всей ссылки вместе с околоссылочным текстом.

Всего: 111