sear4er

sear4er
Рейтинг
757
Регистрация
04.03.2010
Miha Kuzmin (KMY):
почему сайт не растет либо в выдаче не та посадочная страница?
почему сильно меняются позиции без каких либо ключевых изменений на сайте?
почему сайт попал под фильтры?
и что с этим делать?

Потому что переспамлен акнорлист и большое к-во анкоров состоят из ВЧ и СЧ ключей посадочных страниц.

Позиции меняются сильно, т.к. идет доработка алгоритма и все проекты (конкуренты) так же скачут по запросам (+ закуплено много ссылок с ВЧ и СЧ анкорами на одну страницу, поэтому алгоритм из за переспама ставить релевантной другую). Отсюда и ваш проект меняет свои позиции.

Что делать? Правильно закупать ссылки, как можно тщательней относиться к анкорлисту в первую очередь. Не начинать продвижение сайта с закупки анкоров, содержащих в себе ВЧ и СЧ ключи. Процент таких анкоров должен быть не более 3%.

Это будет не семинаре? )))

---------- Добавлено 26.08.2015 в 19:03 ----------

Миха, откатывай 50% или я сейчас пройдусь по этому списку: :)

Коммерческие факторы
-Типы сайтов и соответствие факторов
-Асессоры и их влияние
-Примеры улучшения коммерческих факторов
Поведенческие факторы
-Анализ поведенческих факторов
-Методы улучшения
-Применение метрики/вебмастера
Ссылочные фильтры
-А работают ли ссылки?
-Яндекс.Минусинск
--Диагностирование фильтра
--Как выйти из под минусинска
--Ведение переписки с платонами
--Если еще не настал?
--Что снимать из ссылок
--Как закупать ссылки
--Статистика
--Примеры
-Google
--Ручные санкции
---Диагностирование
---Как выйти
---Алгоритм переписки и снятий
--А если не написано "ручные"?
--Примеры

Это последствия внедрения Минусинска. Не обращайте внимание, качели по многим проектам, при этом позиции могут меняться и вне АПдейта.

Пока они до конца не разберутся со своим гемором так и будет качать 100%.

Dmitri2W:
Собирался купить Yazzle, но наткнулся на данную тему, судя по последним постам, софт заброшен разработчиками?

Могу свой ключ отдать))

NeMaster, Проще просто пройти мимо и не париться (тема быстро утонет).

Или дать ссылку на соответствующий платный раздел.

cscope, Если ВП не принципиально - то обратитесь к Copyman1989, который делает сайты на друпале - уверен помогут. Умеют всё )

Доширак или Ролтон был у кого на ужин? :D

Пользуюсь услугами ТС, а так же и аналогичными услугами у других 3-х человек с этого форума. У ТС самая низкая комиссия. Поэтому, если вам важно сэкономить на обмене приличные деньги, особенно при больших суммах вам сюда!

scarsbleed:
Бесплатная только XENU, умеет она совсем немного, работать с ней сугубо мое ИМХО тоже не очень удобно.

Вы ошибаетесь, в сети есть ключи для указанных программ. Поэтому ваш сервис не имеет ни единого преимущества ;)

Хотя если распиарите себя на говноблогах для аудитории, которая только начинает понимать, что такое сайты, возможно и получится развести незнающих клиентов на деньги)

Здесь вы вряд ли найдете целевого клиента.

scarsbleed:
Что умеет INSPECTO уже сейчас:
Проверяет код ответа сервера, определяет редиректы и "битые" ссылки для всех страниц и удобно их фильтрует.
Определяет наличие не ЧПУ символов (наличие query, non-ASCII, подчеркивания и заглавных букв) в URL. Находит и фильтрует URL длиной более 115 символов.
Определяет количество исходящих/входящих ссылок со страницы. Собирает анкоры ссылок внутри сайта и группирует их по содержимому.
Определяет и фильтрует все страницы c отсутствием, дублями title, а также где title и h1 совпадают. Находит страницы, title которых превышает 65 символов.
Определяет и фильтрует все страницы c отсутствием, дублями H1 и где H1 используется более одного раза. Находит страницы H1 которых превышает 70 символов. Проверяет правильность иерархии H1-H6.
Находит ошибки валидности HTML.
Определяет размер страницы (ее вес в кб), наличие сжатия и условие кеширования.
Определяет какие страницы запрещены для индексации и с помощью каких средств (Robots.txt, META Robots, X-Robots-Tag). Находит страницы с rel=canonical и nofollow.
Определяет и фильтрует страницы по количеству кликов от главной.
Рассчитывает статический вес страниц по формуле PR.
Определяет URL изображений и фильтрует их по: размеру, отсутствию alt текста и где alt текст более 100 символов.
Умеет создавать sitemap с неограниченном количеством URL и умеет разбивать его на несколько файлов.

Программы -

scarsbleed:
Xenu, кто то использует SEO Frog или SEO Power Suite

Умеют всё вышеперечисленное.

scarsbleed:
В чем преимущества?

В том, что указанный выше софт фришный, а вы хотите собрать денег за то, что можно взять бесплатно? Это преимущество?

Всего: 15147