NellSEO

NellSEO
Рейтинг
12
Регистрация
03.06.2017
Занимаюсь клиентским SEO с 2012 года. Могу и имею в аудит, внутреннюю и внешнюю оптимизацию сайта, создание верстки и натяжки, PHP-кода.

На мета-теги и заголовки - первых нет на многих страницах, вторых местами слишком много. Плюс проработайте битые ссылки (есть чутка), кучу редиректов с / на без / (скорее всего, где-то в шаблоне кривоватые ссылки стоят), закройте открытые ссылки на внешние сайты и ... еще останется целая куча проблем. Нормальный аудит вам в помощь.

Неплохой набор вопросов. Вообще я бы рекомендовал вам обратиться к профессионалу за развернутой консультацией. Платной. А теперь кратко по сабжу.

0. WP для агрегатора - на мой взгляд, не лучшее решение. Просто потому, что он и на 100 статьях работает достаточно долго. Если же у вас будет позиций >10000, wp ляжет и не встанет. Пишите самописку, иначе проблем с нагрузкой вам не избежать.

1. Поддомены не обязательны, см. тот же Авито. Региональные домены покупать под каждый город НЕ нужно, т.к. по сути получится, что вы продвигаете десяток сайтов. Сообщать о геопринадлежности можно просто в заголовках. Микроразметку не получится сделать корректно, ведь у вас не в каждом городе будет офис (если вообще планируется). Конечную цель можете реализовывать через PHP с отловом адреса и его проверкой, как в баннерной рекламе. Но это точно не WP.

2. Вы планируете все варианты фильтра индексировать? Смело.

3. Влияет, но лучше взять новый домен, чтоб не получить "историю".

4. Имеет.

5. Как и везде: такая, чтоб юзер как можно дольше ходил по страницам вашего сайта.

6. AISP не берите, дорогой и тяжелый. Yoast щас заводится через раз. Я бы рекомендовал SEO Ultimate.

greensm:
Для каждой статьи используются 5-6 ключей с частотностью не более 5,в подзаголовках, 1 абзаце. Отслеживаем, статьи на 1-х позициях есть что в Яндексе, что к Гугл.

Ну вот мы и нашли причину. Даже будь на 1 месте все эти статьи, трафика вы соберете крохи. Прорабатывайте семантику, а лучше - закажите первый разок у кого-то разбирающегося, чтоб вам сделали контент-план на ближайшую сотню статей. Иначе долго будете топтаться на месте.

Если у вас реально много товаров на сайте, разбейте карту сайта на несколько, а все ссылки на эти несколько соберите в её корне. Начинает быть оправдано где-то после 15-20 тысяч товаров в одном листе. Если же товаров меньше - не заморачивайтесь, только приоритеты и скорость индексирования не забудьте указать.

uly:
Но пока не заблокировали, хотелось бы его развить и поиметь полезный трафик

А вы уверены, что на таком сайте вообще возможно поиметь целевой трафик? Ведь в таком случае ребята из вулканов не спамили бы в рекламах перед сериальчиками, а занимались SEO?)

Опишите подробнее: есть ли семантика, правильно ли она выписывается, отслеживаете ли вы позиции и прочее прочее.

а) возможна накрутка;

б) возможен событийный трафик. Вы бы примеры фраз показали;

в) возможно, трафик не с Яндекса идет по этой фразе.

А как вы смотрите его статистику?

FUS:
Добрый день. Подскажите пожалуйста. Купил сайт на телдери посещаемость была в районе 1500…2000 посетителей в сутки. Прошла неделя с покупки сайта посещаемость упала в 2 раза. Тематика медициНа что уже проверил? Трафик стабильный в течении последних 6 месяц. Распределение ппо времени равномерное. Возраст от 25……34 50%. Вхождения по ключам. Поисковые системы 95%. Гугл и Яндекс. Что ещё можно проверить чтобы исключить накрученный трафик? Спасибо

Сравните данные по посещаемости с Яндекса из вебмастера и со счетчика - это самый простой вариант.

Doroshev:
1. Что за бред, Disallow расчитан на работу с пагинацией? Пагинацию не закрывают для индексации. Максимум - мета-тег robots="yandex" moidex, follow.
2. Все get можно закрыть чаще всего так: Disallow: /*?*.

Пагинацию часто закрывают от индексации, т.к. зачастую она не несет никакой ценности, лишь плодит дубли. В частности, так делают ребята в курсе fseo (смотрел, грешен).

В некоторых случаях эффективнее не отрубать все через Disallow: /*?*, а проработать конкретные запросы, тем более, что у части сайтов до сих пор вместо чпу-урл адреса состоят как раз из get-ов.

Вы бы хоть запрос показали. Лучше вместе с целевой страницей.

Всего: 130