- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день. Мой интернет-магазин betti-mars.net похоже попал под фильтры Google и Yandex. На сайте 612 страниц, а в поиске и у того и другого всего 50 страниц. Техподдержка яндекса пишет, что никаких фильтров нет. Внешней оптимизации практически нет. Сайта нет в каталогах. Опасного кода не обнаружено. В трастовом сервисе mywot имеет положительные оценки. Ссылки не закупались. Имеется только небольшая раскрутка в соцсетях. Но мне кажется проблемы с внутренней оптимизацией. Пока перерабатываю тайтлы, ключевики, мета описания и добавляю небольшие описания товара на странице. По-немногу идет работа над новым движком и дизайном. Может кто скажет навскидку в чем проблема. А то я не знаю в каком направлении двигаться в первую очередь (юзабилити, ключевики, мета описания, тайтлы, контент на странице), а то вообще практически никакого сдвига по страницам в индексе.
Заранее спасибо за помощь.
В гугле: https://www.google.ru/search?hl=en&q=site:betti-mars.net&btnG=Search
1800 страниц.
Это кэш гугла
Вот страницы в поиске:
https://www.google.ru/search?q=site:betti-mars.net%2F%26&filter=0&ie=UTF-8&oe=UTF-8
Это кэш гугла
Вот страницы в поиске:
https://www.google.ru/search?q=site:betti-mars.net%2F%26&filter=0&ie=UTF-8&oe=UTF-8
Это не кэш, в поиске и те и другие. Просто остальные менее интересны Гуглу для поиска.
А вы что хотите? Страница вроде этой http://betti-mars.net/items/2013/09/461 очень информативна с точки зрения поиска? И она много отличается от http://betti-mars.net/items/2013/10/490 ?
С точки зрения поиска это все дубли.
Добавьте к каждой индивидуальный текст, желательно уник, тогда и можно будет их увидеть в поиске.
И на мой взгляд, лучше в первую очередь заморочиться ими, чем мета-тэгами
Добавьте к каждой индивидуальный текст, желательно уник, тогда и можно будет их увидеть в поиске.
И на мой взгляд, лучше в первую очередь заморочиться ими, чем мета-тэгами
Спасибо за рекомендации. Буду работать над текстом.
Еще есть 2 вопроса:
1. Если я занесу все неоптимизированные страницы в robots.txt и буду удалять со временем оттуда по одной уже оптимизированные, то как к этому отнесутся поисковики.
2. Я сейчас делаю новый движок с немного измененной структурой и полностью переделанными URL'ами. И сделать редиректы со старых адресов на новые. Не проще ли так же добавить неоптимизированные страницы c новыми URL'ами в robots.txt и по одной так же удалять оттуда? Ведь так я избавлюсь от старых страниц, редиректов со старых страниц на новые и выдам поисковикам уже свежие страницы, которых не было в индексе.