Hammer8

Hammer8
Рейтинг
178
Регистрация
04.08.2011
drom:
Пишу статью на свой сайт со смыслом - они не видны поисковикам.

Важно искать конкретную смысловую потребность, а не просто писать стать со смыслом. Современное развитие поиска и формулы BM-25 привело к тому, что в тексте не обязательно указывать 10 вхождений слова, чтобы она была релевантна запросу.

drom:
"Как вернуть страховку по ипотеке" (ее никогда не вернуть)

Посвятить проблеме 1500 символов, описать все подводные капни, сделать вывод, данная статья не будет иметь высокий процент отказов.

ahonin08:
Такого количества у меня фактически нет. Откуда они взялись?

Решение элементарное. Спарсить все страницы сайта(SiteMap Generator, Xenu) запретить к индексации все дубли через Robots.txt и <meta name= "robots" content= "noindex, nofollow" /> . Они не будут индексироваться и вылетать как не полезные.

victor222:
У меня получается вложенность ровна количеству кликов

Это важный параметр для поисковой системы, страницы, которые имеют меньшее число кликов - имеют больший приоритет, определить это можно по тому, как ПС выбирают релевантные страницы ваших сайтов для запроса.

6 кликов, если не пагинация - это много, нужно в корне менять структуру сайта.

Барышников:
Доверять никаким сервисам не стоит, только ручная проверка

А как тогда понять на, что обратить внимание при ручном обходе. Всегда идти по своему чек-листу в голове? Но это по идеи большие трудозатраты.

Как и писал выше я за ручной+разноплановое крайлеры по сайту.

4sadas:
Куда размещать дополнительные тексты для продвижения по низкочастотникам?

Создавать страницы заточенные специально по эти НЧ запросы. В интернет магазине - статейный раздел.

4sadas:
Почему говорят, что "говноссылки"приносят вред?

Для того, чтобы ссылки нанесли вред, во первых их должно быть много по отношению к остальной ссылочной массе. Сайт не должен обладать высокими трастовыми факторами (возраст, количество контента, активность и т.д).

Fish_su:
У такого рода сервисов (особенно бесплатных) огромная погрешность

Я так навскидку и не скажу бесплатного онлайн-краулера. По крайней мере в списках нет хорошего, потому что это большие затраты ресурсов staurus.net/best-seo-marketing-tools.html

Fish_su:
узкопрофильным, который проверяет битые ссылки

В десктопной программе PageWeight, кроме расчета веса есть функция поиска битых ссылок. Качество проверки иногда хуже, чем у ComparseR.

Дмитрий Бергер, Раздавая книги, которые продаются на озоне вы не будете чисты перед законом.

Решить вопрос возможно заливая книги на облако(майл.ру, яндекс, мега, гугл.диск) и файлообменики: депозит, турбобит и т.д. Кому нужно пожалуются на файл и его удалят.

gregoro:
1) я правильно понимаю - даже после редиректа роботс и htaccess старого домена все равно оставляем?

Да и оставлять их как можно дольше, через 6 месяцев домен уже можно будет удалить вместе с роботсом и htaccess.

gregoro:
2) и куда лучше лить трафик с рекламы пока идет склейка? на новый или старый домен?

Все лить на новый домен, лишнее перенаправление не нужно.

deedee2008, Нужно разобраться каким образом поисковый робот находит эти страницы. Пока предлагаю экстренный выход, указать в robots.txt

Disallow: /detail

Потом уже разбираться как удалить остальные страницы из поиска.

Fish_su, Допустим у нас интернет магазин. Всего 3000 товарных позиций, 40 категорий. Мы хотим проверить уникальность title в пределах сайта. Вручную все смотреть?

Всего: 1547