Владимир-C

Рейтинг
459
Регистрация
02.02.2006

На дублирующие страницы всё же приходят посетители - это не полный дубль, а слабый рирайт. Поэтому он и не хочет их ни снимать, ни защищать от индексации.

Может, все же перетащить их в поддомн? Это поможет снять фильтр с основного домена?

У меня был автомат.

Теперь я понял, что Ваш сервис упрощает редактирование и делает его менее трудозартатным процессом. Это большое преимущество и удобство.

Полезный сервис.

Идею автора я понял сразу - по той простой причине, что такую же (по смыслу) систему сделал себе в 2007 году. Ориентирована на недвижимость, и за несколько месяцев собрала почти пять тысяч страниц. После чего вылетела из индекса Яндекса и Рамблера.

Пытался вытащить внешними ссылками - бесполезно.

Написал Платону и получил ответ, что индексировать мой сайт нет причин, ибо он не содержит уникального текста и все, что есть у меня, можно найти в сети.

Пишу потому, что хотел бы слышать мнение людей по этому поводу.

Кстати, посещаемость была небольшой - примерно 20 низкочастотников на 1000 страниц.

А ключи как меняются?

Dweep:
Можно для подстраховки туда еще noindex и nofollov всунуть

Не помешает.

А вообще-то от такого шифрования толк есть, как полагаете?

Изучая литературу по дизайну, я несколько раз встретил тезис о том, что в настоящее время относительные единицы стали предпочтительнее, ибо многие пользователи устанавливают персональные настройки браузера. То есть в относительных единицах сайт лучше сохраняет свою структуру.

Вы с этим не согласны?

CyberForce:
У вас какая реклама то стоит на сайте? Если pupunder, то из-за него, а если другая, то причина не в этом...

Я тогда искал способы монетеризации сайта и ставил все подряд: 1under, lovecash, popuptraf, popunder, ostapcash... Не все сразу, конечно же, а поочередно. Ну, как еще узнать, что будет иметь отдачу именно на твоем сайте?

Потом вдруг резко упала посещаемость - с десяти тысяч до четырехсот человек в сутки. В лсновном это были низкочастотники, поэтому точно определить, на какие позиции откатился сайт по каждому запросу, довольно сложно. Но по основным ключевым словам сайт не выдается вообще, хотя все страницы в индексе.

Похоже на фильтр?

Во интересная картина: одни профи пишет, что бред, а другой - что так оно и есть. Получается, что единого мненя у гуру не существует...

Только персональный?

А обычный поиск этого не делает? Странно...

А Гугль?

Сегодня скачал Вашу программу Ice Core Text Analyzer. Это не первая программа такого назначения, которую я пробую, и хочу сразу отметить, что от всех прочих программ, известных мне, она отличается в лучшую сторону.

Дизайн отличный. Но главное - чувствуется, что автор прекрасно разбирается в проблеме. Прога сходу прошла пару тестов, на которых другие программы споткнулись.

Всего: 1948