ezon

Рейтинг
134
Регистрация
29.02.2012

Для начала пойдите к конкурентам, посмотрите и сделайте не как у них, а лучше. Внешнюю и внутреннюю оптимизацию проведите. Пошагово по чек-листу... Переберите семантическое ядро, плюс LSI - ( метод написания текстов на основе анализа синонимов поискового запроса и сопутствующих ключевых слов ) добавьте. В общем все не так плохо. Живут же такие тематики и вполне себе здравствуют. Вы хоть бы ссылку на сайт кинули. Может кто, что и подсказал бы.

Если перенаправления, то лучше блокировать, оно вообще достает. Думаю санкции уместны. Сайтам у которых push-уведомления играют важную роль в рассылке с коротким сроком действия боятся нечего. Комплексный подход к коммуникации с клиентом сделает этот процесс бесшовным и эффективным. Поэтому лучше не нарушать.

Бесплатно можно использовать вот этот сервис от promopult или вот этот сервис от Spider Tool, есть платно и бесплатно. Скажите может кто знает, есть ли защита от парсинга вообще, или это гиблое дело?

Думаю, оптимальной рабочей шириной для сайта есть 1000 пикселей + 24 уходит на полоску вертикального скролла, или же за среднюю цифру максимума можно взять примерно 1200px.

Как по мне, то резина, это основной недостаток сайтов. Если на 17-дюймовом мониторе сайт смотрится на ура, и содержимое его контента тоже. То на мониторе в 22 дюйма, все может преобразиться до дикой неузнаваемости.

Но я точно знаю, что время маленьких разрешений уже за горами. Кто его знает может через два года минимальным по стандарту будет идти разрешение в 2000 пикселей шириной, а в будущем и еще больше. Фиг его знает, я же не гадалка.

Ни один вариант соцфишинга не воспринимался ещё всерьёз на-ура. На Яндексе за это банят.

В основном, это разработанный алгоритм который позволяет определять номера телефонов людей, которые зашли на сайт. То есть, не только тех, кто сам оставил заявку, а вообще всех (на самом деле практически всех. 60-70% всех посетителей).

Первый алгоритм может быть в виде, кода, а другой в виде сервиса продажи лидов через сервис. То есть идет сбор трафика с контекстной рекламы.

Выгода от этого алгоритма, понятное дело, колоссальна для маркетологов и владельцев бизнеса.

Здесь вопрос о моральности такого алгоритма. Представьте только такой алгоритм на медицинском сайте с которого вам потом будут названивать со словами «уважаемый, вы были у нас сайте в рубрике геморрой», у нас для вас есть чудо-средство....

Банить однозначно нужно. Хоть в Яндексе уверяют, что это на позиции не повлияет и просят установить в фильтре ограничения. Можно в принципе поставить : “фильтровать роботов по строгим правилам и по поведению”.

Но скажу, что позиции валятся. Можно сменить метрику, поставить LiveInternet или другую. И тогда посмотреть, если позиции сайта через апдэйт другой пойдут на верх. Значит от Яндекса лучше отказаться.

Ведь это подтвердит то, что Яндекс использует статистику в метрике для выдачи сайтов в поисковике. А это ой как не хорошо скажу я вам. В любом случае сайт нужно защитить. Банить однозначно.

Наверное, все таки лучше закрыть.

В Robots.txt нужно закрывать от индексации те разделы и те файлы, которые не нужны пользователям и не несут никакой ценности для поисковиков. Думаю не стоит закрывать rss. Правда поисковые роботы индексируют ленту быстрее, чем саму веб-страницу, из-за чего первоисточник может попасть под фильтры поисковых систем.

Ну бывает тема не идет. Начинаешь затем искать кучу материала, досконально изучаешь тему и пишешь заново. Кому как удобнее.

В эпоху когда информационный шум умножается, происходит неизбежность нарастания пресыщения любым видом контента. Контент должен быть не просто хорош, а дьявольски хорош. Создавая его, нужно пригнуть выше головы. Хороший текст, это вещь в себе, магию его создания ничем объяснить нельзя. Сложить правильные слова в правильном порядке - нелегкая штука. Лично я если контент не срабатывает, не переделываю и не дорабатываю. А пишу заново, полностью и искренно отдаваясь теме.

Всего: 693