- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Я всегда однобоко оптимизирую сайт ( вернее часть своей работы)- мне важна точность определения причин связанная только с контентом и мета-тегами. Можно наплодить много разнообразного контента и наставить на сайт тысячи ссылок с каталогов, но это может делать каждый и конечно результат положительный какой-то будет. Но ИМХО при точности достаточно поставить по настоящему нужных 20 ссылок на сайт и создать один точный контент под запрос и получить более точное попадание по нужному запрос - в этом случае есть элемент подконтрольности выдачи.
greenwood, Хорошо, с вашим последним утверждением я согласен.
Но на счет разных алгоритмов под разные отрасли - это, согласитесь, не подкреплено ничем.... а интуитивные переживания оформлять сообщениями вида "Похоже что...." - несколько опрометчиво.
только внутренним ощущением по своим подопечным сайтам - нет технической возможности перелопатить большой обьем данных для более точного утверждения.
greenwood
Это называется домыслы. :)
нет технической возможности перелопатить большой обьем данных для более точного утверждения.
а мне кажется это просто скрытый запрос на подтверждение или опровержение догадки, подтвержденной данными не достаточными для окончательного решения ;) если у других схожая ситуация, то возможно и фильтр вылезет ...
Не могу утверждать со 100%-й точностью, т.к. проверялось мало запросов, но у нас все вернулось на круги своя.
Не могу утверждать со 100%-й точностью, т.к. проверялось мало запросов, но у нас все вернулось на круги своя.
а у меня все лучше и лучше ... чем больше работаю - тем лучше результаты. Нравится мне это дело 🚬
Я рад за Вас, но это не всегда хорошо.
Поясню : если все ..я подчеркиваю все запросы в выдаче хорошо, то наступит момент, когда всё будет плохо.
Нужно к примеру при наличии на сайте 100 запросов, делать 33 % процента хорошо, 33% средне, 33% плохо - тогда стабильность при смене алгоритма будет надежней.
Семантическое ядро соотвественно надо подбирать колличественно с учетом вышесказанного.
Я рад за Вас, но это не всегда хорошо.
Поясню : если все ..я подчеркиваю все запросы в выдаче хорошо, то наступит момент, когда всё будет плохо.
Нужно к примеру при наличии на сайте 100 запросов, делать 33 % процента хорошо, 33% средне, 33% плохо - тогда стабильность при смене алгоритма будет надежней.
Семантическое ядро соотвественно надо подбирать колличественно с учетом вышесказанного.
плохо при широком охвате областей, методов и поисковиков (трехмерное пространство) никогда не будет. А если будет - к тому времени накопится энная сумма на которую можно будет перекантоваться. По этому я придерживабсь другого мнения.
Я не говорю, что я раскручиваю только одним методом ... я применяю все мне известные методы оптимизации в разных пропорциях на разных сайтах. А радует то, что при большом количестве оптимизируемых сайтов (теперь в рунете у меня их много) общая тенденция такова, что "чем дальше - тем лучше результат".
Ну и зря - мнения то наши совпадают :-)