- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте! Многие наверное пользуются сервисами анализа сайтов. Проверил в трех таких анализаторах свои сайты и самого яшку. Не считая ТИЦ и PR и некоторые другие показатели, то данные сервисы показывают параметры яши, как и у моих сайтов (или мои как у яши:)), в некоторых случаях у яши даже хуже, чем на моих сайтах. Например один сервис у яши показывает: оценка сайта 75 %, ошибок 13, имел склееный домен, Тег H1 повторяется больше чем один раз, теги h-2- h-6 отсутствуют, низкая тошнота (сервисы рекомендуют увеличить) и другие. Это как? Не совсем правильные сервисы? Все таки думаю, что у яши собран цвет seo-россии и яша должен быть идеалом, а такие параметры. Или сервисам не стоит доверять?
Или сервисам не стоит доверять?
Смотря какие сервисы. Многие краулеры, вроде seoto.me и saitreport.ru помогают обнаружить ошибки сайта, например битые ссылки, непроиндексированные страницы, битые ссылки и т.д
низкая тошнота (сервисы рекомендуют увеличить)
Странный совет, не факт что для вас рабочий.
Такие сервисы проверяются лично, на опыте, на протяжении нескольких лет. Все зависит от того, что человек хочет получить в анализе. Я постоянно пользуюсь pr-cy, и выглядит прилично и вроде функционал нормальный.
Аналогично, захожу на pr-cy, если нужно быстро чекнуть сайт. Удобно, что все ключевые параметры на виду.
Насчет тошноты — текст должен быть читаемым и не перегружен ключами, тот же pr-cy считает по формуле и укажет на ошибку. Тошнота больше 8% не есть гут.
Makedo, metzeler, pr-cy все-таки проверяет сайты по верхам, не углубляясь далеко в техническую оптимизацию, Screaming Frog будет проверять большее количество параметров.
Доверять никаким сервисам не стоит, только ручная проверка. Особенно это касается сервисов, которые якобы предоставляют комплексную информацию по десяткам параметров. Такие сервисы показывают среднюю температуру по больнице, которая по-сути никакой полезной информации не несет. На сегодняшний день не могу назвать ни одного качественного сервиса комплекной проверки сайта, который давал бы хоть сколько-то достоверные данные. Я имею ввиду комплекс данных. По крохам, с десятка сервисов, конечно можно кое-что полезное узнать. Например, ahrefs довольно точные данные предоставляет по ссылочному окружению. В симуларвеб можно посмотреть довольно достоверную информацию по источникам трафика конкурентов и т.д. Я бы советовал делать так - все что можно посмотреть руками - лучше и надежней посмотреть руками. Что нельзя посмотреть вручную - смотреть через качественные сервисы. Главное отличие качественных сервисов - в 90% они платные и стоят достаточно дорого.
Fish_su, Допустим у нас интернет магазин. Всего 3000 товарных позиций, 40 категорий. Мы хотим проверить уникальность title в пределах сайта. Вручную все смотреть?
Fish_su, Допустим у нас интернет магазин. Всего 3000 товарных позиций, 40 категорий. Мы хотим проверить уникальность title в пределах сайта. Вручную все смотреть?
Если честно, то что касается тайтлов, то там проверять нечего ) Просто в каждой категории пишите тайтл вручную, согласно своему семантическому ядру. Что касается карточек товаров, то в каждой категории прописывается шаблон, по которому тайтлы формируются автоматически. Проверить потом останется только выборочно несколько карточек товаров в каждой категории, чтобы проверить правильно ли работает генерация тайтлов.
Ну это касается тайтлов. Опять же повторю: "Я бы советовал делать так - все что можно посмотреть руками - лучше и надежней посмотреть руками. Что нельзя посмотреть вручную - смотреть через качественные сервисы." Если у вас проект на 100 000 страниц и вам нужно проверить наличие битых ссылок, конечно же пользуйтесь сервисом. Но опять же, узкопрофильным, который проверяет битые ссылки, а не все подряд - битые ссылки, внешнее ссылочное, тошнотность текстов, сравнение видимости с конкурентами, анализ сниппетов в выдаче и т.д. У такого рода сервисов (особенно бесплатных) огромная погрешность, т.к. разработчики просто не успевают их актуализировать и следить за стабильностью их работы.
У такого рода сервисов (особенно бесплатных) огромная погрешность
Я так навскидку и не скажу бесплатного онлайн-краулера. По крайней мере в списках нет хорошего, потому что это большие затраты ресурсов staurus.net/best-seo-marketing-tools.html
узкопрофильным, который проверяет битые ссылки
В десктопной программе PageWeight, кроме расчета веса есть функция поиска битых ссылок. Качество проверки иногда хуже, чем у ComparseR.
Доверять никаким сервисам не стоит, только ручная проверка
Поддерживаю.
Если,конечно, на сайте не млн страниц.
Доверять никаким сервисам не стоит, только ручная проверка
А как тогда понять на, что обратить внимание при ручном обходе. Всегда идти по своему чек-листу в голове? Но это по идеи большие трудозатраты.
Как и писал выше я за ручной+разноплановое крайлеры по сайту.