- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Недели три назад провел внутреннюю оптимзацию (но по большей части кардинально ничего не менял, только увеличил частоту ключевиков), через неделю я снял положительный рост,только рано порадовался, после последнего апа в Гугле, пошел регрес, причем Гугл начал выдавать в серпе страницы как с www так и без (до этого выдача была только с www). Нашел в факах статью "зеркала с ввв и без"
Если в в индексе оба зеркала, значит, поисковая система все еще считает эти домены двумя разными сайтами. Со временем поисковая система выберет из них один, и назначит его главным зеркалом.
Вот и хотелось бы узнать, что происходит?
сделайте переадресацию на www, моно еще robots.txt прописать хост
я вообще-то думал, что Гулг уже определился с главным зеркалом(сайту уже несколько лет и он давно уже в индексе у Гугла). Кстати такая вот непонятка может влиять на позиции в выдаче, я имею ввиду в худшую сторону?
деректива host гуглю не известна, так что...
TomCAt.nl, попробуйте выделить основной домен для гугля в "Инструментах для веб-мастера"
TomCAt.nl, делайте информативные заголовки топиков! Замечание.
только увеличил частоту ключевиков
Вынужден тебя разочаровать... это - НЕ оптимизация 😂
деректива host гуглю не известна, так что...
TomCAt.nl, попробуйте выделить основной домен для гугля в "Инструментах для веб-мастера"
- webmaster tools
- перепишите еще раз контент, только для людей =)
- пара сильных внешних
TomCAt.nl, делайте информативные заголовки топиков! Замечание.
Хорошо в следующий раз буду более информативным, придумаю что-нибудь типа "Помогите новичку"
перепишите еще раз контент, только для людей =)
Ну моего контента вы еще не видели, он и так написан для них, а в остальном пасибо
Вынужден тебя разочаровать... это - НЕ оптимизация
Оптимизация-это комплекс мероприятий, в их состав входит работа над контентом. Узнавать такие простые вещи от новичков🙅, стыдно должно быть, товарищ!
По поводу "Инструменты Ггул для веб-мастеров", в ошибках при сканировании в пункте " URL, запрещенные файлом robots.txt" идет перечисление страниц, которые им запрещены, это было бы нормально, если бы robots.txt у меня был, но его нет(что подтверждает и сам Ггул при анализе robots.txt, выдает ошибку 404). Что это тогда за перечень запрещенных url?
либо дожидаетесь склейки зеркал самими ПС
либо помогаетет им. Помогать конечно следовало бы с самого начала.
создаете файл .htaccess
и пишете туда:
RewriteEngine On
Options +FollowSymLinks
RewriteCond %{HTTP_HOST} ^site\.ru [NC]
RewriteRule ^(.*)$ http://www.site.ru/$1 [R=301,L]
создаете файл robots.txt
и пишете туда
User-agent: *
Disallow:
User-agent: Yandex
Disallow:
Host: www.site.ru
это для того случая, если хочется чтобы главным и единственным зерклом было с www.