- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сегодня уже 11 ноября, -) мой вопрос на четверой странице. ;-)))))))
Итак, сегодня 10 ноября 2005 года у меня появились новые вопросы касательно ЗЕКРАЛ сайта, на этот раз с www и без www. Пожалуйста, следуйте на вторую страницу за моими последними комметариями.
Continental
------изначательно тут было--------
Господа,
имеет два зеркала (с одного места), оба были удалены из базы, потом один из них занесен. Сегодня доиндексировались оба (!), даже зеркало. В результатах выдаются оба (!). Пропала главная странцица. И ни один из них не выдается высоко, практически свалился на землю. Нужен компетентный анализ сайта для принятия решения (как дальше жить). Почему, кстати, здесь адреса сайтов не пишут (я то же могу в личку скинуть). Со всеми поисковиками кроме Яндекса (ну, и Рамблера) все в шоколаде. Robots, host, redirect и пр. сделано по правилам, но не...
Выкиньте из выдачи зеркало и молитесь, чтобы Яндекс не успел проклеить его как основное зеркало.
Я Яндексу говорю, УДАЛИТЬ URL (со всеми хвостами), а он тока новые страницы добавляет.
Я ставлю редирект с неосновного зеркала, а Яндексу пофиг... ;-/
в robots.txt напиши в последней строке
Host: generalDomain.ru
Golubeff Pavel, не помогает.
Continental, редирект пофиг быть не может. Но сперва всё-таки в robots.txt зеркала, предварительно отключив редирект:
User-agent: Yandex
Disallow: /
И сюда: http://webmaster.yandex.ru/delurl.xml
Ждать от одного до трёх апдейтов. Потом включить редирект.
Пошлите письмо на суппорт Я, изложив ситуацию. Я - не Бог, баки у него есть (один отловили на моем сайте, хотя сначала писали, что бан), возможно, это один из них.
Я на своих проектах уже послал письмо в Я.
сделал 301 редирект и robots.txt(чтобы уж точно все было)
Ответили что ждать надо 2-4 недели. 1 уже прошла.
/ps/Яндекс уже выбрал НЕ ТО зеркало...
Итак, уточняю и акцентирую Ваше внимание:
1. Нет разных файлов robots.txt на гл.домен и на зеркале. Файл ОДИН. Общий. На время команды на удаления по рекомендованному адресу я прописываю еще дополнительно строку: Disallow: /, потом удаляю.
User-Agent: *
Disallow: /basket
Host: www.главное_зеркало.ru
С удалением зеркала, думаю, разберусь. Скоро его не будет.
2. Гл. домен живет, проиндексирован (сегодня до конца), вроде НЕ зазеркален, т.к. выдется в результатах поиска, но положение его страниц КРАЙНЕ далеко. И это и есть проблема.
Как определить, не наложен бан на сайт?
Кто-нибудь может проконсультировать по переоптимизации сайта? ;-)
может быть я слишком много слов наставил в title и длинными их сделал.
3. Не советуйте обращаться с суппорт. Я же на форуме с Вами, уважаемые оптимизаторы, общаюсь. С саппортом я веду переписку с лета, все проверяли, давали рекомендации, но ответом было "Ждите..."
Главный вопрос: почем мой сайт не выдется в поиске на первых местах и как это исправить? Подождать недельнику, пока стабилизируется или... Я уже думаю, не сменить ли домен и сделать специальный сайт для Яндекса? ;-)
ТАк где же авторитетное мнение? Насчет что случилось сайтом:
бан?
пессимизация?
все нормально?
Вот блин, дожили... Конечно, на фига ему их удалять потом - если disallow уже нет. И вообще, отдавайть разные robots.txt для разных доменов - не способ настоящих мужчин ? Лучше мозгу себе и другим мучать ? :)
Вопрос в том, КАК это сделать? Файл один, SSI включен (сегодня провайдер сказал как), я вставил в robots.txt:
<!--#if expr=" \"${HTTP_HOST}\" != \"www.главное_имя.ru\" " -->
User-Agent: *
Disallow: /
<!--#endif -->
И ничего не обрабатывается, а лишь выдается этот текст. Есть еще способы?